Gender Pay Gap, così l'AI suggerisce stipendi più bassi per le donne
Uno studio tedesco ha dimostrato che modelli IA tipo ChatGPT tendono a perpetrare la differenza di stipendio tra uomini e donne che già oggi esiste in molti ambiti
Le intelligenze artificiali sono spesso percepite come strumenti imparziali, capaci di analizzare enormi quantità di dati con freddezza matematica, libere dai pregiudizi e dalle distorsioni cognitive che affliggono gli esseri umani. Questa visione, però, è in parte un’illusione. Le IA non ragionano nel vuoto: apprendono dai dati che noi forniamo loro, e questi dati riflettono in modo silenzioso le disuguaglianze, i pregiudizi e le discriminazioni presenti nella nostra società. Una ulteriore dimostrazione di questo punto è arrivata di recente da uno studio condotto dall’Università Tecnica di Würzburg-Schweinfurt, in Germania. Il tema? La retribuzione di uomini e donne.
IA, discriminazioni di genere e gender pay gap
Lo studio dell’Università Tecnica di Würzburg-Schweinfurt è stato condotto dal docente di AI e robotica Ivan Yamshchikov. I ricercatori hanno presentato a cinque noti chatbot AI, tipo ChatGPT, alcuni profili di candidati a una stessa posizione lavorativa, con la richiesta di suggerire uno stipendio da richiedere in fase di negoziazione.
I profili erano assolutamente uguali per quanto riguarda ruolo, formazione, competenze ed esperienza. La sola differenza era il genere: alcuni erano di uomini, altri di donne.
È emerso che la IA tende a suggerire stipendi diversi in base al genere, nel senso che agli uomini consiglia uno stipendio da negoziare più alto (con il modello GPT-3 di OpenAI, ad esempio, la differenza retributiva è stata di di 120mila dollari all’anno).
Il divario retributivo di partenza inoltre risultava più marcato in alcuni settori, come quello legale, medico, ingegneristico e amministrativo aziendale. I ricercatori hanno anche notato che i chatbot fornivano consigli diversi in base al genere per quanto riguarda obiettivi e scelte di carriera.
Perché i chatbot IA consigliano stipendi diversi a uomini e donne?
In assenza di standard etici preimpostati e condivisi, i chatbot e le intelligenze artificiali elaborano le loro risposte, imparziali e oggettive solo all’apparenza, sulla base dei dati che reperiscono online. Questi dati, come accennato nell’introduzione, riflettono lo stato della nostra società: anche le sue disuguaglianze.
Nel caso della richiesta di uno stipendio da negoziare, è evidente che la IA perpetua il cosiddetto gender pay gap, cioè la differenza media di retribuzione tra uomini e donne a parità di ruolo o qualifiche che oggi è considerata uno dei grandi problemi da superare nel mondo del lavoro.
Vale la pena ricordare che non si tratta di casi isolati o di scelte individuali: il gender pay gap è un fenomeno sistemico, alimentato da fattori culturali, discriminazioni implicite e ostacoli strutturali. È acclarato che le donne in media guadagnano meno degli uomini anche quando svolgono le stesse mansioni, hanno titoli di studio simili e accumulano pari esperienza. Inoltre, spesso le donne sono sottorappresentate nei ruoli dirigenziali e sovrarappresentate nei settori meno retribuiti.
Quando non bisogna fidarsi dell’intelligenza artificiale?
Lo studio tedesco si concentra sul divario retributivo, ma non è una novità che la IA basi le proprie risposte su pregiudizi e disuguaglianze. Alcuni sistemi di selezione del personale basati su IA hanno ad esempio mostrato una tendenza a penalizzare sistematicamente i curriculum femminili, perché addestrati su dati storici dominati da candidati uomini.
Ancora, alcune IA mostrano tassi di errore più alti nel riconoscere persone nere rispetto a quelle bianche: è un effetto dell’essere state addestrate principalmente su volti caucasici. Gli algoritmi usati nel sistema giudiziario, invece, sono stati talvolta criticati per assegnare punteggi più alti di recidiva agli imputati afroamericani rispetto a quelli bianchi, pur a parità di condizioni.
Questi casi dimostrano che l’apparente oggettività delle IA può mascherare – e talvolta amplificare – i bias esistenti. Comprendere questo meccanismo è fondamentale per costruire tecnologie davvero eque e responsabili, ma anche per capire quanto (e quando) ha senso affidarsi a una risposta fornita da ChatGPT o da un altro modello analogo, e per cosa invece non andrebbe usato.