Il software di reclutamento di Amazon è prevenuto contro le donne

I dati utilizzati per addestrare l’algoritmo di intelligenza artificiale di Amazon mostravano una preferenza verso candidati umani.

di Erin Winick

La notizia: Secondo un rapporto pubblicato da Reuters, Amazon aveva cominciato a sviluppare un sistema automatizzato nel 2014 per elaborare una graduatoria delle persone in cerca di lavoro. L’anno scorso, la società avrebbe annullato il progetto dopo aver scoperto che il suo algoritmo tendeva a preferire candidati uomini per ruoli tecnici.

Perché? L’IA era stata addestrata utilizzando l’equivalente di 10 anni di curriculum raccolti dalla società. Essendo l’industria tecnologica un mondo prevalentemente maschile, la maggior parte di questi curriculum proveniva da candidati uomini.

I risultati: Il sistema ha involontariamente sviluppato una preferenza per candidati di sesso maschile, al punto da arrivare a bocciare curriculum contenenti parole quali “donna” o i nomi di certe università femminili. Nonostante le modifiche apportate per neutralizzare questi errori, la società non crede più che il programma sia neutrale nei restanti aspetti.

Perché conta: Non possiamo trattare l’intelligenza artificiale come un sistema inerentemente imparziale. L’addestramento di questi sistemi con dati compromessi compromette la loro capacità di rimanere imparziali. A meno di identificare questi difetti, sistemi del genere potrebbero aggravare i problemi che affliggono il mondo del lavoro.

(MO)

Related Posts
Total
0
Share