Gli standard etici dell’AI riflettono la visione dei paesi forti

Gli organismi che dovrebbero stabilire le nuove regole in campo etico dell’AI rispecchiano principalmente le convinzioni dei paesi europei e degli Stati Uniti, rendendo impossibile ogni prospettiva profonda di cambiamento.

di Abhishek Gupta e Victoria Heath

Le organizzazioni e le aziende internazionali stanno collaborando intensamente per sviluppare linee guida globali per l’uso etico dell’intelligenza artificiale. Dichiarazioni, manifesti e raccomandazioni stanno invadendo Internet. Ma questi sforzi saranno inutili se non riusciranno a tenere conto dei contesti culturali e regionali in cui opera l’AI.

I sistemi di intelligenza artificiale hanno ripetutamente dimostrato di causare problemi che colpiscono in modo sproporzionato i gruppi emarginati, a vantaggio di pochi privilegiati. I tentativi di introdurre regole etiche dell’AI globale mirano ad aiutare tutti a trarre vantaggio da questa tecnologia e impedire che causi danni. In generale, lo fanno creando linee guida e principi da seguire per sviluppatori, finanziatori e regolatori, come per esempio l’introduzione di controlli interni di routine o protezioni sull’identità personale degli utenti.

Crediamo che questi gruppi abbiano buone intenzioni e stiano facendo un lavoro utile. La comunità di AI ha la necessità di concordare una serie di definizioni e concetti internazionali in campo etico. Ma senza una più vasta rappresentanza geografica, la visione etica globale dell’AI rifletterà le riflessioni di una parte delle persone, in particolare quelle che si trovano nel Nord America e nell’Europa nord-occidentale.

“Correttezza”, “privacy” e “pregiudizi” significano cose diverse a seconda del luogo. Le idee delle persone sono condizionate delle realtà politiche, sociali ed economiche e se le organizzazioni che lavorano sull’etica globale dell’IA non riconoscono queste differenze, rischiano di sviluppare standard che sono, nella migliore delle ipotesi, privi di significato e inefficaci in tutte le regioni del mondo. Nel peggiore dei casi, questi standard imperfetti porteranno a più sistemi e strumenti di AI che perpetuano i pregiudizi esistenti e sono insensibili alle culture locali.

Nel 2018, ad esempio, Facebook non è intervenuta prontamente sulla diffusione della disinformazione in Myanmar che alla fine ha portato a seri episodi di violazioni dei diritti umani. Un’inchiesta commissionata dall’azienda ha rilevato che questa svista era dovuta in parte alle linee guida della comunità di Facebook e alle politiche di moderazione dei contenuti, che non hanno avuto il polso della realtà politica e sociale del paese.

Per prevenire situazioni simili, le aziende che lavorano su linee guida etiche per strumenti basati sull’intelligenza artificiale devono coinvolgere gli utenti di tutto il mondo per contribuire a creare standard appropriati ai diversi sistemi. Devono anche avere consapevolezza della ricaduta delle loro politiche nei contesti locali.

Nonostante queste considerazioni, molti comitati consultivi, gruppi di esperti e consigli di AI nominati dalle principali organizzazioni internazionali mancano di rappresentatività. Il gruppo di consulenti per il progetto AI for Children dell’Unicef, per esempio, non ha rappresentanti delle regioni con la più alta concentrazione di bambini e giovani adulti, tra cui il Medio Oriente, l’Africa e l’Asia.

Allo stato attuale, le riflessione etica nell’AI è in buona parte limitata a lingue, idee, problemi che caratterizzano alcune zone, principalmente il Nord America, l’Europa occidentale e l’Asia orientale. Questa mancanza di diversità regionale riflette l’attuale concentrazione della ricerca sull’AI. Infatti, l’86 per cento degli articoli presentati alle conferenze di settore sull’IA nel 2018 sono attribuibili ad autori dell’Asia orientale, del Nord America o europei.

Solo meno del 10 per cento dei riferimenti presenti negli articoli sull’intelligenza artificiale pubblicati in questi paesi sono a documenti di altre aree geografiche. Anche i brevetti di AI sono concentrati: nel 2018, ben il 51 per cento erano nordamericani.

Se non stiamo attenti, potremmo finire per perpetuare i pregiudizi storici dell’AI in linee guida che imbottigliano la tecnologia per le generazioni a venire. Dobbiamo iniziare a dare la priorità alle voci provenienti dai paesi a reddito medio e basso, soprattutto al Sud del mondo e alle comunità storicamente emarginate.

I progressi tecnologici hanno spesso avvantaggiato l’Occidente, esacerbando la disuguaglianza economica, l’oppressione politica e la distruzione ambientale altrove. Includere i paesi non occidentali nella riflessione sull’etica dell’AI è il modo migliore per evitare di ripercorrere lo stesso percorso.

La buona notizia è che ci sono molti esperti e leader di regioni sottorappresentate da includere in nei gruppi di esperti. Tuttavia, molte organizzazioni internazionali sembrano non avere interesse a sollecitare la partecipazione di queste persone. Il Global AI Ethics Consortium, di recente costituzione, per esempio, non ha tra i fondatori rappresentanti delle istituzioni accademiche o dei centri di ricerca del Medio Oriente, dell’Africa o dell’America Latina. Questa omissione è un chiaro esempio di modelli coloniali che si replicano.

Se vogliamo costruire sistemi di intelligenza artificiale etici, sicuri e inclusivi piuttosto che impegnarci nel “lavaggio etico”, dobbiamo prima creare un rapporto di fiducia con coloro che sono stati storicamente danneggiati da questi stessi sistemi. Il primo passo è un coinvolgimento reale.

Il Montreal AI Ethics Institute, dove lavoriamo entrambi, sta cercando di adottare un approccio diverso. Ospitiamo meetup sull’etica dell’AI digitale, vale a dire discussioni aperte a cui chiunque abbia una connessione Internet o un telefono può partecipare. Durante questi eventi, ci siamo messi in contatto con gruppi eterogenei di persone, da un professore che vive a Macao a uno studente universitario che studia a Mumbai.

Nel frattempo, gruppi come il Partnership on AI hanno raccomandato modifiche alle leggi sui visti e proposte politiche che rendono più facile per i ricercatori viaggiare e condividere il loro lavoro. Masakhane, un’organizzazione di base, riunisce ricercatori africani esperti di elaborazione del linguaggio naturale per sostenere il lavoro di traduzione automatica che ha finora trascurato le lingue non dominanti.

È incoraggiante vedere organizzazioni internazionali che cercano di includere prospettive diverse nelle loro discussioni sull’AI. È importante per tutti noi ricordare che la diversità regionale e culturale è la chiave di qualsiasi confronto serio sull’etica dell’AI. Rendere l’intelligenza artificiale di tutti è impossibile senza la voce di persone che non detengono potere e influenza.

Abhisheck Gupta è il fondatore del Montreal AI Ethics Institute e un ingegnere di machine learning presso Microsoft, dove fa parte del CSE Responsible AI Board. Victoria Heath è ricercatrice del Montreal AI Ethics Institute e della NATO Association of Canada.

Immagine di: Getty

(rp)

Related Posts
Total
0
Share