STEPHANIE ARNETT/MITTR | MIDJOURNEY (SUITS)

Perché è impossibile costruire un modello linguistico di Intelligenza Artificiale senza pregiudizi

Inoltre: Worldcoin è stato appena lanciato ufficialmente. Ed è già oggetto di indagini.

I modelli linguistici di intelligenza artificiale sono diventati di recente l’ultima frontiera delle guerre culturali negli Stati Uniti. I commentatori di destra hanno accusato ChatGPT di avere un “pregiudizio da woke” e i gruppi conservatori hanno iniziato a sviluppare le proprie versioni di chatbot AI. Nel frattempo, Elon Musk ha dichiarato di essere al lavoro su “TruthGPT”, un modello linguistico “alla massima ricerca della verità” che si contrapporrebbe ai chatbot “politicamente corretti” creati da OpenAI e Google.

Un chatbot AI imparziale e puramente basato sui fatti è un’idea carina, ma è tecnicamente impossibile (Musk non ha ancora condiviso i dettagli di ciò che comporterebbe il suo TruthGPT, probabilmente perché è troppo impegnato a pensare a X e a lotte in gabbia con Mark Zuckerberg). Per capire perché, vale la pena leggere un articolo che ho appena pubblicato su una nuova ricerca che fa luce su come i pregiudizi politici si insinuino nei sistemi linguistici dell’intelligenza artificiale. I ricercatori hanno condotto test su 14 grandi modelli linguistici e hanno scoperto che ChatGPT e GPT-4 di OpenAI erano i più libertari di sinistra, mentre LaMA di Meta era il più autoritario di destra.

“Riteniamo che nessun modello linguistico possa essere del tutto privo di pregiudizi politici”, mi ha detto Chan Park, ricercatore presso la Carnegie Mellon University, che ha partecipato allo studio. Per saperne di più leggi qui.

Uno dei miti più diffusi intorno all’IA è che la tecnologia sia neutrale e imparziale. Si tratta di una tesi pericolosa, che non farà altro che esacerbare il problema della tendenza degli esseri umani a fidarsi dei computer, anche quando questi ultimi si sbagliano. In realtà, i modelli linguistici dell’IA riflettono non solo i pregiudizi dei dati di addestramento, ma anche quelli delle persone che li hanno creati e addestrati.

“Sebbene sia ben noto che i dati utilizzati per l’addestramento dei modelli di intelligenza artificiale siano una fonte enorme di questi pregiudizi, la ricerca di cui ho scritto mostra come i pregiudizi si insinuino praticamente in ogni fase dello sviluppo del modello”, afferma Soroush Vosoughi, assistente alla cattedra di informatica del Dartmouth College, che non ha preso parte allo studio.

I bias nei modelli linguistici dell’intelligenza artificiale sono un problema particolarmente difficile da risolvere, perché non capiamo davvero come generano le cose che fanno e i nostri processi per mitigare i pregiudizi non sono perfetti. Questo è in parte dovuto al fatto che i pregiudizi sono problemi sociali complicati che non possono essere risolti facilmente.

Ecco perché credo fermamente che l’onestà sia la migliore politica. Una ricerca come questa potrebbe incoraggiare le aziende a tracciare e a documentare le distorsioni politiche dei loro modelli e a essere più schiette con i loro clienti. Potrebbero, ad esempio, dichiarare esplicitamente i pregiudizi noti, in modo che gli utenti possano trattare i risultati dei modelli con la giusta consapevolezza.

In questo senso, all’inizio di quest’anno OpenAI mi ha detto che sta sviluppando chatbot personalizzati in grado di rappresentare diverse politiche e visioni del mondo. Un approccio potrebbe essere quello di permettere alle persone di personalizzare i loro chatbot AI. È un aspetto su cui si è concentrata la ricerca di Vosoughi.

Come descritto in un documento sottoposto a revisione paritaria, Vosoughi e i suoi colleghi hanno creato un metodo simile a un algoritmo di raccomandazione di YouTube, ma per modelli generativi. Utilizzano l’apprendimento per rinforzo per guidare i risultati di un modello linguistico di intelligenza artificiale in modo da generare determinate ideologie politiche o rimuovere i discorsi di odio.

OpenAI utilizza una tecnica chiamata apprendimento per rinforzo attraverso il feedback umano per mettere a punto i suoi modelli di intelligenza artificiale prima del loro lancio. Il metodo di Vosoughi utilizza l’apprendimento rinforzato per migliorare i contenuti generati dal modello anche dopo il suo rilascio.

Ma in un mondo sempre più polarizzato, questo livello di personalizzazione può portare a risultati sia positivi sia negativi. Se da un lato può essere usato per eliminare sgradevolezza o disinformazione da un modello di IA, dall’altro può essere usato per generare più disinformazione.

“È un’arma a doppio taglio”, ammette Vosoughi.

Apprendimento più profondo
Worldcoin è stato appena lanciato ufficialmente. Perché si sta già indagando su di essa?

La nuova impresa di Sam Altman, CEO di OpenAI, Worldcoin, mira a creare un sistema di identità globale chiamato “World ID” che si basa sui dati biometrici unici degli individui per dimostrare che sono esseri umani. È stato lanciato ufficialmente la scorsa settimana in più di 20 Paesi. In molti di essi è già oggetto di indagine.

Incubo della privacy: per capire perché, vale la pena di leggere un’indagine del MIT Technology Review dello scorso anno, che ha scoperto che Worldcoin raccoglieva dati biometrici sensibili da persone vulnerabili in cambio di denaro. Inoltre, l’azienda utilizzava i dati sensibili, anche se anonimizzati, degli utenti per addestrare modelli di intelligenza artificiale, a loro insaputa.

Related Posts
Total
0
Share