GETTY IMAGES

Bill Gates non ha paura dell’intelligenza artificiale

Il fondatore di Microsoft è ottimista: “la migliore ragione per credere che possiamo gestire i rischi è che lo abbiamo già fatto in passato”.

Bill Gates si è unito al coro di grandi nomi della tecnologia che si sono espressi sulla questione dei rischi legati all’intelligenza artificiale. In poche parole? Non è troppo preoccupato perché ci siamo già passati.

Quest’ottimismo rinfranca dopo settimane di cupe previsioni, ma è accompagnato da poche idee veramente fresche.

Il miliardario, magnate dell’economia e filantropo, ha esposto le sue ragioni in un post pubblicato oggi sul suo blog personale GatesNotes. “Riconosco l’importanza delle preoccupazioni che sento e leggo più spesso, molte delle quali condivido, e voglio spiegare come la penso”, scrive.

Secondo Gates, l’intelligenza artificiale è “la tecnologia più trasformativa che vedremo nel corso della nostra vita”. Più di Internet, degli smartphone e dei personal computer, le tecnologie su cui egli stesso ha lavorato e che ha diffuso nel mondo (e suggerisce anche che nei prossimi decenni non verrà inventato nient’altro che possa competere con l’intelligenza artificiale).

Gates è stato una delle decine di personalità di alto profilo a firmare una dichiarazione rilasciata dal Center for AI Safety di San Francisco qualche settimana fa, che recita: “Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Ma nel post non si parla di paura. In effetti, il rischio esistenziale non viene nemmeno preso in considerazione. Al contrario, Gates inquadra il dibattito in una contrapposizione tra rischi “a lungo termine” e “immediati”, e sceglie di concentrarsi sui “rischi che sono già presenti o che lo saranno presto”.

“Gates suona la stessa musica da un bel po’ di tempo”, afferma David Leslie, Director of Ethics and Responsible Innovation Research all’Alan Turing Institute. Gates è stato una delle tante figure pubbliche che hanno parlato del rischio esistenziale dell’IA un decennio fa, quando l’apprendimento profondo (deep learning) ha iniziato a prendere piede, dice Leslie: “All’epoca era più preoccupato della superintelligenza. Sembra che la cosa si sia un po’ attenuata”.

Gates non scarta del tutto il rischio esistenziale. Si chiede cosa potrebbe accadere “quando” – e non “se” – “svilupperemo un’intelligenza artificiale in grado di apprendere qualsiasi argomento o compito”, spesso definita intelligenza artificiale generale, o AGI.

Scrive: “Che si arrivi a quel punto tra un decennio o un secolo, la società dovrà fare i conti con domande profonde. Cosa accadrebbe se una super IA stabilisse i propri obiettivi? E se questi fossero in conflitto con quelli dell’umanità? Dovremmo creare una super IA? Ma pensare a questi rischi a lungo termine non dovrebbe andare a scapito di quelli più immediati”.

Gates ha creato una sorta di via di mezzo tra il pioniere del deep learning Geoffrey Hinton che ha lasciato Google e ha reso pubblici i suoi timori sull’IA a maggio, e altri come Yann LeCun e Joelle Pineau di Meta (che pensano che parlare di rischio esistenziale sia “assurdamente ridicolo” e “fuori di testa”) o Meredith Whittaker di Signal (che ritiene che le paure condivise da Hinton e altri siano “storie di fantasmi”).

È interessante chiedersi quale sia il contributo alla discussione di Gates, dice Leslie: “Con tutti quelli che ne parlano, siamo un po’ saturi”.

Come Gates, anche Leslie non scarta del tutto gli scenari apocalittici. “Nelle mani sbagliate queste tecnologie possono causare danni catastrofici”, afferma. “Non c’è bisogno di credere alla superintelligenza, ai robot da fine del mondo o alle speculazioni sull’intelligenza artificiale per capirlo. Ma sono d’accordo sul fatto che le nostre preoccupazioni immediate dovrebbero essere quelle di affrontare i rischi esistenti che derivano dalla rapida commercializzazione dell’IA generativa. Serve a qualcosa di positivo ingrandire la nostra lente e dire: ‘Ok, quali sono le preoccupazioni immediate?’”.

Nel suo post, Gates osserva che l’IA è già una minaccia in molte aree fondamentali della società, dalle elezioni all’istruzione e all’occupazione. Naturalmente, queste preoccupazioni non sono una novità. Ciò che Gates vuole dirci è che, sebbene queste minacce siano serie, abbiamo la possibilità di contrastarle: “La migliore ragione per credere che possiamo gestire i rischi è che lo abbiamo già fatto in passato”.

Negli anni ’70 e ’80, le calcolatrici hanno cambiato il modo in cui gli studenti imparavano la matematica, permettendo loro di concentrarsi su quelle che Gates chiama le “abilità di pensiero dietro l’aritmetica” piuttosto che l’aritmetica di base stessa. Ora vede applicazioni come ChatGPT fare lo stesso con altre materie.

Negli anni ’80 e ’90, le applicazioni di videoscrittura e i fogli di calcolo hanno modificato il lavoro d’ufficio. Un cambiamento che è stato guidato dall’azienda di Gates, Microsoft.

Ancora una volta, Gates guarda al modo in cui le persone si sono adattate e sostiene che possiamo farlo di nuovo. “Le applicazioni di elaborazione dei testi non hanno eliminato il lavoro d’ufficio, ma lo hanno cambiato per sempre”, scrive. “Il cambiamento causato dall’IA sarà caratterizzato da una transizione complicata, ma ci sono tutte le ragioni per pensare che possiamo ridurre il suo impatto sull’economia e sulla vita delle persone”.

Lo stesso vale per la disinformazione: abbiamo imparato a gestire lo spam, quindi possiamo fare lo stesso con i deepfake. “Alla fine, la maggior parte delle persone ha imparato a guardare due volte quelle e-mail”, scrive Gates. “Mano a mano che le truffe sono diventate più sofisticate, anche molti degli obiettivi delle stesse sono diventati più sofisticati. Dovremo lavorare con la stessa determinazione per combattere il fenomeno del deepfake”.

Gates sollecita un’azione rapida ma cauta per affrontare tutte le questioni che solleva. Il problema è che non offre nulla di nuovo. Molti dei suoi suggerimenti sono già conosciuti, altri sono banali.

Come altri nelle ultime settimane, Gates chiede un organismo globale per regolare l’IA, simile alla International Atomic Energy Agency. Ritiene che questo sarebbe un buon modo per controllare lo sviluppo di armi informatiche. Ma non dice quali siano i limiti che tali regolamenti dovrebbero porre o come dovrebbero essere applicati.

A suo avviso, i governi e le aziende devono offrire sostegno, per esempio con programmi di riqualificazione, per assicurarsi che le persone non rimangano indietro nel mercato del lavoro. Anche gli insegnanti dovrebbero essere sostenuti nella transizione verso un mondo in cui app come ChatGPT sono la norma. Ma Gates non specifica in che cosa consisterebbe questo supporto.

Secondo l’autore, dobbiamo diventare più bravi a individuare i deepfake, o almeno utilizzare strumenti che li rilevino per noi. Ma gli strumenti più recenti non sono in grado di rilevare immagini o testi generati dall’IA abbastanza precisamente da essere utili. Con il miglioramento dell’intelligenza artificiale generativa, i programmi per rilevare i contenuti da essa prodotti riusciranno a tenere il passo?

Gates ha ragione nel dire che “un sano dibattito pubblico dipenderà dalla conoscenza che tutti avranno della tecnologia, dei suoi benefici e dei suoi rischi”. Ma spesso ricade nella convinzione che l’IA risolverà i problemi dell’IA, convinzione che non tutti condivideranno.

Sì, i rischi immediati devono avere la priorità. Sì, abbiamo già affrontato (o superato) gli sconvolgimenti tecnologici in passato e potremmo farlo di nuovo. Ma come?

“Una cosa che risulta chiara da tutto ciò che è stato scritto finora sui rischi dell’IA – e molto è stato scritto – è che nessuno ha tutte le risposte”, scrive Gates. Ed è ancora così.

Related Posts
Total
0
Share