JUN IONEDA

Che cos’è l’IA?

Tutti pensano di sapere, ma nessuno è d’accordo. E questo è un problema.

Cattiveria su Internet, insulti e altri disaccordi non proprio meschini che cambiano il mondo

L’IA è sexy, l’IA è cool. L’IA sta radicando la disuguaglianza, sconvolgendo il mercato del lavoro e distruggendo l’istruzione. L’IA è un parco a tema, l’IA è un trucco magico. L’IA è la nostra ultima invenzione, l’IA è un obbligo morale. L’IA è la parola d’ordine del decennio, l’IA è un gergo di marketing del 1955. L’IA è simile all’uomo, l’IA è aliena. L’IA è super intelligente e stupida come la terra. Il boom dell’IA darà impulso all’economia, la bolla dell’IA sta per scoppiare. L’IA aumenterà l’abbondanza e permetterà all’umanità di prosperare al massimo nell’universo. L’IA ci ucciderà tutti.

Di cosa diavolo stanno parlando tutti?

L’intelligenza artificiale è la tecnologia più in voga del nostro tempo. Ma che cos’è? Sembra una domanda stupida, ma è una domanda che non è mai stata così urgente. Ecco la risposta breve: AI è un termine generico per indicare un insieme di tecnologie che permettono ai computer di fare cose che si pensa richiedano intelligenza quando sono fatte da persone. Si pensi al riconoscimento dei volti, alla comprensione del parlato, alla guida di automobili, alla scrittura di frasi, alla risposta a domande, alla creazione di immagini. Ma anche questa definizione contiene molte cose.

Ed è proprio questo il problema. Che cosa significa per le macchine capire il linguaggio o scrivere una frase? Che tipo di compiti potremmo chiedere a queste macchine di svolgere? E quanto dovremmo fidarci delle macchine per svolgerli?

Poiché questa tecnologia passa sempre più velocemente dal prototipo al prodotto, queste sono diventate domande per tutti noi. Ma (spoiler!) non ho le risposte. Non so nemmeno dirvi cosa sia l’IA. Nemmeno le persone che la producono sanno cosa sia l’IA. Non proprio. “Questo tipo di domande sono abbastanza importanti da far sentire tutti in grado di avere un’opinione”, afferma Chris Olah, scienziato capo del laboratorio di AI Anthropic di San Francisco. “Penso anche che si possa discutere quanto si vuole su questo argomento e che non ci siano prove che ci contraddicano in questo momento”.

Ma se siete disposti ad allacciare le cinture e a venire a fare un giro, posso dirvi perché nessuno lo sa davvero, perché tutti sembrano non essere d’accordo e perché fate bene a preoccuparvene.

Cominciamo con una battuta fuori luogo.

Nel 2022, a metà del primo episodio di Mystery AI Hype Theater 3000, un podcast che si occupa di festeggiamenti in cui gli irascibili co-conduttori Alex Hanna ed Emily Bender si divertono a infilare “gli aghi più affilati” in alcune delle vacche sacre più gonfiate della Silicon Valley, fanno una proposta ridicola. Stanno leggendo ad alta voce un post su Medium di 12.500 parole di un vicepresidente di Google, Blaise Agüera y Arcas, intitolato “Le macchine possono imparare a comportarsi?“. Agüera y Arcas sostiene che l’intelligenza artificiale può comprendere concetti in modo analogo a quello degli esseri umani, come ad esempio i valori morali. In breve, forse si può insegnare alle macchine a comportarsi.

IMMAGINE DI CORTESIA

Hanna e Bender non ne vogliono sapere. Decidono di sostituire il termine “IA” con “matematica”, cioè tanta, tanta matematica.

La frase irriverente ha lo scopo di far crollare ciò che essi considerano un’esagerazione e un antropomorfismo nelle frasi citate. Ben presto Hanna, sociologo e direttore della ricerca presso il Distributed AI Research Institute, e Bender, linguista computazionale dell’Università di Washington (e critico famoso su internet dell’hype dell’industria tecnologica), aprono un varco tra ciò che Agüera y Arcas vuole dire e il modo in cui loro scelgono di sentirlo.

“In che modo le IA, i loro creatori e i loro utenti dovrebbero essere ritenuti moralmente responsabili?”, si chiede Agüera y Arcas.

In che modo la matematica dovrebbe essere ritenuta moralmente responsabile? chiede Bender.

“C’è un errore di categoria”, dice. Hanna e Bender non si limitano a respingere le affermazioni di Agüera y Arcas, ma sostengono che non hanno senso. “Possiamo per favore smetterla con ‘un’IA’ o ‘le IA’ come se fossero, tipo, individui nel mondo?”. Dice Bender.

Alex Hanna
BRITTANY HOSEA-SMALL

Potrebbe sembrare che stiano parlando di cose diverse, ma non è così. Entrambe le parti stanno parlando di modelli linguistici di grandi dimensioni, la tecnologia alla base dell’attuale boom dell’IA. È solo che il modo in cui parliamo di IA è più polarizzato che mai. A maggio, Sam Altman, CEO di OpenAI, ha annunciato l’ultimo aggiornamento di GPT-4, il modello di punta della sua azienda, twittando: “A me sembra una magia”.

C’è molta strada tra la matematica e la magia.

Emily Bender
FOTO DI CORTESIA

L’intelligenza artificiale ha degli accoliti, che credono nella potenza attuale della tecnologia e nei suoi inevitabili miglioramenti futuri. Dicono che l’intelligenza artificiale generale è in vista; la superintelligenza è alle sue spalle. E ci sono anche gli eretici, che tacciano queste affermazioni di misticismo.

La narrazione popolare è plasmata da un pantheon di grandi nomi, dai responsabili del marketing di Big Tech come Sundar Pichai e Satya Nadella, ai signori dell’industria come Elon Musk e Altman, fino agli scienziati informatici famosi come Geoffrey Hinton. A volte questi sostenitori e condannatori sono la stessa cosa, e ci dicono che la tecnologia è così buona da essere cattiva.

Mentre il clamore per l’IA è aumentato, è sorta una lobby di oppositori pronti ad abbattere le sue ambiziose e spesso selvagge affermazioni. In questa direzione si muovono una serie di ricercatori, tra cui Hanna e Bender, ma anche critici del settore come l’influente informatico ed ex Googler Timnit Gebru e lo scienziato cognitivo della NYU Gary Marcus. Tutti hanno un coro di seguaci che bisticciano nelle loro risposte.

In breve, l’IA è arrivata a significare tutte le cose per tutte le persone, dividendo il campo in fandom. Può sembrare che i diversi campi si parlino addosso, non sempre in buona fede.

Forse trovate tutto questo sciocco o noioso. Ma data la potenza e la complessità di queste tecnologie – che sono già utilizzate per determinare quanto paghiamo l’assicurazione, come cerchiamo le informazioni, come svolgiamo il nostro lavoro, ecc. ecc. ecc.

Eppure, in tutte le conversazioni che ho avuto con persone all’avanguardia di questa tecnologia, nessuno ha dato una risposta chiara su cosa stiano costruendo esattamente. (Una breve nota a margine: questo articolo si concentra sul dibattito sull’IA negli Stati Uniti e in Europa, soprattutto perché lì si trovano molti dei laboratori di IA meglio finanziati e più all’avanguardia. Ma naturalmente la ricerca è importante anche altrove, in Paesi che hanno prospettive diverse sull’IA, in particolare la Cina). In parte è il ritmo di sviluppo. Ma la scienza è anche molto aperta. I grandi modelli linguistici di oggi possono fare cose incredibili. Il campo non riesce a trovare un terreno comune su ciò che accade realmente sotto il cofano.

Questi modelli sono addestrati a completare frasi. Sembra che siano in grado di fare molto di più, dalla risoluzione di problemi matematici al liceo alla scrittura di codici informatici, dal superamento di esami di legge alla composizione di poesie. Quando una persona fa queste cose, lo consideriamo un segno di intelligenza. E quando lo fa un computer? È sufficiente l’apparenza dell’intelligenza?

Queste domande vanno al cuore di ciò che intendiamo per “intelligenza artificiale”, un termine su cui si discute da decenni. Ma il discorso sull’IA si è fatto più aspro con l’ascesa di grandi modelli linguistici in grado di imitare il modo in cui parliamo e scriviamo con un realismo emozionante/agghiacciante (cancellare la dicitura che si preferisce).

Abbiamo costruito macchine con comportamenti simili a quelli umani, ma non ci siamo ancora liberati dall’abitudine di immaginare che dietro di esse ci sia una mente umana. Questo porta a valutazioni eccessive di ciò che l’IA può fare, indurisce le reazioni di pancia in posizioni dogmatiche e si inserisce nella più ampia guerra culturale tra tecno-ottimisti e tecno-scettici.

A questo stufato di incertezza si aggiunge un carico di bagaglio culturale, dalla fantascienza con cui scommetto che molti operatori del settore sono cresciuti, a ideologie molto più maligne che influenzano il modo in cui pensiamo al futuro. Con questo mix inebriante, le discussioni sull’IA non sono più semplicemente accademiche (e forse non lo sono mai state). L’IA accende le passioni delle persone e fa sì che gli adulti si chiamino per nome.

“Non è un dibattito intellettualmente sano in questo momento”, afferma Marcus. Per anni Marcus ha sottolineato i difetti e i limiti del deep learning, la tecnologia che ha lanciato l’IA nel mainstream, alimentando qualsiasi cosa, dagli LLM al riconoscimento delle immagini alle auto a guida autonoma. Nel suo libro del 2001 The Algebraic Mind ha sostenuto che le reti neurali, la base su cui si fonda l’apprendimento profondo, non sono in grado di ragionare da sole. (Per ora lo saltiamo, ma ci tornerò sopra più tardi e vedremo quanto conta una parola come “ragionamento” in una frase come questa).

Marcus dice di aver cercato di coinvolgere Hinton – che l’anno scorso ha reso pubbliche le sue paure esistenziali riguardo alla tecnologia che ha contribuito a inventare – in un vero e proprio dibattito su quanto siano realmente validi i modelli linguistici di grandi dimensioni. “Non vuole farlo”, dice Marcus. “Mi dà del cretino”. (Avendo parlato di Marcus con Hinton in passato, posso confermarlo. “ChatGPT capisce chiaramente le reti neurali meglio di lui”, mi ha detto Hinton l’anno scorso). Marcus si è anche attirato le ire quando ha scritto un saggio intitolato “Deep learning is hitting a wall”. Altman ha risposto con un tweet: “Dammi la fiducia di un mediocre scettico del deep learning”.

Allo stesso tempo, la sua attività ha reso Marcus un marchio unico e gli è valso l’invito a sedersi accanto ad Altman e a testimoniare l’anno scorso davanti alla commissione di supervisione sull’IA del Senato degli Stati Uniti.

Ed è per questo che tutti questi scontri sono più importanti della normale cattiveria di internet. Certo, ci sono in gioco grandi ego e ingenti somme di denaro. Ma soprattutto, queste dispute sono importanti quando i leader dell’industria e gli scienziati più competenti vengono convocati dai capi di Stato e dai legislatori per spiegare cos’è e cosa può fare questa tecnologia (e quanto dovremmo essere spaventati). Sono importanti quando questa tecnologia viene integrata nel software che usiamo tutti i giorni, dai motori di ricerca alle app di videoscrittura, fino agli assistenti sul telefono. L’intelligenza artificiale non scomparirà. Ma se non sappiamo cosa ci viene venduto, chi è l’inganno?

“È difficile pensare a un’altra tecnologia nella storia su cui si possa avere un tale dibattito: se sia ovunque o da nessuna parte”, scrivono Stephen Cave e Kanta Dihal in Imagining AI, una raccolta di saggi del 2023 su come le diverse credenze culturali plasmino le opinioni delle persone sull’intelligenza artificiale. “Il fatto che si possa discutere sull’IA testimonia la sua qualità mitica”.

Soprattutto, l’IA è un’idea, un ideale plasmato da visioni del mondo e tropi fantascientifici tanto quanto dalla matematica e dall’informatica. Capire di cosa stiamo parlando quando parliamo di IA chiarirà molte cose. Non saremo d’accordo su tutto, ma un terreno comune su cosa sia l’IA sarebbe un ottimo punto di partenza per parlare di cosa dovrebbe essere l’IA.

Ma per cosa litigano davvero tutti?

Alla fine del 2022, poco dopo il rilascio di ChatGPT da parte di OpenAI, iniziò a circolare online un nuovo meme che catturava la stranezza di questa tecnologia meglio di qualsiasi altra cosa. Nella maggior parte delle versioni, un mostro lovecraftiano chiamato Shoggoth, tutto tentacoli e bulbi oculari, regge una blanda emoji con la faccia sorridente come se volesse nascondere la sua vera natura. ChatGPT si presenta come umano e accessibile nei suoi giochi di parole, ma dietro questa facciata si nascondono complessità e orrori insondabili. (“Era una cosa terribile, indescrivibile, più grande di qualsiasi treno della metropolitana, un’informe congregazione di bolle protoplasmatiche”, scrisse H.P. Lovecraft dello Shoggoth nella sua novella del 1936 At the Mountains of Madness).

@ANTHRUPAD VIA KNOWYOURMEME.COM

Per anni una delle pietre di paragone più conosciute per l’IA nella cultura pop è stata Terminator, dice Dihal. Ma mettendo ChatGPT online gratuitamente, OpenAI ha permesso a milioni di persone di sperimentare in prima persona qualcosa di diverso. “L’IA è sempre stata un concetto molto vago, che può espandersi all’infinito fino a comprendere ogni tipo di idea”, spiega Dihal. Ma ChatGPT ha reso queste idee tangibili: “Improvvisamente, tutti hanno una cosa concreta a cui fare riferimento”. Che cos’è l’IA? Per milioni di persone la risposta è arrivata ora: ChatGPT.

L’industria dell’intelligenza artificiale sta vendendo a piene mani quella faccina sorridente. Si consideri il modo in cui il Daily Show ha recentemente sminuito l’hype, espresso dai leader del settore. Il capo dei VC della Silicon Valley, Marc Andreessen: “Questo ha il potenziale per rendere la vita molto migliore… Penso che sia onestamente un’occasione da non perdere”. Altman: “Odio sembrare un utopista della tecnologia, ma l’aumento della qualità della vita che l’IA può offrire è straordinario”. Pichai: “L’IA è la tecnologia più profonda su cui l’umanità sta lavorando. Più profonda del fuoco”.

Jon Stewart: “Sì, succhia un cazzo, fuoco!”.

Ma come sottolinea il meme, ChatGPT è una maschera amichevole. Dietro c’è un mostro chiamato GPT-4, un grande modello linguistico costruito da una vasta rete neurale che ha ingerito più parole di quelle che la maggior parte di noi potrebbe leggere in mille vite. Durante l’addestramento, che può durare mesi e costare decine di milioni di dollari, a questi modelli viene affidato il compito di riempire gli spazi vuoti di frasi tratte da milioni di libri e da una frazione significativa di Internet. Questo compito viene svolto più e più volte. In un certo senso, vengono addestrati per essere macchine di completamento automatico potenziate. Il risultato è un modello che ha trasformato gran parte delle informazioni scritte del mondo in una rappresentazione statistica di quali parole hanno più probabilità di seguire altre parole, catturate attraverso miliardi e miliardi di valori numerici.

È matematica, un’enorme quantità di matematica. Nessuno lo mette in dubbio. Ma è solo questo o questa matematica complessa codifica algoritmi capaci di qualcosa di simile al ragionamento umano o alla formazione di concetti?

Molte delle persone che rispondono affermativamente a questa domanda ritengono che siamo vicini a sbloccare qualcosa chiamato intelligenza artificiale generale, o AGI, un’ipotetica tecnologia futura in grado di svolgere un’ampia gamma di compiti al pari degli esseri umani. Alcuni di loro hanno addirittura messo gli occhi su quella che chiamano superintelligenza, una tecnologia fantascientifica in grado di fare cose molto migliori degli esseri umani. Questa coorte crede che l’intelligenza artificiale cambierà drasticamente il mondo, ma a quale scopo? Questo è un altro punto di tensione. Potrebbe risolvere tutti i problemi del mondo o portarlo alla rovina.

Oggi l’AGI compare nelle dichiarazioni di missione dei principali laboratori di intelligenza artificiale del mondo. Ma il termine è stato inventato nel 2007 come tentativo di nicchia di dare un po’ di brio a un campo che all’epoca era noto soprattutto per le applicazioni che leggevano la scrittura a mano sulle ricevute bancarie o consigliavano il prossimo libro da acquistare. L’idea era quella di recuperare la visione originale di un’intelligenza artificiale in grado di fare cose simili a quelle umane (di cui parleremo presto).

Si trattava più che altro di un’aspirazione, mi ha detto l’anno scorso Shane Legg, cofondatore di Google DeepMind, che ha coniato il termine: “Non avevo una definizione particolarmente chiara”.

L’AGI è diventata l’idea più controversa dell’IA. Alcuni ne parlavano come della prossima grande novità: l’AGI era l’IA ma, come dire, molto meglio. Altri sostenevano che il termine fosse così vago da essere privo di significato.

“AGI era una parola sporca”, mi ha detto Ilya Sutskever, prima di dimettersi da capo scienziato di OpenAI.

Ma i grandi modelli linguistici, e ChatGPT in particolare, hanno cambiato tutto. L’AGI è passata da una parola sporca a un sogno di marketing.

Questo ci porta a quella che ritengo una delle dispute più esemplificative del momento, in cui si delineano le parti in causa e la posta in gioco.

Vedere la magia nella macchina

Pochi mesi prima del lancio pubblico del grande modello linguistico GPT-4 di OpenAI, previsto per marzo 2023, l’azienda ha condiviso una versione preliminare con Microsoft, che intendeva utilizzare il nuovo modello per rinnovare il suo motore di ricerca Bing. All’epoca, Sebastian Bubeck stava studiando i limiti delle LLM ed era piuttosto scettico sulle loro capacità. In particolare, Bubeck – vicepresidente della ricerca sull’intelligenza artificiale generativa presso la Microsoft Research di Redmond, Washington – aveva cercato, senza riuscirci, di far risolvere alla tecnologia i problemi di matematica delle scuole medie. Cose come: x y = 0; cosa sono x e y? “La mia convinzione era che il ragionamento fosse un collo di bottiglia, un ostacolo”, dice. “Pensavo che si dovesse fare qualcosa di fondamentalmente diverso per superare l’ostacolo”.

Poi ha messo le mani sulla GPT-4. La prima cosa che ha fatto è stata provare quei problemi matematici. “Il modello ha fatto centro”, dice. “Seduti qui nel 2024, è ovvio che il GPT-4 può risolvere equazioni lineari. Ma allora era una follia. Il GPT-3 non può farlo”.

Ma il vero momento di Bubeck è arrivato quando ha spinto l’azienda a fare qualcosa di nuovo.

Il problema dei problemi di matematica della scuola media è che sono ovunque su Internet e il GPT-4 potrebbe semplicemente averli memorizzati. “Come si fa a studiare un modello che potrebbe aver visto tutto ciò che gli esseri umani hanno scritto?”, si chiede Bubeck. La sua risposta è stata quella di testare GPT-4 su una serie di problemi che lui e i suoi colleghi ritenevano nuovi.

Giocando con Ronen Eldan, un matematico di Microsoft Research, Bubeck ha chiesto a GPT-4 di fornire, in versi, una prova matematica dell’esistenza di un numero infinito di primi.

Ecco un frammento della risposta di GPT-4: “If we take the smallest number in S that is not in P / And call it p, we can add it to our set, don’t you see? / But this process can be repeated indefinitely. / Thus, our set P must also be infinite, you’ll agree”. (“Se prendiamo il più piccolo numero in S che non è in P / E lo chiamiamo p, possiamo aggiungerlo al nostro insieme, non vedi? / Ma questo processo può essere ripetuto all’infinito. / Quindi anche il nostro insieme P deve essere infinito, ne converrai”).

Carino, vero? Ma Bubeck ed Eldan pensavano che fosse molto di più. “Eravamo in questo ufficio”, racconta Bubeck, salutando la stanza alle sue spalle tramite lo Zoom. “Entrambi siamo caduti dalla sedia. Non potevamo credere a quello che stavamo vedendo. Era così creativo e così, come dire, diverso”.

Il team di Microsoft ha anche fatto in modo che GPT-4 generasse il codice per aggiungere un corno all’immagine di un unicorno disegnata in Latex, un programma di elaborazione testi. Bubeck ritiene che questo dimostri che il modello è in grado di leggere il codice Latex esistente, di capire cosa raffigura e di identificare la posizione del corno.

“Ci sono molti esempi, ma alcuni di essi sono pistole fumanti del ragionamento”, afferma l’esperto, essendo il ragionamento un elemento fondamentale dell’intelligenza umana.

BUBECK ET AL

Bubeck, Eldan e un team di altri ricercatori Microsoft hanno descritto le loro scoperte in un documento intitolato “Scintille di intelligenza generale artificiale“: “Crediamo che l’intelligenza di GPT-4 segni un vero e proprio cambiamento di paradigma nel campo dell’informatica e non solo”. Quando Bubeck ha condiviso il documento online, ha twittato: “È ora di affrontarlo, le scintille dell’#AGI sono state accese”.

L’articolo di Sparks è diventato rapidamente famoso e una pietra di paragone per i sostenitori dell’intelligenza artificiale. Agüera y Arcas e Peter Norvig, ex direttore della ricerca di Google e coautore di Artificial Intelligence: A Modern Approach, forse il libro di testo sull’intelligenza artificiale più diffuso al mondo, hanno scritto un articolo intitolato “L’intelligenza generale artificiale è già qui“. Pubblicato su Noema, una rivista sostenuta da un think tank di Los Angeles chiamato Berggruen Institute, il loro argomento utilizza il documento di Sparks come punto di partenza: “L’Intelligenza Generale Artificiale (AGI) significa molte cose diverse per persone diverse, ma le parti più importanti di essa sono già state raggiunte dall’attuale generazione di modelli linguistici avanzati di AI”, scrivono. “Tra decenni saranno riconosciuti come i primi veri esempi di AGI”.

Da allora, il clamore ha continuato a crescere. Leopold Aschenbrenner, che all’epoca era un ricercatore di OpenAI e si occupava di superintelligenza, mi ha detto l’anno scorso: “I progressi dell’intelligenza artificiale negli ultimi anni sono stati straordinariamente rapidi. Abbiamo distrutto tutti i parametri di riferimento e i progressi continuano senza sosta. Ma non si fermerà qui. Avremo modelli sovrumani, molto più intelligenti di noi”. (In aprile è stato licenziato da OpenAI perché, a suo dire, ha sollevato dubbi sulla sicurezza della tecnologia che stava costruendo e “ha fatto arrabbiare qualcuno“. Da allora ha creato un fondo di investimento nella Silicon Valley).

A giugno, Aschenbrenner ha pubblicato un manifesto di 165 pagine in cui sostiene che l’IA supererà i laureati entro il “2025/2026” e che “avremo una superintelligenza, nel vero senso della parola” entro la fine del decennio. Ma altri operatori del settore si fanno beffe di queste affermazioni. Quando Aschenbrenner ha twittato un grafico per mostrare la velocità con cui pensava che l’intelligenza artificiale avrebbe continuato a migliorare, vista la velocità con cui è migliorata negli ultimi anni, l’investitore tecnologico Christian Keil ha risposto che, secondo la stessa logica, suo figlio, che ha raddoppiato le dimensioni da quando è nato, avrebbe pesato 7,5 trilioni di tonnellate entro i 10 anni.

Non c’è da stupirsi che “scintille di AGI” sia diventato anche un sinonimo di eccitazione esagerata. “Penso che si siano lasciati trasportare”, dice Marcus, parlando del team Microsoft. “Si sono entusiasmati, come a dire ‘Ehi, abbiamo trovato qualcosa! È fantastico!”. Non hanno fatto una verifica con la comunità scientifica”. Bender si riferisce al documento di Sparks come a una “novella fan fiction”.

Non solo era provocatorio affermare che il comportamento del GPT-4 mostrava segni di AGI, ma Microsoft, che utilizza il GPT-4 nei propri prodotti, ha un chiaro interesse a promuovere le capacità di questa tecnologia. “Questo documento è una boiata di marketing mascherata da ricerca”, ha scritto su LinkedIn un COO del settore tecnologico.

Alcuni ritengono anche che la metodologia del documento sia difettosa. Le prove sono difficili da verificare perché derivano da interazioni con una versione di GPT-4 che non è stata resa disponibile al di fuori di OpenAI e Microsoft. La versione pubblica ha dei guardrail che limitano le capacità del modello, ammette Bubeck. Questo ha reso impossibile ad altri ricercatori ricreare i suoi esperimenti.

Un gruppo ha cercato di ricreare l’esempio dell’unicorno con un linguaggio di codifica chiamato Processing, che GPT-4 può utilizzare anche per generare immagini. Hanno scoperto che la versione pubblica di GPT-4 poteva produrre un unicorno passabile, ma non poteva capovolgere o ruotare l’immagine di 90 gradi. Può sembrare una piccola differenza, ma queste cose sono davvero importanti quando si sostiene che la capacità di disegnare un unicorno è un segno di AGI.

L’aspetto fondamentale degli esempi contenuti nel documento di Sparks, compreso l’unicorno, è che Bubeck e i suoi colleghi ritengono che si tratti di esempi autentici di ragionamento creativo. Ciò significa che il team ha dovuto accertarsi che esempi di questi compiti, o di altri molto simili, non fossero inclusi in nessuna delle vaste serie di dati che OpenAI ha raccolto per addestrare il suo modello. Altrimenti, i risultati potrebbero essere interpretati come casi in cui il GPT-4 ha riprodotto modelli già visti.

JUN IONEDA

Bubeck insiste sul fatto che hanno assegnato al modello solo compiti che non si possono trovare su Internet. Disegnare un unicorno in lattice era sicuramente uno di questi compiti. Ma Internet è un posto grande. Altri ricercatori hanno subito fatto notare che esistono forum online dedicati al disegno di animali in lattice. “Solo per informazione, ne eravamo a conoscenza”, ha risposto Bubeck su X. “Ogni singolo quesito dell’articolo di Sparks è stato accuratamente cercato su Internet”.

(Questo non ha fermato l’insulto: “Ben Recht, un informatico dell’Università della California, Berkeley, ha risposto con un tweet prima di accusare Bubeck di “essere stato sorpreso a mentire”).

Bubeck insiste che il lavoro è stato fatto in buona fede, ma lui e i suoi coautori ammettono nel documento stesso che il loro approccio non è stato rigoroso: osservazioni sul quaderno piuttosto che esperimenti a prova di bomba.

Tuttavia, non ha rimpianti: “Il documento è stato pubblicato da più di un anno e non ho ancora visto nessuno fornirmi un argomento convincente sul fatto che l’unicorno, ad esempio, non sia un vero esempio di ragionamento”.

Questo non vuol dire che possa darmi una risposta diretta alla grande domanda, anche se la sua risposta rivela il tipo di risposta che vorrebbe dare. “Che cos’è l’IA? Bubeck mi ripete. “Voglio essere chiaro con lei. La domanda può essere semplice, ma la risposta può essere complessa”.

“Ci sono molte domande semplici a cui non sappiamo ancora rispondere. E alcune di queste semplici domande sono le più profonde”, afferma. “La metto sullo stesso piano di: qual è l’origine della vita? Qual è l’origine dell’universo? Da dove veniamo? Domande grandi, grandi come questa”.

Vedere solo la matematica nella macchina

Prima di diventare uno dei principali antagonisti dei sostenitori dell’IA, Bender ha lasciato il segno nel mondo dell’IA come coautrice di due influenti articoli (entrambi sottoposti a revisione paritaria, come lei stessa ama sottolineare, a differenza dell’articolo di Sparks e di molti altri che ricevono molta attenzione). Il primo, scritto con Alexander Koller, un collega linguista computazionale dell’Università Saarland in Germania, e pubblicato nel 2020, si chiamava “Climbing towards NLU” (NLU è la comprensione del linguaggio naturale).

“L’inizio di tutto questo per me è stato discutere con altre persone della linguistica computazionale se i modelli linguistici capissero o meno qualcosa”, racconta l’autrice. (La comprensione, come il ragionamento, è generalmente considerata un ingrediente fondamentale dell’intelligenza umana).

Bender e Koller sostengono che un modello addestrato esclusivamente sul testo imparerà solo la forma di una lingua, non il suo significato. Il significato, sostengono, è composto da due parti: le parole (che possono essere segni o suoni) e il motivo per cui sono state pronunciate. Le persone usano il linguaggio per molte ragioni, come condividere informazioni, raccontare barzellette, flirtare, avvertire qualcuno di allontanarsi e così via. Se privato del contesto, il testo usato per addestrare i LLM come GPT-4 permette loro di imitare gli schemi del linguaggio abbastanza bene da far sì che molte frasi generate dal LLM assomiglino esattamente a frasi scritte da un essere umano. Ma non c’è alcun significato dietro di esse, nessuna scintilla. È un trucco statistico notevole, ma completamente privo di cervello.

Illustrano il loro punto di vista con un esperimento di pensiero. Immaginate due persone di lingua inglese bloccate su isole deserte vicine. C’è un cavo sottomarino che permette loro di inviarsi messaggi di testo. Ora immaginate che un polpo, che non sa nulla di inglese ma è un mago della corrispondenza statistica, avvolga le sue ventose intorno al cavo e inizi ad ascoltare i messaggi. Il polpo diventa molto bravo a indovinare quali parole seguono altre parole. Così bravo che quando rompe il cavo e inizia a rispondere ai messaggi di una delle isolane, lei crede di essere ancora in chat con il suo vicino. (Nel caso vi fosse sfuggito, il polpo di questa storia è un chatbot).

La persona che parla con la piovra rimarrebbe ingannata per un periodo di tempo ragionevole, ma potrebbe durare? Il polipo capisce cosa viene trasmesso?

JUN IONEDA

Immaginate che l’isolana dica di aver costruito una catapulta di cocco e chieda al polpo di costruirne una anche lui e di dirle cosa ne pensa. Il polpo non può farlo. Senza sapere a cosa si riferiscono le parole dei messaggi nel mondo, non può seguire le istruzioni dell’isolana. Forse indovina una risposta: “Ok, bella idea!”. L’isolano probabilmente penserà che questo significhi che l’interlocutore ha capito il suo messaggio. Ma se così fosse, sta vedendo un significato dove non c’è. Infine, immaginiamo che l’isolano venga attaccato da un orso e invii richieste di aiuto lungo la linea. Cosa deve fare la piovra con queste parole?

Bender e Koller ritengono che questo sia il modo in cui i modelli linguistici di grandi dimensioni imparano e il motivo per cui sono limitati. “L’esperimento di pensiero mostra perché questo percorso non ci porterà a una macchina che capisca qualcosa”, dice Bender. “Il problema del polpo è che gli abbiamo fornito i dati di addestramento, le conversazioni tra le due persone, e questo è tutto. Ma poi arriva qualcosa all’improvviso e non è in grado di affrontarlo perché non ha capito nulla”.

L’altro articolo per cui Bender è nota, “On the Dangers of Stochastic Parrots“, evidenzia una serie di danni che lei e i suoi coautori ritengono che le aziende che producono modelli linguistici di grandi dimensioni stiano ignorando. Tra questi vi sono gli enormi costi computazionali per la realizzazione dei modelli e il loro impatto ambientale; il linguaggio razzista, sessista e abusivo che i modelli radicano; e i pericoli della costruzione di un sistema che potrebbe ingannare le persone “ricucendo a casaccio sequenze di forme linguistiche… in base a informazioni probabilistiche su come si combinano, ma senza alcun riferimento al significato: un pappagallo stocastico”.

I vertici di Google non erano soddisfatti del documento e il conflitto che ne è scaturito ha portato due dei coautori di Bender, Timnit Gebru e Margaret Mitchell, a essere costretti a lasciare l’azienda, dove avevano guidato il team di Etica dell’intelligenza artificiale. Inoltre, il termine “pappagallo stocastico” è diventato un’espressione popolare per i modelli linguistici di grandi dimensioni e ha portato Bender proprio al centro della giostra dei nomi.

Per Bender e per molti altri ricercatori che la pensano allo stesso modo, la conclusione è che il campo è stato ingannato da fumo e specchi: “Penso che siano portati a immaginare entità pensanti autonome che possono prendere decisioni da sole e, in ultima analisi, essere il tipo di cosa che potrebbe effettivamente essere responsabile di tali decisioni”.

Da sempre linguista, Bender è arrivata al punto di non usare nemmeno il termine IA “senza virgolette”, mi dice. In definitiva, per lei si tratta di una parola d’ordine della Big Tech che distrae dai molti danni associati. “Ora ho la pelle in mano”, dice. “Mi interessano questi problemi, e il clamore si fa sentire”.

Una prova straordinaria?

Agüera y Arcas definisce le persone come Bender “negazionisti dell’IA”, sottintendendo che non accetteranno mai ciò che lui dà per scontato. La posizione di Bender è che affermazioni straordinarie richiedono prove straordinarie, che noi non abbiamo.

Ma ci sono persone che le cercano e che, finché non trovano qualcosa di chiaro – scintille, pappagalli stocastici o una via di mezzo – preferiscono restare in disparte. Questo è il campo dell’attesa.

Come mi dice Ellie Pavlick, che studia le reti neurali alla Brown University: “Per alcuni è offensivo suggerire che l’intelligenza umana possa essere ricreata attraverso questo tipo di meccanismi”.

Aggiunge: “Le persone hanno convinzioni molto forti su questo tema, quasi religiose. D’altra parte, ci sono persone che hanno un po’ il complesso di Dio. Quindi è anche offensivo per loro suggerire che non possono farlo”. Pavlick è in definitiva agnostica. È una scienziata, insiste, e seguirà ovunque la scienza la conduca. Sgrana gli occhi di fronte alle affermazioni più azzardate, ma è convinta che ci sia qualcosa di eccitante in atto. “È su questo che non sono d’accordo con Bender e Koller”, dice. “Penso che ci siano effettivamente delle scintille, forse non di AGI, ma ci sono cose che non ci aspettavamo di trovare”.

Ellie Pavlick
FOTO DI CORTESIA

Il problema è trovare un accordo su quali siano queste cose eccitanti e perché lo siano. Con tanto clamore, è facile essere cinici.

I ricercatori come Bubeck sembrano molto più tranquilli quando li si ascolta. Secondo lui, le lotte intestine non colgono le sfumature del suo lavoro. “Non vedo alcun problema nel mantenere opinioni simultanee”, dice. “C’è il parroting stocastico, c’è il ragionamento: è uno spettro. È molto complesso. Non abbiamo tutte le risposte”.

“Abbiamo bisogno di un vocabolario completamente nuovo per descrivere ciò che sta accadendo”, afferma. “Uno dei motivi per cui la gente si oppone quando parlo di ragionamento nei modelli linguistici di grandi dimensioni è che non è lo stesso ragionamento degli esseri umani. Ma credo che non si possa non chiamarlo ragionamento. È un ragionamento”.

Olah di Anthropic va sul sicuro quando si parla di quello che stiamo vedendo negli LLM, anche se la sua azienda, uno dei laboratori di IA più caldi al mondo in questo momento, ha costruito Claude 3, un LLM che ha ricevuto elogi iperbolici tanto quanto GPT-4 (se non di più) dal suo rilascio all’inizio di quest’anno.

“Mi sembra che molte di queste conversazioni sulle capacità di questi modelli siano molto tribali”, afferma. “Le persone hanno opinioni preesistenti e non sono molto informate da prove da nessuna parte. Quindi diventa una specie di discussione basata sulle vibrazioni, e penso che le discussioni basate sulle vibrazioni su Internet tendano ad andare in una cattiva direzione”.

Olah mi dice che anche lui ha delle intuizioni. “La mia impressione soggettiva è che queste cose stiano seguendo idee piuttosto sofisticate”, dice. “Non abbiamo una storia completa di come funzionano i modelli molto grandi, ma penso che sia difficile riconciliare quello che stiamo vedendo con l’immagine estrema dei ‘pappagalli stocastici'”.

Non si spingerà oltre: “Non voglio andare troppo oltre ciò che può essere fortemente dedotto dalle prove che abbiamo”. Il mese scorso, Anthropic ha pubblicato i risultati di uno studio in cui i ricercatori hanno somministrato a Claude 3 l’equivalente di una risonanza magnetica alla rete neurale. Monitorando le parti del modello che si accendevano e spegnevano durante la sua esecuzione, hanno identificato modelli specifici di neuroni che si attivavano quando al modello venivano mostrati input specifici.

Anthropic ha anche rilevato modelli che, a suo dire, sono correlati a input che tentano di descrivere o mostrare concetti astratti. “Vediamo caratteristiche legate all’inganno e all’onestà, alla sicofanzia, alle vulnerabilità della sicurezza, ai pregiudizi”, dice Olah. “Troviamo caratteristiche legate alla ricerca di potere, alla manipolazione e al tradimento”.

Questi risultati offrono uno dei più chiari sguardi su ciò che si trova all’interno di un modello linguistico di grandi dimensioni. Si tratta di uno sguardo allettante su quelli che sembrano tratti inafferrabili dell’uomo. Ma cosa ci dice davvero? Come ammette Olah, non si sa cosa il modello faccia con questi modelli. “È un quadro relativamente limitato e l’analisi è piuttosto difficile”, afferma.

Anche se Olah non vuole spiegare esattamente cosa pensa che avvenga all’interno di un modello linguistico di grandi dimensioni come Claude 3, è chiaro perché la questione gli sta a cuore. Anthropic è nota per il suo lavoro sulla sicurezza dell’intelligenza artificiale: assicurarsi che i potenti modelli futuri si comportino nel modo in cui vogliamo e non in quello in cui non vogliamo (noto come “allineamento” nel gergo del settore). Capire come funzionano i modelli di oggi non è solo un primo passo necessario se si vuole controllare quelli futuri, ma indica anche quanto ci si debba preoccupare degli scenari di rischio. “Se non si pensa che i modelli saranno molto capaci”, dice Olah, “allora probabilmente non saranno molto pericolosi”.

Perché non possiamo andare tutti d’accordo

In un’intervista del 2014 alla BBC che ripercorreva la sua carriera, all’influente scienziata cognitiva Margaret Boden, oggi 87enne, è stato chiesto se pensava che ci fossero dei limiti che impedissero ai computer (o “lattine”, come li chiamava lei) di fare ciò che gli esseri umani possono fare.

“Certamente non penso che ci sia qualcosa in linea di principio”, ha detto. “Perché negarlo significa dire che [il pensiero umano] avviene per magia, e io non credo che avvenga per magia”.

Margaret Boden
ALAMY

Ma, avverte l’autrice, non basteranno computer potenti per arrivarci: il campo dell’IA avrà bisogno anche di “idee potenti”: nuove teorie su come avviene il pensiero, nuovi algoritmi che possano riprodurlo. “Ma queste cose sono molto, molto difficili e non vedo alcun motivo per supporre che un giorno saremo in grado di rispondere a tutte queste domande. Forse ci riusciremo, forse no”.

Boden stava riflettendo sui primi giorni dell’attuale boom, ma questo oscillare tra il “faremo o non faremo” si riferisce a decenni in cui lei e i suoi colleghi si sono confrontati con le stesse difficili domande con cui i ricercatori lottano oggi. L’IA è nata come un’ambiziosa aspirazione circa 70 anni fa e ancora oggi non siamo d’accordo su cosa sia o non sia realizzabile e su come potremo sapere se l’abbiamo raggiunta. La maggior parte, se non tutte, di queste controversie si riducono a questo: non abbiamo una buona conoscenza di cosa sia l’intelligenza o di come riconoscerla. Il campo è pieno di ipotesi, ma nessuno può dirlo con certezza.

Siamo rimasti bloccati su questo punto da quando si è cominciato a prendere sul serio l’idea dell’IA. O anche prima, quando le storie che abbiamo consumato hanno iniziato a impiantare l’idea di macchine simili all’uomo nel profondo del nostro immaginario collettivo. La lunga storia di queste controversie fa sì che gli scontri odierni spesso rafforzino fratture che esistono fin dall’inizio, rendendo ancora più difficile per le persone trovare un terreno comune.

Per capire come siamo arrivati qui, dobbiamo capire dove siamo stati. Per questo motivo, facciamo un tuffo nella storia delle origini dell’IA, che è stata anche oggetto di un’esaltazione per ottenere denaro contante.

Breve storia dello spin dell’IA

All’informatico John McCarthy si attribuisce il merito di aver ideato il termine “intelligenza artificiale” nel 1955, durante la stesura di una domanda di finanziamento per un programma di ricerca estivo al Dartmouth College nel New Hampshire. Il piano prevedeva che McCarthy e un piccolo gruppo di colleghi ricercatori, un “who’s-who” di matematici e informatici statunitensi del dopoguerra, o “John McCarthy e i ragazzi”, come dice Harry Law, ricercatore che studia la storia dell’IA all’Università di Cambridge e l’etica e la politica di Google DeepMind, si riunissero per due mesi (non è un errore di battitura) e facessero dei seri progressi in questa nuova sfida di ricerca che si erano posti.

Da sinistra a destra, Oliver Selfridge, Nathaniel Rochester, Ray Solomonoff, Marvin Minsky, Peter Milner, John McCarthy e Claude Shannon seduti sul prato della conferenza di Dartmouth del 1956.
PER GENTILE CONCESSIONE DELLA FAMIGLIA MINSKY

“Lo studio procederà sulla base della congettura che ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere descritto in linea di principio in modo così preciso da poter essere simulato da una macchina”, scrivono McCarthy e i suoi coautori. “Si cercherà di capire come far sì che le macchine usino il linguaggio, formino astrazioni e concetti, risolvano tipi di problemi ora riservati agli esseri umani e migliorino se stesse”.

L’elenco delle cose che volevano far fare alle macchine – quello che Bender chiama “il sogno delle stelle” – non è cambiato molto. L’uso del linguaggio, la formazione di concetti e la risoluzione di problemi sono gli obiettivi che oggi definiscono l’IA. Anche l’arroganza non è cambiata molto: “Pensiamo che un progresso significativo possa essere fatto in uno o più di questi problemi se un gruppo accuratamente selezionato di scienziati ci lavora insieme per un’estate”, hanno scritto. Quell’estate, ovviamente, si è estesa a sette decenni. E la misura in cui questi problemi sono stati effettivamente risolti è qualcosa di cui si grida ancora su Internet.

Ma ciò che spesso viene tralasciato in questa storia canonica è che l’intelligenza artificiale quasi non si chiamava affatto “intelligenza artificiale”.

John McCarthy
FOTO DI CORTESIA

Più di un collega di McCarthy detestava il termine da lui ideato. “La parola ‘artificiale’ fa pensare che ci sia qualcosa di falso in tutto questo”, afferma Arthur Samuel, un partecipante di Dartmouth e creatore del primo computer per giocare a dama, nel libro del 2004 della storica Pamela McCorduck, Machines Who Think. Il matematico Claude Shannon, coautore della proposta di Dartmouth e talvolta definito “il padre dell’era dell’informazione”, preferiva il termine “automata studies”. Herbert Simon e Allen Newell, altri pionieri dell’IA, continuarono a chiamare il proprio lavoro “elaborazione di informazioni complesse” per anni.

In effetti, “intelligenza artificiale” era solo una delle numerose etichette che avrebbero potuto catturare il guazzabuglio di idee a cui il gruppo di Dartmouth stava attingendo. Lo storico Jonnie Penn ha identificato le possibili alternative che erano in gioco all’epoca, tra cui “psicologia ingegneristica”, “epistemologia applicata”, “cibernetica neurale”, “informatica non numerica”, “neuraldinamica”, “programmazione automatica avanzata” e “automi ipotetici”. Questo elenco di nomi rivela quanto fosse varia l’ispirazione per il loro nuovo campo, attingendo dalla biologia, dalle neuroscienze, dalla statistica e altro ancora. Marvin Minsky, un altro partecipante di Dartmouth, ha descritto l’IA come una “parola valigia” perché può contenere così tante interpretazioni divergenti.

Ma McCarthy voleva un nome che catturasse la portata ambiziosa della sua visione. Chiamare questo nuovo campo “intelligenza artificiale” ha attirato l’attenzione della gente e il denaro. Non dimenticate: l’intelligenza artificiale è sexy, l’intelligenza artificiale è cool.

Oltre alla terminologia, la proposta di Dartmouth codificò una divisione tra approcci rivali all’intelligenza artificiale che da allora ha diviso il campo: una divisione che Law chiama “tensione centrale nell’IA”.

McCarthy e i suoi colleghi volevano descrivere in codice informatico “ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza” in modo che le macchine potessero imitarli. In altre parole, se fossero riusciti a capire come funzionava il pensiero – le regole del ragionamento – e a scrivere la ricetta, avrebbero potuto programmare i computer per seguirla. In questo modo si sono gettate le basi di quella che è diventata nota come IA simbolica o basata su regole (a volte indicata oggi come GOFAI, “good old-fashioned AI”). Ma trovare regole codificate che catturassero i processi di risoluzione di problemi reali e non banali si rivelò troppo difficile.

L’altra strada privilegiava le reti neurali, programmi informatici che avrebbero cercato di apprendere da soli queste regole sotto forma di modelli statistici. La proposta di Dartmouth ne parla quasi a margine (facendo riferimento a “reti di neuroni” e “reti nervose”). Anche se all’inizio l’idea sembrava meno promettente, alcuni ricercatori hanno comunque continuato a lavorare su versioni di reti neurali accanto all’IA simbolica. Ma ci sono voluti decenni, oltre a grandi quantità di potenza di calcolo e a molti dati su Internet, prima che queste reti prendessero davvero piede. Oggi questo approccio è alla base dell’intero boom dell’IA.

L’aspetto più importante è che, proprio come i ricercatori di oggi, gli innovatori dell’IA hanno litigato sui concetti fondamentali e si sono fatti prendere dalla loro stessa voglia di promozione. Persino il team GOFAI era afflitto da bisticci. Aaron Sloman, filosofo e collega pioniere dell’IA oggi ultraottantenne, ricorda come i “vecchi amici” Minsky e McCarthy fossero in forte disaccordo quando li conobbe negli anni ’70: “Minsky pensava che le affermazioni di McCarthy sulla logica non potessero funzionare, e McCarthy pensava che i meccanismi di Minsky non potessero fare ciò che si poteva fare con la logica. Andavo d’accordo con entrambi, ma dicevo: “Nessuno dei due ha capito bene””. (Sloman pensa ancora che nessuno sia in grado di spiegare il modo in cui il ragionamento umano utilizza l’intuizione quanto la logica, ma questa è un’altra tangente).

Marvin Minsky
MIT MUSEUM

Mentre le fortune della tecnologia si alternavano, il termine “IA” entrava e usciva di moda. All’inizio degli anni ’70, entrambi i percorsi di ricerca vennero di fatto accantonati dopo che il governo britannico pubblicò un rapporto in cui si sosteneva che il sogno dell’IA non era andato da nessuna parte e che non valeva la pena finanziarlo. Tutto quel clamore, in effetti, non aveva portato a nulla. I progetti di ricerca furono chiusi e gli informatici cancellarono le parole “intelligenza artificiale” dalle loro proposte di finanziamento.

Quando stavo terminando il dottorato in informatica nel 2008, solo una persona nel dipartimento stava lavorando sulle reti neurali. Bender ha un ricordo simile: “Quando ero all’università, una battuta ricorrente era che l’IA è tutto ciò che non abbiamo ancora capito come fare con i computer. In pratica, non appena si capisce come farlo, non è più magia, quindi non è IA”.

Ma quella magia, la grande visione esposta nella proposta di Dartmouth, è rimasta viva e, come possiamo vedere ora, ha gettato le basi per il sogno dell’AGI.

Comportamento buono e cattivo

Nel 1950, cinque anni prima che McCarthy iniziasse a parlare di intelligenza artificiale, Alan Turing aveva pubblicato un articolo che chiedeva: le macchine possono pensare? Per rispondere a questa domanda, il famoso matematico propose un test ipotetico, che chiamò gioco dell’imitazione. Si immagina che un uomo e un computer siano dietro a uno schermo e che un secondo uomo scriva delle domande a ciascuno. Se l’interrogante non è in grado di distinguere le risposte dell’uomo da quelle del computer, sosteneva Turing, si può dire che il computer pensa.

Ciò che Turing vide – a differenza della squadra di McCarthy – fu che il pensiero è una cosa davvero difficile da descrivere. Il test di Turing era un modo per aggirare il problema. “In pratica disse: Invece di concentrarmi sulla natura dell’intelligenza in sé, cercherò la sua manifestazione nel mondo. Cercherò la sua ombra“, dice Law.

Nel 1952, la BBC Radio convocò una commissione per approfondire le idee di Turing. Turing fu raggiunto in studio da due suoi colleghi dell’Università di Manchester, il professore di matematica Maxwell Newman e il professore di neurochirurgia Geoffrey Jefferson, e da Richard Braithwaite, filosofo della scienza, dell’etica e della religione dell’Università di Cambridge.

Braithwaite ha dato il via alla discussione: “Il pensiero è normalmente considerato una specialità dell’uomo, e forse di altri animali superiori, tanto che la questione può sembrare troppo assurda per essere discussa. Ma naturalmente tutto dipende da cosa si intende per ‘pensare'”.

I relatori si sono soffermati sulla domanda di Turing, ma non sono mai riusciti a risolverla.

Quando si cercò di definire cosa comportasse il pensiero, quali fossero i suoi meccanismi, i paletti si spostarono. “Non appena si riesce a vedere la causa e l’effetto che si realizzano nel cervello, si considera che non si tratta di pensiero, ma di una sorta di lavoro da asini senza immaginazione”, ha detto Turing.

Ecco il problema: quando un relatore proponeva un comportamento che poteva essere considerato una prova del pensiero – ad esempio, reagire a una nuova idea con indignazione – un altro faceva notare che si poteva far fare a un computer.

Come ha detto Newman, sarebbe abbastanza facile programmare un computer per stampare “Non mi piace questo nuovo programma”. Ma ha ammesso che si tratterebbe di un trucco.

Esattamente, disse Jefferson: voleva un computer che stampasse “Non mi piace questo nuovo programma” perché non gli piaceva il nuovo programma. In altre parole, per Jefferson il comportamento non era sufficiente. Era il processo che portava al comportamento che contava.

Ma Turing non era d’accordo. Come aveva notato, la scoperta di un processo specifico – il lavoro dell’asino, per usare la sua frase – non permetteva di individuare cosa fosse il pensiero. Quindi cosa rimaneva?

“Da questo punto di vista, si potrebbe essere tentati di definire il pensiero come costituito da quei processi mentali che non comprendiamo”, ha detto Turing. “Se questo è vero, allora creare una macchina pensante significa creare una macchina che fa cose interessanti senza che si capisca bene come vengono fatte”.

È strano sentire le persone confrontarsi con queste idee per la prima volta. “Il dibattito è preveggente”, afferma Tomer Ullman, scienziato cognitivo dell’Università di Harvard. “Alcuni punti sono ancora vivi, forse ancora di più. Ciò su cui sembra che stiano girando intorno è che il test di Turing è prima di tutto un test comportamentista”.

Per Turing, l’intelligenza era difficile da definire ma facile da riconoscere. Egli proponeva che l’apparenza dell’intelligenza fosse sufficiente – e non diceva nulla su come questo comportamento dovesse verificarsi.

JUN IONEDA

Eppure la maggior parte delle persone, se sollecitata, ha un istinto su ciò che è o non è intelligente. Ci sono modi stupidi e modi intelligenti per sembrare intelligenti. Nel 1981, Ned Block, filosofo della New York University, dimostrò che la proposta di Turing non era all’altezza di questi istinti. Poiché non diceva nulla di ciò che causava il comportamento, il test di Turing può essere battuto con l’inganno (come Newman aveva notato nella trasmissione della BBC).

“La questione se una macchina pensi o sia intelligente potrebbe dipendere da quanto tendono a essere creduloni gli interrogatori umani?”, ha chiesto Block. (O come ha osservato l’informatico Mark Reidl: “Il test di Turing non è da superare per l’IA, ma da fallire per gli esseri umani”).

Immaginate, diceva Block, una vasta tabella di ricerca in cui i programmatori umani avessero inserito tutte le possibili risposte a tutte le possibili domande. Se si digitava una domanda in questa macchina, questa cercava la risposta corrispondente nel suo database e la rispediva indietro. Block sosteneva che chiunque avesse usato questa macchina avrebbe giudicato il suo comportamento intelligente: “Ma in realtà la macchina ha l’intelligenza di un tostapane”, ha scritto. “Tutta l’intelligenza che dimostra è quella dei suoi programmatori”.

Block concluse che se un comportamento è un comportamento intelligente è una questione di come viene prodotto, non di come appare. I tostapane di Block, che divennero noti come Blockheads, sono uno dei più forti controesempi alle ipotesi alla base della proposta di Turing.

Guardare sotto il cofano

Il test di Turing non è inteso come una metrica pratica, ma le sue implicazioni sono profondamente radicate nel modo in cui oggi pensiamo all’intelligenza artificiale. Ciò è diventato particolarmente rilevante con l’esplosione dei LLM negli ultimi anni. Questi modelli vengono classificati in base al loro comportamento esteriore, in particolare a quanto fanno bene in una serie di test. Quando OpenAI ha annunciato GPT-4, ha pubblicato un’impressionante scheda di valutazione che illustrava le prestazioni del modello in diversi esami di scuola superiore e professionali. Quasi nessuno parla di come questi modelli ottengano questi risultati.

Questo perché non lo sappiamo. I grandi modelli linguistici di oggi sono troppo complessi perché si possa dire con esattezza come viene prodotto il loro comportamento. I ricercatori al di fuori della piccola manciata di aziende che producono questi modelli non sanno cosa c’è nei loro dati di addestramento; nessuno dei produttori di modelli ha condiviso i dettagli. Questo rende difficile dire cosa sia e cosa non sia una sorta di memorizzazione, un parroting stocastico. Ma anche i ricercatori interni, come Olah, non sanno cosa succede davvero di fronte a un bot ossessionato dai ponti.

Questo lascia aperta la questione: Sì, i modelli linguistici di grandi dimensioni sono costruiti sulla matematica, ma stanno facendo qualcosa di intelligente con essa?

E le discussioni ricominciano.

“La maggior parte delle persone sta cercando di risolvere il problema con la sedia a rotelle”, dice Pavlick della Brown University, cioè discute di teorie senza guardare a ciò che sta realmente accadendo. “C’è chi dice: ‘Io penso che sia così’ e chi dice: ‘Beh, io non lo penso’. Siamo come bloccati e tutti sono insoddisfatti”.

La Bender ritiene che questo senso di mistero sia un elemento che contribuisce alla creazione del mito (“I maghi non rivelano mai i loro trucchi”, dice). Senza un’adeguata valutazione dell’origine delle parole del LLM, ricadiamo in ipotesi familiari sugli esseri umani, poiché questo è il nostro unico punto di riferimento reale. Quando parliamo con un’altra persona, cerchiamo di dare un senso a ciò che sta cercando di dirci. “Questo processo comporta necessariamente l’immaginazione di una vita dietro le parole”, dice Bender. È così che funziona il linguaggio.

JUN IONEDA

“Il trucco da salotto di ChatGPT è così impressionante che quando vediamo uscire queste parole, facciamo istintivamente la stessa cosa”, dice l’autrice. “È molto bravo a imitare la forma del linguaggio. Il problema è che non siamo affatto bravi a incontrare la forma del linguaggio e a non immaginare il resto”.

Per alcuni ricercatori, non è importante se non riusciamo a capire il come. Bubeck era solito studiare i modelli linguistici di grandi dimensioni per cercare di capire come funzionavano, ma il GPT-4 ha cambiato il suo modo di pensarli. “Sembra che queste domande non siano più così rilevanti”, dice. “Il modello è così grande e complesso che non possiamo sperare di aprirlo e capire cosa sta realmente accadendo”.

Ma Pavlick, come Olah, sta cercando di fare proprio questo. Il suo team ha scoperto che i modelli sembrano codificare relazioni astratte tra gli oggetti, come quella tra un Paese e la sua capitale. Studiando un modello linguistico di grandi dimensioni, Pavlick e i suoi colleghi hanno scoperto che utilizzava la stessa codifica per mappare la Francia con Parigi e la Polonia con Varsavia. Sembra quasi una cosa intelligente, le dico. “No, è letteralmente una tabella di ricerca”, mi risponde.

Ma ciò che colpì Pavlick fu che, a differenza di un Blockhead, il modello aveva imparato questa tabella di ricerca da solo. In altre parole, l’LLM aveva capito da solo che Parigi sta alla Francia come Varsavia sta alla Polonia. Ma cosa dimostra questo? Codificare la propria tabella di ricerca invece di usarne una codificata è un segno di intelligenza? Dove si traccia la linea di demarcazione?

“Fondamentalmente, il problema è che il comportamento è l’unica cosa che sappiamo misurare in modo affidabile”, dice Pavlick. “Tutto il resto richiede un impegno teorico, e alle persone non piace dover fare teoria perché è molto impegnativo”.

Geoffrey Hinton
RAMSEY CARDY / COLLISION / SPORTSFILE

Non per tutti. Molti scienziati influenti si accontentano di un impegno teorico. Hinton, ad esempio, insiste sul fatto che le reti neurali sono tutto ciò che serve per ricreare un’intelligenza simile a quella umana. “L’apprendimento profondo sarà in grado di fare tutto”, ha dichiarato a MIT Technology Review nel 2020.

È un impegno che Hinton sembra aver mantenuto fin dall’inizio. Sloman, che ricorda che i due discutevano quando Hinton era uno studente laureato nel suo laboratorio, ricorda di non essere riuscito a persuaderlo che le reti neurali non possono apprendere alcuni concetti astratti cruciali che gli esseri umani e alcuni altri animali sembrano avere una comprensione intuitiva, come ad esempio se qualcosa è impossibile. Siamo in grado di capire quando qualcosa è escluso, dice Sloman. “Nonostante l’intelligenza eccezionale di Hinton, non sembrava aver mai capito questo punto. Non so perché, ma c’è un gran numero di ricercatori sulle reti neurali che condividono questa mancanza”.

E poi c’è Marcus, la cui visione delle reti neurali è l’esatto opposto di quella di Hinton. Il suo caso si basa su ciò che, secondo lui, gli scienziati hanno scoperto sul cervello.

Il cervello, sottolinea Marcus, non è una lavagna vuota che apprende completamente da zero: è già pronto con strutture e processi innati che guidano l’apprendimento. È così che i bambini possono imparare cose che le migliori reti neurali non possono ancora imparare, sostiene Marcus.

Gary Marcus
AP IMAGES

“Gli esperti di reti neurali hanno questo martello e ora tutto è un chiodo”, dice Marcus. “Vogliono fare tutto con l’apprendimento, cosa che molti scienziati cognitivi troverebbero irrealistica e sciocca. Non si può imparare tutto da zero”.

Non che Marcus, scienziato cognitivo, sia meno sicuro di sé. “Se si guardasse davvero a chi ha previsto bene la situazione attuale, penso che sarei in cima alla lista di chiunque”, mi dice dal retro di un Uber mentre sta andando a prendere un volo per un concerto in Europa. “So che non sembra molto modesto, ma ho una prospettiva che si rivela molto importante se si cerca di studiare l’intelligenza artificiale”.

Visti i suoi attacchi ben pubblicizzati al settore, potrebbe sorprendere che Marcus creda ancora che l’AGI sia all’orizzonte. Pensa solo che la fissazione odierna sulle reti neurali sia un errore. “Probabilmente abbiamo bisogno di una o due scoperte o quattro”, dice. “Io e voi potremmo non vivere così a lungo, mi dispiace dirlo. Ma credo che avverrà in questo secolo. Forse abbiamo una possibilità”.

Il potere di un sogno in technicolor

Sopra la spalla di Dor Skuler durante la chiamata Zoom dalla sua casa di Ramat Gan, in Israele, un piccolo robot simile a una lampada si accende e si spegne mentre ne parliamo. “Potete vedere ElliQ dietro di me”, dice. L’azienda di Skuler, Intuition Robotics, sviluppa questi dispositivi per gli anziani e il design, in parte Amazon Alexa e in parte R2-D2, deve far capire chiaramente che ElliQ è un computer. Se qualcuno dei suoi clienti mostra segni di confusione al riguardo, Intuition Robotics ritira il dispositivo, dice Skuler.

ElliQ non ha volto, non ha alcuna forma umana. Se gli si chiede di fare sport, farà una battuta sul fatto che non ha coordinazione occhio-mano perché non ha né mani né occhi. “Per quanto mi riguarda, non capisco perché l’industria stia cercando di soddisfare il test di Turing”, dice Skuler. “Perché è nell’interesse dell’umanità sviluppare una tecnologia il cui scopo è quello di ingannarci?”.

L’azienda di Skuler scommette invece sul fatto che le persone possano instaurare un rapporto con le macchine che si presentano come tali. “Proprio come abbiamo la possibilità di costruire un vero rapporto con un cane”, dice. “I cani danno molta gioia alle persone. Fanno compagnia. La gente ama il proprio cane, ma non lo confonde mai con un essere umano”.

ELLIQ

Gli utenti di ElliQ, molti dei quali ottantenni e novantenni, si riferiscono al robot come a un’entità o a una presenza, a volte come a un compagno di stanza. “Sono in grado di creare uno spazio per questa relazione intermedia, qualcosa tra un dispositivo o un computer e qualcosa di vivo”, dice Skuler.

Ma per quanto i progettisti di ElliQ cerchino di controllare il modo in cui le persone vedono il dispositivo, si trovano a competere con decenni di cultura pop che hanno plasmato le nostre aspettative. Perché siamo così fissati con un’intelligenza artificiale simile a quella umana? “Perché è difficile per noi immaginare qualcosa di diverso”, dice Skuler (che in effetti si riferisce a ElliQ chiamandola “lei” durante la nostra conversazione). “E perché molte persone nell’industria tecnologica sono fan della fantascienza. Cercano di realizzare il loro sogno”.

Quanti sviluppatori sono cresciuti pensando che costruire una macchina intelligente fosse la cosa più bella, se non la più importante, che potessero fare?

Non molto tempo fa OpenAI ha lanciato la sua nuova versione a controllo vocale di ChatGPT con una voce che assomigliava a quella di Scarlett Johansson, dopo di che molte persone, tra cui Altman, hanno individuato il collegamento con il film Her di Spike Jonze del 2013.

La fantascienza co-inventa ciò che si intende per IA. Come scrivono Cave e Dihal in Imagining AI: “L’IA è stata un fenomeno culturale molto prima che tecnologico”.

Storie e miti sulla trasformazione degli esseri umani in macchine esistono da secoli. Le persone hanno sognato di creare esseri umani artificiali probabilmente da quando hanno sognato di volare, dice Dihal. La studiosa ricorda che Dedalo, il personaggio della mitologia greca famoso per aver costruito un paio di ali per sé e per il figlio Icaro, costruì anche un gigantesco robot di bronzo chiamato Talos, che lanciava sassi ai pirati di passaggio.

La parola robot deriva da robota, un termine per “lavoro forzato” coniato dal drammaturgo ceco Karel Čapek nella sua opera teatrale del 1920 Rossum’s Universal Robots. Le “leggi della robotica” delineate nella fantascienza di Isaac Asimov, che proibiscono alle macchine di nuocere agli esseri umani, sono invertite da film come Terminator, che è un punto di riferimento iconico per le paure popolari sulla tecnologia del mondo reale. Il film del 2014 Ex Machina è una drammatica rivisitazione del test di Turing. Il film campione d’incassi dello scorso anno, The Creator, immagina un mondo futuro in cui l’intelligenza artificiale è stata messa al bando perché ha fatto esplodere una bomba nucleare, un evento che alcuni catastrofisti considerano almeno una possibilità remota.

Cave e Dihal raccontano come un altro film, Transcendence del 2014, in cui un esperto di IA interpretato da Johnny Depp viene caricato nella sua mente da un computer, abbia servito una narrazione spinta dagli ur-doomers Stephen Hawking, il collega fisico Max Tegmark e il ricercatore di IA Stuart Russell. In un articolo pubblicato sull’Huffington Post in occasione del weekend di apertura del film, il trio ha scritto: “Mentre il blockbuster hollywoodiano Transcendence debutta questo weekend con… visioni contrastanti per il futuro dell’umanità, si è tentati di liquidare la nozione di macchine altamente intelligenti come semplice fantascienza. Ma sarebbe un errore, e potenzialmente il nostro peggior errore di sempre”.

ALCON ENTERTAINMENT VIA ALAMY

Nello stesso periodo, Tegmark ha fondato il Future of Life Institute, con il compito di studiare e promuovere la sicurezza delle IA. L’attore del film, Morgan Freeman, fa parte del consiglio di amministrazione dell’istituto ed Elon Musk, che fa un cameo nel film, ha donato 10 milioni di dollari nel primo anno di attività. Per Cave e Dihal, Transcendence è un esempio perfetto dei molteplici intrecci tra cultura popolare, ricerca accademica, produzione industriale e “la lotta finanziata da miliardari per plasmare il futuro”.

Durante la tappa londinese del suo tour mondiale dello scorso anno, ad Altman è stato chiesto cosa intendesse quando ha twittato: “L’AI è la tecnologia che il mondo ha sempre voluto”. Quel giorno, in piedi in fondo alla sala, dietro a un pubblico di centinaia di persone, l’ho ascoltato mentre raccontava la sua storia di origine: “Ero un bambino molto nervoso. Leggevo molta fantascienza. Passavo molti venerdì sera a casa a giocare al computer. Ma sono sempre stato molto interessato all’intelligenza artificiale e pensavo che sarebbe stato molto bello”. È andato all’università, si è arricchito e ha osservato come le reti neurali diventassero sempre migliori. “Questo può essere tremendamente positivo, ma anche molto negativo. Cosa faremo a questo proposito?”, ha ricordato nel 2015. “Alla fine ho fondato OpenAI”.

Perché dovrebbe interessarvi il fatto che un gruppo di nerd stia litigando sull’IA

Ok, avete capito: nessuno è d’accordo su cosa sia l’IA. Ma quello su cui tutti sembrano essere d’accordo è che l’attuale dibattito sull’IA è andato ben oltre l’ambito accademico e scientifico. Ci sono componenti politiche e morali in gioco, il che non aiuta se tutti pensano che gli altri abbiano torto.

Districarsi in questa situazione è difficile. Può essere difficile capire che cosa sta succedendo quando alcune di queste visioni morali prendono in considerazione l’intero futuro dell’umanità e lo ancorano a una tecnologia che nessuno riesce a definire.

Ma non possiamo semplicemente alzare le mani e andarcene. Perché, a prescindere da quale sia questa tecnologia, sta arrivando e, a meno che non viviate sotto una roccia, la userete in una forma o nell’altra. E la forma che assumerà la tecnologia – e i problemi che risolverà e creerà – sarà plasmata dal pensiero e dalle motivazioni di persone come quelle di cui avete appena letto. In particolare, dalle persone che hanno più potere, più denaro e i megafoni più grandi.

Il che mi porta ai TESCREALISTI. Aspettate, tornate indietro! Mi rendo conto che è ingiusto introdurre un nuovo concetto così tardivamente. Ma per capire come le persone al potere possano plasmare le tecnologie che costruiscono e come le spieghino ai regolatori e ai legislatori del mondo, è necessario comprendere davvero la loro mentalità.

Timnit Gebru
WIKIMEDIA

Gebru, che ha fondato il Distributed AI Research Institute dopo aver lasciato Google, ed Émile Torres, filosofo e storico della Case Western Reserve University, hanno tracciato l’influenza di diversi sistemi di credenze tecno-utopiche sulla Silicon Valley. I due sostengono che per comprendere ciò che sta accadendo con l’IA in questo momento – sia perché aziende come Google DeepMind e OpenAI sono in corsa per costruire l’IA, sia perché i catastrofisti come Tegmark e Hinton avvertono di una catastrofe imminente – il campo deve essere visto attraverso la lente di quello che Torres ha soprannominato il quadro TESCREAL.

Il goffo acronimo (pronunciato tes-cree-all) sostituisce una lista ancora più goffa di etichette: transumanesimo, estropianesimo, singolaritarismo, cosmismo, razionalismo, altruismo efficace e il lungimirantismo. Su ognuna di queste visioni del mondo si è scritto (e si scriverà) molto, quindi ve lo risparmio. (Ci sono tane di coniglio dentro tane di coniglio per chiunque voglia approfondire. Scegliete il vostro forum e preparate la vostra attrezzatura da speleologo).

Émile Torres
FOTO DI CORTESIA

Questa costellazione di ideologie che si sovrappongono attrae un certo tipo di mentalità da cervello galattico, comune nel mondo tecnologico occidentale. Alcuni prevedono l’immortalità umana; altri prevedono la colonizzazione delle stelle da parte dell’umanità. Il principio comune è che una tecnologia onnipotente – AGI o superintelligenza, scegliete voi – non solo è a portata di mano, ma è inevitabile. Lo si può vedere nell’atteggiamento “do-or-die” che è onnipresente all’interno di laboratori all’avanguardia come OpenAI: se non realizziamo noi l’AGI, lo farà qualcun altro.

Inoltre, i TESCREAListi ritengono che l’IA potrebbe non solo risolvere i problemi del mondo, ma anche migliorare l’umanità. “Lo sviluppo e la proliferazione dell’intelligenza artificiale, lungi dall’essere un rischio da temere, è un obbligo morale che abbiamo nei confronti di noi stessi, dei nostri figli e del nostro futuro”, ha scritto Andreessen l’anno scorso in un manifesto molto discusso. Mi è stato detto più volte che l’intelligenza artificiale è il modo per rendere il mondo un posto migliore: da Demis Hassabis, CEO e cofondatore di Google DeepMind; da Mustafa Suleyman, CEO della nuova Microsoft AI e altro cofondatore di DeepMind; da Sutskever, Altman e altri ancora.

Ma come ha notato Andreessen, si tratta di una mentalità yin-yang. Il rovescio della medaglia della tecno-utopia è la tecno-periferia. Se credete di costruire una tecnologia così potente da risolvere tutti i problemi del mondo, probabilmente credete anche che ci sia una possibilità non nulla che tutto vada storto. Quando gli è stato chiesto, in occasione del World Government Summit di febbraio, cosa lo tenga sveglio la notte, Altman ha risposto: “Sono tutte le cose fantascientifiche”.

È una tensione di cui Hinton ha parlato nell’ultimo anno. È ciò che aziende come Anthropic pretendono di affrontare. È ciò su cui Sutskever si sta concentrando nel suo nuovo laboratorio, e ciò su cui voleva che si concentrasse uno speciale team interno di OpenAI l’anno scorso, prima che i disaccordi sul modo in cui l’azienda bilanciava rischi e ricompense portassero la maggior parte dei membri di quel team a lasciare.

Certo, il doomerismo fa parte dello spin. (“Affermare di aver creato qualcosa di superintelligente fa bene alle vendite”, dice Dihal. “È come dire: ‘Per favore, qualcuno mi impedisca di essere così bravo e così potente'”). Ma, boom o catastrofe che sia, quali (e di chi) sono i problemi che questi ragazzi dovrebbero risolvere? Ci si aspetta davvero che ci fidiamo di ciò che costruiscono e di ciò che dicono ai nostri leader?

Gebru e Torres (e altri) sono irremovibili: no, non dovremmo. Sono molto critici nei confronti di queste ideologie e del modo in cui possono influenzare lo sviluppo della tecnologia futura, in particolare dell’intelligenza artificiale. Fondamentalmente, collegano molte di queste visioni del mondo – con il loro comune obiettivo di “migliorare” l’umanità – ai movimenti razzisti di eugenetica del XX secolo.

Un pericolo, sostengono, è che lo spostamento di risorse verso il tipo di innovazioni tecnologiche richieste da queste ideologie, dalla costruzione dell’Intelligenza Artificiale all’estensione della durata della vita alla colonizzazione di altri pianeti, finisca per avvantaggiare le persone occidentali e bianche a scapito di miliardi di persone che non lo sono. Se si guarda a futuri fantastici, è facile trascurare i costi attuali dell’innovazione, come lo sfruttamento del lavoro, il radicamento di pregiudizi razzisti e sessisti e i danni ambientali. 

“Stiamo cercando di costruire uno strumento che ci sia utile in qualche modo?”, chiede Bender, riflettendo sulle vittime di questa corsa all’intelligenza artificiale. Se sì, a chi è destinato, come lo testiamo, quanto funziona bene? “Ma se lo stiamo costruendo solo per poter dire di averlo fatto, non è un obiettivo che posso sostenere. Non è un obiettivo che vale miliardi di dollari”.

Bender dice che vedere le connessioni tra le ideologie di TESCREAL è ciò che le ha fatto capire che c’era qualcosa di più in questi dibattiti. “Avere a che fare con quelle persone è stato…”, si interrompe. “Ok, qui c’è qualcosa di più di semplici idee accademiche. C’è anche un codice morale legato a tutto questo”.

Naturalmente, esposto in questo modo senza sfumature, non sembra che noi – come società, come individui – stiamo ottenendo le migliori condizioni. Inoltre, tutto questo suona piuttosto sciocco. Quando Gebru ha descritto alcune parti del pacchetto TESCREAL in una conferenza dello scorso anno, il suo pubblico ha riso. È anche vero che poche persone si riconoscerebbero come studenti di queste scuole di pensiero, almeno nei loro estremi.

Ma se non capiamo come si approcciano coloro che costruiscono questa tecnologia, come possiamo decidere quali accordi vogliamo fare? Quali app decidiamo di usare, a quali chatbot vogliamo dare informazioni personali, quali data center appoggiamo nei nostri quartieri, per quali politici vogliamo votare?

Una volta era così: c’era un problema nel mondo e noi costruivamo qualcosa per risolverlo. Qui è tutto al contrario: l’obiettivo sembra essere quello di costruire una macchina in grado di fare tutto, saltando il lento e duro lavoro che consiste nel capire qual è il problema prima di costruire la soluzione.

E come ha detto Gebru in quello stesso discorso, “Una macchina che risolve tutti i problemi: se non è magia, cos’è?”.

Semantica, semantica… semantica?

Quando si chiede apertamente che cos’è l’IA, molte persone evitano la domanda. Non Suleyman. Ad aprile, il CEO di Microsoft AI è salito sul palco di TED e ha raccontato al pubblico ciò che aveva detto a suo nipote di sei anni in risposta a quella domanda. La risposta migliore che poteva dare, ha spiegato Suleyman, era che l’IA era “un nuovo tipo di specie digitale”, una tecnologia così universale e così potente che chiamarla strumento non rendeva più l’idea di ciò che poteva fare per noi.

“Con la traiettoria attuale, ci stiamo dirigendo verso l’emergere di qualcosa che tutti noi fatichiamo a descrivere, eppure non possiamo controllare ciò che non capiamo”, ha affermato. “E quindi le metafore, i modelli mentali, i nomi: tutto questo è importante se vogliamo ottenere il massimo dall’IA limitandone i potenziali svantaggi”.

La lingua è importante! Spero che questo sia chiaro dai colpi di scena e dai capricci che abbiamo affrontato per arrivare a questo punto. Ma spero anche che vi stiate chiedendo: di chi è il linguaggio? E di chi sono gli svantaggi? Suleyman è un leader del settore in un gigante della tecnologia che sta per guadagnare miliardi con i suoi prodotti di intelligenza artificiale. Descrivere la tecnologia che sta alla base di questi prodotti come un nuovo tipo di specie evoca qualcosa di completamente inedito, qualcosa con un’agenzia e capacità che non abbiamo mai visto prima. Questo fa fremere il mio senso di ragno. A voi?

Non so dirvi se qui c’è magia (ironicamente o meno). E non posso dirvi come la matematica possa realizzare ciò che Bubeck e molti altri vedono in questa tecnologia (nessuno ci riesce ancora). Dovrete decidere da soli. Ma io posso tirare indietro il sipario sul mio punto di vista.

Scrivendo di GPT-3 nel 2020, ho detto che il più grande trucco dell’intelligenza artificiale è stato convincere il mondo della sua esistenza. Lo penso ancora: Siamo portati a vedere l’intelligenza nelle cose che si comportano in un certo modo, che ci sia o meno. Negli ultimi anni, anche l’industria tecnologica ha trovato le sue ragioni per convincerci che l’IA esiste. Questo mi rende scettico su molte delle affermazioni fatte per questa tecnologia.

Con i modelli linguistici di grandi dimensioni, attraverso le loro maschere sorridenti, ci troviamo di fronte a qualcosa a cui non abbiamo mai dovuto pensare prima. “Si tratta di prendere questa cosa ipotetica e renderla davvero concreta”, dice Pavlick. “Non ho mai dovuto pensare se un pezzo di linguaggio richiedesse un’intelligenza per essere generato, perché non ho mai avuto a che fare con un linguaggio che non lo fosse”.

L’intelligenza artificiale è molte cose. Ma non credo che sia simile all’uomo. Non credo che sia la soluzione a tutti (o anche alla maggior parte) dei nostri problemi. Non è ChatGPT o Gemini o Copilot. Non è una rete neurale. È un’idea, una visione, una sorta di realizzazione di un desiderio. E le idee vengono plasmate da altre idee, da morali, da convinzioni quasi religiose, da visioni del mondo, dalla politica e dall’istinto. Il termine “intelligenza artificiale” è un’utile abbreviazione per descrivere una serie di tecnologie diverse. Ma l’intelligenza artificiale non è una cosa sola e non lo è mai stata, per quanto spesso il marchio venga impresso all’esterno della scatola.

“La verità è che queste parole” – intelligenza, ragionamento, comprensione e altro – “sono state definite prima che ci fosse la necessità di essere davvero precisi al riguardo”, dice Pavlick. “Non mi piace molto quando la domanda diventa ‘Il modello capisce – sì o no?’ perché, beh, non lo so. Le parole vengono ridefinite e i concetti si evolvono continuamente”.

Penso che sia giusto. E prima riusciremo a fare un passo indietro, a concordare su ciò che non sappiamo e ad accettare che nulla di tutto questo è ancora definitivo, prima potremo… non so, immagino che non tutti si tengano per mano e cantino kumbaya. Ma possiamo smettere di chiamarci per nome.

Related Posts
Total
0
Share