A che punto siamo con l’Intelligenza artificiale generale?

Una macchina in grado di pensare come una persona è stata la visione guida della ricerca sull’intelligenza artificiale sin dai primi giorni, ma ancora oggi rimane difficile capire se sarà possibile realizzarla e se ha senso insistere su questa strada.

di Will Douglas Heaven

L’idea dell’intelligenza artificiale forte come la conosciamo oggi inizia con uno scoppio di dot-com a Broadway. Venti anni fa, prima che Shane Legg si incontrasse con il neuroscienziato Demis Hassabis e insieme si mettessero in contatto con Mustafa Suleyman, un attivista in campo sociale, per fondare un’azienda chiamata DeepMind poi acquistata da Google per più di mezzo miliardo di dollari quattro anni dopo, Legg ha lavorato in una startup a New York chiamata Webmind, fondata dal ricercatore di intelligenza artificiale Ben Goertzel. Oggi i due uomini rappresentano due rami molto diversi del futuro dell’intelligenza artificiale, ma le loro radici risalgono a un terreno comune.

Anche per i giorni inebrianti della bolla delle dot-com, gli obiettivi di Webmind erano ambiziosi. Goertzel voleva creare un minicervello digitale  su Internet, dove credeva che sarebbe cresciuto fino a diventare completamente consapevole di sé e molto più intelligente degli umani. “Siamo sull’orlo di una transizione di grandezza pari all’avvento dell’intelligenza o all’emergere del linguaggio”, ha detto al “Christian Science Monitor”,  nel 1998.

Webmind ha cercato di autofinanziarsi costruendo uno strumento per prevedere il comportamento dei mercati finanziari, ma il sogno più grande non si è mai realizzato. Dopo aver bruciato 20 milioni di dollari, Webmind è stata sfrattata dai suoi uffici all’estremità meridionale di Manhattan e ha smesso di pagare il suo personale. Ha dichiarato fallimento nel 2001.

Ma Legg e Goertzel sono rimasti in contatto. Quando, alcuni anni dopo, Goertzel stava mettendo insieme un libro di testi sull’AI sovraumana, è stato Legg a inventare il titolo. “Stavo parlando con Ben e ho pensato: ‘Se si tratta della generalità che i sistemi di AI non hanno ancora, dovremmo chiamarla semplicemente AGI,  ‘Artificial General Intelligence'”, dice Legg, che ora è il responsabile scientifico di DeepMind. 

Il termine è rimasto. Il libro di Goertzel e la conferenza annuale dell’AGI, inaugurata nel 2008, hanno reso l’acronimo una parola d’ordine comune per definire l’AI umana o sovrumana. Ma è diventato anche un grande spauracchio. “Non mi piace il termine AGI”, dice Jerome Pesenti, responsabile dell’AI di Facebook. “Non capisco cosa significhi”.

Non è solo. Parte del problema è che AGI è un contenitore per le speranze e le paure che circondano un’intera tecnologia. Contrariamente alla credenza popolare, non si tratta della coscienza della macchina o di robot pensanti, ma implica l’idea di pensare in grande. Molte delle sfide che dobbiamo affrontare oggi, dal cambiamento climatico al fallimento delle democrazie alle crisi di salute pubblica, sono estremamente complesse. 

Se avessimo macchine in grado di pensare come noi o meglio – più rapidamente e senza stancarci – allora forse avremmo maggiori possibilità di risolvere questi problemi. Come disse lo scienziato informatico I.J. Good nel 1965: “la prima macchina ultraintelligente è l’ultima invenzione che l’uomo dovrebbe mai realizzare”.

Elon Musk, che ha investito da subito in DeepMind e ha collaborato con un piccolo gruppo di mega-investitori, tra cui Peter Thiel e Sam Altman, per finanziare l’azienda con un miliardo di dollari, ha creato un marchio personale con previsioni “stravaganti”, ma le sue parole sono ascoltate da milioni di persone. Qualche mese fa ha dichiarato al “New York Times” che l’AI sovraumana è a meno di 5 anni di distanza. “I tempi sono stretti”, ha detto nel podcast di Lex Fridman. “Dobbiamo capire cosa fare, quando avremo a disposizione questa scelta”.

A maggio, Pesenti ha twittato che “Elon Musk non ha idea di cosa stia parlando. Non esiste una cosa come AGI e non siamo neanche lontanamente vicini alle prestazioni dell’intelligenza umana”.  Musk ha risposto: “Facebook fa schifo”. Questi scontri verbali non sono rari. Andrew Ng, ex responsabile dell’AI di Baidu e cofondatore di Google Brain ha sostenuto a sua volta: “Non perdiamo tempo con l’AGI e dedichiamo la nostra attenzione ai problemi urgenti”.

Julian Togelius, un ricercatore di intelligenza artificiale presso la New York University ha rincarato la dose: “Credere in AGI è come credere nella magia. È un modo per abbandonare il pensiero razionale ed esprimere fiducia in qualcosa che non può essere realizzato”.  Se si scorre l’hashtag #noAGI su Twitter, si possono trovare molti esperti di AI, tra cui Yann le Cun, il responsabile scientifico di Facebook, che ha vinto il Turing Award nel 2018.

Ma con la recente serie di successi dell’AI, dal campione del gioco da tavolo AlphaZero al convincente generatore di testi falsi GPT-3, le prese di posizione su AGI sono aumentate. Anche se questi strumenti sono ancora molto lontani dal rappresentare l’intelligenza “generale” – AlphaZero non può scrivere storie e GPT-3 non può giocare a scacchi, figuriamoci ragionare in modo intelligente sul perché le storie e gli scacchi contano per le persone – l’obiettivo di costruire un AGI, sta diventando un pensiero condiviso.

Alcuni dei laboratori di intelligenza artificiale più grandi e rispettati al mondo prendono molto sul serio questo obiettivo. OpenAI ha affermato di voler essere la prima a costruire una macchina con capacità di ragionamento simile a quelle umane. La dichiarazione di intenti non ufficiale ma ampiamente ripetuta di DeepMind è “arrivare a una AI  risolutiva”. 

“Parlare di AGI nei primi anni del Duemila significava essere considerati dei sognatori”, dice Legg. “Anche quando abbiamo avviato DeepMind nel 2010, abbiamo respirato un’aria diffusa di scetticismo durante le conferenze.” Ma le cose stanno cambiando”, egli sostiene. Allora perché l’AGI è controversa? Perchè suscita così tanto interesse? E’ un miraggio o l’obiettivo finale? 

Ben GoertzelWikimedia Commons

Cos’è l’AGI?

Il termine è in uso popolare da poco più di un decennio, ma le idee che avanza esistono da una vita. Nell’estate del 1956, una decina di scienziati si riunirono al Dartmouth College nel New Hampshire per lavorare su quello che credevano sarebbe stato un modesto progetto di ricerca. Presentando il workshop in anticipo, i pionieri dell’AI John McCarthy, Marvin Minsky, Nat Rochester e Claude Shannon scrissero: “Lo studio deve procedere sulla base della congettura che ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza possa essere simulata da una macchina che utilizzerà il linguaggio, procederà per astrazioni e concetti, risolverà tipi di problemi ora riservati agli esseri umani e sarà capace di apprendere”. La loro idea è che ci sarebbero volute 10 persone per due mesi.

Nel 1970 Minsky, ribadì: “Entro i prossimi otto anni, avremo una macchina con l’intelligenza generale di un normale essere umano. Intendo una macchina che sarà in grado di leggere Shakespeare, raccontare una barzelletta, litigare. A quel punto la macchina inizierà ad apprendere con una velocità fantastica. In pochi mesi i suoi poteri saranno incalcolabili”.

Tre cose colpiscono in queste visioni di AI: un’abilità simile a quella umana di generalizzare, una capacità sovrumana di auto-migliorarsi a un ritmo esponenziale e tanto ottimismo. Dopo mezzo secolo, siamo ancora lontanissimi dalla creazione di un’AI con le capacità multitasking di un essere umano e anche di un insetto.

Questo non vuol dire che non ci siano stati enormi successi. Molti degli elementi di quella prima lista dei desideri sono stati realizzati: abbiamo macchine in grado di usare il linguaggio, vedere e risolvere molti dei nostri problemi. Ma le AI di oggi non sono simili a quelle umane nel modo in cui immaginavano i pionieri. Il deep learning, la tecnologia che guida il boom dell’intelligenza artificiale, prepara le macchine a padroneggiare un vasto numero di cose, come scrivere storie false e giocare a scacchi, ma separatamente una dall’altra. 

Quando Legg ha suggerito il termine AGI a Goertzel per il suo libro del 2007, stava contrapponendo l’intelligenza artificiale generale a questa idea ristretta e tradizionale di AI. Le persone utilizzavano diversi termini correlati, come “AI forte” e “AI reale”, per distinguere la visione di Minsky dall’AI prevalente. 

Parlare di AGI significava spesso implicare che l’intelligenza artificiale avesse fallito, afferma Joanna Bryson, ricercatrice di intelligenza artificiale della Hertie School di Berlino: “Era l’idea che alcune persone lavoravano a queste cose noiose, come la visione artificiale, mentre noi – e io ero una di loro all’epoca – stavamo cercando di capire l’intelligenza umana”, ella spiega. “Intelligenza artificiale forte, scienze cognitive, AGI erano il nostro modo di dire: ‘Avete fatto una grande confusione. Cerchiamo di andare oltre’”.

Questa idea che l’AGI sia il vero obiettivo della ricerca sull’AI è ancora attuale. Un sistema di intelligenza artificiale funzionante diventa presto solo un pezzo di software: le cosiddette “cose noiose” di Bryson. D’altra parte, l’AGI assume presto il ruolo di sostituto per qualsiasi forma di intelligenza artificiale che non abbiamo ancora capito come costruire, sempre al di fuori della nostra portata.

A volte Legg parla di AGI come di una specie di multiutensile: una macchina che risolve molti problemi diversi, senza che sia necessario progettarne una nuova per ogni sfida aggiuntiva. Da questo punto di vista, non sarebbe più intelligente di AlphaGo o GPT-3, ma avrebbe solo più capacità. Sarebbe un’intelligenza artificiale generale, non un’intelligenza a tutti gli effetti. Comunque, si parla anche di una macchina con cui si potrebbe interagire come se fosse un’altra persona, una sorta di compagno di giochi.

Quando le persone parlano di AGI, sono queste le abilità umane che hanno in mente. Thore Graepel, un collega di Legg a DeepMind, ama usare una citazione dell’autore di fantascienza Robert Heinlein, che sembra rispecchiare le parole di Minsky: “Un essere umano dovrebbe essere in grado di cambiare un pannolino, pianificare un’invasione, macellare un maiale, progettare un edificio, scrivere un sonetto, costruire un muro, consolare chi è in fin di vita, prendere e dare ordini, cooperare, agire in autonomia, risolvere equazioni, analizzare un nuovo problema, programmare un computer, cucinare un pasto gustoso, combattere efficacemente, andarsene dal mondo con stile. La specializzazione è per gli insetti”.

La descrizione di Graepel è pronunciata da un personaggio chiamato Lazarus Long nel romanzo di Heinlein, del 1973, Time Enough for Love. Long è una specie di superuomo, il risultato di un esperimento genetico che gli ha permesso di vivere per centinaia di anni. In questo lungo periodo, Long vive molte vite e padroneggia diverse abilità. In altre parole, Minsky descrive le capacità di un tipico essere umano. Graepel no. 

I confini della ricerca dell’AGI si spostano costantemente in questo modo. Cosa intendono le persone quando parlano di intelligenza artificiale simile a quella umana? La mia, la vostra o quella di Lazarus Long? Per Pesenti questa ambiguità è un problema. “Non credo che nessuno sappia cosa sia”, egli dice. “Gli esseri umani non possono fare tutto. Non possono risolvere ogni problema e non possono sempre migliorarsi”.

Come  potrebbe  essere in pratica l’AGI? Definirla “simile a quella umana” è allo stesso tempo vago e troppo specifico. Gli esseri umani sono il miglior esempio di intelligenza generale che abbiamo, ma sono anche altamente specializzati. Una rapida occhiata al variegato universo delle intelligenze animali – dalla cognizione collettiva vista nelle formiche alle capacità di risoluzione dei problemi di corvi o polpi all’intelligenza più riconoscibile, ma ancora aliena degli scimpanzé – mostra che ci sono molti modi per definire un’intelligenza generale.

Anche se costruiamo l’AGI, potremmo non comprenderla completamente. I modelli di machine learning odierni sono tipicamente “scatole nere”, nel senso che arrivano a risultati accurati attraverso percorsi di calcolo che nessun essere umano può capire. Alcuni potrebbero anche sostenere che la coscienza o la sensibilità siano i requisiti fondamentali per l’AGI. Ma se l’intelligenza è difficile da definire, la coscienza è ancora più complessa. 

I filosofi e gli scienziati non sono chiari su cosa sia nell’uomo, figuriamoci per un computer. L’intelligenza probabilmente richiede un certo grado di autoconsapevolezza, la capacità di riflettere sulla visione del mondo, ma non si tratta necessariamente della stessa cosa della coscienza, vale a dire come ci si  sente  a sperimentare il mondo o riflettere su quanto si vede. Anche i più fedeli sostenitori dell’AGI sono agnostici riguardo alla coscienza della macchina. 

Il campione di Go Lee Sedol (a sinistra) stringe la mano al co-fondatore di DeepMind Demis Hassabis.Getty

Come si costruisce l’AGI?

Legg ha inseguito l’intelligenza per tutta la sua carriera. Dopo Webmind ha lavorato con Marcus Hutter presso l’Università di Lugano in Svizzera su una tesi di dottorato chiamata Machine Super-Intelligence. Hutter (che ora collabora anche con DeepMind) era interessato a una definizione matematica di intelligenza limitata solo dalle leggi della fisica: un’intelligenza generale definitiva.

La coppia ha pubblicato un’equazione per quella che hanno chiamato intelligenza universale, che Legg descrive come una misura della capacità di raggiungere obiettivi in una vasta gamma di ambienti, dimostrando che la loro definizione matematica era simile a molte teorie dell’intelligenza trovate in psicologia, che la caratterizzano in termini di generalità.

A DeepMind, Legg sta trasformando il suo lavoro teorico in dimostrazioni pratiche, a partire da forme di AI che raggiungono obiettivi particolari in ambienti particolari, dai giochi al ripiegamento delle proteine. La parte difficile viene dopo: unire più abilità insieme. Il deep learning è l’approccio più generale a disposizione, in quanto un algoritmo può essere utilizzato per apprendere più di un’attività. 

AlphaZero ha utilizzato lo stesso algoritmo per imparare il Go, lo shogi (un gioco simile agli scacchi dal Giappone) e gli scacchi. Il sistema dei 57 videogiochi Atari di DeepMind utilizzava lo stesso algoritmo per padroneggiare ogni videogioco Atari. Ma le AI possono ancora imparare solo una cosa alla volta. Avendo imparato gli scacchi, AlphaZero deve cancellare la sua memoria e capire come funziona lo Shogi da zero.

Legg si riferisce a questo tipo di generalità come “un algoritmo”, a differenza della generalità del cervello umano. Passare da un algoritmo a un cervello è una delle più grandi sfide aperte nell’AI. Un’intelligenza artificiale con un solo cervello non sarebbe ancora una vera intelligenza, ma soltanto un’intelligenza artificiale migliore per tutti gli usi: il multi-strumento di Legg. Qualunque sia il loro orientamento, però, i ricercatori concordano sul fatto che i sistemi odierni devono avere uno scopo generale e, per coloro che hanno l’AGI come obiettivo, un’AI multiuso è un primo passo necessario. 

C’è un lungo elenco di strategie che potrebbero aiutare. Si va dalla tecnologia emergente a esperimenti più radicali In ordine di maturità, sono le seguenti:

Apprendimento non supervisionato o auto-supervisionato.  Etichettare i set di dati (per esempio, contrassegnare tutte le immagini di gatti con “gatto”) per dire alle AI cosa stanno guardando durante l’addestramento è la chiave di ciò che è noto come apprendimento supervisionato. È ancora in gran parte fatto a mano ed è un grosso collo di bottiglia. L’intelligenza artificiale deve essere in grado di apprendere da sola senza la guida umana, per esempio guardando le foto di cani e gatti e imparando a distinguerli senza aiuto o individuando  anomalie nelle transazioni finanziarie  senza l’addestramento umano. Questa ultima strategia, nota come apprendimento senza supervisione, sta diventando sempre più comune.

Trasferimento da un campo all’altro delle conoscenze.  La maggior parte dei modelli di deep learning oggi può essere addestrata per fare solo una cosa alla volta. Il trasferimento dell’apprendimento mira a consentire alle AI di trasferire alcune parti della loro formazione per un’attività, come giocare a scacchi, a un’altra, come giocare a Go. È così che gli umani imparano.

Buon senso e inferenza causale.  Sarebbe più facile trasferire l’apprendimento se un’intelligenza artificiale avesse una base di buon senso da cui partire. E una parte fondamentale del buon senso è la comprensione di causa ed effetto. Come dotare di buon senso l’AI è un argomento di ricerca caldo al momento, con approcci che vanno dalla codifica di semplici regole in una rete neurale al vincolo delle possibili previsioni che un’AI può fare. Ma la ricerca è ancora nelle sue fasi iniziali. 

Ottimizzatori di apprendimento. Sono strumenti che possono essere utilizzati per plasmare il modo in cui le AI apprendono, per renderle più efficienti. Un lavoro recente mostra che questi strumenti possono addestrarsi tra loro, il che significa che un’AI viene utilizzata per formare le altre. Questo potrebbe essere un piccolo passo verso l’automiglioramento dell’IA, un obiettivo dell’AGI. 

Tutte queste aree di ricerca si affidano al deep learning, che al momento rimane il modo più promettente per costruire l’IA. L’apprendimento profondo si basa su reti neurali, che sono spesso descritte come simili al cervello in quanto i loro neuroni digitali sono ispirati da quelli biologici. L’intelligenza umana è il miglior esempio di intelligenza generale che abbiamo, quindi ha senso cercare ispirazione in noi stessi. 

Ma i cervelli sono più di un enorme groviglio di neuroni. Hanno componenti separati che collaborano. Hassabis, per esempio, stava studiando l’ippocampo, che gioca un ruolo importante nella memoria, quando si è incontrato con Legg. Hassabis pensa che l’intelligenza generale nel cervello umano derivi in parte dall’interazione tra l’ippocampo e la corteccia. Questa idea ha contribuito al sistema di DeepMind che si allena con i giochi Atari, che utilizza un algoritmo ispirato all’ippocampo, chiamato DNC (computer neurale differenziabile), che combina una rete neurale con un elemento di memoria dedicato. 

I componenti simili a un cervello artificiale come il DNC sono talvolta noti come architetture cognitive. Svolgono un ruolo in altre AI di DeepMind come AlphaGo e AlphaZero, che combinano due reti neurali specializzate separate con alberi di ricerca, una vecchia forma di algoritmo che funziona un po’ come un diagramma di flusso per le decisioni. I modelli di linguaggio come GPT-3 mettono insieme una rete neurale con una più specializzata chiamata trasformatore, che gestisce sequenze di dati come il testo.

I ricercatori AGI sono impegnati a capire come costruire una superintelligenza 

I tentativi sono di diverso tipo.  Nel caso dell’intelligenza emergente, Kristinn Thórisson sta esplorando cosa succede quando semplici programmi riscrivono altri semplici programmi per produrre ancora altri programmi. È interessato ai comportamenti complessi che emergono da processi semplici lasciati a svilupparsi da soli. 

Nel caso dell’intelligenza universale, Arthur Franz sta cercando di prendere la definizione matematica di Marcus Hutter di AGI, che presuppone una potenza di calcolo infinita, e trasformarla in un codice che funzioni nella pratica.

Nel caso dell’intelligenza aperta, David Weinbaum lavora su intelligenze che si sviluppano senza obiettivi prefissati. L’idea è che le funzioni di ricompensa come quelle tipicamente utilizzate nell’apprendimento per rinforzo restringano l’attenzione di un’AI. Weinbaum sta lavorando a modi per sviluppare un’intelligenza che funzioni al di fuori di uno specifico dominio del problema e si adatti semplicemente senza meta al suo ambiente. 

In definitiva, tutti gli approcci per raggiungere l’AGI si riducono a due ampie scuole di pensiero. Una è che, se si ottengono gli algoritmi corretti, è possibile disporli in qualsiasi architettura cognitiva si desideri. Laboratori come OpenAI sembrano sostenere questo approccio, costruendo modelli di machine learning sempre più grandi che potrebbero ottenere AGI con la forza bruta.

L’altra scuola dice che la fissazione per l’apprendimento profondo sta funzionando da freno. Se la chiave per l’AGI è capire come i componenti di un cervello artificiale dovrebbero lavorare insieme, concentrarsi troppo sui componenti stessi – gli algoritmi di apprendimento profondo – è andare fuori strada. 

Se si sceglie l’architettura cognitiva giusta, tutto diventa più semplice. Si tratta dell’approccio di Goertzel, il cui progetto OpenCog è un tentativo di costruire una piattaforma open source che si adatterà a diversi pezzi del puzzle. È anche un percorso che DeepMind ha esplorato quando ha combinato reti neurali e alberi di ricerca per AlphaGo. 

“La mia sensazione personale è che sia necessaria una via di mezzo”, dice Legg. “Sospetto che ci sia un numero relativamente piccolo di algoritmi accuratamente realizzati che saremo in grado di combinare insieme in modo davvero efficace”. Goertzel non è in disaccordo. “La profondità del pensiero sull’AGI di Google e DeepMind (entrambe le aziende sono ora di proprietà di Alphabet), mi colpisce”, egli dice. “Se c’è qualche grande azienda che lo otterrà, saranno loro”.

Pochi oltre a Musk amano azzardare un’ipotesi su quando (se mai) arriverà l’AGI. Anche Goertzel non rischierebbe di fissare i suoi obiettivi a una linea temporale specifica, anche se direbbe prima piuttosto che dopo. Non c’è dubbio che i rapidi progressi nell’apprendimento profondo, e GPT-3, in particolare, hanno aumentato le aspettative. Ma il mimetismo non è intelligenza. Ci sono buchi molto grandi nella strada da percorrere e i ricercatori non hanno ancora esplorato la loro profondità, per non parlare di come riempirli. 

Unsplash

Perché l’AGI è così controversa?

Parte del motivo per cui nessuno sa come costruire una AGI è che pochi sono d’accordo su cosa sia. I diversi approcci riflettono idee diverse su ciò a cui miriamo, dal multi-strumento all’AI sovrumana. Sono stati compiuti piccoli passi per rendere l’AI più generale, ma c’è un enorme divario tra uno strumento generico che può risolvere diversi problemi e uno che può risolvere problemi che gli umani non possono. “Ci sono un sacco di progressi nell’AI, ma ciò non implica che ci siano progressi nell’AGI”, afferma Andrew Ng.

Senza prove da entrambe le parti sul fatto che l’AGI sia realizzabile o meno, la questione diventa un problema di fede. “Sembra come quegli argomenti della filosofia medievale su quanti angeli possono stare in piedi sulla testa di uno spillo”, dice Togelius. “Sono solo parole”.

Goertzel colloca uno scettico dell’AGI come Ng da una parte e se stesso dall’altra. Fin dai suoi giorni alla Webmind, Goertzel si è presentato ai media come una figura di riferimento a favore dell’ AGI. Dirige la conferenza AGI e un’organizzazione chiamata SingularityNet, che descrive come una sorta di “Webmind su blockchain”. Dal 2014 al 2018 è stato anche responsabile scientifico di Hanson Robotics, l’azienda con sede a Hong Kong che, nel 2016, ha presentato Sophie, un robot umanoide parlante, più manichino da parco a tema che ricerca d’avanguardia, grazie al quale ha guadagnato la ribalta mondiale. 

Ma anche lui ammette che si tratta semplicemente di un “robot teatrale”, non di un’intelligenza artificiale. Questa sua predisposizione alla spettacolarità ha indotto molti seri ricercatori di intelligenza artificiale a prendere le distanze da lui. In un discorso programmatico alla Conferenza AGI del 2014, Yoshua Bengio, un ricercatore di intelligenza artificiale presso l’Università di Montreal che è stato co-vincitore del Premio Turing con Yann LeCun e Geoffrey Hinton nel 2018, ha suggerito che la creazione di un’intelligenza artificiale simile a quella umana è possibile perché il cervello è una macchina, che deve solo essere capita. Ma si è dichiarato non convinto della superintelligenza, vale a dire una macchina che supera la mente umana. Ad ogni modo, pensa che l’AGI non sarà raggiunta se non troviamo un modo per dotare i computer del buon senso e della capacità di inferenza causale. 

Ng, a sua volta, ribadisce di non avere pregiudizi nei confronti dell’AGI. Quando era a Google Brain e il deep learning andava sempre più rafforzandosi, Ng si chiedeva se il semplice aumento delle reti neurali potesse essere un percorso per l’AGI.

Un problema ancora più controverso è l’allarme su cosa succederebbe se l’AGI fosse liberamente disponibile. In questo caso la speculazione e la fantascienza si confondono. Musk dice che l’AGI sarà più pericolosa delle armi nucleari. Hugo de Garis, un ricercatore di intelligenza artificiale ora presso l’Università di Wuhan in Cina, aveva previsto che negli anni Duemila l’AGI avrebbe portato a una guerra mondiale e a “miliardi di morti” entro la fine del secolo. Macchine divine, che lui chiamava artilects, si sarebbero alleati con i sostenitori umani, i cosmisti, contro una resistenza umana, i terrestri. 

Certamente non aiuta il campo pro-AGI quando qualcuno come de Garis, che è anche un schietto sostenitore delle opinioni “maschiliste” e antisemite, ha scritto un capitolo del libro sull AGI di Goertzel accanto a quelli di ricercatori seri come Hutter e Jürgen Schmidhuber, a volte chiamato “il padre dell’IA moderna”. Se molti nel campo dell’AGI si sentono portavoci dell’AI, altrettanti al di fuori li vedono come sostenitori di idee stravaganti come la Singolarità (il punto di non ritorno quando le macchine che si auto-migliorano superano gli umani intelligenza), l’emulazione del cervello, il transumanesimo e l’apocalisse.

Perchè la discussione è importante?

Qualche decennio fa, quando l’AI non è riuscita a essere all’altezza della popolarità di Minsky e altri, il campo è entrato in crisi più di una volta. I finanziamenti sono scomparsi e i ricercatori si sono allontanati. Ci sono voluti molti anni prima che la tecnologia emergesse da quelli che erano noti come “inverni dell’AI” e si riaffermasse. Ora l’attenzione è tornata.

La preoccupazione più immediata è che le aspettative irrealistiche condizionino il processo decisionale dei responsabili politici. Bryson dice di aver assistito a molti pensieri confusi nelle sale del consiglio e nei governi perché in quelle sedi hanno una visione fantascientifica dell’AI. Ciò può indurli a ignorare problemi irrisolti molto reali, come il modo in cui  i pregiudizi razziali possano essere codificati nell’AI a causa di dati di addestramento distorti, mancanza di trasparenza su come funzionano gli algoritmi o mancate assunzioni di responsabilità.

Il fascino di AGI non sorprende. L’auto-riflessione e la creazione sono due delle attività più umane. La spinta a costruire una macchina a nostra immagine è irresistibile. Molte persone che ora sono critiche nei confronti di AGI hanno flirtato con questa idea nelle loro precedenti carriere. Come Goertzel, Bryson ha trascorso diversi anni cercando di creare un bambino artificiale. Nel 2005, Ng ha organizzato un seminario a NeurIPS (allora chiamato NIPS), la principale conferenza mondiale sull’intelligenza a artificiale dal titolo “Verso l’AI a livello umano?”

Questi ricercatori sono passati a problemi più pratici. Ma grazie ai progressi che loro e altri hanno fatto, le aspettative sono di nuovo in aumento. “Molte persone nel campo non ritenevano possibili tanti progressi come abbiamo avuto negli ultimi anni che hanno permesso di rendere l’AGI molto più credibile”, conclude Legg.

Immadine di: Ariel Davis

(rp)

Related Posts
Total
0
Share