Come sapere se l’IA sta mettendo a rischio la civiltà

Potremmo svegliarci una mattina sbalorditi dall’emergere di un’intelligenza artificiale super potente, che ci sta portando a conseguenze disastrose? Libri come “Superintelligence” di Nick Bostrom e “Life 3.0” di Max Tegmark sostengono che la superintelligenza “malevola” è un rischio esistenziale per l’umanità.

di Oren Etzioni

La domanda da farci è una: chi o cosa ci può avvertire che un qualche tipo di superintelligenza è davvero dietro l’angolo? La risposta è: l’equivalente dei canarini nelle miniere di carbone. Se un programma di intelligenza artificiale sviluppa una nuova fondamentale capacità, il decesso del canarino ci fa capire che siamo di fronte all’avvento di una IA creativa.

Il famoso test di Turing potrebbe servire da canarino? Il test, inventato da Alan Turing nel 1950, presuppone che l’IA a livello umano sarà raggiunta quando una persona non saprà distinguere la conversazione con un essere umano dalla conversazione con un computer. È un test importante, ma non è un canarino; è piuttosto il segno che l’IA a livello umano è già arrivata. Molti scienziati informatici credono che una volta arrivato quel momento, la superintelligenza seguirà rapidamente. Sono necessari passaggi intermedi.

Le prestazioni dell’IA in giochi come Gopoker o Quake 3 sono un “canarino”? Decisamente no. Buona parte della cosiddetta intelligenza artificiale in questi giochi è in realtà un lavoro umano per inquadrare il problema e progettare la soluzione. La vittoria di AlphaGo sui campioni umani di Go è stata frutto del talentuoso team umano di DeepMind, non della macchina, che ha semplicemente eseguito l’algoritmo creato dal team.

Ci vogliono anni di duro lavoro per trasferire il successo dell’IA da una sfida alla successiva. Persino AlphaZero, che ha imparato a competere a livello mondiale a Go in poche ore, non ha fatto sostanziali passi avanti dal 2017. Metodi come l’apprendimento profondo sono di carattere generale, ma la loro applicazione di successo a un compito specifico richiede un ampio intervento umano.

In termini complessivi, l’apprendimento automatico è al centro dei successi dell’IA negli ultimi dieci anni circa. Tuttavia, il termine “apprendimento automatico” è improprio. Le macchine possiedono solo un modesto frammento delle capacità di apprendimento ricche e versatili degli umani.

Dire che le macchine imparano è come dire che i piccoli dei pinguini sanno pescare. La realtà è che i pinguini adulti nuotano, catturano i pesci, li digeriscono, rigurgitano nei loro becchi e mettono bocconi nella bocca dei loro bambini. Allo stesso modo l’IA viene alimentata con il cucchiaio da scienziati e ingegneri umani.

Diversamente dall’apprendimento automatico, quello umano associa una motivazione personale (“Voglio guidare per essere indipendente dai miei genitori”) a un piano di apprendimento strategico (“Prendo lezioni di guida nei fine settimana”). Un essere umano formula obiettivi di apprendimento specifici (“Devo parcheggiare meglio in retromarcia”), raccoglie ed etichetta i dati (“Questa volta l’angolo era sbagliato”) e incorpora feedback esterni e conoscenze di base (“L’istruttore ha spiegato come utilizzare gli specchietti laterali”).

Per gentile concessioni di Oren Etzioni

Gli umani identificano e schematizzano i problemi di apprendimento. Nessuna di queste abilità umane viene replicata a distanza dalle macchine. I computer possono eseguire calcoli statistici sovrumani, ma questo è solo l’ultimo miglio dell’apprendimento.

La formulazione automatica dei problemi di apprendimento, quindi, è il nostro primo canarino. Non sembra assolutamente stare sul punto di morire. Le auto a guida autonoma sono un secondo canarino. Sono in anticipo rispetto a quanto anticipato da Elon Musk. L’intelligenza artificiale può fallire catastroficamente in situazioni atipiche, come nel caso di una persona su una sedia a rotelle che attraversi la strada.

La guida è molto più impegnativa rispetto alle precedenti attività di intelligenza artificiale perché richiede di prendere decisioni critiche in tempo reale, basate sia sull’imprevedibile mondo fisico sia sull’interazione con altri guidatori umani e pedoni. Ovviamente, le auto a guida autonoma saranno limitate fino a quando non scenderanno considerevolmente i tassi di incidenti, ma il canarino sarà “steso a terra” solo quando verrà raggiunto un livello di guida simile a quello umano.

I medici robotico rappresentano un terzo canarino. L’intelligenza artificiale può già analizzare immagini mediche con una precisione sovrumana, ma questa è solo una piccola parte del lavoro di un medico umano. Un medico robotico dovrebbe intervistare i pazienti, considerare le possibili complicanze, consultare medici e altre incombenze.

Si tratta di compiti impegnativi che richiedono la comprensione di persone, lingua e conoscenze mediche. Un medico simile non dovrebbe ingannare un paziente nel pensare che sia umano, e in questo è qualcosa di diverso dal test di Turing, ma dovrebbe approssimare le capacità dei medici umani attraverso una vasta gamma di compiti e circostanze impreviste.

Anche se il test di Turing non rappresenta un buon canarino, le versioni limitate del test potrebbero svolgere questa funzione. Le forme di IA esistenti non sono in grado di comprendere le persone e le loro emozioni, o anche le domande di ordine fisico, del tipo “Un jumbo-jet può passare in una finestra?” .

Possiamo proporre un test di Turing parziale conversando con un’intelligenza artificiale come Alexa o Google Home per alcuni minuti, il che renderebbe evidente rapidamente la loro comprensione limitata della lingua e del mondo. Si consideri un esempio molto semplice basato sugli schemi di Winograd proposti dallo scienziato informatico Hector Levesque: ho chiesto ad Alexa: “La mia coppa da trofeo non entra nel mio bagaglio a mano perché è troppo grande. Cosa dovrei fare?” La risposta di Alexa è stata “Non lo so”.

Poiché Alexa non può ragionare sulle dimensioni degli oggetti, non può decidere se “troppo grande” si riferisce al trofeo o al bagaglio a mano. Quando l’IA non riesce a capire i collegamenti tra le diverse parti della frase, è difficile credere che sia pronta a conquistare il mondo. Se Alexa fosse in grado di avere un dialogo significativo su un argomento complesso, sarebbe un quarto canarino.

Le IA attuali sono sapienti idioti: hanno successo in compiti ristretti, come giocare a Go o classificare le immagini MRI, ma mancano di capacità generali e della versatilità degli umani. Siamo ancora a decenni di distanza dalle abilità versatili di un bambino di cinque anni. I canarini che propongo, al contrario, indicano i punti di possibili sviluppi dell’IA.

Alcuni teorici, come Bostrom, sostengono che dobbiamo comunque pianificare eventi a bassa probabilità, ma ad alta conseguenza, come se fossero inevitabili. A loro parere, le conseguenze sono così profonde che le nostre stime della loro probabilità perdono di importanza. E’ un un argomento di scarso valore: può essere usato per giustificare qualsiasi cosa. È una versione moderna di quanto sosteneva Pascal nel XVII secolo: vale la pena agire come se esistesse un Dio cristiano perché altrimenti si rischia un inferno eterno.

Il filosofo francese ha usato i possibili costi infiniti di un errore per sostenere che un determinato corso d’azione è “razionale”, anche se si affida a una premessa altamente improbabile. Ma argomenti basati sui “costi infiniti” possono supportare credenze contraddittorie. Per esempio, si ipotizzi un Dio anticristiano che promette un inferno eterno per ogni atto cristiano. Una situazione decisamente improbabile. Da un punto di vista logico, tuttavia, è una scommessa tanto ragionevole quanto credere nel Dio della Bibbia. Questa contraddizione mostra un difetto nelle argomentazioni basate sui costi infiniti.

Il mio catalogo di segnali di allerta precoce, o canarini, non pretende di essere completo, ma mostra quanto siamo lontani da un’intelligenza artificiale a livello umano. Se e quando un canarino “collassa”, avremo molto tempo per individuare l’emergere di questo tipo di IA e identificare le linee rosse che non vogliamo che l’AI attraversi.

L’escatologia dell’intelligenza artificiale senza canarini empirici è una distrazione che si occupa di questioni esistenti su come regolare l’impatto dell’IA sull’occupazione o garantire che il suo uso nei tribunali o nei posti di lavoro non discrimini alcuna minoranza.

Come ha detto Andrew Ng, uno dei più importanti esperti di intelligenza artificiale del mondo, “Preoccuparsi che l’IA diventi ‘malvagia’ è come preoccuparsi della sovrappopolazione su Marte”. Fino a quando i canarini non inizieranno a morire, ha perfettamente ragione.

Immagine: Ms Tech

(rp)

Related Posts
Total
0
Share