STEPHANIE ARNETT/MITTR

Google DeepMind vuole definire cos’è l’intelligenza artificiale generale

L’intelligenza artificiale è uno dei concetti più controversi della tecnologia. I ricercatori di Google vogliono risolvere il problema.

L’intelligenza artificiale generale (AGI) è uno dei temi più caldi della tecnologia di oggi. È anche uno dei più controversi. Una parte importante del problema è che poche persone sono d’accordo sul significato del termine. Ora un team di ricercatori di Google DeepMind ha pubblicato un documento che introduce non solo una nuova definizione di AGI, ma anche un’intera tassonomia di definizioni.

In termini generali, per AGI si intende un’intelligenza artificiale in grado di eguagliare (o superare) gli esseri umani in una serie di compiti. Ma le specifiche su ciò che conta come simile all’uomo, quali compiti e quanti, tendono a essere ignorate: l’AGI è AI, ma migliore.

Per giungere alla nuova definizione, il team di Google DeepMind è partito da importanti definizioni di AGI già esistenti e ne ha ricavato quelle che ritiene essere le caratteristiche comuni essenziali.

Il team delinea anche cinque livelli ascendenti di AGI: emergente (che comprende chatbot all’avanguardia come ChatGPT e Bard), competente, esperto, virtuoso e superumano (che esegue un’ampia gamma di compiti meglio di tutti gli esseri umani, compresi compiti che gli esseri umani non possono fare affatto, come decodificare i pensieri degli altri, prevedere eventi futuri e parlare con gli animali). I ricercatori notano che non è stato raggiunto alcun livello superiore a quello di AGI emergente.

“Questo fornisce una chiarezza necessaria sull’argomento”, afferma Julian Togelius, ricercatore di IA presso la New York University, che non ha partecipato al lavoro. “Troppe persone usano il termine AGI senza aver riflettuto a fondo sul suo significato”.

I ricercatori hanno pubblicato il loro documento online la scorsa settimana senza alcuna fanfara. In una conversazione esclusiva con due membri del team – Shane Legg, uno dei co-fondatori di DeepMind, ora chief scientist per l’AGI, e Meredith Ringel Morris, chief scientist per l’interazione tra uomo e IA – ho capito perché sono arrivati a queste definizioni e cosa volevano ottenere.

Una definizione più nitida

“Vedo tante discussioni in cui sembra che le persone usino il termine per descrivere cose diverse, e questo porta a ogni sorta di confusione”, dice Legg, che ha ideato il termine per primo circa 20 anni fa. “Ora che l’AGI sta diventando un argomento così importante – ne parla persino il primo ministro del Regno Unito – dobbiamo chiarire cosa intendiamo”.

Non è sempre stato così. Un tempo, nelle conversazioni serie, i discorsi sull’AGI venivano considerati vaghi, nel migliore dei casi, e come pensiero magico, nel peggiore. Ma, grazie al clamore suscitato dai modelli generativi, l’AGI è ormai ovunque.

Quando Legg ha suggerito il termine al suo ex collega e collega ricercatore Ben Goertzel per il titolo del libro di Goertzel del 2007 sugli sviluppi futuri dell’IA, non aveva “una definizione particolarmente chiara. Non la ritenevo necessaria”, afferma. “In realtà la pensavo più come un campo di studio che come un manufatto”.

Il suo obiettivo all’epoca era quello di distinguere le IA esistenti in grado di svolgere molto bene un compito, come Deep Blue, il programma di IBM per il gioco degli scacchi, dalle IA ipotetiche che, secondo lui e molti altri, un giorno avrebbero svolto molto bene molti compiti. L’intelligenza umana non è come Deep Blue, dice Legg: “È una cosa molto ampia”.

Ma nel corso degli anni si è iniziato a pensare all’intelligenza artificiale come a una proprietà potenziale che i programmi informatici reali potrebbero avere. Oggi è normale che le principali aziende di IA, come Google DeepMind e OpenAI, facciano dichiarazioni pubbliche e coraggiose sulla loro missione di costruire programmi di questo tipo.

“Se iniziate a fare queste conversazioni, dovete essere molto più specifici su ciò che intendete”, dice Legg.

Ad esempio, i ricercatori di DeepMind affermano che un’intelligenza artificiale deve essere sia generica sia ad alto rendimento, non solo una o l’altra. “Separare l’ampiezza e la profondità in questo modo è molto utile”, afferma Togelius. “Dimostra perché i sistemi di IA molto efficienti che abbiamo visto in passato non si qualificano come AGI”.

Inoltre, affermano che un AGI non solo deve essere in grado di svolgere una serie di compiti, ma deve anche essere in grado di imparare a svolgerli, di valutare le proprie prestazioni e di chiedere assistenza quando necessario. E affermano che ciò che un’intelligenza artificiale può fare è più importante di come lo fa. 

Non è che il modo in cui un’AGI funziona non sia importante, dice Morris. Il problema è che non sappiamo ancora abbastanza sul modo in cui i modelli all’avanguardia, come i modelli linguistici di grandi dimensioni, funzionano in profondità per elaborare una definizione.

“Man mano che acquisiamo maggiori conoscenze su questi processi sottostanti, potrebbe essere importante rivedere la nostra definizione di AGI”, afferma Morris. “Dobbiamo concentrarci su ciò che possiamo misurare oggi in modo scientificamente condiviso”.

Misurazione

La misurazione delle prestazioni dei modelli odierni è già controversa: i ricercatori discutono su cosa significhi realmente che un modello linguistico di grandi dimensioni superi decine di test di scuola superiore e altro ancora. È un segno di intelligenza? O una sorta di apprendimento routinario?

Valutare le prestazioni di modelli futuri ancora più capaci sarà ancora più difficile. I ricercatori suggeriscono che, se mai verrà sviluppata un’intelligenza artificiale, le sue capacità dovranno essere valutate su base continuativa, piuttosto che attraverso una manciata di test una tantum.

Il team sottolinea anche che l’AGI non implica l’autonomia. “Spesso si presuppone implicitamente che le persone vogliano che un sistema operi in modo completamente autonomo”, afferma Morris. Ma non è sempre così. In teoria, è possibile costruire macchine super intelligenti completamente controllate dall’uomo.

Una domanda che i ricercatori non affrontano nella loro discussione su cosa sia l’AGI è perché dovremmo costruirla. Alcuni informatici, come Timnit Gebru, fondatore del Distributed AI Research Institute, hanno sostenuto che l’intero sforzo è bizzarro. In un discorso tenuto in aprile su quella che considera la falsa (persino pericolosa) promessa di utopia attraverso l’AGI, Gebru ha osservato che l’ipotetica tecnologia “appare come un sistema non pianificato con l’apparente obiettivo di cercare di fare tutto per tutti in qualsiasi ambiente”.

La maggior parte dei progetti di ingegneria ha obiettivi ben definiti. La missione di costruire un’intelligenza artificiale non lo è. Anche le definizioni di Google DeepMind prevedono un’intelligenza artificiale indefinitamente ampia e indefinitamente intelligente. “Non cercate di costruire un dio”, ha detto Gebru.

Nella corsa alla costruzione di sistemi più grandi e migliori, pochi ascolteranno questo consiglio. In ogni caso, un po’ di chiarezza su un concetto a lungo confuso è benvenuta. “Discutere solo di sciocchezze non è interessante”, dice Legg. “Ci sono tante cose da approfondire se riusciamo a superare questi problemi di definizione”.

Related Posts
Total
0
Share