L’intelligenza artificiale rivoluzionerà la scienza. Parola di Eric Schmidt

L’ex CEO di Google sostiene che il modo in cui progredisce la scienza sarà sempre più entusiasmante e avrà un grande impatto sulle nostre vite.

È un’altra estate di clima estremo, con ondate di calore, incendi e inondazioni senza precedenti che hanno colpito i Paesi di tutto il mondo. Per prevedere con precisione tali eventi estremi, il gigante dei semiconduttori Nvidia sta costruendo un “gemello digitale” alimentato dall’intelligenza artificiale per l’intero pianeta.  

Questo gemello digitale, chiamato Terra-2, utilizzerà le previsioni di FourCastNet un modello di intelligenza artificiale che impiega decine di terabyte di dati del sistema terrestre e può prevedere le prossime due settimane di tempo decine di migliaia di volte più velocemente e con maggiore precisione rispetto agli attuali metodi di previsione.  

I normali sistemi di previsione meteorologica sono in grado di generare circa 50 previsioni per la settimana successiva. FourCastNet è invece in grado di prevedere migliaia di possibilità, cogliendo con precisione il rischio di disastri rari ma mortali e dando così alle popolazioni vulnerabili tempo prezioso per prepararsi ed evacuare.  

L’auspicata rivoluzione nella modellazione climatica è solo all’inizio. Con l’avvento dell’intelligenza artificiale, la scienza sta per diventare molto più eccitante – e per certi versi irriconoscibile. I riverberi di questo cambiamento si faranno sentire ben al di fuori dei laboratori e riguarderanno tutti noi.  

Se giochiamo bene le nostre carte, con una regolamentazione ragionevole e un sostegno adeguato agli usi innovativi dell’IA per affrontare i problemi più urgenti della scienza, l’IA può riscrivere il processo scientifico. Possiamo costruire un futuro in cui gli strumenti basati sull’IA ci eviteranno un lavoro inutile e dispendioso in termini di tempo, ma ci porteranno anche a invenzioni e scoperte creative che avrebbero richiesto decenni di sviluppo. 

Negli ultimi mesi l’intelligenza artificiale è diventata quasi sinonimo di modelli linguistici di grandi dimensioni, o LLM, ma in campo scientifico esistono una moltitudine di architetture di modelli diversi che possono avere un impatto ancora maggiore. Nell’ultimo decennio, la maggior parte dei progressi in campo scientifico è avvenuta grazie a modelli “classici” più piccoli, focalizzati su questioni specifiche. Questi modelli hanno già portato a profondi progressi. Più di recente, modelli più grandi di apprendimento profondo, che iniziano a incorporare conoscenze trasversali e IA generativa, hanno ampliato le possibilità. 

Gli scienziati della McMaster e del MIT, ad esempio, hanno utilizzato un modello di intelligenza artificiale per identificare un antibiotico per combattere un agente patogeno che l’Organizzazione Mondiale della Sanità ha etichettato come uno dei batteri resistenti agli antibiotici più pericolosi al mondo per i pazienti degli ospedali. Un modello di Google DeepMind può controllare il plasma nelle reazioni di fusione nucleare, avvicinandoci a una rivoluzione energetica pulita. Nel settore sanitario, la Food and Drug Administration statunitense ha già autorizzato 523 dispositivi che utilizzano l’intelligenza artificiale, il 75% dei quali per la radiologia. 

Ripensare la scienza 

In fondo, il processo scientifico che tutti abbiamo imparato alle elementari rimarrà lo stesso: condurre una ricerca di base, identificare un’ipotesi, testarla attraverso la sperimentazione, analizzare i dati raccolti e giungere a una conclusione. Ma l’intelligenza artificiale ha il potenziale per rivoluzionare ciascuna di queste componenti.  

L’intelligenza artificiale sta già trasformando il modo in cui alcuni scienziati conducono le analisi della letteratura. Strumenti come PaperQA e Elicit occupano gli LLM nella scansione di database di articoli e producono riassunti sintetici e accurati della letteratura esistente, citazioni incluse. 

Una volta completata la revisione della letteratura, gli scienziati formano un’ipotesi da testare. Gli LLM lavorano essenzialmente prevedendo la parola successiva in una frase, fino ad arrivare a intere frasi e paragrafi. Questa tecnica rende gli LLM particolarmente adatti ai problemi di scala intrinseci alla struttura gerarchica della scienza e potrebbe consentire loro di prevedere la prossima grande scoperta in fisica o in biologia.  

L’intelligenza artificiale può anche allargare la rete di ricerca delle ipotesi e restringerla più rapidamente. Di conseguenza, gli strumenti dell’intelligenza artificiale possono aiutare a formulare ipotesi più solide, come ad esempio modelli che producono candidati più promettenti per nuovi farmaci. Stiamo già assistendo a simulazioni più veloci di diversi ordini di grandezza rispetto a pochi anni fa, che consentono agli scienziati di provare un maggior numero di opzioni di progettazione in simulazione prima di effettuare esperimenti nel mondo reale.  

Gli scienziati del Caltech, ad esempio, hanno utilizzato un AI fluid simulation model per progettare automaticamente un catetere migliore che impedisce ai batteri di nuotare a monte e causare infezioni. Questo tipo di capacità modificherà radicalmente il processo incrementale della scoperta scientifica, consentendo ai ricercatori di progettare la soluzione ottimale fin dall’inizio anziché procedere attraverso una lunga serie di progetti progressivamente migliori, come abbiamo visto in anni di innovazione sui filamenti nella progettazione delle lampadine. 

Passando alla fase di sperimentazione, l’intelligenza artificiale sarà in grado di condurre esperimenti più rapidi, più economici e su scala maggiore. Ad esempio, possiamo costruire macchine alimentate dall’intelligenza artificiale con centinaia di micropipette che funzionano giorno e notte per creare campioni a una velocità che nessun essere umano potrebbe eguagliare. Invece di limitarsi a sei esperimenti, gli scienziati potranno usare gli strumenti dell’IA per eseguirne mille. 

Gli scienziati preoccupati per la prossima borsa di studio, pubblicazione o incarico non saranno più vincolati a esperimenti sicuri con le più alte probabilità di successo; saranno liberi di perseguire ipotesi più audaci e interdisciplinari. Quando valutano nuove molecole, ad esempio, i ricercatori tendono ad attenersi a candidati simili per struttura a quelli che già conosciamo, ma i modelli di intelligenza artificiale non devono avere gli stessi pregiudizi e vincoli. 

Alla fine, gran parte della scienza sarà condotta in “laboratori a guida autonoma”: piattaforme robotiche automatizzate combinate con l’intelligenza artificiale. Qui potremo portare l’intelligenza artificiale dal regno digitale al mondo fisico. Tali laboratori a guida autonoma stanno già emergendo presso aziende come Emerald Cloud Lab e Artificial e persino presso l’Argonne National Laboratory.  

Infine, nella fase di analisi e conclusione, i laboratori a guida autonoma andranno oltre l’automazione e, informati dai risultati sperimentali prodotti, utilizzeranno gli LLM per interpretare i risultati e consigliare l’esperimento successivo da eseguire. A quel punto, come partner nel processo di ricerca, l’assistente di laboratorio AI potrebbe ordinare le forniture per sostituire quelle utilizzate negli esperimenti precedenti e impostare ed eseguire i successivi esperimenti consigliati durante la notte, con i risultati pronti per essere consegnati al mattino, il tutto mentre lo sperimentatore è a casa a dormire. 

Possibilità e limiti 

I giovani ricercatori potrebbero muoversi nervosamente sulle loro poltrone pensando a questa prospettiva. Fortunatamente, i nuovi lavori che emergeranno da questa rivoluzione saranno probabilmente più creativi e meno meccanici della maggior parte degli attuali lavori di laboratorio.

Gli strumenti di intelligenza artificiale possono abbassare la barriera d’ingresso per i nuovi scienziati e aprire opportunità a coloro che sono tradizionalmente esclusi dal campo. Con gli LLM in grado di assistere nella creazione del codice, gli studenti di materie scientifiche non dovranno più padroneggiare oscuri linguaggi di programmazione. Si apriranno così le porte della torre d’avorio a nuovi talenti non convenzionali e sarà più facile per gli scienziati impegnarsi in campi diversi dal proprio. Presto, gli LLM specificamente addestrati potrebbero andare oltre l’offerta di prime bozze di lavori scritti, come le proposte di sovvenzione, e potrebbero essere sviluppati per offrire la peer-review di nuovi documenti insieme alla valutazione qualitativa di esperti umani.

Gli strumenti di IA hanno un potenziale incredibile, ma dobbiamo riconoscere dove il tocco umano è ancora importante ed evitare di correre prima di poter camminare. Ad esempio, fondere con successo l’IA e la robotica attraverso laboratori a guida autonoma non sarà facile. Gli scienziati apprendono molte conoscenze tacite in laboratorio che è difficile trasmettere alla robotica alimentata dall’IA. Allo stesso modo, dovremmo essere consapevoli delle limitazioni e persino delle allucinazioni degli attuali LLM prima di scaricare su di loro gran parte delle nostre pratiche, ricerche e analisi.  

Aziende come OpenAI e DeepMind sono ancora all’avanguardia con nuove scoperte, modelli e ricerche, ma l’attuale dominio dell’industria non durerà per sempre. Finora DeepMind ha eccelso concentrandosi su problemi ben definiti con obiettivi e metriche chiare. Uno dei suoi successi più famosi è stato il Critical Assessment of Structure Prediction, una competizione biennale in cui i team di ricerca prevedono la forma esatta di una proteina a partire dall’ordine dei suoi aminoacidi.

Dal 2006 al 2016, il punteggio medio nella categoria più difficile variava da circa 30 a 40 sulla scala CASP da 1 a 100. Improvvisamente, nel 2018, il modello AlphaFold di DeepMind ha ottenuto un punteggio di ben 58. Due anni dopo, una versione aggiornata chiamata AlphaFold2 ha ottenuto un punteggio di 87, lasciando i suoi concorrenti umani ancora più nella polvere. 

Grazie alle risorse open-source, stiamo iniziando a vedere uno schema in cui l’industria raggiunge determinati benchmark e poi il mondo accademico interviene per perfezionare il modello. Dopo il rilascio di AlphaFold da parte di DeepMind, Minkyung Baek e David Baker dell’Università di Washington hanno rilasciato RoseTTAFold, che utilizza il framework di DeepMind per prevedere le strutture di complessi proteici anziché solo le strutture di singole proteine che AlphaFold poteva originariamente gestire. Ma soprattutto, gli accademici sono più protetti dalle pressioni competitive del mercato e possono avventurarsi oltre i problemi ben definiti e i successi misurabili che attraggono DeepMind.  

Oltre a raggiungere nuovi traguardi, l’IA può aiutare a verificare ciò che già sappiamo, affrontando la crisi della replicabilità della scienza. Circa il 70% degli scienziati dichiara di non essere riuscito a riprodurre l’esperimento di un altro scienziato, un dato sconfortante. Man mano che l’intelligenza artificiale riduce i costi e gli sforzi di esecuzione degli esperimenti, sarà in alcuni casi più facile replicare i risultati o concludere che non possono essere replicati, contribuendo a diffondere una maggiore fiducia nella scienza. 

La chiave della replicabilità e della fiducia è la trasparenza. In un mondo ideale, tutto nella scienza sarebbe ad accesso aperto, dagli articoli senza paywall ai dati, al codice e ai modelli open source. Purtroppo, visti i pericoli che tali modelli possono scatenare, non è sempre realistico rendere tutti i modelli open source. In molti casi, i rischi di una completa trasparenza superano i vantaggi della fiducia e dell’equità. Tuttavia, nella misura in cui possiamo essere trasparenti con i modelli, soprattutto con i modelli classici di IA con usi più limitati, dovremmo esserlo.

L’importanza della regolamentazione 

In tutti questi ambiti, è essenziale ricordare i limiti e i rischi intrinseci dell’intelligenza artificiale. L’intelligenza artificiale è uno strumento così potente perché consente agli esseri umani di ottenere di più con meno: meno tempo, meno formazione, meno attrezzature. Ma queste capacità la rendono un’arma pericolosa nelle mani sbagliate. Andrew White, professore dell’Università di Rochester, è stato incaricato da OpenAI di partecipare a un “red team” che potesse smascherare i rischi del GPT-4 prima del suo rilascio. Utilizzando il modello linguistico e dandogli accesso agli strumenti, White ha scoperto che poteva proporre composti pericolosi e persino ordinarli a un fornitore di sostanze chimiche. Per testare il processo, la settimana successiva si è fatto spedire a casa un composto di prova (non pericoloso). OpenAI afferma di aver utilizzato le sue scoperte per modificare il GPT-4 prima del suo rilascio. 

Anche gli esseri umani con ottime intenzioni possono indurre le IA a produrre risultati negativi. Dovremmo preoccuparci meno di creare Terminator e, come ha detto l’informatico Stuart Russell, più di diventare Re Mida, che desiderava che tutto ciò che toccava si trasformasse in oro, uccidendo così accidentalmente sua figlia con un abbraccio.  

Non abbiamo alcun meccanismo per spingere un’intelligenza artificiale a cambiare il suo obiettivo, anche quando reagisce al suo obiettivo in un modo che non abbiamo previsto. Un’ipotesi spesso citata chiede di immaginare di dire a un’IA di produrre il maggior numero possibile di graffette. Determinato a raggiungere il suo obiettivo, il modello dirotta tutta l’energia della rete elettrica e uccide tutti gli umani che cercano di fermarlo mentre le graffette continuano ad accumularsi. Il mondo viene fatto a pezzi. L’IA si congratula con se stessa: ha fatto il suo lavoro (per strizzare l’occhio a questo famoso esperimento, molti dipendenti di OpenAI portano con sé delle graffette).

OpenAI è riuscita a implementare una serie impressionante di sistemi di protezione, ma queste rimarranno in vigore solo finché GPT-4 sarà ospitato sui server di OpenAI. Probabilmente arriverà presto il giorno in cui qualcuno riuscirà a copiare il modello e ad ospitarlo sui propri server. Questi modelli di frontiera devono essere protetti per evitare che i ladri rimuovano le barriere di sicurezza dell’intelligenza artificiale aggiunte con tanta cura dagli sviluppatori originali. 

Per affrontare i cattivi usi dell’IA, sia intenzionali sia involontari, abbiamo bisogno di una regolamentazione intelligente e ben informata, sia per i giganti tecnologici sia per i modelli open-source, che non ci impedisca di usare l’IA in modi che possono essere utili alla scienza. Sebbene le aziende tecnologiche abbiano fatto passi da gigante nel campo della sicurezza dell’IA, autorità e legislatori sono al momento tristemente impreparati a emanare leggi adeguate e dovrebbero fare di più per istruirsi sugli ultimi sviluppi. 

Al di là della regolamentazione, i governi – insieme alla filantropia – possono sostenere progetti scientifici con un elevato ritorno sociale ma con scarso ritorno finanziario o incentivo accademico. Alcune aree sono particolarmente urgenti, tra cui il cambiamento climatico, la biosicurezza e la preparazione alle pandemie. È in queste aree che abbiamo più bisogno della velocità e della scala che le simulazioni di intelligenza artificiale e i laboratori a guida autonoma offrono. 

Il governo può anche contribuire allo sviluppo di grandi set di dati di alta qualità, come quelli su cui si è basato AlphaFold, nella misura in cui le questioni di sicurezza lo consentono. Gli insiemi di dati aperti sono beni pubblici: vanno a beneficio di molti ricercatori, ma questi ultimi sono poco incentivati a crearli da soli. Il governo e le organizzazioni filantropiche possono collaborare con le università e le aziende per individuare le sfide fondamentali della scienza che trarrebbero vantaggio dall’accesso a potenti database.  

La chimica, ad esempio, ha un linguaggio che la accomuna e che sembrerebbe prestarsi a una facile analisi da parte dei modelli di intelligenza artificiale. Ma nessuno ha aggregato adeguatamente i dati sulle proprietà molecolari conservati in decine di database, il che ci impedisce di accedere a intuizioni sul campo che sarebbero alla portata dei modelli di IA se avessimo un’unica fonte. La biologia, nel frattempo, non ha i dati noti e calcolabili che sono alla base della fisica o della chimica, con sottocampi come le proteine intrinsecamente disordinate (IDP) che sono ancora misteriosi per noi. Sarà quindi necessario uno sforzo più concertato per comprendere e persino registrare i dati per un database aggregato. 

La strada da percorrere per un’ampia adozione dell’IA nelle scienze è lunga, con molte cose da fare, dalla costruzione dei giusti database all’implementazione delle giuste normative, dall’attenuazione dei pregiudizi negli algoritmi dell’IA alla garanzia di un accesso equo alle risorse di calcolo.  

Tuttavia, questo è un momento di grande ottimismo. I precedenti cambiamenti di paradigma nella scienza, come l’emergere del processo scientifico o dei big data, erano concentrati verso l’interno, rendendo la scienza più precisa, accurata e metodica. L’intelligenza artificiale, invece, è espansiva e ci permette di combinare le informazioni in modi nuovi, portando la creatività e il progresso delle scienze a nuovi livelli. 

Eric Schmidt è stato CEO di Google dal 2001 al 2011. Attualmente è cofondatore di Schmidt Futures, un’iniziativa filantropica che punta su persone eccezionali che migliorano il mondo, applicano la scienza e la tecnologia e uniscono le persone in diversi campi.

Related Posts
Total
0
Share