Non siamo pronti per l’AI

Regina Barzilay, la prima vincitrice dello Squirrel AI Award del valore di $1 milione, sul perché la pandemia dovrebbe rappresentare un campanello d’allarme.

di Will Douglas Heaven

Regina Barzilay professoressa presso il Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, è la prima vincitrice dello Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity, un nuovo premio che riconosce l’eccezionale ricerca sull’AI. Barzilay ha iniziato la sua carriera lavorando sull’elaborazione del linguaggio naturale. Dopo essere sopravvissuta al cancro al seno nel 2014, ha spostato la sua attenzione sugli algoritmi di apprendimento automatico per rilevare il cancro e progettare nuovi farmaci. Il premio verrà consegnato a febbraio 2021 dall’Associazione per il progresso dell’intelligenza artificiale (AAAI).

Il premio in denaro di 1 milione di dollari, fornito dalla società cinese di formazione online Squirrel SI, di cui abbiamo scritto in precedenza, pone il premio allo stesso livello finanziario del Premio Nobel e del Premio Turing per l’informatica. Abbiamo chiacchierato con Barzilay al telefono del premio e delle promesse, nonché delle frustrazioni, dell’AI.

Congratulazioni per questo premio. Cosa significa per te e per l’AI in generale?
Grazie. Sai, ci sono molte aree in cui l’AI non sta ancora facendo la differenza, ma potrebbe avere un impatto. Usiamo costantemente sistemi di traduzione automatica o di raccomandazione, ma nessuno li considera una tecnologia sofisticata, nessuno fa domande. In altre aree della nostra vita, he sono cruciali per il nostro benessere, invece, come nel caso dell’assistenza sanitaria, l’AI non è ancora accettata dalla società. Spero che questo premio, e l’attenzione che ne deriva, aiuti a cambiare le menti delle persone, permetta loro di vedere nuove opportunità e spinga la comunità dell’AI a fare passi avanti.

Che tipo di passi?
Ai tempi in cui la tecnologia passò dall’energia a vapore all’elettricità, i primi tentativi di portare l’elettricità nell’industria non ebbero molto successo perché le persone cercavano solo di replicare i motori a vapore. Penso che qualcosa di simile stia succedendo ora con l’AI. Dobbiamo capire come integrare la tecnologia in molte aree diverse: non solo nel campo dell’assistenza sanitaria, ma anche dell’istruzione, della progettazione di materiali, dell’urbanistica e così via. Ovviamente, c’è molto altro da fare dal punto di vista tecnologico, inclusa la creazione di algoritmi migliori, ma stiamo portando questa tecnologia in ambienti altamente regolamentati e non abbiamo davvero esaminato come farlo.

In questo momento l’IA sta prosperando in ambiti in cui il costo del fallimento è molto basso. Se Google trova una traduzione sbagliata o ti fornisce un link sbagliato, va bene; puoi semplicemente passare a quello successivo. Lo stesso non varrà in uno studio medico. Se dai ai pazienti il trattamento sbagliato o manchi una diagnosi, le complicazioni si fanno davvero gravi. Molti algoritmi possono effettivamente fare meglio degli umani. Ma tendiamo a fidarci di più delle nostre intuizioni, della nostra mente, che di qualcosa di cui non abbiamo comprensione. Dobbiamo dare ai medici dei buoni motivi per fidarsi dell’IA. La FDA sta esaminando il problema, ma penso che sia molto lontana dall’essere risolto negli Stati Uniti o in qualsiasi altra parte del mondo.

Nel 2014 ti è stato diagnosticato un cancro al seno. Questo fatto ha modificato come ti relazioni con il tuo lavoro?
Sì, assolutamente. Una delle cose che sono successe quando ho subito un trattamento e ho trascorso una quantità eccessiva di tempo in ospedale è che le cose su cui stavo lavorando ora sembravano banali. Ho pensato: le persone stanno soffrendo. Possiamo fare qualcosa.

Quando ho iniziato il trattamento, ho fatto domande su cosa accade ai pazienti come me, con il mio tipo di tumore, della mia età e sottoposti alle mie stesse cure. Mi rispondevano: “Oh, c’è stata questa sperimentazione clinica, ma non calza perfettamente il suo caso”. E ho pensato, il cancro al seno è una malattia molto comune. Ci sono così tanti pazienti, con così tanti dati accumulati. Come mai non ne facciamo uso? Eppure, ottenere facilmente queste informazioni dal sistema non è possibile negli ospedali statunitensi. È tutto lì, così ho iniziato a usare la PNL per accedervi. Non mi veniva in mente nessun altro campo in cui i dati disponibili vengono buttati via volontariamente. Ma questo è quanto ho osservato accadere in ambito medico.

Gli ospedali hanno colto al volo la possibilità di utilizzare meglio i dati raccolti?
Ci è voluto del tempo per trovare un medico che lavorasse con me. Dicevo alla gente, se hai qualche problema, cercherò di risolverlo. Non ho bisogno di finanziamenti. Dammi solo un problema e i dati. Ma mi ci è voluto un po’ per trovare collaboratori. Sai, non ero un personaggio particolarmente popolare. Da questo lavoro di PNL sono poi passato alla previsione del rischio del paziente mediante mammografie, utilizzando il riconoscimento delle immagini per prevedere se avresti o meno il cancro – come è probabile che la tua malattia progredisca.

Questi strumenti avrebbero fatto la differenza se fossero stati a tua disposizione al momento della diagnosi?
Assolutamente sì. Possiamo applicare gli strumenti sviluppati alle mie mammografie precedenti la diagnosi, ed ottenere già un risultato, si rileva chiaramente. Non è una specie di miracolo: il cancro non si sviluppa dall’oggi al domani. È un processo piuttosto lungo. Ci sono tracce rilevabili nei tessuti, ma l’occhio umano ha una capacità limitata di rilevare quelli che possono essere modelli molto piccoli. Nel mio caso sarebbe stato visibile con due anni di anticipo.

Perché i dottori non l’hanno visto?
È un compito difficile. Ogni mammografia presenta macchie bianche che possono o meno essere cancro e un medico deve decidere quale di queste macchie bianche ha bisogno di essere sottoposta ad una biopsia. Il medico deve bilanciare azione e intuizione contro il rischio di danneggiare un paziente eseguendo biopsie inutili. Ma questo è esattamente il tipo di decisione che l’AI, basandosi sui dati, può aiutarci a prendere in modo molto più sistematico.

Il che ci riporta al problema della fiducia. Abbiamo bisogno di una correzione tecnica, che renda gli strumenti più comprensibili o abbiamo bisogno di istruire le persone che ne fanno uso?
Questa è un’ottima domanda. Alcune decisioni sarebbero davvero facili da spiegare a un essere umano. Se un’intelligenza artificiale rileva il cancro in un’immagine, puoi ingrandire l’area che osservata dal modello nel fare la previsione.

Ma se chiedi a una macchina, come facciamo sempre di più, di fare cose che un essere umano non può fare, cosa può mostrarti esattamente la macchina? È come chiedere ad un cane, dal fiuto tanto più fino del nostro, di spiegarci come fa a percepire un odore. Ci manca semplicemente quella capacità. Penso che questa sia la domanda principale da affrontare man mano che le macchine si faranno sempre più avanzate. Quale spiegazione può convincerti se da solo non riesci a risolvere lo stesso compito?

Quindi si tratta di aspettare fino a quando l’AI potrà spiegarsi completamente?
No. Pensa a come rispondiamo ora alle domande sulla vita o sulla morte. Alla maggior parte delle domande mediche, come quando chiediamo che reazione avremo ad un dato trattamento o farmaco, si risponde in base a modelli statistici che possono portare ad errori. Nessuno di essi è perfetto. Lo stesso vale con l’AI. Non penso sia il caso aspettare fino a quando non svilupperemo una AI perfetta. Non accadrà tanto in fretta. La domanda è come usare i suoi punti di forza ed evitare i suoi punti deboli.

Infine, perché l’AI non ha ancora avuto un grande impatto su covid-19?
L’intelligenza artificiale non risolverà tutti i nostri più grandi problemi. Ma non mancano alcuni esempi positivi. A Boston, quando tutti i servizi clinici non essenziali sono stati ridimensionati all’inizio di quest’anno, abbiamo utilizzato uno strumento di intelligenza artificiale per identificare quali pazienti oncologici avessero ancora urgenza di sottoporsi alla mammografia annuale.

Il motivo principale per cui l’AI non si è rivelata più utile non è stata la mancanza di tecnologia, ma la mancanza di dati. Sai, faccio parte del team dirigenziale della J-Clinic del MIT, un centro per l’AI nell’assistenza sanitaria, e ad aprile eravamo in tanti a dire: vogliamo davvero fare qualcosa, dove possiamo ottenere i dati? Ma non siamo riusciti a capirlo. Era impossibile. Anche adesso, sei mesi dopo, non sappiamo come ottenere i dati.

La seconda ragione è che non eravamo pronti. Anche in circostanze normali, quando le persone non sono sotto stress, è difficile adattare strumenti di intelligenza artificiale ad un processo esistente e assicurarsi che sia tutto adeguatamente regolamentato. Nella crisi attuale, semplicemente non ne abbiamo la capacità.

Sai, capisco la cautela dei medici: è in gioco la vita delle persone. Ma spero che la situazione possa fare da campanello d’allarme su quanto siamo impreparati a reagire rapidamente alle nuove minacce. Per quanto io creda che l’AI sia la tecnologia del futuro, a meno che non scopriamo come fidarci di essa, non la vedremo andare avanti.

Immagine: Rachel Wu / MIT CSAIL

(lo)

Related Posts
Total
0
Share