Come si è trasformata l’informatica

Jeanette Wing crede che l’intelligenza artificiale affidabile e il ragionamento causale possano aiutare la società a risolvere i problemi nel mondo reale. Ma non sarà facile.

di Anil Ananthaswamy

È ora che iniziamo ad affidarci ai dati per risolvere i nostri problemi, afferma una dei massimi esperti mondiali di data science. Nel 2006, Jeannette Wing, allora capo del dipartimento di informatica della Carnegie Mellon University, pubblicò un importante saggio dal titolo Computational Thinking, sostenendo che tutti trarrebbero beneficio dall’uso degli strumenti concettuali dell’informatica per risolvere problemi nelle diverse aree dell’attività umana.

La stessa Wing non aveva intenzione di studiare informatica. A metà degli anni 1970, è entrata al MIT per studiare ingegneria elettrica, sulla scia di suo padre, un professore in quel campo. Quando ha scoperto il suo interesse per l’informatica, lo ha chiamato per chiedergli se fosse una moda passeggera. Dopotutto, non esistevano neanche libri di testo nel settore. Il padre le diede il via libera e Wing non si è più fermata.

Ex vicepresidente aziendale di Microsoft Research e ora vicepresidente esecutivo per la ricerca presso la Columbia University, Wing è leader nella promozione della scienza dei dati in più discipline. Anil Ananthaswamy ha recentemente chiesto a Wing del suo ambizioso programma per promuovere “l’intelligenza artificiale affidabile”, una delle  10 sfide di ricerca che ha identificato nel suo tentativo di rendere i sistemi di intelligenza artificiale più equi e meno prevenuti.

Anil Ananthaswamy: A suo parere, è in corso una trasformazione nel modo in cui vengono eseguiti i calcoli?

Jeannette Wing: Assolutamente sì. La legge di Moore ci ha portato lontano, ma sapevamo che avremmo raggiunto un limite massimo, quindi è subentrato il calcolo parallelo. Ma il vero cambiamento è stato il cloud computing. I file system distribuiti originali erano una sorta di baby cloud computing, in cui i file non erano sul computer dell’utente, ma da qualche altra parte sul server. 

Il cloud computing accentua ulteriormente questo meccanismo.  Il prossimo cambiamento riguarda i dati. Per molto tempo, ci siamo fissati sui cicli, facendo funzionare le cose più velocemente: processori, CPU, GPU e altri server paralleli. Abbiamo ignorato componente dati. E’ arrivato il momento Ora dobbiamo focalizzarci sui dati.

A.A.: Cosa significa scienza dei dati?

J.W.E’ lo studio dell’estrazione di valore dai dati. Non si possono semplicemente fornire dati grezzi e poi pensare di premere un pulsante e di ottenere un valore. Il processo deve essere articolato in più fasi: raccolta, elaborazione, archiviazione, gestione, analisi e visualizzazione dei dati e infine l’interpretazione. Io lo chiamo il ciclo di vita dei dati. Ogni passo in quel ciclo significa sudore.

A.A.: Quando si utilizzano i big data, spesso emergono preoccupazioni su privacy, sicurezza, equità e pregiudizi. Come si affrontano questi problemi, specialmente nell’AI?

J.W.Ho questa nuova agenda di ricerca che sto promuovendo. La chiamo AI affidabile, ispirata dai decenni di progressi che abbiamo fatto in questo settore. Per affidabilità di solito intendiamo sicurezza, disponibilità, privacy e usabilità. Negli ultimi due decenni abbiamo fatto molti progressi. Esistono metodi formali che possono assicurare la correttezza di una parte di codice e protocolli di sicurezza che aumentano l’affidabilità di un particolare sistema. E abbiamo una serie di nozioni di privacy formalizzate.

L’AI affidabile alza la posta in due modi. In primo luogo, si parla di robustezza, vale a dire che se si perturba l’input, l’output non viene modificato di molto. In secondo luogo si fa riferimento all’equità. Inoltre, i sistemi di intelligenza artificiale sono di natura probabilistica. I sistemi informatici del passato sono fondamentalmente macchine deterministiche: off o on, vero o falso, sì o no, 0 o 1. I risultati dei nostri sistemi di intelligenza artificiale sono fondamentalmente probabilità. Se si afferna che una radiografia mostra un cancro, si ha almeno una probabilità dello 0,75 che quella piccola macchia bianca vista sia maligna.

Ora viviamo in questo mondo di probabilità. Da un punto di vista matematico, prevede la logica probabilistica e la presenza di statistiche e ragionamenti stocastici. Lo scienziato informatico non è addestrato a pensare in questi modi. Quindi i sistemi di intelligenza artificiale hanno davvero complicato il nostro ragionamento formale su questi sistemi.

A.A.: L’intelligenza artificiale affidabile è una delle 10 sfide della ricerca da lei identificate per i data scientist. Anche la causalità sembra essere un altro grande problema.

J.W.: Credo che la causalità sia la prossima frontiera per l’intelligenza artificiale e l’apprendimento automatico. In questo momento, gli algoritmi e i modelli di apprendimento automatico sono ottimi per trovare modelli, correlazioni e associazioni. Ma non possono dirci: è stato questo a causare quello? O se dovessi farlo, cosa accadrebbe? E così c’è un’altra intera area di attività sull’inferenza causale e sul ragionamento causale nell’informatica. La comunità statistica ha esaminato la causalità per decenni. La combinazione di big data e ragionamento causale può davvero far avanzare il campo.

Immagine: Jeanette Wing, di Peter Garritano

(rp)

Related Posts
Total
0
Share