Controllare l’AI, si può e si deve (ed ecco come fare)

L’interazione tra esseri umani e sistemi di intelligenza artificiale è lo strumento vincente per migliorare il livello di responsabilità sociale nell’apprendimento automatico

MIT Technology Review Italia

Mentre Sarah Cen, del Laboratory for Information and Decision Systems (LIDS), stava partecipando a una conferenza sull’intelligenza artificiale etica, uno dei relatori ha proposto una variazione del famoso dilemma del carrello, un esperimento mentale di etica che impone una scelta tra due esiti indesiderati.

Il problema sollevato era il seguente: un’auto a guida autonoma sta percorrendo un vicolo stretto con una donna anziana che cammina da un lato e un bambino piccolo dall’altro, e non c’è modo di infilarsi tra i due senza investire uno dei due. Quale dei due dovrebbe colpire l’auto?

A questo punto l’oratore ha detto: facciamo un passo indietro. L’auto a guida autonoma avrebbe potuto evitare di scegliere tra due esiti negativi prendendo una decisione in precedenza, in primo luogo calcolando che lo spazio del vicolo era stretto e in secondo luogo rallentando in modo da poter frenare.

Cogliendo al volo le somiglianze tra il problema della sicurezza nell’AI e il dilemma del carrello, Cen si è chiesta: se potessimo progettare migliori salvaguardie a monte e a valle per affrontare questi problemi? “Rischiamo di fare danni”, spiega Cen. “Non è più possibile ignorare che i sistemi di ingegneria non sono dissociati dai sistemi sociali su cui intervengono”.

Insieme al professore Devavrat Shah, del Dipartimento di ingegneria elettrica e informatica del MIT, Cen sta lavorando da tempo a un’ampia gamma di progetti, molti dei quali direttamente collegati al suo interesse per le interazioni tra umani e sistemi computazionali. In uno di questi progetti, Cen si occupa della regolamentazione dei social mediaIl suo recente lavoro fornisce un metodo per tradurre i regolamenti in controlli implementabili.

Per avere un’idea di cosa significhi, si ipotizzi che le autorità di regolamentazione richiedano che qualsiasi contenuto di salute pubblica, per esempio sui vaccini, non sia molto diverso per gli utenti politicamente di sinistra e di destra o di estrazione sociale diversa. In che modo chi controlla dovrebbe verificare che una piattaforma di social media sia conforme a questo regolamento? È possibile ottenere questo risultato senza danneggiarne i profitti? E in che modo la conformità influisce sul contenuto effettivo che gli utenti vedono?

La fase di controllo non è semplice, soprattutto nel caso dei social media. Chi porta avanti la verifica deve ispezionare l’algoritmo senza accedere ai dati sensibili dell’utente e aggirare segreti commerciali, in quanto questi algoritmi sono protetti legalmente. Entrano in gioco anche altre considerazioni, come il bilanciamento della rimozione della disinformazione con la protezione della libertà di parola.

Per far fronte a queste sfide, Cen e Shah hanno sviluppato una procedura di controllo che non richiede altro che l’accesso da una scatola nera all’algoritmo dei social media (rispettando i segreti commerciali), non rimuove i contenuti (evitando problemi di censura) e non richiede accesso agli utenti (preservando la privacy degli utenti). Secondo il team, il loro sistema garantisce anche un discreto livello di solidità decisionale, oltre a non intaccare i profitti delle piattaforme e ridurre la diffusione della disinformazione.

In un’altra ricerca, Cen esamina se le persone possono ottenere buoni risultati a lungo termine quando non solo competono per le risorse, ma non sanno in anticipo cosa è meglio per loro. Alcune piattaforme, come le piattaforme per la ricerca di lavoro o le app di ride-sharing, fanno parte di quello che viene chiamato matching market, che utilizza un algoritmo per abbinare soggetti appartenenti a gruppi diversi. In molti casi, le combinazioni procedono per tentativi ed errori. 

Ma questi incontri tra domanda e offerta possono essere ostacolati dalla concorrenza. Se, per esempio, i lavoratori con un background particolare non possono lavorare nel settore tecnologico a causa dell’elevata concorrenza, potrebbero non ottenere mai le conoscenze di cui hanno bisogno per prendere una decisione informata sull’opportunità di lavorare in questo settore. Allo stesso modo, i datori di lavoro non avrebbero mai idea di cosa potrebbero fare questi lavoratori se venissero assunti.

Il lavoro di Cen esamina questa interazione tra apprendimento e competizione, cercando di trovare le combinazioni che soddisfino il lato della domanda e quello dell’offerta. Dai suoi modelli risulta che è effettivamente possibile ottenere un risultato stabile (i lavoratori non abbandonano il mercato di corrispondenza), soddisfacente (i lavoratori apprezzano i loro risultati a lungo termine), equo e socialmente vantaggioso.

Per i prossimi anni, Cen ha in programma di lavorare su un nuovo progetto, studiando come quantificare l’effetto di un’azione X su un risultato Y, concentrandosi in particolare sui sistemi che hanno comportamenti sociali complessi.

Image by Gerd Altmann from Pixabay

(rp)

Related Posts
Total
1
Share