Le Big Tech danno smalto etico all’AI

Il linguaggio tecnico che viene utilizzato per descrivere l’intelligenza artificiale nasconde con maestria i problemi attuali del settore.

di Karen Hao

I ricercatori di intelligenza artificiale spesso dicono che un buon apprendimento automatico è davvero più arte che scienza. Lo stesso si potrebbe dire per le relazioni pubbliche efficaci. Selezionare le parole giuste per dare positività o ricontestualizzare la conversazione sull’intelligenza artificiale è un compito delicato: fatto bene, può rafforzarne l’immagine, ma se fatto male, può innescare un contraccolpo negativo ancora maggiore.

I giganti della tecnologia lo sanno. Negli ultimi anni, hanno dovuto imparare rapidamente quest’arte poiché hanno dovuto affrontare una crescente sfiducia dell’opinione pubblica nei confronti delle loro azioni e un’intensificazione delle critiche sul loro sviluppo di tecnologie di AI.

Ora hanno dato vita a un nuovo vocabolario da usare quando vogliono assicurare al pubblico che si preoccupano dello sviluppo dell’AI in modo responsabile. Di seguito elenchiamo una guida per addetti ai lavori per decodificare la loro lingua.

Accuratezza  – Correttezza tecnica. La misura più importante del successo nella valutazione delle prestazioni di un modello di intelligenza artificiale. Si veda convalida.

Affidabilità – La capacità di un modello di intelligenza artificiale di funzionare in modo coerente e accurato malgrado i tentativi nefasti di alimentarlo con dati alterati.

AI responsabile – Un soprannome per qualsiasi lavoro aziendale che dovrebbe essere interpretato dal pubblico come un sincero sforzo per mitigare i danni dei sistemi di intelligenza artificiale.

Allineamento – La sfida di progettare sistemi di intelligenza artificiale che facciano ciò che diciamo loro e valutino ciò che apprezziamo. Volutamente astratto. Evita di utilizzare esempi reali di conseguenze indesiderate dannose. Si veda sicurezza.

Audit – Una revisione che paghi qualcun altro per fare in modo che un’azienda o un sistema di intelligenza artificiale appaiano trasparenti senza dover cambiare nulla. Si veda valutazione d’impatto.

Avversario – Un ingegnere solitario in grado di interrompere un potente sistema di intelligenza artificiale che genera entrate. Si veda sicurezza.

Azionista – La persona che si vuole rendere felice.

Bene comune – Esempio classico dei dati con finalità sociali. Un’iniziativa del tutto tangente al core business che aiuta a generare una buona pubblicità.

Beneficio  – Un descrittore generale di ciò che si sta cercando di costruire. Convenientemente mal definito. Si veda valore.

By design – Un modo per segnalare che si sta pensando a prodotti importanti fin dall’inizio.

Comitato etico – Un gruppo di consulenti senza potere reale, convocato per creare l’impressione che l’azienda stia ascoltando attivamente. Esempi: il comitato etico dell’AI di Google (non più attivo), il consiglio di sorveglianza di Facebook (ancora in piedi).

Compromesso sulla privacy – Il nobile sacrificio del controllo individuale sulle informazioni personali per benefici di gruppo come i progressi dell’assistenza sanitaria guidati dall’intelligenza artificiale, che sono anche altamente redditizi.

Democratizzare – Scalare una tecnologia a tutti i costi. Una giustificazione per concentrare le risorse. Si veda scala.

Diversità, equità e inclusione – L’atto di assumere ingegneri e ricercatori da gruppi emarginati in modo da poterli mostrare al pubblico. Se sfidano lo status quo, allora vanno licenziati.

Efficienza – L’uso di meno dati, memoria, personale o energia per costruire un sistema di intelligenza artificiale.

Equità – Una complicata nozione di imparzialità utilizzata per descrivere algoritmi neutri. Può essere definita in dozzine di modi in base alle singole preferenze.

Etichettatori di dati – Le persone che presumibilmente si trovano dietro l’interfaccia Mechanical Turk di Amazon per eseguire lavori di pulizia dei dati a basso costo. Nessuno è sicuro di chi siano. 

Framework  – Una serie di linee guida per prendere decisioni. Un buon modo per apparire riflessivo e misurato ritardando il processo decisionale effettivo.

Generalizzabile – Il marchio di un buon modello di intelligenza artificiale, che continua a funzionare in condizioni mutevoli. Si veda mondo reale.

Governance – Burocrazia.

In conformità – L’atto di seguire la legge. Tutto ciò che non è illegale, va bene.

Integrità – Problemi che minano le prestazioni tecniche di un modello o la capacità di scalabilità di un’azienda. Da non confondere con l’onestà.

Intelligenza artificiale generale – Un ipotetico nume dell’AI che è probabilmente lontano nel futuro, ma forse anche imminente. Può essere davvero buono o davvero cattivo, a seconda di quanto sia più utile dal punto di vista retorico. Ovviamente si sta costruendo sempre qualcosa di buono. Che è costoso. Pertanto, sono necessari più soldi. Si veda rischi a lungo termine.

Interdisciplinare – Termine usato per qualsiasi team o progetto che coinvolge persone che non lavorano sul codice: utenti ricercatori, product manager, filosofi morali. Soprattutto filosofi morali.

Interpretabile – Descrizione del modo di procedere di un sistema di intelligenza artificiale che lo sviluppatore può seguire passo dopo passo per capire come è arrivato a una determinata risposta. In realtà si parla solo di regressione lineare. Intelligenza artificiale suona meglio.

Lungimiranza – La capacità di guardare al futuro. Fondamentalmente impossibile: quindi, una spiegazione perfettamente ragionevole del motivo per cui non si può liberare un sistema di intelligenza artificiale da conseguenze indesiderate.

Mantenere riservato – L’atto benevolo di scegliere di non rendere open source il codice perché potrebbe cadere nelle mani di un cattivo attore. Meglio limitare l’accesso ai partner che se lo possono permettere.

Modello con interazione umana – Qualsiasi persona che fa parte di un sistema di intelligenza artificiale. Le responsabilità vanno dal simulare le capacità del sistema a respingere le accuse di automazione.

Mondo reale – L’opposto del mondo simulato. Un ambiente fisico dinamico pieno di sorprese inaspettate al quale i modelli di intelligenza artificiale vengono addestrati a sopravvivere. Da non confondere con gli esseri umani e la società.

Partners – Altri gruppi d’élite che condividono una determinata visione del mondo e con cui si può collaborare per mantenere lo status quo. Si veda azionista.

Principi etici – Una serie di truismi di alto livello utilizzati per segnalare le buone intenzioni. Più la lingua è vaga, meglio è. Si veda AI responsabile.

Progettazione centrata sull’uomo – Un processo che implica l’utilizzo del concetto di persona per immaginare cosa un utente medio potrebbe desiderare da un sistema di intelligenza artificiale. Può comportare la richiesta di feedback da parte degli utenti effettivi. Solo se c’è tempo. Si veda azionisti.

Progresso – Un bene intrinseco.

Protezione – impedire che dati preziosi o sensibili e modelli di intelligenza artificiale vengano violati da malintenzionati. Si veda avversario.

Raccomandabile – Una valutazione di un sistema di intelligenza artificiale che può essere raggiunta con una pubblicità abbastanza coordinata.

Realtà aumentata – Per migliorare la produttività dei colletti bianchi. Effetto collaterale: automatizzare i lavori dei colletti blu. Triste ma inevitabile.

Reddito di base universale – L’idea che pagare a tutti uno stipendio fisso risolverà lo sconvolgimento economico causato dalla diffusa perdita di posti di lavoro legata all’automazione. Reso popolare dal candidato alla presidenza del 2020 Andrew Yang. Si veda ridistribuzione della ricchezza.

Redistribuzione della ricchezza – Un’idea utile da portare avanti quando si è al centro dell’attenzione per aver usato troppe risorse e fatto troppi soldi. Si veda regolamento.

Regolamento – Regole per trasferire la responsabilità di mitigare l’AI dannosa sui responsabili delle politiche. Da non confondere con politiche che ostacolerebbero la crescita.

Responsabilità – L’atto di ritenere qualcun altro responsabile delle conseguenzequando un sistema di intelligenza artificiale fallisce.

Rischi a lungo termine – Aspetti negativi che potrebbero avere effetti catastrofici in un lontano futuro. Probabilmente non accadrà mai, ma è più importante studiare ed evitare i danni immediati dei sistemi di AI esistenti.

Scala – Lo stato finale de facto che qualsiasi buon sistema di AI dovrebbe sforzarsi di raggiungere.

Sicurezza – La sfida di costruire sistemi di intelligenza artificiale che non sfuggano alle intenzioni del progettista. Da non confondere con la creazione di sistemi di intelligenza artificiale che non falliscono. Si veda allineamento.

Spiegabile – Per descrivere un sistema di intelligenza artificiale facile da capire per tutti. Molto più difficile da spiegare alle persone coinvolte direttamente. Probabilmente non ne vale la pena. Si veda interpretabile.

Trasparenza – Rivelazione dei dati e del codice, da non confondere con una comunicazione chiara su come funziona effettivamente il sistema.

Validazione – Il processo di test di un modello di AI su dati diversi rispetto a quelli su cui è stato addestrato, per verificare che sia ancora accurato.

Valutazione d’impatto – Una revisione che il responsabile dell’azienda o del sistema di intelligenza artificiale fa in proprio per mostrare la volontà di considerare eventuali lati negativi senza cambiare nulla. Si veda audit.

Valore – Un vantaggio immateriale reso agli utenti che fa guadagnare un sacco di soldi all’azienda.

Valori – Da ricordare sempre agli altri.

Foto: Andrea Daquino

Related Posts
Total
0
Share