Il computer non capisce se sei felice

Il riconoscimento delle emozioni è un settore da 20 miliardi di dollari, ma un nuovo studio afferma che il metodo oggi in vigore non è affidabile.

di Angela Chen

Quando si cerca di capire che tipo di emozioni prova qualcuno, si sfruttano molte informazioni: espressioni facciali, linguaggio del corpo, la situazione in cui si trova. Quando i computer cercano di fare la stessa cosa, tendono a concentrarsi solo sul viso. Questo è un grosso difetto.

Secondo un recente studio, la maggior parte delle affermazioni fatte dalle aziende che si occupano di “riconoscimento delle emozioni” sono prive di fondamento.

Il riconoscimento delle emozioni – o l’uso della tecnologia per analizzare le espressioni facciali e inferire i sentimenti – è, secondo una stima, un affare da 20 miliardi di dollari. Aziende importanti come Microsoft e Apple, nonché startup specializzate come Kairos e Affectiva, sono schierate in prima fila in questo settore di ricerca.

Anche se spesso finalizzata alla vendita dei prodotti, la tecnologia di riconoscimento delle emozioni gioca un ruolo anche nei colloqui di lavoro e come possibile strumento per capire se qualcuno sta cercando di commettere frodi assicurative.

Già nel 2003, la Transportation Security Administration americana ha iniziato ad addestrare esperti umani a individuare potenziali terroristi “leggendo” le loro espressioni facciali, quindi è facile immaginare un progetto di intelligenza artificiale che replichi la stessa attività (Il programma di screening accelerato della TSA è stato ampiamente criticato per avere scarso fondamento scientifico).

Ma ormai da anni stanno crescendo i dubbi sul fatto che le espressioni facciali siano semplici specchi dei sentimenti. Un gruppo di scienziati riuniti dall’Association for Psychological Science ha trascorso due anni a rivedere più di 1.000 articoli sulle analisi delle emozioni.

Gli autori della ricerca si sono concentrati sui movimenti dei volti delle persone quando provano determinate emozioni e su come deduciamo gli stati emotivi delle altre persone dai loro volti. Il gruppo ha concluso che è molto difficile dire esattamente cosa prova qualcuno, solo a partire dalle espressioni facciali.

Le persone sorridono quando sono felici e aggrottano le sopracciglia quando sono tristi, ma questa correlazione è debole, afferma la coautrice dello studio Lisa Feldman Barrett, una psicologa della Northeastern University. Si fanno molte altre cose quando si è felici o tristi e un sorriso può essere ironico o sconsolato.

I comportamenti variano molto tra culture e situazioni e il contesto gioca un ruolo importante nel modo in cui si interpretano le espressioni. Per esempio, negli studi in cui qualcuno ha posto un’immagine di un viso positivo sul corpo di qualcuno che stava vivendo una situazione del tutto diversa, le persone hanno espresso giudizi negativi sul viso.

In breve, le espressioni che abbiamo imparato ad associare alle emozioni sono stereotipi e la tecnologia basata su questi stereotipi non fornisce informazioni affidabili. Il vero riconoscimento delle emozioni è costoso e richiede la raccolta di un gran numero di dati estremamente specifici.

Il pericolo di dati insufficienti

La maggior parte delle aziende a cui “Mit Technology Review” ha chiesto di commentare questa storia, tra cui Apple e Microsoft, non ha risposto. Chi lo ha fatto, Kairos, promette ai rivenditori di poter utilizzare la tecnologia di riconoscimento delle emozioni per capire come si sentono i loro clienti.

Analizzando un loro sopracciglio alzato o un sorriso, Kairos monitora dati che possono essere difficili da raccogliere per le normali aziende, afferma il CEO Melissa Doval.

Per addestrare la sua tecnologia, Kairos ha ripreso persone che guardavano video dedicati e ha scansionato i loro volti. Altri dati provengono invece da espressioni costruite ad arte. Un esperto dell’azienda è incaricato di etichettare tali dati per alimentare l’algoritmo.

Si tratta di un modo di procedere estremamente comune, ma, secondo la nuova ricerca, presenta due grandi punti deboli. Il primo è rappresentato dalle espressioni create a tavolino. Se viene detto a qualcuno di fare una faccia sorpresa, il suo volto potrebbe essere molto diverso da come potrebbe apparire la stessa faccia di fronte a una sorpresa reale.

Il secondo problema è la presenza di una terza parte che etichetta questi dati. Un osservatore potrebbe interpretare un’espressione facciale come “sorpresa”, ma senza chiedere a chi ha assunto quell’espressione cosa provava è veramente difficile sapere quale sia stata la vera emozione.

Il risultato è una tecnologia abbastanza rudimentale. Da parte sua, Doval afferma che l’azienda si sta attualmente concentrando sul miglioramento della fotocamera e sugli aspetti operativi più che sulla tecnologia di rilevamento delle emozioni. Ha aggiunto che sarebbero interessati a prendere in considerazione ricerche come quelle di Barrett e ad aggiungere dati demografici per capire meglio il contesto e per rendere l’algoritmo più accurato.

Il pericolo di farlo bene

Barrett avanza delle proposte su come migliorare il riconoscimento delle emozioni: non usare foto singole, studiare le persone in diverse situazioni e contesti nel tempo, analizzare voce e postura. La psicologa suggerisce anche di approfondire i dati relativi al funzionamento del sistema nervoso per scoprire cosa significa un sorriso di una persona in una situazione specifica.

“Non è necessario raccogliere i parametri su tutti, ma è possibile valutare gruppi di persone trasversalmente, in diverse situazioni culturali”, afferma Barrett. “Il nostro faro sono i Big Data. Oggi è possibile quello che dieci anni fa era molto più complesso”.

Questo metodo si avvicina a quello di aziende come Affectiva, con sede a Boston. La cofondatrice e CEO di Affectiva, Rana el Kaliouby, concorda sul fatto che l’attuale comprensione delle emozioni sia eccessivamente semplificata. L’analisi della stessa azienda, per esempio, ha dimostrato che esistono almeno cinque diversi tipi di sorrisi, da un sorriso civettuolo a uno di circostanza.

Affectiva raccoglie dati da 87 paesi, registra le persone in situazioni di vita reale (alla guida dell’auto, per esempio) e chiede ai partecipanti di autoriferire le loro sensazioni. “Si può dire che il problema è risolto? Assolutamente no”, dice el Kaliouby.

La tecnologia di Affectiva ha risultati migliori nel classificare la “gioia”, per esempio, rispetto a quelli che ottiene quando cerca di distinguere paura, rabbia e disgusto.

Per arrivare a una discreta precisione, servono più dati. Ma la raccolta di tante informazioni personali porta con sé anche insidie, come dimostrano le polemiche in corso sul riconoscimento facciale. I consumatori hanno sempre più paura di perdere la privacy o di vedere un utilizzo non corretto dei loro dati.

“Questa dovrebbe essere una seria preoccupazione”, afferma Tiffany Li, una ricercatrice che si occupa di privacy per l’Information Society Project della Yale University. “Il problema si deve affrontare fornendo le le giuste garanzie”.

E’ fondamentale sapere, per esempio, da dove provengono i dati, come vengono raccolti e come vengono archiviati. I dati saranno venduti o trasferiti? Saranno collegati a qualsiasi altri set di dati che potrebbe permettere l’identificazione?

Affectiva afferma che rifiuta di collaborare con aziende che lavorano nella sorveglianza o a nuove “macchine della verità”. Gli accademici di solito hanno limiti rigorosi su come possono raccogliere e condividere dati.

Ma il settore privato non è governato da regole rigide in materia di raccolta e utilizzo dei dati, e ciò potrebbe essere pericoloso poiché il principale interesse delle aziende è migliorare le proprie tecnologie. “Non credo che ci siano ancora le giuste garanzie”, conclude Li.

Immagine: Ms. Tech; Unsplash, Pixabay, Pexels

(rp)

Related Posts
Total
0
Share