I deepfake minano alle basi la credibilità dell’informazione

La semplice idea di falsi generati con l’IA ha messo in crisi la fiducia delle persone di fronte ai prodotti mediatici.

di Karen Hao

Era la fine del 2018 e il popolo del Gabon, da mesi, non vedeva il suo presidente, Ali Bongo, in pubblico. Alcuni iniziarono a sospettare che fosse malato, o addirittura morto, e che il governo coprisse questa situazione. Per fermare le voci crescenti, il governo annunciò che Bongo aveva subito un ictus, ma la sua vita non era in pericolo. Poco dopo, pubblicò un video del presidente che rivolgeva i saluti di fine anno al popolo.

Invece di alleviare le tensioni, tuttavia, il video ottenne il risultato esattamente contrario. Molte persone, pensando che Bongo non guardasse la telecamera, sospettarono immediatamente che si trattasse di un falso, realizzato con l’aiuto dell’IA.

La convinzione alimentò i sospetti che il governo nascondesse qualcosa. Una settimana dopo, i militari tentarono un colpo di stato, poi fallito, citando il video come una delle motivazioni.

La successiva analisi forense non ha mai trovato nulla di alterato o manipolato nel video. Non importava. La semplice idea di un possibile deepfake era stata sufficiente per accelerare il dipanarsi di una situazione già precaria.

In vista delle elezioni presidenziali degli Stati Uniti del 2020, una tecnologia di deepfake sempre più convincente ha suscitato timori su come tali media falsi possano influenzare l’opinione politica. Ma un nuovo rapporto di Deeptrace Labs, un’azienda di sicurezza informatica, non ha trovato conferma di casi noti in cui i deepfake siano stati effettivamente utilizzati nelle campagne di disinformazione. Ciò che mette più paura, infatti, è la possibilità che possano essere usati a questo scopo.

“I deepfake rappresentano un rischio per la politica in termini di prodotti mediatici falsi che sembrano reali, ma in questo momento la minaccia più tangibile è che l’idea di deepfake possa essere invocata per far sembrare falso il vero”, afferma Henry Ajder, uno degli autori del rapporto.

“Il gran parlare dei mezzi d’informazione dell’impatto politico dei deepfake ha messo in ombra i casi reali in cui i deepfake hanno realmente avuto delle conseguenze negative”.

La documentazione non è più una prova

Attivisti per i diritti umani ed esperti di disinformazione hanno lanciato l’allarme sulla minaccia rappresentata dai deepfake. Negli ultimi due anni, le aziende tecnologiche e i responsabili politici statunitensi si sono concentrati quasi esclusivamente sul primo problema menzionato da Ajder: la facilità con cui la tecnologia può rendere reali le cose false.

Ma è il secondo che preoccupa di più gli esperti. Mentre gli ostacoli alla creazione di deepfake potrebbero venir meno rapidamente, mettere in discussione la veridicità di qualcosa non richiede alcuna tecnologia.

“Sin dall’inizio, è stata la mia più grande preoccupazione”, afferma Aviv Ovadya, un esperto di disinformazione che ora dirige il Thoughtful Technology Project.

Minare la fiducia nei media può avere profonde ripercussioni, in particolare in ambienti politici instabili. Sam Gregory, il direttore del programma di Witness, un’organizzazione no profit che aiuta le persone a documentare le violazioni dei diritti umani, ne offre un esempio.

In Brasile, paese non nuovo a storie di violenze da parte della polizia, i cittadini e gli attivisti ora temono che qualsiasi video girino di un ufficiale che uccide un civile non sarà più motivo sufficiente per indagare. Questa paura che le prove reali possano essere plausibilmente respinte come false, afferma Gregory, è diventato un tema ricorrente nei seminari che ospita in tutto il mondo.

“È un’altra potente arma in mano ai potenti per poter dire: ‘È un falso’, quando si cerca di mostrare la corruzione e le violazioni dei diritti umani”.

Il reale è reale e il falso è falso

La risoluzione di questi problemi richiederà la comprensione di entrambi i tipi di minaccia. “Ad alto livello, si deve rendere il più semplice possibile dimostrare che una cosa reale è reale e che una cosa falsa è falsa”, afferma Ovadya.

Negli ultimi mesi molti gruppi di ricerca e aziende tecnologiche come Facebook e Google si sono concentrati su strumenti per scoprire i falsi, come database per la formazione di algoritmi di rilevamento e filigrane che possono essere incorporati in file di foto digitali per rivelare se sono manomessi.

Diverse startup hanno anche lavorato su come rafforzare la fiducia attraverso le applicazioni per i consumatori che verificano foto e video quando vengono scattate, per costituire una base di confronto se le versioni dei contenuti vengono diffuse in un secondo momento. Gregory afferma che i giganti della tecnologia dovrebbero integrare entrambi i tipi di controlli direttamente nelle loro piattaforme per renderli ampiamente disponibili.

Ma le aziende tecnologiche devono anche impiegare moderatori di contenuti umani e le organizzazioni dei media devono formare giornalisti e verificatori di fatti, all’alktezza delle situazioni sia in caso di rilevamento sia in caso di verifica.

I rapporti sul campo possono confermare se un video riflette o meno la realtà e aggiungere un importante livello di analisi. “I modelli tecnologici non possono interpretare il contenuto del video falso all’interno dei contesti culturali o immaginare come possa essere ulteriormente ricontestualizzato”, afferma Britt Paris, esperta di informazione che ha recentemente pubblicato un rapporto sui deepfake.

Per spiegare cosa vuole dire, Paris porta ad esempio video alterati di Nancy Pelosi e Jim Acosta, che sono diventati virali a partire dall’anno scorso. In entrambi i casi si trattava dei cosiddetti “cheapfakes” e non di deepfakes: la loro velocità era stata semplicemente manomessa per fuorviare gli spettatori.

“Non ci sarebbe stato modo di capire che erano falsi con le tecnologie a disposizione per scoprire i falsi”, afferma Paris. Erano i giornalisti che potevano rendersene conto, il che significa che i cittadini devono fidarsi dei giornalisti.

Infine, tutti gli esperti concordano sul fatto che il pubblico abbia bisogno di una maggiore alfabetizzazione mediatica. “C’è una differenza tra dimostrare che una cosa reale è reale e far credere al pubblico in generale che la cosa reale è reale”, afferma Ovadya.

A suo parere, le persone devono essere consapevoli del fatto che la falsificazione del contenuto e il dubbio sulla veridicità del contenuto sono entrambe tattiche che possono essere utilizzate per seminare intenzionalmente confusione.

Gregory mette in guardia dal chiedere troppo ai consumatori di notizie, tuttavia. Ricercatori, piattaforme e giornalisti dovrebbero fare quanto più lavoro possibile per aiutare a chiarire ciò che è reale e ciò che è falso prima che le notizie arrivino al pubblico.

L’obiettivo finale, afferma Ovadya, non è quello di infondere scetticismo generalizzato, ma di costruire “infrastrutture sociali, educative e informative” per neutralizzare l’impatto dei deepfake. “Cosa dovremmo cercare di evitare?” si chiede. “È prezioso mettere in discussione le prove. Ma ciò che [gli attori della disinformazione] vogliono davvero non è che il cittadino metta in discussione i singoli casi, ma che metta in discussione tutto. L’opposto di quello che vogliamo noi”.

Immagine: Deepfake di Hitler Ms. Tech

(rp)

Related Posts
Total
0
Share