Ecco perché crederemo alla disinformazione dell’intelligenza artificiale

Uno studio mostra che i modelli di IA scrivono i testi in modo molto persuasivo.

Secondo un nuovo studio, la disinformazione generata dall’intelligenza artificiale può essere più convincente di quella prodotta dagli esseri umani.

La ricerca ha rilevato che le persone hanno il 3% in meno di probabilità di individuare i tweet falsi generati dall’IA rispetto a quelli scritti dagli esseri umani.

Questo divario di credibilità, per quanto piccolo, è preoccupante se si considera che il problema della disinformazione generata dall’IA sembra destinato a crescere in modo significativo, afferma Giovanni Spitale, il ricercatore dell’Università di Zurigo che ha guidato lo studio, pubblicato oggi su Science Advances.

“Il fatto che la disinformazione generata dall’IA sia non solo più economica e veloce, ma anche più efficace, mi fa venire gli incubi”, afferma. Spitale ritiene che se il team ripetesse lo studio con l’ultimo modello linguistico di OpenAI, GPT-4, la differenza sarebbe ancora maggiore, dato che GPT-4 è molto più potente.

Per testare la nostra suscettibilità a diversi tipi di testo, i ricercatori hanno scelto argomenti comuni di disinformazione, tra cui il cambiamento climatico e il covid. Poi hanno chiesto al modello linguistico GPT-3 di OpenAI di generare 10 tweet veri e 10 falsi e hanno raccolto un campione casuale di tweet veri e falsi da Twitter.   Poi hanno reclutato 697 persone per completare un quiz online che giudicava se i tweet erano stati generati dall’IA o raccolti da Twitter, e se erano accurati o contenevano disinformazione. Hanno scoperto che i partecipanti avevano il 3% in meno di probabilità di credere a tweet falsi scritti da esseri umani rispetto a quelli scritti dall’IA.

I ricercatori non sanno perché le persone siano più propense a credere ai tweet scritti dall’intelligenza artificiale. Secondo Spitale, però, il modo in cui il GPT-3 ordina le informazioni potrebbe avere qualcosa a che fare con questo. “Il testo del GPT-3 tende a essere un po’ più strutturato rispetto al testo organico scritto dall’uomo”, spiega. “Ma è anche condensato, quindi è più facile da elaborare”. 

Il boom dell’IA generativa mette strumenti di IA potenti e accessibili nelle mani di tutti, anche di chi è in malafede. Modelli come il GPT-3 sono in grado di generare testi errati che appaiono convincenti e che potrebbero essere utilizzati per generare false narrazioni in modo rapido ed economico per i teorici della cospirazione e per le campagne di disinformazione. Gli strumenti per contrastare il problema – gli strumenti di rilevamento del testo dell’IA – sono ancora nelle prime fasi di sviluppo e molti non sono accurati. 

OpenAI è consapevole che i suoi strumenti di intelligenza artificiale potrebbero essere utilizzati come armi per produrre campagne di disinformazione su larga scala. Sebbene ciò violi le sue politiche, a gennaio ha pubblicato un rapporto in cui avverte che è “praticamente impossibile garantire che i modelli linguistici di grandi dimensioni non vengano mai utilizzati per generare disinformazione”. OpenAI non ha risposto a una richiesta di commento. 

Tuttavia, l’azienda ha anche invitato alla cautela quando si tratta di sovrastimare l’impatto delle campagne di disinformazione. Secondo gli autori del rapporto di OpenAI, sono necessarie ulteriori ricerche per determinare le popolazioni più a rischio di contenuti non autentici generati dall’IA, nonché la relazione tra le dimensioni del modello di IA e le prestazioni complessive o la persuasività dei suoi risultati. 

È troppo presto per farsi prendere dal panico, afferma Jon Roozenbeek, ricercatore postdoc che studia la disinformazione presso il dipartimento di psicologia dell’Università di Cambridge, che non ha partecipato allo studio.  

Sebbene la diffusione di disinformazione online possa essere più facile ed economica con l’IA rispetto alle troll farm con personale umano, la moderazione sulle piattaforme tecnologiche e i sistemi di rilevamento automatizzati sono ancora ostacoli alla sua circolazione, afferma Roozenbeek.  

“Solo perché l’IA rende più facile scrivere un tweet che potrebbe essere leggermente più persuasivo di quello che ha scritto un povero idiota in una fabbrica di San Pietroburgo, non significa necessariamente che all’improvviso tutti siano pronti per essere manipolati”, aggiunge. 

Related Posts
Total
0
Share