L’IA non riesce a fermare le fake news

La sparatoria di Las Vegas è solo l’ultima di una lunga serie di occasioni in cui i sistemi allestiti per bloccare la circolazione di notizie false hanno fallito nel loro intento.

di Jamie Condliffe

Al risveglio con le notizie della tragedia di Las Vegas, molti americani si sono dovuti confrontare non con notizie accurate e veritiere, bensì con una lunga serie di post falsi che erano stati diffusi da siti inaffidabili.

Stando ad Ars Technica, Google avrebbe promosso fra le sue Top Stories un post di 4chan che identificava erroneamente l’assassino. Il soggetto era stato pubblicato nella sezione “pol” di 4chan, famosa per i suoi contenuti provocatori.

Un portavoce di Google avrebbe raccontato al reporter William Turton che le sue Top Stories vengono selezionate in base a una combinazione fra “autorevolezza” e “novità” del contenuto. Evidentemente non autorevole, il post di 4chan dev’essere stato considerato una novità – specialmente visto che sorge difficile considerare 4chan una fonte convenzionale di notizie.

Altrove, Fast Company spiega che contenuti inaccurati sono riusciti a infiltrarsi nella pagina Safety Check di Facebook dedicata alla sparatoria di Las Vegas nella forma di una storia originata da un blog di nome Alt-Right News. Diverse altre notizie fasulle sono circolate – Buzzfeed ha raccolto una lista di esempi.

Ovviamente, questo problema è alquanto preoccupante, se si considera il presunto impegno da parte dei giganti tech per bloccare tali contenuti. Facebook e Google sono coinvolti in una indagine da parte del Congresso per la diffusione di contenuti di propaganda russa durante le elezioni presidenziali del 2016. Facebook è afflitta da problemi quali inserzioni antisemite e l’incapacità di regolare e filtrare contenuti offensivi.

Entrambe le società credono che sistemi di IA possano gestire questo genere di problemi. Mark Zuckerberg ha ripetutamente ed enfaticamente sostenuto che l’intelligenza artificiale dovrebbe riuscire a scartare contenuti offensivi e fake news. In una intervista per Outline, un portavoce di Google ha difeso la società sottolineando come “nel giro di poche ore, la notizia diffusa da 4chan è stata rimpiazzata da risultati rilevanti”.

Attualmente, decidere quali contenuti censurare sulla base della priorità delle notizie è pressoché impossibile per i sistemi di IA, perché necessitano di una grande raccolta di dati dai quali apprendere in tempi non celeri. Affidarsi ad algoritmi più convenzionali e basati su criteri quali “l’autorevolezza” e la “freschezza” dei contenuti richiede ugualmente alcune ore – tempi che, in questi casi, non sono ammissibili.

È probabile che la soluzione, almeno per ora, non sia tecnologica. Facebook, per lo meno, lo ha ammesso incrementando il numero di persone adibite a filtrare contenuti offensivi. Sia Facebook che Google, però, potrebbero dover incrementare i ranghi per evitare di ripetere ogni volta lo stesso errore.

Related Posts
Total
0
Share