Ecco come l’apprendimento automatico di Facebook combatte ISIS e Al-Qaeda

Il social network ha pubblicato i risultati delle attività condotte finora per contrastare la divulgazione di contenuti terroristici.

di Charlotte Jee

Facebook sostiene di aver individuato e rimosso il 99% dei contenuti associati al terrorismo negli ultimi nove mesi. Alcuni dettagli sul processo utilizzato sono stati descritti sul blog del social network.

Questione di statistica: Anzitutto è bene sottolineare che, quando parla di “terrorismo”, Facebook parla esclusivamente di ISIS ed Al-Qaeda. In media, la società sostiene di riuscire a rimuovere contenuti terroristici entro due minuti dalla loro condivisione, contro le 14 ore che impiegava all’inizio dell’anno. Nel secondo trimestre del 2018, Facebook è intervenuta su 9,4 milioni di elementi condivisi sulla sua piattaforma; nel trimestre successivo, i contenuti rimossi sono stati 3 milioni, grazie agli sforzi intrapresi nel periodo precedente.

Sistemi di rilevamento: Facebook ha introdotto un nuovo strumenti di apprendimento automatico che valuta la probabilità che un post sia riconducibile ad attività di supporto di Isis p Al-Qaeda.

L’algoritmo produce una valutazione graduata di questa probabilità e sottopone i contenuti sospetti alla supervisione di un moderatore umano. Per i casi certi, il sistema provvede automaticamente alla loro rimozione. Nelle “rare occasioni” in cui i moderatori rilevano la probabilità di rischio imminente, Facebook informa immediatamente le forze dell’ordine.

Sguinzagliate i bot: Chiaramente, nella lotta al terrorismo, Facebook vuole trasmettere un’immagine forte di sé; e per farlo si sta affidando quasi esclusivamente a degli algoritmi. Gli esseri umani non potrebbero mai passare al setaccio così tante informazioni in così poco tempo (e a un costo altrettanto conveniente). L’intero processo non fa che ricordarci il ruolo di Facebook come giudice, giuria e boia delle informazioni che sceglie di condividere con noi.

(MO)

Related Posts
Total
0
Share