Chi decide cosa possiamo o non possiamo dire online?

Fino a oggi, le aziende di social media non si sono rivelate molto abili nello stabilire delle regole per favorire un confronto sui social. Allora perché insistere su questa strada?

di Jillian C. York

Il 7 gennaio, in seguito alla violenta rivolta dei suprematisti bianchi che hanno fatto irruzione nel Campidoglio degli Stati Uniti, Twitter e Facebook hanno sospeso il presidente Donald Trump dalle loro piattaforme. Il giorno successivo, Twitter ha reso la sospensione permanente. Molti hanno elogiato la decisione per aver impedito al presidente di fare più danni in un momento in cui i suoi sostenitori stanno prendendo spunto dalle sue false affermazioni che le elezioni sono state truccate. I repubblicani lo hanno criticato come una violazione della libertà di parola di Trump.

Non lo è. Proprio come Trump ha il diritto stabilito dal Primo Emendamento di dire sciocchezze, così le aziende tecnologiche hanno lo stesso diritto di rimuovere quel contenuto. Mentre alcuni esperti hanno definito la decisione senza precedenti, o “un punto di svolta per la battaglia per il controllo del linguaggio digitale”, come ha twittato Edward Snowden, non lo è affatto. Non solo Twitter e Facebook rimuovono regolarmente tutti i tipi di espressioni protette dal Primo Emendamento, ma come nel caso di Trump non è la prima volta che le piattaforme hanno rimosso un importante personaggio politico. 

A seguito delle notizie di genocidio in Myanmar, Facebook ha vietato l’uso della sua piattaforma al generale di più alto grado del paese e ad altri leader militari che stavano fomentando odio. L’azienda ha bandito anche Hezbollah a causa del suo status di organizzazione terroristica straniera definito negli Stati Uniti, nonostante il fatto che il partito detenga seggi nel parlamento libanese. Inoltre, il divieto vale per i leader dei paesi soggetti alle sanzioni statunitensi.

Allo stesso tempo, Facebook e Twitter si sono attenute al principio secondo cui i contenuti pubblicati da funzionari eletti meritano più protezione rispetto al materiale proveniente da individui comuni, dando così al discorso dei politici un valore superiore a quello della gente comune. Questa posizione è in contrasto con molte prove che i discorsi di odio da parte di personaggi pubblici hanno un impatto maggiore rispetto a discorsi simili da utenti normali. 

Chiaramente, però, queste politiche non vengono applicate in modo uniforme in tutto il mondo. Dopotutto, Trump è ben lungi dall’essere l’unico leader mondiale che utilizza queste piattaforme per fomentare disordini. Basta guardare al BJP, il partito del primo ministro indiano Narendra Modi, per ulteriori esempi.

Sebbene ci siano certamente benefici a breve termine – e molta soddisfazione – ad aver bandito Trump, la decisione (e quelle che l’hanno preceduta) sollevano domande fondamentali sul discorso. Chi dovrebbe avere il diritto di decidere cosa possiamo e non possiamo dire? Cosa implica che un’azienda possa censurare un funzionario governativo? 

Lo staff politico di Facebook, e Mark Zuckerberg in particolare, si sono dimostrati per anni dei cattivi giudici di ciò che è o non è un’espressione appropriata. Dal divieto della piattaforma di immagini del seno alla sua tendenza a sospendere gli utenti per aver risposto agli incitamenti all’odio o al suo totale fallimento nel rimuovere le richieste di violenza in Myanmar, India e altrove, semplicemente non c’è motivo di fidarsi delle capacità di Zuckerberg e di altri leader di aziende tecnologiche di prendere decisioni giuste.

Abrogare la Sezione 230 non è la risposta

Per rispondere a queste preoccupazioni, alcuni chiedono una maggiore regolamentazione. Negli ultimi mesi, sono aumentate le richieste bipartisan di abrogare o modificare la Sezione 230, vale a dire la legge che protegge le aziende dalla responsabilità per le decisioni che prendono sui contenuti che ospitano, nonostante alcune gravi false dichiarazioni da parte di politici che dovrebbero sapere bene come la legge funziona davvero

Il fatto è che l’abrogazione della Sezione 230 non avrebbe probabilmente costretto Facebook o Twitter a rimuovere i tweet di Trump, né impedirebbe alle aziende di rimuovere i contenuti che trovano sgradevoli. Sono i diritti del Primo Emendamento che consentono alle aziende di gestire le loro piattaforme come meglio credono.

In realtà, l’abrogazione della sezione 230 ostacolerebbe i concorrenti di Facebook e degli altri giganti della tecnologia e aumenterebbe il rischio di responsabilità sulle piattaforme per ciò che scelgono di ospitare. Per esempio, senza la Sezione 230, gli avvocati di Facebook potrebbero decidere che ospitare contenuti antifascisti è troppo rischioso alla luce degli attacchi dell’amministrazione Trump all’antifa.

Questo non è uno scenario inverosimile: le piattaforme limitano già la maggior parte dei contenuti che potrebbero essere anche vagamente collegati a organizzazioni terroristiche straniere, per paura che le leggi sul supporto materiale possano renderle responsabili. Di conseguenza, sono state rimosse le prove dei crimini di guerra in Siriae i discorsi di contrasto alle organizzazioni terroristiche all’estero. 

Allo stesso modo, le piattaforme sono state criticate per aver bloccato qualsiasi contenuto apparentemente collegato a paesi soggetti alle sanzioni statunitensi. In un esempio particolarmente assurdo, Etsy ha vietato una bambola fatta a mano, prodotta in America, perché l’elenco conteneva la parola “persiano”.

Non è difficile vedere come l’aumento della responsabilità della piattaforma possa causare la rimozione di discorsi ancora più vitali da parte di aziende il cui unico interesse non è “connettere il mondo”, ma trarne profitto.

Le piattaforme non devono essere neutrali, ma corrette

Nonostante ciò che il senatore Ted Cruz continua a ripetere, non c’è nulla che richieda che queste piattaforme siano neutrali, né dovrebbe esserci. Se Facebook vuole bannare Trump – o foto di madri che allattano – questa è una prerogativa dell’azienda. Il problema non è che Facebook abbia il diritto di farlo, ma che, a causa delle sue acquisizioni e della crescita senza ostacoli, i suoi utenti non hanno praticamente nessun altro posto dove andare e si trovano di fronte a regole sempre più problematiche e alla moderazione automatizzata dei contenuti.

La risposta non è abrogare la Sezione 230, ma creare le condizioni per una maggiore concorrenza. È qui che l’amministrazione Biden dovrebbe concentrare la sua attenzione nei prossimi mesi. E questi sforzi devono includere il contatto con esperti di moderazione dei contenuti e del mondo accademico per comprendere la gamma di problemi affrontati dagli utenti di tutto il mondo, invece di concentrarsi semplicemente sul dibattito all’interno degli Stati Uniti.

Per quanto riguarda le piattaforme, sanno cosa devono fare, perché la società civile glielo ha detto per anni. Devono essere più trasparenti e garantire che gli utenti abbiano il diritto di rispondere alle decisioni sbagliate. I Santa Clara Principles on Transparency and Accountability in Content Moderation approvati nel 2019 dalla maggior parte delle piattaforme principali, ma rispettati da una sola (Reddit), offrono standard minimi per le aziende su queste misure. 

Le piattaforme dovrebbero anche attenersi agli impegni esistenti per un processo decisionale responsabile. Soprattutto, dovrebbero garantire che le decisioni che prendono sulla parola siano in linea con gli standard globali sui diritti umani, piuttosto che stabilire le regole man mano che procedono. Le persone ragionevoli possono non essere d’accordo sul fatto che l’atto di bandire Trump da queste piattaforme sia stato giusto, ma se vogliamo assicurarci che le piattaforme prendano decisioni migliori in futuro, non dobbiamo cercare soluzioni rapide.

Jillian C. York è l’autrice del libro in uscita  Silicon Values: The Future of Free Speech Under Surveillance Capitalism e responsabile per la libertà di espressione internazionale di Electronic Frontier Foundation.

Foto: John Minchillo / AP Photo

Related Posts
Total
0
Share