BRIAN STAUFFER

Gli algoritmi sono ovunque

Tre nuovi libri mettono in guardia dal trasformarsi nella persona che l’algoritmo pensa che voi siate.

Come molti abbonati a Netflix, mi accorgo che il mio feed personale tende a essere un po’ vuoto di cose interessanti. Più del solito. I film e gli spettacoli che gli algoritmi consigliano sembrano spesso non basati sulla mia cronologia di visione e sulle mie valutazioni, ma più orientati a promuovere ciò che è appena disponibile. Tuttavia, quando un film di supereroi con una delle attrici più famose del mondo è apparso nella mia lista “Top Picks”, ho fatto quello che hanno fatto altri 78 milioni di famiglie e ho cliccato.

Mentre guardavo il film, mi sono reso conto di una cosa: gli algoritmi di raccomandazione come quelli sperimentati da Netflix non si limitavano a servirmi ciò che pensavano mi sarebbe piaciuto, ma stavano anche dando forma a ciò che veniva prodotto. E non in senso positivo.

DOUBLEDAY

Il film in questione non era necessariamente brutto. La recitazione era soddisfacente, i valori di produzione elevati e la trama discernibile (almeno per un film di supereroi). Ciò che mi ha colpito, però, è stato un vago senso di déjà vu, come se avessi già visto questo film in precedenza, anche se non l’avevo fatto. Quando è finito, me ne sono prontamente dimenticato.

Questo fino a quando non ho iniziato a leggere il recente libro di Kyle Chayka, Filterworld: How Algorithms Flattened Culture. Scrittore del New Yorker, Chayka è un acuto osservatore dei modi in cui Internet e i social media influenzano la cultura. Il termine “Filterworld” indica “la vasta rete di algoritmi” che influenza la nostra vita quotidiana e il “modo in cui la cultura viene distribuita e consumata”.

La musica, il cinema, le arti visive, la letteratura, la moda, il giornalismo, il cibo: Kayka sostiene che le raccomandazioni algoritmiche hanno alterato in modo sostanziale tutti questi prodotti culturali, non solo influenzando ciò che viene visto o ignorato, ma creando una sorta di “blandness” auto-rinforzata con cui tutti noi ci stiamo confrontando.

Il film di supereroi che ho visto è un esempio lampante. Nonostante la mia generale ambivalenza nei confronti del genere, l’algoritmo di Netflix ha posizionato il film in cima al mio feed, dove era molto più probabile che ci cliccassi sopra. E l’ho fatto. Questa “scelta” è stata poi registrata dagli algoritmi, che probabilmente hanno dedotto che il film mi era piaciuto e lo hanno consigliato a un numero ancora maggiore di spettatori. Guardare, trasalire, ripetere. 

“La cultura del mondo dei filtri è in definitiva omogenea”, scrive Chayka, “segnata da un senso pervasivo di uniformità anche quando i suoi artefatti non sono letteralmente gli stessi”. Possiamo vedere tutti cose diverse nei nostri feed, dice, ma sono sempre più dello stesso tipo. Attraverso questi cicli di retroazione, ciò che è popolare diventa sempre più popolare, ciò che è oscuro scompare rapidamente e le forme di intrattenimento più basse e comuni salgono inevitabilmente in cima alla classifica.

Questo è in realtà l’opposto della personalizzazione promessa da Netflix, osserva Chayka. Le raccomandazioni algoritmiche riducono il gusto – tradizionalmente un’opinione sfumata e in evoluzione che ci formiamo su questioni estetiche e artistiche – a pochi punti di dati facilmente quantificabili. Questa eccessiva semplificazione costringe poi i creatori di film, libri e musica ad adattarsi alla logica e alle pressioni del sistema algoritmico. Diventare virali o morire. Coinvolgere. Rivolgersi al maggior numero di persone possibile. Essere popolari. 

Una battuta postata su X da un ingegnere di Google riassume il problema: “Un algoritmo di apprendimento automatico entra in un bar. Il barista chiede: “Cosa prendi?”. L’algoritmo risponde: “Cosa prendono gli altri?””. “Nella cultura algoritmica, la scelta giusta è sempre quella che la maggioranza delle altre persone ha già scelto”, scrive Chayka.

Una sfida per chi scrive un libro come Filterworld – o in realtà qualsiasi libro che tratti di questioni di importazione culturale – è il pericolo di apparire (intenzionalmente o meno) come un sedicente arbitro del gusto o, peggio, un vero e proprio snob. Ci si potrebbe chiedere: cosa c’è di male in un po’ di intrattenimento senza pensieri? (Molti si sono chiesti proprio questo in risposta al controverso saggio di Martin Scorsese su Harper’s del 2021, che criticava i film Marvel e lo stato attuale del cinema).

Chayka affronta queste domande con decisione. Sostiene che in realtà abbiamo solo scambiato una serie di guardiani (redattori di riviste, DJ radiofonici, curatori di musei) con un’altra (Google, Facebook, TikTok, Spotify). Creati e controllati da una manciata di aziende insondabilmente ricche e potenti (che di solito sono guidate da un uomo bianco ricco e potente), gli algoritmi di oggi non tentano nemmeno di premiare o amplificare la qualità, che ovviamente è soggettiva e difficile da quantificare. Si concentrano invece sull’unica metrica che è arrivata a dominare tutto su Internet: il coinvolgimento.

Forse non c’è nulla di intrinsecamente sbagliato (o di nuovo) nell’intrattenimento “paint-by-numbers” progettato per l’appeal di massa. Ma le raccomandazioni algoritmiche aumentano gli incentivi a creare solo quel tipo di contenuti, al punto che rischiamo di non essere esposti a nient’altro.

“La cultura non è un tostapane che si può valutare con cinque stelle”, scrive Chayka, “anche se il sito Goodreads, ora di proprietà di Amazon, cerca di applicare queste valutazioni ai libri. Ci sono molte esperienze che mi piacciono – un romanzo senza trama come Outline di Rachel Cusk, per esempio – a cui altri darebbero senza dubbio un brutto voto. Ma queste sono le regole che ora Filterworld applica a tutto”.

Chayka sostiene che coltivare il proprio gusto personale è importante, non perché una forma di cultura sia dimostrabilmente migliore di un’altra, ma perché questo processo lento e deliberato fa parte del modo in cui sviluppiamo la nostra identità e il senso di sé. Se si toglie questo aspetto, si diventa davvero la persona che l’algoritmo pensa sia.

Onnipresenza algoritmica

Come sottolinea Chayka in Filterworld, gli algoritmi “possono sembrare una forza che ha iniziato a esistere solo… nell’era dei social network”, mentre in realtà hanno “una storia e un’eredità che si è formata lentamente nel corso dei secoli, molto prima che Internet esistesse”. Come siamo arrivati a questo momento di onnipresenza algoritmica? Come sono arrivate queste macchine di raccomandazione a dominare e modellare quasi ogni aspetto della nostra vita online e (sempre più) offline? E, cosa ancora più importante, come siamo diventati noi stessi i dati che li alimentano?

W.W. NORTON

Queste sono alcune delle domande a cui Chris Wiggins e Matthew L. Jones intendono rispondere in How Data Happened: A History from the Age of Reason to the Age of Algorithms. Wiggins è professore di matematica applicata e biologia dei sistemi alla Columbia University. È anche il principale scienziato dei dati del New York Times. Jones è ora professore di storia a Princeton. Fino a poco tempo fa, entrambi tenevano un corso di laurea alla Columbia, che è servito come base per il libro.

Essi iniziano la loro indagine storica in un momento che ritengono cruciale per comprendere la nostra attuale situazione: la nascita della statistica tra la fine del XVIII e l’inizio del XIX secolo. Era un periodo di conflitti e sconvolgimenti politici in Europa. Era anche un periodo in cui le nazioni cominciavano a dotarsi di mezzi e motivazioni per tracciare e misurare le loro popolazioni su una scala senza precedenti.

“La guerra richiedeva denaro, il denaro richiedeva tasse, le tasse richiedevano burocrazie in crescita e queste burocrazie avevano bisogno di dati”, scrivono. La “statistica” può aver originariamente descritto “la conoscenza dello Stato e delle sue risorse, senza alcuna tendenza o aspirazione particolarmente quantitativa”, ma questo ha cominciato a cambiare rapidamente con l’emergere di nuovi strumenti matematici per esaminare e manipolare i dati.

Una delle persone che hanno utilizzato questi strumenti è stato l’astronomo belga del XIX secolo Adolphe Quetelet. Famoso, tra l’altro, per aver sviluppato il problematico indice di massa corporea (BMI), Quetelet ebbe l’audace idea di prendere le tecniche statistiche che i suoi colleghi astronomi avevano sviluppato per studiare la posizione delle stelle e di utilizzarle per comprendere meglio la società e i suoi abitanti. Questa nuova “fisica sociale”, basata su dati relativi a fenomeni come la criminalità e le caratteristiche fisiche dell’uomo, potrebbe a sua volta rivelare verità nascoste sull’umanità.

“Il lampo di genio di Quetelet – a prescindere dalla sua mancanza o dal suo rigore – è stato quello di trattare le medie degli esseri umani come se fossero quantità reali che stavamo scoprendo”, scrivono Wiggins e Jones. “Si comportava come se l’altezza media di una popolazione fosse un dato reale, proprio come la posizione di una stella”.

Da Quetelet e il suo “uomo medio” all’eugenetica di Francis Galton fino all'”intelligenza generale” di Karl Pearson e Charles Spearman, Wiggins e Jones tracciano una deprimente progressione di tentativi – molti dei quali riusciti – di usare i dati come base scientifica per le gerarchie razziali e sociali. I dati hanno aggiunto “una patina scientifica alla creazione di un intero apparato di discriminazione e disconoscimento”, scrivono. È un’eredità con cui ci scontriamo ancora oggi.

Un’altra idea sbagliata che persiste? L’idea che i dati sulle persone siano in qualche modo misure oggettive della verità. “I dati grezzi sono un ossimoro”, ha osservato alcuni anni fa la storica dei media Lisa Gitelman. In effetti, tutta la raccolta di dati è il risultato di una scelta umana, da cosa raccogliere a come classificarli, a chi includere e chi escludere.

Che si tratti di povertà, prosperità, intelligenza o affidabilità creditizia, non sono cose reali che possono essere misurate direttamente, notano Wiggins e Jones. Per quantificarle, è necessario scegliere una proxy facilmente misurabile. Questa “reificazione” (“letteralmente, fare una cosa da un’astrazione su cose reali”) può essere necessaria in molti casi, ma tali scelte non sono mai neutrali o prive di problemi. “I dati si creano, non si trovano”, scrivono, “sia nel 1600 che nel 1780 o nel 2022”.

“Non abbiamo bisogno di costruire sistemi che imparino le stratificazioni del passato e del presente e le rafforzino in futuro”.

Forse l’impresa più impressionante che Wiggins e Jones compiono nel libro, continuando a tracciare l’evoluzione dei dati nel corso del XX secolo e ai giorni nostri, è quella di smontare l’idea che ci sia qualcosa di inevitabile nel modo in cui la tecnologia progredisce.

Per Quetelet e i suoi colleghi, rivolgersi ai numeri per comprendere meglio gli esseri umani e la società non era una scelta ovvia. Fin dall’inizio, infatti, tutti, dagli artisti agli antropologi, hanno compreso i limiti intrinseci dei dati e della quantificazione, muovendo alcune delle stesse critiche agli statistici che Chayka rivolge agli odierni sistemi algoritmici (“Tali statistici ‘non vedono affatto la qualità, ma solo la quantità’ “).

Sia che si parli delle tecniche di apprendimento automatico che sono alla base degli sforzi odierni dell’intelligenza artificiale o di un Internet costruito per raccogliere i nostri dati personali e venderci prodotti, Wiggins e Jones raccontano molti momenti della storia in cui le cose sarebbero potute andare in modo diverso.

“Il presente non è una condanna, ma semplicemente la nostra istantanea attuale”, scrivono. “Non dobbiamo usare sistemi decisionali algoritmici non etici o opachi, anche in contesti in cui il loro uso può essere tecnicamente fattibile. Gli annunci basati sulla sorveglianza di massa non sono elementi necessari della nostra società. Non abbiamo bisogno di costruire sistemi che imparino le stratificazioni del passato e del presente e le rafforzino in futuro. La privacy non è morta a causa della tecnologia; non è vero che l’unico modo per sostenere il giornalismo o la scrittura di libri o qualsiasi altro mestiere che vi interessa è quello di spiarvi per fare pubblicità. Ci sono alternative”.

Una necessità impellente di regolamentazione

Se l’obiettivo di Wiggins e Jones era quello di rivelare la tradizione intellettuale che sta alla base degli attuali sistemi algoritmici, compreso “il ruolo persistente dei dati nel riorganizzare il potere”, Josh Simons è più interessato al modo in cui il potere algoritmico viene esercitato in democrazia e, più specificamente, a come potremmo regolare le società e le istituzioni che lo esercitano.

PRINCETON UNIVERSITY PRESS

Attualmente ricercatore in teoria politica ad Harvard, Simons ha un background unico. Non solo ha lavorato per quattro anni in Facebook, dove è stato uno dei membri fondatori di quello che è diventato il team Responsible AI, ma in precedenza è stato consulente politico per il Partito Laburista nel Parlamento del Regno Unito.

In Algorithms for the People: Democracy in the Age of AI, Simons si basa sul lavoro fondamentale di autori come Cathy O’Neil, Safiya Noble e Shoshana Zuboff per sostenere che la previsione algoritmica è intrinsecamente politica. “Il mio obiettivo è esplorare come far funzionare la democrazia nella prossima era dell’apprendimento automatico”, scrive. “Il nostro futuro sarà determinato non dalla natura dell’apprendimento automatico in sé – i modelli di apprendimento automatico fanno semplicemente ciò che gli diciamo di fare – ma dal nostro impegno per una regolamentazione che garantisca che l’apprendimento automatico rafforzi le fondamenta della democrazia”.

Gran parte della prima metà del libro è dedicata a rivelare tutti i modi in cui continuiamo a fraintendere la natura dell’apprendimento automatico e come il suo utilizzo possa minare profondamente la democrazia. E se una “democrazia fiorente” – un termine che Simons usa in tutto il libro ma che non definisce mai – non fosse sempre compatibile con la governance algoritmica? È una domanda che Simons non affronta mai.

Che si tratti di punti ciechi o che Simons creda semplicemente che la previsione algoritmica sia, e rimarrà, una parte inevitabile della nostra vita, la mancanza di chiarezza non favorisce il libro. Sebbene sia su un terreno più solido quando spiega come funziona l’apprendimento automatico e decostruisce i sistemi alla base del PageRank di Google e del Feed di Facebook, ci sono ancora omissioni che non ispirano fiducia. Per esempio, Simons impiega un tempo scomodamente lungo per riconoscere una delle motivazioni chiave alla base della progettazione degli algoritmi di PageRank e Feed: il profitto. Un aspetto da non trascurare se si vuole sviluppare un quadro normativo efficace.

“La verità ultima e nascosta del mondo è che è qualcosa che facciamo noi, e che potremmo facilmente fare in modo diverso”.

Gran parte di ciò che viene discusso nell’ultima metà del libro sarà familiare a chiunque segua le notizie sulla regolamentazione delle piattaforme e di Internet (suggerimento: dovremmo trattare i provider più come servizi pubblici). Sebbene Simons abbia alcune idee creative e intelligenti, sospetto che anche i politici più accaniti se ne andranno un po’ demoralizzati, visto lo stato attuale della politica negli Stati Uniti.

Alla fine, il messaggio di maggiore speranza che questi libri offrono è racchiuso nella natura stessa degli algoritmi. In Filterworld, Chayka riporta una citazione del grande antropologo David Graeber: “La verità ultima e nascosta del mondo è che è qualcosa che facciamo noi, e che potremmo facilmente fare in modo diverso”. È un sentimento che riecheggia in tutti e tre i libri, forse senza il “facilmente”.

Gli algoritmi possono radicare i nostri pregiudizi, omogeneizzare e appiattire la cultura, sfruttare e sopprimere i vulnerabili e gli emarginati. Ma non si tratta di sistemi completamente imperscrutabili o di risultati inevitabili. Possono anche fare il contrario. Osservando da vicino qualsiasi algoritmo di apprendimento automatico, si troveranno inevitabilmente persone che fanno scelte su quali dati raccogliere e come pesarli, scelte sulla progettazione e sulle variabili di destinazione. E, sì, anche scelte sull’opportunità di utilizzarli. Finché gli algoritmi sono qualcosa che gli esseri umani fanno, possiamo anche scegliere di farli in modo diverso.

Bryan Gardiner è uno scrittore di Oakland, California.

Related Posts
Total
0
Share