L’intelligenza artificiale ci aiuterà a capire la storia. Ma non mancano pericoli

Gli storici utilizzano l’informatica per comprendere come si viveva secoli fa.

Venezia, 1531. Scende la sera e nella bottega di un tipografo, un apprendista lavora all’impaginazione di una pagina destinata a un libro di astronomia: una fitta linea di caratteri e l’illustrazione su xilografia di una testa di cherubino che osserva le forme che si muovono nel cosmo, rappresentando un’eclissi lunare.

Come tutti gli aspetti della produzione di libri nel XVI secolo, si tratta di un processo che richiede molto tempo, ma che consente di diffondere la conoscenza con una rapidità senza precedenti. 

Cinquecento anni dopo, la produzione di informazioni è completamente diversa: terabyte di immagini, video e testi in fiumi di dati digitali che circolano quasi istantaneamente e devono essere analizzati con altrettanta rapidità, consentendo – e richiedendo – la formazione di modelli di apprendimento automatico per ordinare il flusso. Questo cambiamento nella produzione di informazioni riguarda il futuro di ogni cosa, dalla creazione artistica allo sviluppo di farmaci.

Ma il progresso tecnologico sta anche rendendo possibile un’analisi diversa dei dati del passato. Gli storici hanno iniziato a utilizzare l’apprendimento automatico (machine learning), in particolare le reti neurali profonde, per esaminare i documenti storici, comprese le tavole astronomiche come quelle prodotte a Venezia e in altre città della prima età moderna, macchiate da secoli trascorsi in archivi ammuffiti o distorte dalla mano di un tipografo.   

Gli storici sostengono che l’applicazione dell’informatica moderna al passato aiuta a tracciare in modo nuovo connessioni ampie della documentazione storica, correggendo le distorsioni che derivano dall’analisi di un documento per volta. Ma introduce distorsioni proprie, tra cui il rischio che l’apprendimento automatico inserisca alterazioni o vere e proprie falsificazioni nei documenti storici. Tutto ciò si traduce in una domanda per gli storici e per coloro che, come spesso si sostiene, comprendono il presente esaminando la storia: con le macchine destinate a svolgere un ruolo sempre più importante nel futuro, quanto dovremmo cedere loro del passato?

Analizzare la complessità

I big data sono arrivati nelle scienze umane grazie alle iniziative di digitalizzazione di un numero crescente di documenti storici, come la collezione di milioni di pagine di giornali della Library of Congress e i registri giudiziari dei Finnish Archives risalenti al XIX secolo. Per i ricercatori, questo è allo stesso tempo un problema e un’opportunità: ora ci sono molte più informazioni e spesso non esisteva un modo per vagliarle. 

Questa sfida è stata affrontata con lo sviluppo di strumenti computazionali che aiutano gli studiosi ad analizzare la complessità. Nel 2009, Johannes Preiser-Kapeller, professore alla Austrian Academy of Sciences, stava esaminando un registro di sentenze della Chiesa bizantina del XIV secolo. Rendendosi conto che per dare un senso a centinaia di documenti sarebbe stata necessaria un’indagine digitale sistematica delle relazioni tra i vescovi, Preiser-Kapeller ha creato un database di individui e ha utilizzato un software di analisi di rete per ricostruire le loro connessioni.

Questa ricostruzione ha rivelato modelli nascosti di influenza, portando Preiser-Kapeller a sostenere che i vescovi che parlavano di più nelle riunioni non erano i più influenti; da allora ha applicato la tecnica ad altre reti, tra cui l’élite bizantina del XIV secolo, scoprendo i modi in cui il suo tessuto sociale era sostenuto dal contributo nascosto delle donne. “Siamo stati in grado di identificare, in una certa misura, ciò che accadeva al di fuori della narrazione ufficiale”, afferma. 

Il lavoro di Preiser-Kapeller è solo un esempio di questa tendenza nella ricerca. Fino a poco tempo fa, però, l’apprendimento automatico non era in grado di trarre conclusioni da raccolte di testi sempre più vaste, anche perché alcuni aspetti dei documenti storici (nel caso di Preiser-Kapeller, il greco mal scritto a mano) li rendevano indecifrabili alle macchine. Ora i progressi nel campo dell’apprendimento profondo hanno iniziato ad affrontare queste limitazioni, utilizzando reti che imitano il cervello umano per individuare modelli in data set grandi e complesse.

Quasi 800 anni fa, l’astronomo del XIII secolo Johannes de Sacrobosco pubblicò il Tractatus de sphaera, un trattato introduttivo sul cosmo geocentrico. Questo trattato divenne una lettura obbligatoria per gli studenti universitari della prima età moderna. È stato il libro di testo più diffuso di cosmologia geocentrica, che ha resistito anche dopo che la rivoluzione copernicana ha sconvolto la visione geocentrica del cosmo nel XVI secolo.

Il trattato è anche il libro principale di una raccolta digitalizzata di 359 manuali di astronomia pubblicati tra il 1472 e il 1650 – 76.000 pagine, tra cui decine di migliaia di illustrazioni scientifiche e tavole astronomiche. In questo insieme di dati, Matteo Valleriani, professore al Max Planck Institute for the History of Science, ha riconosciuto l’opportunità di tracciare l’evoluzione della conoscenza europea verso una visione scientifica del mondo condivisa. Ma si è reso conto che per discernere il modello occorreva qualcosa di più delle capacità umane. Valleriani e un team di ricercatori dell’Istituto di Berlino per i fondamenti dell’apprendimento e dei dati (BIFOLD) hanno quindi utilizzato il machine learning.

È stato necessario dividere la raccolta in tre categorie: parti di testo (sezioni di scritti su un argomento specifico, con un inizio e una fine chiari); illustrazioni scientifiche, che hanno contribuito a comprendere meglio concetti come l’eclissi lunare; e tabelle numeriche, utilizzate per insegnare gli aspetti matematici dell’astronomia.

Tutto questo porta a una domanda per gli storici: con le macchine destinate a giocare un ruolo sempre più importante nel futuro, quanto dovremmo cedere loro del passato?

All’inizio, dice Valleriani, il testo sfidava l’interpretazione algoritmica. Per prima cosa, i caratteri tipografici variavano molto; le tipografie dei primi tempi ne sviluppavano di unici per i loro libri e spesso disponevano di officine metallurgiche per la fusione delle lettere. Ciò significa che un modello che utilizza l’elaborazione del linguaggio naturale (NLP) per leggere il testo deve essere riaddestrato per ogni libro.

Anche la lingua ha rappresentato un problema. Molti testi erano scritti in dialetti latini specifici della regione, spesso irriconoscibili per le macchine che non sono state addestrate alle lingue storiche. “Questo è un grosso limite in generale per l’elaborazione del linguaggio naturale, quando non si dispone di un vocabolario per l’addestramento di base”, dice Valleriani. Ed è uno dei motivi per cui l’NLP funziona bene per le lingue dominanti come l’inglese, ma è meno efficace, ad esempio, per l’ebraico antico. 

I ricercatori hanno invece estratto manualmente il testo dai materiali di partenza e hanno identificato singoli collegamenti tra gruppi di documenti, ad esempio quando un testo è stato imitato o tradotto in un altro libro. Questi dati sono stati inseriti in un grafo, che ha incorporato automaticamente i singoli collegamenti in una rete contenente tutti i documenti (i ricercatori hanno poi utilizzato il grafo per addestrare un metodo di apprendimento automatico in grado di suggerire connessioni tra i testi). Rimanevano gli elementi visivi dei testi: 20.000 illustrazioni e 10.000 tabelle, che i ricercatori hanno studiato con le reti neurali.

Il Presente

La visione computerizzata delle immagini storiche deve affrontare sfide simili a quelle dell’NLP; ha quello che Lauren Tilton, professore di digital humanities presso l’Università di Richmond, chiama un pregiudizio “presentista”. Molti modelli di intelligenza artificiale sono addestrati su data set degli ultimi 15 anni, dice Tilton, e gli oggetti che hanno imparato a elencare e identificare tendono a essere caratteristici della vita contemporanea, come i telefoni cellulari o le automobili. I computer spesso riconoscono solo le iterazioni contemporanee di oggetti che hanno una storia più lunga: gli iPhone o le Tesla, e non i quadri elettrici o le Ford Model T. Inoltre, i modelli sono in genere addestrati su immagini a colori ad alta risoluzione piuttosto che sulle fotografie in bianco e nero sgranate del passato (o sulle prime rappresentazioni moderne del cosmo, incoerenti nell’aspetto e deteriorate dal passare del tempo). Tutto questo rende la computer vision meno accurata quando viene applicata alle immagini storiche.

“Parliamo con persone che si occupano di informatica e ci dicono: ‘Beh, abbiamo risolto il problema del rilevamento degli oggetti'”, dice Tilton. “E noi diremo che, in realtà, se prendete una serie di foto degli anni ’30, vedrete che il problema non è stato risolto come pensiamo”. I modelli di apprendimento profondo, che sono in grado di identificare schemi in grandi quantità di dati, possono essere d’aiuto perché sono capaci di una maggiore astrazione. 

Pagina di un commento di Prosdocimo di Beldomando al Tractatus de sphaera di Johannes de Sacrobosco, pubblicato nel 1531. La pagina mostra porzioni del testo originale e del commentario in cui si discute la meccanica delle eclissi solari e lunari.

THE LIBRARY OF THE MAX PLANCK INSTITUTE FOR THE HISTORY OF SCIENCE, BERLIN
""
Una tabella di valori di ascensione obliqua calcolati per l’elevazione di 48 gradi e 40 minuti al Polo Nord celeste. I valori sono stati calcolati dal matematico reale francese Oronce Finé.

THE LIBRARY OF THE MAX PLANCK INSTITUTE FOR THE HISTORY OF SCIENCE, BERLIN

Nel caso del progetto Sphaera, i ricercatori del BIFOLD hanno addestrato una rete neurale per individuare, classificare e raggruppare (in base alla somiglianza) le illustrazioni dei primi testi moderni; questo modello è ora accessibile ad altri storici tramite un servizio web pubblico chiamato CorDeep. I ricercatori hanno anche adottato un approccio innovativo all’analisi di altri dati. Ad esempio, le varie tabelle presenti nelle centinaia di libri della collezione non potevano essere confrontate visivamente perché “la stessa tabella può essere stampata in 1.000 modi diversi”, spiega Valleriani. I ricercatori hanno quindi sviluppato un’architettura di rete neurale che individua e raggruppa le tabelle simili sulla base dei numeri che contengono, ignorando la loro disposizione. 

Finora il progetto ha dato risultati sorprendenti. Uno schema trovato nei dati ha permesso ai ricercatori di comprendere che, mentre l’Europa si frammentava lungo confini religiosi dopo la Riforma protestante, la conoscenza scientifica veniva sistematizzata. I testi scientifici stampati in luoghi come la città protestante di Wittenberg, che era diventata un centro di innovazione scientifica grazie al lavoro degli studiosi riformati, venivano imitati in centri come Parigi e Venezia prima di diffondersi in tutto il continente. La Riforma protestante non è esattamente un argomento poco studiato, dice Valleriani, ma una prospettiva mediata dalle macchine ha permesso ai ricercatori di vedere qualcosa di nuovo: “Questo non era assolutamente chiaro prima”. I modelli applicati alle tabelle e alle immagini hanno iniziato a restituire modelli simili.

I computer spesso riconoscono solo le iterazioni contemporanee di oggetti che hanno una storia più lunga: pensiamo agli iPhone e alle Tesla, piuttosto che ai quadri elettrici e alle Model T. 

Secondo Valleriani, questi strumenti offrono possibilità più significative del semplice tenere traccia di 10.000 tabelle. Permettono invece ai ricercatori di trarre inferenze sull’evoluzione della conoscenza da schemi in gruppi di documenti anche se hanno esaminato solo una manciata di documenti. “Guardando due tabelle, posso già trarre un’importante conclusione su 200 anni”, dice Valleriani.

Le reti neurali profonde stanno svolgendo un ruolo anche nell’esame della storia più antica. La decifrazione delle iscrizioni (nota come epigrafia) e il restauro degli esempi danneggiati sono compiti impegnativi, soprattutto quando gli oggetti iscritti sono stati spostati o mancano di indicazioni contestuali. Gli storici specializzati devono fare delle ipotesi. Per aiutarli, Yannis Assael, ricercatore di DeepMind, e Thea Sommerschield, borsista presso l’Università Ca’ Foscari di Venezia, hanno sviluppato una rete neurale chiamata Ithaca, in grado di ricostruire porzioni mancanti di iscrizioni e di attribuire date e luoghi ai testi. I ricercatori affermano che l’approccio di apprendimento profondo – che ha comportato l’addestramento su un set di dati di oltre 78.000 iscrizioni – è il primo ad affrontare il restauro e l’attribuzione congiuntamente, attraverso l’apprendimento da grandi quantità di dati. 

Finora, affermano Assael e Sommerschield, l’approccio sta facendo luce su iscrizioni di decreti di un periodo importante dell’Atene classica, che sono state a lungo attribuite al 446 e al 445 a.C. – una data che alcuni storici hanno contestato. Come test, i ricercatori hanno addestrato il modello su un set di dati che non conteneva l’iscrizione in questione e poi gli hanno chiesto di analizzare il testo dei decreti. Questo ha prodotto una data diversa. “La datazione media prevista per i decreti di Itaca è il 421 a.C., in linea con le più recenti scoperte sulla datazione e dimostrando come l’apprendimento automatico possa contribuire ai dibattiti su uno dei momenti più significativi della storia greca”, hanno dichiarato i due studiosi. 

Macchine del tempo 

Altri progetti propongono di utilizzare l’apprendimento automatico per trarre inferenze ancora più ampie sul passato. Questa è stata la motivazione alla base della Macchina del tempo di Venezia, una delle numerose “macchine del tempo” in tutta Europa che sono state create per ricostruire la storia locale a partire da documenti digitalizzati. Gli archivi di Stato veneziani coprono 1.000 anni di storia distribuiti su 80 chilometri di scaffali; l’obiettivo dei ricercatori era quello di digitalizzare questi documenti, molti dei quali non erano mai stati esaminati dagli storici moderni. Utilizzeranno reti di apprendimento profondo per estrarre informazioni e, rintracciando i nomi che compaiono nello stesso documento in altri documenti, ricostruiranno i legami che un tempo univano i veneziani.  

Frédéric Kaplan, presidente della Time Machine Organization, afferma che il progetto ha ora digitalizzato un numero sufficiente di documenti amministrativi della città per catturarne la struttura nei secoli passati, rendendo possibile l’analisi edificio per edificio e l’identificazione delle famiglie che vi hanno abitato in momenti diversi. “Si tratta di centinaia di migliaia di documenti che devono essere digitalizzati per raggiungere questa forma di flessibilità”, spiega Kaplan. “Non è mai stato fatto prima”. 

Tuttavia, quando si tratta della promessa finale del progetto – niente meno che una simulazione digitale della Venezia medievale fino al livello di quartiere, attraverso reti ricostruite dall’intelligenza artificiale – storici come Johannes Preiser-Kapeller, il professore dell’Accademia austriaca delle scienze che ha condotto lo studio sui vescovi bizantini, affermano che il progetto non è stato in grado di mantenere la promessa. Il modello non è in grado di capire quali connessioni siano significative.

Preiser-Kapeller ha fatto un proprio esperimento utilizzando il rilevamento automatico per sviluppare reti da documenti – estraendo le informazioni della rete con un algoritmo, anziché affidare a un esperto l’estrazione delle informazioni da inserire nella rete, come nel suo lavoro sui vescovi – e dice che produce molta “complessità artificiale”, ma nulla che serva all’interpretazione storica. L’algoritmo non è stato in grado di distinguere i casi in cui i nomi di due persone comparivano sullo stesso registro dei contribuenti da quelli in cui erano presenti su un certificato di matrimonio, quindi, come dice Preiser-Kapeller, “ciò che si ottiene non ha alcun valore esplicativo”. Si tratta di un limite che gli storici hanno evidenziato con l’apprendimento automatico, simile a quello che le persone hanno fatto riguardo ai modelli linguistici di grandi dimensioni come ChatGPT: poiché i modelli alla fine non capiscono ciò che stanno leggendo, possono arrivare a conclusioni assurde.  

È vero che con le fonti attualmente disponibili, l’interpretazione umana è necessaria per fornire un contesto, dice Kaplan, anche se pensa che questo potrebbe cambiare una volta che un numero sufficiente di documenti storici sarà reso leggibile dalla macchina. 

Ma egli immagina un’applicazione dell’apprendimento automatico più trasformativa e potenzialmente più problematica. L’intelligenza artificiale generativa potrebbe essere utilizzata per fare previsioni che colmino i punti vuoti della documentazione storica, ad esempio sul numero di apprendisti nella bottega di un artigiano veneziano, basandosi non su singoli documenti, che potrebbero essere imprecisi o incompleti, ma su dati aggregati. Questo può portare più prospettive non elitarie nel quadro, ma è in contrasto con la pratica storica standard, in cui le conclusioni si basano sulle prove disponibili.  

Tuttavia, una preoccupazione più immediata è rappresentata dalle reti neurali che creano record falsi.   

È reale?  

Su YouTube, gli spettatori possono ora vedere Richard Nixon pronunciare un discorso che era stato scritto nel caso in cui l’allunaggio del 1969 fosse finito in un disastro, ma che fortunatamente non è mai stato necessario pronunciare. I ricercatori hanno creato il deepfake per dimostrare come l’intelligenza artificiale possa influenzare il nostro senso condiviso della storia. In pochi secondi si possono generare immagini false di grandi eventi storici come lo sbarco del D-Day, come ha recentemente discusso il professore di storia della Northeastern Dan Cohen con gli studenti di una classe dedicata all’indagine del modo in cui i media digitali e la tecnologia stanno plasmando lo studio della storia. “Le foto sono del tutto convincenti”, dice. “Si può mettere un intero gruppo di persone su una spiaggia, con un carro armato e una mitragliatrice, e sembra perfetto”.

I falsi storici non sono una novità – Cohen cita come esempio il modo in cui Joseph Stalin ordinò di cancellare i nemici dai libri di storia – ma la scala e la velocità con cui si possono creare i falsi è mozzafiato, e il problema va oltre le immagini. L’intelligenza artificiale generativa può creare testi che si leggono in modo plausibile come un discorso parlamentare dell’epoca vittoriana, come ha fatto Cohen con i suoi studenti. Generando grafie o caratteri tipografici storici, può anche creare testi che assomigliano in modo convincente a documenti storici scritti.  

Nel frattempo, chatbot di intelligenza artificiale come Character.ai e Historical Figures Chat consentono agli utenti di simulare interazioni con personaggi storici. Gli storici hanno sollevato preoccupazioni riguardo a questi chatbot, che potrebbero, ad esempio, far sembrare alcuni individui meno razzisti e più pentiti di quanto non fossero in realtà. 

In altre parole, c’è il rischio che l’intelligenza artificiale, dai chatbot storici ai modelli che fanno previsioni basate su dati storici, sbagli di grosso. Alcuni di questi errori sono anacronismi benigni: una domanda ad Aristotele sul chatbot Character.ai riguardo al suo punto di vista sulle donne (che considerava inferiori) ha restituito una risposta secondo cui esse non dovrebbero “avere social media”. Ma altri potrebbero essere più significativi, soprattutto quando sono mescolati in una raccolta di documenti troppo grande perché uno storico possa controllarli singolarmente, o se vengono fatti circolare da qualcuno interessato a una particolare interpretazione della storia. 

Anche se non è un inganno deliberato, alcuni studiosi temono che gli storici possano usare strumenti che non sono preparati a comprendere. “Penso che ci sia un grande rischio, perché noi come umanisti o storici stiamo effettivamente affidando l’analisi a un altro settore, o forse a una macchina”, dice Abraham Gibson, professore di storia all’Università del Texas a San Antonio. Secondo Gibson, fino a poco tempo fa i colleghi storici con cui ha parlato non vedevano la rilevanza dell’intelligenza artificiale per il loro lavoro, ma si stanno sempre più svegliando di fronte alla possibilità di cedere parte dell’interpretazione della storia a una scatola nera.

Questo problema della “scatola nera” non è solo relativo alla storia: anche gli sviluppatori di sistemi di apprendimento automatico a volte faticano a capire come funzionano. Fortunatamente, alcuni metodi progettati pensando agli storici sono strutturati in modo da fornire una maggiore trasparenza. Ithaca produce una serie di ipotesi classificate per probabilità, e i ricercatori di BIFOLD stanno lavorando su un’interpretazione comprensibile dei loro modelli IA, che ha lo scopo di rivelare quali input contribuiscono maggiormente alle previsioni. Gli storici affermano di promuovere la trasparenza incoraggiando le persone a considerare l’apprendimento automatico con distacco critico: come uno strumento utile, ma fallibile, proprio come le persone.

Gli storici di domani 

Sebbene lo scetticismo nei confronti di queste nuove tecnologie persista, il settore le sta gradualmente abbracciando e Valleriani ritiene che, col tempo, il numero di storici che rifiutano i metodi computazionali si ridurrà. Secondo Valleriani, le preoccupazioni degli studiosi sull’etica dell’IA non sono tanto un motivo per non usare l’apprendimento automatico, quanto piuttosto un’opportunità per gli studi umanistici di contribuire al suo sviluppo.

Come scrisse lo storico francese Emmanuel Le Roy Ladurie nel 1968, in risposta al lavoro degli storici che avevano iniziato a sperimentare la storia computazionale per indagare su questioni come i modelli di voto del parlamento britannico negli anni ’40 del XIX secolo, “lo storico di domani sarà un programmatore, o non esisterà”.  

Moira Donovan è una giornalista scientifica indipendente. 

Related Posts
Total
0
Share