Skip to main content
Stephanie Arnett/MIT Technology Review | Envato

Una nuova partnership con Anduril, annunciata oggi, prevede l’impiego dell’intelligenza artificiale sul campo di battaglia. Rappresenta una revisione della posizione dell’azienda in un solo anno.

All’inizio del 2024, le regole di OpenAI per l’utilizzo della sua tecnologia da parte delle forze armate erano inequivocabili.

L’azienda vietava a chiunque di utilizzare i suoi modelli per lo “sviluppo di armi” o per “scopi militari e bellici”. La situazione è cambiata il 10 gennaio, quando The Intercept ha riferito che OpenAI ha ammorbidito tali restrizioni, vietando a chiunque di utilizzare la tecnologia per “danneggiare se stessi o altri” sviluppando o utilizzando armi, ferendo altre persone o distruggendo proprietà. Poco dopo OpenAI ha dichiarato che avrebbe collaborato con il Pentagono per il software di sicurezza informatica, ma non per le armi. Poi, in un post sul blog pubblicato a ottobre, l’azienda ha reso noto che sta lavorando nel settore della sicurezza nazionale, sostenendo che, nelle mani giuste, l’intelligenza artificiale potrebbe “aiutare a proteggere le persone, a scoraggiare gli avversari e persino a prevenire conflitti futuri”.

Oggi OpenAI annuncia che la sua tecnologia sarà impiegata direttamente sul campo di battaglia.

L’azienda ha dichiarato che collaborerà con la società di tecnologia della difesa Anduril, produttrice di droni, sistemi radar e missili dotati di intelligenza artificiale, per aiutare le forze statunitensi e alleate a difendersi dagli attacchi dei droni. OpenAI aiuterà a costruire modelli di intelligenza artificiale che “sintetizzano rapidamente dati sensibili al tempo, riducono l’onere degli operatori umani e migliorano la consapevolezza della situazione” per abbattere i droni nemici, secondo l’annuncio. Non sono stati resi noti i dettagli, ma il programma sarà strettamente incentrato sulla difesa del personale e delle strutture statunitensi dalle minacce aeree senza pilota, secondo Liz Bourgeois, portavoce di OpenAI. “Questa partnership è coerente con le nostre politiche e non prevede lo sfruttamento della nostra tecnologia per sviluppare sistemi progettati per danneggiare altri”, ha dichiarato. Un portavoce di Anduril non ha fornito informazioni specifiche sulle basi in tutto il mondo in cui i modelli saranno distribuiti, ma ha detto che la tecnologia aiuterà a individuare e tracciare i droni e a ridurre il tempo che i membri del servizio dedicano a compiti noiosi.

Le politiche di OpenAI che vietano l’uso militare della sua tecnologia si sono dissolte in meno di un anno. Quando all’inizio di quest’anno l’azienda ha ammorbidito la sua regola, un tempo chiara, era per consentire la collaborazione con i militari in contesti limitati, come la sicurezza informatica, la prevenzione dei suicidi e i soccorsi in caso di calamità, secondo un portavoce di OpenAI.

Ora, OpenAI abbraccia apertamente il suo lavoro sulla sicurezza nazionale. Se la collaborazione con le forze armate o con le aziende di tecnologia della difesa può aiutare a garantire che i Paesi democratici dominino la corsa all’IA, ha scritto l’azienda, allora farlo non è in contraddizione con la missione di OpenAI di garantire che i benefici dell’IA siano ampiamente condivisi. Anzi, sostiene l’azienda, contribuirà a realizzare tale missione. Ma non bisogna sbagliare: si tratta di un grande cambiamento rispetto alla posizione assunta solo un anno fa.

Per comprendere la rapidità con cui si è svolta questa svolta, vale la pena notare che mentre l’azienda esitava nel suo approccio allo spazio della sicurezza nazionale, altri nel settore tecnologico stavano correndo verso di esso.

Le società di venture capital hanno più che raddoppiato i loro investimenti nella tecnologia della difesa nel 2021, raggiungendo i 40 miliardi di dollari, dopo che aziende come Anduril e Palantir hanno dimostrato che, con un po’ di persuasione (e di contenzioso), il Pentagono avrebbe pagato profumatamente per le nuove tecnologie. L’opposizione dei dipendenti al lavoro in guerra (palpabile soprattutto durante le proteste di Google nel 2018) si è attenuata per alcuni quando la Russia ha invaso l’Ucraina nel 2022 (diversi dirigenti del settore della difesa mi hanno detto che l'”univocità” di quella guerra li ha aiutati ad attrarre sia investimenti che talenti).

Quindi, in un certo senso, abbracciando la difesa OpenAI sta solo recuperando terreno. La differenza è che le aziende di tecnologia della difesa sono consapevoli di essere nel business della guerra e non hanno dovuto rinnegare rapidamente l’eredità di un’azienda di ricerca sull’intelligenza artificiale senza scopo di lucro. Dal suo statuto fondativo, OpenAI si è posizionata come un’organizzazione con la missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità. Ha giurato pubblicamente che lavorare con l’esercito sarebbe stato in contraddizione con questa missione.

Un post del 24 ottobre sul proprio blog ha tracciato un nuovo percorso, cercando di far quadrare la volontà di OpenAI di lavorare nella difesa con i suoi valori dichiarati. Intitolato “L’approccio di OpenAI all’intelligenza artificiale e alla sicurezza nazionale”, è stato pubblicato lo stesso giorno in cui la Casa Bianca ha pubblicato il suo National Security Memorandum sull’IA, che ha ordinato al Pentagono e ad altre agenzie di incrementare l’uso dell’IA, in parte per contrastare la concorrenza cinese.

“Crediamo che una visione democratica dell’IA sia essenziale per sbloccare il suo pieno potenziale e garantire che i suoi benefici siano ampiamente condivisi”, ha scritto OpenAI, riprendendo un linguaggio simile nella nota della Casa Bianca. “Crediamo che le democrazie debbano continuare ad avere un ruolo guida nello sviluppo dell’IA, guidate da valori come la libertà, l’equità e il rispetto dei diritti umani”.

Il documento offre una serie di modi in cui OpenAI potrebbe contribuire a perseguire questo obiettivo, compresi gli sforzi per “semplificare le attività di traduzione e sintesi e studiare e mitigare i danni ai civili”, pur vietando che la sua tecnologia venga utilizzata per “danneggiare le persone, distruggere la proprietà o sviluppare armi”. Soprattutto, è stato un messaggio da parte di OpenAI, che ha dichiarato di essere a favore del lavoro sulla sicurezza nazionale.

Le nuove politiche enfatizzano “la flessibilità e il rispetto della legge”, afferma Heidy Khlaaf, scienziato capo dell’AI presso l’AI Now Institute e ricercatore in materia di sicurezza, autore di un documento con OpenAI nel 2022 sui possibili rischi della sua tecnologia in contesti anche militari. La svolta dell’azienda “in ultima analisi, segnala l’accettabilità di svolgere attività legate all’esercito e alla guerra come il Pentagono e le forze armate statunitensi ritengono opportuno”, afferma l’autrice.

Amazon, Google e Microsoft, partner e investitori di OpenAI, si sono contesi per anni i contratti di cloud computing del Pentagono. Queste aziende hanno imparato che lavorare con la Difesa può essere incredibilmente redditizio e la svolta di OpenAI, che arriva mentre l’azienda prevede 5 miliardi di dollari di perdite e starebbe esplorando nuovi flussi di entrate come la pubblicità, potrebbe segnalare che vuole una parte di quei contratti. Anche i rapporti delle Big Tech con l’esercito non suscitano più l’indignazione e il controllo di un tempo. Ma OpenAI non è un fornitore di cloud, e la tecnologia che sta costruendo può fare molto di più che memorizzare e recuperare dati. Con questa nuova partnership, OpenAI promette di aiutare a smistare i dati sul campo di battaglia, di fornire informazioni sulle minacce e di contribuire a rendere più rapido ed efficiente il processo decisionale in guerra.

Le dichiarazioni di OpenAI sulla sicurezza nazionale forse sollevano più domande che risposte. L’azienda vuole ridurre i danni ai civili, ma per quali civili? Contribuire con modelli di intelligenza artificiale a un programma che abbatte i droni non conta come sviluppare armi che potrebbero danneggiare le persone?

“Le armi difensive sono ancora armi”, afferma Khlaaf. Spesso possono essere posizionate in modo offensivo, a seconda del luogo e dell’obiettivo della missione”.

Al di là di queste domande, lavorare nel settore della difesa significa che la più importante azienda di IA al mondo, che ha avuto un’incredibile quantità di influenza nel settore e ha a lungo pontificato su come gestire l’IA in modo responsabile, ora lavorerà in un settore tecnologico della difesa che gioca secondo un insieme di regole completamente diverso. In questo sistema, quando il cliente è l’esercito statunitense, le aziende tecnologiche non possono decidere come utilizzare i loro prodotti.