STEPHANIE ARNETT/MITTR | PUBLIC DOMAIN, JOLYGON/ADOBE (COINS)

Cinque modi in cui i criminali utilizzano l’intelligenza artificiale

L’intelligenza artificiale generativa ha reso il phishing, le truffe e il doxing più facili che mai.

L’intelligenza artificiale ha portato un grande impulso alla produttività della malavita.

L’IA generativa fornisce un nuovo e potente kit di strumenti che consente agli attori malintenzionati di operare in modo molto più efficiente e internazionale rispetto al passato, afferma Vincenzo Ciancaglini, ricercatore senior sulle minacce presso la società di sicurezza Trend Micro.

La maggior parte dei criminali “non vive in un covo oscuro e non trama”, afferma Ciancaglini. “La maggior parte di loro sono persone normali che svolgono attività regolari che richiedono anche produttività”.

L’anno scorso ha visto l’ascesa e il declino di WormGPT, un modello linguistico di intelligenza artificiale costruito sulla base di un modello open-source e addestrato su dati relativi a malware, creato per assistere gli hacker e privo di regole o restrizioni etiche. L’estate scorsa, però, i suoi creatori hanno annunciato la chiusura del modello dopo che questo aveva iniziato ad attirare l’attenzione dei media. Da allora, i criminali informatici hanno per lo più smesso di sviluppare i propri modelli di intelligenza artificiale. Al contrario, stanno optando per trucchi con strumenti esistenti che funzionano in modo affidabile.

Questo perché i criminali vogliono una vita facile e guadagni rapidi, spiega Ciancaglini. Affinché una nuova tecnologia valga i rischi sconosciuti associati alla sua adozione (ad esempio, un rischio più elevato di essere scoperti), deve essere migliore e offrire maggiori ricompense rispetto a quella che usano attualmente.

Ecco cinque modi in cui i criminali stanno utilizzando l’IA.

Phishing

Il più diffuso caso d’uso dell’intelligenza artificiale generativa tra i criminali è il phishing, che consiste nel cercare di ingannare le persone per indurle a rivelare informazioni sensibili che possono essere utilizzate per scopi dannosi, afferma Mislav Balunović, ricercatore sulla sicurezza dell’intelligenza artificiale presso il Politecnico di Zurigo. I ricercatori hanno scoperto che la diffusione di ChatGPT è stato accompagnato da un’enorme impennata del numero di e-mail di phishing.

I servizi che generano spam, come GoMail Pro, hanno ChatGPT integrato, che consente agli utenti criminali di tradurre o migliorare i messaggi inviati alle vittime, afferma Ciancaglini. Le politiche di OpenAI impediscono alle persone di usare i loro prodotti per attività illegali, ma questo è difficile da controllare nella pratica, perché molti messaggi dal suono innocente potrebbero essere usati anche per scopi malevoli, dice Ciancaglini.

OpenAI afferma di utilizzare un mix di revisori umani e sistemi automatizzati per identificare e contrastare l’uso improprio dei suoi modelli e di emettere avvisi, sospensioni temporanee e divieti se gli utenti violano le politiche dell’azienda.

“Prendiamo sul serio la sicurezza dei nostri prodotti e miglioriamo continuamente le nostre misure di sicurezza in base all’uso che le persone fanno dei nostri prodotti”, ci ha detto un portavoce di OpenAI. “Lavoriamo costantemente per rendere i nostri modelli più sicuri e più robusti contro gli abusi e i jailbreak, pur mantenendo l’utilità dei modelli e le prestazioni dei compiti”, hanno aggiunto.

In un rapporto di febbraio, OpenAI ha dichiarato di aver chiuso cinque account associati ad attori maligni affiliati allo Stato.

In passato, le cosiddette truffe del principe nigeriano, in cui qualcuno promette alla vittima un’ingente somma di denaro in cambio di un piccolo pagamento anticipato, erano relativamente facili da individuare perché l’inglese dei messaggi era goffo e pieno di errori grammaticali, afferma Ciancaglini. I modelli linguistici consentono ai truffatori di generare messaggi che sembrano scritti da un madrelingua.

“Un tempo gli anglofoni erano relativamente al sicuro dai [criminali] non anglofoni perché si potevano individuare i loro messaggi”, afferma Ciancaglini. Oggi non è più così.

Grazie a una migliore traduzione da parte dell’intelligenza artificiale, i diversi gruppi criminali nel mondo possono anche comunicare meglio tra loro. Il rischio è che possano coordinare operazioni su larga scala che vadano al di là delle loro nazioni e prendano di mira vittime in altri Paesi, spiega Ciancaglini.

Truffe audio deepfake

L’intelligenza artificiale generativa ha permesso allo sviluppo di deepfake di fare un grande balzo in avanti, con immagini, video e audio sintetici che appaiono e suonano più realistici che mai. Questo non è passato inosservato alla malavita.

All’inizio di quest’anno, un dipendente di Hong Kong è stato truffato per 25 milioni di dollari dopo che i criminali informatici hanno usato un deepfake del direttore finanziario dell’azienda per convincere il dipendente a trasferire il denaro sul conto del truffatore. “Abbiamo visto che i deepfake vengono persino commercializzati nella clandestinità”, afferma Ciancaglini. Il suo team ha trovato persone che su piattaforme come Telegram mostravano il loro “portfolio” di deepfakes e vendevano i loro servizi per appena 10 dollari per immagine o 500 dollari per minuto di video. Secondo Ciancaglini, uno dei personaggi più gettonati dai criminali per i deepfake è Elon Musk.

Mentre i video deepfake restano complicati da realizzare e più facili da individuare per gli esseri umani, non è così per i deepfake audio. Sono economici da realizzare e richiedono solo un paio di secondi della voce di qualcuno – presa, ad esempio, dai social media – per generare qualcosa di spaventosamente convincente.

Negli Stati Uniti si sono verificati casi eclatanti in cui le persone hanno ricevuto telefonate angoscianti da parte di persone care che dicevano di essere state rapite e chiedevano denaro per essere liberate, salvo poi scoprire che il chiamante era un truffatore che utilizzava una registrazione vocale falsa.

“Le persone devono essere consapevoli che ora queste cose sono possibili e che oggi il re nigeriano non parla più in un inglese stentato”, dice Ciancaglini. “Le persone possono chiamarti con un’altra voce e possono metterti in una situazione molto stressante”, aggiunge.

Ci sono alcuni modi per proteggersi, dice. Ciancaglini consiglia di concordare tra i propri cari una parola di sicurezza segreta che cambia regolarmente e che può aiutare a confermare l’identità della persona all’altro capo del filo.

“Ho protetto mia nonna con una password”, dice. 

Superare i controlli d’identità

Un altro modo in cui i criminali utilizzano i deepfake è quello di aggirare i sistemi di verifica “know your customer”. Le banche e le borse di criptovalute utilizzano questi sistemi per verificare che i loro clienti siano persone reali. Essi richiedono ai nuovi utenti di scattarsi una foto con in mano un documento d’identità fisico davanti a una macchina fotografica. Ma i criminali hanno iniziato a vendere applicazioni su piattaforme come Telegram che consentono di aggirare questo requisito.

Funzionano offrendo un documento d’identità falso o rubato e imponendo un’immagine deepfake sopra il volto di una persona reale per ingannare il sistema di verifica della fotocamera di un telefono Android. Ciancaglini ha trovato esempi di persone che offrono questi servizi al sito web di criptovalute Binance per un prezzo di soli 70 dollari.

“Sono ancora piuttosto elementari”, dice Ciancaglini. Le tecniche utilizzate sono simili ai filtri di Instagram, dove il volto di qualcun altro viene scambiato con il proprio.

“Quello che possiamo aspettarci in futuro è che [i criminali] utilizzino veri e propri deepfake… in modo da poter effettuare autenticazioni più complesse”, afferma.

Un esempio di documento d’identità rubato e di un criminale che utilizza la tecnologia di scambio di volti per aggirare i sistemi di verifica dell’identità.

Jailbreak-as-a-service

Se chiedete alla maggior parte dei sistemi di intelligenza artificiale come si costruisce una bomba, non otterrete una risposta utile.

Questo perché le aziende di IA hanno messo in atto diverse misure di salvaguardia per evitare che i loro modelli diffondano informazioni dannose o pericolose. Invece di costruire i propri modelli di IA senza queste protezioni, cosa costosa, lunga e difficile, i criminali informatici hanno iniziato ad abbracciare una nuova tendenza: il jailbreak-as-a-service.

La maggior parte dei modelli prevede delle regole per il loro utilizzo. Il jailbreak consente agli utenti di manipolare il sistema di intelligenza artificiale per generare risultati che violano tali regole, ad esempio per scrivere codice per il ransomware o generare testo che potrebbe essere utilizzato in e-mail di truffa.

Servizi come EscapeGPT e BlackhatGPT offrono accesso anonimo alle API dei modelli linguistici e alle richieste di jailbreak che si aggiornano frequentemente. Per contrastare questa crescente industria, le aziende di IA come OpenAI e Google devono spesso colmare le lacune di sicurezza che potrebbero consentire l’abuso dei loro modelli.

I servizi di jailbreak utilizzano diversi trucchi per aggirare i meccanismi di sicurezza, come porre domande ipotetiche o in lingua straniera. C’è un continuo gioco al gatto e al topo tra le aziende di intelligenza artificiale che cercano di evitare che i loro modelli si comportino male e gli attori malintenzionati che propongono richieste di jailbreak sempre più creative.

Secondo Ciancaglini, questi servizi sono il punto di forza dei criminali.

“Tenere il passo con i jailbreak è un’attività noiosa. Se ne inventa uno nuovo, bisogna testarlo, funziona per un paio di settimane e poi OpenAI aggiorna il suo modello”, aggiunge. “Il jailbreak è un servizio molto interessante per i criminali”.

Doxing e sorveglianza

I modelli linguistici di intelligenza artificiale sono uno strumento perfetto non solo per il phishing, ma anche per il doxing (rivelazione di informazioni private e identificative su qualcuno online), afferma Balunović. Questo perché i modelli linguistici dell’intelligenza artificiale sono addestrati su grandi quantità di dati Internet, compresi quelli personali, e possono dedurre, ad esempio, dove si trova una persona.

A titolo di esempio, si potrebbe chiedere a un chatbot di fingere di essere un investigatore privato esperto in profiling. Poi gli si potrebbe chiedere di analizzare il testo scritto dalla vittima e di dedurre informazioni personali da piccoli indizi presenti nel testo, ad esempio la sua età in base a quando ha frequentato le scuole superiori o il luogo in cui vive in base ai punti di riferimento che cita durante il tragitto. Più informazioni ci sono su Internet, più la vittima è vulnerabile all’identificazione.

Balunović faceva parte di un team di ricercatori che alla fine dell’anno scorso ha scoperto che i modelli linguistici di grandi dimensioni, come GPT-4, Llama 2 e Claude, sono in grado di dedurre informazioni sensibili come l’etnia, la posizione e l’occupazione delle persone solo da conversazioni banali con un chatbot. In teoria, chiunque abbia accesso a questi modelli potrebbe utilizzarli in questo modo.

Da quando è stato pubblicato il loro articolo, sono nati nuovi servizi che sfruttano questa caratteristica dei modelli linguistici.

Sebbene l’esistenza di questi servizi non sia indice di attività criminali, evidenzia le nuove capacità su cui potrebbero mettere le mani gli attori malintenzionati. E se le persone normali possono costruire strumenti di sorveglianza come questi, probabilmente gli attori statali hanno sistemi molto migliori, dice Balunović.

“L’unico modo per prevenire queste cose è lavorare sulle difese”, afferma.

Le aziende dovrebbero investire nella protezione e nella sicurezza dei dati, aggiunge.

Per i singoli individui è fondamentale una maggiore consapevolezza. Le persone dovrebbero pensare due volte a ciò che condividono online e decidere se sono a proprio agio con l’utilizzo dei loro dati personali nei modelli linguistici, afferma Balunović.

Related Posts
Total
0
Share