Ingannare l’IA, per renderla più sicura

Con la tecnica degli attacchi antagonistici, vale a dire la manipolazione di dati di input per ingannare le reti neurali , Bo Li e i suoi colleghi dell’University of Illinois, a Urbana Champaign, cercano di impedire che le reti neurali vengano indotte all’errore nel riconoscimento delle immagini.

di Will Douglas Heaven

Alcuni anni fa, Bo Li e i suoi colleghi hanno apposto piccoli adesivi in bianco e nero su un segnale di stop in un modello simile a un graffito che passavano inosservati agli occhi umani e non oscuravano le chiare lettere del segno. Tuttavia, la disposizione è stata volutamente progettata in modo tale che se un veicolo autonomo si avvicinava, le reti neurali che alimentavano il suo sistema di visione avrebbero letto male il segnale di stop che indicava un limite di velocità di 70 km all’ora.

Li è stata una dei primi a dimostrare che simili attacchi erano possibili nel mondo fisico. Possono essere difficili da rilevare per un’intelligenza artificiale perché i metodi sviluppati per individuare immagini digitali manipolate non funzionano su oggetti fisici.

Li ha anche escogitato sottili cambiamenti nelle caratteristiche degli oggetti fisici, come la forma e la struttura, che sono impercettibili per l’uomo, ma possono rendere gli oggetti invisibili agli algoritmi di riconoscimento delle immagini. Il suo obiettivo è quello di utilizzare queste conoscenze per rispondere ai potenziali attacchi antagonistici e rendere in tal modo l’IA più solida. 

La ricercatrice cinese armonizza i diversi sistemi di intelligenza artificiale, usando una rete neurale per identificare e sfruttare le vulnerabilità nell’altra. Questo processo aiuta a mettere in evidenza difetti nella formazione o nella struttura della rete target. Li sviluppa quindi strategie per correggere questi difetti e difendersi da attacchi futuri.

Gli attacchi antagonistici possono ingannare anche altri tipi di reti neurali, non solo algoritmi di riconoscimento delle immagini. Modifiche impercettibili all’audio, per esempio, possono far sì che un assistente vocale fraintenda ciò che sente. Alcune delle tecniche di Li sono già utilizzate in applicazioni commerciali. IBM li usa per proteggere Watson, il suo sistema di intelligenza artificale, e Amazon per proteggere Alexa. Alcune aziende produttrici di veicoli autonomi le applicano per migliorare la solidità dei propri modelli di apprendimento automatico.

Immagine: Bo Li

(rp)

Related Posts
Total
0
Share