In che modo Apple personalizza Siri senza salvare i dati dell’utente

Il gigante della tecnologia sta utilizzando l’apprendimento automatico per preservare la privacy e allo stesso tempo migliorare le prestazioni del proprio assistente vocale, mantenendo i dati sul telefono.

di Karen Hao

Chi ha un iPhone, potrebbe aver notato un cambiamento nel comportamento di Siri nell’ultimo anno. L’assistente vocale al telefono si “sveglia” quando dici “Ehi Siri”, ma non quando la stessa frase viene dagli amici o da qualche familiare.

La ragione per cui Apple è intervenuta sembra ragionevole: voleva un modo per impedire a tutti gli iPhone in una stanza di rispondere quando una persona pronuncia una determinata frase. Si potrebbe pensare che Apple debba raccogliere molti dati audio personali per farlo. Non è così.

Come ha spiegato il responsabile della privacy di Apple, Julien Freudiger, alla conferenza Neural Processing Information Systems, il sistema si basa, invece, su una tecnica chiamata apprendimento federato. Si tratta di un metodo di apprendimento automatico introdotto per la prima volta da Google nel 2017, che preserva la privacy addestrando diverse copie di un modello di riconoscimento degli altoparlanti su tutti i dispositivi dei suoi utenti e utilizzando solo i dati audio disponibili localmente.

Il sistema poi invia solo i modelli aggiornati a un server centrale per essere combinati in un modello principale. In questo modo, l’audio non elaborato delle richieste Siri degli utenti non lascia mai i loro iPhone e iPad, ma l’assistente diventa sempre più in grado di identificare l’altoparlante giusto.

Oltre all’apprendimento federato, Apple utilizza anche qualcosa chiamato privacy differenziale per aggiungere un ulteriore livello di protezione. La tecnica “inietta” una piccola quantità di rumore in qualsiasi dato non elaborato prima che venga immesso in un modello di apprendimento automatico locale. Il passaggio aggiuntivo rende estremamente difficile per gli attori malintenzionati l’ingegnerizzazione inversa dei file audio originali dal modello addestrato.

Sebbene Apple utilizzi la privacy differenziale dal 2017, è stata combinata con l’apprendimento federato solo a partire da iOS 13, che è stato presentato al pubblico a settembre di quest’anno. Oltre a personalizzare Siri, entrambe le tecniche vengono ora utilizzate anche per alcune altre applicazioni, tra cui QuickType (tastiera personalizzata di Apple) e la funzionalità Found In Apps, che analizza le app di calendario e posta elettronica per i numeri che non sono riconosciuti dal telefono dell’utente. Freudiger ha dichiarato che l’azienda prevede di implementare presto i metodi di privacy su più app e funzionalità.

Nell’ultimo anno, l’apprendimento federato è diventato sempre più popolare all’interno della comunità di ricerca sull’intelligenza artificiale poiché sono aumentate le polemiche sulla privacy dei dati. A marzo, Google ha rilasciato un nuovo set di strumenti per facilitare l’implementazione dei suoi modelli di apprendimento federativi. Tra gli altri usi, i ricercatori sperano che possa aiutare a superare le sfide poste dalla privacy nell’applicazione dell’IA alle cure sanitarie. Aziende come Owkin, Doc.ai e Nvidia sono interessate a questo tipo di utilizzo.

Mentre la tecnica è ancora relativamente nuova e necessita di ulteriori perfezionamenti, l’ultima adozione di Apple offre la possibilità di approfondire su come possa essere applicato su larga scala. Inoltre segna un cambiamento fondamentale nel trade-off che l’industria tecnologica ha tradizionalmente stabilito tra privacy e utilità: ora sono due obiettivi da raggiungere nello stesso tempo.

Immagine: Getty / MIT Technology Review

(rp)

Related Posts
Total
0
Share