L’esercito americano sta creando robot in grado di seguire gli ordini

Per essere utili compagni di squadra, i robot devono essere in grado di comprendere ciò che viene loro chiesto di fare ed eseguirlo con una supervisione minima.

di David Hambling

I robot militari sono sempre stati piuttosto stupidi. Il PackBot che l’esercito americano utilizza per le ispezioni e lo smaltimento delle bombe, per esempio, non ha praticamente alcuna intelligenza a bordo ed è pilotato dal telecomando. Ciò che l’esercito ha desiderato a lungo invece sono robot intelligenti e autonomi che seguano gli ordini.

Il laboratorio di ricerca dell’esercito ha sviluppato un software che consente ai robot di comprendere le istruzioni verbali, svolgere un’attività e riferire. I potenziali vantaggi sono enormi. Un robot in grado di comprendere i comandi e avere un certo grado di intelligenza meccanica potrebbe, in futuro, stare davanti alle truppe e controllare la presenza di ordigni esplosivi improvvisati (IED) o eventuali imboscate, riducendo al tempo stesso il numero di soldati umani necessari sul terreno.

“Anche le auto a guida autonoma non hanno un livello sufficientemente alto di comprensione per essere in grado di seguire le istruzioni di un’altra persona e svolgere una missione complessa”, afferma Nicholas Roy del MIT, che faceva parte del team dietro il progetto. “Ma il nostro robot può fare esattamente questo”.

Roy ha lavorato sul problema nell’ambito della Robotics Collaborative Technology Alliance, un progetto decennale condotto dall’Army Research Laboratory (ARL). Il team del progetto comprendeva ricercatori del MIT e della Carnegie Mellon che lavoravano a fianco di istituzioni governative come il Jet Propulsion Laboratory della NASA e aziende di robotica come Boston Dynamics.

Il programma è terminato il mese scorso, con una serie di eventi per mostrare i risultati del lavoro. Un certo numero di robot è stato messo alla prova, mostrando le loro abilità di manipolazione, mobilità sugli ostacoli e capacità di seguire le istruzioni verbali.

“Il cane è un perfetto esempio di ciò a cui miriamo in termini di collaborazione con gli umani”, afferma il leader del progetto Stuart Young. Alla stregua dell’animale, il robot può rispondere a istruzioni verbali e interpretare i gesti, ma può anche essere controllato tramite un tablet e fornire dati sotto forma di mappe e immagini in modo che l’operatore possa vedere esattamente cosa c’è dietro, per esempio, un edificio.

Il team ha utilizzato un approccio ibrido per aiutare i robot a dare un senso al mondo che li circonda. L’apprendimento profondo è particolarmente efficace nel riconoscimento delle immagini, quindi algoritmi simili a quelli utilizzati da Google per riconoscere gli oggetti nelle foto consentono ai robot di identificare edifici, vegetazione, veicoli e persone. Ethan Stump, un esperto robotico della ARL, afferma che oltre a identificare oggetti interi, un robot che esegue il software è in grado di riconoscere elementi chiave come i fari e le ruote di un’auto, e capire di conseguenza la posizione e l’orientamento esatti dell’auto.

Oltre l’apprendimento approfondito per identificare un oggetto, il robot utilizza una base di conoscenza per estrarre informazioni più dettagliate che lo aiutano a eseguire gli ordini. Per esempio, quando identifica un oggetto come un’automobile, consulta una “enciclopedia” relativa alle automobili grazie alla quale viene a conoscenza del fatto che è un veicolo, ha delle ruote e un motore e così via. Queste informazioni devono essere codificate a mano e richiedono molto tempo per essere compilate; per questa ragione Stump afferma che il team sta cercando modi per semplificare la complessa procedura.

Anche altri ricercatori stanno affrontando sfide simili: il programma “Machine Common Sense” (MCS) di DARPA sta combinando l’apprendimento profondo con un approccio centrato sulla conoscenza in modo che un robot possa imparare e mostrare qualcosa di simile al giudizio umano.

Young fa l’esempio del comando “Vai dietro il camion più lontano a sinistra”. Oltre a riconoscere gli oggetti e le loro posizioni, il robot deve decifrare “dietro” e “a sinistra”, che dipendono dalla posizione di chi ha espresso l’ordine. La sua conoscenza approfondita dell’ambiente fornisce ulteriori indizi concettuali su come svolgere il suo compito.

Il robot può anche porre domande nel caso di frasi ambigue. Se gli viene detto di “andare dietro l’edificio”, potrebbe rispondere con: “Intendi l’edificio sulla destra?”.

“Abbiamo integrato le forme di base di tutti i pezzi necessari per farlo diventare un componente del gruppo”, afferma Stump. “Il robot può creare mappe, etichettare oggetti in quelle mappe, interpretare ed eseguire semplici comandi rispetto a tali oggetti e chiedere chiarimenti in caso di ambiguità nel comando”.

Quando si è trattato dell’evento finale, è stato utilizzato un robot Husky a quattro ruote per dimostrare quanto il software consentisse ai robot di comprendere le istruzioni. Due delle tre manifestazioni sono andate alla perfezione. Il robot ha dovuto essere riavviato durante il terzo quando il suo sistema di navigazione si è bloccato.

Come per i cani militari, afferma Young, la fiducia è la chiave per far lavorare insieme robot e umani. I soldati dovranno apprendere le capacità e i limiti del robot e, allo stesso tempo, la macchina imparerà la lingua e le procedure.

Ma restano altre due grandi sfide. Innanzitutto, il robot è attualmente troppo lento per l’uso pratico. In secondo luogo, deve essere molto più resistente. Tutti i sistemi di intelligenza artificiale possono sbagliare, ma i robot militari devono essere affidabili perché fronteggiano situazioni di vita o di morte. Queste sfide saranno affrontate in un programma ARL successivo.

Il lavoro dell’esercito potrebbe avere un impatto in tutto il mondo, secondo il team. Se i robot autonomi possono far fronte a complessi ambienti del mondo reale, lavorare a fianco degli umani e seguire le istruzioni vocali, avranno una miriade di usi, dall’industria e dall’agricoltura al fronte domestico.

Tuttavia, il coinvolgimento militare nel progetto suscita preoccupazioni per un esperto di robotica come Oren Etzioni, CEO dell’Allen Institute for Artificial Intelligence. “Gli attuali sistemi di intelligenza artificiale e robotica sono fragili e fonte di incomprensioni, si pensi ad Alexa o Siri”, afferma Etzioni. “Quindi, se li mettiamo sul campo di battaglia, spero che non venga fornita loro alcuna capacità distruttiva”.

Etzioni cita una serie di problemi associati a robot militari autonomi, come quello che succede quando un robot commette un errore o viene violato. Si chiede anche se i robot destinati a salvare vite potrebbero aumentare le probabilità di un conflitto. “Sono contrario ai robo-soldati autonomi fino a quando non avremo una migliore comprensione di questi problemi”, conclude Etzioni.

Immagine: Clearpath Robotics

(rp)

Related Posts
Total
0
Share