Come sfruttare la potenza di calcolo inutilizzata delle data warehouse

Sentient ha creato un sistema di apprendimento automatico con cui rivaleggiare con Google sfruttando la potenza di calcolo di computer inutilizzati.

di Tom Simonite

I recenti sviluppi nel riconoscimento vocale e facciale derivano dalla costruzione, da parte di società quali Google, di computer più grandi e potenti con cui operare software di apprendimento automatico. Ora, Sentient, una piccola società privata con appena 70 dipendenti, sostiene di poter costruire sistemi di calcolo persino più grandi con cui operare software di intelligenza artificiale.

L’approccio della società potrebbe non essere compatibile con tutte le forme di apprendimento automatico, una tecnologia che trova applicazioni differenti come il riconoscimento e le operazioni finanziarie. Sentient non ha fornito particolari, ma sostiene di aver saputo mettere assieme abbastanza potenza di calcolo da poter produrre notevoli risultati.

La forza di Sentient sta nel collegare con Internet centinaia di migliaia di computer perché lavorino assieme come una sola macchina. La società non ha descritto esattamente dove si trovino i vari computer sui quali fa affidamento, ma stando a Babak Hodjat, co-fondatore e chief scientist di Sentient, molti di questi si troverebbero all’interno dei data center che alimentano servizi Internet quali siti web ed app mobile.

I data center ospitano spesso un gran numero di computer inutilizzati in quanto pensati per gestire picchi di domanda, come nel periodo dei saldi di un Black Friday. Sentient ha sviluppato un software che connette, attraverso Internet, fra loro le macchine situate in luoghi differenti e fa in modo che operino un software di apprendimento automatico come se fossero un unico computer. Questo software è pensato per cercare di tenere crittografati i dai ai quali sta lavorando la società.

Stando ad Adam Beberg, il principale architetto per le elaborazioni distribuite della società, Sentient sarebbe in grado di mettere al lavoro fino a un milione di core, e di concentrarli sulla risoluzione di un unico problema anche per mesi. I più grandi sistemi di apprendimento automatico di Google non arrivano a una simile dimensione, dice. Un portavoce di Google ha rifiutato di condividere alcuni dettagli sull’infrastruttura della società e precisato che i risultati conseguiti ricorrendo all’apprendimento automatico sono più importanti delle dimensioni del computer alle loro spalle. Google utilizza ampiamente l’apprendimento automatico, in aree che spaziano dalla ricerca, al riconoscimento vocale, alle pubblicità mirate.

Beberg ha contribuito allo sviluppo dell’idea di connettere computer differenti per farli lavorare allo stesso problema (vedi “Innovators Under 35: 1999”). È stato il fondatore di Distributed.net, uno dei primi progetti a dimostrate il concetto su larga scala. La sua tecnologia avrebbe portato a sforzi quali Seti@Home e Folding@Home, in cui milioni di persone avrebbero installato un software sul proprio PC affinché contribuisse nella ricerca di forme di vita aliena o alle ricerche nella biologia molecolare.

Sentient è stata fondata nel 2007 ed ha ricevuto oltre $140 milioni in fondi di investimento, con gli ultimi $100 milioni ricevuti solamente lo scorso anno. La società si è finora concentrata sull’utilizzo della propria tecnologia per alimentare una tecnica di apprendimento automatico conosciuta come algoritmi evoluzionari. La tecnica comporta “l’accoppiamento” fra una soluzione ed un problema partendo da una popolazione iniziale di svariati algoritmi leggermente differenti fra loro. Gli algoritmi più performanti della prima generazione vengono utilizzati per formare la base di quella successiva, e con il susseguirsi di generazioni più efficaci si ottengono soluzioni sempre migliori.

Al momento la società trae qualche guadagno dalla gestione di algoritmi di trading finanziari creati utilizzando per mesi i suoi processi evoluzionari su centinaia di migliaia di processori. La società, però, intende utilizzare la sua infrastruttura per offrire servizi mirai a industrie quali quella sanitarie o del commercio online, spiega Hodjat. Teoricamente, le società che operano in quelle industrie pagherebbero Sentient per i suoi prodotti.

Hodjat non ci ha offerto ulteriori indizi su cosa esattamente potrebbero essere i prodotti preparati dalla società. Sentient ha effettuato ricerche con l’Università di Toronto e il MIT per creare software in grado di prevedere lo sviluppo di sepsi in unità di cura intensiva partendo da dati quali la pressione sanguigna e altri indicatori vitali, spiega Hodjat. I risultati avrebbero mostrato che il software è in grado di rilevare, con una precisione dle 90 percento, una sepsi in via di sviluppo e far scattare un segnale di allerta 30 minuti prima, ma la società ha deciso di non commercializzare questo lavoro.

Più di recente, Sentient ha cercato di adattare il suo approccio all’apprendimento approfondito. In aree quali il riconoscimento vocale, nell’ultimo periodo questa tecnica ha raggiunto importanti traguardi, ed è ora al centro degli sforzi di società come Google, Facebook e Baidu (vedi “Le magnifiche dieci: Odissea nel cervello”). Alcuni fra i risultati migliori nell’apprendimento approfondito derivano dall’impiego di software su computer molto potenti e specializzati.

Reza Zadeh, un professore consulente presso l’Università di Stanford che sta lavorando per potenziare la portata dell’apprendimento automatico, sostiene che l’utilizzo di una grande raccolta di computer situati in luoghi differenti può funzionare bene su alcuni problemi – ma non tutti.

Il sistema è particolarmente efficace quando un compito può essere suddiviso in piccole parti che i singoli computer possono affrontare senza dover comunicare tanto tramite Internet, un aspetto del processo che può risultare relativamente lento. Alcuni dei sistemi più promettenti per potenziare l’apprendimento automatico richiedono però una comunicazione frequente fra processori differenti, spiega Zadeh.

Google e Baidu hanno descritto risultati notevoli nel riconoscimento vocale e delle immagini utilizzando grandi raccolte di dati o costruendo reti neurali artificiali più grandi. Entrambi gli approcci richiedono un flusso di dati costante fra i vari processori.

Berberg concorda che l’apprendimento approfondito sia più difficile da adattare a un sistema con centinaia di migliaia di computer connessi tramite Internet, ma sostiene che Sentient stia facendo buoni progressi a riguardo, con migliaia di processori simultaneamente al lavoro sull’apprendimento approfondito.

(MO)

Related Posts
Total
0
Share