L’ascesa dell’intelligenza artificiale crea un nuovo e florido mercato dei chip

Carlo Bozotti, Presidente e CEO di STMicroelectronics, tratta alcuni degli effetti meno discussi dell’imminente ingresso di intelligenza artificiale e sistemi di elaborazione cognitiva nel Cloud.

di Carlo Bozotti

Partendo da un articolo dell’Economist che tratta le conseguenze della legge di Moore sul mercato principale di Intel e l’ascesa di nuove società quali Nvidia grazie alla maggiore compatibilità dei suoi processori con i requisiti di intelligenze artificiali e sistemi di calcolo cognitivo avanzati, Carlo Bozotti, Presidente e CEO di STMicroelectronics offre uno spunto ulteriore sull’argomento e accenna ad alcuni elementi fondamentali di quella che, per l’industria dei semiconduttori, sarà una profonda rivoluzione.

I processori convenzionali non sono più in grado di avanzare allo stesso passo delle tecniche di apprendimento automatico e dell’intelligenza artificiale, che gestiscono enormi quantità di dati e consumano molta più potenza di calcolo rispetto ai data center di qualche anno fa.

L’industria dei semiconduttori e il mercato dei servizi Cloud stanno assistendo alla diffusione di processori specializzati, conosciuti come “acceleratori” (ASIC, FPGA …), che permettono di elaborare e gestire le crescenti quantità di dati prima di trasferirli alle operazioni gestite dalle più comuni CPU.

Per quanto ST non sia coinvolta nel business dei “grandi processori” trattati in questo articolo dell’Economist, condividiamo le stesse visioni sui concetti chiave, specialmente per quanto riguarda l’uso di processori specializzati nella gestione di apprendimento automatico ed applicazioni per intelligenze artificiali (AI).

Con l’aumentare del numero di dispositivi connessi all’Internet of Things, la quantità e complessità di dati da gestire crescerà notevolmente. Questo effetto avrà un impatto sull’intera rete, sia in termini di larghezza di che di capacità di calcolo richiesta per elaborare i dati. Una conseguenza importante cui avremo modo di assistere, e che non viene discussa nell’articolo, è il fatto che emergerà una tendenza ad avvicinare AI ed elaborazione cognitiva alla sorgente dei dati.

L’infrastruttura del Cloud beneficerebbe enormemente dalla distribuzione di capacità di calcolo spinte da AI lungo le estremità della rete per elaborare dati e prendere decisioni in ambienti più localizzati. Questa operazione ridurrebbe significativamente la quantità di dati condivisi con il resto del Cloud e permetterebbe a strumenti e nodi IoT di divenire più intelligenti.

Stiamo osservando il formarsi di forti sinergie che possono essere sfruttate abbinando AI e funzioni cognitive a sistemi di rilevamento avanzati ed elementi distribuiti di elaborazione incorporata. Questa sinergia accrescerà il valore dei dati nel momento e nel luogo in cui verranno generati e catturati, ottimizzando il modo in cui potranno essere sfruttati, distribuiti e potenziati tramite applicazioni e servizi.

Per ottenere un simile risultato occorrono anche miglioramenti nei metodi di elaborazione e nelle architetture incorporati nei sistemi. Presso l’ST Research Labs abbiamo condotto analisi approfondite e dimostrato come le giuste scelte architettoniche possono incorporare efficacemente soluzioni scalabili a supporto di sistemi incorporati di AI ed apprendimento approfondito. Soluzioni simili possono garantire un consumo energetico fino a due ordini di magnitudo inferiori rispetto ai convenzionali approcci basati sui server.

Crediamo pertanto che il supporto dell’AI al nodo o al portale avrà effetti estremamente benefici sui servizi Cloud e sui server associati, visto che riceveranno dati pre-elaborati e le semantiche associate riducendo, allo stesso tempo, la quantità di dati da trasferire e i requisiti in termini di infrastruttura per le comunicazioni.

Related Posts
Total
0
Share