MITTR | GETTY

Cosa c’è di nuovo sui chip

Come Big Tech, startup, dispositivi AI e guerre commerciali trasformeranno il modo in cui vengono prodotti i chip e le tecnologie che essi alimentano.

Grazie al boom dell’intelligenza artificiale, il mondo dei chip è sulla cresta dell’onda. La domanda di chip in grado di addestrare più velocemente i modelli di intelligenza artificiale e di trasmetterli da dispositivi come smartphone e satelliti è in aumento, consentendoci di utilizzare questi modelli senza divulgare dati privati. I governi, i giganti tecnologici e le startup stanno facendo a gara per ritagliarsi le loro fette della crescente torta dei semiconduttori.

Ecco quattro tendenze da tenere d’occhio nell’anno a venire che definiranno l’aspetto dei chip del futuro, chi li produrrà e quali nuove tecnologie sbloccheranno.

CHIPS Act nel mondo

Alla periferia di Phoenix, due dei maggiori produttori di chip al mondo, TSMC e Intel, stanno facendo a gara per costruire nel deserto dei campus che sperano diventino le sedi delle eccellenze americane nel campo dei chip. Una cosa che accomuna questi sforzi è il finanziamento: a marzo, il presidente Joe Biden ha annunciato 8,5 miliardi di dollari di fondi federali diretti e 11 miliardi di dollari di prestiti per le espansioni di Intel in tutto il Paese. Settimane dopo, sono stati annunciati altri 6,6 miliardi di dollari per TSMC.

I premi sono solo una parte delle sovvenzioni che gli Stati Uniti stanno erogando all’industria dei chip attraverso il CHIPS and Science Act da 280 miliardi di dollari firmato nel 2022. Questo significa che tutte le aziende che hanno un piede nell’ecosistema dei semiconduttori stanno analizzando come ristrutturare le loro catene di fornitura per beneficiare dei fondi. Sebbene gran parte del denaro sia destinato a potenziare la produzione americana di chip, c’è spazio anche per altri attori, dai produttori di apparecchiature alle startup di nicchia che si occupano di materiali.

Ma gli Stati Uniti non sono l’unico Paese che sta cercando di trasferire in loco parte della catena di approvvigionamento dei chip. Il Giappone sta spendendo 13 miliardi di dollari per il proprio equivalente del CHIPS Act, l’Europa spenderà più di 47 miliardi di dollari e all’inizio di quest’anno l’India ha annunciato uno sforzo di 15 miliardi di dollari per costruire impianti di chip locali. Secondo Chris Miller, professore alla Tufts University e autore di Chip War: The Fight for the World’s Most Critical Technology, le radici di questa tendenza risalgono al 2014. È allora che la Cina ha iniziato a offrire massicce sovvenzioni ai suoi produttori di chip.

“Questo ha creato una dinamica in cui gli altri governi hanno concluso di non avere altra scelta se non quella di offrire incentivi o vedere le aziende spostare la produzione in Cina”, afferma. Questa minaccia, unita all’aumento dell’IA, ha spinto i governi occidentali a finanziare alternative. Nel prossimo anno, questo potrebbe avere un effetto valanga, con un numero ancora maggiore di Paesi che avvieranno i propri programmi per paura di rimanere indietro.

Secondo Miller, è improbabile che il denaro porti alla nascita di nuovi concorrenti nel settore dei chip o che ristrutturi radicalmente i principali operatori del settore. Al contrario, incentiverà soprattutto gli operatori dominanti come TSMC a stabilire radici in più paesi. Ma i finanziamenti da soli non saranno sufficienti per farlo rapidamente: gli sforzi di TSMC per costruire impianti in Arizona si sono arenati in scadenze non rispettate e controversie di lavoro, e Intel non ha rispettato le scadenze promesse. E non è chiaro se, quando gli impianti saranno operativi, le loro attrezzature e la loro manodopera saranno in grado di produrre lo stesso livello di chip avanzato che le aziende mantengono all’estero.

“La catena di approvvigionamento si sposterà solo lentamente, nell’arco di anni e decenni”, afferma Miller. “Ma si sta spostando”.

Più IA ai margini

Attualmente, la maggior parte delle nostre interazioni con i modelli di intelligenza artificiale come ChatGPT avviene tramite il cloud. Ciò significa che quando chiedete a GPT di scegliere un vestito (o di essere il vostro fidanzato), la vostra richiesta viene inoltrata ai server di OpenAI e il modello ospitato lì la elabora e trae conclusioni (note come “inferenza”) prima di inviarvi una risposta. Affidarsi al cloud ha alcuni svantaggi: richiede l’accesso a Internet, per esempio, e significa anche che alcuni dei vostri dati sono condivisi con il creatore del modello. 

Ecco perché c’è stato molto interesse e investimenti nell’edge computing per l’IA, dove il processo di ping del modello di IA avviene direttamente sul dispositivo dell’utente, come un laptop o uno smartphone. Poiché l’industria sta lavorando sempre più per un futuro in cui i modelli di IA conoscono molto di noi (Sam Altman mi ha descritto la sua applicazione di IA killer come un’applicazione che sa “assolutamente tutto della mia vita, ogni email, ogni conversazione che ho avuto”), c’è una richiesta di chip “edge” più veloci che possano eseguire i modelli senza condividere dati privati. Questi chip sono soggetti a vincoli diversi da quelli dei centri dati: in genere devono essere più piccoli, più economici e più efficienti dal punto di vista energetico.

Il Dipartimento della Difesa degli Stati Uniti sta finanziando molte ricerche sull’edge computing veloce e privato. A marzo, la sua ala di ricerca, la Defense Advanced Research Projects Agency (DARPA), ha annunciato una partnership con il produttore di chip EnCharge AI per creare un chip di edge computing ultra-potente utilizzato per l’inferenza AI. EnCharge AI sta lavorando per realizzare un chip che consenta una maggiore privacy ma che possa anche funzionare con pochissima energia. Questo lo renderà adatto ad applicazioni militari come i satelliti e le apparecchiature di sorveglianza off-grid. L’azienda prevede di distribuire i chip nel 2025.

I modelli di IA si affideranno sempre al cloud per alcune applicazioni, ma i nuovi investimenti e l’interesse per il miglioramento dell’edge computing potrebbero portare chip più veloci, e quindi più IA, nei nostri dispositivi di tutti i giorni. Se i chip edge diventeranno sufficientemente piccoli ed economici, è probabile che vedremo ancora più “dispositivi intelligenti” guidati dall’IA nelle nostre case e nei luoghi di lavoro. Oggi i modelli di IA sono per lo più limitati ai centri dati.

“Molte delle sfide che vediamo nel data center saranno superate”, afferma Naveen Verma, cofondatore di EnCharge AI. “Mi aspetto di vedere una grande attenzione all’edge. Penso che sarà fondamentale per ottenere l’AI su scala”.

Big Tech entra nella mischia della produzione di chip

In settori che vanno dal fast fashion alla cura dei prati, le aziende pagano cifre esorbitanti in termini di costi informatici per creare e addestrare modelli di intelligenza artificiale per le loro attività. Tra gli esempi vi sono i modelli che i dipendenti possono usare per scannerizzare e riassumere i documenti, nonché le tecnologie rivolte all’esterno, come gli agenti virtuali che possono guidarvi nella riparazione del vostro frigorifero rotto. Ciò significa che la domanda di cloud computing per addestrare questi modelli è alle stelle.

Le aziende che forniscono la maggior parte di questa potenza di calcolo sono Amazon, Microsoft e Google. Per anni questi giganti della tecnologia hanno sognato di aumentare i loro margini di profitto producendo internamente i chip per i loro data center piuttosto che acquistarli da aziende come Nvidia, un gigante con un quasi monopolio sui chip più avanzati per l’addestramento dell’intelligenza artificiale e un valore superiore al PIL di 183 Paesi.

Amazon ha iniziato il suo impegno nel 2015, acquisendo la startup Annapurna Labs. Google si è mossa successivamente nel 2018 con i propri chip chiamati TPU. Microsoft ha lanciato i suoi primi chip AI a novembre e Meta ha presentato una nuova versione dei propri chip di addestramento AI ad aprile.

AP PHOTO/ERIC RISBERG

Questa tendenza potrebbe far pendere la bilancia dalla parte di Nvidia. Ma Nvidia non gioca solo il ruolo di rivale agli occhi delle Big Tech: indipendentemente dai loro sforzi interni, i giganti del cloud hanno ancora bisogno dei suoi chip per i loro data center. Questo in parte perché i loro sforzi di produzione di chip non sono in grado di soddisfare tutte le loro esigenze, ma anche perché i loro clienti si aspettano di poter utilizzare i chip Nvidia di alta gamma.

“Si tratta di dare ai clienti la possibilità di scegliere”, afferma Rani Borkar, responsabile delle attività hardware di Microsoft Azure. Afferma di non poter immaginare un futuro in cui Microsoft fornisca tutti i chip per i suoi servizi cloud: “Continueremo le nostre forti collaborazioni e distribuiremo i chip di tutti i partner di silicio con cui lavoriamo”.

Mentre i giganti del cloud computing cercano di sottrarre un po’ di quote di mercato ai produttori di chip, Nvidia sta cercando di fare il contrario. L’anno scorso l’azienda ha avviato un proprio servizio di cloud computing, in modo che i clienti possano evitare Amazon, Google o Microsoft e ottenere tempo di calcolo direttamente sui chip Nvidia. In questa drammatica lotta per le quote di mercato, l’anno prossimo si deciderà se i clienti vedranno i chip di Big Tech come simili ai chip più avanzati di Nvidia o più simili ai loro cugini minori.

Nvidia lotta contro le startup

Nonostante il dominio di Nvidia, c’è un’ondata di investimenti verso le startup che mirano a superarla in alcune fette del mercato dei chip del futuro. Tutte queste startup promettono un addestramento dell’intelligenza artificiale più veloce, ma hanno idee diverse su quale tecnologia di calcolo le porterà a questo risultato, dalla quantistica alla fotonica al calcolo reversibile.

Ma Murat Onen, il 28enne fondatore di una di queste startup di chip, Eva, nata dal suo lavoro di dottorato al MIT, non ha peli sulla lingua su cosa significhi avviare un’azienda di chip in questo momento.

“Il re della collina è Nvidia, e questo è il mondo in cui viviamo”, afferma.

Molte di queste aziende, come SambaNova, Cerebras e Graphcore, stanno cercando di cambiare l’architettura di base dei chip. Immaginate un chip acceleratore di intelligenza artificiale che deve continuamente spostare i dati da un’area all’altra: un’informazione viene memorizzata nella zona di memoria, ma deve passare alla zona di elaborazione, dove viene eseguito un calcolo, per poi essere riportata nella zona di memoria per essere conservata. Tutto questo richiede tempo ed energia.

Rendere questo processo più efficiente consentirebbe di fornire ai clienti un addestramento all’intelligenza artificiale più rapido e meno costoso, ma solo se il produttore di chip dispone di un software sufficientemente buono da consentire all’azienda di addestramento all’intelligenza artificiale di passare senza problemi al nuovo chip. Se la transizione del software è troppo complicata, è probabile che i produttori di modelli come OpenAI, Anthropic e Mistral rimangano fedeli ai grandi produttori di chip. Ciò significa che le aziende che adottano questo approccio, come SambaNova, dedicano molto tempo non solo alla progettazione dei chip, ma anche a quella del software.

Onen propone cambiamenti più profondi. Al posto dei transistor tradizionali, che nel corso dei decenni hanno garantito una maggiore efficienza diventando sempre più piccoli, Onen sta utilizzando un nuovo componente chiamato transistor proton-gated che, a suo dire, è stato progettato specificamente per le esigenze matematiche dell’addestramento dell’intelligenza artificiale. Permette ai dispositivi di memorizzare ed elaborare i dati nello stesso luogo, risparmiando tempo ed energia di calcolo. L’idea di utilizzare un componente di questo tipo per l’inferenza dell’intelligenza artificiale risale agli anni ’60, ma i ricercatori non sono mai riusciti a capire come utilizzarlo per l’addestramento dell’intelligenza artificiale, in parte a causa di un ostacolo legato ai materiali: è necessario un materiale che possa, tra le altre qualità, controllare con precisione la conduttività a temperatura ambiente.

Un giorno in laboratorio, “ottimizzando questi numeri e avendo molta fortuna, abbiamo ottenuto il materiale che volevamo”, dice Onen. “All’improvviso, il dispositivo non è più un progetto da fiera della scienza”. Ciò ha sollevato la possibilità di utilizzare questo componente su scala. Dopo mesi di lavoro per confermare la correttezza dei dati, Onen ha fondato Eva e il lavoro è stato pubblicato su Science.

Ma in un settore in cui tanti fondatori hanno promesso – e fallito – di rovesciare il dominio dei principali produttori di chip, Onen ammette francamente che ci vorranno anni prima di sapere se il progetto funziona come previsto e se i produttori accetteranno di produrlo. Guidare un’azienda attraverso questa incertezza, dice, richiede flessibilità e un’attitudine allo scetticismo da parte degli altri.

“Penso che a volte le persone si sentano troppo attaccate alle loro idee, e poi si sentano insicure del fatto che, se questa cosa sparisce, non ci sarà nulla di successivo”, dice. “Non credo di sentirmi così. Sono ancora alla ricerca di persone che ci sfidino e dicano che questo è sbagliato”.

Related Posts
Total
0
Share