Stephanie Arnett / MIT Technology Review | Getty, Wikimedia Commons

Google dichiara di aver fatto una scoperta nel campo dell’informatica quantistica che riduce gli errori

La tecnica del codice di superficie dell’azienda consente ai bit quantistici di memorizzare e manipolare fedelmente i dati per un periodo più lungo, il che potrebbe aprire la strada a utili computer quantistici.

I ricercatori di Google sostengono di aver fatto un passo avanti nella correzione degli errori quantistici, che potrebbe aprire la strada a computer quantistici finalmente all’altezza delle promesse della tecnologia.

I sostenitori dei computer quantistici affermano che le macchine saranno in grado di favorire la scoperta scientifica in campi che vanno dalla fisica delle particelle alla progettazione di farmaci e materiali, se solo i costruttori riusciranno a far sì che l’hardware si comporti come previsto.

Una delle sfide principali è che i computer quantistici possono memorizzare o manipolare le informazioni in modo errato, impedendo loro di eseguire algoritmi abbastanza lunghi da essere utili. La nuova ricerca di Google Quantum AI e dei suoi collaboratori accademici dimostra che è possibile aggiungere componenti per ridurre questi errori. In precedenza, a causa delle limitazioni ingegneristiche, l’aggiunta di più componenti al computer quantistico tendeva a introdurre più errori. In definitiva, questo lavoro rafforza l’idea che la correzione degli errori sia una strategia praticabile per costruire un computer quantistico utile. Secondo il fisico Kenneth Brown della Duke University, che non ha partecipato alla ricerca, alcuni critici dubitavano che si trattasse di un approccio efficace.

“Questa roba di correzione degli errori funziona davvero e credo che migliorerà sempre di più”, ha scritto Michael Newman, un membro del team di Google, su X. (Google, che ha pubblicato la ricerca sul server di preprint arXiv in agosto, ha rifiutato di commentare per questa storia).

I computer quantistici codificano i dati utilizzando oggetti che si comportano secondo i principi della meccanica quantistica. In particolare, memorizzano le informazioni non solo come 1 e 0, come fa un computer convenzionale, ma anche in “sovrapposizioni” di 1 e 0. Memorizzare le informazioni sotto forma di queste sovrapposizioni e manipolarne il valore utilizzando interazioni quantistiche come l’entanglement (un modo per collegare le particelle anche a grandi distanze) consente di creare tipi di algoritmi completamente nuovi.

In pratica, però, gli sviluppatori di computer quantistici hanno scoperto che gli errori si insinuano rapidamente perché i componenti sono così sensibili. Un computer quantistico rappresenta 1, 0 o una sovrapposizione mettendo uno dei suoi componenti in un particolare stato fisico, ed è troppo facile alterare accidentalmente questi stati. Un componente finisce quindi in uno stato fisico che non corrisponde all’informazione che dovrebbe rappresentare. Questi errori si accumulano nel tempo, il che significa che il computer quantistico non è in grado di fornire risposte accurate per algoritmi lunghi senza correzione degli errori.

Per eseguire la correzione degli errori, i ricercatori devono codificare le informazioni nel computer quantistico in modo particolare. I computer quantistici sono costituiti da singoli componenti noti come qubit fisici, che possono essere realizzati con una varietà di materiali diversi, come singoli atomi o ioni. Nel caso di Google, ogni qubit fisico consiste in un minuscolo circuito superconduttore che deve essere mantenuto a una temperatura estremamente fredda.

I primi esperimenti sui computer quantistici memorizzavano ogni unità di informazione in un singolo qubit fisico. Ora i ricercatori, tra cui il team di Google, hanno iniziato a sperimentare la codifica di ogni unità di informazione in più qubit fisici. Si riferiscono a questa costellazione di qubit fisici come a un singolo qubit “logico”, che può rappresentare 1, 0 o una sovrapposizione dei due. Per questo motivo, il singolo qubit “logico” può conservare un’unità di informazione in modo più robusto di quanto possa fare un singolo qubit “fisico”. Il team di Google corregge gli errori nel qubit logico utilizzando un algoritmo noto come codice di superficie, che fa uso dei qubit fisici costituenti il qubit logico.

Nel nuovo lavoro, Google ha realizzato un singolo qubit logico con un numero variabile di qubit fisici. In particolare, i ricercatori hanno dimostrato che un qubit logico composto da 105 qubit fisici sopprime gli errori in modo più efficace rispetto a un qubit logico composto da 72 qubit. Questo suggerisce che mettendo insieme un numero crescente di qubit fisici in un qubit logico “si possono davvero sopprimere gli errori”, dice Brown. Questo traccia un potenziale percorso verso la costruzione di un computer quantistico con un tasso di errore sufficientemente basso per eseguire un algoritmo utile, anche se i ricercatori devono ancora dimostrare di poter mettere insieme più qubit logici e scalare verso una macchina più grande.

I ricercatori riferiscono inoltre che la durata del qubit logico supera di 2,4 volte la durata del miglior qubit fisico che lo costituisce. In altre parole, il lavoro di Google dimostra essenzialmente che è possibile memorizzare i dati in una “memoria” quantistica affidabile.

Tuttavia, questa dimostrazione è solo un primo passo verso un computer quantistico a correzione di errore, afferma Jay Gambetta, vicepresidente dell’iniziativa quantistica di IBM. Egli sottolinea che, pur avendo dimostrato una memoria quantistica più robusta, Google non ha eseguito alcuna operazione logica sulle informazioni memorizzate in tale memoria.

“Alla fine dei conti, ciò che conta è: Quanto è grande il circuito quantistico che si può eseguire?”. (Un “circuito quantistico” è una serie logica di operazioni eseguite su un computer quantistico). “E avete un percorso per mostrare come eseguire circuiti quantistici sempre più grandi?”.

IBM, i cui computer quantistici sono anch’essi composti da qubit realizzati con circuiti superconduttori, sta adottando un approccio di correzione degli errori diverso dal metodo del codice di superficie di Google.  L’azienda ritiene che questo metodo, noto come low-density parity-check code, sia più facile da scalare, in quanto ogni qubit logico richiede un numero inferiore di qubit fisici per ottenere tassi di soppressione degli errori comparabili. Secondo Gambetta, entro il 2026 IBM intende dimostrare di poter realizzare 12 qubit logici da 244 qubit fisici.

Altri ricercatori stanno esplorando altri approcci promettenti. Invece dei circuiti superconduttori, un team affiliato alla società di calcolo quantistico QuEra di Boston utilizza atomi neutri come qubit fisici. All’inizio di quest’anno ha pubblicato su Nature uno studio che dimostrava di aver eseguito algoritmi utilizzando fino a 48 qubit logici fatti di atomi di rubidio.

Gambetta avverte i ricercatori di essere pazienti e di non esagerare con i progressi. “Non voglio che il settore pensi che la correzione degli errori sia finita”, afferma Gambetta. Lo sviluppo dell’hardware richiede semplicemente molto tempo perché il ciclo di progettazione, costruzione e risoluzione dei problemi richiede molto tempo, soprattutto se paragonato allo sviluppo del software. “Non credo che sia un problema solo della quantistica”, afferma.

Per eseguire algoritmi con un’utilità pratica garantita, un computer quantistico deve eseguire circa un miliardo di operazioni logiche, dice Brown. “E nessuno si è ancora avvicinato a un miliardo di operazioni”, afferma. Un’altra pietra miliare sarebbe la creazione di un computer quantistico con 100 qubit logici, che QuEra ha fissato come obiettivo per il 2026. Un computer quantistico di queste dimensioni sarebbe in grado di effettuare simulazioni al di là della portata dei computer classici. Gli scienziati di Google hanno realizzato un singolo qubit logico di alta qualità, ma il prossimo passo è dimostrare che possono effettivamente fare qualcosa con esso.

Related Posts
Total
0
Share