Presentazione


Aggregatore d'analisi, opinioni, fatti e (non troppo di rado) musica.
Cerco

25/05/2025

Il futuro dei computer è fotonico

Per decenni, lo sviluppo delle tecnologie informatiche è stato scandito dalla legge di Moore, che ha previsto – e per certi versi guidato – il raddoppio della densità dei transistor ogni due anni, alimentando la crescita esponenziale della potenza di calcolo e la diminuzione dei costi di produzione dei chip. Tuttavia, il ritmo di miniaturizzazione dei componenti elettronici mostra oggi segni di rallentamento, con i limiti fisici e termici dei semiconduttori in silicio che divengono ogni anno più stringenti.

Uno dei principali ostacoli è rappresentato dagli effetti quantistici che emergono quando le distanze tra i transistor raggiungono dimensioni di pochi nanometri. A queste scale, gli elettroni possono attraversare barriere isolanti che, secondo la fisica classica, dovrebbero essere invalicabili, causando dispersioni di corrente e malfunzionamenti dei circuiti. Inoltre, il controllo preciso dei singoli elettroni diventa sempre più difficile, compromettendo l’affidabilità dei dispositivi.

È in questo contesto che, negli ultimi anni, ha (ri)preso vita la ricerca nell’ambito della computazione fotonica (o ottica): un paradigma di calcolo alternativo che cerca di ripensare i processi fisici alla base del funzionamento dei computer. Invece di usare elettroni che si muovono all’interno di circuiti di silicio – come avviene nei computer tradizionali – la computazione fotonica utilizza fotoni, ovvero particelle (quanti) di luce.

A differenza degli elettroni, i fotoni non hanno massa, non generano calore quando viaggiano nei circuiti e possono muoversi a velocità vicine a quelle della luce. Questo significa che, in teoria, un computer fotonico potrebbe essere molto più veloce e molto più efficiente, in termini di consumi, di un computer tradizionale. In un mondo che consuma sempre più energia a scopi di calcolo, non si tratta di un dettaglio banale.

Ovviamente, tra il dire e il fare c’è di mezzo il mare. Per prima cosa bisogna riuscire a progettare e a produrre circuiti che riescano a indirizzare i fotoni in modo preciso, quasi fossero sentieri di luce. Inoltre, bisogna trovare il modo di fare interagire i fotoni tra loro poiché, per loro natura, essi non interagiscono come fanno invece gli elettroni nei transistor. Essendo privi di carica elettrica, i fotoni tendono a passare gli uni accanto agli altri senza “notarsi”. Questo rende molto difficile implementare la logica booleana alla base dell’informatica, la quale si fonda su una forma di controllo o modifica del comportamento di un segnale in base alla presenza di un altro (1 o 0; 0 o 1).

Per tutte queste ragioni, la computazione fotonica è più di una semplice evoluzione tecnica e rappresenta, per il momento, ancora una frontiera. Non è detto che sarà conquistata o che sarà quella definitiva, né che sostituirà in toto i modelli attuali. Ma è una delle vie più promettenti per dare risposta al bisogno – sempre più urgente – di ripensare l’infrastruttura materiale su cui si regge la civiltà digitale.

Frontiera o interregno?

L’idea di utilizzare la luce per elaborare informazioni non è nuova: se ne discute sin dagli anni Settanta. Ma è solo negli ultimi anni, sulla scorta della pressione esercitata dalla crisi della microelettronica tradizionale, che il campo ha cominciato a strutturarsi come un vero e proprio settore tecnologico, attirando finanziamenti e interesse da parte dei grandi operatori del digitale.

Una delle aziende più promettenti è Lightmatter. Fondata nel 2017 da tre studenti dell’MIT, nel 2024 ha raccolto 400 milioni di dollari in un quarto round di finanziamenti, raggiungendo una valutazione di 4,4 miliardi di dollari. I prototipi più recenti di Lightmatter combinano moduli ottici e moduli elettronici, creando sistemi di computazione ibridi in cui le interconnessioni tra i diversi dispositivi hardware sono affidate a fotoni anziché elettroni, risolvendo così alcuni problemi specifici del calcolo parallelo con benefici anche nell’addestramento dei modelli di intelligenza artificiale.

Un’altra startup degna di nota è Ayar Labs, con sede nella Silicon Valley. Nata come spin-off di un progetto congiunto tra il MIT e l’Università di Berkeley, Ayar Labs si è specializzata nell’integrazione di connessioni ottiche direttamente all’interno dei chip, con l’obiettivo di eliminare le limitazioni imposte dai collegamenti elettrici tradizionali.

La loro tecnologia di interconnessione ottica permette una trasmissione dati ultraveloce tra processori, acceleratori e moduli di memoria, riducendo drasticamente la latenza e il consumo energetico delle “very large scale integrations” utilizzate per il calcolo delle AI. Negli ultimi due anni, Ayar Labs ha attirato investimenti e firmato partnership strategiche con alcuni dei nomi più importanti dell’industria dei semiconduttori: da Intel a NVIDIA, da AMD a GlobalFoundries.

Ci sono poi aziende che stanno puntando direttamente al bersaglio più grosso: non una simbiosi tra hardware fotonici ed elettrici, ma veri e propri sistemi di computazione ottica al 100%. Mentre la fotonica del silicio è oggi impiegata principalmente per realizzare interconnessioni ottiche, cioè per trasportare informazioni tra moduli elettronici, il calcolo ottico punta invece a processare direttamente quei dati attraverso la luce.

Per ora, il campo resta limitato a poche operazioni matematiche molto specifiche, le quali però rappresentano oltre il 90% dei compiti di inferenza svolti da una rete neurale. In altre parole: se si riuscisse a sviluppare il calcolo ottico, si otterrebbe una soluzione hardware altamente ottimizzata per i grandi modelli linguistici e generativi, come quelli dietro a ChatGPT.

Un tentativo in questa direzione lo ha compiuto Lightelligence, un’altra startup USA nata da ambienti accademici, che nel 2021 ha presentato PACE (Photonic Arithmetic Computing Engine), un prototipo in grado di fornire – secondo le stime della stessa startup – performance fino a 100 volte superiori a quelle delle GPU più avanzate di allora. Se simili prototipi si tradurranno in realtà resta da vedere. Ma che un numero crescente di aziende e di fondi stia scommettendo sulla luce come nuovo vettore del calcolo è ormai un dato di fatto.

Tuttavia, come spesso accade con le tecnologie emergenti, l’entusiasmo della finanza si scontra con il realismo dell’industria. La sfida, infatti, non è tanto dimostrare che la computazione fotonica possa “funzionare”, quanto renderla scalabile. Integrare su un singolo chip milioni di componenti ottici, garantendo al tempo stesso precisione, compatibilità con i sistemi esistenti e bassi costi di produzione, è un’impresa che richiede una catena di fornitura tecnologica complessa e in gran parte da costruire. Di conseguenza, la computazione fotonica esiste oggi in una sorta di interregno tecnologico: troppo promettente per essere ignorata, troppo immatura per essere adottata, al di là di pochi specifici casi.

Cybersicurezza e geopolitica

Nel campo della microelettronica, decenni di ricerca hanno portato allo sviluppo di protocolli di protezione contro le forme più note di attacco informatico. Con l’avvento della computazione fotonica, questo patrimonio non può essere semplicemente trasferito. I circuiti fotonici aprono quindi scenari e vulnerabilità inedite.

Per esempio, l’interconnessione tra chip di tipo elettrico-ottico – come quella proposta da Lightmatter – moltiplica le occasioni d’attacco potenziali: ogni collegamento ibrido diventa, in teoria, una nuova porta d’accesso per attacchi altrettanto ibridi. Il fatto che i sistemi fotonici possano trasmettere dati a velocità e volumi impensabili pone inoltre ulteriori problemi, rendendo necessario ripensare da zero l’intera architettura della sicurezza informatica, sviluppando protocolli capaci di monitorare, interpretare e, se necessario, bloccare flussi di informazioni che si muovono alla velocità della luce. In questo nuovo contesto, anche i tradizionali strumenti di rilevamento – come i firewall o i sistemi anti-intrusione – rischiano di risultare inadeguati, non solo per limiti di velocità, ma anche per l’assenza di standard consolidati a cui riferirsi.

La stessa complessità dei componenti ottici rischia inoltre di impattare sull’affidabilità dei processi di testing a cui normalmente è sottoposto l’ hardware usato per la computazione. Ciò aumenta il rischio che eventuali anomalie non vengano rilevate, finendo poi per aprire falle e vulnerabilità nei sistemi in cui i componenti ottici vengono integrati.

Per tutte queste ragioni, mentre le giovani aziende del settore proseguono nella ricerca e nell’implementazione di nuovi strumenti di calcolo basati sulla fotonica, mancano ancora le cornici adeguate a inquadrare con precisione i limiti di questa nuova tecnologia. Non è ovviamente un tema da poco, specie se consideriamo che chi riuscirà a influenzare la regolamentazione della computazione fotonica influenzerà anche una porzione significativa del futuro del calcolo. Il che ci porta dritti al cuore delle implicazioni geopolitiche della questione.

Come già è accaduto per l’intelligenza artificiale e i semiconduttori avanzati, la competizione fotonica rischia di trasformarsi in un nuovo terreno di scontro sistemico tra Cina e Stati Uniti. La computazione fotonica potrebbe infatti offrire alla Cina una via di fuga tecnologica dalle restrizioni recentemente imposte dagli USA per rallentare lo sviluppo tecnologico di Pechino. Per utilizzare una formula in voga nel discorso politico-economico cinese, la fotonica potrebbe consentire di “cambiare corsia ed effettuare il sorpasso”.

Dal punto di vista cinese, due qualità della computazione fotonica appaiono particolarmente interessanti. La prima è che la produzione di hardware ottici non richiede l’utilizzo di macchinari di produzione litografici avanzati, a cui la Cina non ha accesso a causa delle restrizioni USA. La seconda è che, aumentando la velocità e l’efficienza delle interconnessioni, la computazione fotonica potrebbe in teoria permettere di sviluppare integrazioni hardware per AI avanzate senza il bisogno di utilizzare chip di ultima generazione, ugualmente sotto embargo americano.

Del tema si è interessato personalmente lo stesso Xi Jinping che, nel 2023, ha presieduto un incontro del Politburo sul tema. Vi ha partecipato anche il rettore dell’Università di Pechino, Gong Qihuang, un fisico con notevole esperienza nel campo delle applicazioni all’intelligenza artificiale della computazione fotonica (che è stata inoltre menzionata esplicitamente nel 14esimo piano quinquennale per lo sviluppo della Cina, relativo al periodo 2021-2025).

Constatato tutto questo, non sorprende che il governo americano abbia iniziato a trattare la ricerca fotonica non solo come un tema di innovazione, ma come una questione di sicurezza nazionale. Non è un caso che importanti entità della difesa americana, così come l’agenzia DARPA, abbiano intensificato negli ultimi anni gli investimenti in startup e centri di ricerca attivi sul fronte della fotonica.

Il focus non è solo sull’efficienza o sulla scalabilità, ma anche sulla resilienza: costruire sistemi ottici che siano difficili da sabotare, da intercettare, da replicare. La fotonica viene così inscritta nella più ampia strategia di contenimento tecnologico con cui gli Stati Uniti cercano di difendere la propria centralità nell’ordine digitale globale.

Fonte

Nessun commento:

Posta un commento