Per decenni, lo sviluppo delle tecnologie informatiche è stato scandito dalla
legge di Moore, che ha
previsto – e per certi versi guidato – il raddoppio della densità dei transistor
ogni due anni, alimentando la crescita esponenziale della potenza di calcolo e
la diminuzione dei costi di produzione dei chip. Tuttavia, il ritmo di
miniaturizzazione dei componenti elettronici mostra oggi segni di rallentamento,
con i limiti fisici e termici dei semiconduttori in silicio che divengono ogni
anno più stringenti.
Uno dei principali ostacoli è rappresentato
dagli effetti quantistici che emergono quando le distanze tra i transistor
raggiungono dimensioni di pochi nanometri. A queste scale, gli elettroni possono
attraversare barriere isolanti che, secondo la fisica classica, dovrebbero
essere invalicabili, causando dispersioni di corrente e malfunzionamenti dei
circuiti. Inoltre, il controllo preciso dei singoli elettroni diventa sempre più
difficile, compromettendo l’affidabilità dei dispositivi.
È in
questo contesto che, negli ultimi anni, ha (ri)preso vita la ricerca nell’ambito
della computazione fotonica (o ottica): un paradigma di calcolo alternativo che
cerca di ripensare i processi fisici alla base del funzionamento dei computer.
Invece di usare elettroni che si muovono all’interno di circuiti di silicio –
come avviene nei computer tradizionali – la computazione fotonica utilizza
fotoni, ovvero particelle (quanti) di luce.
A differenza degli
elettroni, i fotoni non hanno massa, non generano calore quando viaggiano nei
circuiti e possono muoversi a velocità vicine a quelle della luce. Questo
significa che, in teoria, un computer fotonico potrebbe essere molto più veloce
e molto più efficiente, in termini di consumi, di un computer tradizionale. In
un mondo che consuma sempre più energia a scopi di calcolo, non si tratta di un
dettaglio banale.
Ovviamente, tra il dire e il fare c’è di mezzo il
mare. Per prima cosa bisogna riuscire a progettare e a produrre circuiti che
riescano a indirizzare i fotoni in modo preciso, quasi fossero sentieri di luce.
Inoltre, bisogna trovare il modo di fare interagire i fotoni tra loro poiché,
per loro natura, essi non interagiscono come fanno invece gli elettroni nei
transistor. Essendo privi di carica elettrica, i fotoni tendono a passare gli
uni accanto agli altri senza “notarsi”. Questo rende molto difficile
implementare la logica booleana alla base dell’informatica, la quale si fonda su
una forma di controllo o modifica del comportamento di un segnale in base alla
presenza di un altro (1 o 0; 0 o 1).
Per tutte queste ragioni, la
computazione fotonica è più di una semplice evoluzione tecnica e rappresenta,
per il momento, ancora una frontiera. Non è detto che sarà conquistata o che
sarà quella definitiva, né che sostituirà in toto i modelli attuali. Ma è una
delle vie più promettenti per dare risposta al bisogno – sempre più urgente – di
ripensare l’infrastruttura materiale su cui si regge la civiltà digitale.
Frontiera
o interregno?
L’idea di utilizzare la luce per elaborare informazioni
non è nuova: se ne discute sin dagli anni Settanta. Ma è solo negli ultimi anni,
sulla scorta della pressione esercitata dalla crisi della microelettronica
tradizionale, che il campo ha cominciato a strutturarsi come un vero e proprio
settore tecnologico, attirando finanziamenti e interesse da parte dei grandi
operatori del digitale.
Una delle aziende più promettenti è
Lightmatter. Fondata
nel 2017 da tre studenti dell’MIT, nel 2024 ha raccolto 400 milioni di dollari in un quarto round di
finanziamenti, raggiungendo una valutazione di 4,4 miliardi di dollari. I
prototipi più recenti
di Lightmatter
combinano moduli ottici e moduli elettronici, creando sistemi di computazione ibridi in cui le interconnessioni tra i
diversi dispositivi hardware
sono affidate a fotoni anziché elettroni, risolvendo così alcuni
problemi specifici del calcolo parallelo
con benefici anche nell’addestramento dei modelli di intelligenza artificiale.
Un’altra startup degna di nota è Ayar Labs, con sede nella Silicon
Valley. Nata come spin-off di un progetto congiunto tra il MIT e l’Università di
Berkeley, Ayar Labs si è specializzata nell’integrazione di connessioni ottiche
direttamente all’interno dei chip, con l’obiettivo di eliminare le limitazioni
imposte dai collegamenti elettrici tradizionali.
La loro tecnologia
di interconnessione ottica permette una trasmissione dati ultraveloce tra
processori, acceleratori e moduli di memoria, riducendo drasticamente la latenza
e il consumo energetico delle
“very large scale integrations”
utilizzate per il calcolo delle AI. Negli ultimi due anni, Ayar Labs ha attirato
investimenti e firmato partnership strategiche con alcuni dei nomi più
importanti dell’industria dei semiconduttori: da
Intel a NVIDIA, da AMD a GlobalFoundries.
Ci sono poi aziende che stanno puntando direttamente al bersaglio
più grosso: non una simbiosi tra hardware fotonici ed elettrici, ma veri e
propri sistemi di computazione ottica al 100%. Mentre la fotonica del silicio è
oggi impiegata principalmente per realizzare interconnessioni ottiche, cioè per
trasportare informazioni tra moduli elettronici, il calcolo ottico punta invece
a processare direttamente quei dati attraverso la luce.
Per ora, il
campo resta limitato a poche
operazioni matematiche molto specifiche, le quali però rappresentano oltre il 90% dei compiti di inferenza svolti da
una rete neurale. In altre parole: se si riuscisse a sviluppare il calcolo
ottico, si otterrebbe una soluzione hardware altamente ottimizzata per i grandi
modelli linguistici e generativi, come quelli dietro a ChatGPT.
Un
tentativo in questa direzione lo ha compiuto Lightelligence, un’altra startup
USA nata da ambienti accademici, che
nel 2021 ha presentato PACE
(Photonic Arithmetic Computing Engine), un prototipo in grado di fornire –
secondo le stime della stessa startup – performance fino a 100 volte superiori a
quelle delle GPU più avanzate di allora. Se simili prototipi si tradurranno in
realtà resta da vedere. Ma che un numero crescente di aziende e di fondi stia
scommettendo sulla luce come nuovo vettore del calcolo è ormai un dato di
fatto.
Tuttavia, come spesso accade con le tecnologie emergenti,
l’entusiasmo della finanza si scontra con il realismo dell’industria. La sfida,
infatti, non è tanto dimostrare che la computazione fotonica possa “funzionare”,
quanto renderla scalabile. Integrare su un singolo chip milioni di componenti
ottici, garantendo al tempo stesso precisione, compatibilità con i sistemi
esistenti e bassi costi di produzione, è un’impresa che richiede una catena di fornitura tecnologica complessa e in gran parte da costruire. Di conseguenza, la
computazione fotonica esiste oggi in una sorta di interregno tecnologico: troppo
promettente per essere ignorata, troppo immatura per essere adottata, al di là
di pochi specifici casi.
Cybersicurezza e geopolitica
Nel campo
della microelettronica, decenni di ricerca hanno portato allo sviluppo di
protocolli di protezione contro le forme più note di attacco informatico. Con
l’avvento della computazione fotonica, questo patrimonio non può essere
semplicemente trasferito. I circuiti fotonici aprono quindi
scenari e vulnerabilità inedite.
Per esempio,
l’interconnessione tra chip di tipo elettrico-ottico
– come quella proposta da Lightmatter – moltiplica le occasioni d’attacco
potenziali: ogni collegamento ibrido diventa, in teoria, una nuova porta
d’accesso per attacchi altrettanto ibridi. Il fatto che i sistemi fotonici
possano trasmettere dati a velocità e volumi impensabili pone inoltre ulteriori
problemi, rendendo necessario ripensare da zero l’intera architettura della
sicurezza informatica, sviluppando protocolli capaci di monitorare, interpretare
e, se necessario, bloccare flussi di informazioni che si muovono alla velocità
della luce. In questo nuovo contesto, anche i tradizionali strumenti di
rilevamento – come i firewall o i sistemi anti-intrusione – rischiano di
risultare inadeguati, non solo per limiti di velocità, ma anche per l’assenza di
standard consolidati a cui riferirsi.
La stessa complessità dei
componenti ottici rischia inoltre di impattare sull’affidabilità dei processi di
testing a cui normalmente è sottoposto l’ hardware usato per la computazione.
Ciò aumenta il rischio che eventuali anomalie non vengano rilevate, finendo poi
per aprire falle e vulnerabilità nei sistemi in cui i componenti ottici vengono
integrati.
Per tutte queste ragioni, mentre le giovani aziende del
settore proseguono nella ricerca e nell’implementazione di nuovi strumenti di
calcolo basati sulla fotonica, mancano ancora le cornici adeguate a inquadrare
con precisione i limiti di questa nuova tecnologia. Non è ovviamente un tema da
poco, specie se consideriamo che chi riuscirà a influenzare la regolamentazione
della computazione fotonica influenzerà anche una porzione significativa del
futuro del calcolo. Il che ci porta dritti al cuore delle implicazioni
geopolitiche della questione.
Come già è accaduto per l’intelligenza
artificiale e i semiconduttori avanzati, la competizione fotonica rischia di
trasformarsi in un nuovo terreno di scontro sistemico tra Cina e Stati Uniti. La
computazione fotonica potrebbe infatti offrire alla Cina una via di fuga
tecnologica dalle restrizioni recentemente imposte dagli USA per rallentare lo
sviluppo tecnologico di Pechino. Per utilizzare una formula in voga nel discorso
politico-economico cinese, la fotonica potrebbe consentire di “cambiare corsia
ed effettuare il sorpasso”.
Dal punto di vista cinese, due qualità
della computazione fotonica appaiono particolarmente interessanti. La prima è
che la produzione di hardware ottici non richiede l’utilizzo di macchinari di
produzione litografici avanzati, a cui la Cina non ha accesso a causa delle
restrizioni USA. La seconda è che, aumentando la velocità e l’efficienza delle
interconnessioni, la computazione fotonica
potrebbe in teoria permettere di sviluppare integrazioni hardware per AI
avanzate
senza il bisogno di utilizzare chip di ultima generazione, ugualmente sotto
embargo americano.
Del tema si è interessato personalmente lo stesso
Xi Jinping che, nel 2023, ha presieduto un
incontro del Politburo sul tema. Vi ha partecipato anche il rettore dell’Università di Pechino,
Gong Qihuang, un
fisico con notevole esperienza nel campo delle applicazioni all’intelligenza
artificiale della computazione fotonica (che è stata inoltre menzionata
esplicitamente nel 14esimo piano quinquennale per lo sviluppo della Cina,
relativo al periodo 2021-2025).
Constatato tutto questo, non
sorprende che il governo americano abbia iniziato a trattare la ricerca fotonica
non solo come un tema di innovazione, ma come una questione di sicurezza
nazionale. Non è un caso che importanti
entità della difesa
americana,
così come l’agenzia DARPA, abbiano intensificato negli ultimi anni gli investimenti in startup e centri
di ricerca attivi sul fronte della fotonica.
Il focus non è solo
sull’efficienza o sulla scalabilità, ma anche sulla resilienza: costruire
sistemi ottici che siano difficili da sabotare, da intercettare, da replicare.
La fotonica viene così inscritta nella più ampia strategia di contenimento tecnologico con cui gli Stati Uniti cercano di difendere la propria centralità
nell’ordine digitale globale.
Fonte
Nessun commento:
Posta un commento