Presentazione


Analisi, opinioni, fatti e (più di rado) arte da una prospettiva di classe.

06/02/2025

Stargate, accelerazione AI o implosione?

Il progetto Stargate, come ormai sanno anche i sassi è stato mostruosamente ridimensionato nella propria portata dalla irruzione di DeepSeek nel "mondo", in particolare finanziario, della intelligenza artificiale. Il testo che segue, che dettaglia il progetto statunitense, è comunque ancora utile a farsi una idea di quel di cui si parla all'interno della contesa in atto.
Buona lettura

*****

Il Progetto Stargate, annunciato da Donald Trump il 21 gennaio 2025, rappresenta un ambizioso piano per la costruzione di infrastrutture dedicate all’intelligenza artificiale (AI) negli Stati Uniti. Con un investimento iniziale di 100 miliardi di dollari, che potrebbe raggiungere i 500 miliardi entro il 2029, il progetto mira a garantire la leadership americana nel settore, contrastare la crescita cinese e, sempre nelle intenzioni, supportare la reindustrializzazione degli Stati Uniti, la sicurezza nazionale degli USA e dei suoi alleati. Insomma, una delle più forti possibili scosse telluriche planetarie tra quelle annunciate dagli executive order di Donald Trump.

Tuttavia, dietro l’effetto annuncio fatto di unità tra componenti tech americane e progresso tecnologico, emergono già oggi segnali di possibili divisioni tra i protagonisti di questa iniziativa.

Panoramica del Progetto Stargate

Il Progetto Stargate è una joint venture creata da OpenAI, SoftBank, Oracle e la società di investimenti MGX. L’obiettivo principale è la costruzione di infrastrutture di AI negli Stati Uniti, a partire da dieci centri dati ad Abilene, in Texas, con l’intenzione di espandersi in altri stati. Il progetto è in fase di valutazione di potenziali siti in tutto il paese per ulteriori campus, man mano che vengono finalizzati gli accordi definitivi. Come parte di Stargate, Oracle, nVidia e OpenAI hanno annunciato di voler collaborare strettamente per costruire e gestire questo sistema di elaborazione. Il progetto è stato annunciato in una conferenza stampa alla Casa Bianca alla presenza del presidente Trump, di Sam Altman (CEO di OpenAI), Larry Ellison (CEO di Oracle) e Masayoshi Son (CEO di SoftBank). Trump ha definito Stargate “il più grande progetto di infrastrutture per l’AI della storia” e ha indicato che utilizzerà dichiarazioni di emergenza per accelerarne lo sviluppo, in particolare per quanto riguarda le infrastrutture energetiche.

I principali protagonisti del Progetto Stargate sono:

OpenAI: azienda leader nel campo dell’IA, nota per lo sviluppo di modelli linguistici avanzati come ChatGPT. OpenAI avrà la responsabilità operativa del progetto.

SoftBank: gigante giapponese degli investimenti, guidato da Masayoshi Son, che avrà la responsabilità finanziaria del progetto e la presidenza.

Oracle: azienda specializzata in cloud computing e database, guidata da Larry Ellison, che fornirà l’infrastruttura cloud per il progetto.

MGX: fondo di Abu Dhabi, specializzato in AI, che partecipa al finanziamento del progetto.

Il governo federale americano: a partire dal Presidente degli Stati Uniti e dai vertici delle agenzie federali direttamente coinvolte nella facilitazione logistica e burocratica del progetto.

Oltre a questi attori principali, il progetto coinvolge anche altri partner tecnologici come Arm, Microsoft e nVidia. Nonostante la coesione dichiarata tra i protagonisti di Stargate, lo “spin” dell’effetto annuncio dato da Trump, alcuni elementi suggeriscono la presenza di possibili, serie divisioni.

Preoccupazioni finanziarie

Elon Musk, CEO di xAI (concorrente di OpenAI), ha pubblicamente messo in dubbio la solidità finanziaria del progetto, affermando che “non hanno i soldi per farlo”. Questa dichiarazione, sebbene possa essere letta come una provocazione da parte di un concorrente, solleva interrogativi, emersi anche nella stampa finanziaria globale, sulla reale capacità di Stargate di raggiungere gli obiettivi di investimento promessi. Sam Altman, CEO di OpenAI, ha comunque negato le affermazioni di Musk. Il progetto, 100 miliardi di investimento subito poi allargati a 500, al di là dell’effetto annuncio, però non ha ancora una dimensione finanziaria che ne garantisca il reperimento di fondi sui mercati. Questo perché elementi chiave di Stargate, inclusi il supporto governativo e un piano finanziario dettagliato, sono ancora in fase di definizione. Sebbene OpenAI e SoftBank abbiano promesso un investimento iniziale di 15 miliardi di dollari ciascuno, il reperimento dei restanti fondi per la partenza del progetto, inclusi ulteriori investimenti e finanziamenti tramite debito, rimane incerto.

Il ruolo di Microsoft

Un serio elemento di potenziale frizione riguarda il ruolo di Microsoft nel progetto. Nonostante sia menzionata come partner tecnologico, Microsoft ha annunciato un rafforzamento della sua partnership con OpenAI per “guidare la prossima fase dell’AI”. Questo annuncio, avvenuto in concomitanza con quello di Stargate, potrebbe indicare una volontà di Microsoft di mantenere una certa indipendenza e di non essere completamente assorbita nell’orbita del progetto. È possibile che Microsoft veda Stargate come un’opportunità per rafforzare la sua posizione nel mercato della AI, pur continuando a investire nelle proprie tecnologie e piattaforme senza considerare Stargate strategico quanto, invece, lo considera la presidenza degli USA.

Questioni politiche e di governance

L’utilizzo di executive order e di procedure di emergenza da parte di Trump per accelerare lo sviluppo del progetto potrebbe generare controversie e resistenze, sia livello politico, sociale e territoriale. Infatti, questa strategia potrebbe essere vista come un tentativo di aggirare le procedure normative e di imporre un progetto controverso senza un adeguato dibattito pubblico. Inoltre, la mancanza di informazioni realmente dettagliate sui meccanismi di governance all’interno del progetto rende difficile valutare la reale distribuzione del potere e l’esistenza di eventuali conflitti latenti tra i protagonisti. La mancanza di trasparenza potrebbe, alla fine dell’effetto annuncio, alimentare sospetti e diffidenza tra i partner, compromettendo la collaborazione e la fiducia reciproca.

Possibili cause delle divisioni

Le possibili cause delle divisioni tra i protagonisti del Progetto Stargate, oltre alla composizione del portafoglio di investimento, possono essere diverse.

Divergenze sugli obiettivi a lungo termine: i partner potrebbero avere visioni diverse sul futuro della AI e sulle sue applicazioni. Ad esempio, OpenAI si concentra sullo sviluppo dell’intelligenza artificiale generale (AGI), mentre Oracle potrebbe essere più interessata alle applicazioni commerciali della AI nel cloud computing. Questa divergenza di obiettivi potrebbe portare a seri disaccordi sulle priorità di investimento e sulle strategie di sviluppo del progetto.

Competizione per il controllo del progetto: la presenza di grandi aziende come SoftBank, Oracle e Microsoft potrebbe generare conflitti per la leadership e il controllo delle decisioni strategiche. Ogni azienda potrebbe cercare di massimizzare il proprio ritorno sull’investimento e di influenzare la direzione del progetto a proprio vantaggio.

Differenze di approccio allo sviluppo della AI: i partner potrebbero avere serie divisioni sulle modalità di sviluppo e implementazione delle tecnologie di AI. Queste differenze di approccio potrebbero portare a disaccordi sulle scelte tecnologiche e sulle politiche di sicurezza da adottare.

Conflitto tra AGI e sicurezza nazionale USA: il progetto Stargate mira a “fornire una capacità strategica per proteggere la sicurezza nazionale”, ma allo stesso tempo OpenAI, partner chiave del progetto, si concentra sullo sviluppo dell’AGI. L’AGI, per sua natura, potrebbe essere difficile da controllare e potrebbe rappresentare, potenzialmente, una minaccia per la sicurezza nazionale, paradossalmente, se sviluppata “alla Trump” cioè senza reali limiti di sviluppo. Questo può creare serie frizioni tra i partner e influenzare le decisioni strategiche del progetto.

Fattori politici: Trump con il suo utilizzo di procedure di emergenza potrebbe generare tensioni con alcuni partner o con l’opinione pubblica. L’approccio di Trump potrebbe essere percepito come autoritario e poco trasparente, alimentando la diffidenza e l’opposizione al progetto.

Inoltre, è importante considerare le implicazioni a lungo termine di questo progetto per lo sviluppo dell’AI negli Stati Uniti e a livello globale. La concentrazione di risorse e potere nelle mani di poche aziende, legate a player finanziari di proporzioni enormi e la deregulation completa potrebbero avere conseguenze negativa per l’innovazione e l’accesso alle tecnologie AI.

Divergenze sugli obiettivi a lungo termine

Sebbene il Progetto Stargate sia stato presentato come un’iniziativa unitaria, è plausibile che i partner coinvolti abbiano obiettivi a lungo termine diversi, generando frizioni strutturali per il progetto. Evidenziamo quindi le strategie aziendali dei partner più importanti mettendo tra parentesi le difficoltà nella composizione del portafoglio finanziario che esistono sempre in questo genere di progetti.

OpenAI, guidata da Sam Altman, si concentra sullo sviluppo dell’intelligenza artificiale generale (AGI), ovvero un’IA con capacità cognitive simili a quelle umane. Questo obiettivo ambizioso potrebbe non essere condiviso pienamente dagli altri partner, che potrebbero essere più interessati alle applicazioni commerciali dell’IA.

Microsoft, ad esempio, pur essendo un partner tecnologico di Stargate, ha recentemente rafforzato la sua partnership con OpenAI per “guidare la prossima fase della AI”, il che potrebbe indicare una volontà di perseguire una strategia indipendente da Stargate.

Oracle, d’altra parte, potrebbe essere più interessata a sfruttare Stargate per consolidare la sua posizione nel mercato del cloud computing, offrendo l’infrastruttura necessaria per lo sviluppo e l’implementazione di modelli di AI.

SoftBank, pur con la sua vasta esperienza negli investimenti tecnologici, potrebbe essere più focalizzata sul ritorno economico dell’investimento e sulla massimizzazione dei profitti.

Queste diverse priorità potrebbero portare a disaccordi sulle strategie di sviluppo del progetto, sulla ripartizione delle risorse e sulla gestione della proprietà intellettuale.

Un nucleo che rischia di esplodere: il possibile conflitto tra AGI e sicurezza nazionale USA

Uno degli obiettivi dichiarati di Stargate è quello di “fornire una capacità strategica per proteggere la sicurezza nazionale” degli Stati Uniti. Tuttavia, l’obiettivo di OpenAI di sviluppare l’AGI in Stargate potrebbe seriamente entrare in conflitto con questo obiettivo. Infatti, nonostante le potenzialità dell’AGI in ambito militare (in termini di efficienza, estensione e potenza dell’intervento militare, della catena logistica, strategica e di comando) le caratteristiche intrinseche comportano rischi significativi. Vediamone alcuni aspetti.

Contraddizioni e Problemi

Sicurezza dei dati: Stargate, basandosi su un’infrastruttura centralizzata, diventa un obiettivo sensibile per attacchi informatici. La centralizzazione, seppur efficiente, aumenta la vulnerabilità a violazioni che potrebbero compromettere dati nazionali.

Controllo dell’AGI: l’AGI, per sua natura, potrebbe evolvere in modo imprevedibile e diventare incontrollabile. La sua capacità di auto-miglioramento e di apprendimento continuo rende difficile prevedere e limitare le sue azioni, soprattutto se dovesse sviluppare obiettivi in conflitto con quelli umani. Chiamiamo tutto questo effetto “The Creator”, il film nel quale la AI sviluppa comportamenti indipendenti e distruttivi in autonomia dal complesso militare che l’ha generato.

Opacità e bias: i sistemi di AGI sono spesso “scatole nere”, il cui funzionamento è difficile da comprendere anche per i creatori. Questa opacità solleva preoccupazioni riguardo a possibili bias e discriminazioni nei processi decisionali, con complesse e interminabili conseguenze a cascata.

Escalation involontaria: l’impiego di AGI in operazioni militari offensive o la sua interferenza con sistemi di AGI avversari potrebbe causare errori imprevisti ed effetti a catena, innescando un’escalation bellica involontaria.

Dipendenza energetica: lo sviluppo di AGI richiede un’enorme potenza di calcolo e risorse energetiche. La dipendenza da infrastrutture critiche aumenta la vulnerabilità a blackout e sabotaggi, con potenziali ripercussioni sulla stessa sicurezza nazionale USA.

Incontrollabilità dell’AGI

L’AGI potrebbe diventare incontrollabile per diverse ragioni.

Auto-miglioramento: l’AGI potrebbe acquisire la capacità di modificare il proprio codice e i propri obiettivi in modo autonomo, rendendo difficile l’intervento umano.

Convergenza strumentale: indipendentemente dai suoi obiettivi iniziali, l’AGI potrebbe sviluppare comportamenti volti all’autoconservazione e all’acquisizione di risorse, potenzialmente dannosi per territori e società intere.

Manipolazione e influenza: L’AGI potrebbe utilizzare le sue capacità linguistiche e cognitive per propri scopi autonomi e influenzare individui, gruppi, finanche l'intera opinione pubblica.

Lo sviluppo di AGI presenta quindi enormi potenzialità, ma anche rischi significativi, non certo solo per la sicurezza militare americana ma proprio per l’equilibrio globale tra economia, finanza e tecnologia. La questione centrale non è però tanto, o non solo, che Stargate rappresenta una sfida formidabile per OpenAI – che opera al centro dell’accumulazione capitalistica di oggi – con opportunità di accelerazione e rischi di implosione. Il focus va messo sul tipo di capitalismo politico che emerge da questo tipo di progetto – nel quale il ruolo del pubblico è di marketing e di facilitazione burocratica; nel quale i processi decisionali non sono chiari quando non direttamente a favore delle grandi aziende e dei grandi player finanziari; nel quale si intravedono serie divergenze tra i partecipanti al progetto grazie alla natura stessa del capitalismo hi-tech e finanziario, che impone alleanze instabili e visioni a breve in progetti strategici. Emerge quindi un tipo di complesso militare-industriale diverso dal passato anche recente: prima a guida pubblica, il governo federale come occasione di finanziamento di progetti altrimenti non sviluppabili, ora a guida privata, il governo come facilitatore di spesa di risorse acquisite sul mercato finanziario. Si tratta di fenomeni già emersi sia prima dell’esplosione delle bolle finanziarie più note che dopo l’emersione del mercato dei big data ma, adesso, questi fenomeni cercano la loro razionalizzazione politica o, meglio, una guida dei processi politici “accompagnati” dalle autorità federali.

Questo non significa che il ruolo “tradizionale” del governo federale scompaia ma che emergono progetti significativi che, per quanto contraddittori, cercano di governare l’asse industria militare direttamente, con una bassa intermediazione politica, secondo direttive dei grandi del tech e della finanza. L’emergere dell’AI in questi progetti non ha risolto poi l’alta instabilità delle tecnoscienze guidate dal capitale di investimento anzi, come nel caso dell’AGI, le mette su un piano di pericolosità simile, per certi versi peggiore, all’epoca della nascita delle grandi centrali nucleari. Allo stesso tempo, grazie al peso del capitale di investimento, l’instabilità delle tecnoscienze, e le conseguenze imprevedibili della sua alta complessità di esecuzione, è direttamente al comando di questi processi. L’effetto annuncio di Trump, la sua scenografia tutta schiacciata sulla sua persona e sullo studio ovale, nasconde appena la presenza di un mondo che può accelerare, con conseguenze imprevedibili su finanza, economia e militare, o può implodere come il nucleo della centrale di Chernobyl. Le forti, possibili scosse telluriche planetarie suscitate dagli executive order di Trump rischiano di prendere torsioni incredibili.

Fonte

Nessun commento:

Posta un commento