di Silvano Cacciari
È ormai consolidato il fatto che la IA è la principale arma di guerra di ogni esercito, specie in scenari adattivi complessi come quelli attuali e a maggior ragione per gli Stati Uniti. Eppure la simulazione IA della crisi di Hormuz, che sta strangolando gli Usa, pare non essere stata davvero elaborata, causando una seria crisi strategico-militare per gli USA. Come è avvenuto tutto questo? Ci sono diversi livelli di cui tenere conto.
La pianificazione dell’Operazione Epic Fury non si è basata su un unico modello, ma su un doppio binario di simulazione: quello tecnologico-operativo affidato all’IA e quello strategico-geopolitico elaborato dai think tank negli ultimi diciassette anni.
Sul piano tecnologico, il cuore del sistema è stata l’integrazione tra il modello Claude di Anthropic e la piattaforma Gotham di Palantir. Claude ha processato decine di migliaia di documenti persiani dell’IRGC, da quello che si sa non quelli classificati, mappato le reti comunicative della leadership iraniana e simulato un numero compreso tra diecimila e centomila scenari d’attacco, proponendo l’ordine ottimale dei bersagli e le finestre temporali con la massima probabilità di successo. La piattaforma Gotham, di Palantir ha funzionato come sistema nervoso centrale, integrando dati satellitari, comunicazioni intercettate, consumi energetici e persino le rotte di fuga di emergenza dei vertici iraniani.
Il sistema combinato ha permesso di comprimere l’intera kill chain, la procedura di distruzione del nemico – dall’intelligence al targeting – in tempi che l’analisi umana non avrebbe mai potuto garantire. Shield AI e Anduril hanno fornito i sottosistemi operativi: Hive Mind per la navigazione autonoma dei droni in assenza di GPS, Lattice per l’identificazione dei bersagli e la consapevolezza situazionale.
Sul piano strategico, la cassetta degli attrezzi concettuale era invece già stata preparata nel 2009 dalla Brookings Institution con il rapporto “Verso la Persia: opzioni per una nuova strategia americana verso l’Iran”. Il documento, firmato da un team che includeva l’ex ambasciatore USA in Israele, analisti della CIA e consiglieri della sicurezza nazionale di quattro presidenti, delineava uno scenario sistemico articolato in capitoli che oggi sembrano una profezia: “rivoluzione di velluto” attraverso il sostegno alle proteste interne, “fomentazione della rivolta” tramite minoranze etniche, “colpo di stato” con supporto a settori militari dissidenti, isolamento strategico dell’Iran attraverso il distacco della Siria, e infine “incoraggiare o permettere a Israele di colpire”.
A questo si aggiungevano le analisi di scenario prodotte dal Middle East Forum a ridosso dell’attacco, che il 27 febbraio – letteralmente alla vigilia – pubblicavano un’analisi dettagliata delle opzioni di risposta iraniane, dalla chiusura di Hormuz all’attivazione dei proxy in Libano e Yemen. Il documento, firmato da analisti con accesso a fonti militari, prevedeva con precisione la sequenza: attacco aereo con obiettivo di decapitazione, rappresaglia missilistica iraniana contro basi USA nel Golfo, coinvolgimento di Hezbollah, e la variabile critica dello Stretto di Hormuz come “variabile che le forze armate non hanno ancora pienamente testato”.
Nonostante la potenza di calcolo e la profondità di analisi strategica, il sistema ha mostrato almeno tre grandi zone d’ombra che i modelli non avevano catturato e che gli Usa stanno fortemente pagando sul campo e in termini di guerra finanziaria: la resilienza del sistema di potere iraniano alla decapitazione; la sottovalutazione sistematica della chiusura di Hormuz; la rapidità della reazione a catena assicurativo-logistica – si veda proprio Codice Rosso – che ha segnato un punto a favore dell’Iran nella guerra finanziaria in corso che è parallela e intrecciata alla guerra che si sta svolgendo sul campo. Inoltre, la minaccia di occupare l’isola di Kharg, per frenare le grandi difficoltà Usa dovute alla blocco di Hormuz, non rischia di risolvere la situazione ma di provocare una crisi molto grave con Pechino, visto che oltre l’80% del petrolio esportato via Kharg è destinato alla Cina.
Ma perché sia sul piano tecnologico che su quello strategico gli USA sembrano non aver tenuto conto proprio dello scenario che si è realizzato, una guerra asimmetrica nel quale il soggetto militarmente più debole mette in difficoltà strategica quello più forte?
Le fonti disponibili suggeriscono che le simulazioni non hanno previsto la chiusura di Hormuz per una combinazione di bias cognitivo umano, limiti strutturali dei modelli predittivi e – probabilmente – un’indicazione implicita dai vertici di privilegiare scenari che mantenessero aperta quella opzione.
La spiegazione più documentata emerge da fonti dell’amministrazione citate da CNN e The New Republic: i funzionari hanno tacitamente ammesso al Congresso di non aver pianificato lo scenario peggiore della chiusura dello Stretto. La motivazione addotta è sorprendente nella sua ingenuità strategica: ritenevano che l’Iran avrebbe considerato questa mossa più dannosa per sé che per gli Stati Uniti, e che quindi non l’avrebbe compiuta.
Questo rivela un primo livello di fallimento: il bias della “razionalità condivisa”. I modelli IA, addestrati su dati storici, avevano incorporato questa stessa convinzione dei funzionari. Nel giugno 2025, durante l’operazione “Midnight Hammer”, l’Iran aveva risposto con missili su basi USA in Qatar, ma non aveva chiuso Hormuz. I dati di training dicevano: “attacco USA → rappresaglia missilistica limitata → continuità del traffico attraverso Hormuz”. L’IA ha proiettato nel futuro la stessa risposta, senza cogliere il salto di qualità strategico: l’Iran invece ha capito che la vera leva non sono i missili, ma la paralisi economica.
Un ex funzionario USA, che ha servito amministrazioni sia democratiche che repubblicane, è stato invece categorico: “Pianificare per prevenire questo scenario – per quanto a lungo sia sembrato impossibile – è stato un principio cardine della politica di sicurezza nazionale USA per decenni. Sono sbalordito”. La IA, e i funzionari attuali hanno dato come risolto, o impossibile da verificarsi, proprio lo scenario ritenuto più probabile e rischioso dagli analisti USA per decenni: il blocco di Hormuz.
Il piano della selezione dei modelli. Nelle settimane precedenti l’attacco, il Pentagono stava utilizzando Claude di Anthropic per simulazioni strategiche e analisi di intelligence. Ma il 27 febbraio, poche ore prima dell’attacco, Trump ha firmato un ordine esecutivo che imponeva a tutte le agenzie federali di cessare l’uso di Claude, definendo Anthropic una “azienda di sinistra radicale” e dichiarandola “rischio per la catena di fornitura”. Il motivo? Anthropic si rifiutava di rimuovere le salvaguardie etiche che impedivano l’uso del proprio modello per operazioni letali e chiedeva garanzie contro l’impiego in sistemi d’arma autonomi.
Questo significa che il modello più sofisticato, quello che aveva processato decine di migliaia di documenti persiani e simulato fino a centomila scenari, è stato messo da parte proprio nel momento cruciale. Al suo posto, il Pentagono si è rivolto a OpenAI, il cui CEO Sam Altman aveva accettato di fornire servizi per l’analisi di documenti classificati.
La domanda sorge spontanea: perché silurare proprio il modello che aveva la maggiore capacità predittiva? Una possibile risposta è che Claude, con le sue simulazioni, stesse producendo scenari sgraditi – magari proprio quelli che includevano la chiusura di Hormuz e le sue conseguenze catastrofiche. Sostituirlo con modelli più “accomodanti” (o semplicemente meno sofisticati) potrebbe essere stata una scelta politica, non tecnica.
Il piano delle fonti di intelligence utilizzate. Le simulazioni non lavorano nel vuoto: si nutrono dei dati che gli analisti umani forniscono. Se i vertici hanno chiesto agli analisti di “focalizzarsi” su certi scenari e “depriorizzarne” altri, l’IA ha semplicemente riflesso quel bias a monte. L’ammissione dei funzionari al Congresso – “non abbiamo pianificato lo scenario peggiore” – suggerisce che il bias era culturale e politico prima che algoritmico.
Il piano delle opzioni presentate al presidente. Un alto funzionario del Tesoro è stato letteralmente “strappato” da un’intervista televisiva per essere portato alla Situation Room. Al suo ritorno, appariva visibilmente scosso e ha offerto rassicurazioni poco plausibili sulle sorti della guerra. Questo episodio suggerisce che qualcosa, nei piani, non stava funzionando come previsto – e che le simulazioni non avevano preparato nessuno alla reale concatenazione degli eventi.
Al di là delle ipotesi sul bias deliberato, esiste un problema strutturale che nessuna regolazione degli input può risolvere. Come emerge da un’analisi approfondita pubblicata su una piattaforma cinese, l’IA militare americana ha un tallone di Achille: la “data boundary” (confine dei dati).
I sistemi di intelligenza artificiale utilizzati in guerra – dai droni autonomi ai modelli predittivi – funzionano sulla base di dati storici e parametri predefiniti. Le loro capacità operative (tempi di reazione, raggio di rilevamento, logiche di riconoscimento) sono “bloccate” in fabbrica e non possono essere aggiornate in tempo reale durante il combattimento.
Questo crea un paradosso: più l’IA è sofisticata, più è vulnerabile una volta che i suoi parametri vengono esposti. Facciamo un esempio: se un drone americano con tempi di reazione di 0,32 secondi viene catturato o analizzato, il nemico può sviluppare contromisure con tempi di reazione di 0,27 secondi, rendendolo obsoleto. Per questo motivo gli Stati Uniti hanno “congelato” l’uso di gran parte della loro robotica avanzata in Iran: non possono rischiare che Cina e Russia acquisiscano i dati operativi.
Applicato alle simulazioni strategiche, questo significa che, usciti dalla “fabbrica”, i modelli predittivi lavorano su scenari “noti” e comportamenti “già visti”. L’Iran non aveva mai chiuso completamente Hormuz in risposta a un attacco USA. Non c’erano dati su cui addestrare la previsione. L’IA non poteva “immaginare” una mossa che non era nei suoi archivi.
L’ironia è che l’IA statunitense aveva gli strumenti per immaginare scenari non lineari. Claude, in particolare, è stato progettato con architetture di “reasoning” avanzato che permettono di esplorare possibilità anche in assenza di dati storici. Ma è stato proprio quel modello a essere messo da parte per motivi politici e commerciali. Il fallimento tecnologico e politico degli scenari di simulazione USA non è, quindi, un errore tecnico, ma un errore politico ed epistemologico accelerato da una tecnologia, la IA, che ha velocemente gettato l’Iran nella distruzione e gli Usa in un pantano.
I modelli di simulazione algoritmica, gli scenari dei think-tank, le decisioni politiche hanno trattato la guerra come un problema lineare di ottimizzazione dei bersagli, quando era invece un ecosistema complesso fatto di retroazioni, emergenze e tipping points. Attraverso la IA passa anche tutto questo, bisogna esserne consapevoli.
Naturalmente, c’è un’altra IA che ha capito benissimo cosa stava accadendo: quella legata alla guerra finanziaria intesa come estrazione di profitto nei mercati legati alle crisi. E questo avviene nella più classica divisione del lavoro capitalistico. La lezione più profonda è che l’IA addestrata a distruggere valore (quella militare) ha fallito la previsione, mentre l’IA addestrata a catturare valore (quella finanziaria) ha anticipato correttamente la crisi. La differenza non sta nella potenza di calcolo, ma nell’architettura cognitiva: la prima cerca conferme dei propri piani, la seconda cerca anomalie che possano generare profitto. In un sistema complesso, entro la divisione capitalistica del lavoro, la seconda si rivela più efficace.
Come nota un commentatore USA, “ogni incidente militare locale è ora visto come un marker di rischio sistemico, capace di cambiare il comportamento degli investitori”. L’IA finanziaria aveva capito che Hormuz non era un problema militare, ma un nodo di una rete globale di dipendenze. Colpire quel nodo avrebbe innescato reazioni a catena che nessun modello lineare poteva catturare. E su quelle reazioni a catena, ha costruito le sue strategie di profitto.
Fonte
Nessun commento:
Posta un commento