Il quotidiano britannico The Guardian, in un lungo servizio che riprende una inchiesta di Yuval Abraham sul sito israeliano +972, ha rivelato come le forze armate israeliane stiano utilizzando l’intelligenza artificiale per individuare gli obiettivi palestinesi da colpire ma anche per calcolare i civili che moriranno come “effetti collaterali”.
L’inchiesta riporta come l’esercito israeliano non ha fatto mistero dell’intensità dei suoi bombardamenti sulla Striscia di Gaza. Nei primi giorni dell’offensiva, il capo delle forze aeree ha parlato di attacchi aerei incessanti, “24 ore su 24”. Le sue forze, ha detto, stavano colpendo solo obiettivi militari, ma ha aggiunto: “Non siamo chirurgici”.
Tuttavia – scrive The Guardian – è stata prestata relativamente poca attenzione ai metodi utilizzati dalle Forze di Difesa Israeliane (IDF) per selezionare gli obiettivi a Gaza e al ruolo che l’intelligenza artificiale ha svolto nella loro campagna di bombardamenti.
Secondo il ministero della Sanità di Gaza le forze armate israeliano hanno finora ucciso quasi 20.000 palestinesi nel territorio della Striscia.
L’IDF si è a lungo guadagnato la reputazione di essere tecnicamente esperto e in passato ha fatto affermazioni audaci, ma non verificabili, sull’utilizzo di nuove tecnologie, commenta il quotidiano britannico. “Dopo la guerra di 11 giorni a Gaza nel maggio 2021, gli ufficiali hanno dichiarato che Israele ha combattuto la sua ‘prima guerra AI’ utilizzando l’apprendimento automatico e l’informatica avanzata“.
L’ultima guerra tra Israele e Hamas ha fornito un’opportunità senza precedenti per l’IDF di utilizzare tali strumenti in un teatro operativo molto più ampio e, in particolare, di impiegare una piattaforma di creazione di bersagli AI chiamata Gospel (“il Vangelo”), che ha accelerato in modo significativo una linea di produzione letale di bersagli che i funzionari hanno paragonato a una “fabbrica”.
The Guardian è in grado di rivelare nuovi dettagli sul Gospel e sul suo ruolo centrale nella guerra di Israele a Gaza, utilizzando interviste con fonti dell’intelligence e dichiarazioni poco note rilasciate dall’IDF e da ufficiali in pensione.
L’articolo si basa anche sulle testimonianze pubblicate dalla rivista israelo-palestinese +972 Magazine e dal giornale in lingua ebraica Local Call, che hanno intervistato diverse fonti, sia attuali che ex membri dei servizi segreti israeliani a conoscenza della piattaforma Gospel.
“Altri Stati osserveranno e impareranno”, ha dichiarato un ex funzionario della Casa Bianca che ha familiarità con l’uso di sistemi autonomi da parte dell’esercito statunitense.
La guerra tra Israele e Hamas, hanno detto, sarebbe un “momento importante se l’IDF utilizzasse l’IA in modo significativo per fare scelte di puntamento con conseguenze sulla vita e sulla morte”.
Descrivendo il processo di targeting dell’unità, un funzionario ha affermato che: “Lavoriamo senza compromessi per definire chi e cosa sia il nemico. I militanti di Hamas non sono immuni – non importa dove si nascondano”.
Le attività della divisione che si occupa di Gospel, è stata costituita nel 2019 all’interno della direzione dell’intelligence dell’IDF, ma sono estremamente riservate.
The Guardian scrive che in una breve dichiarazione sul sito web dell’IDF, si afferma che la divisione sta utilizzando un sistema basato sull’intelligenza artificiale, chiamato Habsora (Gospel, in inglese), nella guerra contro Hamas per “produrre obiettivi ad un ritmo veloce”.
Diverse fonti che hanno familiarità con i processi di targeting dell’IDF hanno confermato l’esistenza di Gospel a +972 e Local Call, affermando che è stato utilizzato per produrre raccomandazioni automatiche per attaccare obiettivi, come le case private di individui sospettati di essere militanti di Hamas o della Jihad islamica.
Negli ultimi anni, la divisione obiettivi ha aiutato le forze armate israeliane a costruire un database di 30.000-40.000 sospetti militanti. Sistemi come il Gospel, riferiscono le fonti, hanno svolto un ruolo fondamentale nella costruzione di liste di individui autorizzati ad essere assassinati.
Aviv Kochavi, che è stato a capo dell’IDF fino a gennaio, ha dichiarato che la divisione Target (bersagli, ndr) è “alimentata da capacità AI” e comprende centinaia di ufficiali e soldati. In un’intervista pubblicata prima della guerra, ha dichiarato che si tratta di “una macchina che produce grandi quantità di dati in modo più efficace di qualsiasi umano e li traduce in obiettivi da attaccare”.
Secondo Kochavi, “una volta che questa macchina è stata attivata” nella guerra di 11 giorni di Israele contro Hamas nel maggio 2021, ha generato 100 obiettivi al giorno. “Per metterlo in prospettiva, in passato producevamo 50 obiettivi a Gaza all’anno. Ora, questa macchina produce 100 obiettivi al giorno, il 50% dei quali viene attaccato”.
The Guardian sottolinea come non si sa con precisione quali forme di dati vengano ingerite nel sistema Gospel.
Ma gli esperti hanno detto che i sistemi di supporto decisionale basati sull’intelligenza artificiale per il targeting analizzano in genere grandi insiemi di informazioni provenienti da una serie di fonti, come i filmati dei droni, le comunicazioni intercettate, i dati di sorveglianza e le informazioni ricavate dal monitoraggio dei movimenti e dei modelli di comportamento di individui e grandi gruppi.
Previsioni sul numero di civili da uccidere
Quanto rivelato da The Guardian ci porta poi in una sorta di museo dell’orrore e del cinismo tra le fila delle forze armate israeliane. La divisione Target è stata infatti creata per risolvere un problema cronico dei militari.
Nei precedenti bombardamenti su Gaza, l’aviazione ha ripetutamente esaurito gli obiettivi da colpire. Poiché gli ufficiali di alto livello di Hamas scomparivano nei tunnel all’inizio di ogni nuova offensiva. Sistemi come Gospel hanno permesso all’IDF di individuare e attaccare un gruppo molto più ampio di militanti di Hamas più giovani.
Un funzionario, che ha lavorato sulle decisioni di puntamento nelle precedenti operazioni a Gaza, ha detto che l’IDF non aveva mai preso di mira le case dei membri minori di Hamas per i bombardamenti. Ha detto di ritenere che ciò sia cambiato per l’attuale conflitto, con le case dei sospetti agenti di Hamas ora prese di mira indipendentemente dal grado.
Agli obiettivi viene assegnato un “punteggio” per il probabile numero di vittime civili
Nella breve dichiarazione dell’IDF sulla sua divisione di obiettivi, un alto funzionario ha detto che l’unità “produce attacchi precisi contro le infrastrutture associate ad Hamas, infliggendo grandi danni al nemico e danni minimi ai non combattenti”.
La precisione degli attacchi raccomandati dalla “banca degli obiettivi dell’IA” è stata sottolineata in diversi rapporti dei media israeliani. Il quotidiano Yedioth Ahronoth ha riferito che l’unità “si assicura che, per quanto possibile, non vi siano danni ai civili non coinvolti”.
Un’ex fonte militare israeliana di alto livello ha dichiarato al Guardian che gli agenti utilizzano una misurazione “molto accurata” del tasso di civili che evacuano un edificio poco prima di un attacco. “Usiamo un algoritmo per valutare quanti civili sono rimasti. Ci dà un verde, un giallo, un rosso, come un segnale stradale”.
Ma gli esperti di IA e di conflitti armati consultati dal Guardian si sono detti scettici riguardo alle affermazioni secondo cui i sistemi basati sull’Intelligenza Artificiale ridurrebbero i danni ai civili incoraggiando una maggiore precisione dei bersagli.
“Guardate il paesaggio fisico di Gaza”, ha detto Richard Moyes, un ricercatore a capo di Article 36, un gruppo che si batte per ridurre i danni causati dalle armi citato dal Guardian. “Stiamo assistendo all’appiattimento diffuso di un’area urbana con armi esplosive pesanti, quindi affermare che ci sia precisione e ristrettezza della forza esercitata non è confermato dai fatti”.
Secondo i dati diffusi dall’IDF a novembre, nei primi 35 giorni di guerra Israele ha attaccato 15.000 obiettivi a Gaza, una cifra notevolmente superiore alle precedenti operazioni militari nella Striscia densamente popolato. In confronto, nella guerra del 2014, durata 51 giorni, l’IDF ha colpito tra i 5.000 e i 6.000 obiettivi.
Diverse fonti hanno riferito al Guardian e a +972/Local Call che quando si autorizzava un attacco alle abitazioni private di individui identificati come militanti di Hamas o della Jihad islamica, i ricercatori degli obiettivi conoscevano in anticipo il numero di civili che si prevedeva sarebbero stati uccisi.
Ogni obiettivo, hanno detto, aveva un file contenente un punteggio di danno collaterale che stabiliva quanti civili potevano essere uccisi in un attacco. Una fonte che ha lavorato fino al 2021 alla pianificazione degli attacchi per l’IDF ha detto che “la decisione di colpire è presa dal comandante dell’unità in servizio”, alcuni dei quali erano “più propensi a premere il grilletto di altri”.
La fonte ha detto che ci sono state occasioni in cui “c’erano dubbi su un obiettivo” e “abbiamo ucciso quello che pensavo fosse una quantità sproporzionata di civili”.
Una “fabbrica di assassini di massa”
I sistemi basati sull’intelligenza artificiale integrati nelle operazioni dell’IDF hanno accelerato in modo significativo il processo di creazione dei bersagli.
“Prepariamo i bersagli automaticamente e lavoriamo secondo una lista di controllo”, ha dichiarato a +972/Local Call una fonte che in passato ha lavorato nella divisione Target. “È davvero come una fabbrica. Lavoriamo velocemente e non c’è tempo per approfondire l’obiettivo. L’opinione è che siamo giudicati in base al numero di obiettivi che riusciamo a generare”.
Una fonte separata ha detto al Guardian che il sistema Gospel ha permesso all’IDF di gestire una “fabbrica di assassini di massa” in cui “l’enfasi è sulla quantità e non sulla qualità”. Un occhio umano, hanno detto, “esaminerà gli obiettivi prima di ogni attacco, ma non ha bisogno di dedicare loro molto tempo”.
Richard Moyes, di Articolo 36, ha affermato che quando ci si affida a strumenti come Gospel, un comandante “riceve una lista di obiettivi generata da un computer” e “non necessariamente sa come la lista è stata creata o ha la capacità di interrogare e mettere in discussione adeguatamente le raccomandazioni di puntamento”.
“C’è il rischio”, ha aggiunto Moyes, “che gli uomini, affidandosi a questi sistemi, diventino ingranaggi di un processo meccanizzato e perdano la capacità di considerare il rischio di danni ai civili in modo significativo”.
P.s. Tutto ciò appare come un deciso passo in avanti rispetto ai campi di sterminio nazisti, che si avvalevano “soltanto” di “mezzi analogici”. Forse presto ascolteremo qualcuno di questi “esecutori inconsapevoli” farfugliare autodifese in stile Eichmann peggiorato (“obbedivo soltanto agli ordini…” di una macchina).
Fonte
Nessun commento:
Posta un commento