Presentazione


Analisi, opinioni, fatti e (più di rado) arte da una prospettiva di classe.

06/03/2026

Anthropic, l’etica è un problema per il Pentagono

Nelle ultime settimane si sta consumando nel mondo dell’AI a stelle e strisce una vicenda dai toni abbastanza singolari. Infatti, è diventato celebre al grande pubblico il nome di Dario Amodei, fondatore italo-americano di Anthropic – società nota per l’LLM Claude –, per la sua rottura con il Dipartimento della Guerra USA.

Una posizione piuttosto rilevante se osserviamo le ideologie di altri falchi del settore dell’IA inquadrati all’interno del complesso militare americano, come Peter Thiel di Palantir o lo stesso Altman di OpenAI, il quale si è affrettato a sostituirsi come partner del Dipartimento della Guerra in seguito alla frattura consumatasi proprio con Anthropic.

Amodei è nato a San Francisco nel 1983 da padre italiano e madre statunitense di origini ebraiche. Ha studiato in prestigiose università americane, laureandosi a Stanford, conseguendo un dottorato a Princeton e studiando come Postdoc nuovamente a Stanford.

Dopo i suoi studi comincia a lavorare nel settore dell’IA, prima a Baidu, poi a Google ed infine ad OpenAI. Nel 2021 a causa di alcune divergenze di vedute esce dalla società e fonda Anthropic insieme alla sorella Daniela.

Amodei è sempre stato molto attento alle questioni etiche legate allo sviluppo e all’utilizzo dell’IA e cura un blog dove pubblica le sue vedute sull’argomento. Ai fini della comprensione delle vicende attuali, risultano interessanti le sue ultime pubblicazioni a riguardo.

Nei suoi lunghi post il patron di Anthropic tratteggia un futuro prossimo in cui la tecnologia dell’IA raggiungerà la maturità tecnica e si pone tutta una serie di questioni etiche, che fanno da contraltare alla linea dell’azienda di perseguire lo sviluppo della Constitutional AI, ovvero un’IA etica.

In particolare alcuni scenari interessanti ipotizzano come un attore malevolo possa utilizzare un sistema che permette di organizzare sistematicamente conoscenze approfondite nei vari ambiti della scienza e della tecnica per portare a termine atti di terrorismo, sabotaggio o di repressione.

Si fa riferimento ad esempio allo sviluppo di nuove armi batteriologiche, alla realizzazione di crimini informatici su vasta scala e alla creazione di sistemi di sorveglianza e repressione di massa. Amodei identifica come immediato attore malevolo con una grande esperienza e importanti capacità nell’IA la Cina, ovviamente, ma avverte che anche i paesi “democratici” potrebbero sfruttare l’IA per imprimere una svolta autoritaria al loro interno.

Un altro punto cardine della sua riflessione è lo sviluppo dei droni e di potenziali armi autonome in grado di decidere senza la supervisione umana se uccidere un bersaglio o meno.

Proprio questi due punti sono centrali nel comunicato pubblicato dallo stesso Amodei sul sito di Anthropic alcuni giorni fa, in risposta alla rescissione di tutti i contratti siglati con il Dipartimento della Guerra USA, l’inserimento di Anthropic nella lista delle aziende a rischio per la catena di fornitura della difesa ed il divieto assoluto di utilizzo dei suoi prodotti da parte degli apparati governativi statunitensi.

Infatti, il rifiuto di realizzare armi del tutto autonome e quello di perfezionare la schedatura di massa di tutta la popolazione americana sono i due problemi etici posti da Amodei al governo Maga che sono costati all’azienda i miliardari appalti del ministero della difesa, prontamente presi in carico da OpenAI.

Rimangono però in questa vicenda alcune questioni poco chiare. Pare infatti che i nuovi accordi siglati da Sam Altman contengano clausole molto simili a quelle richieste in precedenza da Amodei. Inoltre, importanti giornali statunitensi come il WSJ affermano che l’utilizzo di Claude sia stato centrale nella pianificazione degli obbiettivi da colpire nella guerra di questi giorni contro l’Iran.

Dunque, il governo, dopo aver fatto una campagna mediatica per screditare Antropic – arrivando a definire Amodei un estremista di sinistra antiamericano – ed essersi affidato al suo più diretto competitor, continua imperterrito ad utilizzare gli strumenti della società classificata come rischio per la sicurezza nazionale, al pari della cinese Huawei.

Fonte

Nessun commento:

Posta un commento