Amodei contro Hegseth (e Trump)

Il padre della teoria matematica dell’informazione, Claude Shannon, durante la Seconda Guerra Mondiale si è occupato di crittografia dei messaggi, ma anche di sistemi automatici di puntamento del fuoco per l’artiglieria antiaerea. Il sistema di intelligenza artificiale di Anthropic, che è stato battezzato Claude in suo onore, serve la patria dal luglio 2025, con un contratto da 200 milioni di dollari per una durata di due anni, siglato con il Pentagono. Ma, al contrario del suo omonimo predecessore, non sembra essere disposto a eseguire whatever it takes le direttive dei vertici militari; o almeno, Dario Amodei – che di Anthropic è fondatore e CEO in carica – cerca di ottenere un rispetto letterale degli accordi contrattuali. Donald Trump ha disseppellito l’etichetta di Dipartimento della Guerra dagli archivi novecenteschi, e ha assegnato a Pete Hegseth l’incarico di gestire il ministero secondo lo stile tipico dell’attuale governo americano: operatività tramite decreti, senza scrutinio pubblico, sotto la pressione costante di qualche (presunta) emergenza per la sicurezza nazionale. Lo stato di criticità dovrebbe dispensare l’amministrazione militare da un eccesso di scrupolo nell’osservanza di patti e clausole.

Il dissidio tra Anthropic e Hegseth divampa dopo l’operazione che nei primi giorni di gennaio 2026 ha condotto al sequestro del presidente Nicolás Maduro in Venezuela. Amodei lamenta un’infrazione alle restrizioni sull’uso dei modelli AI sviluppati dalla sua azienda, che ne vietano l’adozione per attività di sorveglianza di massa sui cittadini americani e per l’applicazione ad armi «autonome» (cioè capaci di individuare e uccidere il bersaglio senza un controllo diretto da parte di un essere umano). Il ministro accusa Anthropic di tradimento, perché la sua protesta equivarrebbe ad una forma di opposizione alle strategie di protezione della sicurezza degli Stati Uniti messe in atto dal Pentagono.

Il primo atto della disputa si sarebbe dovuto concludere con l’ordine rivolto a tutte le agenzie federali, diramato da Trump il 27 febbraio tramite il social network Truth, di interrompere ogni collaborazione con Anthropic: «Gli Stati Uniti non permetteranno mai a un’azienda di sinistra e woke di dettare come il nostro grande esercito combatta e vinca le guerre! Questa decisione spetta al vostro comandante in capo e agli straordinari leader che nomino per guidare il nostro esercito. L’egoismo di Anthropic sta mettendo a rischio le vite degli americani e in pericolo i nostri soldati e la nostra sicurezza. Pertanto, ordino a tutte le agenzie federali del governo degli Stati Uniti di cessare immediatamente ogni utilizzo della tecnologia Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!»

Ma meno di ventiquattro ore dopo l’imperativo trumpiano è stato disatteso proprio dal Dipartimento della Guerra, che è ricorso di nuovo ai servizi di Claude per sferrare l’attacco del 28 febbraio contro la Guida Suprema Alì Khamenei in Iran. Il problema infatti è che i servizi di Anthropic sono molto integrati con quelli dell’altro partner dell’esercito americano nelle operazioni di intelligence, Palantir, perché la dismissione delle tecnologie di Amodei possa avvenire da un giorno all’altro. Hegsteh in persona è stato costretto ad annunciare, questa volta su X, che «Anthropic continuerà a fornire i suoi servizi al Dipartimento della Guerra per un periodo di non oltre sei mesi, per assicurare una transizione senza interruzioni di continuità».

Cosa faceva Anthopic per il Dipartimento della Guerra?

Difficile rispondere a questa domanda, perché le operazioni in cui sono coinvolti i suoi modelli AI sono coperti dal segreto militare. L’articolo con cui il Wall Street Journal riferisce che Claude ha svolto un ruolo nel corso dell’attacco all’Iran, dichiara che secondo la sua fonte il comando militare in Medio Oriente ha adottato il software per funzioni di operational support alle azioni di combattimento. Questa etichetta escluderebbe un coinvolgimento diretto negli scenari di guerra, per due ordini di motivi.

Il primo riguarda l’ambito di attività di solito catalogate come «supporto operativo», che investe l’intelligence da cui il conflitto viene preceduto e accompagnato (e spesso anche evitato): l’analisi dei dati con cui si individuano gli attori rilevanti per le decisioni strategiche del nemico, si decifrano i loro messaggi, si interpretano le loro decisioni – si infiltrano informazioni false, si dirotta l’attenzione degli avversari, si manipolano le loro convinzioni, si avvicina la loro opinione pubblica alle istanze più favorevoli ai propri vantaggi.

Il secondo insiste sulle caratteristiche dei modelli AI sviluppati da Anthropic, che sono degli LLM (Large Language Model) focalizzati sull’elaborazione linguistica. Claude appartiene ad una famiglia di tecnologie che sono abili a leggere testi, a individuare pattern nei loro contenuti, a interpretare le combinatorie di significanti che li compongono, e anche a replicarle in modo credibile. La sua applicazione nelle operazioni di spionaggio che hanno preceduto l’attacco potrebbe quindi essere stata mirata a esaminare milioni o miliardi di testi, per lo più in farsi e nelle altre lingue parlate in Iran, con lo scopo di selezionare il cluster di messaggi scambiati tra le autorità politiche e militari del regime, per estrarre informazioni utili sull’agenda dei loro movimenti, sulle decisioni da discutere o già deliberate, sui loro modi per identificarsi (in codice o in chiaro), sui rapporti reciproci – almeno per quello che si può dedurre dalle loro conversazioni. L’inizio dell’attacco infatti ha coinciso con il momento in cui Khamenei avrebbe incontrato alcuni dei funzionari più elevati all’interno del Beit E Rahbari, il complesso di edifici a Teheran destinato ai lavori dei vertici istituzionali.

Da questi assunti sembra plausibile che l’impiego delle tecnologie di Anthropic non intersechi il problema morale delle armi autonome, ma possa in qualche modo collidere con il rifiuto di partecipare a operazioni di sorveglianza di massa – vista l’enorme quantità di messaggi che devono essere stati vagliati dal software per derivare il corpus di comunicazioni utili alle operazioni di intelligence. L’integrazione con i software di Palantir – di cui si sa sempre poco, ma abbastanza per dedurre che siano impiegati per identificare i bersagli degli attacchi – confermerebbe che il contributo di Claude riguardi l’interpretazione di grandi moli di dati testuali, al fine di individuare autori, contenuti dei messaggi, decrittazione di codici. In altre parole, il software di Amodei somiglierebbe allo Shannon originale, molto più che a una qualche incarnazione di Terminator, libera di circolare per il mondo.

È possibile naturalmente che Anthropic abbia sviluppato anche altri modelli di AI, disegnati su esigenze specifiche del Pentagono, e non coincidenti con quelli che rappresentano il core business aziendale: al momento non esistono prove per accogliere o rigettare la tesi, anche se in soli sei mesi di attività non è molto probabile che si sia potuta generare la versione stabile di un software completamente nuovo. Tuttavia Amodei, che ha annunciato ricorso in tribunale contro la rescissione del contratto unilaterale da parte del Dipartimento della Guerra, è già riuscito con questa vicenda a raggiungere un risultato di tutto rispetto: Claude dal 1° marzo è balzata dal 131° al 1° posto delle app più scaricate nell’App Store. 

L’accordo siglato da Anthropic con il Pentagono

Questo accordo la rendeva l’unica società di sviluppo AI, insieme a Palantir, impegnata a lavorare su attività coperte per intero dal segreto militare; le collaborazioni accordate con il ministero di Hegseth da Alphabet, OpenAI e Microsoft, non raggiungevano questo livello di profondità. Sembra improbabile quindi che Amodei non conoscesse il tipo di operazioni per le quali la sua tecnologia sarebbe stata impiegata: la sua sorpresa appare poco credibile. Eppure i toni di aggressività da fumetto, e il linguaggio infantile di Trump e Hegseth, hanno restituito smalto e plausibilità all’immagine di paladino della sicurezza AI che Amodei si è attribuito nelle ultime settimane, e hanno tirato la sua abile, anche se pericolosa, campagna marketing per Claude. 

Anthropic ha concluso nel febbraio 2026 la raccolta di 30 miliardi di dollari di finanziamento, con un round di serie G, portando il suo valore post-money a 380 miliardi di dollari; sembra stia puntando ad una collocazione in borsa nei prossimi 12-18 mesi. Wall Street val bene una commessa del Pentagono.

Autore

  • Si occupa di media digitali dal 1999: è co-fondatore di Pquod e VentunoLab, società specializzate nella comunicazione web e nell’analisi di dati. Ha svolto attività di docenza per il Politecnico di Milano e l’Università degli Studi di Milano. Dal 2011 pubblica sulle testate Linkiesta, pagina99, Gli Stati Generali. È il direttore responsabile di Controversie. Per le pubblicazioni: https://scholar.google.com/citations?hl=it&user=zSiJu3IAAAAJ

    Leggi tutti gli articoli