Lo scontro tra la Casa Bianca e Anthropic si sta trasformando in uno degli episodi più convulsi mai visti all'intersezione tra tecnologia AI, potere militare e dinamiche di mercato. Quello che era iniziato come una disputa contrattuale sul perimetro di utilizzo dei sistemi di intelligenza artificiale si è rapidamente evoluto in una guerra politica a colpi di dichiarazioni presidenziali, etichette punitive senza precedenti e trattative riaperte nel giro di ore. Per il settore crypto e per chi monitora l'adozione istituzionale della tecnologia, questa vicenda rappresenta un monito chiaro: anche le aziende AI meglio finanziate possono vedersi azzerare i contratti governativi in tempi rapidissimi, con effetti a cascata su valutazioni e round di investimento.
Donald Trump ha dichiarato pubblicamente di aver "licenziato Anthropic come cani", nel corso di un'intervista a Politico. Poche ore dopo, il Pentagono ha formalizzato la misura più drastica a disposizione: la classificazione ufficiale di Anthropic come "supply chain risk", ovvero rischio per la catena di approvvigionamento, con effetto immediato. È la prima volta nella storia che questa etichetta viene applicata a un'azienda statunitense, segnando un precedente che potrebbe ridefinire il rapporto tra governo e big tech nel campo dell'AI.
Paradossalmente, nelle stesse ore in cui il Pentagono formalizzava il blacklisting, sia il Financial Times che Bloomberg riportavano la ripresa dei negoziati tra il Dipartimento della Difesa e Anthropic. Al centro del tavolo ci sono Dario Amodei, CEO di Anthropic, e Emil Michael, sottosegretario alla Difesa per ricerca e ingegneria ed ex dirigente di Uber: due figure che, secondo il New York Times, si guardano con profonda diffidenza reciproca.
Il contesto operativo rende la posta ancora più alta. I prodotti di Anthropic, tra cui il chatbot Claude e i suoi assistenti di coding, sono integrati nel sistema Maven di Palantir, strumento chiave di intelligence militare che — secondo il Washington Post — è stato impiegato nei recenti attacchi contro l'Iran. Il nodo centrale del conflitto ruota intorno al rifiuto di Anthropic di cedere al governo il controllo sui propri modelli, per timore che venissero usati per sorveglianza di massa interna o per armi completamente autonome.
Le implicazioni finanziarie sono immediate e concrete: secondo Axios, l'ultimo round di finanziamento di Anthropic, valutato a circa 60 miliardi di dollari, è ora in bilico proprio a causa di questo conflitto con le autorità federali. In un ecosistema dove le valutazioni delle aziende AI ricordano i momenti più euforici del mercato crypto del 2021, vedere una simile somma messa in discussione da una disputa politica è un segnale di volatilità sistemica che non va sottovalutato.
Nel mezzo della crisi, il principale beneficiario è stato OpenAI: la società di Sam Altman ha colto l'opportunità annunciando un accordo con il Dipartimento della Difesa per l'uso della propria tecnologia nelle reti classificate militari. La mossa ha attirato accuse di opportunismo, e non solo da parte di Amodei, che in un messaggio interno — poi trapelato alla stampa — ha definito Altman "mendace" e ha bollato le sue garanzie sulle misure di sicurezza come semplice "safety theater", ovvero una scenografia di sicurezza priva di sostanza reale.
Lo stesso Altman ha poi ammesso in una comunicazione interna ai dipendenti che OpenAI non avrà controllo su come l'esercito utilizzerà la sua tecnologia, e ha riconosciuto che il comportamento dell'azienda era apparso "opportunistico e sciatto". Questa sequenza di eventi ha avuto un effetto inatteso: l'app di Claude è schizzata in cima alle classifiche di download negli Stati Uniti, trasformando il conflitto politico in un indiretto impulso di adozione consumer.
Amodei ha poi rilasciato una dichiarazione pubblica per scusarsi del tono del messaggio trapelato. "È stata una giornata difficile per l'azienda, e mi scuso per il tono del post. Non riflette le mie opinioni ragionate e ponderate. Era stato scritto sei giorni fa ed è una valutazione non aggiornata della situazione attuale", ha scritto il CEO, precisando che Anthropic non ha orchestrato la fuga di notizie.
Sul fronte legale, Amodei ha già annunciato che Anthropic intende fare causa per la designazione come rischio per la supply chain. Nel frattempo, Microsoft ha chiarito attraverso un suo portavoce che i propri legali hanno analizzato l'etichetta e concluso che i prodotti Anthropic, incluso Claude, possono continuare a essere disponibili ai clienti Microsoft — ad eccezione del Dipartimento della Difesa — tramite piattaforme come M365, GitHub e Microsoft AI Foundry. Una distinzione rilevante che preserva una fetta consistente del business commerciale.
La Silicon Valley, inclusa OpenAI stessa, si è in larga parte schierata a difesa di Anthropic contro la designazione come supply chain risk, un segnale che l'industria tech percepisce questa mossa come un precedente pericoloso per tutte le aziende del settore. Anche il Dipartimento di Stato e il Dipartimento del Tesoro hanno già avviato il processo di interruzione dei contratti con Anthropic, seguendo la direttiva presidenziale emanata la scorsa settimana.
Nei prossimi giorni si capirà se i negoziati ripresi porteranno a un accordo che riporti Anthropic all'interno del perimetro dei contractor governativi, oppure se lo scontro sfocerà in un contenzioso legale prolungato. Per gli investitori e per chiunque stia monitorando l'intersezione tra AI e adozione istituzionale, questa vicenda dimostra quanto sia fragile l'equilibrio tra innovazione tecnologica, interessi di sicurezza nazionale e dinamiche politiche — un rischio che, nel settore delle tecnologie emergenti, non è mai troppo lontano dal prezzo di qualunque asset.