(Teleborsa) - La crisi tra
Anthropic (il provider della IA
Claude) e il
Dipartimento della Difesa statunitense ha raggiunto il suo apice venerdì 27 febbraio, segnando un punto di svolta nei rapporti tra industria dell'intelligenza artificiale e apparato militare americano. Il presidente Trump ha ordinato a tutte le agenzie federali di cessare l'utilizzo dei prodotti Anthropic, mentre il Pentagono ha designato l'azienda come
rischio per la sicurezza nazionale, una misura fino ad oggi riservata esclusivamente a soggetti stranieri considerati ostili.
Le origini dello scontroAl centro della disputa vi sono due clausole contrattuali che Anthropic ha difeso con fermezza: il divieto di utilizzare la propria IA per armi completamente autonome — ovvero sistemi in cui l'intelligenza artificiale, e non l'uomo, prende le decisioni finali sul campo di battaglia — e il divieto di sorveglianza di massa sui cittadini americani. Anthropic disponeva di un contratto dal valore massimo di 200 milioni di dollari con il Pentagono per promuovere l'uso responsabile dell'IA nelle operazioni di difesa, operando attraverso la società di analisi dati
Palantir sulle reti classificate.
Il Segretario alla Difesa
Pete Hegseth ha preteso che i modelli IA fossero disponibili per "tutti gli usi leciti", senza restrizioni imposte dall'azienda. Hegseth ha comunicato al CEO
Dario Amodei che, in assenza di un accordo, il Pentagono avrebbe cancellato il contratto. Anthropic ha replicato definendo le minacce "intrinsecamente contraddittorie" — da un lato l'etichetta di rischio per la sicurezza, dall'altro il riconoscimento di Claude come essenziale per la difesa nazionale — e ha dichiarato di non poter "in buona coscienza" accettare le richieste.
La ritorsione e le conseguenze economicheSi tratta della prima volta in assoluto che un'azienda americana viene designata come rischio per la catena di approvvigionamento e la prima volta che tale designazione viene utilizzata come apparente ritorsione per il mancato accordo su termini contrattuali. La perdita diretta del contratto da 200 milioni di dollari è relativamente contenuta per una società che, secondo le stime, è in grado di generare fino a 18 miliardi di dollari di ricavi quest'anno. Il rischio maggiore è di natura sistemica: se l'interpretazione di Hegseth dovesse reggere, molte grandi imprese che hanno adottato i modelli Claude — e che intrattengono rapporti commerciali con il Pentagono — potrebbero essere costrette a interrompere ogni attività con Anthropic. Anche investitori come
Amazon,
Google e
Nvidia potrebbero dover disinvestire, privando l'azienda di risorse cruciali. La designazione potrebbe
compromettere la traiettoria di crescita e la prevista IPO di Anthropic.
OpenAI si inserisce nel vuotoPoche ore dopo la rottura, il CEO di OpenAI
Sam Altman ha annunciato un accordo con il Dipartimento della Difesa per il dispiegamento dei propri modelli sulle reti classificate del Pentagono. OpenAI ha dichiarato che il Pentagono ha accettato che l'azienda possa integrare soluzioni tecniche nei propri modelli per impedirne l'uso nella sorveglianza di massa o nelle armi autonome letali. Tuttavia, la differenza cruciale risiede nell'approccio: mentre Anthropic ha insistito su restrizioni esplicite nel contratto, OpenAI ha accettato che il Pentagono utilizzi la sua tecnologia per "qualsiasi scopo lecito", affermando al contempo di aver inserito le limitazioni nell'accordo. Il CEO Sam Altman ha invocato una de-escalation della situazione e ha chiesto al Pentagono di offrire termini standard a tutti i laboratori di IA.
Le implicazioni per l'intero settoreAltman ha scritto ai dipendenti che la vicenda "non è più solo una questione tra Anthropic e il Pentagono; è una questione per l'intera industria". Una lettera aperta indirizzata al Pentagono e al Congresso, firmata anche da undici dipendenti OpenAI, ha affermato che il governo federale non dovrebbe ritorcersi contro un'azienda privata per aver rifiutato modifiche contrattuali.
Sul piano giuridico, diversi esperti hanno sottolineato che il vero problema è l'assenza di una legislazione del Congresso sull'IA militare: se esistessero norme chiare su armi autonome e sorveglianza, Anthropic sarebbe probabilmente più disponibile a fornire i propri sistemi, e la questione dei valori da incorporare nell'IA militare non dovrebbe essere risolta attraverso uno statuto dell'era della Guerra Fredda.
Dean Ball, ex consulente per le politiche sull'IA dell'amministrazione Trump, ha definito l'azione di Hegseth "quasi certamente illegale" e un "tentato omicidio aziendale". Anthropic ha annunciato che impugnerà in tribunale qualsiasi designazione come rischio per la catena di approvvigionamento, definendola "giuridicamente infondata" e un "pericoloso precedente per qualsiasi azienda americana che negozi con il governo".
In un paradosso significativo, l'app Claude di Anthropic è
balzata al primo posto nella classifica delle app gratuite più scaricate su Apple negli Stati Uniti il giorno dopo la decisione dell'amministrazione Trump, a dimostrazione di come l'opinione pubblica possa premiare chi difende principi etici anche a costo di un confronto con il potere politico. La vicenda, tuttavia, è destinata a protrarsi nelle aule dei tribunali e nei corridoi del Congresso, ridefinendo per gli anni a venire i confini tra innovazione tecnologica, sicurezza nazionale e valori democratici.