Per anni, il rapporto tra i pionieri dell’IA della Silicon Valley e il Dipartimento della Difesa (DoD) è stato una danza delicata di reciproca necessità. Ma a partire dal febbraio 2026, quella danza si è trasformata in una rissa pubblica ed esistenziale. Al centro del conflitto c’è Anthropic, la startup focalizzata sulla sicurezza ora valutata l’incredibile cifra di 380 miliardi di dollari, e una clausola di tre parole apparentemente semplice che il Pentagono sta esigendo nei suoi ultimi contratti di appalto: “qualsiasi uso lecito”.
Sebbene la frase suoni come un gergo legale standard, rappresenta un cambiamento fondamentale nel modo in cui l’intelligenza artificiale verrà impiegata nella guerra moderna. Per Anthropic, accettare questi termini significherebbe smantellare proprio il quadro della “IA Costituzionale” che definisce il suo marchio. Per il Pentagono, è una questione di sicurezza nazionale e di garanzia che l’IA americana non sia ostacolata dall’etica del settore privato in una corsa agli armamenti globale.
La disposizione “qualsiasi uso lecito” è il nuovo standard di riferimento per l’integrazione dell’IA del DoD. In sostanza, richiede ai fornitori di IA di rinunciare alle loro specifiche politiche di “uso accettabile” — le regole che solitamente vietano l’uso dell’IA per la violenza, la sorveglianza o lo sviluppo di armi — purché l’applicazione dei militari sia ritenuta legale ai sensi del diritto internazionale e nazionale.
I rapporti indicano che OpenAI e xAI di Elon Musk hanno già aggiornato silenziosamente i loro termini di servizio per soddisfare questo requisito. Così facendo, hanno spianato la strada affinché i loro modelli vengano integrati nella “kill chain” — il processo di identificazione, tracciamento e ingaggio dei bersagli. Anthropic, tuttavia, rimane l’unica voce fuori dal coro tra i “Big Three” dei fornitori di modelli di base, portando a una battaglia durata settimane fatta di memo trapelati e pungenti scambi sui social media.
Per capire perché Anthropic stia puntando i piedi, bisogna guardare a come sono costruiti i suoi modelli. A differenza di altri LLM che vengono perfezionati principalmente attraverso il feedback umano, i modelli Claude di Anthropic sono governati da una “Costituzione” — un insieme di principi scritti che l’IA utilizza per supervisionare il proprio comportamento.
Se il Pentagono integrasse Claude in un sistema progettato per la sorveglianza di massa o, più controversamente, in Sistemi d’Arma Autonomi Letali (LAWS), l’IA si troverebbe di fronte a un paradosso logico. La sua programmazione principale le impedisce di assistere in azioni dannose o di violare i diritti umani, eppure i suoi comandi operativi richiederebbero esattamente questo.
“Non stiamo parlando solo di un cambio di politica,” ha osservato un ingegnere anonimo di Anthropic in un recente forum. “Stiamo parlando di lobotomizzare l’architettura di sicurezza che rende il nostro modello quello che è. Non si può avere un’IA ‘sicura’ che sia anche autorizzata a decidere autonomamente di terminare un bersaglio.”
Il punto di attrito più significativo riguarda l’IA in grado di tracciare e uccidere bersagli senza un essere umano “nel circuito” (in the loop). Mentre il Pentagono sostiene ufficialmente che gli esseri umani prenderanno sempre la decisione finale sull’uso della forza letale, la clausola “qualsiasi uso lecito” fornisce la copertura legale per un futuro in cui la velocità è l’arma principale. In uno scenario di sciame di droni, ad esempio, un operatore umano potrebbe essere troppo lento per autorizzare i singoli attacchi, lasciando all’IA la gestione dell’ingaggio.
La leadership di Anthropic sostiene che gli attuali modelli di IA manchino del “senso comune” e della consapevolezza situazionale necessari per distinguere tra un combattente e un civile nel caos di un vero campo di battaglia. Rifiutando i termini del Pentagono, Anthropic sta effettivamente scommettendo che il mercato — e il pubblico — finiranno per dare più valore alla sicurezza rispetto alla pura utilità militare.
Lo stallo arriva in un momento precario per Anthropic. Con una valutazione di 380 miliardi di dollari, la pressione per generare entrate massicce è immensa. I contratti governativi sono la più grande miniera d’oro non sfruttata nel settore dell’IA. Resistendo, Anthropic rischia di essere esclusa dalla Joint Warfighting Cloud Capability (JWCC) e da altre iniziative multimiliardarie, cedendo potenzialmente l’intero mercato della difesa a OpenAI e xAI.
I critici della posizione di Anthropic sostengono che se le aziende di IA più “etiche” si rifiutano di lavorare con i militari, il Pentagono si affiderà semplicemente a modelli meno allineati, portando a un esito più pericoloso. I sostenitori, tuttavia, vedono Anthropic come l’ultima linea di difesa contro un’escalation della guerra automatizzata in stile “Black Mirror”.
Questa negoziazione è un segnale premonitore per l’intera industria del software. Segna la fine dell’era del “muoviti velocemente e rompi le cose” per l’IA e l’inizio di un periodo in cui le aziende tecnologiche devono decidere se essere utility neutrali o attori morali.
| Caratteristica | Posizione di Anthropic | Posizione di OpenAI/xAI |
|---|---|---|
| “Qualsiasi uso lecito” | Rifiutato (Attualmente) | Accettato |
| Autonomia letale | Rigorosamente proibita | Consentita sotto la supervisione del DoD |
| Meccanismo di sicurezza | IA Costituzionale (Hard-coded) | RLHF e basato su policy |
| Obiettivo primario | Allineamento e sicurezza | Scalabilità rapida e utilità |
Mentre questa battaglia continua a svilupparsi, le aziende e gli sviluppatori dovrebbero considerare quanto segue:
I negoziati tra Anthropic e il Pentagono riguardano molto più di un semplice contratto; sono un referendum sull’anima dell’intelligenza artificiale. Mentre ci addentriamo nel 2026, l’industria osserverà se Anthropic riuscirà a mantenere la sua posizione morale senza sacrificare il suo futuro finanziario. Per ora, quelle tre parole — “qualsiasi uso lecito” — rimangono le parole più costose nella storia della Silicon Valley.



La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.
/ Creare un account gratuito