Intelligenza artificiale

L'ultimatum di tre parole: all'interno del braccio di ferro ad alta tensione tra Anthropic e il Pentagono

All'interno dello stallo tra Anthropic e il Pentagono sulla clausola di 'qualsiasi uso lecito' e sul futuro delle armi letali autonome nell'industria dell'IA da 380 miliardi di dollari.
L'ultimatum di tre parole: all'interno del braccio di ferro ad alta tensione tra Anthropic e il Pentagono

Per anni, il rapporto tra i pionieri dell’IA della Silicon Valley e il Dipartimento della Difesa (DoD) è stato una danza delicata di reciproca necessità. Ma a partire dal febbraio 2026, quella danza si è trasformata in una rissa pubblica ed esistenziale. Al centro del conflitto c’è Anthropic, la startup focalizzata sulla sicurezza ora valutata l’incredibile cifra di 380 miliardi di dollari, e una clausola di tre parole apparentemente semplice che il Pentagono sta esigendo nei suoi ultimi contratti di appalto: “qualsiasi uso lecito”.

Sebbene la frase suoni come un gergo legale standard, rappresenta un cambiamento fondamentale nel modo in cui l’intelligenza artificiale verrà impiegata nella guerra moderna. Per Anthropic, accettare questi termini significherebbe smantellare proprio il quadro della “IA Costituzionale” che definisce il suo marchio. Per il Pentagono, è una questione di sicurezza nazionale e di garanzia che l’IA americana non sia ostacolata dall’etica del settore privato in una corsa agli armamenti globale.

La clausola che ha cambiato tutto

La disposizione “qualsiasi uso lecito” è il nuovo standard di riferimento per l’integrazione dell’IA del DoD. In sostanza, richiede ai fornitori di IA di rinunciare alle loro specifiche politiche di “uso accettabile” — le regole che solitamente vietano l’uso dell’IA per la violenza, la sorveglianza o lo sviluppo di armi — purché l’applicazione dei militari sia ritenuta legale ai sensi del diritto internazionale e nazionale.

I rapporti indicano che OpenAI e xAI di Elon Musk hanno già aggiornato silenziosamente i loro termini di servizio per soddisfare questo requisito. Così facendo, hanno spianato la strada affinché i loro modelli vengano integrati nella “kill chain” — il processo di identificazione, tracciamento e ingaggio dei bersagli. Anthropic, tuttavia, rimane l’unica voce fuori dal coro tra i “Big Three” dei fornitori di modelli di base, portando a una battaglia durata settimane fatta di memo trapelati e pungenti scambi sui social media.

IA Costituzionale vs. Il campo di battaglia

Per capire perché Anthropic stia puntando i piedi, bisogna guardare a come sono costruiti i suoi modelli. A differenza di altri LLM che vengono perfezionati principalmente attraverso il feedback umano, i modelli Claude di Anthropic sono governati da una “Costituzione” — un insieme di principi scritti che l’IA utilizza per supervisionare il proprio comportamento.

Se il Pentagono integrasse Claude in un sistema progettato per la sorveglianza di massa o, più controversamente, in Sistemi d’Arma Autonomi Letali (LAWS), l’IA si troverebbe di fronte a un paradosso logico. La sua programmazione principale le impedisce di assistere in azioni dannose o di violare i diritti umani, eppure i suoi comandi operativi richiederebbero esattamente questo.

“Non stiamo parlando solo di un cambio di politica,” ha osservato un ingegnere anonimo di Anthropic in un recente forum. “Stiamo parlando di lobotomizzare l’architettura di sicurezza che rende il nostro modello quello che è. Non si può avere un’IA ‘sicura’ che sia anche autorizzata a decidere autonomamente di terminare un bersaglio.”

L’ascesa delle armi letali autonome

Il punto di attrito più significativo riguarda l’IA in grado di tracciare e uccidere bersagli senza un essere umano “nel circuito” (in the loop). Mentre il Pentagono sostiene ufficialmente che gli esseri umani prenderanno sempre la decisione finale sull’uso della forza letale, la clausola “qualsiasi uso lecito” fornisce la copertura legale per un futuro in cui la velocità è l’arma principale. In uno scenario di sciame di droni, ad esempio, un operatore umano potrebbe essere troppo lento per autorizzare i singoli attacchi, lasciando all’IA la gestione dell’ingaggio.

La leadership di Anthropic sostiene che gli attuali modelli di IA manchino del “senso comune” e della consapevolezza situazionale necessari per distinguere tra un combattente e un civile nel caos di un vero campo di battaglia. Rifiutando i termini del Pentagono, Anthropic sta effettivamente scommettendo che il mercato — e il pubblico — finiranno per dare più valore alla sicurezza rispetto alla pura utilità militare.

Un dilemma da 380 miliardi di dollari

Lo stallo arriva in un momento precario per Anthropic. Con una valutazione di 380 miliardi di dollari, la pressione per generare entrate massicce è immensa. I contratti governativi sono la più grande miniera d’oro non sfruttata nel settore dell’IA. Resistendo, Anthropic rischia di essere esclusa dalla Joint Warfighting Cloud Capability (JWCC) e da altre iniziative multimiliardarie, cedendo potenzialmente l’intero mercato della difesa a OpenAI e xAI.

I critici della posizione di Anthropic sostengono che se le aziende di IA più “etiche” si rifiutano di lavorare con i militari, il Pentagono si affiderà semplicemente a modelli meno allineati, portando a un esito più pericoloso. I sostenitori, tuttavia, vedono Anthropic come l’ultima linea di difesa contro un’escalation della guerra automatizzata in stile “Black Mirror”.

Cosa significa questo per l’industria tecnologica

Questa negoziazione è un segnale premonitore per l’intera industria del software. Segna la fine dell’era del “muoviti velocemente e rompi le cose” per l’IA e l’inizio di un periodo in cui le aziende tecnologiche devono decidere se essere utility neutrali o attori morali.

Caratteristica Posizione di Anthropic Posizione di OpenAI/xAI
“Qualsiasi uso lecito” Rifiutato (Attualmente) Accettato
Autonomia letale Rigorosamente proibita Consentita sotto la supervisione del DoD
Meccanismo di sicurezza IA Costituzionale (Hard-coded) RLHF e basato su policy
Obiettivo primario Allineamento e sicurezza Scalabilità rapida e utilità

Conclusioni pratiche per gli stakeholder dell’IA

Mentre questa battaglia continua a svilupparsi, le aziende e gli sviluppatori dovrebbero considerare quanto segue:

  • Rivedi le tue dipendenze: Se il tuo software aziendale si affida a Claude, tieni presente che il rifiuto di Anthropic ai contratti di difesa potrebbe influire sul suo accesso al capitale a lungo termine o portare a un perno nel suo modello di business.
  • Osserva il cambiamento normativo: L’esito di questo stallo influenzerà probabilmente le future normative sull’IA. Se il DoD vince, aspettati che “qualsiasi uso lecito” diventi un requisito standard per tutta la tecnologia legata al governo.
  • L’etica come vantaggio competitivo: Per le aziende del settore civile, la posizione di Anthropic rafforza la sua posizione come alternativa “sicura”, il che potrebbe essere più attraente per i settori sanitario, legale e dell’istruzione.

La strada da seguire

I negoziati tra Anthropic e il Pentagono riguardano molto più di un semplice contratto; sono un referendum sull’anima dell’intelligenza artificiale. Mentre ci addentriamo nel 2026, l’industria osserverà se Anthropic riuscirà a mantenere la sua posizione morale senza sacrificare il suo futuro finanziario. Per ora, quelle tre parole — “qualsiasi uso lecito” — rimangono le parole più costose nella storia della Silicon Valley.

Fonti

  • Anthropic Official Safety Policy and Constitutional AI Documentation
  • Department of Defense AI Adoption Strategy (2025-2026 Update)
  • Reports on OpenAI and xAI Government Contract Amendments
  • International Committee of the Red Cross (ICRC) Position on Autonomous Weapons
bg
bg
bg

Ci vediamo dall'altra parte.

La nostra soluzione di archiviazione e-mail crittografata end-to-end fornisce i mezzi più potenti per lo scambio sicuro dei dati, garantendo la sicurezza e la privacy dei tuoi dati.

/ Creare un account gratuito