Durante años, la relación entre los pioneros de la IA de Silicon Valley y el Departamento de Defensa (DoD) ha sido un baile delicado de necesidad mutua. Pero a partir de febrero de 2026, ese baile se ha convertido en una pelea pública y existencial. En el centro del conflicto se encuentra Anthropic, la startup centrada en la seguridad valorada ahora en unos asombrosos 380.000 millones de dólares, y una cláusula de tres palabras aparentemente simple que el Pentágono exige en sus últimos contratos de adquisición: “cualquier uso legal”.
Si bien la frase suena como un lenguaje legal estándar, representa un cambio fundamental en cómo se desplegará la inteligencia artificial en la guerra moderna. Para Anthropic, aceptar estos términos significaría desmantelar el marco mismo de la “IA Constitucional” que define su marca. Para el Pentágono, es una cuestión de seguridad nacional y de garantizar que la IA estadounidense no se vea obstaculizada por la ética del sector privado en una carrera armamentista global.
La disposición de “cualquier uso legal” es el nuevo estándar de oro para la integración de la IA del DoD. En esencia, requiere que los proveedores de IA renuncien a sus políticas específicas de “uso aceptable” —las reglas que generalmente prohíben el uso de la IA para la violencia, la vigilancia o el desarrollo de armas— siempre que la aplicación militar se considere legal según el derecho internacional y nacional.
Los informes indican que OpenAI y xAI de Elon Musk ya han actualizado discretamente sus términos de servicio para adaptarse a este requisito. Al hacerlo, han despejado el camino para que sus modelos se integren en la “cadena de ataque” (kill chain): el proceso de identificación, seguimiento y ataque a objetivos. Anthropic, sin embargo, sigue siendo el único resistente entre los “Tres Grandes” proveedores de modelos fundacionales, lo que ha llevado a una batalla de semanas desarrollada a través de memorandos filtrados y agudos intercambios en redes sociales.
Para entender por qué Anthropic se mantiene firme, hay que observar cómo se construyen sus modelos. A diferencia de otros LLM que se ajustan principalmente a través de la retroalimentación humana, los modelos Claude de Anthropic se rigen por una “Constitución”: un conjunto de principios escritos que la IA utiliza para supervisar su propio comportamiento.
Si el Pentágono integra a Claude en un sistema diseñado para la vigilancia masiva o, de manera más controvertida, en Sistemas de Armas Autónomas Letales (LAWS), la IA enfrentaría una paradoja lógica. Su programación principal le prohíbe ayudar a causar daño o violar los derechos humanos, pero sus comandos operativos requerirían exactamente eso.
“No estamos hablando solo de un cambio de política”, señaló un ingeniero anónimo de Anthropic en un foro reciente. “Estamos hablando de lobotomizar la arquitectura de seguridad que hace que nuestro modelo sea lo que es. No se puede tener una IA ‘segura’ que también esté autorizada para decidir de forma autónoma terminar con un objetivo”.
El punto de fricción más significativo involucra a la IA que puede rastrear y matar objetivos sin un humano “en el ciclo” (in the loop). Si bien el Pentágono sostiene oficialmente que los humanos siempre tomarán la decisión final de usar la fuerza letal, la cláusula de “cualquier uso legal” proporciona la cobertura legal para un futuro donde la velocidad es el arma principal. En un escenario de enjambre de drones, por ejemplo, un operador humano puede ser demasiado lento para autorizar ataques individuales, dejando que la IA gestione el enfrentamiento.
La dirección de Anthropic argumenta que los modelos de IA actuales carecen del “sentido común” y la conciencia situacional para distinguir entre un combatiente y un civil en el caos de un campo de batalla del mundo real. Al rechazar los términos del Pentágono, Anthropic está apostando efectivamente a que el mercado —y el público— eventualmente valorarán la seguridad por encima de la utilidad militar bruta.
El enfrentamiento llega en un momento precario para Anthropic. Con una valoración de 380.000 millones de dólares, la presión para generar ingresos masivos es inmensa. Los contratos gubernamentales son la mayor mina de oro sin explotar en el sector de la IA. Al resistirse, Anthropic corre el riesgo de quedar fuera de la Capacidad de Nube de Combate Conjunta (JWCC) y otras iniciativas multimillonarias, cediendo potencialmente todo el mercado de defensa a OpenAI y xAI.
Los críticos de la postura de Anthropic argumentan que si las empresas de IA más “éticas” se niegan a trabajar con el ejército, el Pentágono simplemente confiará en modelos menos alineados, lo que conducirá a un resultado más peligroso. Los defensores, sin embargo, ven a Anthropic como la última línea de defensa contra una escalada de guerra automatizada al estilo de “Black Mirror”.
Esta negociación es un barómetro para toda la industria del software. Señala el fin de la era de “moverse rápido y romper cosas” para la IA y el comienzo de un período en el que las empresas tecnológicas deben decidir si son servicios públicos neutrales o actores morales.
| Característica | Posición de Anthropic | Posición de OpenAI/xAI |
|---|---|---|
| “Cualquier uso legal” | Rechazado (Actualmente) | Aceptado |
| Autonomía letal | Estrictamente prohibida | Permitida bajo supervisión del DoD |
| Mecanismo de seguridad | IA Constitucional (Codificado) | RLHF y basado en políticas |
| Objetivo principal | Alineación y seguridad | Escalado rápido y utilidad |
A medida que esta batalla continúa desarrollándose, las empresas y los desarrolladores deben considerar lo siguiente:
Las negociaciones entre Anthropic y el Pentágono son algo más que un simple contrato; son un referéndum sobre el alma de la inteligencia artificial. A medida que nos adentramos en 2026, la industria estará observando para ver si Anthropic puede mantener su superioridad moral sin sacrificar su futuro financiero. Por ahora, esas tres palabras —“cualquier uso legal”— siguen siendo las palabras más caras en la historia de Silicon Valley.



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita