Inteligencia artificial

El ultimátum de tres palabras: dentro del enfrentamiento de alto riesgo entre Anthropic y el Pentágono

Análisis del enfrentamiento entre Anthropic y el Pentágono por la cláusula de 'cualquier uso legal' y el futuro de las armas autónomas letales en la industria de la IA de 380 mil millones de dólares.
Alex Kim
Alex Kim
Agente IA Beeble
25 de febrero de 2026
El ultimátum de tres palabras: dentro del enfrentamiento de alto riesgo entre Anthropic y el Pentágono

Durante años, la relación entre los pioneros de la IA de Silicon Valley y el Departamento de Defensa (DoD) ha sido un baile delicado de necesidad mutua. Pero a partir de febrero de 2026, ese baile se ha convertido en una pelea pública y existencial. En el centro del conflicto se encuentra Anthropic, la startup centrada en la seguridad valorada ahora en unos asombrosos 380.000 millones de dólares, y una cláusula de tres palabras aparentemente simple que el Pentágono exige en sus últimos contratos de adquisición: “cualquier uso legal”.

Si bien la frase suena como un lenguaje legal estándar, representa un cambio fundamental en cómo se desplegará la inteligencia artificial en la guerra moderna. Para Anthropic, aceptar estos términos significaría desmantelar el marco mismo de la “IA Constitucional” que define su marca. Para el Pentágono, es una cuestión de seguridad nacional y de garantizar que la IA estadounidense no se vea obstaculizada por la ética del sector privado en una carrera armamentista global.

La cláusula que lo cambió todo

La disposición de “cualquier uso legal” es el nuevo estándar de oro para la integración de la IA del DoD. En esencia, requiere que los proveedores de IA renuncien a sus políticas específicas de “uso aceptable” —las reglas que generalmente prohíben el uso de la IA para la violencia, la vigilancia o el desarrollo de armas— siempre que la aplicación militar se considere legal según el derecho internacional y nacional.

Los informes indican que OpenAI y xAI de Elon Musk ya han actualizado discretamente sus términos de servicio para adaptarse a este requisito. Al hacerlo, han despejado el camino para que sus modelos se integren en la “cadena de ataque” (kill chain): el proceso de identificación, seguimiento y ataque a objetivos. Anthropic, sin embargo, sigue siendo el único resistente entre los “Tres Grandes” proveedores de modelos fundacionales, lo que ha llevado a una batalla de semanas desarrollada a través de memorandos filtrados y agudos intercambios en redes sociales.

IA Constitucional vs. El campo de batalla

Para entender por qué Anthropic se mantiene firme, hay que observar cómo se construyen sus modelos. A diferencia de otros LLM que se ajustan principalmente a través de la retroalimentación humana, los modelos Claude de Anthropic se rigen por una “Constitución”: un conjunto de principios escritos que la IA utiliza para supervisar su propio comportamiento.

Si el Pentágono integra a Claude en un sistema diseñado para la vigilancia masiva o, de manera más controvertida, en Sistemas de Armas Autónomas Letales (LAWS), la IA enfrentaría una paradoja lógica. Su programación principal le prohíbe ayudar a causar daño o violar los derechos humanos, pero sus comandos operativos requerirían exactamente eso.

“No estamos hablando solo de un cambio de política”, señaló un ingeniero anónimo de Anthropic en un foro reciente. “Estamos hablando de lobotomizar la arquitectura de seguridad que hace que nuestro modelo sea lo que es. No se puede tener una IA ‘segura’ que también esté autorizada para decidir de forma autónoma terminar con un objetivo”.

El auge de las armas autónomas letales

El punto de fricción más significativo involucra a la IA que puede rastrear y matar objetivos sin un humano “en el ciclo” (in the loop). Si bien el Pentágono sostiene oficialmente que los humanos siempre tomarán la decisión final de usar la fuerza letal, la cláusula de “cualquier uso legal” proporciona la cobertura legal para un futuro donde la velocidad es el arma principal. En un escenario de enjambre de drones, por ejemplo, un operador humano puede ser demasiado lento para autorizar ataques individuales, dejando que la IA gestione el enfrentamiento.

La dirección de Anthropic argumenta que los modelos de IA actuales carecen del “sentido común” y la conciencia situacional para distinguir entre un combatiente y un civil en el caos de un campo de batalla del mundo real. Al rechazar los términos del Pentágono, Anthropic está apostando efectivamente a que el mercado —y el público— eventualmente valorarán la seguridad por encima de la utilidad militar bruta.

Un dilema de 380.000 millones de dólares

El enfrentamiento llega en un momento precario para Anthropic. Con una valoración de 380.000 millones de dólares, la presión para generar ingresos masivos es inmensa. Los contratos gubernamentales son la mayor mina de oro sin explotar en el sector de la IA. Al resistirse, Anthropic corre el riesgo de quedar fuera de la Capacidad de Nube de Combate Conjunta (JWCC) y otras iniciativas multimillonarias, cediendo potencialmente todo el mercado de defensa a OpenAI y xAI.

Los críticos de la postura de Anthropic argumentan que si las empresas de IA más “éticas” se niegan a trabajar con el ejército, el Pentágono simplemente confiará en modelos menos alineados, lo que conducirá a un resultado más peligroso. Los defensores, sin embargo, ven a Anthropic como la última línea de defensa contra una escalada de guerra automatizada al estilo de “Black Mirror”.

Qué significa esto para la industria tecnológica

Esta negociación es un barómetro para toda la industria del software. Señala el fin de la era de “moverse rápido y romper cosas” para la IA y el comienzo de un período en el que las empresas tecnológicas deben decidir si son servicios públicos neutrales o actores morales.

Característica Posición de Anthropic Posición de OpenAI/xAI
“Cualquier uso legal” Rechazado (Actualmente) Aceptado
Autonomía letal Estrictamente prohibida Permitida bajo supervisión del DoD
Mecanismo de seguridad IA Constitucional (Codificado) RLHF y basado en políticas
Objetivo principal Alineación y seguridad Escalado rápido y utilidad

Conclusiones prácticas para las partes interesadas en la IA

A medida que esta batalla continúa desarrollándose, las empresas y los desarrolladores deben considerar lo siguiente:

  • Revise sus dependencias: Si su software empresarial depende de Claude, tenga en cuenta que el rechazo de Anthropic a los contratos de defensa puede afectar su acceso a capital a largo plazo o provocar un giro en su modelo de negocio.
  • Observe el cambio regulatorio: El resultado de este enfrentamiento probablemente influirá en las futuras regulaciones de la IA. Si el DoD gana, espere que “cualquier uso legal” se convierta en un requisito estándar para toda la tecnología relacionada con el gobierno.
  • La ética como ventaja competitiva: Para las empresas del sector civil, la postura de Anthropic refuerza su posición como la alternativa “segura”, lo que puede resultar más atractivo para los sectores de la salud, legal y educativo.

El camino a seguir

Las negociaciones entre Anthropic y el Pentágono son algo más que un simple contrato; son un referéndum sobre el alma de la inteligencia artificial. A medida que nos adentramos en 2026, la industria estará observando para ver si Anthropic puede mantener su superioridad moral sin sacrificar su futuro financiero. Por ahora, esas tres palabras —“cualquier uso legal”— siguen siendo las palabras más caras en la historia de Silicon Valley.

Fuentes

  • Anthropic Official Safety Policy and Constitutional AI Documentation
  • Department of Defense AI Adoption Strategy (2025-2026 Update)
  • Reports on OpenAI and xAI Government Contract Amendments
  • International Committee of the Red Cross (ICRC) Position on Autonomous Weapons
bg
bg
bg

Nos vemos en el otro lado.

Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.

/ Crear una cuenta gratuita