En un torbellino de 120 minutos que ha enviado ondas de choque a través de Silicon Valley y el Beltway, la relación del gobierno federal con la industria de la inteligencia artificial ha alcanzado un punto de ruptura histórico. Tras un anuncio al mediodía del presidente Donald Trump en Truth Social declarando una prohibición total de los productos de Anthropic dentro del gobierno federal, el secretario de Defensa, Pete Hegseth, escaló la situación aún más. A media tarde, el Departamento de Defensa (DoD) designó oficialmente a Anthropic como un “riesgo para la cadena de suministro”.
Este movimiento marca una desviación radical de las posturas administrativas anteriores sobre las empresas nacionales de IA. Si bien el gobierno ha reservado históricamente tales designaciones para entidades extranjeras —especialmente los gigantes de las telecomunicaciones chinos—, aplicar esta etiqueta a una empresa con sede en San Francisco respaldada por miles de millones en capital de riesgo estadounidense señala una nueva era de volatilidad regulatoria. Anthropic ya ha señalado su intención de luchar contra la designación, preparando el escenario para una batalla legal de alto riesgo sobre el futuro del panorama de la IA en Estados Unidos.
Para comprender la gravedad del anuncio del secretario Hegseth, hay que mirar más allá de la retórica política y adentrarse en la maquinaria de la contratación federal. Cuando el DoD designa a una empresa como un riesgo para la cadena de suministro, no es solo una sugerencia para evitar su software; es una lista negra funcional.
Bajo la Ley de Seguridad de la Cadena de Suministro de Adquisiciones Federales (FASCSA), tal designación permite al gobierno emitir órdenes de exclusión o eliminación. Esto significa que no solo se prohíbe al gobierno federal la compra de los modelos “Claude” de Anthropic, sino que cualquier contratista externo —desde gigantes de la defensa como Lockheed Martin hasta pequeños consultores de TI— puede verse obligado a purgar las integraciones de Anthropic de sus sistemas si desea mantener sus contratos gubernamentales.
En términos prácticos, esto crea un efecto de “cuarentena”. Si se considera que Anthropic es un riesgo para la integridad de la cadena de suministro federal, cualquier dato que fluya a través de sus modelos se considera potencialmente comprometido o sujeto a una influencia no autorizada.
En el corazón de este conflicto se encuentra la identidad central de Anthropic. Fundada por antiguos ejecutivos de OpenAI, Anthropic se ha comercializado como la empresa de IA que prioriza la seguridad. Su método de entrenamiento patentado, conocido como IA Constitucional, consiste en dar al modelo un conjunto escrito de principios (una “constitución”) a seguir al generar respuestas.
Si bien la industria tecnológica ha elogiado ampliamente esto como una forma de evitar que la IA se vuelva dañina o sesgada, la administración actual parece ver estas salvaguardas de seguridad a través de una lente diferente. Los críticos dentro de la administración han caracterizado estos filtros como una forma de “censura algorítmica” o “sesgo ideológico” que podría interferir con el procesamiento de datos brutos y objetivos necesarios para aplicaciones militares y de inteligencia.
Al etiquetar a la empresa como un riesgo para la cadena de suministro, el DoD sugiere que las mismas salvaguardas que Anthropic utiliza para garantizar la “utilidad, honestidad e inocuidad” podrían, en un contexto de combate o estratégico, constituir una vulnerabilidad o una negativa a seguir órdenes legales.
Anthropic no existe en el vacío. La empresa está profundamente integrada en la infraestructura de los proveedores de nube más grandes del mundo. Amazon (AWS) y Google han invertido miles de millones en Anthropic, alojando a Claude en sus respectivas plataformas (Bedrock y Vertex AI).
Esta designación coloca a estos titanes de la nube en una posición incómoda. Si el DoD mantiene que Anthropic es un riesgo para la cadena de suministro, ¿se extiende ese riesgo a las plataformas que los alojan?
| Parte interesada | Impacto potencial |
|---|---|
| Agencias Federales | Migración inmediata de los flujos de trabajo basados en Claude hacia alternativas como OpenAI o xAI. |
| Contratistas de Defensa | Auditorías obligatorias de las pilas de software para identificar y eliminar llamadas a la API de Anthropic. |
| Proveedores de Nube | Presión potencial para segregar o restringir los servicios de Anthropic dentro de los entornos de GovCloud. |
| Usuarios Empresariales | Mayor incertidumbre respecto a la estabilidad regulatoria a largo plazo del mercado de la IA. |
La respuesta de Anthropic fue rápida. En un breve comunicado, la empresa expresó su “decepción y desacuerdo”, afirmando que su tecnología se construye en suelo estadounidense, por ciudadanos estadounidenses y con un enfoque primordial en la seguridad nacional y la fiabilidad.
Los expertos legales sugieren que el desafío de Anthropic probablemente se centrará en el estándar de “arbitrario y caprichoso” de la Ley de Procedimiento Administrativo (APA). Para mantener una designación de riesgo para la cadena de suministro, el DoD debe proporcionar normalmente pruebas de una amenaza creíble. Dado que Anthropic es una empresa nacional sin vínculos conocidos con adversarios extranjeros, el gobierno podría verse obligado a revelar justificaciones clasificadas para la prohibición, o arriesgarse a que un juez federal anule la orden.
Para los CTO y los responsables de la toma de decisiones de TI, esta escalada es una llamada de atención sobre la “dependencia del proveedor” en la era de la IA. La transición repentina de un actor principal de “líder de la industria” a “riesgo para la cadena de suministro” resalta la necesidad de una estrategia de IA diversificada.
Mientras comienza la batalla legal, la industria tecnológica se pregunta: si una empresa fundada bajo el principio de la seguridad puede ser etiquetada como un riesgo, ¿quién está realmente a salvo en el nuevo clima regulatorio?



Nuestra solución de correo electrónico cifrado y almacenamiento en la nube de extremo a extremo proporciona los medios más potentes para el intercambio seguro de datos, lo que garantiza la seguridad y la privacidad de sus datos.
/ Crear una cuenta gratuita