En febrero de 2026, el Departamento de Defensa de EE. UU. emite un ultimátum a la empresa de IA Anthropic. La exigencia: acceso irrestricto a los modelos de IA de Anthropic, incluidas aplicaciones que los propios términos de servicio de Anthropic prohíben explícitamente. La amenaza: una ley de producción bélica de 1950.

Siete meses antes, la misma empresa había firmado un contrato de 200 millones de dólares con el mismo Departamento de Defensa. Anthropic ha hecho del desarrollo responsable de IA un principio fundacional — y fue, al mismo tiempo, la primera empresa de IA autorizada para operar en redes militares clasificadas.

El conflicto expone mecanismos que van mucho más allá de una sola empresa.

De qué no se trata

La cuestión del acceso a datos no está en juego en este conflicto. Desde 2018, el Departamento de Justicia de EE. UU. cuenta con la Ley CLOUD (Clarifying Lawful Overseas Use of Data Act), que obliga a las empresas estadounidenses a entregar cualquier dato que almacenen — independientemente de dónde se encuentren físicamente en el mundo. Esto se aplica a Microsoft, Google, Amazon, Meta, OpenAI, Anthropic y a cualquier otra empresa tecnológica estadounidense.

Que Anthropic conceda o no al Pentágono acceso a su tecnología de IA es irrelevante: el gobierno de EE. UU. ha tenido, tiene y seguirá teniendo acceso a los datos de los usuarios mientras el proveedor sea una empresa estadounidense.

Lo que está en juego es algo completamente diferente: acceso irrestricto a la propia tecnología — para usar los modelos de IA en vigilancia masiva y sistemas de armas autónomos.

Un compromiso de seguridad y un contrato militar

Anthropic se ha posicionado como una empresa que sitúa el desarrollo responsable de IA en el centro de su misión. Su Política de Uso Aceptable prohíbe explícitamente la vigilancia masiva de poblaciones y el despliegue de sistemas de armas autónomos sin supervisión humana.

Al mismo tiempo, la empresa aceptó un contrato prototipo de 200 millones de dólares con el Departamento de Defensa en julio de 2025, desarrolló Claude Gov Models dedicados para clientes gubernamentales y — a través de socios como Palantir — ya operaba en redes militares clasificadas. En el momento en que estalló el conflicto, Anthropic era la única empresa de IA autorizada para operar en sistemas clasificados.

  • Cualquier empresa que firma un contrato con el Departamento de Defensa se sitúa dentro de su esfera de influencia legal y operativa.
  • Cualquier empresa que opera en redes clasificadas se convierte en infraestructura crítica — y en un posible objetivo de coacción regulatoria.
  • Cualquier empresa que acepta 200 millones de dólares del DoD crea una dependencia económica que puede usarse como palanca.

Anthropic parece haber apostado a que sus propios términos de servicio serían respetados como limitación contractual. El DoD lo ve de otra manera. Considera los pagos y despliegues existentes como motivos para tratar a Anthropic como parte de la cadena de suministro militar y anular todas las restricciones — mediante presión contractual, mediante una designación de riesgo de cadena de suministro, o mediante la aplicación de la Ley de Producción para la Defensa.

Tres niveles de escalada

Rescisión del contrato. La medida más obvia: cancelación del contrato de 200 millones de dólares. Financieramente asumible para Anthropic, que obtiene la mayor parte de sus ingresos del mercado comercial.

Designación de cadena de suministro. Anthropic es declarada un Riesgo de Cadena de Suministro. La consecuencia: toda empresa que haga negocios con el ejército estadounidense tendría que eliminar Anthropic de sus sistemas. Dado que Anthropic está conectada a AWS (Amazon), Palantir y numerosos socios gubernamentales, el daño económico sería sustancial.

Ley de Producción para la Defensa. Una ley de producción bélica de 1950 se invoca para obligar a una empresa de IA a entregar su tecnología. El Pentágono fija el plazo para el viernes a las 5:01 p.m.

El segundo nivel es el más notable. Las designaciones de riesgo de cadena de suministro se habían reservado hasta ahora para adversarios extranjeros: Huawei (China), Kaspersky (Rusia). Aplicar el instrumento a una empresa nacional estadounidense sentaría un precedente.

Más allá de una empresa

El caso Anthropic demuestra un mecanismo relevante para toda empresa tecnológica con sede en Estados Unidos.

Con un contrato gubernamental, una empresa puede ser clasificada como cadena de suministro crítica, obligada bajo la Ley de Producción para la Defensa a entregar su tecnología, y aislada económicamente mediante una designación de cadena de suministro. Esto no se limita a la IA. Potencialmente se aplica a cualquier tecnología que el Pentágono considere relevante para la defensa: infraestructura cloud, computación cuántica, biotecnología, semiconductores, criptografía.

Sin un contrato gubernamental, el riesgo persiste. La Ley de Producción para la Defensa permite al gobierno obligar a las empresas a proporcionar bienes que clasifique como relevantes para la defensa — incluso sin ninguna relación comercial existente. Biden usó la DPA en 2023 para exigir a las empresas de IA que realizaran pruebas de seguridad y compartieran información. La aplicación actual sería una escalada significativa, pero el marco legal existe.

En ambos escenarios, la empresa pierde el control sobre cómo se usa su tecnología. Sigue siendo privada de nombre — pero la decisión sobre cómo se despliega esa tecnología recae en el Estado.

Consecuencias para la ubicación empresarial

Desde un punto de vista estratégico, el caso Anthropic introduce un nuevo cálculo para toda empresa que desarrolle tecnología propietaria de valor estratégico.

Los instrumentos disponibles para el gobierno de EE. UU. no se limitan a tiempos de guerra o emergencias:

  • Ley CLOUD — acceso a datos
  • Ley de Producción para la Defensa — acceso a tecnología
  • Designación de Riesgo de Cadena de Suministro — aislamiento económico en caso de negativa

Los tres están siendo desplegados o amenazados aquí en el contexto de una disputa contractual.

Comparación de riesgos por jurisdicción

Con sede en EE. UU.Con sede fuera de EE. UU.
Capital y ecosistemaMayor concentración mundial de capital riesgo, talento e infraestructuraMenor acceso a capital, pero alternativas crecientes (UE, Reino Unido, Canadá, Singapur)
Acceso gubernamentalAcceso legal completo a datos y tecnologíaDependiente de la jurisdicción local
CoacciónCoacción posible vía Ley de Producción para la DefensaSin instrumento comparable en la mayoría de jurisdicciones
Riesgo económicoAislamiento económico si no cooperaPosible pérdida de acceso al mercado estadounidense

La advertencia se extiende más allá de las empresas de IA. Se aplica a cualquier tecnología que el Estado pueda clasificar como relevante para la defensa: computación cuántica, biotecnología, criptografía, semiconductores, espacio, ciberseguridad, robótica.

El contraargumento

Silicon Valley sigue ofreciendo la mayor concentración de capital riesgo, talento e infraestructura del mundo. Ninguna otra ubicación se le acerca. Un éxodo masivo de empresas tecnológicas es improbable a corto plazo.

Lo que probablemente cambiará es la sofisticación de la decisión de ubicación. Las empresas cuyo modelo de negocio depende de la confianza global — especialmente frente a clientes europeos, asiáticos o gubernamentales — tendrán que ponderar EE. UU. como factor de riesgo estratégico. No como criterio descalificador, sino como una variable que antes no existía de esta forma.

Las alternativas europeas y asiáticas ganan relevancia en este contexto. Mistral (Francia), Aleph Alpha (Alemania), DeepSeek (China) — se vuelven más atractivas para clientes que requieren independencia regulatoria de Estados Unidos.

La respuesta estratégica para las empresas afectadas probablemente no sea la evasión sino la estructuración: una sociedad matriz fuera de EE. UU., propiedad intelectual en una jurisdicción neutral, presencia operativa en EE. UU. para el mercado estadounidense. Algo similar a lo que ocurrió con los proveedores cloud y la residencia de datos tras las revelaciones de Snowden.

Solo que esta vez, no se trata de datos. Se trata de la propia tecnología.

Fuentes


Resumen temático: IA y aprendizaje automático