En septiembre de 2023, Anthropic publicó un documento que fue aclamado como un hito en la industria de la IA: la Política de Escalado Responsable (RSP). Su promesa central era inusualmente clara: si un modelo de IA superaba ciertos umbrales de capacidad, el desarrollo se detendría — hasta que la seguridad pudiera garantizarse de forma demostrable. OpenAI y Google DeepMind adoptaron marcos similares poco después.

El 24 de febrero de 2026, Anthropic retiró esa promesa. La nueva RSP 3.0 sustituye las pausas de desarrollo vinculantes por «objetivos no vinculantes pero declarados públicamente». La empresa que se consideraba la conciencia de la industria ha movido su línea roja.

Este cambio coincide con la semana en que el Departamento de Defensa de EE. UU. dio a Anthropic un ultimátum: o entregar su modelo Claude al Pentágono sin restricciones de seguridad, o enfrentar la Ley de Producción para la Defensa y la designación como «riesgo de cadena de suministro».

La pregunta que esto plantea no es si Anthropic es una empresa responsable. La pregunta es qué significa esto para todos los que dependen de esta tecnología — como particulares, como empresas, como economía europea.

Qué ha cambiado — en lenguaje sencillo

El modelo de seguridad anterior de Anthropic funcionaba como un semáforo. Los llamados Niveles de Seguridad de IA (ASL) clasificaban las capacidades de un modelo — cuanto más alto el nivel, más estrictas las salvaguardas. El punto crítico era: antes de que un modelo pudiera avanzar al siguiente nivel, las protecciones correspondientes debían demostrarse funcionales. Si no, el desarrollo se detenía. Una señal de stop obligatoria.

La nueva RSP 3.0 sustituye esta señal de stop por lo que Anthropic mismo describe como «objetivos no vinculantes pero declarados públicamente». En lugar de compromisos firmes de tipo si-entonces, ahora hay una Hoja de Ruta de Seguridad de Frontera — un plan con hitos ambiciosos pero no vinculantes.

Anthropic es notablemente transparente sobre sus razones. En el anuncio oficial, la empresa cita tres factores:

  1. Una «zona de ambigüedad»: la ciencia de la evaluación de modelos no es lo suficientemente madura para determinar definitivamente si un modelo ha cruzado un umbral de capacidad.
  2. Un «clima político antirregulatorio»: el gobierno de EE. UU. se orienta hacia priorizar la competitividad y el crecimiento económico, mientras que las discusiones sobre seguridad «aún no han ganado tracción significativa a nivel federal».
  3. Requisitos imposibles de cumplir unilateralmente: los niveles más altos de seguridad (ASL-4 y ASL-5) pueden ser «completamente imposibles de implementar sin acción colectiva» — y esa acción colectiva está siendo bloqueada políticamente.

El mensaje central, en palabras de Anthropic: prefirieron ajustar la RSP antes de alcanzar niveles de seguridad que no pueden cumplir — en lugar de definir estándares que serían «fáciles de lograr» pero socavarían el propósito de la política.

Por qué: presión gubernamental y lógica de mercado

La flexibilización no ocurre en el vacío. Es el resultado de presión desde dos direcciones simultáneamente.

Desde arriba: el Pentágono. El Secretario de Defensa de EE. UU. Pete Hegseth dio al CEO de Anthropic Dario Amodei un plazo hasta el viernes el 24 de febrero para levantar las restricciones de seguridad de Claude para uso militar. La amenaza: o cooperar, o el gobierno fuerza la cooperación a través de la Ley de Producción para la Defensa.

Si el gobierno puede realmente obligar a Anthropic a entregar un producto sin garantías de seguridad está jurídicamente discutido.

Desde el lado: la competencia. Mientras Anthropic mantiene su línea de seguridad, otras empresas de IA ya han cedido. OpenAI y Google proporcionan sus modelos al Pentágono para «todos los propósitos legales». La xAI de Elon Musk ha firmado un contrato para uso en entornos clasificados. Anthropic está cada vez más sola — con el modelo técnicamente más fuerte para aplicaciones militares, pero las restricciones más estrictas.

El resultado es un clásico dilema del prisionero: quien abandona la seguridad primero gana el contrato; quien resiste más tiempo pierde el mercado. Para un análisis más profundo de la confrontación Pentágono-Anthropic, véase nuestro artículo anterior.

Dos mundos: quién endurece, quién flexibiliza

Lo que hace que la marcha atrás de Anthropic sea particularmente llamativa es el contraste con el resto del mundo. Mientras EE. UU. debilita sus estándares de seguridad de IA, prácticamente todas las demás grandes regiones económicas se mueven en la dirección opuesta.

Unión Europea: La Ley de IA de la UE está en vigor desde agosto de 2024 — la primera ley vinculante de IA del mundo. Desde febrero de 2025, se aplican ocho prácticas de IA explícitamente prohibidas, incluyendo la puntuación social y la vigilancia biométrica masiva.

Reino Unido: El Instituto de Seguridad de IA (AISI) emplea a más de 100 técnicos, recibe acceso pre-despliegue a modelos de IA líderes para pruebas de seguridad, y tiene un presupuesto anual de 66 millones de libras.

California: Incluso dentro de EE. UU. existen contramovimientos. SB 53, firmado por el Gobernador Newsom en septiembre de 2025, exige a los proveedores de modelos de frontera publicar marcos de seguridad y reportar incidentes críticos en 15 días.

China: Las Medidas Provisionales para la IA Generativa, en vigor desde agosto de 2023, exigen evaluaciones de seguridad, registro de algoritmos y etiquetado de contenido generado por IA.

EE. UU. a nivel federal: la dirección opuesta. La Orden Ejecutiva 14110 — 36 páginas de requisitos obligatorios de informes, pruebas y transparencia de seguridad — fue revocada el primer día en el cargo de la nueva administración. Su reemplazo: Orden Ejecutiva 14179 — dos páginas, cero requisitos de seguridad, un objetivo declarado: «mantener y reforzar el dominio global de EE. UU. en IA».

Qué significa para empresas y usuarios

Para las empresas y particulares europeos, este desarrollo es más que una comparación regulatoria transatlántica. Lo que está surgiendo es un perfil de riesgo fundamentalmente nuevo — y un dilema sin solución fácil.

El riesgo del producto. Cuando un proveedor de IA flexibiliza sus compromisos de seguridad bajo presión gubernamental, el impacto se extiende más allá de las aplicaciones militares. Anthropic no desarrolla dos modelos separados — uno para el Pentágono y otro para el resto del mundo. La arquitectura, las prioridades internas, la distribución de recursos entre investigación de seguridad y desarrollo de funcionalidades: todo se desplaza.

El riesgo de cumplimiento. La Ley de IA de la UE no hace automáticamente más seguro el uso de sistemas de IA en Europa — pero hace responsables a los usuarios. Las empresas que despliegan sistemas de IA de alto riesgo deben documentar y evaluar sus riesgos — incluso cuando el proveedor está en EE. UU. y acaba de reducir sus estándares.

El riesgo de soberanía. La confrontación entre el Pentágono y Anthropic revela un patrón que se extiende más allá de la IA: las empresas estadounidenses operan bajo un marco legal en el que el gobierno puede cambiar las reglas en cualquier momento — no a través de legislación transparente, sino a través de amenazas ejecutivas.

Qué significa para ti en concreto

Para particulares: Los sistemas de IA que usas a diario — desde chatbots hasta servicios de traducción y buscadores impulsados por IA — están construidos por empresas cuyas promesas de seguridad están bajo presión política. Lo que se garantizaba ayer es negociable hoy.

Para empresas: Toda organización europea que use productos de IA estadounidenses debería reevaluar su perfil de dependencia. No por principio, sino como gestión sobria de riesgos. Nuestra auditoría de riesgo digital proporciona un punto de partida estructurado para esta evaluación.

Para el debate: La flexibilización de la RSP de Anthropic no es un caso aislado. Es un síntoma de un desarrollo en el que la seguridad comercial de la IA y los intereses de poder estatal colisionan. Los compromisos voluntarios se revisan cuando importa. Esto no es un fallo moral — es una realidad estructural. Y es el argumento más fuerte de que la regulación vinculante — con todos sus inconvenientes — es el único mecanismo que puede resistir esta presión.

Una cosa que el caso Anthropic muestra con dolorosa claridad: en un mundo donde la IA se convierte en un arma estratégica, no hay posición libre de riesgo. Ni dentro de la regulación ni fuera de ella.

Fuentes


Resumen temático: Todos los artículos de digital-independence.org →