En septembre 2023, Anthropic a publié un document salué comme une avancée majeure dans le secteur de l’IA : la Responsible Scaling Policy (RSP). Sa promesse centrale était inhabituellement claire : si un modèle d’IA dépassait certains seuils de capacité, le développement serait suspendu — jusqu’à ce que la sécurité soit effectivement démontrée. OpenAI et Google DeepMind ont adopté des cadres similaires peu après.

Le 24 février 2026, Anthropic a retiré cette promesse. La nouvelle RSP 3.0 remplace les pauses de développement contraignantes par des « objectifs déclarés publiquement, mais non contraignants ». L’entreprise que l’on considérait comme la conscience du secteur a déplacé sa ligne rouge.

Ce revirement survient la même semaine où le département américain de la Défense a adressé un ultimatum à Anthropic : soit l’entreprise livre son modèle Claude au Pentagone sans restrictions de sécurité — soit elle s’expose au Defense Production Act et à une classification comme « risque pour la chaîne d’approvisionnement ».

La question qui en découle n’est pas de savoir si Anthropic est une entreprise responsable. La question est de savoir ce que cela signifie pour quiconque fait confiance à cette technologie — en tant que particulier, en tant qu’entreprise, en tant qu’économie européenne.

Ce qui a changé — en termes simples

Le modèle de sécurité précédent d’Anthropic fonctionnait comme un système de feux tricolores. Des niveaux appelés AI Safety Levels (ASL) classifiaient les capacités d’un modèle — plus le niveau est élevé, plus les mesures de protection sont strictes. Le point essentiel : avant qu’un modèle puisse atteindre le niveau suivant, les protections correspondantes devaient avoir fait leurs preuves. Sans preuve, pas de développement. Un signal d’arrêt catégorique.

La nouvelle RSP 3.0 remplace ce signal d’arrêt par ce qu’Anthropic décrit comme des « objectifs déclarés publiquement, mais non contraignants ». À la place d’engagements conditionnels fermes, il y a désormais une Frontier Safety Roadmap — un plan avec des jalons ambitieux, mais non contraignants.

Anthropic est remarquablement transparent sur ses raisons. Dans l’annonce officielle, l’entreprise cite trois facteurs :

  1. Une « zone d’ambiguïté » : la science de l’évaluation des modèles n’est pas suffisamment mature pour déterminer de manière concluante si un modèle a franchi un seuil de capacité.
  2. Un « climat politique anti-réglementaire » : le gouvernement américain s’oriente vers la compétitivité et la croissance économique, tandis que les discussions sur la sécurité « n’ont pas encore gagné de dynamique significative au niveau fédéral ».
  3. Des exigences impossibles à satisfaire unilatéralement : les niveaux de sécurité les plus élevés (ASL-4 et ASL-5) pourraient être « tout simplement impossibles à mettre en œuvre sans action collective » — et cette action collective est politiquement bloquée.

Le message central, dans les propres termes d’Anthropic : ils ont préféré adapter la RSP avant d’atteindre des niveaux de sécurité qu’ils ne peuvent pas respecter — plutôt que de définir des standards qui seraient « faciles à atteindre » mais compromettraient l’objectif de la politique.

Pourquoi : la pression étatique rencontre la logique du marché

Cet assouplissement ne survient pas dans le vide. Il résulte d’une pression qui vient simultanément de deux directions.

Par le haut : le Pentagone. Le secrétaire américain à la Défense, Pete Hegseth, a donné au PDG d’Anthropic, Dario Amodei, un délai jusqu’à vendredi le 24 février pour lever les restrictions de sécurité de Claude pour l’usage militaire. La menace : soit l’entreprise coopère, soit le gouvernement force la coopération par le Defense Production Act. Selon Axios, Hegseth a déclaré qu’il ne laisserait aucune entreprise dicter au Pentagone les conditions de ses décisions opérationnelles.

La question de savoir si le gouvernement peut effectivement contraindre Anthropic à livrer un produit sans garanties de sécurité est juridiquement contestée. Alan Rozenshtein, professeur à l’Université du Minnesota et rédacteur chez Lawfare, analyse le paysage juridique en détail. James Baker, ancien juge en chef de la Cour d’appel des forces armées américaines, résume : « Parfois, la simple disponibilité d’une autorité potentielle suffit comme levier pour obtenir un résultat par la consultation, sans invoquer la loi. »

Par le côté : la concurrence. Alors qu’Anthropic maintient ses exigences de sécurité, d’autres entreprises d’IA ont déjà cédé. OpenAI et Google mettent leurs modèles à la disposition du Pentagone pour « toute utilisation légale ». xAI d’Elon Musk a signé un contrat pour une utilisation dans des environnements classifiés. Anthropic se retrouve de plus en plus isolée — avec le modèle techniquement le plus performant pour les applications militaires, mais les restrictions les plus strictes.

Le résultat est un dilemme du prisonnier classique : celui qui renonce le premier à la sécurité remporte le contrat ; celui qui tient bon le plus longtemps perd le marché. Pour une analyse approfondie de la confrontation Pentagone-Anthropic, voir notre article précédent.

Deux mondes : qui renforce, qui assouplit

Ce qui rend le revirement d’Anthropic particulièrement frappant, c’est le contraste avec le reste du monde. Alors que les États-Unis affaiblissent leurs standards de sécurité IA, pratiquement tous les autres espaces économiques majeurs vont dans la direction opposée.

Union européenne : Le AI Act européen est en vigueur depuis août 2024 — la première loi contraignante sur l’IA au monde. Depuis février 2025, huit pratiques d’IA expressément interdites s’appliquent, dont le scoring social et la surveillance biométrique de masse. Depuis août 2025, des obligations de transparence s’appliquent aux modèles d’IA à usage général. Plus de 230 entreprises ont signé le Pacte européen pour l’IA — un engagement volontaire de conformité anticipée.

Royaume-Uni : L’AI Safety Institute (AISI) emploie plus de 100 experts techniques, bénéficie d’un accès pré-déploiement aux principaux modèles d’IA pour des tests de sécurité, avec un budget annuel de 66 millions de livres. La Déclaration de Bletchley de novembre 2023 — signée par 29 États, dont les États-Unis et la Chine — a reconnu que l’IA avancée présente « des risques significatifs, y compris des dommages graves, voire catastrophiques ».

Californie : Même au sein des États-Unis, des contre-mouvements existent. SB 53, signé par le gouverneur Newsom en septembre 2025, oblige les fournisseurs de modèles frontières à publier des cadres de sécurité et à signaler les incidents critiques sous 15 jours.

Chine : Les Mesures provisoires pour l’IA générative, en vigueur depuis août 2023, exigent des évaluations de sécurité, l’enregistrement des algorithmes et l’étiquetage des contenus générés par l’IA.

États-Unis au niveau fédéral : la direction opposée. Le décret 14110 du président Biden — 36 pages d’exigences obligatoires en matière de rapports de sécurité, de tests et de transparence — a été révoqué dès le premier jour du nouveau mandat. Son remplacement : le décret 14179 — deux pages, zéro exigence de sécurité, un objectif déclaré : « maintenir et renforcer la domination mondiale de l’Amérique en matière d’IA ».

Le contraste ne pourrait guère être plus saisissant. En novembre 2023, les États-Unis signaient la Déclaration de Bletchley reconnaissant les risques de l’IA comme potentiellement catastrophiques. Quatorze mois plus tard, ils révoquaient toute mesure de sécurité contraignante au niveau fédéral.

Ce que cela signifie pour l’espace économique européen

Pour les entreprises et les particuliers européens, cette évolution est bien plus qu’une comparaison réglementaire transatlantique. Ce qui se dessine est un profil de risque fondamentalement nouveau — et un dilemme sans solution simple.

Le risque produit. Lorsqu’un fournisseur d’IA assouplit ses exigences de sécurité sous pression étatique, l’impact dépasse les applications militaires. Anthropic ne développe pas deux modèles distincts — un pour le Pentagone et un pour le reste du monde. L’architecture, les priorités internes, l’allocation des ressources entre recherche en sécurité et développement fonctionnel : tout cela se déplace. Chris Painter de Metr, une organisation à but non lucratif d’évaluation des risques IA, met en garde contre un « effet de la grenouille ébouillantée » : sans seuils binaires servant de signaux d’alerte, les risques s’accumulent progressivement — jusqu’à ce qu’aucun moment clair ne déclenche l’alarme.

Le risque de conformité. L’AI Act européen ne rend pas automatiquement plus sûre l’utilisation des systèmes d’IA en Europe — mais il rend les utilisateurs responsables. Les entreprises déployant des systèmes d’IA à haut risque doivent documenter et évaluer leurs risques — même lorsque le fournisseur se trouve aux États-Unis et vient de baisser ses standards.

Le risque de souveraineté. La confrontation entre le Pentagone et Anthropic révèle un schéma qui dépasse l’IA : les entreprises américaines opèrent dans un cadre juridique où le gouvernement peut modifier les règles à tout moment — non par une législation transparente, mais par des menaces de l’exécutif. Le CLOUD Act concerne les données. Le Defense Production Act concerne les produits. La logique est la même : ce qu’une entreprise américaine promet à ses clients est subordonné à ce que le gouvernement américain autorise.

Le dilemme : réglementation stricte ou progrès rapide

C’est ici que la situation devient inconfortable pour l’Europe. L’assouplissement des standards de sécurité IA n’apporte pas seulement des risques — il apporte aussi de la vitesse.

Moins d’exigences de sécurité signifie une itération plus rapide, des lancements de produits plus rapides, un progrès technologique plus rapide. Les entreprises américaines libérées des évaluations de sécurité et des obligations de documentation peuvent investir leurs ressources dans le développement plutôt que dans la conformité. Ce n’est pas un scénario théorique — c’est déjà la réalité.

Pour les entreprises européennes, cela crée une situation où les deux options disponibles comportent des coûts :

Rester dans le cadre réglementaire européen signifie : des règles claires, une sécurité juridique, une protection des consommateurs — mais aussi des coûts plus élevés, des cycles de développement plus longs et le risque croissant que l’écart technologique avec les fournisseurs américains et chinois continue de se creuser. La charge réglementaire pèse sur les start-ups et les PME européennes, tandis que les concurrents américains en sont exemptés.

S’exposer à la dynamique non réglementée signifie : accès aux modèles les plus performants sans restrictions — mais aussi dépendance envers des fournisseurs dont les engagements de sécurité peuvent être révisés sous pression politique. Quiconque s’appuie aujourd’hui sur un produit d’IA américain sans alternative européenne accepte implicitement que les règles peuvent changer à tout moment sans préavis.

La question ouverte décisive : l’Europe maintiendra-t-elle son cadre réglementaire strict — en payant le prix d’une innovation plus lente ? Ou la pression d’une nouvelle course à l’IA, dans laquelle l’intelligence artificielle devient un instrument de pouvoir militaire, poussera-t-elle l’UE à assouplir ses propres standards ?

Un positionnement neutre — sécurité stricte sans désavantage concurrentiel — ne semble plus exister.

Ce que cela signifie concrètement pour vous

Pour les particuliers : les systèmes d’IA que vous utilisez quotidiennement — des chatbots aux services de traduction en passant par la recherche assistée par IA — sont développés par des entreprises dont les engagements de sécurité sont sous pression politique. Ce qui était garanti hier est négociable aujourd’hui. Cela ne signifie pas que ces outils seront dangereux demain. Cela signifie que les mécanismes censés garantir leur sécurité se sont affaiblis — et qu’aucune autorité indépendante ne peut intervenir.

Pour les entreprises : toute organisation européenne utilisant des produits d’IA américains devrait réévaluer son profil de dépendance. Non par principe, mais par gestion sobre des risques. Si le fournisseur de votre système d’IA peut être contraint de modifier ses standards de sécurité sous pression politique, c’est un risque opérationnel — comparable à une chaîne d’approvisionnement passant par un seul pays à l’État de droit instable. Notre audit de risque numérique fournit un point d’entrée structuré pour cette évaluation.

Pour le débat : l’assouplissement de la RSP d’Anthropic n’est pas un cas isolé. C’est le symptôme d’une évolution où la sécurité commerciale de l’IA et les intérêts de puissance étatiques entrent en collision. Nik Kairinos, PDG de Raids AI, résume sans détour : les engagements volontaires sont révisés quand cela compte. Ce n’est pas une défaillance morale — c’est une réalité structurelle. Et c’est l’argument le plus fort en faveur d’une réglementation contraignante — malgré tous ses inconvénients — comme seul mécanisme capable de résister à cette pression.

Une chose que le cas Anthropic montre avec une clarté douloureuse : dans un monde où l’IA devient une arme stratégique, il n’existe plus de position sans risque. Ni à l’intérieur de la réglementation, ni à l’extérieur.

Sources


Vue d’ensemble des sujets : Tous les articles sur digital-independence.org →