Pentagone contre Anthropic
En février 2026, le ministère américain de la Défense adresse un ultimatum à Anthropic, entreprise spécialisée dans l’intelligence artificielle. L’exigence : un accès sans restriction aux modèles d’IA d’Anthropic – y compris pour des usages que les propres conditions d’utilisation de l’entreprise interdisent expressément. La menace : une loi de production de guerre datant de 1950.
Sept mois plus tôt, la même entreprise avait signé un contrat de 200 millions de dollars avec le même ministère de la Défense. Anthropic a fait du développement responsable de l’IA un principe fondateur – tout en étant la première entreprise d’IA autorisée à opérer sur des réseaux militaires classifiés.
Le conflit met au jour des mécanismes qui dépassent largement le cas d’une seule entreprise.
Ce dont il ne s’agit pas
La question de l’accès aux données n’est pas en cause dans ce conflit. Depuis 2018, le ministère américain de la Justice dispose du CLOUD Act (Clarifying Lawful Overseas Use of Data Act), qui contraint les entreprises américaines à livrer toute donnée qu’elles détiennent – quel que soit l’endroit du monde où ces données sont physiquement stockées. Cela vaut pour Microsoft, Google, Amazon, Meta, OpenAI, Anthropic et toute autre entreprise technologique américaine.
Qu’Anthropic accorde ou non au Pentagone l’accès à sa technologie d’IA : le gouvernement américain a eu, a et continuera d’avoir accès aux données des utilisateurs, tant que le fournisseur est une entreprise américaine.
L’enjeu est tout autre : l’accès sans restriction à la technologie elle-même – l’utilisation des modèles d’IA à des fins de surveillance de masse et de systèmes d’armes autonomes.
Promesse de sécurité et contrat militaire
Anthropic s’est positionné comme une entreprise plaçant le développement responsable de l’IA au coeur de sa mission. Sa Acceptable Use Policy interdit explicitement la surveillance de masse des populations et le déploiement de systèmes d’armes autonomes sans contrôle humain.
Parallèlement, l’entreprise a accepté en juillet 2025 un contrat prototype de 200 millions de dollars avec le Department of Defense, développé des Claude Gov Models dédiés aux clients gouvernementaux, et – par l’intermédiaire de partenaires comme Palantir – opérait déjà sur des réseaux militaires classifiés. Au moment de l’éclatement du conflit, Anthropic était la seule entreprise d’IA autorisée sur des systèmes classifiés.
- Toute entreprise qui conclut un contrat avec le ministère de la Défense entre dans sa sphère d’influence juridique et opérationnelle.
- Toute entreprise qui opère sur des réseaux classifiés devient une infrastructure critique – et une cible potentielle de contrainte réglementaire.
- Toute entreprise qui accepte 200 millions de dollars du DoD crée une dépendance économique utilisable comme levier.
Anthropic semble avoir misé sur le respect de ses propres conditions d’utilisation en tant que limitation contractuelle. Le DoD voit les choses autrement. Il considère les paiements et déploiements existants comme un fondement pour traiter Anthropic comme un maillon de la chaîne d’approvisionnement militaire et lever toutes les restrictions – par pression contractuelle, par la désignation comme risque pour la chaîne d’approvisionnement, ou par application du Defense Production Act.
Trois niveaux d’escalade
Résiliation du contrat. La mesure la plus évidente : annulation du contrat de 200 millions de dollars. Financièrement supportable pour Anthropic, dont les revenus proviennent principalement du marché commercial.
Désignation comme risque pour la chaîne d’approvisionnement. Anthropic est déclaré Supply Chain Risk. La conséquence : toute entreprise travaillant avec l’armée américaine devrait retirer Anthropic de ses systèmes. Étant donné qu’Anthropic est connecté à AWS (Amazon), Palantir et de nombreux partenaires gouvernementaux, les dommages économiques seraient considérables.
Defense Production Act. Une loi de production de guerre de 1950 est invoquée pour contraindre une entreprise d’IA à céder sa technologie. Le Pentagone fixe l’échéance à vendredi, 17 h 01.
C’est le deuxième niveau qui retient l’attention. La désignation comme risque pour la chaîne d’approvisionnement était jusqu’ici réservée à des acteurs étrangers : Huawei (Chine), Kaspersky (Russie). L’appliquer à une entreprise américaine constituerait un précédent.
Au-delà d’un cas isolé
L’affaire Anthropic met en lumière un mécanisme pertinent pour toute entreprise technologique basée aux États-Unis.
Avec un contrat gouvernemental, une entreprise peut être classée comme chaîne d’approvisionnement critique, contrainte par le Defense Production Act de céder sa technologie, et isolée économiquement par une désignation comme risque pour la chaîne d’approvisionnement. Cela ne concerne pas uniquement l’IA. Cela s’applique potentiellement à toute technologie que le Pentagone juge pertinente pour la défense : infrastructure cloud, informatique quantique, biotechnologie, semi-conducteurs, cryptographie.
Sans contrat gouvernemental, le risque persiste. Le Defense Production Act permet au gouvernement de contraindre des entreprises à fournir des biens jugés pertinents pour la défense – même en l’absence de toute relation commerciale préexistante. Biden a utilisé le DPA en 2023 pour obliger des entreprises d’IA à réaliser des tests de sécurité et à partager des informations. L’application actuelle constituerait une escalade significative, mais le cadre juridique existe.
Dans les deux cas, l’entreprise perd le contrôle de l’utilisation de sa technologie. Elle reste formellement privée – mais la décision sur l’emploi de sa technologie revient à l’État.
Conséquences pour la localisation des entreprises
Pour les entreprises technologiques opérant à l’échelle mondiale et dont le modèle économique repose sur la confiance, les États-Unis deviennent un risque de responsabilité croissant.
Les clients européens doivent justifier, au regard du RGPD, pourquoi ils font confiance à un fournisseur dont la technologie peut être réquisitionnée à tout moment par l’armée américaine. Les entreprises de secteurs réglementés – santé, finance, infrastructures critiques – sont confrontées à la question de savoir si un fournisseur d’IA américain peut encore être considéré comme conforme dans ces conditions. Les gouvernements étrangers utilisant une technologie d’IA américaine doivent désormais supposer que cette même technologie est utilisée en parallèle par l’armée américaine.
Le message adressé au marché est difficile à contester : les conditions d’utilisation d’une entreprise américaine ne sont valables que tant que le gouvernement américain choisit de ne pas les annuler.
Dans le même temps, l’affaire envoie un signal à l’industrie elle-même. Anthropic était l’une des rares entreprises à traiter la sécurité de l’IA non comme un argument marketing, mais comme une contrainte opérationnelle. OpenAI, Google et xAI ont déjà accepté de rendre leur IA disponible pour tous les « lawful purposes ». Anthropic était le dernier grand fournisseur américain à fixer des limites à l’usage militaire. Si Anthropic cède à son tour – ou y est contraint par la loi –, cette dernière limite disparaît. Pour la course aux standards de sécurité en IA, cela signifie moins d’incitation à adopter des restrictions qui peuvent de toute façon être contournées.
Réactions en chaîne géopolitiques
L’affaire a des répercussions qui dépassent le secteur technologique américain.
Effet de précédent. Si les États-Unis utilisent le Defense Production Act pour contraindre une entreprise d’IA à la coopération militaire, d’autres États l’observent – et peuvent l’invoquer pour justifier leurs propres mesures. La Chine, la Russie, mais aussi l’Inde ou la Turquie pourraient appliquer des mécanismes identiques à leurs entreprises technologiques nationales. L’argument est évident : même les États-Unis le font.
Fragmentation du marché. La conséquence logique est un partitionnement du marché mondial de l’IA selon des lignes géopolitiques : l’IA américaine pour la sphère d’influence américaine, l’IA chinoise (DeepSeek, Baidu) pour la sphère chinoise, l’IA européenne pour les marchés réglementairement souverains. Chaque région avec ses propres normes, son propre contrôle. C’est l’antithèse d’un marché technologique ouvert – et cela augmente les coûts pour tous.
Instrumentalisation de la désignation comme risque. La menace de déclarer une entreprise nationale Supply Chain Risk parce qu’elle refuse d’abandonner ses standards éthiques rend l’instrument utilisable de manière arbitraire – contre toute entreprise qui résiste aux exigences de l’État.
Risque pour les investisseurs. Anthropic prévoit une introduction en bourse cette année, selon NPR. Le conflit crée une nouvelle catégorie de risque : le risque de contrainte réglementaire – non pas une régulation au sens classique, mais la possibilité de voir son modèle économique réécrit par une loi de guerre.
Risque de localisation aux États-Unis : évaluation stratégique
D’un point de vue stratégique, l’affaire Anthropic introduit un nouveau calcul pour toute entreprise développant une technologie propriétaire de valeur stratégique.
Les instruments dont dispose le gouvernement américain ne sont pas limités aux temps de guerre ou aux situations d’urgence :
- CLOUD Act – accès aux données
- Defense Production Act – accès à la technologie
- Supply Chain Risk Designation – isolation économique en cas de refus
Les trois sont déployés ou brandis ici dans le cadre d’un différend contractuel.
Comparaison des risques par juridiction
| Siège aux États-Unis | Siège hors des États-Unis | |
|---|---|---|
| Capital et écosystème | Plus forte concentration mondiale de capital-risque, de talents et d’infrastructure | Accès au capital moindre, mais alternatives en croissance (UE, Royaume-Uni, Canada, Singapour) |
| Accès étatique | Accès légal complet aux données et à la technologie | Dépend de la juridiction locale |
| Contrainte | Contrainte par le Defense Production Act possible | Pas d’instrument comparable dans la plupart des juridictions |
| Risque économique | Isolation économique en cas de non-coopération | Perte potentielle de l’accès au marché américain |
L’avertissement ne concerne pas uniquement les entreprises d’IA. Il s’étend à toute technologie que l’État pourrait qualifier de pertinente pour la défense : informatique quantique, biotechnologie, cryptographie, semi-conducteurs, spatial, cybersécurité, robotique.
Le contre-argument
La Silicon Valley offre toujours la plus forte concentration mondiale de capital-risque, de talents et d’infrastructure. Aucun autre site ne s’en approche aujourd’hui. Un exode massif d’entreprises technologiques est improbable à court terme.
Ce qui devrait changer, c’est la sophistication de la décision de localisation. Les entreprises dont le modèle économique repose sur la confiance mondiale – en particulier vis-à-vis de clients européens, asiatiques ou gouvernementaux – devront évaluer les États-Unis comme un facteur de risque stratégique. Non comme un critère d’exclusion, mais comme une variable qui n’existait pas sous cette forme auparavant.
Les alternatives européennes et asiatiques gagnent en pertinence dans ce contexte. Mistral (France), Aleph Alpha (Allemagne), DeepSeek (Chine) – elles deviennent plus attractives pour les clients qui ont besoin d’une indépendance réglementaire vis-à-vis des États-Unis.
La réponse stratégique pour les entreprises concernées n’est probablement pas l’évitement, mais la structuration : holding en dehors des États-Unis, propriété intellectuelle dans une juridiction neutre, présence opérationnelle aux États-Unis pour le marché américain. Exactement comme cela s’est produit après les révélations Snowden pour les fournisseurs cloud et l’hébergement des données.
Sauf que cette fois, il ne s’agit pas de données. Il s’agit de la technologie elle-même.