La technologie comme levier :
la dépendance numérique de l’Europe à l’épreuve
Vendredi 27 février 2026. Cinq heures moins le quart.
Dans une salle de négociation du Pentagone, un compromis était sur la table. L’entreprise d’IA Anthropic avait tracé deux lignes rouges : pas d’armes autonomes, pas de surveillance de masse. Le Pentagone avait cédé sur les armes autonomes — la formulation « as appropriate », la faille qui aurait permis le déploiement du modèle d’IA Claude d’Anthropic dans des systèmes d’armes, devait être supprimée. Anthropic avait proposé en contrepartie de collaborer avec la NSA sur des données collectées sous contrôle judiciaire conformément à la loi FISA.
Deux lignes rouges sur lesquelles les deux parties avaient accepté de discuter. Un accord semblait possible.
Le Pentagone a alors exigé autre chose : l’accès aux données commerciales de masse de citoyens américains — requêtes de chatbot, positions GPS, transactions par carte de crédit. Non pas des données autorisées par un tribunal. Des données que des particuliers et des entreprises confient à Claude dans le cours normal de leurs activités. Anthropic a refusé. À 17h01, le délai a expiré.
Trois heures plus tard, le secrétaire à la Guerre Pete Hegseth a désigné Anthropic comme « risque pour la chaîne d’approvisionnement » — une classification jusqu’alors réservée exclusivement aux acteurs étrangers. Le lendemain matin, OpenAI a signé le contrat de remplacement.
Ce qui s’est passé cette semaine-là n’est pas un différend contractuel. C’est le cas le plus explicite à ce jour où le gouvernement américain utilise la technologie comme levier — non pas contre un rival géopolitique, mais contre l’une de ses propres entreprises. Les instruments déployés ici — droit des sanctions, classification comme risque pour la chaîne d’approvisionnement, Defense Production Act — sont à la disposition du gouvernement américain face à toute entreprise technologique américaine. Microsoft, Apple, Google, Amazon — y compris celles dont vos collaborateurs ont lancé les logiciels et services ce matin.
À qui appartiennent les données ?
La semaine de négociations entre Anthropic et le Pentagone révèle des détails qui ne sont apparus que récemment grâce aux reportages de The Atlantic et de Golem.de.
Le nœud de l’échec ne portait pas sur les armes autonomes — le Pentagone avait fait des concessions sur ce point. Il portait sur une question qui concerne toute entreprise utilisant un service cloud : à qui appartiennent les données que les clients confient à un fournisseur américain ?
Le Pentagone exigeait l’accès aux flux de données commerciales : non pas des informations autorisées par un tribunal pour des raisons de sécurité nationale, mais l’ensemble du flux de données que Claude traite dans son activité commerciale — requêtes de particuliers et d’entreprises, données de localisation, transactions financières. La frontière entre travail de renseignement et surveillance des clients devait disparaître.
Anthropic a proposé un compromis : une collaboration avec la NSA sur les données FISA — des informations collectées sous autorisation judiciaire avec un objectif de renseignement. L’entreprise a refusé l’analyse de données commerciales de masse sans contrôle judiciaire.
Un second point de friction concernait l’architecture de déploiement. Anthropic a fait valoir que même une solution purement cloud n’offrait aucune garantie contre un usage incontrôlé. Les architectures militaires modernes fonctionnent avec des réseaux maillés — des structures décentralisées dans lesquelles les données sont traitées sur des appareils de terrain, et non uniquement dans le cloud. Un modèle qui fonctionne officiellement « uniquement dans le cloud » peut, dans ces réseaux, se retrouver de facto sur des appareils en zone d’opérations — sans que le fournisseur puisse le contrôler ou l’empêcher.
Emil Michael, qui dirigeait les négociations côté Pentagone, a publiquement qualifié le PDG d’Anthropic, Dario Amodei, de « menteur » atteint d’un « complexe de Dieu ». Golem.de trace un parallèle historique : Oppenheimer — le physicien qui a construit la bombe atomique, puis tenté d’empêcher la bombe à hydrogène. Le gouvernement américain lui a retiré son habilitation de sécurité. Non pas parce qu’il avait tort, mais parce qu’il dérangeait.
Fait notable : malgré la classification comme risque pour la chaîne d’approvisionnement, l’armée américaine a continué à utiliser Claude pour des opérations militaires actives dans les jours qui ont suivi — en invoquant la clause de transition de six mois du contrat existant. Le Pentagone a simultanément déclaré l’IA d’Anthropic comme un risque de sécurité et comme un outil indispensable.
Simultanément un risque de sécurité et un outil indispensable — c’était la position de négociation de la puissance militaire la plus puissante du monde face à une entreprise qui refusait de surveiller ses propres clients.
Le contrat de remplacement — et ses limites
Au lendemain de l’échec des négociations avec Anthropic, OpenAI a signé un contrat avec le Pentagone. Le PDG Sam Altman a présenté l’accord comme un compromis responsable — avec trois « lignes rouges » :
- Pas de surveillance de masse des citoyens américains sur le territoire national
- Pas d’armes autonomes — toutes les décisions létales prises par des humains
- Pas de système de crédit social pour les citoyens américains
La formulation est rassurante. Les détails le sont moins.
OpenAI met ses modèles à la disposition du Pentagone pour « toutes les fins autorisées par la loi ». Le contrat fait référence au droit en vigueur — avec la réserve notable que les lois peuvent changer.
Le problème du cloud. OpenAI mise sur un déploiement purement cloud, le modèle restant sous le contrôle d’OpenAI. C’est précisément l’approche qu’Anthropic avait rejetée comme insuffisante — arguant que les réseaux maillés rendent la distinction entre cloud et terminal techniquement caduque dans les architectures militaires modernes.
Le problème juridique. « Toutes les fins autorisées par la loi » semble être une limite claire. Mais les lois s’écrivent — et se réécrivent. L’Executive Order 14110, qui établissait des normes de sécurité IA au niveau fédéral, a été révoquée le premier jour du nouveau mandat. Ce qui est interdit aujourd’hui peut être autorisé demain. Le contrat lie OpenAI à la lettre de la loi, non à des principes éthiques.
Le problème de crédibilité. Altman avait d’abord signalé sa solidarité avec Anthropic. Puis il a signé le contrat de remplacement. Les propres employés de l’entreprise ont jugé cet accord comme le mauvais compromis : environ 100 salariés d’OpenAI ont signé une lettre ouverte soutenant expressément les lignes rouges d’Anthropic.
OpenAI a en outre demandé au gouvernement de proposer les mêmes conditions contractuelles à tous les laboratoires d’IA et de résoudre le différend avec Anthropic. Même le signataire du contrat de remplacement jugeait le traitement d’Anthropic problématique — une prise de distance remarquable.
Que se passe-t-il quand les objections éthiques ne viennent pas de la direction, mais malgré elle ?
Le schéma : de l’Iran à Anthropic
Le cas Anthropic n’est pas un incident isolé. C’est le dernier point d’une ligne d’escalade qui s’étend sur plusieurs décennies.
L’Iran. Un pays entier — coupé de Google, d’Apple, des plateformes cloud, des mises à jour logicielles. Depuis plus d’une décennie. Les sanctions de l’OFAC interdisent toute relation commerciale aux entreprises américaines. Pas par les bombes. Par le retrait de licences.
La Russie. Mars 2022. Microsoft retire aux entreprises russes l’accès aux licences, services cloud et mises à jour. Du jour au lendemain. Sans période de transition. Google, Apple, SAP et Oracle suivent. Les entreprises n’ont pas agi de leur plein gré : le droit américain des sanctions ne leur laissait pas le choix.
Huawei. 2019. Le gouvernement américain inscrit le premier équipementier 5G mondial sur l’Entity List. Plus de puces, plus de logiciels, plus de licences. La justification : la sécurité nationale. La conséquence : l’isolement économique.
Le juge français. Un citoyen européen sur le sol européen. Juge à la Cour pénale internationale. Il ne peut ni réserver de chambres d’hôtel, ni louer de voiture, ni faire d’achats en ligne — parce que les transactions de paiement européennes passent par Visa et Mastercard et que le droit américain des sanctions s’applique. (Pour une analyse opérationnelle approfondie de ce cas, voir notre audit de risque numérique.)
Anthropic. Février 2026. Une première : une entreprise américaine est désignée comme risque pour la chaîne d’approvisionnement. Pas un acteur étranger. Une entreprise américaine qui a refusé d’abandonner ses propres principes éthiques.
Le schéma est sans équivoque. Chaque étape élargit le cercle de ceux qui peuvent être visés : des pays considérés comme ennemis, des pays en conflit actif, des entreprises étrangères, des individus sur le sol européen, des entreprises nationales. Ce qui était impensable hier est aujourd’hui un précédent.
Chaque licence est conditionnelle
Le logiciel que vos collaborateurs ont lancé ce matin ne vous appartient pas. Il est emprunté — à la condition que Washington n’y voie pas d’objection.
Chaque CLUF, que signe une entreprise européenne avec un fournisseur de logiciels américain, contient une clause rarement lue : l’obligation de se conformer au droit américain du contrôle des exportations et des sanctions. Cette clause figure dans les conditions d’utilisation de Microsoft, Apple, Google, Amazon, Salesforce, Oracle et de pratiquement toute autre entreprise technologique américaine.
Ce que cette clause signifie : la licence que votre entreprise paie pour Windows, Microsoft 365, AWS ou Google Workspace est valide sous réserve que le gouvernement américain ne prenne pas de mesure restreignant ou révoquant l’accès. Ce n’est pas un scénario théorique — c’est exactement ce qui s’est produit en Iran et en Russie.
Les instruments dont dispose le gouvernement américain forment une échelle d’escalade :
| Instrument | Accès à | Utilisé contre |
|---|---|---|
| CLOUD Act | Données | Toutes les entreprises technologiques américaines |
| Droit des sanctions (OFAC) | Licences et services | Iran, Russie, Cuba, Corée du Nord, individus |
| Entity List | Exportation de technologie | Huawei, Kaspersky, entreprises étrangères |
| Defense Production Act | La technologie elle-même | Anthropic (première utilisation contre une entreprise américaine) |
| Classification chaîne d’approvisionnement | Isolement économique | Huawei, Kaspersky, Anthropic |
Pour les entreprises européennes, cela signifie : les conditions d’utilisation que vous avez convenues avec votre fournisseur américain s’appliquent exactement aussi longtemps que le gouvernement américain ne les annule pas. Que ce levier ne soit pas seulement théorique, Broadcom l’a démontré après le rachat de VMware — même sans sanctions : des hausses de prix décuplées, la suppression des licences perpétuelles, la migration forcée vers l’abonnement. Le verrouillage fournisseur rend cela possible.
(Pour l’analyse juridique de chacun de ces instruments, voir notre article Pentagone vs. Anthropic.)
La réponse de l’Europe
Le 2 mars 2026, le porte-parole du SPD pour la politique numérique, Matthias Mieves, a écrit des lettres à la présidente de la Commission européenne Ursula von der Leyen, au président de la CDU Friedrich Merz et à d’autres décideurs à Berlin et Bruxelles. Son message : l’Europe devrait inviter activement Anthropic à poursuivre son développement d’IA sous le droit européen (ZEIT / AFP / Reuters, 2 mars 2026).
Mieves décrit la pression sur Anthropic comme « existentiellement menaçante » et argue que l’UE, sous le règlement européen sur l’IA, offre des « conditions optimales » pour un développement de l’IA centré sur l’humain. C’est la première fois que le règlement sur l’IA est explicitement présenté comme un avantage de localisation pour une entreprise concrète — non comme une charge réglementaire, mais comme un espace protégé.
La proposition mérite une évaluation sobre. Ce qui plaide en sa faveur :
- L’Europe aurait accès à l’un des modèles d’IA les plus performants au monde — développé sous le droit européen, exploité sur une infrastructure européenne.
- Le règlement sur l’IA fonctionnerait comme ce pour quoi il a été conçu : un cadre qui permet un développement responsable de l’IA plutôt que de l’empêcher.
- Une implantation d’Anthropic en Europe enverrait un signal à l’industrie technologique mondiale : la réglementation européenne n’est pas synonyme d’hostilité à l’innovation.
Ce qui plaide contre :
- Anthropic est profondément intégré dans l’écosystème américain : investisseur principal Amazon (8 milliards de dollars), infrastructure sur AWS, vivier de talents à San Francisco.
- Un déménagement ne soustrairait pas l’entreprise au marché américain — et donc pas au droit américain.
- L’UE ne dispose actuellement ni de l’infrastructure de calcul ni du capital-risque pour porter une entreprise d’IA de cette envergure par ses propres moyens.
Ce que l’initiative de Mieves identifie justement : le cas Anthropic est un moment où l’Europe dispose d’un choix stratégique. Non pas le choix de tout résoudre — mais le choix de faire une offre. Laisser passer cette opportunité serait le véritable risque. (Pour l’analyse des raisons de l’affaiblissement des standards de sécurité d’Anthropic et de la différence entre le règlement européen sur l’IA et l’approche américaine, voir Quand la sécurité devient négociable.)
Ce que cela signifie pour vous
Pour les particuliers : les technologies que vous utilisez au quotidien — votre système d’exploitation, votre messagerie, votre stockage cloud, vos moyens de paiement — sont fournies par des entreprises américaines dont la marge de manœuvre est soumise à l’intervention de l’État. En théorie, cela a toujours été le cas. Ce qui a changé, c’est la volonté de procéder effectivement à ces interventions — et la rapidité avec laquelle de nouveaux précédents sont créés. De la sanction de pays entiers à l’isolement d’un conglomérat chinois, en passant par la classification d’une entreprise nationale comme risque de sécurité : le cercle de ce qui est concevable s’est fondamentalement élargi en moins de cinq ans.
Pour les entreprises : partout en Europe, des entreprises recrutent en ce moment des administrateurs Microsoft. Les services informatiques planifient des migrations vers la prochaine version de Windows. Des appareils Apple sont commandés pour le prochain cycle de flotte. C’est du déni de réalité — comme rénover une maison sans vérifier à qui appartient le terrain. Non pas parce que ces produits seraient mauvais — mais parce que les entreprises recrutent du personnel exclusivement pour des systèmes qui pourraient ne plus être disponibles en cas de crise, au lieu de préparer au moins une partie de leurs équipes au changement stratégique qui, en cas d’urgence, fait la différence entre une interruption d’activité et une perte économique totale.
Le cas Anthropic ajoute une nouvelle variable à l’équation du risque. Jusqu’ici, le calcul était : les fournisseurs américains sont soumis au CLOUD Act (accès aux données) et au droit des sanctions (révocation de licences pour des motifs politiques). Désormais, une dimension supplémentaire s’y ajoute : le Defense Production Act peut contraindre les entreprises américaines à mettre leur technologie à disposition contre leur propre volonté — et la classification comme risque pour la chaîne d’approvisionnement peut isoler économiquement les entreprises qui refusent.
Pour une migration complète vers l’indépendance numérique, le calendrier est peut-être déjà trop serré. Ce qui n’est pas trop tard : avoir un plan. Former ses administrateurs pour le cas d’urgence. Avoir une solution prête dans le tiroir. Notre audit de risque numérique offre un point d’entrée structuré pour cette préparation.
Pour le débat : l’Europe reconnaît le danger venant d’un côté — une industrie de guerre russe qui, en trois ans de guerre en Ukraine, a acquis une expérience opérationnelle à laquelle aucun État membre de l’UE n’est préparé : mille frappes de drones sur l’infrastructure civile par nuit, une guerre par drones d’une ampleur telle que dix pilotes ukrainiens ont mis hors de combat deux bataillons complets de l’OTAN lors d’un seul exercice. L’Europe parle fort. Elle est impuissante. Ce qu’elle ignore totalement, c’est le danger venant de l’autre côté. Pas de l’est. De l’autre côté de l’Atlantique. Pas sous forme de chars. Sous forme de conditions de licence.
L’Europe n’est pas l’enfant chéri qui quitte la maison familiale. C’est Cendrillon. Et il n’y a pas de prince à l’horizon.
Le père dans cette histoire est imprévisible — un homme qui ne sait pas lui-même ce qu’il fera ensuite. Un décret présidentiel de 36 pages est révoqué dès le premier jour de mandat. Des sanctions sont imposées sans consultation des partenaires commerciaux. Une entreprise d’IA est déclarée risque pour la chaîne d’approvisionnement tandis que son modèle est simultanément utilisé pour des opérations militaires actives.
Le cas Anthropic démontre que ce danger et cette imprévisibilité sont en hausse visible. La fenêtre dans laquelle la décision est encore un choix stratégique et non une réaction à une crise se rétrécit.
Quand, si ce n’est maintenant ?
Sources
- Inside Anthropic’s Killer-Robot Dispute With the Pentagon (The Atlantic, mars 2026)
- Anthropic vs. Pentagon : Der Oppenheimer-Moment (Golem.de, mars 2026)
- Statement on Comments from Secretary of War (Anthropic, fév. 2026)
- Our Agreement with the Department of War (OpenAI, fév. 2026)
- Suspending new sales in Russia (Microsoft, mars 2022)
- Euro cloud body says Broadcom licensing unfair (The Register, mai 2025)
- NATO-Übung offenbart Schwächen bei Verteidigung gegen Drohnenangriffe (Der Spiegel, fév. 2026)
- SPD-Digitalexperte will Anthropic nach Europa holen (ZEIT / AFP / Reuters, mars 2026)
- Pentagone vs. Anthropic : analyse stratégique (digital-independence.org, fév. 2026)
- Quand la sécurité devient négociable (digital-independence.org, fév. 2026)
- Audit de risque numérique (digital-independence.org, fév. 2026)
Vue d’ensemble des sujets : Tous les articles sur digital-independence.org →