Des faits, pas du battage.
L'Open Source évalué honnêtement et sans parti pris.
EN DE FR

IA & Machine Learning


L'IA en Europe vs. monopole US

L’IA devient rapidement une infrastructure critique — pour la génération de code, le traitement de documents, l’interaction client, l’aide à la décision. La plupart des organisations s’appuient aujourd’hui sur des fournisseurs américains : OpenAI, Google, Anthropic. Ces fournisseurs dominent pour de bonnes raisons — des API matures, des performances de modèle à la pointe, des investissements massifs dans la recherche en sécurité. Mais la concentration comporte des risques familiers : exposition juridictionnelle, dépendance fournisseur, et l’hypothèse que l’équilibre actuel des forces est permanent.

Puis est venu l’événement qui a remis cette hypothèse en question.

Le 27 janvier 2025, le laboratoire chinois DeepSeek a publié son modèle R1 — un modèle de raisonnement qui égalait ou surpassait o1 d’OpenAI sur la plupart des benchmarks. Le coût d’entraînement déclaré : 5,6 millions de dollars. Le même jour, Nvidia a perdu 589 milliards de dollars de capitalisation boursière — la plus forte perte en une seule journée de l’histoire des marchés financiers.

Le moment DeepSeek ne concernait pas la Chine. Il marquait l’effondrement d’un récit : celui selon lequel construire une IA de pointe exige des milliards de dollars, des dizaines de milliers de GPU et — implicitement — les ressources d’un géant de la Silicon Valley. Si un laboratoire chinois pouvait égaler le meilleur modèle d’OpenAI pour une fraction du coût, la barrière d’entrée dans l’IA compétitive était bien plus basse que l’industrie ne l’avait prétendu.

Pour les organisations évaluant leurs options de déploiement d’IA, c’était significatif : cela validait le postulat qu’une IA compétitive n’exige pas des ressources à l’échelle d’un hyperscaler — abaissant la barrière pour un déploiement souverain sur une infrastructure modeste.

Le paysage européen de l’IA : une taxonomie

Comprendre la position de l’Europe suppose de distinguer trois choses très différentes : les entreprises qui construisent des modèles de fondation, les plateformes qui permettent le déploiement de l’IA, et le cadre réglementaire qui régit les deux.

Mistral AI : le challenger européen

Mistral AI est ce qui se rapproche le plus d’une entreprise européenne d’IA de pointe. Fondée à Paris en 2023 par d’anciens chercheurs de Google DeepMind et Meta, Mistral a connu une ascension remarquable : de sa création à une valorisation de 11,7 milliards d’euros et plus de 400 millions de dollars de revenus annuels récurrents en moins de trois ans. La levée de fonds de septembre 2025 a réuni 1,7 milliard d’euros, portant la valorisation totale à 11,7 milliards d’euros. Plus de 100 clients entreprises, dont des agences gouvernementales.

La brillance stratégique de Mistral réside dans son modèle à double voie : publier des modèles open weight compétitifs (Mistral 7B, Mixtral 8x7B) qui fédèrent communauté et visibilité, tout en vendant des modèles propriétaires premium (Mistral Large) et des services entreprise. Les modèles open weight sont suffisamment performants pour tourner sur une infrastructure privée — ce qui compte pour les organisations qui ne peuvent pas envoyer de données sensibles vers une API cloud américaine.

Mistral Large 3, publié en décembre 2025, utilise 41 milliards de paramètres actifs (675 milliards au total dans une architecture mixture-of-experts). Le modèle est compétitif avec les modèles de classe GPT-4 sur la plupart des benchmarks. Pour les organisations européennes, l’attrait est simple : un LLM compétitif d’une entreprise française, déployable sur une infrastructure européenne, développé sous juridiction européenne.

Le bémol : Mistral est une startup financée par du capital-risque. Parmi ses investisseurs figurent General Catalyst, Andreessen Horowitz et Lightspeed — des sociétés de capital-risque américaines. La direction scientifique de Mistral est européenne, son siège est à Paris et son équipe principale est française. Mais la structure capitalistique est transatlantique. C’est la réalité de la tech européenne : les fondateurs sont européens, le capital est souvent américain, et la « souveraineté » se complique quand on suit l’argent.

Aleph Alpha : la mise en garde

Si Mistral est le récit de succès, Aleph Alpha est la mise en garde — même si la réalité est plus nuancée que les gros titres ne le laissent penser.

Fondée à Heidelberg en 2019, Aleph Alpha a levé environ 533 millions de dollars (dont seulement environ 110 millions d’euros en fonds propres — le reste en dette et contrats de services). L’entreprise s’était donné pour mission de construire des modèles de fondation européens souverains. Sa famille de modèles Luminous était positionnée comme l’alternative européenne à GPT — développée en Allemagne, entraînée sur des données européennes, déployable sur une infrastructure souveraine.

En septembre 2024, Aleph Alpha a pivoté. L’entreprise a cessé de développer ses propres modèles de fondation et s’est repositionnée comme fournisseur d’infrastructure IA pour entreprises sous la marque PhariaAI. Le discours est passé de « nous construisons des LLM européens » à « nous aidons les entreprises à déployer n’importe quel LLM de manière sécurisée ».

Le pivot était rationnel. Entraîner des modèles de pointe coûte des centaines de millions de dollars par génération. Chaque nouveau modèle d’OpenAI, Google ou Meta relevait la barre. Aleph Alpha ne pouvait pas rivaliser avec les budgets d’entraînement d’entreprises soutenues par Microsoft (13 milliards de dollars injectés dans OpenAI) ou Alphabet (capacité de calcul pratiquement illimitée). Plutôt que de brûler son capital dans une course perdue d’avance, l’entreprise a choisi un marché défendable : le « comment » du déploiement de l’IA en entreprise plutôt que le « quoi » du développement de modèles.

La leçon pour la souveraineté européenne en matière d’IA est inconfortable : le développement de modèles de fondation est peut-être trop capitalistique pour toutes les entreprises européennes sauf les mieux financées. Mistral y est parvenu — pour l’instant. Qu’une autre entreprise européenne puisse soutenir cet investissement reste une question ouverte.

Hugging Face : racines européennes, adresse américaine

Hugging Face mérite d’être mentionné comme l’entreprise d’infrastructure IA la plus importante dont la plupart des gens n’ont jamais entendu parler. La plateforme héberge plus de 2 millions de modèles et plus de 500 000 jeux de données, ce qui en fait le hub de facto pour l’IA open source et open weight.

Hugging Face a été fondée à Paris par les entrepreneurs français Clément Delangue, Julien Chaumond et Thomas Wolf. Sa plus grande équipe d’ingénierie — environ 70 personnes du noyau historique — est toujours à Paris. Mais l’entreprise a son siège à New York, sa valorisation est portée par des investisseurs américains, et son domicile juridique est américain.

C’est la fuite des talents en acte : des fondateurs européens, des talents européens, de l’innovation européenne — mais une incorporation aux États-Unis parce que c’est là que le capital, les clients et l’environnement juridique sont les plus favorables. Du point de vue de la dépendance, l’incorporation américaine de Hugging Face signifie que la plateforme opère sous juridiction américaine — ce qui importe pour les organisations évaluant leur chaîne d’approvisionnement IA. La nature open source de la plateforme atténue ce risque : le code et les modèles peuvent être auto-hébergés indépendamment du domicile de l’entreprise.

Open weight : le levier de la souveraineté

L’essor des modèles open weight a fondamentalement changé l’équation de la souveraineté en matière d’IA.

Avant LLaMA (Meta, février 2023), utiliser un LLM compétitif signifiait envoyer ses données à l’API d’OpenAI — hébergée sur Microsoft Azure, sous juridiction américaine. Il n’y avait pas d’alternative. Les poids du modèle étaient propriétaires, l’inférence se faisait sur l’infrastructure du fournisseur, et chaque prompt envoyé devenait une donnée d’entraînement (jusqu’à ce que des politiques de désinscription soient introduites à contrecœur).

Les modèles open weight ont changé la donne. Lorsque les poids d’un modèle sont publiquement disponibles, les organisations peuvent :

  1. Exécuter les modèles sur leur propre infrastructure — dans un centre de données européen, chez un fournisseur cloud européen, ou sur site. Aucune donnée ne quitte l’organisation.
  2. Affiner les modèles pour des cas d’usage spécifiques — analyse juridique, documentation médicale, correspondance administrative — à partir de données propriétaires qui ne touchent jamais un serveur américain.
  3. Choisir leur mode de déploiement — API cloud pour la commodité, auto-hébergement pour la souveraineté, ou hybride par pragmatisme.

Le paysage open weight compétitif en ce début 2026 est remarquablement riche :

  • Meta LLaMA 3.1/3.2 : La famille open weight la plus largement adoptée. La licence autorise l’usage commercial mais le restreint pour les applications de plus de 700 millions d’utilisateurs actifs mensuels. Pas open source selon la définition de l’OSI, mais suffisamment permissive pour la plupart des organisations.
  • Modèles Mistral : Plusieurs sous licence Apache 2.0 (véritablement open source), d’autres sous licences personnalisées. Origine européenne.
  • DeepSeek R1 : Licence MIT — la plus permissive de tous les modèles de pointe. Origine chinoise, ce qui soulève des questions de souveraineté d’un autre ordre.
  • Qwen (Alibaba) : Licence Apache 2.0. Origine chinoise.

L’ironie est savoureuse : les licences les plus permissives pour les modèles d’IA de pointe ne viennent ni d’Europe ni des États-Unis, mais d’entreprises chinoises. DeepSeek R1 sous licence MIT donne à toute organisation européenne le droit de déployer, modifier et commercialiser un modèle de raisonnement de pointe. La souveraineté IA européenne, en 2026, repose en partie sur l’ouverture chinoise.

La question du calcul

Exécuter des modèles open weight localement nécessite du matériel — en particulier des GPU avec une mémoire importante. Un modèle Mistral 7B peut tourner sur un seul GPU grand public. Un modèle 70B exige plusieurs GPU haut de gamme. Les modèles de pointe dans la gamme des 400 milliards de paramètres et plus nécessitent des clusters de GPU qui coûtent des centaines de milliers d’euros.

La disponibilité de GPU en Europe s’est améliorée mais reste contrainte. La comparaison pertinente :

  • Scaleway (France) propose des instances NVIDIA H100 à partir d’environ 2,73 € de l’heure
  • Hetzner (Allemagne) a élargi son offre GPU, bien que la disponibilité reste limitée
  • OVHcloud (France) propose des serveurs GPU dédiés
  • Les hyperscalers américains (AWS, Azure, GCP) disposent de la plus large disponibilité GPU, mais à des prix plus élevés et sous juridiction américaine

Pour les organisations qui déploient des modèles jusqu’à 70 milliards de paramètres — ce qui couvre l’immense majorité des cas d’usage pratiques — le calcul européen est suffisant et souvent moins cher. Pour entraîner de nouveaux modèles de pointe ou déployer les plus grands modèles à grande échelle, le cloud américain conserve un avantage d’infrastructure.

L’évolution la plus intéressante est la baisse du coût matériel. Les techniques de quantisation (réduction de la précision du modèle de 16 bits à 8 bits ou 4 bits) permettent désormais d’exécuter des modèles qui nécessitaient auparavant des clusters GPU coûteux sur du matériel nettement moins onéreux — parfois même sur des machines de bureau. Un Mistral 7B quantisé tourne confortablement sur un portable équipé d’un GPU correct. Cette démocratisation de l’inférence est aussi importante pour la souveraineté que le mouvement open weight lui-même.

Le règlement IA européen : la réglementation comme arme à double tranchant

Le règlement IA européen (UE 2024/1689), entré en vigueur le 1er août 2024, est la première réglementation complète de l’IA au monde. Sa mise en œuvre progressive s’étend jusqu’en août 2027.

Le règlement classe les systèmes d’IA par niveau de risque et impose des obligations correspondantes. Pour l’IA à usage général (GPAI) — ce qui inclut tous les principaux LLM — les fournisseurs doivent produire une documentation technique et respecter le droit d’auteur. Les modèles présentant un « risque systémique » (actuellement défini par une puissance de calcul d’entraînement dépassant 10²⁵ FLOP) sont soumis à des exigences supplémentaires : tests adverses, signalement d’incidents et évaluation du modèle.

Les modèles open weight bénéficient de certaines exemptions : les fournisseurs de modèles GPAI open weight ne sont pas tenus de publier la documentation technique ni de respecter les exigences de transparence en matière de droits d’auteur — sauf si leur modèle est classé comme risque systémique. C’est une incitation délibérée à l’ouverture.

La préoccupation liée au poids réglementaire est réelle. La conformité au règlement IA — en particulier pour les applications à haut risque — exige une expertise juridique, de la documentation, des évaluations de conformité et un suivi continu. Pour une startup comme Mistral, ces coûts sont gérables. Pour les entreprises IA européennes plus petites, ils peuvent être prohibitifs. Le risque est que la réglementation, pensée pour garantir sécurité et transparence, consolide en réalité le marché autour d’acteurs bien financés qui peuvent se permettre des départements de conformité.

Le contre-argument : sans réglementation, le marché de l’IA serait encore plus dominé par les entreprises américaines qui peuvent surpasser financièrement les concurrents européens. Le règlement IA crée des règles qui s’appliquent également à tous les fournisseurs opérant en Europe — y compris OpenAI, Google et Anthropic. Que cela nivelle le terrain de jeu ou ajoute une friction égale pour tous est le débat politique central.

Que le sommet de Berlin sur la souveraineté numérique en novembre 2025 ait lui-même appelé à un report de 12 mois des dispositions à haut risque du règlement IA est un aveu tacite que l’équilibre entre réglementation et innovation n’a pas encore été trouvé.

Construire une pile IA souveraine

Pour les organisations qui cherchent à réduire leur dépendance IA envers les fournisseurs américains, une pile IA souveraine et pragmatique en 2026 ressemble à ceci :

Couche modèle : Modèles open weight — Mistral (européen, Apache 2.0 pour certains modèles), LLaMA (américain, licence permissive), DeepSeek R1 (chinois, licence MIT). Choix selon le cas d’usage, les exigences de performance et les préférences de souveraineté.

Couche inférence : Auto-hébergement sur une infrastructure cloud européenne — Scaleway, Hetzner, OVHcloud ou fournisseurs certifiés SCS. Frameworks comme vLLM, llama.cpp ou Text Generation Inference (TGI) de Hugging Face pour le service de modèles.

Couche affinage : Adaptation spécifique au domaine à partir de données privées sur du matériel local. Des outils comme Axolotl, les adaptateurs LoRA ou la bibliothèque PEFT de Hugging Face rendent cette étape accessible sans nécessiter des ressources à l’échelle des modèles de pointe.

Couche application : Intégration dans les processus organisationnels via des API standard. Le format d’API d’OpenAI est devenu un standard de facto — la plupart des serveurs d’inférence open weight l’implémentent, permettant le remplacement direct d’OpenAI par des alternatives auto-hébergées.

Couche gouvernance : Les exigences du règlement IA européen en matière de documentation, d’évaluation des risques et de transparence — qui s’appliquent que le modèle soit propriétaire ou open weight, auto-hébergé ou dans le cloud.

Cette pile est réelle. Elle fonctionne. Des organisations à travers l’Europe la déploient — discrètement, sans communiqués de presse, parce que les outils sont suffisamment matures pour que ce soit devenu de l’ingénierie courante plutôt qu’un projet de recherche.

Ce que l’Europe a, ce qui lui manque

L’Europe a :

  • Une entreprise de modèles de fondation véritablement compétitive (Mistral)
  • La plus grande plateforme d’IA open source au monde (Hugging Face — avec les réserves sur son domicile américain)
  • Un cadre réglementaire complet (règlement IA)
  • Une capacité de calcul GPU suffisante pour la plupart des déploiements pratiques
  • Une dynamique réglementaire (règlement IA, Data Act, rapport du PE, engagements du sommet de Berlin)

Il manque à l’Europe :

  • De la capacité de calcul à l’échelle de l’entraînement de modèles de pointe (l’écart se réduit mais reste réel)
  • Une deuxième entreprise de modèles de fondation pour garantir la concurrence si Mistral fléchit
  • Du capital-risque à l’échelle américaine — le financement de l’IA européenne croît mais reste une fraction des niveaux américains
  • Un historique de traduction des cadres réglementaires en mandats de marchés publics effectifs
  • Une stratégie cohérente de rétention des talents en IA — la fuite des talents continue

Ce qui suit

La question de la souveraineté en matière d’IA diffère de celle du cloud ou de la bureautique. L’infrastructure cloud peut être répliquée — la technologie est bien comprise et les fournisseurs européens ont l’expertise. Les logiciels bureautiques peuvent être reconstruits — LibreOffice, Nextcloud et Matrix le prouvent. Mais le développement d’IA de pointe exige une concentration de capital, de talents et de calcul que l’Europe peine à rassembler.

Le mouvement open weight a changé l’équation. L’Europe n’a pas besoin d’entraîner des modèles de pointe pour en tirer profit. DeepSeek R1, LLaMA et les modèles ouverts de Mistral fournissent une base que les organisations européennes peuvent déployer, affiner et enrichir — sur une infrastructure européenne, sous le droit européen.

La voie pragmatique n’est pas « l’Europe doit construire son propre GPT » — ce train est peut-être déjà passé. La voie pragmatique est : exécuter les meilleurs modèles disponibles sur une infrastructure sous votre contrôle opérationnel, avec les données sensibles sous une juridiction que vous pouvez faire appliquer, dans un cadre réglementaire qui garantit transparence et responsabilité.

C’est réalisable. Dans de nombreuses organisations, c’est déjà en cours. La pile IA souveraine décrite plus haut n’est pas théorique — voici comment commencer à la construire, par ordre d’effort :

Cette semaine (effort minimal, gain de souveraineté immédiat) :

  • Cesser d’envoyer des données sensibles aux API d’IA hébergées aux États-Unis. Chaque document envoyé à l’API d’OpenAI ou d’Anthropic est traité sous juridiction américaine. Pour les documents juridiques, les données de santé ou les décisions RH, c’est un risque de conformité au regard du RGPD et du règlement IA européen. Identifiez quels workflows utilisent actuellement une IA externe et évaluez la sensibilité des données.

Ce mois-ci (un projet de week-end pour votre équipe infrastructure) :

  • Déployer un LLM local. Une instance Mistral 7B ou LLaMA 3.1 8B sur un serveur GPU Hetzner (environ 150 €/mois) gère la synthèse, la classification et l’assistance au code pour une équipe de 20 à 50 personnes. Des outils comme vLLM et llama.cpp rendent le déploiement simple. Ce n’est pas de la recherche — c’est de l’infrastructure.

Ce trimestre (effort de niveau projet) :

  • Affiner un modèle sur vos données métier. Les LLM génériques sont utiles ; les modèles adaptés au domaine sont transformateurs. Des outils comme Axolotl et les adaptateurs LoRA rendent le fine-tuning accessible sur un seul GPU. Les fournisseurs européens (Hetzner, Scaleway, Lambda Cloud) offrent la puissance de calcul.

Avant août 2027 (échéance haut risque du règlement IA) :

  • Si vous déployez de l’IA dans des domaines à haut risque (présélection RH, triage médical, application de la loi, scoring de crédit), les exigences de conformité du règlement IA prennent pleinement effet en août 2027. Commencez dès maintenant votre classification des risques et votre évaluation de conformité — les organisations qui attendront 2027 connaîtront la même mise en œuvre précipitée que les retardataires du RGPD en 2018.

L’IA souveraine n’est plus un programme de recherche — c’est une décision d’infrastructure. Les modèles existent. Les outils de déploiement sont matures. Les fournisseurs européens de calcul sont prêts. Ce qui reste, c’est l’exécution : choisir d’exploiter sa propre pile plutôt que de louer celle de quelqu’un d’autre — et commencer avant que les échéances réglementaires ne fassent le choix à votre place.

Sources


Aperçu du thème : IA & Machine Learning

Recherche

Appuyez sur Ctrl+K pour ouvrir la recherche