AI wordt in hoog tempo kritieke infrastructuur — voor codegeneratie, documentverwerking, klantinteractie, beslissingsondersteuning. De meeste organisaties vertrouwen vandaag op Amerikaanse aanbieders voor deze capaciteiten: OpenAI, Google, Anthropic. Deze aanbieders leiden om goede redenen — volwassen API’s, frontier-modelprestaties, enorme investeringen in veiligheidsonderzoek. Maar de concentratie brengt bekende risico’s met zich mee: jurisdictionele blootstelling, vendor lock-in, en de aanname dat de huidige machtsverhoudingen permanent zijn.

Toen kwam het moment dat die aanname op de proef stelde. Op 20 januari 2025 bracht het Chinese AI-lab DeepSeek zijn R1-model uit — een redeneermodel dat OpenAI’s o1 op de meeste benchmarks evenaarde of overtrof. Een week later, op 27 januari, verloor Nvidia $589 miljard aan marktkapitalisatie — het grootste eendagsverlies in de beursgeschiedenis. DeepSeek had de trainingskosten van zijn voorganger, V3, bekendgemaakt op $5,6 miljoen — een fractie van de geschatte kosten van vergelijkbare Amerikaanse modellen.

Het DeepSeek-moment ging niet over China. Het ging over het ineenstorten van een narratief: dat het bouwen van frontier-AI miljarden dollars vereist, tienduizenden GPU’s, en — impliciet — de middelen van een Silicon Valley-reus.

Het Europese AI-landschap

Mistral AI: de Europese uitdager

Mistral AI is het dichtst bij wat Europa heeft aan een frontier-AI-bedrijf. Opgericht in Parijs in 2023, met een waardering van € 12 miljard en meer dan $400 miljoen aan jaarlijkse terugkerende omzet. Mistrals strategische briljantie ligt in zijn dual-track model: competitieve open-weight-modellen (Mistral 7B, Mixtral 8x7B) uitbrengen die community en mindshare opbouwen, terwijl premium propriëtaire modellen (Mistral Large) en enterprisediensten worden verkocht.

Het voorbehoud: Mistral is een met durfkapitaal gefinancierde startup. De investeerders zijn onder meer General Catalyst, Andreessen Horowitz en Lightspeed — Amerikaanse durfkapitaalfirma’s. De kapitaalstructuur is transatlantisch. Dit is de realiteit van Europese tech: de oprichters zijn Europees, het kapitaal is vaak Amerikaans, en “soevereiniteit” wordt ingewikkeld wanneer je het geld volgt.

Aleph Alpha: het waarschuwende verhaal

Aleph Alpha, opgericht in Heidelberg in 2019, haalde circa $500 miljoen op. In september 2024 pivoteerde het bedrijf. Het stopte met het ontwikkelen van eigen foundation-modellen en herpositioneerde zich als enterprise AI-infrastructuuraanbieder onder het merk PhariaAI.

De les voor Europese AI-soevereiniteit is oncomfortabel: foundation-modelontwikkeling is mogelijk te kapitaalintensief voor alle behalve de best gefinancierde Europese bedrijven.

Open weight: de soevereiniteitsversneller

De opkomst van open-weight modellen heeft de soevereiniteitsvergelijking fundamenteel veranderd. Wanneer modelgewichten publiek beschikbaar zijn, kunnen organisaties:

  1. Modellen op eigen infrastructuur draaien — in een Europees datacenter, bij een Europese cloudaanbieder, of on-premises. Geen gegevens verlaten de organisatie.
  2. Modellen fine-tunen voor specifieke toepassingen — juridische analyse, medische documentatie, overheidscorrespondentie — met propriëtaire gegevens die nooit een Amerikaanse server raken.
  3. Hun implementatie kiezen — cloud-API voor gemak, zelf gehost voor soevereiniteit, of hybride voor pragmatisme.

De ironie is opvallend: de meest permissieve licentiëring voor frontier-AI-modellen komt niet uit Europa of de VS, maar van Chinese bedrijven. DeepSeek R1 onder MIT-licentie geeft elke Europese organisatie het juridisch recht om een frontier-redeneermodel te implementeren, wijzigen en commercialiseren. Europese AI-soevereiniteit wordt in 2026 deels mogelijk gemaakt door Chinese openheid.

Een soevereine AI-stack bouwen

Voor organisaties die hun AI-afhankelijkheid van Amerikaanse aanbieders willen verminderen, ziet een praktische soevereine AI-stack in 2026 er als volgt uit:

Modellaag: Open-weight modellen — Mistral (Europees, Apache 2.0 voor sommige modellen), LLaMA (Amerikaans, permissieve licentie), DeepSeek R1 (Chinees, MIT-licentie).

Inferentielaag: Zelf gehost op Europese cloudinfrastructuur — Scaleway, Hetzner, OVHcloud of SCS-gecertificeerde aanbieders.

Fine-tuninglaag: Domeinspecifieke aanpassing met privégegevens op lokale hardware. Tools zoals Axolotl, LoRA-adapters of Hugging Face’s PEFT-bibliotheek.

Applicatielaag: Integratie in organisatieprocessen via standaard-API’s.

Governancelaag: De EU AI Act-vereisten.

Deze stack is reëel. Hij werkt. Organisaties in heel Europa implementeren hem — stilletjes, zonder persberichten, omdat de tools volwassen genoeg zijn dat het routinematige engineering is geworden.

Concrete stappen

Deze week (minimale inspanning, onmiddellijke soevereiniteitswinst):

  • Stop met het verzenden van gevoelige gegevens naar in de VS gehoste AI-API’s. Elk document dat u naar OpenAI’s of Anthropic’s API stuurt wordt verwerkt onder Amerikaanse jurisdictie. Identificeer welke workflows momenteel externe AI gebruiken en beoordeel de gegevensgevoeligheid.

Deze maand (een weekendproject voor uw infrastructuurteam):

  • Implementeer een lokaal LLM. Een Mistral 7B- of LLaMA 3.1 8B-instantie op een Hetzner GPU-server (circa € 150/maand) verwerkt samenvatting, classificatie en codeassistentie voor een team van 20–50 personen.

Dit kwartaal (projectniveau):

  • Fine-tune een model op uw domeingegevens. Generieke LLM’s zijn nuttig; domeingeadapteerde modellen zijn transformatief.

Vóór augustus 2027 (AI Act-deadline voor hoog risico):

  • Als u AI inzet in domeinen met hoog risico (HR-screening, zorg, rechtshandhaving, kredietscoring), worden de conformiteitsvereisten van de AI Act volledig van kracht in augustus 2027. Begin nu met uw risicoclassificatie.

Soevereine AI is geen onderzoeksagenda meer — het is een infrastructuurbeslissing. De modellen bestaan. De implementatietools zijn volwassen. De Europese rekenkapaciteitsaanbieders staan klaar. Wat overblijft is uitvoering.

Bronnen


Themaoverzicht: AI & Machine Learning