In september 2023 publiceerde Anthropic een document dat als mijlpaal in de AI-sector werd beschouwd: het Responsible Scaling Policy (RSP). De kernbelofte was ongewoon helder: als een AI-model bepaalde capaciteitsdrempels overschreed, zou de ontwikkeling worden gepauzeerd — totdat veiligheid aantoonbaar kon worden gegarandeerd. OpenAI en Google DeepMind namen kort daarna vergelijkbare kaders over.

Op 24 februari 2026 trok Anthropic die belofte in. Het nieuwe RSP 3.0 vervangt bindende ontwikkelingspauzes door “niet-bindende maar publiekelijk verklaarde doelen”. Het bedrijf dat ooit als het geweten van de sector werd gezien, heeft zijn rode lijn verlegd.

Deze koerswijziging valt samen met de week waarin het Amerikaanse ministerie van Defensie Anthropic een ultimatum gaf: lever het model Claude aan het Pentagon zonder veiligheidsbeperkingen, of het Defense Production Act en aanwijzing als “toeleveringsketenrisico” worden ingezet.

De vraag die dit oproept is niet of Anthropic een verantwoord bedrijf is. De vraag is wat dit betekent voor iedereen die op deze technologie vertrouwt — als individu, als bedrijf, als Europese economie.

Wat er is veranderd — in begrijpelijke taal

Het vorige veiligheidsmodel van Anthropic werkte als een stoplicht. Zogenaamde AI Safety Levels (ASL) classificeerden de capaciteiten van een model — hoe hoger het niveau, hoe strenger de waarborgen. Het cruciale punt was: voordat een model naar het volgende niveau kon doorstromen, moesten de bijbehorende beschermingen bewezen werken. Zo niet, dan stopte de ontwikkeling. Een hard stopsignaal.

Het nieuwe RSP 3.0 vervangt dit stopsignaal door wat Anthropic zelf beschrijft als “niet-bindende maar publiekelijk verklaarde doelen”. In plaats van vaste als-dan-verplichtingen is er nu een Frontier Safety Roadmap — een plan met ambitieuze maar niet-bindende mijlpalen.

Anthropic is opmerkelijk transparant over de redenen. In de officiële aankondiging noemt het bedrijf drie factoren:

  1. Een “zone van ambiguïteit: De wetenschap van modelevaluatie is niet volwassen genoeg om definitief vast te stellen of een model een capaciteitsdrempel heeft overschreden.
  2. Een “antireguleringsklimaat: De Amerikaanse overheid stuurt richting het prioriteren van concurrentiekracht en economische groei, terwijl veiligheidsdiscussies “nog geen betekenisvolle tractie hebben gekregen op federaal niveau”.
  3. Eisen die onmogelijk eenzijdig zijn na te komen: De hoogste veiligheidsniveaus (ASL-4 en ASL-5) zijn mogelijk “ronduit onmogelijk te implementeren zonder collectieve actie” — en die collectieve actie wordt politiek geblokkeerd.

De kernboodschap, in Anthropic’s eigen woorden: zij gaven de voorkeur aan het aanpassen van de RSP voordat ze veiligheidsniveaus bereikten die ze niet kunnen waarmaken — in plaats van standaarden te definiëren die “gemakkelijk haalbaar” zouden zijn maar het doel van het beleid zouden ondermijnen.

Waarom: overheidsdruk ontmoet marktlogica

De versoepeling vindt niet in een vacuüm plaats. Het is het resultaat van druk vanuit twee richtingen tegelijk.

Van bovenaf: het Pentagon. De Amerikaanse minister van Defensie Pete Hegseth gaf Anthropic-CEO Dario Amodei op 24 februari een deadline tot vrijdag om Claude’s veiligheidsbeperkingen voor militair gebruik op te heffen. De dreiging: meewerken, of de overheid dwingt medewerking af via de Defense Production Act. Axios meldt dat Hegseth zei dat hij geen enkel bedrijf zou toestaan de voorwaarden te dicteren waaronder het Pentagon operationele beslissingen neemt.

Of de overheid Anthropic daadwerkelijk kan dwingen een product zonder veiligheidswaarborgen te leveren is juridisch omstreden.

Van opzij: de concurrentie. Terwijl Anthropic vasthoudt aan zijn veiligheidslijn, hebben andere AI-bedrijven al toegegeven. OpenAI en Google stellen hun modellen beschikbaar aan het Pentagon voor “alle wettige doeleinden”. Elon Musks xAI heeft een contract getekend voor gebruik in gerubriceerde omgevingen. Anthropic staat steeds meer alleen — met het technisch sterkste model voor militaire toepassingen, maar de strengste beperkingen.

Het resultaat is een klassiek prisoner’s dilemma: wie de veiligheid als eerste laat varen wint het contract; wie het langst volhoudt verliest de markt. Voor een diepere analyse van de confrontatie Pentagon-Anthropic, zie ons eerdere artikel.

Twee werelden: wie verscherpt, wie versoepelt

Wat Anthropic’s koerswijziging bijzonder opvallend maakt is het contrast met de rest van de wereld. Terwijl de VS zijn AI-veiligheidsnormen verzwakt, beweegt vrijwel elke andere grote economische regio in de tegenovergestelde richting.

Europese Unie: De EU AI Act is sinds augustus 2024 van kracht — ’s werelds eerste bindende AI-wet. Sinds februari 2025 gelden acht expliciet verboden AI-praktijken, waaronder social scoring en massale biometrische surveillance. Sinds augustus 2025 gelden transparantieverplichtingen voor algemene AI-modellen. Meer dan 230 bedrijven hebben het EU AI Pact ondertekend.

Verenigd Koninkrijk: Het AI Safety Institute (AISI) heeft meer dan 100 technische medewerkers, ontvangt pre-deployment toegang tot toonaangevende AI-modellen voor veiligheidstesten en heeft een jaarlijks budget van £66 miljoen.

California: Zelfs binnen de VS bestaan tegenbewegingen. SB 53, ondertekend door gouverneur Newsom in september 2025, verplicht aanbieders van frontier-modellen veiligheidsframeworks te publiceren en kritieke incidenten binnen 15 dagen te melden.

De VS op federaal niveau: de tegenovergestelde richting. De Executive Order 14110 — 36 pagina’s met verplichte veiligheidsrapportage, testen en transparantievereisten — werd op de eerste dag in functie van de nieuwe regering ingetrokken. De vervanging: Executive Order 14179 — twee pagina’s, nul veiligheidseisen, één verklaard doel: “America’s global AI dominance behouden en versterken.”

Wat dit betekent voor bedrijven en gebruikers

Voor Europese bedrijven en individuen is deze ontwikkeling meer dan een transatlantische regelgevingsvergelijking. Wat zich aftekent is een fundamenteel nieuw risicoprofiel — en een dilemma zonder eenvoudige oplossing.

Het productrisico. Wanneer een AI-aanbieder zijn veiligheidsverplichtingen versoepelt onder overheidsdruk, reikt de impact verder dan militaire toepassingen. Anthropic ontwikkelt geen twee aparte modellen — één voor het Pentagon en één voor de rest van de wereld. De architectuur, de interne prioriteiten, de verdeling van middelen tussen veiligheidsonderzoek en functie-ontwikkeling: alles verschuift.

Het compliance-risico. De EU AI Act maakt het gebruik van AI-systemen in Europa niet automatisch veiliger — maar maakt de gebruikers aansprakelijk. Bedrijven die AI-systemen met een hoog risico inzetten, moeten hun risico’s documenteren en beoordelen — ook wanneer de aanbieder in de VS zit en zojuist zijn normen heeft verlaagd.

Het soevereiniteitsrisico. De confrontatie tussen het Pentagon en Anthropic onthult een patroon dat verder reikt dan AI: Amerikaanse bedrijven opereren onder een juridisch kader waarin de overheid de regels op elk moment kan veranderen — niet door transparante wetgeving, maar door dreiging vanuit de uitvoerende macht.

Wat dit concreet voor u betekent

Voor individuen: De AI-systemen die u dagelijks gebruikt — van chatbots tot vertaaldiensten tot AI-aangedreven zoekmachines — zijn gebouwd door bedrijven waarvan de veiligheidsbeloften onder politieke druk staan. Wat gisteren was gegarandeerd, is vandaag onderhandelbaar.

Voor bedrijven: Elke Europese organisatie die Amerikaanse AI-producten gebruikt, zou haar afhankelijkheidsprofiel opnieuw moeten beoordelen. Onze digitale risicoaudit biedt een gestructureerd startpunt voor deze beoordeling.

Voor het debat: De RSP-versoepeling van Anthropic is geen geïsoleerd geval. Het is een symptoom van een ontwikkeling waarin commerciële AI-veiligheid en staatsbelangen botsen. Vrijwillige toezeggingen worden herzien wanneer het erop aankomt. Dit is geen moreel falen — het is een structurele realiteit. En het is het sterkste argument dat bindende regulering — met al haar nadelen — het enige mechanisme is dat deze druk kan weerstaan.

Eén ding toont de Anthropic-zaak met pijnlijke helderheid: in een wereld waar AI een strategisch wapen wordt, bestaat er geen risicovrije positie. Noch binnen regulering, noch erbuiten.

Bronnen


Themaoverzicht: Alle artikelen op digital-independence.org →