Een federaal hof van beroep in Washington heeft op 8 april het verzoek van Anthropic afgewezen om de uitsluiting van zijn Claude-modellen voor kunstmatige intelligentie (AI) van Amerikaanse militaire contracten door het Pentagon onmiddellijk op te schorten.
Federale rechters wijzen verzoek om voorlopige voorziening van Anthropic in de zaak rond het verbod op Claude Military AI af en stellen mondelinge behandeling vast voor mei

Belangrijkste punten:
- Het D.C. Circuit wees op 8 april 2026 het verzoek van Anthropic om een noodopschorting af, waardoor de zwarte lijst van het Pentagon voor Claude AI van kracht blijft.
- De aanwijzing van risico's in de toeleveringsketen door het Pentagon heeft gevolgen voor grote aannemers van het ministerie van Defensie, waaronder Amazon, Microsoft en Palantir.
- De versnelde mondelinge behandeling is gepland voor 19 mei 2026. Een uitspraak hierover zou het AI-inkoopbeleid van de Amerikaanse overheid ingrijpend kunnen veranderen.
Hof van beroep oordeelt dat het ministerie van Defensie Claude AI op de zwarte lijst mag houden tijdens de rechtszaak
Het Amerikaanse Hof van Beroep voor het D.C. Circuit heeft in een vier pagina's tellende uitspraak het spoedverzoek van het in San Francisco gevestigde AI-bedrijf afgewezen om een door minister van Defensie Pete Hegseth uitgevaardigde aanwijzing als "toeleveringsketenrisico" op te schorten. De uitspraak staat het Ministerie van Defensie toe om aannemers te blijven verbieden Claude te gebruiken terwijl de rechtszaak loopt. De mondelinge behandeling is vervroegd naar 19 mei 2026.
Het panel erkende dat Anthropic "waarschijnlijk enige mate van onherstelbare schade zou lijden", waarbij zowel financiële als reputatieschade werd aangehaald. Rechters Gregory Katsas en Neomi Rao, beiden benoemd door Trump, concludeerden dat de afweging van belangen in het voordeel van de regering uitviel, daarbij verwijzend naar het gerechtelijk toezicht op de wijze waarop het Pentagon AI-technologie beveiligt "tijdens een actief militair conflict".
De aanwijzing zelf is terug te voeren op een mislukking van de onderhandelingen tussen Anthropic en functionarissen van het Pentagon eind februari 2026. Het ging om twee beperkingen in de servicevoorwaarden van Anthropic: een verbod op volledig autonome wapensystemen, waaronder zwermen bewapende drones die zonder menselijk toezicht opereren, en een verbod op massale surveillance van Amerikaanse burgers.
Emil Michael, onderminister voor Onderzoek en Techniek en de Chief Technology Officer van het Pentagon, noemde die beperkingen "irrationele obstakels" voor het militaire concurrentievermogen, met name ten opzichte van China. Functionarissen haalden programma's aan zoals het Golden Dome-raketafweerinitiatief en de noodzaak van snelle reactiecapaciteiten tegen hypersonische dreigingen.
Anthropic bood beperkte uitzonderingen aan, die per geval zouden worden beoordeeld, maar weigerde de belangrijkste veiligheidsmaatregelen op te heffen, daarbij verwijzend naar bezorgdheid over de betrouwbaarheid van de huidige AI voor autonome beslissingen met hoge risico's. De onderhandelingen liepen vast. President Trump gaf vervolgens alle federale instanties opdracht om te stoppen met het gebruik van de technologie van Anthropic, met een uitloopfase van zes maanden voor bestaande implementaties.
Hegseths aanwijzing als risico voor de toeleveringsketen volgde, een maatregel die doorgaans wordt toegepast op buitenlandse entiteiten zoals Huawei. Het label verplichtte aannemers, waaronder Amazon, Microsoft en Palantir, om het gebruik van Claude in alle aan het DoD gerelateerde werkzaamheden te staken. Anthropic noemde de maatregel een "onwettige vergeldingscampagne" vanwege zijn weigering om de overheid zijn AI-veiligheidsbeleid te laten overschrijven.
Anthropic spande in maart 2026 parallelle rechtszaken aan. De ene werd aangespannen bij de Amerikaanse districtsrechtbank voor het noordelijke district van Californië; de andere richtte zich op de specifieke aanbestedingswetgeving inzake risico's in de toeleveringsketen in het circuit van D.C.
Op 26 maart kende de Amerikaanse districtsrechter Rita F. Lin Anthropic een voorlopige voorziening toe in de Californische zaak. Zij oordeelde dat de maatregelen van de regering meer bestraffend dan beschermend leken, onvoldoende wettelijke rechtvaardiging hadden en de bevoegdheden overschreden. Dat bevel schortte de handhaving van de aanwijzing tijdelijk op, waardoor de overheid en aannemers Claude konden blijven gebruiken in afwachting van de volledige rechtszaak. De regering-Trump ging in beroep bij het Negende Circuit.
De uitspraak van het D.C. Circuit van 8 april is in strijd met de uitspraak van Lin, waardoor er juridische onduidelijkheid is ontstaan over de vraag of de aanwijzing momenteel afdwingbaar is. De twee rechtbanken beoordelen verschillende wettelijke kaders, wat de procedurele verdeeldheid verklaart.
Anthropic verklaarde in een verklaring dat het vertrouwen blijft houden in zijn standpunt. "We zijn dankbaar dat de rechtbank erkende dat deze kwesties snel moeten worden opgelost en blijven erop vertrouwen dat de rechtbanken uiteindelijk zullen beamen dat deze aanwijzingen in de toeleveringsketen onwettig waren," aldus het bedrijf.

Vooruitblik op Claude Mythos: de nog niet uitgebrachte AI van Anthropic heeft bugs in Linux en OpenBSD ontdekt die mensen decennialang over het hoofd hebben gezien
De Claude Mythos-AI van Anthropic heeft duizenden zero-day-kwetsbaarheden ontdekt in alle grote besturingssystemen en browsers. Project Glasswing gaat van start met 100 miljoen dollar aan beloningen. read more.
Lees nu
Vooruitblik op Claude Mythos: de nog niet uitgebrachte AI van Anthropic heeft bugs in Linux en OpenBSD ontdekt die mensen decennialang over het hoofd hebben gezien
De Claude Mythos-AI van Anthropic heeft duizenden zero-day-kwetsbaarheden ontdekt in alle grote besturingssystemen en browsers. Project Glasswing gaat van start met 100 miljoen dollar aan beloningen. read more.
Lees nu
Vooruitblik op Claude Mythos: de nog niet uitgebrachte AI van Anthropic heeft bugs in Linux en OpenBSD ontdekt die mensen decennialang over het hoofd hebben gezien
Lees nuDe Claude Mythos-AI van Anthropic heeft duizenden zero-day-kwetsbaarheden ontdekt in alle grote besturingssystemen en browsers. Project Glasswing gaat van start met 100 miljoen dollar aan beloningen. read more.
Waarnemers uit de sector bestempelden de zaak als een waarschuwingsteken voor de ontwikkeling van AI in de VS. Matt Schruers, CEO van de Computer and Communications Industry Association, zei dat de acties van het Pentagon en de uitspraak van het D.C. Circuit "aanzienlijke zakelijke onzekerheid creëren op een moment dat Amerikaanse bedrijven concurreren met internationale tegenhangers om het voortouw te nemen op het gebied van AI."
De zaak gaat nu verder met de versnelde mondelinge behandeling op 19 mei in het D.C. Circuit, terwijl het beroep bij het Ninth Circuit nog in behandeling is. De uitkomst zal waarschijnlijk de grenzen bepalen van de federale bevoegdheid om binnenlandse AI-bedrijven aan te merken als risico's voor de nationale veiligheid, en bepalen hoever de overheid kan gaan in het onder druk zetten van particuliere bedrijven om hun AI-veiligheidsbeleid aan te passen.















