Propulsé par
News

Un juge fédéral empêche le Pentagone de qualifier Anthropic de menace pour la sécurité nationale

La semaine dernière, un juge fédéral de San Francisco a empêché le Pentagone et l'administration Trump d'appliquer une mesure de sécurité nationale à l'encontre d'Anthropic, l'entreprise spécialisée dans l'intelligence artificielle (IA) qui avait refusé de lever les restrictions de sécurité sur ses modèles Claude.

ÉCRIT PAR
PARTAGER
Un juge fédéral empêche le Pentagone de qualifier Anthropic de menace pour la sécurité nationale

La justice suspend l'interdiction par l'administration Trump de l'IA Claude d'Anthropic pour les agences fédérales

La juge fédérale Rita F. Lin a rendu une injonction préliminaire le 26 mars, estimant que les mesures prises par le gouvernement à l'encontre d'Anthropic étaient susceptibles de violer le Premier amendement, de priver l'entreprise d'une procédure régulière et d'outrepasser les pouvoirs légaux prévus par la loi sur la procédure administrative. La décision est suspendue pendant sept jours, ce qui laisse à l'administration jusqu'au 2 avril environ pour interjeter un appel d'urgence auprès de la Cour d'appel du neuvième circuit.

Le litige a débuté lorsque le ministère de la Défense (DoD) a demandé un accès illimité à Claude à des fins fédérales. Anthropic avait depuis longtemps maintenu deux exceptions dans sa politique d'utilisation acceptable : Claude ne serait pas utilisé pour la surveillance de masse des citoyens américains sur le territoire national ni pour des systèmes d'armes autonomes létales fonctionnant sans contrôle humain significatif. Le DoD a exigé que ces garde-fous soient supprimés. Anthropic a refusé. Les négociations ont échoué fin 2025. Le conflit a été rendu public par les déclarations écrites du PDG Dario Amodei et par un essai exposant la position de l'entreprise sur la sécurité de l'IA. Les responsables du DoD ont considéré ces restrictions comme une tentative d'Anthropic de dicter la politique gouvernementale. Le 27 février 2026, le président Trump a publié un message sur Truth Social, ordonnant à toutes les agences fédérales de cesser immédiatement l'utilisation de la technologie d'Anthropic, avec une période de retrait progressive de six mois. Le secrétaire à la Défense Pete Hegseth a annoncé une désignation de risque pour la chaîne d'approvisionnement en vertu de l'article 10 U.S.C. § 3252 — une loi précédemment appliquée à des adversaires étrangers — qualifiant Anthropic de risque potentiel de « sabotage » et de « subversion ».

Plusieurs sous-traitants fédéraux ont suspendu ou résilié leurs contrats avec l’entreprise à la suite de cette désignation. Anthropic a réagi et a déposé plainte le 9 mars devant le tribunal du district nord de Californie, invoquant des représailles, des violations du droit à une procédure régulière et des infractions à l’APA. Une action connexe a été intentée devant la cour d’appel du district de Columbia.

Dans une ordonnance de 43 pages, la juge Lin a interdit au DoD, à 17 autres agences fédérales et au secrétaire Hegseth de mettre en œuvre ou d'appliquer l'une des mesures contestées. Elle a ordonné le rétablissement du statu quo, permettant à Anthropic de poursuivre ses contrats et partenariats fédéraux existants.

La juge Lin a écrit que le comportement du gouvernement constituait « un cas classique de représailles illégales au titre du Premier amendement ». Elle a noté que le moment choisi pour ces mesures, ainsi que des communications internes du gouvernement faisant référence à la « rhétorique », à « l’arrogance » et aux « pressions » d’Anthropic, indiquaient clairement une intention punitive liée aux déclarations publiques de l’entreprise sur la sécurité de l’IA.

En ce qui concerne le respect des procédures régulières, la cour a estimé que le gouvernement avait privé Anthropic de ses droits à la liberté en matière de réputation et d’exploitation commerciale sans lui fournir de notification préalable ni d’audience. Lin a également constaté que la désignation légale n’avait jamais été appliquée auparavant à une entreprise américaine dans ces circonstances et que l’examen préalable d’Anthropic par le gouvernement

Cela inclut des habilitations « Top Secret », l’autorisation FedRAMP et des contrats d’une valeur pouvant atteindre 200 millions de dollars — n’avait révélé aucune préoccupation sécuritaire réelle. « Rien dans la loi applicable ne vient étayer la notion orwellienne selon laquelle une entreprise américaine pourrait être qualifiée d’adversaire potentiel et de saboteur des États-Unis pour avoir exprimé son désaccord avec le gouvernement », a écrit Lin.

Le tribunal a estimé que le préjudice financier potentiel pour Anthropic s'élevait à plusieurs centaines de millions, voire plusieurs milliards de dollars, sans compter l'atteinte à la réputation qu'une compensation financière ne pourrait pas entièrement réparer. Des mémoires d'amicus curiae rédigés par des responsables militaires et des chercheurs en IA ont évoqué des risques pour la préparation de la défense et le débat plus large sur la sécurité de l'IA.

Anthropic s'est dite reconnaissante de la rapidité avec laquelle la cour a statué et a indiqué qu'elle comptait continuer à travailler avec le gouvernement fédéral. L'entreprise a déclaré que son objectif restait de garantir aux Américains l'accès à une IA sûre et fiable. L'injonction ne résout pas le litige contractuel sous-jacent. Aucune décision définitive sur le fond n'a été rendue. Un autre recours devant la Cour d'appel du circuit de Washington reste en instance, et l'administration conserve la possibilité de faire appel.

FAQ 🔎

  • Quelle a été la décision du juge fédéral concernant Anthropic ? La juge fédérale Rita F. Lin a rendu une injonction préliminaire le 26 mars, empêchant le Pentagone et l'administration Trump d'appliquer une désignation de sécurité nationale et une interdiction fédérale à l'encontre d'Anthropic et de ses modèles d'IA Claude.
  • Pourquoi le Pentagone a-t-il qualifié Anthropic de risque pour la chaîne d'approvisionnement ? Le département de la Défense souhaitait une utilisation sans restriction de l'IA Claude, notamment pour la surveillance de masse et les armes autonomes, et a qualifié Anthropic de risque pour la chaîne d'approvisionnement après que l'entreprise a refusé de lever ces restrictions de sécurité.
  • L'injonction est-elle actuellement en vigueur ? L'injonction est suspendue pendant sept jours à compter du 26 mars afin de permettre au gouvernement de former un recours d'urgence, ce qui signifie qu'elle ne prendra effet qu'aux alentours du 2 avril 2026.
  • Quelle est la suite de l'affaire Anthropic contre le Pentagone ? L'affaire se poursuit sur le fond, une action connexe est toujours en instance devant la Cour d'appel du district de Columbia, et l'administration Trump pourrait demander une mesure d'urgence à la Cour d'appel du neuvième circuit avant l'expiration du sursis.