Propulsé par
News

Les juges fédéraux rejettent la demande de mesures provisoires déposée par Anthropic dans l'affaire concernant l'interdiction de l'IA par Claude Military et fixent les audiences orales au mois de mai

Le 8 avril, une cour d'appel fédérale de Washington a rejeté la demande d'Anthropic visant à suspendre immédiatement la décision du Pentagone d'inscrire ses modèles d'intelligence artificielle (IA) « Claude » sur la liste noire des contrats militaires américains. Points clés :

ÉCRIT PAR
PARTAGER
Les juges fédéraux rejettent la demande de mesures provisoires déposée par Anthropic dans l'affaire concernant l'interdiction de l'IA par Claude Military et fixent les audiences orales au mois de mai
  • La Cour d'appel du circuit de Washington a rejeté la demande de suspension d'urgence d'Anthropic le 8 avril 2026, permettant ainsi au Pentagone de maintenir en vigueur la mise sur liste noire de l'IA Claude.
  • La désignation du Pentagone relative aux risques liés à la chaîne d'approvisionnement affecte les principaux sous-traitants du département de la Défense, notamment Amazon, Microsoft et Palantir.
  • Les plaidoiries accélérées sont prévues pour le 19 mai 2026 ; cette décision pourrait redéfinir la politique d'approvisionnement en IA du gouvernement américain.

La cour d'appel statue que le ministère de la Défense peut maintenir Claude AI sur la liste noire pendant le litige

La Cour d'appel des États-Unis pour le circuit du district de Columbia, dans une ordonnance de quatre pages, a rejeté la requête d'urgence de la société d'IA basée à San Francisco visant à suspendre la désignation de « risque pour la chaîne d'approvisionnement » émise par le secrétaire à la Défense Pete Hegseth. Cette décision permet au ministère de la Défense de continuer à interdire aux sous-traitants d'utiliser Claude pendant que le litige suit son cours. Les plaidoiries ont été avancées au 19 mai 2026.

Le panel a reconnu qu'Anthropic « subirait probablement un préjudice irréparable dans une certaine mesure », invoquant à la fois des dommages financiers et une atteinte à sa réputation. Les juges Gregory Katsas et Neomi Rao, tous deux nommés par Trump, ont conclu que la balance des intérêts penchait en faveur du gouvernement, invoquant la gestion judiciaire de la manière dont le Pentagone sécurise la technologie d'IA « pendant un conflit militaire en cours ».

Cette décision trouve son origine dans la rupture des négociations entre Anthropic et les responsables du Pentagone fin février 2026. Le litige portait sur deux restrictions figurant dans les conditions d'utilisation d'Anthropic : l'interdiction des systèmes d'armes entièrement autonomes, y compris les essaims de drones armés opérant sans supervision humaine, et l'interdiction de la surveillance de masse des citoyens américains.

Emil Michael, sous-secrétaire à la Recherche et à l’Ingénierie et directeur technique du Pentagone, a qualifié ces restrictions d’« obstacles irrationnels » à la compétitivité militaire, en particulier face à la Chine. Les responsables ont invoqué des programmes tels que l’initiative de défense antimissile Golden Dome et la nécessité de disposer de capacités de réponse rapide face aux menaces hypersoniques.

Anthropic a proposé des exceptions limitées, au cas par cas, mais a refusé de supprimer les principales mesures de sécurité, invoquant des préoccupations de fiabilité concernant l'IA actuelle pour les décisions autonomes à enjeux élevés. Les négociations ont échoué. Le président Trump a alors ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic, avec une période de transition de six mois pour les déploiements existants.

La désignation de risque pour la chaîne d'approvisionnement par Hegseth a suivi, une mesure généralement appliquée à des entités étrangères telles que Huawei. Cette désignation obligeait les sous-traitants, notamment Amazon, Microsoft et Palantir, à cesser d'utiliser Claude dans tout travail lié au ministère de la Défense. Anthropic a qualifié cette mesure de « campagne de représailles illégale » en raison de son refus de laisser le gouvernement passer outre ses politiques de sécurité en matière d'IA.

Anthropic a intenté des poursuites parallèles en mars 2026. L'une a été déposée devant la Cour fédérale de district pour le district nord de Californie ; l'autre visait la loi spécifique sur les marchés publics régissant les risques liés à la chaîne d'approvisionnement dans le circuit de Washington D.C. Le 26 mars, la juge fédérale de district Rita F. Lin a accordé à Anthropic une injonction préliminaire dans l'affaire californienne. Elle a estimé que les mesures prises par l'administration semblaient davantage punitives que protectrices, qu'elles ne reposaient pas sur une justification légale suffisante et qu'elles outrepassaient ses compétences. Cette ordonnance a temporairement suspendu l'application de la désignation, permettant au gouvernement et aux sous-traitants de continuer à utiliser Claude en attendant l'issue du procès. L'administration Trump a interjeté appel devant la Cour d'appel du neuvième circuit. La décision rendue le 8 avril par la Cour d'appel du circuit de Washington va à l'encontre de la décision de la juge Lin, créant une tension juridique quant à savoir si la désignation est actuellement applicable. Les deux tribunaux examinent des cadres juridiques différents, ce qui explique cette divergence procédurale. Anthropic a déclaré dans un communiqué qu’elle restait confiante dans sa position. « Nous sommes reconnaissants que la cour ait reconnu que ces questions devaient être résolues rapidement et restons convaincus que les tribunaux finiront par convenir que ces désignations de la chaîne d’approvisionnement étaient illégales », a déclaré la société.

Aperçu de Claude Mythos : l'IA inédite d'Anthropic a détecté des failles dans Linux et OpenBSD que les humains avaient négligées pendant des décennies

Aperçu de Claude Mythos : l'IA inédite d'Anthropic a détecté des failles dans Linux et OpenBSD que les humains avaient négligées pendant des décennies

L'IA « Claude Mythos » d'Anthropic a identifié des milliers de failles « zero-day » sur tous les principaux systèmes d'exploitation et navigateurs. Le projet Glasswing est lancé avec 100 millions de dollars de crédits. read more.

Lire

Les observateurs du secteur ont qualifié cette affaire de signal d'alarme pour le développement de l'IA aux États-Unis. Matt Schruers, PDG de la Computer and Communications Industry Association, a déclaré que les mesures prises par le Pentagone et la décision de la Cour d'appel du circuit de Washington « créent une incertitude commerciale considérable à un moment où les entreprises américaines sont en concurrence avec leurs homologues mondiaux pour prendre la tête dans le domaine de l'IA ».

L'affaire se dirige désormais vers l'audience accélérée prévue le 19 mai devant la Cour d'appel du circuit de Washington, l'appel devant la Cour d'appel du neuvième circuit étant toujours en instance. L'issue de cette affaire définira probablement les limites du pouvoir fédéral de désigner des entreprises nationales d'IA comme des risques pour la sécurité nationale et déterminera jusqu'où le gouvernement peut aller pour faire pression sur les entreprises privées afin qu'elles modifient leurs politiques de sécurité en matière d'IA.