El 8 de abril, un tribunal federal de apelación de Washington rechazó la solicitud de Anthropic de suspender de inmediato la inclusión de sus modelos de inteligencia artificial (IA) «Claude» en la lista negra del Pentágono para los contratos militares estadounidenses. Puntos clave:
Los jueces federales deniegan las medidas cautelares solicitadas por Anthropic en el caso de la prohibición de la IA de Claude Military y fijan las vistas orales para mayo

- El Tribunal de Apelación del Distrito de Columbia denegó la suspensión de emergencia solicitada por Anthropic el 8 de abril de 2026, lo que permite que la inclusión de la IA Claude en la lista negra del Pentágono siga vigente.
- La designación de riesgo en la cadena de suministro del Pentágono afecta a los principales contratistas del Departamento de Defensa, entre los que se incluyen Amazon, Microsoft y Palantir.
- Las vistas orales aceleradas están previstas para el 19 de mayo de 2026, una resolución que podría redefinir la política de contratación de IA del Gobierno de EE. UU.
El Tribunal de Apelación dictamina que el Departamento de Defensa puede mantener a Claude AI en la lista negra durante el litigio
El Tribunal de Apelación del Circuito del Distrito de Columbia, en una resolución de cuatro páginas, denegó la moción de emergencia de la empresa de IA con sede en San Francisco para suspender la designación de «riesgo para la cadena de suministro» emitida por el secretario de Defensa Pete Hegseth. La resolución permite al Departamento de Defensa seguir prohibiendo a los contratistas el uso de Claude mientras se desarrolla el litigio. Las vistas orales se adelantaron al 19 de mayo de 2026.
El tribunal reconoció que Anthropic «probablemente sufriría algún grado de daño irreparable», citando tanto el perjuicio financiero como el reputacional. Los jueces Gregory Katsas y Neomi Rao, ambos nombrados por Trump, concluyeron que la balanza de intereses favorecía al Gobierno, citando la gestión judicial de cómo el Pentágono protege la tecnología de IA «durante un conflicto militar activo».
La designación en sí misma se remonta a un colapso de las negociaciones entre Anthropic y los funcionarios del Pentágono a finales de febrero de 2026. El problema eran dos restricciones en las condiciones de servicio de Anthropic: la prohibición de sistemas de armas totalmente autónomos, incluidos los enjambres de drones armados que operan sin supervisión humana, y la prohibición de la vigilancia masiva de ciudadanos estadounidenses.
Emil Michael, subsecretario de Investigación e Ingeniería y director de tecnología del Pentágono, calificó esas restricciones de «obstáculos irracionales» para la competitividad militar, especialmente frente a China. Los funcionarios citaron programas como la iniciativa de defensa antimisiles Golden Dome y la necesidad de capacidades de respuesta rápida frente a amenazas hipersónicas.
Anthropic ofreció excepciones limitadas y caso por caso, pero se negó a eliminar las medidas de seguridad fundamentales, alegando preocupaciones sobre la fiabilidad de la IA actual para tomar decisiones autónomas de alto riesgo. Las negociaciones fracasaron. El presidente Trump ordenó entonces a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic, con una fase de retirada gradual de seis meses para las implementaciones existentes.
A continuación se produjo la designación de riesgo para la cadena de suministro de Hegseth, una medida que suele aplicarse a entidades extranjeras como Huawei. La designación obligaba a los contratistas, incluidos Amazon, Microsoft y Palantir, a dejar de utilizar Claude en cualquier trabajo vinculado al Departamento de Defensa. Anthropic calificó la medida de «campaña ilegal de represalias» por su negativa a permitir que el Gobierno anulara sus políticas de seguridad en materia de IA.
Anthropic presentó demandas paralelas en marzo de 2026. Una se interpuso ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California; la otra se centró en la ley de contratación específica que regula el riesgo de la cadena de suministro en el Circuito de Washington D. C. El 26 de marzo, la jueza de distrito de los Estados Unidos Rita F. Lin concedió a Anthropic una medida cautelar en el caso de California. Dictaminó que las medidas de la administración parecían más punitivas que protectoras, carecían de justificación legal suficiente y excedían su autoridad. Esa orden suspendió temporalmente la aplicación de la designación, permitiendo que el gobierno y los contratistas siguieran utilizando Claude mientras se resolvía el litigio. La administración Trump apeló ante el Noveno Circuito. La decisión del Circuito de Washington D. C. del 8 de abril contradice el fallo de Lin, lo que crea una tensión jurídica sobre si la designación es actualmente aplicable. Los dos tribunales están revisando marcos legales diferentes, lo que explica la divergencia procesal. Anthropic afirmó en un comunicado que sigue confiando en su posición. «Agradecemos que el tribunal haya reconocido que estas cuestiones deben resolverse rápidamente y seguimos confiando en que los tribunales coincidirán finalmente en que estas designaciones de la cadena de suministro eran ilegales», declaró la empresa.

Avance de Claude Mythos: la IA inédita de Anthropic ha detectado fallos en Linux y OpenBSD que los humanos pasaron por alto durante décadas
La IA «Claude Mythos» de Anthropic ha detectado miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores. El proyecto Glasswing se pone en marcha con 100 millones de dólares en créditos. read more.
Leer ahora
Avance de Claude Mythos: la IA inédita de Anthropic ha detectado fallos en Linux y OpenBSD que los humanos pasaron por alto durante décadas
La IA «Claude Mythos» de Anthropic ha detectado miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores. El proyecto Glasswing se pone en marcha con 100 millones de dólares en créditos. read more.
Leer ahora
Avance de Claude Mythos: la IA inédita de Anthropic ha detectado fallos en Linux y OpenBSD que los humanos pasaron por alto durante décadas
Leer ahoraLa IA «Claude Mythos» de Anthropic ha detectado miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores. El proyecto Glasswing se pone en marcha con 100 millones de dólares en créditos. read more.
Los observadores del sector señalaron el caso como una señal de alerta para el desarrollo de la IA en EE. UU. Matt Schruers, director ejecutivo de la Asociación de la Industria Informática y de las Comunicaciones, afirmó que las acciones del Pentágono y la sentencia del Tribunal de Apelación del Distrito de Columbia «generan una incertidumbre empresarial considerable en un momento en que las empresas estadounidenses compiten con sus homólogas globales por el liderazgo en IA».
El caso avanza ahora hacia la vista oral acelerada del 19 de mayo en el Tribunal de Apelación del Distrito de Columbia, con la apelación ante el Noveno Circuito aún pendiente. Es probable que el resultado defina los límites del poder federal para designar a las empresas nacionales de IA como riesgos para la seguridad nacional y determine hasta dónde puede llegar el Gobierno a la hora de presionar a las empresas privadas para que modifiquen sus políticas de seguridad en materia de IA.















