La semana pasada, un juez federal de San Francisco impidió que el Pentágono y la Administración Trump aplicaran una designación de seguridad nacional contra Anthropic, la empresa de inteligencia artificial (IA) que se negó a eliminar las restricciones de seguridad de sus modelos Claude.
Un juez federal impide que el Pentágono califique a Anthropic como una amenaza para la seguridad nacional

Un tribunal suspende la prohibición de la Administración Trump sobre la IA Claude de Anthropic para las agencias federales
La jueza federal de distrito Rita F. Lin dictó la orden judicial preliminar el 26 de marzo, al considerar que las medidas del Gobierno contra Anthropic probablemente violaban la Primera Enmienda, negaban a la empresa el debido proceso y excedían la autoridad legal prevista en la Ley de Procedimiento Administrativo. La resolución queda suspendida durante siete días, lo que da a la Administración hasta aproximadamente el 2 de abril para presentar un recurso de emergencia ante el Noveno Circuito.
La disputa comenzó cuando el Departamento de Defensa (DoD) solicitó acceso sin restricciones a Claude para uso federal. Anthropic había mantenido durante mucho tiempo dos excepciones en su política de uso aceptable: Claude no se utilizaría para la vigilancia masiva de ciudadanos estadounidenses ni para sistemas de armas autónomas letales que operaran sin una supervisión humana significativa. El DoD exigió que se eliminaran esas restricciones. Anthropic se negó. Las negociaciones fracasaron a finales de 2025. El conflicto se hizo público a través de las declaraciones escritas del director ejecutivo, Dario Amodei, y de un ensayo en el que se exponía la postura de la empresa sobre la seguridad de la IA. Los funcionarios del DoD consideraron que las restricciones eran un intento de Anthropic de dictar la política gubernamental. El 27 de febrero de 2026, el presidente Trump publicó en Truth Social una orden en la que instruía a todas las agencias federales a detener inmediatamente el uso de la tecnología de Anthropic, con un periodo de eliminación gradual de seis meses. El secretario de Defensa, Pete Hegseth, anunció una designación de riesgo para la cadena de suministro en virtud del artículo 10 U.S.C. § 3252 —una ley que anteriormente se aplicaba a adversarios extranjeros— calificando a Anthropic de riesgo potencial de «sabotaje» y «subversión».
Varios contratistas federales suspendieron o rescindieron sus acuerdos con la empresa tras la designación. Anthropic respondió y presentó una demanda el 9 de marzo en el Distrito Norte de California, alegando represalias, violaciones del debido proceso e incumplimientos de la APA. Se presentó una acción relacionada en el Circuito de Washington D.C.
En una resolución de 43 páginas, la jueza Lin prohibió al Departamento de Defensa, a otras 17 agencias federales y al secretario Hegseth aplicar o hacer cumplir cualquiera de las medidas impugnadas. Ordenó el restablecimiento del statu quo, permitiendo a Anthropic continuar con los contratos y colaboraciones federales existentes.
Lin escribió que la conducta del Gobierno representaba «una clásica represalia ilegal en virtud de la Primera Enmienda». Señaló que el momento en que se produjeron las medidas, junto con las comunicaciones internas del Gobierno que hacían referencia a la «retórica», la «arrogancia» y la «presión» de Anthropic, apuntaban directamente a una intención punitiva vinculada a las declaraciones públicas de la empresa sobre la seguridad de la IA.
En cuanto al debido proceso, el tribunal consideró que el Gobierno había privado a Anthropic de sus derechos de libertad en lo relativo a su reputación y operaciones comerciales sin proporcionar una notificación previa a la privación ni una audiencia. Lin también consideró que la designación legal nunca se había aplicado antes a una empresa estadounidense en estas circunstancias y que la investigación previa del Gobierno sobre Anthropic
Esto incluye autorizaciones de «Top Secret», la autorización FedRAMP y contratos por valor de hasta 200 millones de dólares — no revelaba ninguna preocupación de seguridad genuina. «Nada en la ley aplicable respalda la noción orwelliana de que una empresa estadounidense pueda ser tachada de adversario potencial y saboteador de EE. UU. por expresar su desacuerdo con el Gobierno», escribió Lin.
El tribunal determinó que Anthropic podría sufrir un perjuicio financiero de entre cientos de millones y miles de millones de dólares, además de un daño a su reputación que la indemnización económica no podría reparar por completo. Los escritos amicus curiae de líderes militares e investigadores en IA citaban riesgos para la preparación de la defensa y el debate más amplio sobre la seguridad de la IA.
Anthropic declaró que agradecía la rapidez del tribunal y que tenía previsto seguir colaborando con el Gobierno federal. La empresa afirmó que su objetivo seguía siendo garantizar que los estadounidenses tuvieran acceso a una IA segura y fiable. La orden judicial no resuelve la disputa contractual subyacente. No se ha dictado ninguna resolución definitiva sobre el fondo del asunto. Sigue pendiente un recurso independiente en el Tribunal de Apelación del Distrito de Columbia, y la Administración se reserva la opción de recurrir.
Preguntas frecuentes 🔎
- ¿Qué dictaminó la jueza federal con respecto a Anthropic? La jueza federal de distrito Rita F. Lin dictó una orden judicial preliminar el 26 de marzo, impidiendo que el Pentágono y la administración Trump aplicaran una designación de seguridad nacional y una prohibición federal contra Anthropic y sus modelos de IA Claude.
- ¿Por qué el Pentágono designó a Anthropic como un riesgo para la cadena de suministro? El Departamento de Defensa buscaba el uso sin restricciones de la IA Claude, incluso para la vigilancia masiva y las armas autónomas, y calificó a Anthropic como un riesgo para la cadena de suministro después de que la empresa se negara a eliminar esas restricciones de seguridad.
- ¿Está actualmente en vigor la orden judicial? La orden judicial está suspendida durante siete días a partir del 26 de marzo para permitir que el Gobierno presente un recurso de urgencia, lo que significa que no entrará en vigor hasta aproximadamente el 2 de abril de 2026.
- ¿Qué sucederá a continuación en el caso Anthropic contra el Pentágono? El caso continúa en cuanto al fondo, sigue pendiente una acción relacionada en el Tribunal de Apelación del Distrito de Columbia, y la administración Trump podría solicitar medidas de emergencia al Noveno Circuito antes de que expire la suspensión.














