Oferecido por
News

Juiz federal impede o Pentágono de classificar a Anthropic como uma ameaça à segurança nacional

Na semana passada, um juiz federal em São Francisco impediu o Pentágono e o governo Trump de aplicar uma designação de segurança nacional contra a Anthropic, a empresa de inteligência artificial (IA) que se recusou a remover restrições de segurança de seus modelos Claude.

ESCRITO POR
PARTILHAR
Juiz federal impede o Pentágono de classificar a Anthropic como uma ameaça à segurança nacional

Tribunal suspende proibição do governo Trump ao uso da IA Claude da Anthropic por agências federais

A juíza federal Rita F. Lin emitiu a liminar em 26 de março, concluindo que as ações do governo contra a Anthropic provavelmente violavam a Primeira Emenda, negavam à empresa o devido processo legal e excediam a autoridade estatutária prevista na Lei de Procedimento Administrativo. A decisão foi suspensa por sete dias, dando ao governo até aproximadamente 2 de abril para entrar com um recurso de emergência no Nono Circuito.

A disputa começou quando o Departamento de Defesa (DoD) buscou acesso irrestrito ao Claude para uso federal. A Anthropic há muito mantinha duas exceções em sua política de uso aceitável: o Claude não seria usado para vigilância doméstica em massa de cidadãos americanos nem para sistemas de armas autônomas letais operando sem supervisão humana significativa. O DoD exigiu que essas restrições fossem removidas. A Anthropic recusou.

As negociações fracassaram no final de 2025. O conflito tornou-se público por meio de declarações escritas do CEO Dario Amodei e de um ensaio que delineava a posição da empresa sobre a segurança da IA. Autoridades do DoD interpretaram as restrições como uma tentativa da Anthropic de ditar a política governamental.

Em 27 de fevereiro de 2026, o presidente Trump publicou no Truth Social, instruindo todas as agências federais a interromperem imediatamente o uso da tecnologia da Anthropic, com um período de transição de seis meses. O secretário de Defesa Pete Hegseth anunciou uma designação de risco à cadeia de suprimentos nos termos da seção 3252 do título 10 do Código dos Estados Unidos — uma lei anteriormente aplicada a adversários estrangeiros — classificando a Anthropic como um risco potencial de “sabotagem” e “subversão”.

Vários contratados federais suspenderam ou rescindiram contratos com a empresa após a designação. A Anthropic respondeu e entrou com uma ação em 9 de março no Distrito Norte da Califórnia, alegando retaliação, violações do devido processo legal e violações da APA. Uma ação relacionada foi movida no Circuito de D.C.

Em uma decisão de 43 páginas, a juíza Lin proibiu o Departamento de Defesa, 17 outras agências federais e o secretário Hegseth de implementar ou fazer cumprir qualquer uma das medidas contestadas. Ela ordenou a restauração do status quo, permitindo que a Anthropic continuasse com os contratos e parcerias federais existentes.

Lin escreveu que a conduta do governo representava “uma clássica retaliação ilegal à Primeira Emenda”. Ela observou que o momento em que as ações ocorreram, juntamente com comunicações internas do governo referindo-se à “retórica”, “arrogância” e “pressão” da Anthropic, apontava diretamente para uma intenção punitiva ligada às declarações públicas da empresa sobre segurança em IA.

Quanto ao devido processo legal, o tribunal concluiu que o governo havia privado a Anthropic de seus interesses de liberdade em relação à sua reputação e operações comerciais sem fornecer notificação prévia ou audiência. Lin também concluiu que a designação legal nunca havia sido aplicada a uma empresa americana nessas circunstâncias e que a verificação prévia da Anthropic pelo governo

Isso inclui habilitações de segurança de nível Ultra-Secreto, autorização FedRAMP e contratos no valor de até US$ 200 milhões — não revelou nenhuma preocupação genuína com a segurança. “Nada na lei aplicável sustenta a noção orwelliana de que uma empresa americana possa ser rotulada como um adversário em potencial e sabotador dos EUA por expressar discordância com o governo”, escreveu Lin.

O tribunal constatou um dano financeiro potencial à Anthropic na casa das centenas de milhões a bilhões de dólares, além de danos à reputação que a indenização monetária não poderia reparar totalmente. Pareceres de amicus curiae de líderes militares e pesquisadores de IA citaram riscos à prontidão de defesa e ao debate mais amplo sobre a segurança da IA.

A Anthropic disse estar grata pela rapidez do tribunal e que planeja continuar trabalhando com o governo federal. A empresa afirmou que seu objetivo continua sendo garantir que os americanos tenham acesso a uma IA segura e confiável.

A liminar não resolve a disputa contratual subjacente. Nenhuma decisão final sobre o mérito foi proferida. Uma contestação separada no Circuito de D.C. permanece pendente, e o governo mantém a opção de recorrer.

Perguntas frequentes 🔎

  • O que o juiz federal decidiu em relação à Anthropic? A juíza federal Rita F. Lin emitiu uma liminar em 26 de março, impedindo o Pentágono e o governo Trump de aplicar uma designação de segurança nacional e uma proibição federal contra a Anthropic e seus modelos de IA Claude.
  • Por que o Pentágono designou a Anthropic como um risco à cadeia de suprimentos? O Departamento de Defesa (DoD) buscava o uso irrestrito da IA Claude, inclusive para vigilância em massa e armas autônomas, e classificou a Anthropic como um risco à cadeia de suprimentos depois que a empresa se recusou a remover essas restrições de segurança.
  • A liminar está em vigor atualmente? A liminar foi suspensa por sete dias a partir de 26 de março para permitir que o governo entre com um recurso de emergência, o que significa que ela não entrará em vigor até aproximadamente 2 de abril de 2026.
  • O que acontecerá a seguir no caso Anthropic vs. Pentágono? O caso continua a ser julgado quanto ao mérito, uma ação relacionada permanece pendente no Circuito de D.C., e o governo Trump pode solicitar uma medida de emergência ao Nono Circuito antes que a suspensão expire.