Oferecido por
News

Juízes federais negam provisória à Anthropic no caso da proibição da IA pela Claude Military e marcam audiência para maio

Em 8 de abril, um tribunal federal de apelação em Washington rejeitou o pedido da Anthropic para suspender imediatamente a inclusão de seus modelos de inteligência artificial (IA) Claude na lista negra do Pentágono para contratos militares dos EUA.

ESCRITO POR
PARTILHAR
Juízes federais negam provisória à Anthropic no caso da proibição da IA pela Claude Military e marcam audiência para maio

Pontos principais:

  • O Circuito de D.C. negou a liminar de emergência da Anthropic em 8 de abril de 2026, permitindo que a inclusão da IA Claude na lista negra do Pentágono permanecesse em vigor.
  • A designação de risco na cadeia de suprimentos do Pentágono afeta grandes contratadas do Departamento de Defesa (DoD), incluindo Amazon, Microsoft e Palantir.
  • As alegações orais aceleradas estão marcadas para 19 de maio de 2026, uma decisão que pode redefinir a política de aquisição de IA do governo dos EUA.

Tribunal de Apelações decide que o Departamento de Defesa pode manter a Claude AI na lista negra durante o litígio

O Tribunal de Apelações dos EUA para o Circuito de D.C., em uma decisão de quatro páginas, negou o pedido de emergência da empresa de IA sediada em São Francisco para suspender a designação de “risco à cadeia de suprimentos” emitida pelo secretário de Defesa Pete Hegseth. A decisão permite que o Departamento de Defesa continue proibindo os contratados de usar a Claude enquanto o litígio prossegue. As alegações orais foram antecipadas para 19 de maio de 2026.

O painel reconheceu que a Anthropic “provavelmente sofreria algum grau de dano irreparável”, citando prejuízos tanto financeiros quanto de reputação. Os juízes Gregory Katsas e Neomi Rao, ambos nomeados por Trump, concluíram que o equilíbrio de interesses favorecia o governo, citando a gestão judicial de como o Pentágono protege a tecnologia de IA “durante um conflito militar ativo”.

A própria designação remonta a um rompimento nas negociações entre a Anthropic e autoridades do Pentágono no final de fevereiro de 2026. Em questão estavam duas restrições nos termos de serviço da Anthropic: a proibição de sistemas de armas totalmente autônomos, incluindo enxames de drones armados operando sem supervisão humana, e a proibição da vigilância em massa de cidadãos americanos.

Emil Michael, subsecretário de Pesquisa e Engenharia e diretor de tecnologia do Pentágono, chamou essas restrições de “obstáculos irracionais” à competitividade militar, particularmente contra a China. Funcionários citaram programas como a iniciativa de defesa antimísseis Golden Dome e a necessidade de capacidades de resposta rápida contra ameaças hipersônicas.

A Anthropic ofereceu exceções limitadas, caso a caso, mas se recusou a eliminar as principais salvaguardas de segurança, citando preocupações com a confiabilidade da IA atual para decisões autônomas de alto risco. As negociações fracassaram. O presidente Trump então instruiu todas as agências federais a interromperem o uso da tecnologia da Anthropic, com um período de transição de seis meses para as implantações existentes.

Seguiu-se a designação de risco à cadeia de suprimentos por parte de Hegseth, uma medida normalmente aplicada a entidades estrangeiras como a Huawei. A classificação exigiu que contratados, incluindo Amazon, Microsoft e Palantir, parassem de usar o Claude em qualquer trabalho vinculado ao Departamento de Defesa. A Anthropic chamou a medida de “campanha ilegal de retaliação” por sua recusa em permitir que o governo ignorasse suas políticas de segurança de IA.

A Anthropic entrou com ações judiciais paralelas em março de 2026. Uma foi apresentada no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia; a outra tinha como alvo a lei específica de compras que rege o risco da cadeia de suprimentos no Circuito de Washington, D.C.

Em 26 de março, a juíza federal Rita F. Lin concedeu à Anthropic uma liminar no caso da Califórnia. Ela determinou que as ações do governo pareciam mais punitivas do que protetoras, careciam de justificativa legal suficiente e ultrapassavam a autoridade. Essa ordem suspendeu temporariamente a aplicação da designação, permitindo que o governo e os contratados continuassem a usar o Claude enquanto se aguarda o julgamento completo. O governo Trump recorreu ao Nono Circuito.

A decisão do Circuito de Washington, D.C., de 8 de abril, contraria a decisão de Lin, criando uma tensão jurídica sobre se a designação é atualmente aplicável. Os dois tribunais estão analisando diferentes marcos legais, o que explica a divergência processual.

A Anthropic afirmou em comunicado que continua confiante em sua posição. “Estamos gratos pelo fato de o tribunal ter reconhecido que essas questões precisam ser resolvidas rapidamente e continuamos confiantes de que os tribunais acabarão concordando que essas designações da cadeia de suprimentos eram ilegais”, disse a empresa.

Prévia do Claude Mythos: a IA ainda não lançada da Anthropic detectou falhas no Linux e no OpenBSD que passaram despercebidas pelos humanos durante décadas

Prévia do Claude Mythos: a IA ainda não lançada da Anthropic detectou falhas no Linux e no OpenBSD que passaram despercebidas pelos humanos durante décadas

A IA Claude Mythos, da Anthropic, identificou milhares de vulnerabilidades zero-day em todos os principais sistemas operacionais e navegadores. O Projeto Glasswing é lançado com US$ 100 milhões em créditos. read more.

Leia agora

Observadores do setor apontaram o caso como um sinal de alerta para o desenvolvimento da IA nos EUA. Matt Schruers, CEO da Associação da Indústria de Computadores e Comunicações, disse que as ações do Pentágono e a decisão do Circuito de D.C. “criam uma incerteza comercial substancial em um momento em que as empresas americanas estão competindo com suas contrapartes globais para liderar em IA”.

O caso segue agora para a audiência acelerada marcada para 19 de maio no Circuito de Washington, D.C., com o recurso no Nono Circuito ainda pendente. O resultado provavelmente definirá os limites do poder federal para designar empresas nacionais de IA como riscos à segurança nacional e determinará até que ponto o governo pode pressionar empresas privadas a alterar suas políticas de segurança de IA.