O Pentágono está considerando cortar laços com a Anthropic, com o secretário de Defesa Pete Hegseth perto de designar a empresa como um “risco para a cadeia de suprimentos”. A Anthropic se opõe ao uso do seu modelo de IA Claude em campanhas de vigilância em massa e em operações militares totalmente autônomas.
Anthropic e o Pentágono entram em conflito sobre os usos militares e de vigilância em massa do Claude

Anthropic entra em choque com o Pentágono sobre usos “não éticos” do Claude
A Anthropic, uma das maiores empresas de inteligência artificial (IA), estaria sendo alvo do Departamento de Guerra devido ao uso de seus modelos de IA em atividades consideradas antiéticas pela empresa.
A Axios relatou que o secretário de Defesa Pete Hegseth está considerando designar a Anthropic como um risco para a cadeia de suprimentos, o que significaria que todos os contratos e vínculos com a empresa teriam de ser encerrados. Além disso, todas as empresas que fazem negócios com o Pentágono também teriam de abandonar os serviços da Anthropic.

O confronto ocorre porque a empresa se recusou a permitir o uso do Claude, seu modelo principal, em campanhas de vigilância em massa e em operações envolvendo equipamento militar totalmente autônomo. Por outro lado, o Pentágono afirma que deveria poder aproveitar as capacidades do Claude para “todos os fins legais”, sem que a empresa tenha voz nesses processos.
Se a Anthropic for finalmente designada como um risco para a cadeia de suprimentos, isso significaria que o modelo teria de ser removido dos sistemas de informação do Pentágono, já que apenas o Claude tem acesso aos sistemas classificados da organização.
Isso permitiu que o Claude participasse de forma ativa da Operação Absolute Resolve, que levou à extração de Nicolás Maduro, da Venezuela, em janeiro. Mesmo que o papel assumido pelo modelo durante a operação não tenha sido totalmente divulgado, isso representa uma escalada no uso de IA em campanhas militares.
O impasse pode estabelecer um precedente sobre como empresas de IA podem lidar com governos no mundo ocidental, estabelecendo as bases para os níveis de controle que essas empresas podem manter sobre seus modelos quando usados para fins militares.
Um porta-voz da Anthropic afirmou que a empresa estava tendo “conversas produtivas, de boa-fé, com o DoW sobre como continuar esse trabalho e acertar essas questões novas e complexas”.
Perguntas frequentes
- Que problemas a Anthropic está enfrentando com o Departamento de Guerra?
A Anthropic está sob escrutínio do Departamento de Guerra por se recusar a permitir que seu modelo de IA, Claude, seja usado em atividades que considera antiéticas, como vigilância em massa e operações militares autônomas. - Que consequências potenciais a Anthropic poderia enfrentar se fosse classificada como um risco para a cadeia de suprimentos?
Se for designada como um risco para a cadeia de suprimentos, todos os contratos com o Pentágono seriam encerrados, exigindo a retirada do Claude dos sistemas de informação do Pentágono. - Como a Anthropic respondeu às exigências do Pentágono em relação ao seu modelo de IA?
A empresa sustenta que está envolvida em “conversas produtivas” com o Departamento de Guerra, buscando navegar por questões éticas complexas em torno do uso de sua tecnologia de IA. - Que operação militar recente envolveu o Claude e qual foi sua importância?
O Claude participou da Operação Absolute Resolve, que facilitou a extração de Nicolás Maduro, da Venezuela, marcando uma escalada significativa no uso, pelos militares, de tecnologias de IA.













