A Anthropic começou a exigir, de forma seletiva, a verificação de identidade por meio de documento oficial para determinados usuários de sua plataforma de inteligência artificial (IA) Claude, condicionando o acesso a alguns recursos e assinaturas à verificação de identidade.
A Anthropic adiciona verificação de identidade ao Claude para usuários selecionados de IA

Pontos principais:
- A Anthropic adicionou verificações de identidade para usuários do Claude em abril de 2026, restringindo o acesso a alguns recursos.
- A Persona é responsável pela verificação; a Anthropic afirma que nenhuma imagem de documento de identidade é armazenada em seus sistemas.
- A OpenAI e o Google Gemini não possuem regras semelhantes, o que levanta questões de concorrência.
Anthropic introduz verificação de identidade oficial para alguns usuários do Claude
A mudança apareceu em uma atualização da central de ajuda publicada durante a semana de 14 a 16 de abril de 2026 e não se aplica a todos os usuários. Em vez disso, solicitações surgem em casos específicos ligados a planos de nível superior, recursos avançados ou análises internas de segurança.
De acordo com a Anthropic, o objetivo é limitar abusos, fazer cumprir as regras da plataforma e atender às obrigações legais. A empresa apresenta a implementação como parte de verificações de integridade de rotina, em vez de um requisito universal de cadastro.
Os usuários que receberem a solicitação devem fornecer um documento de identidade físico com foto emitido pelo governo e realizar uma digitalização de selfie ao vivo. A Anthropic detalha que o processo normalmente leva menos de cinco minutos e requer um dispositivo com câmera.
Os documentos aceitos incluem passaportes, carteiras de motorista e carteiras de identidade nacionais. Cópias digitais, capturas de tela ou documentos de identidade temporários em papel são rejeitados, assim como credenciais não governamentais, como cartões de estudante ou de funcionário.
O fluxo de trabalho de verificação é gerenciado pela Persona, que processa os dados de identificação em nome da Anthropic. A Anthropic afirma que não armazena as imagens de identificação em seus próprios sistemas. Em vez disso, a Persona retém os dados dentro dos limites contratuais, enquanto a Anthropic mantém acesso aos resultados da verificação quando necessário para revisão de contas ou recursos.
A empresa afirma que todos os dados são criptografados e usados apenas para confirmação de identidade, prevenção de fraudes e conformidade. A Anthropic também afirma que os dados de identidade não são usados para treinar seus modelos de IA e não são compartilhados para fins de marketing. A divulgação é limitada aos requisitos legais.
A medida reflete a crescente pressão sobre as plataformas de IA para lidar com o uso indevido, incluindo fraudes e falsificação de identidade. A Anthropic também citou restrições de idade, com algumas contas de menores de 18 anos supostamente suspensas enquanto aguardam verificação.
A reação dos usuários tem sido em sua maioria desfavorável. “O Claude agora exige verificação de identidade governamental (via Persona) antes da assinatura”, escreveu um crítico. “O ChatGPT não exige. O Gemini não exige. A Anthropic acabou de dar um presente aos seus concorrentes”, acrescentou a conta no X. No Reddit, uma pessoa afirmou:
“Que bobagem. Mal posso esperar até termos LLMs off-line capazes que não custem uma fortuna para funcionar.”
O cofundador da marca de mídia Bankless, Ryan Sean Adams, também compartilhou sua opinião. “O KYC de IA chegou. Novos assinantes do Claude foram solicitados a fornecer documento de identidade oficial e foto”, escreveu Adams. “Não é nem mesmo uma exigência regulatória — a Anthropic está fazendo isso simplesmente porque quer. Mas a regulamentação está chegando. O próximo passo serão as leis: nada de IA sem documento de identidade emitido pelo governo; todo uso de IA rastreado até o indivíduo — nada de IA privada.”
A reação negativa foi amplificada por comparações com concorrentes. Plataformas como a OpenAI e o Gemini, do Google, atualmente não exigem verificação de identidade emitida pelo governo para o uso padrão de chatbots. Outros concorrentes, como a Venice AI, são privados e utilizam modelos locais.

Prévia do Claude Mythos: a IA ainda não lançada da Anthropic detectou falhas no Linux e no OpenBSD que passaram despercebidas pelos humanos durante décadas
A IA Claude Mythos, da Anthropic, identificou milhares de vulnerabilidades zero-day em todos os principais sistemas operacionais e navegadores. O Projeto Glasswing é lançado com US$ 100 milhões em créditos. read more.
Leia agora
Prévia do Claude Mythos: a IA ainda não lançada da Anthropic detectou falhas no Linux e no OpenBSD que passaram despercebidas pelos humanos durante décadas
A IA Claude Mythos, da Anthropic, identificou milhares de vulnerabilidades zero-day em todos os principais sistemas operacionais e navegadores. O Projeto Glasswing é lançado com US$ 100 milhões em créditos. read more.
Leia agora
Prévia do Claude Mythos: a IA ainda não lançada da Anthropic detectou falhas no Linux e no OpenBSD que passaram despercebidas pelos humanos durante décadas
Leia agoraA IA Claude Mythos, da Anthropic, identificou milhares de vulnerabilidades zero-day em todos os principais sistemas operacionais e navegadores. O Projeto Glasswing é lançado com US$ 100 milhões em créditos. read more.
Essa diferença levou alguns usuários a questionar se controles mais rígidos poderiam direcionar a atividade para serviços menos restritivos. Outros argumentam que a mudança sinaliza um movimento mais amplo em direção a verificações do tipo KYC na IA de consumo.
Por enquanto, o sistema continua sendo direcionado, em vez de universal. Mas sua presença sugere que a verificação de identidade pode se tornar uma camada mais comum à medida que as plataformas de IA expandem o acesso a ferramentas mais capazes.














