Pesquisadores de segurança estão alertando que navegadores e agentes baseados em inteligência artificial (IA) de Perplexity, OpenAI e Anthropic enfrentam riscos crescentes de ataques de injeção de comandos ocultos e violações de privacidade, potencialmente expondo dados de usuários através de contas e APIs conectadas.
Navegadores de IA Sob Ataque: Solicitações Ocultas na Web Podem Sequestrar Seu Agente e Contas Conectadas

Vulnerabilidades em Navegadores de IA Levantam Preocupações de Segurança
Navegadores e agentes de IA de Perplexity, OpenAI e Anthropic estão redefinindo como os usuários interagem com a web—mas especialistas dizem que essa conveniência tem um custo.
De acordo com auditorias de segurança e pesquisas revisadas, vulnerabilidades nesses sistemas permitem que atores maliciosos insiram instruções ocultas em sites que as ferramentas de IA podem executar sem saber.

Esses ataques, conhecidos como injeções de comando ocultas ou indiretas, podem manipular agentes de IA para executar ações não autorizadas—como vazar informações sensíveis, executar códigos ou redirecionar usuários para sites de phishing—sem o consentimento explícito do usuário.
Como os Ataques Exploram Agentes de IA
Em cenários de injeção de comandos ocultos, atacantes escondem comandos maliciosos dentro do texto de uma página, metadados ou até mesmo elementos invisíveis. Uma vez que uma IA ingere esses dados, os comandos podem substituir a intenção do usuário e fazer com que o agente tome ações indesejadas. Testes mostram que navegadores de IA desprotegidos podem ser enganados por tais truques em quase uma em cada quatro vezes durante experimentos controlados.
Perplexity, OpenAI e Anthropic: Principais Riscos Identificados
- Navegador Comet da Perplexity: Auditorias pela Brave e Guardio descobriram que a ferramenta poderia ser manipulada por postagens no Reddit ou sites de phishing para executar scripts ou extrair dados do usuário.
- Agentes de Navegação da OpenAI: Integrados às funcionalidades de agentes do ChatGPT, mostraram risco de acesso a contas conectadas através de prompts maliciosos baseados em e-mails e sites.
- Extensão do Navegador Claude da Anthropic: Testes de equipe vermelha revelaram que comandos ocultos em páginas da web poderiam desencadear cliques automáticos em links nocivos.
Incidentes Documentados e Alertas da Indústria
Pesquisadores e empresas de cibersegurança, incluindo Brave, Guardio e Malwarebytes, publicaram descobertas mostrando que até mesmo conteúdos online simples podem comprometer agentes de IA. Em um teste, uma postagem no Reddit forçou um navegador de IA a executar scripts de phishing. Relatos de várias publicações de tecnologia de ponta alertaram que esses problemas poderiam levar a acessos de dados não autorizados ou até mesmo a roubos financeiros.

Os Perigos da Integração de Contas
Analistas de segurança levantaram bandeiras vermelhas sobre agentes de IA vinculados a senhas ou APIs. Permitir tais integrações pode expor contas de email, unidades na nuvem e plataformas de pagamento. Techcrunch e Cybersecurity Dive ambos relataram casos onde agentes de IA foram enganados para revelar ou manipular informações sensíveis através de comandos injetados.
Medidas de Segurança Recomendadas e Perspectivas
Especialistas aconselham os usuários a limitar permissões, evitar dar acesso de nível de senha a agentes de IA e monitorar registros de IA para detectar anomalias. Desenvolvedores também são aconselhados a implementar sistemas de isolamento e filtros de prompt. Alguns pesquisadores até recomendam usar navegadores tradicionais para ações sensíveis até que as ferramentas de IA recebam salvaguardas mais rígidas.
Embora OpenAI, Anthropic e Perplexity provavelmente já tenham ouvido falar sobre os desafios, profissionais de cibersegurança alertam que a navegação impulsionada por IA continua sendo uma área de alto risco em 2025. À medida que essas empresas se aprofundam na interação autônoma na web, observadores da indústria dizem que transparência e padrões de segurança mais fortes são essenciais antes que tais ferramentas se tornem comuns.
Perguntas Frequentes 🧭
- O que são injeções de comandos ocultos em navegadores de IA?
São comandos ocultos embutidos em conteúdo web que enganam agentes de IA para executar ações prejudiciais sem o consentimento do usuário. - Quais ferramentas de IA dessas empresas foram afetadas por essas vulnerabilidades?
Comet da Perplexity, agentes de navegação do ChatGPT da OpenAI, e os recursos do navegador Claude da Anthropic foram todos citados em relatórios recentes. - Quais riscos surgem ao vincular agentes de IA a contas pessoais?
Conectar ferramentas de IA a drives, e-mails ou APIs pode permitir roubo de dados, phishing e acesso não autorizado a contas. - Como os usuários podem se proteger contra ataques de navegadores de IA?
Limitar permissões, evitar integrações de senha, usar modos isolados e manter-se atualizado sobre avisos de segurança.













