Impulsado por
News

Los Navegadores de IA Bajo Fuego: Los Mensajes Ocultos en la Web Pueden Secuestrar Tu Agente y Cuentas Conectadas

Investigadores de seguridad advierten que los navegadores y agentes impulsados por inteligencia artificial (IA) de Perplexity, OpenAI y Anthropic enfrentan riesgos crecientes de ataques de inyección de comandos encubiertos y violaciones de privacidad, lo que podría exponer datos de usuarios a través de cuentas y APIs conectadas.

ESCRITO POR
COMPARTIR
Los Navegadores de IA Bajo Fuego: Los Mensajes Ocultos en la Web Pueden Secuestrar Tu Agente y Cuentas Conectadas

Vulnerabilidades en Navegadores de IA Generan Preocupaciones de Seguridad

Los navegadores y agentes de IA de Perplexity, OpenAI y Anthropic están redefiniendo la forma en que los usuarios interactúan con la web, pero los expertos dicen que la conveniencia tiene un costo.

Según auditorías de seguridad y investigaciones revisadas, las vulnerabilidades en estos sistemas permiten que actores maliciosos incrusten instrucciones ocultas en sitios web que las herramientas de IA pueden ejecutar sin saberlo.

Navegadores de IA Bajo Fuego: Las Indicaciones Ocultas de la Web Pueden Secuestrar Su Agente y Cuentas Conectadas

Estos ataques, conocidos como inyecciones de comandos encubiertas o indirectas, pueden manipular agentes de IA para realizar acciones no autorizadas, como filtrar información sensible, ejecutar código o redirigir a los usuarios a sitios de phishing, sin el consentimiento explícito del usuario.

Cómo los Ataques Explotan a los Agentes de IA

En escenarios de inyección de comandos encubierta, los atacantes ocultan comandos maliciosos dentro del texto de una página web, meta datos o incluso elementos invisibles. Una vez que una IA ingiere esos datos, los comandos pueden anular la intención del usuario y hacer que el agente realice acciones no deseadas. Las pruebas muestran que los navegadores de IA desprotegidos pueden ser víctimas de tales engaños casi una de cada cuatro veces durante experimentos controlados.

Perplexity, OpenAI y Anthropic: Principales Riesgos Identificados

  • Navegador Comet de Perplexity: Auditorías de Brave y Guardio encontraron que la herramienta podría ser manipulada a través de publicaciones en Reddit o sitios de phishing para ejecutar scripts o extraer datos de usuarios.
  • Agentes de Navegación de OpenAI: Integrados en las características agénticas de ChatGPT, se demostró que arriesgan el acceso a cuentas conectadas a través de correos electrónicos maliciosos y comandos basados en sitios web.
  • Extensión de Navegador Claude de Anthropic: Las pruebas de red revelaron que comandos ocultos en páginas web podrían desencadenar clics automáticos en enlaces dañinos.

Incidentes Documentados y Advertencias de la Industria

Investigadores y firmas de ciberseguridad, incluyendo Brave, Guardio y Malwarebytes, han publicado hallazgos que muestran que incluso contenido en línea simple puede comprometer agentes de IA. En una prueba, una publicación de Reddit forzó a un navegador de IA a ejecutar scripts de phishing. Informes de varias publicaciones tecnológicas destacadas advirtieron que estos problemas podrían llevar a accesos de datos no autorizados o incluso robo financiero.

Navegadores de IA Bajo Fuego: Las Indicaciones Ocultas de la Web Pueden Secuestrar Su Agente y Cuentas Conectadas

Los Peligros de la Integración de Cuentas

Analistas de seguridad han levantado alertas sobre agentes de IA vinculados a contraseñas o APIs. Permitir tales integraciones puede exponer cuentas de correo electrónico, discos en la nube y plataformas de pago. Techcrunch y Cybersecurity Dive ambos informaron casos donde agentes de IA fueron engañados para revelar o manipular información sensible a través de comandos inyectados.

Medidas de Seguridad Recomendadas y Perspectivas

Los expertos instan a los usuarios a limitar los permisos, evitar dar a los agentes de IA acceso a nivel de contraseña y monitorear registros de IA en busca de anomalías. También se aconseja a los desarrolladores implementar sistemas de aislamiento y filtros de comandos. Algunos investigadores incluso recomiendan usar navegadores tradicionales para acciones sensibles hasta que las herramientas de IA reciban salvaguardas más estrictas.

Aunque OpenAI, Anthropic y Perplexity probablemente han escuchado sobre los desafíos, los profesionales de ciberseguridad advierten que la navegación impulsada por IA sigue siendo un área de alto riesgo en 2025. A medida que estas empresas avanzan hacia una interacción web autónoma, observadores de la industria dicen que la transparencia y estándares de seguridad más estrictos son esenciales antes de que tales herramientas se vuelvan comunes.

FAQ 🧭

  • ¿Qué son las inyecciones de comandos encubiertas en navegadores de IA?
    Son comandos ocultos incrustados en el contenido web que engañan a los agentes de IA para ejecutar acciones dañinas sin el consentimiento del usuario.
  • ¿Qué herramientas de IA de qué empresas se vieron afectadas por estas vulnerabilidades?
    El Comet de Perplexity, los agentes de navegación de ChatGPT de OpenAI y las características del navegador Claude de Anthropic fueron citadas en informes recientes.
  • ¿Qué riesgos surgen al vincular agentes de IA a cuentas personales?
    Conectar herramientas de IA a discos, correos electrónicos o APIs puede permitir robo de datos, phishing y acceso no autorizado a cuentas.
  • ¿Cómo pueden los usuarios protegerse de ataques de navegadores de IA?
    Limitar permisos, evitar integraciones de contraseñas, usar modos aislados y mantenerse actualizado sobre avisos de seguridad.
Etiquetas en esta historia