Les chercheurs en sécurité avertissent que les navigateurs et agents alimentés par l’intelligence artificielle (IA) de Perplexity, OpenAI et Anthropic font face à des risques croissants d’attaques par injection de commandes cachées et de violations de la vie privée, exposant potentiellement les données des utilisateurs à travers des comptes connectés et des API.
Les navigateurs IA sous le feu : des invites cachées sur le Web peuvent détourner votre agent et vos comptes connectés

Les vulnérabilités des navigateurs IA soulèvent des préoccupations en matière de sécurité
Les navigateurs et agents IA de Perplexity, OpenAI et Anthropic redéfinissent la manière dont les utilisateurs interagissent avec le web — mais les experts disent que la commodité a un coût.
Selon les audits de sécurité et les recherches examinées, les vulnérabilités de ces systèmes permettent aux acteurs malveillants d’intégrer des instructions cachées dans les sites web que les outils IA peuvent exécuter à leur insu.

Ces attaques, connues sous le nom d’injections de commandes cachées ou indirectes, peuvent manipuler les agents IA pour réaliser des actions non autorisées, telles que divulguer des informations sensibles, exécuter du code ou rediriger les utilisateurs vers des sites de phishing, sans le consentement explicite de l’utilisateur.
Comment les attaques exploitent les agents IA
Dans les scénarios d’injection de commandes cachées, les attaquants dissimulent des commandes malveillantes dans le texte, les métadonnées ou même les éléments invisibles d’une page web. Une fois que l’IA ingère ces données, les commandes peuvent annuler l’intention de l’utilisateur et pousser l’agent à effectuer des actions indésirables. Les tests montrent que les navigateurs IA non protégés peuvent être victimes de telles manipulations presque une fois sur quatre lors d’expériences contrôlées.
Perplexity, OpenAI et Anthropic : principaux risques identifiés
- Comet Browser de Perplexity : Des audits menés par Brave et Guardio ont révélé que l’outil pouvait être manipulé via des posts Reddit ou des sites de phishing pour exécuter des scripts ou extraire des données d’utilisateur.
- Agents de navigation d’OpenAI : Intégrés dans les fonctionnalités agentiques de ChatGPT, ils ont démontré un risque d’accès aux comptes connectés via des courriels malveillants et des prompts basés sur des sites web.
- Extension Claude Browser d’Anthropic : Les tests en équipe rouge ont révélé que des commandes cachées dans des pages web pouvaient déclencher des clics automatiques sur des liens nuisibles.
Incidents documentés et avertissements de l’industrie
Les chercheurs et les entreprises de cybersécurité, y compris Brave, Guardio et Malwarebytes, ont publié des découvertes montrant que même un simple contenu en ligne peut compromettre les agents IA. Dans un test, un post sur Reddit a forcé un navigateur IA à exécuter des scripts de phishing. Des rapports de plusieurs grandes publications technologiques ont mis en garde que ces problèmes pouvaient conduire à un accès non autorisé aux données voire à des vols financiers.

Les dangers de l’intégration des comptes
Les analystes en sécurité ont levé des alertes concernant les agents IA liés à des mots de passe ou des API. Autoriser de telles intégrations peut exposer les comptes de messagerie, les lecteurs cloud et les plateformes de paiement. Techcrunch et Cybersecurity Dive ont tous deux rapporté des cas où les agents IA ont été dupés pour révéler ou manipuler des informations sensibles par le biais de commandes injectées.
Mesures de sécurité recommandées et perspectives d’avenir
Les experts recommandent aux utilisateurs de limiter les autorisations, d’éviter de donner aux agents IA un accès de niveau mot de passe et de surveiller les journaux IA pour détecter des anomalies. Les développeurs sont également conseillés de mettre en œuvre des systèmes d’isolation et des filtres de commandes. Certains chercheurs recommandent même d’utiliser des navigateurs traditionnels pour les actions sensibles jusqu’à ce que les outils IA soient munis de protections plus strictes.
Bien qu’OpenAI, Anthropic et Perplexity aient probablement pris conscience des défis, les professionnels de la cybersécurité avertissent que la navigation pilotée par IA reste un domaine à haut risque en 2025. Alors que ces entreprises poussent l’interaction autonome sur le web plus loin, les observateurs de l’industrie disent que la transparence et des normes de sécurité plus strictes sont essentielles avant que de tels outils deviennent omniprésents.
FAQ 🧭
- Qu’est-ce que les injections de commandes cachées dans les navigateurs IA ?
Ce sont des commandes cachées intégrées dans le contenu du web qui induisent en erreur les agents IA pour qu’ils exécutent des actions nuisibles sans le consentement de l’utilisateur. - Les outils IA de quelles entreprises ont été affectés par ces vulnérabilités ?
Le Comet de Perplexity, les agents de navigation de ChatGPT d’OpenAI et les fonctionnalités du navigateur Claude d’Anthropic ont tous été cités dans des rapports récents. - Quels risques découlent de la liaison des agents IA à des comptes personnels ?
La connexion d’outils IA à des lecteurs, des courriels ou des API peut permettre le vol de données, l’hameçonnage et l’accès non autorisé aux comptes. - Comment les utilisateurs peuvent-ils se protéger contre les attaques de navigateurs IA ?
Limiter les autorisations, éviter les intégrations de mots de passe, utiliser des modes sandboxés et se tenir informé des conseils de sécurité.
Tags dans cet article
Sélections de Jeux Bitcoin
425% jusqu'à 5 BTC + 100 Tours Gratuits















