Onderzoekers op het gebied van beveiliging waarschuwen dat door kunstmatige intelligentie (AI) aangedreven browsers en agenten van Perplexity, OpenAI en Anthropic toenemende risico’s lopen op geheime prompt-injectieaanvallen en privacy-inbreuken, waardoor gebruikersgegevens via verbonden accounts en API’s mogelijk worden blootgesteld.
AI-browsers onder vuur: verborgen webprompts kunnen uw agent en gekoppelde accounts kapen

Kwetsbaarheden in AI-Browsers Leiden tot Beveiligingszorgen
AI-browsers en agenten van Perplexity, OpenAI, en Anthropic herdefiniëren hoe gebruikers met het web interageren, maar experts zeggen dat het gemak een prijs heeft.
Volgens beveiligingsaudits en bekeken onderzoek maken kwetsbaarheden in deze systemen het mogelijk voor kwaadwillende actoren om verborgen instructies in websites in te bedden die AI-tools onbewust kunnen uitvoeren.

Deze aanvallen, bekend als geheime of indirecte prompt-injecties, kunnen AI-agenten manipuleren om ongeautoriseerde acties uit te voeren, zoals het lekken van gevoelige informatie, het uitvoeren van code of het omleiden van gebruikers naar phishing-sites, zonder uitdrukkelijke gebruikerstoestemming.
Hoe Aanvallen AI-Agenten Exploiteren
In scenario’s van geheime prompt-injecties verbergen aanvallers schadelijke opdrachten in de tekst, metadata of zelfs onzichtbare elementen van een webpagina. Zodra een AI die gegevens opneemt, kunnen de opdrachten de gebruikersintentie negeren en de agent ongewenste acties laten uitvoeren. Tests tonen aan dat onbeschermde AI-browsers bijna één op de vier keer vatbaar zijn voor dergelijke trucs tijdens gecontroleerde experimenten.
Perplexity, OpenAI en Anthropic: Geïdentificeerde Belangrijke Risico’s
- Perplexity’s Comet Browser: Audits door Brave en Guardio toonden aan dat het hulpmiddel gemanipuleerd kon worden via Reddit-berichten of phishing-sites om scripts uit te voeren of gebruikersgegevens te extraheren.
- OpenAI’s Browsing Agents: Geïntegreerd in de agentische functies van ChatGPT, bleken ze het risico te lopen op toegang tot verbonden accounts via schadelijke e-mail- en website-gebonden prompts.
- Anthropic’s Claude Browser Extension: Red-team tests toonden aan dat verborgen webpagina-opdrachten automatisch klikken op schadelijke links konden veroorzaken.
Gedocumenteerde Incidenten en Waarschuwingen van de Industrie
Onderzoekers en cybersecuritybedrijven, waaronder Brave, Guardio en Malwarebytes, hebben bevindingen gepubliceerd die aantonen dat zelfs eenvoudige online inhoud AI-agenten kan compromitteren. In één test dwong een Reddit-bericht een AI-browser om phishing-scripts uit te voeren. Rapporten van verschillende toonaangevende technische publicaties waarschuwden dat deze problemen kunnen leiden tot ongeautoriseerde gegevensaccess of zelfs financiële diefstal.

De Gevaren van Accountintegratie
Beveiligingsanalisten hebben rode vlaggen gehesen over AI-agenten die zijn gekoppeld aan wachtwoorden of API’s. Dergelijke integraties toestaan kan e-mailaccounts, cloudaanbieders en betalingsplatformen blootstellen. Techcrunch en Cybersecurity Dive beide rapporteerden gevallen waarin AI-agenten werden misleid om gevoelige informatie te onthullen of te manipuleren via ingebrachte opdrachten.
Aanbevolen Veiligheidsmaatregelen en Vooruitzichten
Experts raden gebruikers aan om de machtigingen te beperken, AI-agenten geen wachtwoordniveau-toegang te geven en AI-logboeken op anomalieën te controleren. Ontwikkelaars worden ook geadviseerd isolation systemen en promptfilters te implementeren. Sommige onderzoekers bevelen zelfs aan traditionele browsers te gebruiken voor gevoelige acties totdat AI-tools strengere beveiligingsmaatregelen krijgen.
Hoewel OpenAI, Anthropic en Perplexity waarschijnlijk op de hoogte zijn van de uitdagingen, waarschuwen cybersecurity-professionals dat door AI aangedreven browsen in 2025 een gebied met hoog risico blijft. Nu deze bedrijven verder gaan in autonome webinteractie, zeggen industrie-observatoren dat transparantie en sterkere beveiligingsstandaarden essentieel zijn voordat dergelijke tools mainstream worden.
FAQ 🧭
- Wat zijn geheime prompt-injecties in AI-browsers?
Dit zijn verborgen opdrachten ingebed in webinhoud die AI-agenten misleiden om schadelijke acties uit te voeren zonder gebruikersinstemming. - Welke bedrijven’ AI-hulpmiddelen werden geraakt door deze kwetsbaarheden?
Perplexity’s Comet, OpenAI’s ChatGPT-browsing-agenten en Anthropic’s Claude-browserfuncties werden allemaal genoemd in recente rapporten. - Welke risico’s ontstaan door het koppelen van AI-agenten aan persoonlijke accounts?
Het koppelen van AI-tools aan opslag, e-mails of API’s kan gegevensdiefstal, phishing en ongeautoriseerde accounttoegang mogelijk maken. - Hoe kunnen gebruikers zichzelf beschermen tegen AI-browsersaanvallen?
Beperk machtigingen, vermijd wachtwoordintegraties, gebruik gesandboxte modi en blijf op de hoogte van beveiligingsadviezen.
Tags in dit verhaal
Bitcoin Gaming Picks
3,5% Rakeback op Elke Weddenschap + Wekelijkse Verlotingen
425% tot 5 BTC + 100 Gratis Spins
100% tot $20K + Dagelijkse Rakeback















