Sikkerhedsforskere advarer om, at kunstig intelligens (AI)-drevne browsere og agenter fra Perplexity, OpenAI og Anthropic står over for stigende risici for skjulte promptinjektionsangreb og brud på privatlivets fred, hvilket potentielt kan afsløre brugerdata gennem tilknyttede konti og API’er.
AI-browsere under beskydning: Skjulte web-prompt kan kapre din agent og tilknyttede konti

AI Browser Sårbarheder Skaber Sikkerheds Bekymringer
AI-browsere og agenter fra Perplexity, OpenAI, og Anthropic omdefinerer, hvordan brugere interagerer med nettet—men eksperter siger, at bekvemmeligheden kommer med en pris.
Ifølge sikkerhedsrevisioner og forskning, der er blevet gennemgået, tillader sårbarheder i disse systemer ondsindede aktører at indlejre skjulte instruktioner på hjemmesider, som AI-værktøjer ubevidst kan udføre.

Disse angreb, kendt som skjulte eller indirekte promptinjektioner, kan manipulere AI-agenter til at udføre uautoriserede handlinger—såsom at lække følsomme oplysninger, udføre kode eller omdirigere brugere til phishing-sider—uden eksplicit brugeraccept.
Sådan Udnytter Angreb AI Agenter
I skjulte promptinjektionsscenarier skjuler angribere ondsindede kommandoer inden for en websides tekst, metadata eller endda usynlige elementer. Når en AI optager disse data, kan kommandoerne tilsidesætte brugerens hensigt og få agenten til at tage uønskede handlinger. Tests viser, at ubeskyttede AI-browsere kan blive offer for sådanne tricks næsten én ud af fire gange i kontrollerede eksperimenter.
Perplexity, OpenAI, og Anthropic: Centrale Risici Identificeret
- Perplexity’s Comet Browser: Revisioner af Brave og Guardio fandt, at værktøjet kunne manipuleres via Reddit-indlæg eller phishing-sider til at udføre scripts eller udtrække brugerdata.
- OpenAI’s Browsing Agents: Integreret i ChatGPT’s agentfunktioner, de viste sig at risikere adgang til tilknyttede konti gennem ondsindede e-mails og hjemmesider baserede prompts.
- Anthropic’s Claude Browser Extension: Red-team tests afslørede, at skjulte hjemmesidekommandoer kunne udløse automatiske klik på skadelige links.
Dokumenterede Hændelser og Branche Advarsler
Forskere og cybersikkerhedsfirmaer, herunder Brave, Guardio og Malwarebytes, har offentliggjort resultater, der viser, at selv simpelt online-indhold kan kompromittere AI-agenter. I en test fik et Reddit-indlæg en AI-browser til at køre phishing-scripts. Rapporter fra flere top tech-publikationer advarede om, at disse problemer kunne føre til uautoriseret dataadgang eller endda økonomisk tyveri.

Faren ved Konto Integration
Sikkerhedsanalytikere har løftet røde flag om AI-agenter, der er knyttet til adgangskoder eller API’er. At tillade sådanne integrationer kan afsløre e-mail-konti, cloud-drev og betalingsplatforme. Techcrunch og Cybersecurity Dive begge rapporterede tilfælde, hvor AI-agenter blev narret til at afsløre eller manipulere følsomme oplysninger gennem injicerede kommandoer.
Anbefalede Sikkerhedsforanstaltninger og Udsigter
Eksperter opfordrer brugere til at begrænse tilladelser, undgå at give AI-agenter adgang til adgangskoder og overvåge AI-logfiler for uregelmæssigheder. Udviklere rådes også til at implementere isolationssystemer og promptfiltre. Nogle forskere anbefaler endda brug af traditionelle browsere til følsomme handlinger, indtil AI-værktøjer får strengere sikkerhedsforanstaltninger.
Mens OpenAI, Anthropic og Perplexity sandsynligvis har hørt om udfordringerne, advarer cybersikkerhedseksperter om, at AI-drevet browsing forbliver et højrisikoområde i 2025. Efterhånden som disse virksomheder går videre med autonom webinteraktion, siger brancheobservatører, at gennemsigtighed og stærkere sikkerhedsstandarder er essentielle, før sådanne værktøjer bliver udbredt.
FAQ 🧭
- Hvad er skjulte promptinjektioner i AI-browsere?
Det er skjulte kommandoer indlejret i webindhold, der snyder AI-agenter til at udføre skadelige handlinger uden brugerens samtykke. - Hvilke virksomheders AI-værktøjer blev berørt af disse sårbarheder?
Perplexity’s Comet, OpenAI’s ChatGPT browsing agents og Anthropic’s Claude browser-funktioner blev alle nævnt i de seneste rapporter. - Hvilke risici opstår ved at forbinde AI-agenter til personlige konti?
At forbinde AI-værktøjer til drev, e-mails eller API’er kan muligøre datatyveri, phishing og uautoriseret adgang til konti. - Hvordan kan brugere beskytte sig mod AI-browserangreb?
Begræns tilladelser, undgå adgangskode integrationer, brug sandkasse-modi og hold dig opdateret om sikkerhedsanbefalinger.














