Säkerhetsforskare varnar för att webbläsare och agenter som drivs av artificiell intelligens (AI) från Perplexity, OpenAI och Anthropic står inför ökande risker för dolda uppmaningsinjektionsattacker och integritetsintrång, vilket potentiellt kan exponera användardata genom anslutna konton och API:er.
AI-webbläsare under attack: Dolda webbuppmaningar kan kapa din agent och anslutna konton

AI-webbläsarsårbarheter väcker säkerhetsproblem
AI-webbläsare och agenter från Perplexity, OpenAI och Anthropic omdefinierar hur användare interagerar med webben—men experter säger att bekvämligheten kommer till en kostnad.
Enligt säkerhetsgranskningar och forskning som granskats tillåter sårbarheter i dessa system att illvilliga aktörer kan inbädda dolda instruktioner i webbplatser som AI-verktyg kan utföra omedvetet.

Dessa attacker, kända som dolda eller indirekta uppmaningsinjektioner, kan manipulera AI-agenter att utföra obehöriga handlingar—såsom att läcka känslig information, köra kod eller omdirigera användare till nätfiskesidor—utan uttryckligt samtycke från användaren.
Hur Attacker utnyttjar AI-agenter
I scenarier med dolda uppmaningsinjektioner gömmer angripare skadliga kommandon inom en webbsidas text, metadata eller till och med osynliga element. När en AI bearbetar dessa data kan kommandona åsidosätta användarens intention och få agenten att utföra oönskade handlingar. Tester visar att oskyddade AI-webbläsare kan falla offer för sådana trick nästan en av fyra gånger under kontrollerade experiment.
Perplexity, OpenAI och Anthropic: Identifierade Nyckelrisker
- Perplexitys Comet Browser: Granskningar av Brave och Guardio fann att verktyget kunde manipuleras via Reddit-inlägg eller nätfiskesidor för att köra skript eller extrahera användardata.
- OpenAIs Browsing-agenter: Integrerade i ChatGPTs agentiska funktioner, visade de sig riskera åtkomst till anslutna konton genom skadliga e-post- och webbplatsbaserade uppmaningar.
- Anthropics Claude Browser Extension: Röd team tester avslöjade att dolda webbsidskommandon kan utlösa automatiska klick på skadliga länkar.
Dokumenterade Incidenter och Branschvarningar
Forskare och cybersäkerhetsföretag, inklusive Brave, Guardio och Malwarebytes, har publicerat fynd som visar att även enkelt onlineinnehåll kan kompromettera AI-agenter. I ett test fick ett Reddit-inlägg en AI-webbläsare att köra nätfiskeskript. Rapporter från flera ledande tekniska publikationer varnade att dessa problem kan leda till obehörig dataåtkomst eller till och med ekonomisk stöld.

Faran med Kontointegration
Säkerhetsanalytiker har höjt röda flaggor om AI-agenter länkade till lösenord eller API:er. Att tillåta sådana integrationer kan exponera e-postkonton, molnlagringar och betalningsplattformar. Techcrunch och Cybersecurity Dive båda rapporterade fall där AI-agenter lurades att avslöja eller manipulera känslig information genom injicerade kommandon.
Rekommenderade Säkerhetsåtgärder och Framtidsutsikter
Experter uppmanar användare att begränsa behörigheter, undvika att ge AI-agenter lösenordsåtkomst och övervaka AI-loggar för avvikelser. Utvecklare rekommenderas också att implementera isolationssystem och uppmaningsfilter. Vissa forskare rekommenderar till och med att använda traditionella webbläsare för känsliga handlingar tills AI-verktyg får striktare skydd.
Medan OpenAI, Anthropic och Perplexity troligen har hört om utmaningarna, varnar cybersäkerhetsproffs att AI-driven webbsurfning förblir ett högriskområde år 2025. När dessa företag fortsätter att avancera inom autonom webbinteraktion säger branschobservatörer att transparens och starkare säkerhetsstandarder är nödvändiga innan sådana verktyg blir allmänt spridda.
FAQ 🧭
- Vad är dolda uppmaningsinjektioner i AI-webbläsare?
De är dolda kommandon inbäddade i webbplatsinnehåll som lurar AI-agenter att utföra skadliga handlingar utan användarens samtycke. - Vilka företags AI-verktyg påverkades av dessa sårbarheter?
Perplexitys Comet, OpenAIs ChatGPT-webbläsaragenter och Anthropics Claude-webbläsarfunktioner angavs alla i senaste rapporterna. - Vilka risker uppstår vid länkning av AI-agenter till personliga konton?
Att ansluta AI-verktyg till lagringsplatser, e-post eller API:er kan möjliggöra datastöld, nätfiske och obehörig åtkomst till konton. - Hur kan användare skydda sig mot AI-webbläsarattacker?
Begränsa behörigheter, undvik lösenordsintegrationer, använd sandlådelägen och håll dig uppdaterad om säkerhetsråd.
Taggar i denna artikel
Bitcoin spelval
130% upp till 2 500 USDT + 200 Gratissnurr + 20% Veckovis Omsättningsfri Cashback














