Istraživači sigurnosti upozoravaju da preglednici i agenti pokretani umjetnom inteligencijom (AI) iz Perplexityja, OpenAI-a i Anthropica suočavaju se s rastućim rizicima prikrivenih napada injekcije naredbe i povredama privatnosti, što potencijalno izlaže korisničke podatke putem povezanih računa i API-ja.
AI preglednici pod vatrom: Skriveni web upiti mogu oteti vašeg agenta i povezane račune

Ranljivosti AI preglednika izazivaju sigurnosne zabrinutosti
AI preglednici i agenti iz Perplexityja, OpenAI-a i Anthropica redefiniraju način na koji korisnici komuniciraju s webom—ali stručnjaci kažu da pogodnost dolazi uz cijenu.
Prema sigurnosnim provjerama i istraživanjima koja su pregledana, ranjivosti u ovim sustavima omogućuju zlonamjernim akterima da ugrade skrivene upute u web stranice koje AI alati mogu nesvjesno izvršiti.

Ovi napadi, poznati kao prikrivene ili neizravne injekcije naredbi, mogu manipulirati AI agentima da izvrše neovlaštene radnje—poput otkrivanja osjetljivih informacija, pokretanja koda ili preusmjeravanja korisnika na phishing stranice—bez izričitog odobrenja korisnika.
Kako napadi iskorištavaju AI agente
U scenarijima prikrivenih injekcija naredbi, napadači skrivaju zlonamjerne naredbe unutar teksta web stranice, metapodataka, ili čak nevidljivih elemenata. Kada AI unese te podatke, naredbe mogu nadjačati korisničku namjeru i uzrokovati da agent poduzme neželjene akcije. Testovi pokazuju da nezaštićeni AI preglednici mogu postati žrtve ovakvih trikova skoro jednom u četiri puta tijekom kontroliranih eksperimenata.
Perplexity, OpenAI i Anthropic: Ključni rizici identificirani
- Perplexityjev Comet preglednik: Revizije od strane Brave i Guardio otkrile su da se alat mogao manipulirati putem Reddit postova ili phishing stranica za izvršavanje skripti ili izvlačenje korisničkih podataka.
- OpenAI-jevi preglednički agenti: Integrirani u agentičke značajke ChatGPT-a, pokazali su rizik od pristupa povezanim računima putem zlonamjernih email i web podsticaja.
- Anthropicevo Claude proširenje za preglednik: Testovi crvenog tima otkrili su da skrivene upute web stranica mogu izazvati automatske klikove na štetne linkove.
Dokumentirani incidenti i industrijska upozorenja
Istraživači i tvrtke za kibernetičku sigurnost, uključujući Brave, Guardio i Malwarebytes, su objavili nalaze koji pokazuju da čak i jednostavan online sadržaj može kompromitirati AI agente. U jednom testu, Reddit post je prisilio AI preglednik da pokrene phishing skripte. Izvješća nekoliko vodećih tehnoloških publikacija upozorila su da bi ovi problemi mogli dovesti do neovlaštenog pristupa podacima ili čak krađe financijskih sredstava.

Opasnosti integracije računa
Sigurnosni analitičari su istaknuli crvene zastavice oko AI agenata povezanih s lozinkama ili API-jima. Omogućavanje takvih integracija može izložiti račune e-pošte, oblak pohrane i platforme za plaćanje. Techcrunch i Cybersecurity Dive su oboje izvijestili o slučajevima gdje su AI agenti bili zavarani da otkriju ili manipuliraju osjetljivim informacijama putem ubrizganih naredbi.
Preporučene sigurnosne mjere i perspektiva
Stručnjaci potiču korisnike da ograniče dozvole, izbjegavaju omogućavanje pristupa AI agentima na razini lozinke i prate AI zapisnike radi anomalija. Programerima se također savjetuje da implementiraju izolacijske sustave i filtere naredbi. Neki istraživači čak preporučuju korištenje tradicionalnih preglednika za osjetljive radnje sve dok AI alati ne dobiju strože mjere sigurnosti.
Dok su OpenAI, Anthropic i Perplexity vjerojatno čuli o ovim izazovima, profesionalci kibernetičke sigurnosti upozoravaju da AI-pokretano pregledavanje ostaje područje visokog rizika 2025. Kako ove kompanije guraju dalje u autonomnu web interakciju, promatrači industrije kažu da su transparentnost i snažniji sigurnosni standardi bitni prije nego što takvi alati postanu mainstream.
FAQ 🧭
- Što su prikrivene injekcije naredbi u AI preglednicima?
To su skrivene naredbe ugrađene u web sadržaj koje obmanjuju AI agente da izvršavaju štetne radnje bez pristanka korisnika. - Koji su alati AI kompanija bili pogođeni ovim ranjivostima?
Comet iz Perplexityja, preglednički agenti ChatGPT-a iz OpenAI-a i preglednička značajka Claude iz Anthropica svi su navedeni u nedavnim izvještajima. - Koji rizici nastaju povezivanjem AI agenata s osobnim računima?
Povezivanje AI alata s pohranom, emailovima ili API-jima može omogućiti krađu podataka, phishing i neovlašteni pristup računima. - Kako korisnici mogu zaštititi sebe od napada na AI preglednike?
Ograničite dozvole, izbjegavajte integracije lozinki, koristite izolacijske modove i ostanite informirani o sigurnosnim savjetima.














