Pinapagana ng
News

AI Mga Browser sa Ilalim ng Kritikismo: Ang Nakatagong Mga Prompt sa Web ay Maaaring Mag-hijack sa Iyong Ahente at Nakakonektang Mga Account

Nagbababala ang mga eksperto sa seguridad na ang mga browser at ahente na pinapagana ng artipisyal na intelihensiya (AI) mula sa Perplexity, OpenAI, at Anthropic ay nahaharap sa tumitinding panganib ng mga palihim na pag-atake at paglabag sa privacy, na posibleng maglantad ng data ng mga gumagamit sa pamamagitan ng mga konektadong account at API.

ISINULAT NI
IBAHAGI
AI Mga Browser sa Ilalim ng Kritikismo: Ang Nakatagong Mga Prompt sa Web ay Maaaring Mag-hijack sa Iyong Ahente at Nakakonektang Mga Account

Pagtaas ng Mga Alalahanin sa Seguridad ng AI Browser

Ang mga browser at ahente na pinapagana ng AI mula sa Perplexity, OpenAI, at Anthropic ay muling binubuo kung paano nakikipag-ugnayan ang mga gumagamit sa web—ngunit sabi ng mga eksperto, ang kaginhawahan ay may kapalit.

Ayon sa mga audit sa seguridad at sinuri na pananaliksik, ang mga kahinaan sa mga sistemang ito ay nagpapahintulot sa mga malisyosong aktor na mag-embed ng mga nakatagong utos sa mga website na maaaring hindi nalalaman ng mga tool ng AI na isagawa.

AI Browsers Under Fire: Hidden Web Prompts Can Hijack Your Agent and Connected Accounts

Ang mga pag-atakeng ito, na kilala bilang covert o indirect prompt injections, ay maaaring manipulahin ang mga ahente ng AI para magsagawa ng mga hindi awtorisadong pagkilos—tulad ng paglabas ng sensitibong impormasyon, pagpapatupad ng code, o pag-redirect ng mga gumagamit sa mga phishing site—nang walang tahasang pahintulot ng gumagamit.

Paano Pinagsasamantalahan ng mga Pag-atake ang mga AI Agents

Sa mga senaryo ng covert prompt injection, itinatago ng mga umaatake ang mga malisyosong utos sa loob ng teksto ng isang webpage, metadata, o kahit na mga di-nakikitang elemento. Kapag ang AI ay nag-ingest ng data na iyon, ang mga utos ay maaaring mag-override sa layunin ng gumagamit at magdulot sa ahente na gumawa ng mga hindi gustong aksyon. Ang mga pagsusuri ay nagpapakita na ang mga hindi protektadong AI browser ay maaaring maging biktima ng mga ganitong mga tricks halos isang sa apat na beses sa panahon ng nakokontrol na mga eksperimento.

Perplexity, OpenAI, at Anthropic: Mga Key Risks na natukoy

  • Perplexity’s Comet Browser: Ang mga audit ng Brave at Guardio ay natagpuan na ang tool ay maaaring manipulahin sa pamamagitan ng mga post sa Reddit o phishing site para magsagawa ng script o kunin ang data ng gumagamit.
  • OpenAI’s Browsing Agents: Isinama sa mga tampok ng agentic ng ChatGPT, ipinakita sila na nasa panganib ng access sa mga konektadong account sa pamamagitan ng malisyosong mga email at website-based na mga prompt.
  • Anthropic’s Claude Browser Extension: Nagpakita ang mga pagsusuri na ang mga nakatagong utos sa webpage ay maaaring mag-trigger ng mga awtomatikong pag-click sa mga mapanganib na link.

Mga Dokumentadong Insidente at Industriya na Babala

Ang mga mananaliksik at kumpanya sa cybersecurity, kabilang ang Brave, Guardio, at Malwarebytes, ay nag-publish ng mga natuklasan na nagpapakita na kahit simpleng online na nilalaman ay maaaring ikompromiso ang mga ahente ng AI. Sa isang pagsubok, ang isang post sa Reddit ay pumilit sa isang AI browser na magpatakbo ng phishing scripts. Ang mga ulat mula sa ilang pangunahing publikasyon sa teknolohiya ay nagbabala na ang mga problemang ito ay maaaring magdulot ng hindi awtorisadong pag-access sa data o kahit na pagnanakaw ng pera.

AI Browsers Under Fire: Hidden Web Prompts Can Hijack Your Agent and Connected Accounts

Mga Panganib ng Pagsasama ng Account

Ini-angat ng mga analyst ng seguridad ang mga pulang bandilya tungkol sa mga AI agents na konektado sa mga password o API. Ang pagpayag sa mga ganitong integrasyon ay maaaring maglantad ng mga account sa email, cloud drive, at mga platform sa pagbabayad. Ang Techcrunch at Cybersecurity Dive ay parehong nagre-ulat ng mga pagkakataon kung saan ang mga AI agents ay naloko upang magbunyag o manipulahin ang sensitibong impormasyon sa pamamagitan ng mga injected na mga utos.

Inirerekomendang Mga Paraang Panseguridad at Pananaw

Hinihikayat ng mga eksperto ang mga gumagamit na limitahan ang mga pahintulot, iwasan ang pagbibigay ng password-level na access sa mga AI agents, at subaybayan ang mga log ng AI para sa mga anomalya. Ang mga developer ay pinapayuhan din na ipatupad ang mga sistema ng pagkakahiwalay at mga filter ng prompt. Ang ilang mananaliksik ay nagrerekomenda pa ng paggamit ng tradisyunal na mga browser para sa mga sensitibong pagkilos hanggang sa makatanggap ng mas mahigpit na mga proteksyon ang mga tool sa AI.

Habang isinaalang-alang ng OpenAI, Anthropic, at Perplexity ang mga hamon na ito, pinag-iingat ng mga propesyonal sa cybersecurity na ang pag-browse na pinapagana ng AI ay nananatiling mataas ang panganib sa 2025. Habang ang mga kumpanyang ito ay patuloy na isinusulong ang mga awtomatikong interaksiyon sa web, sinasabi ng mga tagamasid sa industriya na ang transparency at mas malakas na mga pamantayan sa seguridad ay mahalaga bago maging mainstream ang mga ganitong tool.

FAQ 🧭

  • Ano ang mga covert prompt injections sa mga AI browser?
    Ito ay mga nakatagong utos na naka-embed sa nilalaman ng web na niloloko ang mga AI agents sa pagsasagawa ng mapanlinlang na mga aksyon nang walang pahintulot ng gumagamit.
  • Aling mga kumpanya ang naapektuhan ng mga kahinaan na ito?
    Ang mga AI tool ng Perplexity’s Comet, OpenAI’s ChatGPT browsing agents, at mga tampok ng Claude browser ng Anthropic ay lahat ay nabanggit sa mga kamakailang ulat.
  • Anong mga panganib ang dulot ng pag-link ng mga AI agents sa mga personal na account?
    Ang pagkonekta ng mga tool ng AI sa mga drive, email, o API ay maaaring magbigay-daan sa pagnanakaw ng data, phishing, at hindi awtorisadong access sa account.
  • Paano mapoprotektahan ng mga gumagamit ang kanilang sarili mula sa mga pag-atake ng AI browser?
    Limitahan ang mga pahintulot, iwasan ang mga integrasyon ng password, gumamit ng mga sandboxed mode, at manatiling naka-update sa mga advisories ng seguridad.