Badacze zabezpieczeń ostrzegają, że przeglądarki i agenci zasilani sztuczną inteligencją (AI) od Perplexity, OpenAI i Anthropic stoją w obliczu narastających ryzyk ukrytych ataków związanych z wstrzykiwaniem poleceń oraz naruszeń prywatności, potencjalnie narażając dane użytkowników poprzez podłączone konta i interfejsy API.
Przeglądarki AI pod ostrzałem: Ukryte polecenia w sieci mogą przejąć Twojego agenta i powiązane konta

Wrażliwości przeglądarek AI budzą obawy o bezpieczeństwo
Przeglądarki AI i agenci z Perplexity, OpenAI i Anthropic redefiniują sposób, w jaki użytkownicy interakcjują z siecią — ale eksperci twierdzą, że wygoda wiąże się z kosztami.
Zgodnie z audytami bezpieczeństwa i przeglądanymi badaniami, luki w tych systemach pozwalają złośliwym podmiotom osadzać ukryte instrukcje w stronach internetowych, które narzędzia AI mogą nieświadomie wykonać.

Te ataki, znane jako ukryte lub pośrednie wstrzykiwanie poleceń, mogą manipulować agentami AI, zmuszając ich do wykonywania nieautoryzowanych działań — takich jak wyciek poufnych informacji, wykonywanie kodu czy przekierowywanie użytkowników na strony phishingowe — bez świadomej zgody użytkownika.
Jak ataki wykorzystują agentów AI
W scenariuszach ukrytego wstrzykiwania poleceń, atakujący ukrywają złośliwe polecenia w tekście strony, metadanych czy nawet w niewidocznych elementach. Gdy AI przetworzy te dane, polecenia mogą nadpisać intencje użytkownika i spowodować, że agent podejmie niepożądane działania. Testy pokazują, że niechronione przeglądarki AI mogą paść ofiarą takich trików w prawie jednej na cztery próby podczas kontrolowanych eksperymentów.
Perplexity, OpenAI i Anthropic: Zidentyfikowane kluczowe ryzyka
- Przeglądarka Comet od Perplexity: Audyty Brave i Guardio wykazały, że narzędzie może być manipulowane przez posty na Reddit lub strony phishingowe do wykonywania skryptów lub wyodrębniania danych użytkownika.
- Agenci przeglądania OpenAI: Zintegrowani z funkcjami agentów w ChatGPT, wykazano, że mogą ryzykować dostęp do połączonych kont poprzez złośliwe polecenia e-mailowe i oparte na stronach internetowych.
- Rozszerzenie przeglądarki Claude od Anthropic: Testy zespołu red-team ujawniły, że ukryte polecenia stron internetowych mogą wywoływać automatyczne kliknięcia na szkodliwe linki.
Udokumentowane incydenty i ostrzeżenia branżowe
Badacze i firmy zajmujące się cyberbezpieczeństwem, w tym Brave, Guardio oraz Malwarebytes, opublikowali wyniki badań pokazujące, że nawet prosta zawartość online może skompromitować agentów AI. W jednym z testów post na Reddit zmusił przeglądarkę AI do uruchomienia skryptów phishingowych. Raporty z kilku czołowych publikacji technologicznych ostrzegały, że te problemy mogą prowadzić do nieautoryzowanego dostępu do danych, a nawet kradzieży finansowej.

Zagrożenia związane z integracją konta
Analitycy zabezpieczeń zgłosili czerwonymi flagami agentów AI połączonych z hasłami lub API. Pozwalanie na takie integracje może narażać konta e-mail, dyski chmurowe i platformy płatnicze. Techcrunch i Cybersecurity Dive raportowały przypadki, w których agenci AI zostali oszukani, aby ujawnić lub manipulować poufnymi informacjami poprzez wstrzyknięte polecenia.
Zalecane środki bezpieczeństwa i perspektywy
Eksperci zalecają użytkownikom ograniczenie uprawnień, unikanie przyznawania agentom AI dostępu na poziomie haseł i monitorowanie logów AI w poszukiwaniu nieprawidłowości. Deweloperom zaleca się również wdrożenie systemów izolacji i filtrów poleceń. Niektórzy badacze nawet rekomendują używanie tradycyjnych przeglądarek do działań wymagających większego bezpieczeństwa, dopóki narzędzia AI nie otrzymają bardziej rygorystycznych zabezpieczeń.
Podczas gdy OpenAI, Anthropic i Perplexity prawdopodobnie usłyszały o wyzwaniach, specjaliści ds. bezpieczeństwa ostrzegają, że przeglądanie zasilane AI pozostaje obszarem wysokiego ryzyka w 2025 roku. Jak te firmy dążą do zwiększenia autonomii interakcji z internetem, obserwatorzy branżowi twierdzą, że przejrzystość i silniejsze standardy bezpieczeństwa są niezbędne, zanim takie narzędzia staną się powszechne.
FAQ 🧭
- Co to są ukryte wstrzykiwania poleceń w przeglądarkach AI?
Są to ukryte polecenia osadzone w treści internetowej, które oszukują agentów AI do wykonywania szkodliwych działań bez zgody użytkownika. - Jakie firmy są dotknięte przez te wrażliwości w narzędziach AI?
Comet od Perplexity, agenci przeglądania ChatGPT od OpenAI i funkcje przeglądarki Claude od Anthropic zostały wspomniane w ostatnich raportach. - Jakie ryzyka wiążą się z połączeniem agentów AI z kontami osobistymi?
Łączenie narzędzi AI z dyskami, e-mailami czy API może umożliwić kradzież danych, phishing i nieautoryzowany dostęp do kont. - Jak użytkownicy mogą się chronić przed atakami na przeglądarki AI?
Ograniczanie uprawnień, unikanie integracji haseł, używanie trybów piaskownicy i monitorowanie aktualności dotyczących bezpieczeństwa.









