За підтримки
News

Браузери з ШІ під ударом: приховані веб-запити можуть захопити ваш агент та підключені облікові записи

Дослідники з безпеки попереджають, що браузери та агенти на основі штучного інтелекту (ШІ) від Perplexity, OpenAI та Anthropic стикаються з підвищеними ризиками прихованих атак підказками та порушеннями конфіденційності, які можуть призвести до витоку даних користувачів через підключені акаунти та API.

АВТОР
ПОДІЛИТИСЯ
Браузери з ШІ під ударом: приховані веб-запити можуть захопити ваш агент та підключені облікові записи

Уразливості AI браузерів викликають занепокоєння щодо безпеки

AI браузери та агенти від Perplexity, OpenAI та Anthropic переосмислюють, як користувачі взаємодіють з інтернетом, але експерти кажуть, що зручність має свою ціну.

Відповідно до аудитів безпеки та переглянутих досліджень, вразливості цих систем дозволяють зловмисникам вбудовувати приховані інструкції у вебсайти, які AI інструменти можуть ненавмисно виконувати.

AI Browsers Under Fire: Hidden Web Prompts Can Hijack Your Agent and Connected Accounts

Ці атаки, відомі як приховані або непрямі ін’єкції команд, можуть маніпулювати AI агентами для виконання несанкціонованих дій — таких як витік конфіденційної інформації, виконання коду або перенаправлення користувачів на фішингові сайти — без явної згоди користувача.

Як атаки використовують AI агенти

У сценаріях прихованих ін’єкцій команд, зловмисники приховують шкідливі команди в тексті вебсторінки, метаданих або навіть невидимих елементах. Як тільки AI обробляє ці дані, команди можуть перекривати наміри користувача і змушувати агента виконувати небажані дії. Тести показують, що незахищені AI браузери можуть стати жертвами таких трюків приблизно один раз з чотирьох під час контрольованих експериментів.

Perplexity, OpenAI та Anthropic: визначені ключові ризики

  • Комет браузер від Perplexity: аудити Brave і Guardio виявили, що інструмент може бути підданий маніпуляціям через публікації на Reddit або фішингові сайти для виконання скриптів або вилучення даних користувача.
  • Агенти перегляду від OpenAI: інтегровані у функції агентства ChatGPT, виявили ризик доступу до підключених акаунтів через шкідливі підказки з електронної пошти та сайтів.
  • Розширення Claude Browser від Anthropic: тести показали, що приховані команди на вебсторінках можуть запускати автоматичні кліки на шкідливі посилання.

Задокументовані інциденти та попередження індустрії

Дослідники та фірми з кібербезпеки, включаючи Brave, Guardio та Malwarebytes, опублікували знахідки, які показують, що навіть простий онлайн-контент може скомпрометувати AI агентів. У одному з тестів, пост на Reddit змусив AI браузер запустити фішингові скрипти. Звіти декількох провідних технічних публікацій попереджали, що ці проблеми можуть призвести до несанкціонованого доступу до даних або навіть фінансового шахрайства.

AI Browsers Under Fire: Hidden Web Prompts Can Hijack Your Agent and Connected Accounts

Небезпеки інтеграції акаунтів

Аналітики з безпеки підняли тривогу щодо AI агентів, пов’язаних із паролями або API. Допуск таких інтеграцій може призвести до витоку електронної пошти, хмарних сховищ та платіжних платформ. Techcrunch і Cybersecurity Dive повідомили про випадки, коли AI агенти були обмануті, щоб розкрити або маніпулювати конфіденційною інформацією через ін’єктовані команди.

Рекомендовані заходи безпеки та перспектива

Експерти закликають користувачів обмежити дозволи, уникати надання AI агентам доступу на рівні пароля та контролювати журнали AI на наявність аномалій. Також рекомендується розробникам впроваджувати системи ізоляції та фільтри підказок. Деякі дослідники навіть рекомендують використовувати традиційні браузери для важливих дій, поки AI інструменти не отримають жорсткіші заходи безпеки.

Хоча OpenAI, Anthropic і Perplexity, можливо, вже чули про виклики, фахівці з кібербезпеки застерігають, що перегляд на основі AI залишається високоризиковою областю у 2025 році. У міру того, як ці компанії просуваються у сферу автономної взаємодії з вебом, спостерігачі індустрії кажуть, що прозорість і посилені стандарти безпеки є вирішальними для того, щоб такі інструменти стали масовими.

Часті запитання 🧭

  • Що таке приховані ін’єкції команд у AI браузерах?
    Це приховані команди, вбудовані в вебконтент, які змушують AI агентів виконувати шкідливі дії без згоди користувача.
  • Які компанії були уражені цими вразливостями?
    Комети від Perplexity, агенти перегляду ChatGPT від OpenAI та функції браузера Claude від Anthropic були цитовані в останніх звітах.
  • Які ризики виникають під час підключення AI агентів до особистих акаунтів?
    Підключення AI інструментів до сховищ, електронної пошти або API може призвести до крадіжки даних, фішингу та несанкціонованого доступу до акаунтів.
  • Як користувачі можуть захиститися від атак AI браузерів?
    Обмежуйте дозволи, уникайте інтеграції паролів, використовуйте режими пісочниці та стежте за повідомленнями про безпеку.
Теги в цій статті