Исследователи в области безопасности предупреждают, что браузеры и агенты на основе искусственного интеллекта (ИИ) от Perplexity, OpenAI и Anthropic сталкиваются с возрастающими рисками скрытых атак инъекций подсказок и утечек конфиденциальности, потенциально подвергая данные пользователей риску через подключенные учетные записи и API.
Браузеры с ИИ под обстрелом: скрытые веб-подсказки могут захватить вашего агента и подключенные аккаунты

Уязвимости браузеров на основе ИИ вызывают проблемы безопасности
Браузеры и агенты на основе ИИ от Perplexity, OpenAI и Anthropic переопределяют взаимодействие пользователей с вебом — но эксперты говорят, что удобство идет с издержками.
Согласно аудитам безопасности и проведенным исследованиям, уязвимости в этих системах позволяют злоумышленникам встраивать скрытые инструкции на веб-сайты, которые ИИ-инструменты могут неосознанно выполнять.

Эти атаки, известные как скрытые или косвенные инъекции подсказок, могут манипулировать AI-агентами для выполнения несанкционированных действий, таких как утечка конфиденциальной информации, выполнение кода или перенаправление пользователей на фишинговые сайты — без явного согласия пользователя.
Как атаки эксплуатируют AI-агентов
В сценариях скрытых инъекций подсказок злоумышленники прячут вредоносные команды в тексте веб-страницы, метаданных или даже в невидимых элементах. Как только ИИ поглощает эти данные, команды могут забывать намерения пользователя и заставлять агента выполнять нежелательные действия. Тесты показывают, что незащищенные AI-браузеры могут стать жертвами таких приемов почти в одном из четырех случаев во время контрольных экспериментов.
Perplexity, OpenAI и Anthropic: выявленные основные риски
- Браузер Comet от Perplexity: аудиторы Brave и Guardio обнаружили, что инструмент может быть подвержен манипуляциям через посты на Reddit или фишинговые сайты для выполнения скриптов или извлечения данных пользователя.
- Агенты для просмотра OpenAI: интегрированные в функции ChatGPT, они показали риск доступа к подключенным учетным записям через вредоносные емейлы и веб-запросы.
- Расширение для браузера Claude от Anthropic: тесты показали, что скрытые команды на веб-страницах могут вызывать автоматические клики на вредоносные ссылки.
Задокументированные инциденты и предостережения отрасли
Исследователи и фирменные данные компаний по кибербезопасности, включая Brave, Guardio и Malwarebytes, опубликовали выводы, показывающие, что даже простое онлайн-содержание может скомпрометировать AI-агентов. В одном тесте пост на Reddit заставил AI-браузер запустить фишинговые скрипты. Отчеты от нескольких ведущих технологических изданий предупреждали, что эти проблемы могут привести к несанкционированному доступу к данным или даже к финансовым кражам.

Опасности интеграции учетных записей
Аналитики по безопасности выражают обеспокоенность относительно агентов на основе ИИ, связанных с паролями или API. Подобные интеграции могут подвергать риску учетные записи электронной почты, облачные хранилища и платежные платформы. Techcrunch и Cybersecurity Dive сообщили о случаях, когда AI-агентов обманом заставляли раскрывать или манипулировать конфиденциальной информацией через инъекционные команды.
Рекомендованные меры безопасности и перспективы
Эксперты призывают пользователей ограничивать разрешения, избегать предоставления AI-агентам доступа на уровне пароля и мониторить логи AI на наличие аномалий. Разработчикам также рекомендуется внедрять системы изоляции и фильтры подсказок. Некоторые исследователи даже рекомендуют использовать традиционные браузеры для выполнения конфиденциальных действий до получения инструментами на основе ИИ более строгих мер безопасности.
Хотя компании OpenAI, Anthropic и Perplexity, вероятно, осведомлены о проблемах, специалисты по кибербезопасности предупреждают, что браузинг на основе ИИ остается высокорискованной областью в 2025 году. По мере того как эти компании продвигаются в направлении автономного взаимодействия с вебом, наблюдатели отрасли утверждают, что прозрачность и усиленные стандарты безопасности являются необходимыми условиями до того, как такие инструменты станут массовыми.
FAQ 🧭
- Что такое скрытые инъекции подсказок в браузерах на основе ИИ?
Это скрытые команды, встроенные в веб-контент, которые обманывают AI-агентов, заставляя их выполнять вредоносные действия без согласия пользователя. - Какие компании пострадали от этих уязвимостей в их инструментах на основе ИИ?
В недавних отчетах упоминаются инструменты Comet от Perplexity, агенты ChatGPT для обзора OpenAI и функции браузера Claude от Anthropic. - Какие риски возникают при связывании AI-агентов с личными учетными записями?
Подключение инструментов на основе ИИ к дискам, электронной почте или API может привести к краже данных, фишингу и несанкционированному доступу к учетным записям. - Как пользователи могут защитить себя от атак на браузеры на основе ИИ?
Ограничьте разрешения, избегайте интеграций с паролями, используйте режимы песочницы и следите за обновлениями о проблемах безопасности.














