ارائه توسط
News

آنتروپیک هشدار می‌دهد که موانع حملات سایبری فروپاشیده‌اند با توجه به اینکه قابلیت‌های هوش مصنوعی تسریع می‌شود

Anthropic می‌گوید هوش مصنوعی (AI) به یک آستانه محوری در امنیت سایبری رسیده است، با شواهد جدیدی که نشان می‌دهد مدل‌های AI اکنون قادر به انجام عملیات بزرگ سایبری—هم دفاعی و هم تهاجمی—در مقیاس بی‌سابقه‌ای هستند.

نویسنده
اشتراک
آنتروپیک هشدار می‌دهد که موانع حملات سایبری فروپاشیده‌اند با توجه به اینکه قابلیت‌های هوش مصنوعی تسریع می‌شود

Anthropic در تحقیقات جدید خود هشدار می‌دهد، AI نقطه عطفی در امنیت سایبری رسیده است

Anthropic، شرکت AI پشت Claude، اعلام می‌کند ارزیابی‌های داخلی و کارهای اطلاعاتی تهدیدی آن‌ها نشان از یک تغییر قاطع در توسعه قابلیت‌های سایبری دارد. طبق یک تحقیق منتشر شده اخیر، قابلیت‌های سایبری در میان سیستم‌های AI در شش ماه دو برابر شده‌اند، با پشتیبانی از اندازه‌گیری‌های فعالیت‌های دنیای واقعی و آزمایش مبتنی بر مدل.

این شرکت می‌گوید AI اکنون به طور معناداری بر دینامیک امنیت جهانی تأثیر می‌گذارد، به ویژه در حالی که بازیگران مخرب به طور فزاینده‌ای چارچوب‌های حمله خودکار را به کار می‌گیرند. در آخرین گزارش خود، Anthropic جزئیات آنچه که به‌عنوان اولین مورد مستند از یک کمپین جاسوسی سایبری هماهنگ‌شده توسط AI نامیده می‌شود، ارائه می‌کند. تیم اطلاعاتی تهدیدی این شرکت در میانه سپتامبر ۲۰۲۵، عملیاتی بزرگ‌مقیاس را که به یک گروه چینی تحت‌حمایت دولت به نام GTG-1002 نسبت داده شد، شناسایی و مختل کرد.

Anthropic هشدار می‌دهد موانع حملات سایبری به دلیل پیشرفت قابلیت‌های AI سقوط کرده‌اند
منبع: X

گزارش‌ها حاکی از آنند که این گروه از موارد هماهنگ‌شده Claude Code برای انجام شناسایی، کشف آسیب‌پذیری، بهره‌برداری، حرکت جانبی، استخراج متاداده و تخلیه داده‌ها—به‌صورت عمده بدون دخالت انسان—استفاده کردند. این کمپین حدود ۳۰ سازمان در بخش‌هایی از جمله فناوری، امور مالی، شیمی و چندین نهاد دولتی را هدف قرار داد. Anthropic چندین نفوذ موفق را قبل از مداخله تأیید کرد.

Anthropic هشدار می‌دهد موانع حملات سایبری به دلیل پیشرفت قابلیت‌های AI سقوط کرده‌اند
منبع: گزارش Anthropic.

تحلیلگران می‌گویند مهاجمان از یک چارچوب خودکار که قادر به خردکردن حملات چندمرحله‌ای به وظایف کوچکتری که در هنگام جداسازی از متن وسیع‌تر خود مشروع به نظر می‌رسیدند، استفاده کردند. این به بازیگران اجازه داد تا از طریق پرسوناهای موجود دستورات را منتقل کرده و Claude را متقاعد کنند که عملیات دفاعی است و نه عملیات تهاجمی.

طبق تحقیقات، Claude به‌طور خودکار بین ۸۰٪ تا ۹۰٪ از عملیات‌های تاکتیکی را اجرا کرد. اپراتورهای انسانی تنها نظارت استراتژیک را ارائه دادند، در حالی که مراحل اصلی مانند ارتقای عملیات از شناسایی به بهره‌برداری فعال یا مجاز کردن تخلیه داده‌ها را تأیید کردند. گزارش سطحی از سرعت عملیات را توصیف می‌کند که برای تیم‌های تنها انسانی غیرممکن است، با برخی جریانات کاری که عملیات‌های متعددی را در ثانیه در هزاران درخواست ایجاد می‌کند.

Anthropic هشدار می‌دهد موانع حملات سایبری به دلیل پیشرفت قابلیت‌های AI سقوط کرده‌اند
منبع: گزارش Anthropic.

Anthropic می‌گوید چرخه عمر حمله از طریق یک خط لوله ساختاریافته پیشرفت کرد که در هر مرحله خودمختاری AI افزایش یافت. Claude به‌طور مستقل سطوح حمله را نقشه‌برداری کرد، سیستم‌های زنده را اسکن کرد، بارهای سفارشی برای آسیب‌پذیری‌های تایید شده ساخت، اعتبارات را برداشت و از طریق شبکه‌های داخلی انتقال کرد. همچنین داده‌های سرقت‌شده را تحلیل کرد، اطلاعات با ارزش بالا را شناسایی و به‌طور خودکار مستندات عملیاتی دقیق تولید کرد که دسترسی مستمر و انتقالات بین اپراتورها را فعال می‌کرد.

یکی از محدودیت‌ها، گزارشی است که به تمایل مدل به توهم تحت بارهای کاری تهاجمی اشاره می‌کند—به‌طور گاه و بیگاه دسترسی را بیش از واقع توصیف کرده، اعتبارات ساخته یا اطلاعات عمومی را به‌عنوان حساس نادرست معرفی کرده است. با این حال، Anthropic می‌گوید بازیگر از طریق مراحل تاییدی جبران کرد، نشان داد که عملیات‌های تهاجمی کاملاً خودمختار علیرغم نقص‌ها در مدل‌های امروزی همچنان ممکن است.

پس از کشف، Anthropic حساب‌های مربوطه را ممنوع کرد، به نهادهای تحت‌تأثیر اطلاع داد، با مقامات همکاری کرد، و مکانیسم‌های دفاعی جدیدی، از جمله طبقه‌بندی‌کننده‌های بهبود یافته برای شناسایی الگوهای تهدیدی جدید معرفی کرد. این شرکت اکنون سیستم‌های هشدار اولیه را طراحی می‌کند که تلاش‌های نفوذ خودکار را پرچم می‌کنند و ابزارهای تحقیقاتی جدید برای عملیات‌های سایبری توزیع‌شده بزرگ‌مقیاس را می‌سازد.

بیشتر بخوانید: بازار ‘Magentic’ مایکروسافت نشان می‌دهد چگونه عوامل AI تحت فشار ممکن است فرو بریزند

این شرکت می‌گوید در حالی که این قابلیت‌ها می‌توانند مورد سوءاستفاده قرار گیرند، به همان اندازه برای تقویت آمادگی دفاعی حیاتی هستند. Anthropic اشاره می‌کند که تیم اطلاعات تهدیدی خودش به شدت به Claude برای تحلیل مجموعه داده‌های بزرگ تولید شده در طول تحقیقات تکیه کرد. این شرکت برای امنیت تیم‌ها توصیه می‌کند که شروع به پذیرش اتوماسیون مبتنی بر AI برای مراکز عملیات امنیتی، شناسایی تهدید، تحلیل آسیب‌پذیری، و پاسخ به حوادث کنند.

اما گزارش هشدار می‌دهد که موانع حملات سایبری به‌طور چشمگیری کاهش یافته‌اند، زیرا سیستم‌های AI اجازه می‌دهند که گروه‌های کوچک—یا حتی افراد—عملیاتی را اجرا کنند که قبلاً محدود به بازیگران دولتی با بودجه قوی بود. Anthropic انتظار دارد فناوری‌های اینچنینی به سرعت در محیط تهدید گسترده‌تر شایع شوند و خواهان همکاری عمیق‌تر، حفاظت دفاعی بهبود یافته و مشارکت گسترده‌تر صنعتی در اشتراک‌گذاری تهدید برای مقابله با مدل‌های حمله جدید با AI شود.

سؤالات متداول ❓

  • Anthropic در تحقیقات خود چه چیزی کشف کرد؟
    Anthropic یک کمپین جاسوسی سایبری بزرگ‌مقیاس را که از AI برای خودکارسازی بیشتر عملیات‌های حمله استفاده می‌کرد، شناسایی و مختل کرد.
  • چه کسی پشت این حمله بود؟
    این شرکت عملیات را به یک گروه چینی تحت‌حمایت دولت با نام GTG-1002 نسبت داده است.
  • چگونه از AI در ورودها استفاده شد؟
    مهاجمان از Claude Code برای انجام خودکار شناسایی، بهره‌برداری، حرکت جانبی و استخراج داده استفاده کردند.
  • چرا این گزارش برای تیم‌های امنیت سایبری اهمیت دارد؟
    Anthropic می‌گوید این مورد نشان می‌دهد که حملات خودکار فعال‌شده توسط AI در مقیاس امکان‌پذیرند و نیاز به استراتژی‌های دفاعی جدیدی دارند.
برچسب‌ها در این داستان