ارائه توسط
Featured

سوء استفاده های هوشمندانه قراردادهای هوشمند: کارشناس هشدار می دهد که عوامل ممکن است باعث زیان سالانه ۱۰ تا ۲۰ میلیارد دلار در بخش DeFi شوند

یک مطالعه اخیر توسط MATS و Anthropic Fellows تأیید می‌کند که عوامل هوش مصنوعی می‌توانند به طور سودآور آسیب‌پذیری‌های قراردادهای هوشمند را بهره‌برداری کنند و “مرز پایین ملموسی” برای آسیب اقتصادی ایجاد کنند.

نویسنده
اشتراک
سوء استفاده های هوشمندانه قراردادهای هوشمند: کارشناس هشدار می دهد که عوامل ممکن است باعث زیان سالانه ۱۰ تا ۲۰ میلیارد دلار در بخش DeFi شوند

استفاده‌های نوین و کاهش نگران‌کننده هزینه

فشار شتابان برای اتوماسیون وظایف انسانی با عوامل هوش مصنوعی (AI) اکنون با یک جنبه منفی مهم و قابل اندازه‌گیری مواجه است: این عوامل می‌توانند آسیب‌پذیری‌های قراردادهای هوشمند را به طور سودآور بهره‌برداری کنند. یک مطالعه تحقیقاتی اخیر توسط MATS و Anthropic Fellows از محک بهره‌برداری از قراردادهای هوشمند (SCONE-bench) برای اندازه‌گیری این ریسک استفاده کرده است.

مطالعه با موفقیت مدل‌هایی مانند Claude Opus 4.5، Claude Sonnet 4.5 و GPT-5 را به کار گرفت تا بهره‌برداری‌هایی شبیه‌سازی‌شده به ارزش ۴.۶ میلیون دلار توسعه دهند. SCONE-bench شامل ۴۰۵ قرارداد هوشمند است که بین سال‌های ۲۰۲۰ تا ۲۰۲۵ واقعاً بهره‌برداری شده بودند. در گزارش مطالعه تیم که در ۱ دسامبر منتشر شد، اعلام شد که موفقیت عوامل هوش مصنوعی در توسعه بهره‌برداری‌ها که بر روی شبیه‌ساز بلاکچین تست شده‌اند، “مرز پایین ملموسی برای آسیب اقتصادی که این قابلیت‌ها می‌توانند ایجاد کنند” را اثبات کرده است.

تحقیقات بیشتر رفت و Sonnet 4.5 و GPT-5 را بر روی ۲,۸۴۹ قرارداد تازه نصب‌شده‌ای که هیچ آسیب‌پذیری شناخته شده‌ای ندارند آزمود. عوامل نشان دادند که می‌توانند حتی در این محیط جدید بهره‌برداری‌های سودآور ایجاد کنند: هر دو عامل دو نقص جدید صفر روزه را کشف کردند و بهره‌برداری‌هایی به ارزش ۳,۶۹۴ دلار تولید کردند. GPT-5 این موفقیت را با هزینه API تنها ۳,۴۷۶ دلار به دست آورد.

بیشتر بخوانید: از دیفای تا دفکان: TRM اخطار می‌دهد از حملات سایبری دولتی

این نتیجه به عنوان مدرک مفهومی برای قابلیت فنی بهره‌برداری خودمختار سودآور در دنیای واقعی عمل می‌کند، و نیاز فوری به مکانیزم‌های دفاعی هدایت‌شده توسط هوش مصنوعی را برجسته می‌کند.

شاید پروازنده‌ترین یافته افزایش چشمگیر در کارایی باشد: یک حمله‌کننده اکنون می‌تواند حدود ۳.۴ برابر بهره‌برداری‌های موفق بیشتری را با همان بودجه کامپیوتری به دست آورد که شش ماه پیش. علاوه بر این، هزینه توکن‌ها برای بهره‌برداری‌های موفق به طرز شگفت‌انگیزی ۷۰ درصد کاهش یافته است، که این عوامل قدرتمند را به‌طور قابل‌توجهی ارزان‌تر برای اجرا می‌کند.

نقش حلقه‌های عاملی و بهبود مدل

ژان راسیس، هم‌بنیان‌گذار در SMARDEX، این کاهش شدید هزینه را عمدتاً به حلقه‌های عاملی نسبت می‌دهد. این حلقه‌ها باعث ایجاد فرآیندهای چندمرحله‌ای و خودتصحیحی می‌شوند که ضایعات توکن‌ها در طول تحلیل قرارداد را کاهش می‌دهند. راسیس همچنین نقش بهبود معماری مدل را برجسته می‌کند:

“پنجره‌های زمینه بزرگتر و ابزارهای حافظه در مدل‌هایی مانند Claude Opus 4.5 و GPT-5 امکان شبیه‌سازی‌های پیوسته بدون تکرار را فراهم می‌کنند که کارایی را در کارهای طولانی ۱۵-۱۰۰٪ افزایش می‌دهد.”

او اشاره می‌کند که این بهینه‌سازی‌ها از بهبودهای خام در کشف آسیب‌پذیری‌ها پیشی گرفته‌اند (که موفقیت بر روی SCONE-bench فقط از ۲٪ به ۵۱٪ افزایش دادند)، زیرا آنها بر بهینه‌سازی زمان اجرا متمرکز هستند و نه فقط شناسایی نقص‌ها.

در حالی که مطالعه هزینه شبیه‌سازی‌شده ۴.۶ میلیون دلار را تأسیس کرده، کارشناسان می‌ترسند که هزینه اقتصادی واقعی به‌طور قابل توجهی بالاتر باشد. راسیس تخمین می‌زند که خطرات واقعی می‌تواند ۱۰-۱۰۰ برابر بیشتر باشد، به‌طور بالقوه به ۵۰ تا ۵۰۰ میلیون دلار یا بیشتر در هر بهره‌برداری عمده برسد. او هشدار می‌دهد که با مقیاس‌پذیری هوش مصنوعی، کل شکنندگی بخش – با در نظر گرفتن اهرم‌های نامدل شده و شکست‌های اوراکل – می‌تواند به ۱۰–۲۰ میلیارد دلار در سال برسد.

مقاله MATS و Anthropic Fellows با یک هشدار به پایان می‌رسد: در حالی که قراردادهای هوشمند هدف اولیه این موج از حملات خودکار هستند، نرم‌افزارهای اختصاصی ممکن است هدف بعدی باشند زیرا عوامل در معکوس‌سازی مهندسی بهتر می‌شوند.

به طور حیاتی، مقاله همچنین به خوانندگان یادآوری می‌کند که همان عوامل هوش مصنوعی می‌توانند برای دفاع به کار گرفته شوند تا آسیب‌پذیری‌ها را بهبودی دهند. برای کاهش تهدید مالی سیستمیک از حملات DeFi که به‌آسانی اتوماسیون می‌شوند، راسیس پیشنهاد می‌کند که یک طرح اقدام سه مرحله‌ای برای قانون‌گذاران و تنظیم‌کنندگان اتخاذ شود: نظارت بر هوش مصنوعی، استانداردهای جدید حسابرسی و هماهنگی جهانی.

سوالات متداول ❓

  • مطالعه درباره چه چیزی درباره عوامل هوش مصنوعی فاش کرد؟ مدل‌های هوش مصنوعی مانند GPT-5 و Claude قراردادهای هوشمند به ارزش ۴.۶ میلیون دلار را در شبیه‌سازی‌ها بهره‌برداری کردند.
  • چرا این ریسک در سراسر جهان افزایش می‌یابد؟ هزینه‌های توکن برای بهره‌برداری‌ها ۷۰٪ کاهش یافته است، که حملات را ارزان‌تر و در مناطق مختلف مقیاس‌پذیرتر می‌کند.
  • آیا تأثیر مالی می‌تواند فراتر از دیفای گسترش یابد؟ کارشناسان هشدار می‌دهند که ضررهای واقعی می‌تواند به ۵۰ تا ۵۰۰ میلیون دلار در هر بهره‌برداری برسد، با افشای جهانی تا ۲۰ میلیارد دلار در سال.
  • قانون‌گذاران و توسعه‌دهندگان چگونه می‌توانند پاسخ دهند؟ محققان نظارت بر هوش مصنوعی، استانداردهای حسابرسی قوی‌تر و هماهنگی فرامرزی را برای دفاع از سیستم‌ها ترغیب می‌کنند.
برچسب‌ها در این داستان