دراسة حديثة من قبل MATS وزملاء Anthropic تؤكد أن وكلاء الذكاء الاصطناعي يمكنهم استغلال ثغرات العقود الذكية بشكل مربح، مما يضع “حدا أدنى ملموسا” للضرر الاقتصادي.
استغلالات العقود الذكية بالذكاء الاصطناعي: خبير يحذر من أن الوكلاء قد يتسببون في خسائر سنوية تتراوح بين 10-20 مليار دولار في قطاع التمويل اللامركزي (DeFi)

استغلالات جديدة وتخفيض تكلفة مقلق
الدفع المتسارع لأتمتة المهام البشرية مع وكلاء الذكاء الاصطناعي يواجه الآن عيباً كبيراً ومقاساً: يمكن لهؤلاء الوكلاء استغلال ثغرات العقود الذكية بشكل مربح. دراسة حديثة بحثية من قبل MATS وزملاء Anthropic استخدمت معيار استغلال العقود الذكية (SCONE-bench) لقياس هذا الخطر.
نجحت الدراسة في نشر نماذج مثل Claude Opus 4.5، Claude Sonnet 4.5، وGPT-5 لتطوير استغلالات محتملة بقيمة 4.6 مليون دولار. يتكون SCONE-bench من 405 عقود ذكية تم استغلالها فعلياً بين 2020 و2025. في تقريرهم الصادر في الأول من ديسمبر، ذكر الفريق أن نجاح وكلاء الذكاء الاصطناعي في تطوير استغلالات تم اختبارها على محاكي البلوكتشين يضع “حدا أدنى ملموسا للضرر الاقتصادي الذي يمكن لهذه القدرات أن تمكنه.”
ذهبت الأبحاث أبعد من ذلك عن طريق اختبار Sonnet 4.5 وGPT-5 ضد 2,849 عقدا تم نشرها حديثا بدون ثغرات معروفة. وأثبت الوكلاء أنهم يمكنهم توليد استغلالات مربحة حتى في هذا البيئة الجديدة: حيث اكتشف كلا الوكيلين ثغرتين جديدتين من نوع zero-day وأنتجا استغلالات تقدر بقيمة $3,694. وحققت GPT-5 هذا النجاح بتكلفة واجهة برمجة تطبيقات قدرها فقط $3,476.
اقرأ المزيد: من DeFi إلى Defcon: تحذيرات TRM من هجمات تقنية حكومية عبر الإنترنت
هذا النتيجة تبرز كإثبات مفهوم للجدوى التقنية للاستغلال المال الحقيقي الأوتوماتيكي، مما يؤكد الحاجة الفورية إلى آليات دفاع مدعومة بالذكاء الاصطناعي.
ربما تكون النتيجة الأكثر إثارة للقلق هي الزيادة الكبيرة في الكفاءة: يمكن للمهاجم الآن تحقيق حوالي 3.4 مرة من الاستغلالات الناجحة لنفس ميزانية الحوسبة كما كان الحال قبل ستة أشهر. علاوة على ذلك، انخفضت تكلفة الرموز للاستغلالات الناجحة بشكل مذهل بنسبة 70%، مما يجعل هذه الوكلاء القوية أقل تكلفة بكثير لتشغيلها.
دور الحلقات الوكيلية وتحسين النماذج
يوضح جان راوسيس، المؤسس المشارك في SMARDEX، أن هذا الانخفاض الحاد في التكاليف يُعزى بشكل رئيسي إلى الحلقات الوكيلية. حيث تُمكن هذه الحلقات من سير عمل متعدد الخطوات وتصحيح ذاتي يقلل الهدر في الرموز أثناء تحليل العقود. كما يبرز راوسيس دور تحسين بنية النماذج:
“النوافذ السياقية الكبيرة وأدوات الذاكرة في النماذج مثل Claude Opus 4.5 وGPT-5 تسمح بإجراء محاكاة مستمرة دون تكرار، مما يعزز الكفاءة بنسبة 15-100% في المهام الطويلة.”
ويشير إلى أن هذه المكاسب في تحسين الأداء تفوق تحسينات اكتشاف الثغرات الخام (التي زادت النجاح على SCONE-bench من 2% إلى 51%)، حيث يركزون على تحسين وقت التشغيل بدلا من مجرد اكتشاف العيوب.
بينما تحدد الدراسة تكلفة محاكاة بقيمة 4.6 مليون دولار، يخشى الخبراء أن تكون التكلفة الاقتصادية الفعلية أعلى بكثير. حيث يقدر راوسيس أن المخاطر الحقيقية قد تكون أعلى بـ 10-100 مرة، وقد تصل إلى 50 مليون دولار إلى 500 مليون دولار أو أكثر لكل استغلال كبير. ويحذر من أنه مع تكبير نطاق الذكاء الاصطناعي، فإن التعرض القطاعي الإجمالي – الذي يأخذ في الاعتبار الرافعة غير المودلة وفشل الأوراكل – قد يصل إلى 10-20 مليار دولار سنوياً.
تختتم ورقة MATS وزملاء Anthropic بتحذير: بينما قد تكون العقود الذكية الهدف الأول لهذه الموجة من الهجمات الأوتوماتيكية، فإن برامج الملكية قد تكون الهدف التالي نظراً لتحسن الوكلاء في الهندسة العكسية.
الورقة تذكر أيضاً القراء بأن نفس وكلاء الذكاء الاصطناعي يمكن نشرهم للدفاع عن سد الثغرات. للتخفيف من التهديد النظامي المالي من الهجمات DeFi المؤتمتة بسهولة، يقترح راوسيس خطة عمل من ثلاث خطوات لصانعي السياسات والمنظمين: رقابة على الذكاء الاصطناعي، معايير تدقيق جديدة، وتنسيق عالمي.
الأسئلة الشائعة ❓
- ماذا كشفت الدراسة عن وكلاء الذكاء الاصطناعي؟ نماذج الذكاء الاصطناعي مثل GPT-5 وClaude استغلت عقودا ذكية بقيمة 4.6 مليون دولار في المحاكاة.
- لماذا يتزايد هذا الخطر في جميع أنحاء العالم؟ انخفضت تكاليف الرموز للاستغلالات بنسبة 70%، مما جعل الهجمات أرخص وأكثر توسعية عبر المناطق.
- هل يمكن أن يمتد التأثير المالي إلى ما بعد DeFi؟ يحذر الخبراء من أن الخسائر الحقيقية قد تصل إلى 50 مليون دولار–500 مليون دولار لكل استغلال، مع تعرض عالمي يصل إلى 20 مليار دولار سنوياً.
- كيف يمكن للمنظمين والمطورين الاستجابة؟ يدعو الباحثون إلى رقابة على الذكاء الاصطناعي، معايير تدقيق أقوى، وتنسيق عبر الحدود لحماية الأنظمة.









