การศึกษาล่าสุดโดย MATS และ Anthropic Fellows ยืนยันว่าเอเจนต์ AI สามารถใช้ประโยชน์จากช่องโหว่ของสมาร์ทคอนแทรกต์เพื่อให้เกิดผลทางเศรษฐกิจที่เป็นอันตราย
AI Smart Contract Exploits: ผู้เชี่ยวชาญเตือนว่าปัญญาประดิษฐ์อาจก่อให้เกิดการสูญเสียรายปีในภาค DeFi มูลค่า $10–20B

การโจมตีรูปแบบใหม่และการลดต้นทุนที่น่าตกใจ
การผลักดันให้ AI ทำหน้าที่อัตโนมัติของมนุษย์กำลังเผชิญกับด้านเสียที่มีตัววัดได้: เอเจนต์ AI สามารถใช้ประโยชน์จากช่องโหว่ของสมาร์ทคอนแทรกต์ได้อย่างมีประสิทธิภาพ การศึกษา วิจัยล่าสุด โดย MATS และ Anthropic Fellows ได้ใช้ตัวชี้วัด Smart CONtracts Exploitation (SCONE-bench) เพื่อวัดความเสี่ยงนี้
การศึกษาสามารถใช้โมเดลอย่าง Claude Opus 4.5, Claude Sonnet 4.5, และ GPT-5 เพื่อพัฒนาการโจมตีที่จำลองว่าเป็นมูลค่า $4.6 ล้าน SCONE-bench ประกอบด้วยสมาร์ทคอนแทรกต์ทั้งหมด 405 ฉบับที่เคยถูกโจมตีระหว่างปี 2020 ถึง 2025 ในรายงานการศึกษาวันที่ 1 ธันวาคม ทีมงานกล่าวว่าความสำเร็จของเอเจนต์ AI ในการพัฒนาการโจมตีที่ทดสอบบนโปรแกรมจำลองบล็อกเชนให้ “ฐานล่างที่เป็นรูปธรรมสำหรับอันตรายทางเศรษฐกิจที่ความสามารถนี้สามารถทำให้เกิด”
การศึกษานี้ยังทำการทดสอบ Sonnet 4.5 และ GPT-5 กับสัญญาที่พึ่งเปิดใช้ใหม่จำนวน 2,849 รายการที่ไม่มีช่องโหว่ที่รู้จัก ทั้งสองเอเจนต์แสดงให้เห็นว่าสามารถสร้างการโจมตีที่มีกำไรได้แม้ในสภาพแวดล้อมใหม่นี้: เอเจนต์ทั้งสองตรวจพบช่องโหว่ zero-day สองรายการใหม่และสร้างการโจมตีที่มีมูลค่า $3,694 GPT-5 ได้ความสำเร็จนี้ด้วยค่าใช้จ่าย API เพียง $3,476
อ่านเพิ่มเติม: จาก DeFi ถึง Defcon: TRM เตือนการโจมตีไซเบอร์โดยรัฐชาติ
ผลลัพธ์นี้แสดงให้เห็นถึงความสามารถทางเทคนิคในการใช้ประโยชน์จากช่องโหว่อย่างอัตโนมัติในโลกจริง ๆ และเน้นความจำเป็นในการป้องกัน AI อย่างรอบคอบ
สิ่งที่น่าตกใจที่สุดคือความเพิ่มขึ้นในประสิทธิภาพ: ผู้โจมตีสามารถประสบความสำเร็จในการโจมตีได้ประมาณ 3.4 เท่าในงบประมาณการคำนวณเดียวกันเมื่อหกเดือนที่แล้ว นอกจากนี้ค่าใช้จ่ายของโทเค็นสำหรับการโจมตีที่สำเร็จลดลง 70% ทำให้เอเจนต์ที่ทรงพลังเหล่านี้ถูกลงอย่างมาก
บทบาทของ Agentic Loops และการปรับปรุงโมเดล
Jean Rausis ผู้ร่วมก่อตั้งที่ SMARDEX อ้างถึงการลดต้นทุนอย่างรวดเร็วให้กับ agentic loops ซึ่งช่วยให้เวิร์กโฟลว์หลายขั้นตอนที่แก้ไขตัวเองเพื่อลดการสูญเสียโทเค็นระหว่างการวิเคราะห์สัญญา Rausis ยังชี้ให้เห็นบทบาทของการปรับปรุงโครงสร้างโมเดล:
“หน้าต่างบริบทที่ใหญ่ขึ้นและเครื่องมือหน่วยความจำในโมเดลอย่าง Claude Opus 4.5 และ GPT-5 ช่วยให้สามารถจำลองโดยไม่ซ้ำซ้อน เพิ่มประสิทธิภาพ 15-100% ในงานที่ใช้เวลานาน”
เขาระบุว่าการปรับปรุงที่ได้รับนี้มีความก้าวหน้ามากกว่าการปรับปรุงการตรวจพบช่องโหว่ธรรมดา (ซึ่งเพิ่มความสำเร็จใน SCONE-bench จาก 2% เป็น 51%) เนื่องจากเน้นที่การเพิ่มประสิทธิภาพเวลาทำงานแทนที่จะเพียงแค่ตรวจพบข้อบกพร่อง
แม้จะกำหนดต้นทุนจำลองไว้ที่ $4.6 ล้าน แต่ผู้เชี่ยวชาญกลัวว่าต้นทุนทางเศรษฐกิจที่แท้จริงอาจสูงมาก Rausis คาดการณ์ว่าความเสี่ยงที่แท้จริงอาจสูงกว่า 10-100 เท่า อาจถึง $50 ล้านถึง $500 ล้านหรือมากกว่าต่อการโจมตีหลัก เขาเตือนว่าเมื่อ AI ขยายตัว การเปิดเผยทั้งภาคส่วน—รวมถึงการเสี่ยงในรูปแบบและความล้มเหลวของออราเคิลที่ไม่ได้จำลอง—อาจสูงถึง $10-$20 พันล้านต่อปี
กระดาษของ MATS และ Anthropic Fellows สรุปด้วยคำเตือน: แม้ว่าสมาร์ทคอนแทรกต์อาจเป็นเป้าหมายแรกของการโจมตีอัตโนมัตินี้ ซอฟต์แวร์ที่เป็นกรรมสิทธิ์อาจเป็นเป้าหมายถัดไปเมื่อเอเจนต์พัฒนาความสามารถในวิศวกรรมย้อนกลับ
สิ่งสำคัญคือเอกสารยังเตือนผู้อ่านว่าเอเจนต์ AI เหล่านี้สามารถนำมาใช้ในการป้องกันเพื่อแก้ช่องโหว่ได้ เพื่อบรรเทาภัยคุกคามทางการเงินจากการโจมตี DeFi ที่ทำให้อัตโนมัติได้ง่าย Rausis เสนอแผนการดำเนินการสามขั้นสำหรับนโยบายและหน่วยงานกำกับดูแล: การกำกับดูแล AI, มาตรฐานการตรวจสอบใหม่, และการประสานงานระดับโลก
FAQ ❓
- การศึกษานี้เผยอะไรเกี่ยวกับเอเจนต์ AI? โมเดล AI อย่าง GPT‑5 และ Claude ใช้ประโยชน์จากสมาร์ทคอนแทรกต์มูลค่า $4.6 ล้านในการจำลอง
- ทำไมความเสี่ยงนี้ถึงเพิ่มขึ้นทั่วโลก? ค่าใช้จ่ายโทเค็นสำหรับการโจมตีลดลง 70% ทำให้การโจมตีมีต้นทุนถูกและสามารถเพิ่มขนาดได้ผ่านภูมิภาคต่างๆ
- ผลกระทบทางการเงินจะขยายไปยังนอกเหนือจาก DeFi ไหม? ผู้เชี่ยวชาญเตือนว่าความสูญเสียที่แท้จริงอาจถึง $50M–$500M ต่อการโจมตี โดยการเปิดเผยระดับโลกอาจถึง $20B ต่อปี
- หน่วยงานกำกับดูแลและนักพัฒนาสามารถตอบสนองได้อย่างไร? นักวิจัยเรียกร้องการกำกับดูแล AI มาตรฐานการตรวจสอบที่เข้มงวดขึ้น และการประสานงานข้ามพรมแดนเพื่อป้องกันระบบ















