Dikuasakan oleh
Featured

Eksploitasi Kontrak Pintar AI: Pakar Amaran Ejen Boleh Menyebabkan Kerugian Tahunan $10–20B dalam Sektor DeFi

Satu kajian terbaru oleh MATS dan Anthropic Fellows mengesahkan bahawa agen AI boleh mengeksploitasi kelemahan kontrak pintar secara menguntungkan, mewujudkan “batas bawah konkrit” untuk kerugian ekonomi.

DITULIS OLEH
KONGSI
Eksploitasi Kontrak Pintar AI: Pakar Amaran Ejen Boleh Menyebabkan Kerugian Tahunan $10–20B dalam Sektor DeFi

Eksploitasi Baharu dan Penurunan Kos yang Membimbangkan

Dorongan untuk mengautomatikkan tugas manusia dengan agen Kecerdasan Buatan (AI) kini menghadapi kelemahan ketara yang boleh diukur: agen ini dapat mengeksploitasi kelemahan kontrak pintar secara menguntungkan. Satu kajian penyelidikan oleh MATS dan Anthropic Fellows menggunakan penanda aras Eksploitasi Kontrak Pintar (SCONE-bench) untuk mengukur risiko ini.

Kajian ini berjaya menggunakan model seperti Claude Opus 4.5, Claude Sonnet 4.5, dan GPT-5 untuk membangun eksploitasi yang disimulasikan bernilai $4.6 juta. SCONE-bench terdiri daripada 405 kontrak pintar yang sebenarnya dieksploitasi antara 2020 dan 2025. Dalam laporan kajian 1 Disember mereka, pasukan itu menyatakan bahawa kejayaan agen AI dalam membangun eksploitasi yang diuji pada simulator blockchain menubuhkan “batas bawah konkrit untuk bahaya ekonomi yang boleh didayakan oleh keupayaan ini.”

Penyelidikan bergerak lebih jauh dengan menguji Sonnet 4.5 dan GPT-5 terhadap 2,849 kontrak yang baru diterapkan tanpa kelemahan yang diketahui. Agen tersebut membuktikan mereka dapat menghasilkan eksploitasi yang menguntungkan walaupun dalam persekitaran baru ini: Kedua-dua agen itu menemui dua kelemahan baru sifar hari dan menghasilkan eksploitasi bernilai $3,694. GPT-5 mencapai kejayaan ini dengan kos API hanya $3,476.

Baca lebih lanjut: Dari DeFi ke Defcon: TRM Mengingatkan Serangan Siber Negara-Negara

Hasil ini berfungsi sebagai bukti kemampuan teknikal eksploitasi autonomi yang menguntungkan di dunia sebenar, menekankan keperluan segera untuk mekanisme pertahanan didorong AI yang proaktif.

Mungkin yang paling membimbangkan adalah peningkatan dramatik dalam kecekapan: seorang penyerang kini boleh mencapai kira-kira 3.4 kali lebih banyak eksploitasi yang berjaya dengan bajet komputasi yang sama seperti enam bulan lalu. Selanjutnya, kos token untuk eksploitasi yang berjaya telah menurun sebanyak 70%, menjadikan agen yang kuat ini lebih murah untuk dijalankan.

Peranan Gelungan Agen dan Peningkatan Model

Jean Rausis, pengasas bersama di SMARDEX, mengaitkan penurunan kos tajam ini terutamanya kepada gelungan agen. Gelungan ini membolehkan aliran kerja pelbagai langkah, pembetulan diri yang mengurangkan pembaziran token semasa analisis kontrak. Rausis juga menyoroti peranan reka bentuk model yang ditingkatkan:

“Tingkap konteks yang lebih besar dan alat memori dalam model seperti Claude Opus 4.5 dan GPT-5 membolehkan simulasi berterusan tanpa pengulangan, meningkatkan kecekapan 15-100% dalam tugas yang panjang.”

Beliau menyatakan bahawa keuntungan pengoptimuman ini melebihi peningkatan pengesanan kelemahan mentah (yang hanya meningkatkan kejayaan pada SCONE-bench dari 2% kepada 51%), kerana fokus mereka adalah pada pengoptimuman masa jalan daripada hanya mengesan kelemahan.

Walaupun kajian ini menubuhkan kos simulasi $4.6 juta, para pakar bimbang kos ekonomi sebenar boleh menjadi jauh lebih tinggi. Rausis menganggarkan risiko sebenar boleh 10-100x lebih tinggi, berpotensi mencapai $50 juta hingga $500 juta atau lebih bagi setiap eksploitasi besar. Beliau memberi amaran bahawa dengan penskalaan AI, pendedahan keseluruhan sektor—yang memperhitungkan leverage yang tidak dimodelkan dan kegagalan oracle—boleh mencapai $10–20 bilion setiap tahun.

Kertas kerja MATS dan Anthropic Fellows mengakhiri dengan amaran: walaupun kontrak pintar mungkin menjadi sasaran awal gelombang serangan automatik ini, perisian proprietari mungkin menjadi sasaran seterusnya kerana agen semakin baik dalam kejuruteraan terbalik.

Yang penting, kertas kerja ini juga mengingatkan pembaca bahawa agen AI yang sama boleh digunakan untuk pertahanan untuk menutup kelemahan. Untuk mengurangkan ancaman kewangan sistemik dari serangan DeFi yang mudah diautomatikkan, Rausis mencadangkan rancangan tindakan tiga langkah untuk pembuat dasar dan pengawal selia: Pengawasan AI, standard audit baru, dan koordinasi global.

FAQ ❓

  • Apa yang kajian ini dedahkan tentang agen AI? Model AI seperti GPT‑5 dan Claude mengeksploitasi kontrak pintar bernilai $4.6 juta dalam simulasi.
  • Mengapa risiko ini semakin meningkat di seluruh dunia? Kos token untuk eksploitasi jatuh 70%, menjadikan serangan lebih murah dan lebih meluas di seluruh wilayah.
  • Bolehkah kesan kewangan melampaui DeFi? Pakar memberi amaran bahawa kerugian sebenar boleh mencapai $50 juta–$500 juta setiap eksploitasi, dengan pendedahan global sehingga $20 bilion setiap tahun.
  • Bagaimana pengawal selia dan pembangun boleh bertindak balas? Penyelidik menggesa pengawasan AI, standard audit yang lebih ketat, dan koordinasi merentas sempadan untuk mempertahankan sistem.