Didukung oleh
Featured

Eksploitasi Kontrak Cerdas AI: Ahli Memperingatkan Agen Dapat Menyebabkan Kerugian Tahunan $10–20 Miliar di Sektor DeFi

Sebuah studi terbaru oleh MATS dan Anthropic Fellows mengkonfirmasi bahwa agen AI dapat dengan menguntungkan mengeksploitasi kelemahan smart contract, menetapkan “batas bawah konkret” untuk kerugian ekonomi.

DITULIS OLEH
BAGIKAN
Eksploitasi Kontrak Cerdas AI: Ahli Memperingatkan Agen Dapat Menyebabkan Kerugian Tahunan $10–20 Miliar di Sektor DeFi

Eksploitasi Baru dan Penurunan Biaya yang Mengkhawatirkan

Dorongan yang semakin cepat untuk mengotomatisasi tugas manusia dengan agen Kecerdasan Buatan (AI) kini menghadapi sisi negatif yang signifikan dan dapat diukur: agen-agen ini dapat dengan menguntungkan mengeksploitasi kelemahan smart contract. Sebuah studi penelitian terbaru oleh MATS dan Anthropic Fellows menggunakan tolok ukur Eksploitasi Smart Contracts (SCONE-bench) untuk mengukur risiko ini.

Studi ini berhasil menerapkan model seperti Claude Opus 4.5, Claude Sonnet 4.5, dan GPT-5 untuk mengembangkan eksploitasi yang disimulasikan bernilai $4,6 juta. SCONE-bench terdiri dari 405 smart contract yang sebenarnya dieksploitasi antara tahun 2020 dan 2025. Dalam laporan studi mereka pada 1 Desember, tim menyatakan bahwa keberhasilan agen-agen AI dalam mengembangkan eksploitasi yang diuji pada simulator blockchain menetapkan “batas bawah konkret untuk kerugian ekonomi yang dapat diaktifkan oleh kemampuan ini.”

Penelitian ini melangkah lebih jauh dengan menguji Sonnet 4.5 dan GPT-5 terhadap 2.849 kontrak yang baru diterapkan dengan tidak ada kelemahan yang diketahui. Agen-agen ini membuktikan bahwa mereka dapat menghasilkan eksploitasi yang menguntungkan bahkan di lingkungan baru ini: Kedua agen menemukan dua kerentanan zero-day baru dan menghasilkan eksploitasi yang bernilai $3.694. GPT-5 mencapai keberhasilan ini dengan biaya API hanya $3.476.

Baca selengkapnya: Dari DeFi ke Defcon: TRM Mengingatkan Serangan Cyber Negara-Bangsa

Hasil ini berfungsi sebagai bukti konsep untuk kelayakan teknis eksploitasi otonom di dunia nyata yang menguntungkan, menyoroti kebutuhan mendesak akan mekanisme pertahanan yang didorong oleh AI.

Mungkin temuan yang paling mengkhawatirkan adalah peningkatan efisiensi yang dramatis: seorang penyerang kini dapat mencapai sekitar 3,4 kali lebih banyak eksploitasi yang berhasil dengan anggaran komputasi yang sama dibandingkan enam bulan lalu. Lebih lanjut, biaya token untuk eksploitasi yang berhasil telah menurun drastis sebesar 70%, membuat agen-agen kuat ini menjadi jauh lebih murah untuk dijalankan.

Peran Loops Agen dan Peningkatan Model

Jean Rausis, salah satu pendiri SMARDEX, mengatributkan penurunan biaya yang tajam ini terutama pada loops agen. Loops ini memungkinkan alur kerja multi-langkah yang dapat mengoreksi diri yang mengurangi pemborosan token selama analisis kontrak. Rausis juga menyoroti peran arsitektur model yang diperbaiki:

“Jendela konteks yang lebih besar dan alat memori dalam model seperti Claude Opus 4.5 dan GPT-5 memungkinkan simulasi berkelanjutan tanpa pengulangan, mendorong efisiensi 15-100% dalam tugas panjang.”

Ia mencatat bahwa peningkatan optimasi ini melebihi peningkatan deteksi kerentanan mentah (yang hanya meningkatkan keberhasilan pada SCONE-bench dari 2% menjadi 51%), karena mereka fokus pada mengoptimalkan runtime daripada hanya menemukan kesalahan.

Sementara studi ini menetapkan biaya simulasional sebesar $4,6 juta, para ahli khawatir bahwa biaya ekonomi aktual bisa jauh lebih tinggi. Rausis memperkirakan risiko nyata bisa 10-100x lebih tinggi, berpotensi mencapai $50 juta hingga $500 juta atau lebih per eksploitasi besar. Ia memperingatkan bahwa dengan skala AI, eksposur sektor secara keseluruhan—dengan mempertimbangkan leverage yang tidak dimodelkan dan kegagalan orakel—bisa mencapai $10–20 miliar per tahun.

Makalah MATS dan Anthropic Fellows menyimpulkan dengan peringatan: sementara smart contracts mungkin menjadi target awal dari gelombang serangan otomatis ini, perangkat lunak berpemilik kemungkinan akan menjadi target berikutnya ketika agen semakin mahir dalam rekayasa balik.

Yang penting, makalah ini juga mengingatkan pembaca bahwa agen AI yang sama dapat digunakan untuk pertahanan guna menambal kerentanan. Untuk memitigasi ancaman keuangan sistemik dari serangan DeFi yang mudah diotomatiskan, Rausis mengusulkan rencana tindakan tiga langkah untuk para pembuat kebijakan dan regulator: pengawasan AI, standar audit baru, dan koordinasi global.

FAQ ❓

  • Apa yang diungkapkan oleh studi tentang agen AI? Model AI seperti GPT‑5 dan Claude mengeksploitasi smart contracts senilai $4,6 juta dalam simulasi.
  • Mengapa risiko ini meningkat di seluruh dunia? Biaya token untuk eksploitasi turun 70%, membuat serangan lebih murah dan lebih dapat diskalakan di berbagai kawasan.
  • Apakah dampak finansial bisa melampaui DeFi? Para ahli memperingatkan kerugian nyata bisa mencapai $50 juta–$500 juta per eksploitasi, dengan eksposur global hingga $20 miliar per tahun.
  • Bagaimana regulator dan pengembang dapat merespons? Peneliti mendesak pengawasan AI, standar audit yang lebih kuat, dan koordinasi lintas batas untuk mempertahankan sistem.