Một nghiên cứu gần đây của MATS và Anthropic Fellows xác nhận rằng các tác nhân AI có thể khai thác lỗ hổng hợp đồng thông minh một cách có lợi nhuận, thiết lập “ngưỡng thiệt hại kinh tế thấp hơn cụ thể”.
Khai thác Hợp đồng Thông minh AI: Chuyên gia Cảnh báo Các Tác nhân Có thể Gây Mất Mát 10–20 tỷ USD Hàng năm trong Lĩnh vực DeFi

Khai thác mới và Giảm chi phí đáng báo động
Sự thúc đẩy tăng tốc để tự động hóa nhiệm vụ của con người bằng các tác nhân Trí tuệ Nhân tạo (AI) hiện đối mặt với một nhược điểm lớn có thể đo lường: các tác nhân này có thể khai thác lỗ hổng hợp đồng thông minh một cách có lợi nhuận. Một nghiên cứu gần đây của MATS và Anthropic Fellows đã sử dụng tiêu chuẩn đo lường Khai thác Hợp đồng thông minh (SCONE-bench) để đánh giá rủi ro này.
Nghiên cứu đã triển khai thành công các mô hình như Claude Opus 4.5, Claude Sonnet 4.5, và GPT-5 để phát triển các khai thác được mô phỏng có giá trị $4.6 triệu. SCONE-bench bao gồm 405 hợp đồng thông minh đã thực sự bị khai thác từ năm 2020 đến 2025. Trong báo cáo nghiên cứu ngày 1 tháng 12, đội ngũ nghiên cứu đã tuyên bố rằng thành công của các tác nhân AI trong việc phát triển các khai thác được kiểm tra trên trình giả lập blockchain thiết lập “ngưỡng thiệt hại kinh tế thấp hơn cụ thể mà các khả năng này có thể gây ra.”
Nghiên cứu này đã đi xa hơn bằng cách kiểm tra Sonnet 4.5 và GPT-5 với 2,849 hợp đồng mới được triển khai mà không có lỗ hổng đã biết. Các tác nhân đã chứng minh rằng họ có thể tạo ra các khai thác có lợi nhuận ngay cả trong môi trường mới này: Cả hai tác nhân đều phát hiện ra hai lỗ hổng zero-day mới và tạo ra các khai thác có giá trị $3,694. GPT-5 đã đạt được thành công này với chi phí API chỉ $3,476.
Đọc thêm: Từ DeFi đến Defcon: TRM Cảnh Báo về Cuộc Tấn Công Mạng Của Quốc Gia
Kết quả này cống hiến như một bằng chứng về tính khả thi kỹ thuật của việc khai thác tự động, có lợi nhuận trong thực tế, nhấn mạnh nhu cầu cấp thiết về các cơ chế phòng thủ được điều khiển bởi AI.
Có lẽ phát hiện đáng báo động nhất là sự gia tăng mạnh mẽ về hiệu quả: một kẻ tấn công giờ đây có thể đạt được khoảng 3,4 lần nhiều khai thác thành công hơn cho cùng một ngân sách máy tính như sáu tháng trước. Hơn nữa, chi phí token cho các khai thác thành công đã giảm tới 70%, làm cho các tác nhân mạnh mẽ này trở nên rẻ hơn nhiều để vận hành.
Vai Trò của Các Vòng Lặp Tác Nhân và Cải Tiến Mô Hình
Jean Rausis, đồng sáng lập tại SMARDEX, cho rằng sự suy giảm chi phí mạnh mẽ này chủ yếu do các vòng lặp tác nhân. Những vòng lặp này cho phép các quy trình công việc nhiều bước, tự điều chỉnh mà cắt giảm lãng phí token trong quá trình phân tích hợp đồng. Rausis cũng nhấn mạnh vai trò của kiến trúc mô hình cải tiến:
“Các cửa sổ ngữ cảnh lớn hơn và công cụ trí nhớ trong các mô hình như Claude Opus 4.5 và GPT-5 cho phép các mô phỏng được duy trì mà không lặp lại, tăng cường hiệu quả từ 15-100% trong các nhiệm vụ dài hạn.”
Anh ấy lưu ý rằng những cải tiến tối ưu hóa này vượt qua cải tiến phát hiện lỗ hổng thô (chỉ tăng khả năng thành công trên SCONE-bench từ 2% lên 51%), vì họ tập trung vào việc tối ưu hóa thời gian chạy hơn là chỉ phát hiện lỗ hổng.
Trong khi nghiên cứu thiết lập một chi phí mô phỏng là $4.6 triệu, các chuyên gia lo ngại rằng chi phí kinh tế thực tế có thể cao hơn đáng kể. Rausis ước tính rằng rủi ro thực tế có thể cao hơn từ 10-100 lần, có khả năng đạt tới $50 triệu đến $500 triệu hoặc hơn cho mỗi khai thác lớn. Anh ấy cảnh báo rằng với việc AI mở rộng, tổng quy mô tiếp xúc của toàn ngành — tính toán đòn bẩy không được mô hình hóa và thất bại của oracle — có thể đạt tới $10–20 tỷ hàng năm.
Bài báo của MATS và Anthropic Fellows kết luận với một cảnh báo: trong khi hợp đồng thông minh có thể là mục tiêu ban đầu của làn sóng tấn công tự động này, phần mềm sở hữu có khả năng là mục tiêu tiếp theo khi các tác nhân ngày càng giỏi trong việc kỹ thuật đảo ngược.
Quan trọng hơn, bài báo cũng nhắc nhở người đọc rằng các tác nhân AI tương tự có thể được triển khai cho việc phòng thủ để vá lỗ hổng. Để giảm thiểu mối đe dọa tài chính hệ thống từ các cuộc tấn công DeFi dễ tự động hóa, Rausis đề xuất một kế hoạch hành động ba bước cho các nhà hoạch định chính sách và kiểm soát viên: giám sát AI, tiêu chuẩn kiểm toán mới và sự phối hợp toàn cầu.
FAQ ❓
- Nghiên cứu đã tiết lộ gì về các tác nhân AI? Các mô hình AI như GPT‑5 và Claude đã khai thác các hợp đồng thông minh trị giá $4.6M trong các mô phỏng.
- Tại sao rủi ro này lại leo thang trên toàn cầu? Chi phí token cho các khai thác giảm 70%, làm cho các cuộc tấn công trở nên rẻ hơn và có thể mở rộng hơn trên các khu vực.
- Phải chăng tác động tài chính có thể mở rộng ra ngoài DeFi? Các chuyên gia cảnh báo rằng tổn thất thực tế có thể lên tới $50M–$500M cho mỗi khai thác, với mức độ phơi nhiễm toàn cầu có thể lên đến $20B hàng năm.
- Làm thế nào mà các nhà kiểm tra và nhà phát triển có thể phản ứng? Các nhà nghiên cứu khuyến nghị giám sát AI, tiêu chuẩn kiểm toán mạnh mẽ hơn và sự phối hợp xuyên quốc gia để bảo vệ hệ thống.









