技术支持
Interview

DeFi中的AI代理:用户控制必须是“不可谈判的”,CEO警告

本文发布于一年多前。部分信息可能已不是最新的。

Giza 的首席执行官 Renç Korzay 强调,在 AI 代理开发中,伦理考量必须“从架构上得到强制执行。” 他主张内置用户控制和“设计上的安全性”,以尽量减少监管负担。

分享
DeFi中的AI代理:用户控制必须是“不可谈判的”,CEO警告

‘从架构上得到强制执行’的用户安全

人工智能的快速进步导致开发出越来越复杂的 AI 代理,能够在各个领域执行复杂任务。然而,随着这些代理变得越来越强大和自主,有关伦理考量和潜在风险的担忧也随之出现。

为了解决这些担忧,Giza 的首席执行官 Renç Korzay 及行业资深人士主张优先考虑用户安全和主权,他说这些必须是“不可谈判的”和“从架构上得到强制执行的”。Korzay 认为,伦理指导方针应该转化为具体的工程要求,从而影响 AI 代理设计的各个方面。

在回应 Bitcoin.com News 的书面问答中,Korzay 还强调了完全用户控制的必要性。他补充说,这种控制应该嵌入到代理的架构中,确保用户保持全面的监督和权限。与依赖于委托控制的系统不同,伦理 AI 代理应通过可以立即撤销的许可框架运行,Korzay 说道。

对于 Giza 的 CEO 来说,核心信息很明确:伦理考量必须内建于 AI 系统的基础架构中,而不是事后补充的。

“在用户的金融资产受到威胁的 DeFi 中,伦理考量必须内建于 AI 系统的基础架构中,而不是事后补充的,”Korzay 说道。

这种“安全优先”的思维方式对于建立信任和确保 AI 代理的负责任开发至关重要。转向已经变得更复杂的去中心化金融(DeFi)市场,Korzay 透露,现在可以部署 AI 代理,帮助用户在领先的协议中优化位置并执行复杂的策略,同时用户保持对资金的完全控制。

‘异认识’金融

与此同时,CEO 认为,在 DeFi 中有效的用户保护来源于健全的产品设计,而不仅仅是外部监管。他说,这种“设计上的安全性”方法旨在创建一个安全性“内在”的生态系统,从而最大限度减少对严厉监管的需求。

Korzay 断言,构建固有安全的系统能够对齐利益相关者的利益,并主动与监管者合作制定未来的政策。重点是通过良好的产品设计创造价值,使合规成为自然结果,而不是阻碍创新的障碍。

展望未来,Korzay 表示,他预计到 2030 年“异认识金融”将占主导地位,AI 代理将成为主要的市场接口,超越人类的认知极限。届时,人类将设定战略目标,而 AI 代理将负责执行。

“采用曲线不会是线性的——而是呈指数增长。当这些代理展示出在保持安全保障的同时持续超越手动操作的能力时,它们将成为与金融市场互动的默认方式,”CEO 补充道。