При поддержке
Interview

Агенты ИИ в DeFi: Контроль пользователя должен быть «неподлежащим обсуждению», предупреждает CEO

Эта статья была опубликована более года назад. Некоторая информация может быть неактуальной.

Ренч Корзай, генеральный директор Giza, подчеркивает, что этические соображения в разработке ИИ-агентов должны быть “архитектурно обеспечены”. Он выступает за встроенный пользовательский контроль и “безопасность по замыслу”, чтобы минимизировать регуляторные нагрузки.

АВТОР
ПОДЕЛИТЬСЯ
Агенты ИИ в DeFi: Контроль пользователя должен быть «неподлежащим обсуждению», предупреждает CEO

‘Архитектурно Обеспеченная’ Пользовательская Безопасность

Быстрое развитие искусственного интеллекта привело к созданию все более сложных ИИ-агентов, способных выполнять комплексные задачи в различных секторах. Однако, по мере того, как эти агенты становятся более мощными и автономными, возникают опасения по поводу этических соображений и потенциальных рисков.

Чтобы устранить эти опасения, Ренч Корзай, генеральный директор Giza и ветеран индустрии, выступает за приоритет пользовательской безопасности и суверенитета, который, как он сказал, должен быть “неоспоримым” и “архитектурно обеспеченным”. Корзай утверждает, что этические нормы должны превращаться в конкретные инженерные требования, формирующие каждый аспект проектирования ИИ-агента.

В письменных ответах на вопросы от Bitcoin.com News Корзай также подчеркнул необходимость полного пользовательского контроля. Этот контроль, добавил он, должен быть встроен в архитектуру агента, гарантируя, что пользователи сохраняют полный надзор и полномочия. В отличие от систем, которые полагаются на делегированный контроль, этические ИИ-агенты должны функционировать через разрешительные рамки, которые можно мгновенно отозвать, сказал Корзай.

Для генерального директора Giza главное послание ясно: этические соображения должны быть встроены в основную архитектуру ИИ-систем, а не добавляться как второстепенное дополнение.

“В DeFi, где на кону стоят финансовые активы пользователей, этические соображения должны быть встроены в основную архитектуру ИИ-систем, а не добавляться как второстепенное дополнение,” сказал Корзай.

Эта ментальность “безопасность прежде всего” является ключом к построению доверия и обеспечению ответственного развития ИИ-агентов. Обращаясь к рынкам децентрализованных финансов (DeFi), которые стали более сложными, Корзай отметил, что теперь возможно развернуть ИИ-агентов для оптимизации позиций пользователей на ведущих протоколах и выполнения сложных стратегий, при полном контроле пользователей за средствами.

‘Ксенокогнитивные’ Финансы

Между тем, генеральный директор утверждает, что эффективная защита пользователей в DeFi исходит из прочного дизайна продукта, а не только из внешнего регулирования. Этот подход “безопасность по замыслу”, по его словам, стремится создать экосистему, в которой безопасность является “внутренней”, что минимизирует необходимость в жестком регулировании.

Корзай утверждает, что создание изначально безопасных систем выравнивает интересы участников и активно взаимодействует с регуляторами для формирования будущих политик. Фокус на создании ценности через хорошо разработанные продукты делает соответствие естественным результатом, а не барьером, препятствующим инновациям.

Смотря в будущее, Корзай сказал, что предсказывает доминирование “Ксенокогнитивных Финансов” к 2030 году, когда ИИ-агенты будут становиться основным интерфейсом рынка, превышая человеческие когнитивные пределы. В то время как люди будут устанавливать стратегические цели, ИИ-агенты будут заниматься их выполнением.

“Кривая принятия не будет линейной – она будет экспоненциальной. По мере того как эти агенты демонстрируют свою способность постоянно превосходить ручные операции, сохраняя гарантии безопасности, они станут стандартным способом взаимодействия с финансовыми рынками,” добавил генеральный директор.