За підтримки
Interview

AI-агенти в DeFi: Користувацький контроль має бути «необговорюваним», попереджає CEO

Ця стаття була опублікована понад рік тому. Деяка інформація може бути неактуальною.

Ренч Корзай, генеральний директор Giza, наголошує, що етичні міркування у розробці AI агентів мають бути “архітектурно забезпеченими”. Він виступає за вбудований контроль користувача та “безпеку за дизайном”, щоб мінімізувати регуляторні обтяження.

АВТОР
ПОДІЛИТИСЯ
AI-агенти в DeFi: Користувацький контроль має бути «необговорюваним», попереджає CEO

‘Архітектурно Забезпечена’ Безпека Користувача

Швидкий прогрес у галузі штучного інтелекту призвів до створення все більш складних AI агентів, здатних виконувати складні завдання в різних секторах. Однак, коли ці агенти стають потужнішими та автономнішими, з’являються занепокоєння щодо етичних міркувань та потенційних ризиків.

Щоб вирішити ці питання, Ренч Корзай, генеральний директор Giza та ветеран індустрії, виступає за пріоритизацію безпеки та суверенітету користувача, які, за його словами, мають бути “недискутованими” та “архітектурно забезпеченими”. Корзай стверджує, що етичні інструкції повинні перетворюватися в конкретні інженерні вимоги, які формують кожен аспект дизайну AI агентів.

У письмових відповідях на запитання від Bitcoin.com News, Корзай також підкреслив необхідність повного контролю користувача. Цей контроль, додав він, повинен бути вбудований в архітектуру агента, забезпечуючи збереження користувачами повного нагляду та авторитету. На відміну від систем, які покладаються на делегований контроль, етичні AI агенти повинні працювати за допомогою дозволів, які можна миттєво відкликати, сказав Корзай.

Для генерального директора Giza, головне послання є чітким: Етичні міркування повинні бути вбудовані у фундаментальну архітектуру AI систем, а не додаватися як додумка.

“У DeFi, де на кону стоять фінансові активи користувачів, етичні міркування повинні бути вбудовані у фундаментальну архітектуру AI систем, а не додаватися як додумка,” сказав Корзай.

Ця “безпечність-перш” ментальність є важливою для побудови довіри та забезпечення відповідального розвитку AI агентів. Звертаючись до ринків децентралізованих фінансів (DeFi), які стають більш складними, Корзай виявив, що тепер можливо розгортати AI агентів для оптимізації позицій користувачів на провідних протоколах і виконувати складні стратегії, зберігаючи при цьому повний контроль над коштами.

‘Ксенокогнітивні’ Фінанси

Тим часом генеральний директор стверджує, що ефективний захист користувачів у DeFi походить від потужного дизайну продукту, а не виключно від зовнішнього регулювання. Цей підхід “безпеки за дизайном”, за його словами, прагне створити екосистему, де безпека є “вродженою”, що зменшує потребу в жорсткому регулюванні.

Корзай вважає, що створення систем, які є по суті безпечними, узгоджує інтереси зацікавлених сторін і проактивно взаємодіє з регуляторами для формування майбутніх політик. Фокус полягає в створенні вартості через добре спроектовані продукти, роблячи комплаєнс натуралізованим результатом, а не перешкодою для інновацій.

Дивлячись у майбутнє, Корзай сказав, що очікує домінування “Ксенокогнітивних Фінансів” до 2030 року, з виходом AI агентів як основного ринкового інтерфейсу, що перевищує людські пізнавальні межі. У той час люди ставитимуть стратегічні цілі, а AI агенти будуть займатися виконанням.

“Крива адаптації не буде лінійною – вона буде експоненціальною. Коли ці агенти демонструватимуть свою здатність постійно перевершувати ручні операції, зберігаючи при цьому гарантії безпеки, вони стануть стандартним способом взаємодії з фінансовими ринками,” додав генеральний директор.