Oferecido por
Interview

Agentes de IA em DeFi: Controle do Usuário Deve Ser ‘Inegociável,' Alerta CEO

Este artigo foi publicado há mais de um ano. Algumas informações podem não ser mais atuais.

Renç Korzay, CEO da Giza, enfatiza que considerações éticas no desenvolvimento de agentes de IA devem ser “reforçadas arquitetonicamente.” Ele defende o controle embutido do usuário e “segurança por design” para minimizar os encargos regulatórios.

ESCRITO POR
PARTILHAR
Agentes de IA em DeFi: Controle do Usuário Deve Ser ‘Inegociável,' Alerta CEO

Segurança do Usuário ‘Reforçada Arquitetonicamente’

O rápido avanço da inteligência artificial levou ao desenvolvimento de agentes de IA cada vez mais sofisticados, capazes de realizar tarefas complexas em diversos setores. No entanto, à medida que esses agentes se tornam mais poderosos e autônomos, surgem preocupações sobre considerações éticas e riscos potenciais.

Para abordar essas preocupações, Renç Korzay, CEO da Giza e um veterano da indústria, defende a priorização da segurança e soberania do usuário, o que ele disse ser “inegociável” e “reforçado arquitetonicamente.” Korzay argumenta que diretrizes éticas devem se traduzir em requisitos de engenharia concretos, moldando todos os aspectos do design dos agentes de IA.

Em respostas escritas a perguntas do Bitcoin.com News, Korzay também destacou a necessidade de controle total do usuário. Esse controle, ele acrescentou, deve estar embutido na arquitetura do agente, garantindo que os usuários mantenham total supervisão e autoridade. Ao contrário de sistemas que dependem de controle delegado, agentes de IA éticos devem operar através de quadros de permissão que podem ser revogados instantaneamente, disse Korzay.

Para o CEO da Giza, a mensagem central é clara: Considerações éticas devem ser incorporadas à arquitetura fundamental dos sistemas de IA, não adicionadas como um pensamento posterior.

“No DeFi, onde ativos financeiros dos usuários estão em jogo, considerações éticas devem ser incorporadas à arquitetura fundamental dos sistemas de IA, não adicionadas como um pensamento posterior,” disse Korzay.

Essa mentalidade “primeiro a segurança” é essencial para construir confiança e garantir o desenvolvimento responsável de agentes de IA. Voltando-se para os mercados de finanças descentralizadas (DeFi), que se tornaram mais complexos, Korzay revelou que agora é possível implantar agentes de IA para otimizar as posições dos usuários em protocolos líderes e executar estratégias sofisticadas enquanto os usuários mantêm controle total dos fundos.

Finanças ‘Xenocognitivas’

Enquanto isso, o CEO argumenta que a proteção efetiva do usuário no DeFi vem de um design de produto robusto, não apenas da regulamentação externa. Essa abordagem “segurança por design”, ele disse, busca criar um ecossistema onde a segurança é “intrínseca”, o que minimiza a necessidade de regulamentação pesada.

Korzay afirma que construir sistemas inerentemente seguros alinha os interesses das partes interessadas e engaja proativamente com reguladores para moldar políticas futuras. O foco está em criar valor por meio de produtos bem projetados, tornando a conformidade um resultado natural em vez de um obstáculo sufocante à inovação.

Olhando para o futuro, Korzay disse prever que as “Finanças Xenocognitivas” dominarão até 2030, com agentes de IA emergindo como a principal interface de mercado, ultrapassando os limites cognitivos humanos. Naquela época, humanos definirão metas estratégicas enquanto agentes de IA lidarão com a execução.

“A curva de adoção não será linear – será exponencial. À medida que esses agentes demonstrarem sua capacidade de superar consistentemente operações manuais enquanto mantêm garantias de segurança, eles se tornarão o modo padrão de interagir com os mercados financeiros,” acrescentou o CEO.