Renç Korzay, CEO da Giza, enfatiza que considerações éticas no desenvolvimento de agentes de IA devem ser “reforçadas arquitetonicamente.” Ele defende o controle embutido do usuário e “segurança por design” para minimizar os encargos regulatórios.
Agentes de IA em DeFi: Controle do Usuário Deve Ser ‘Inegociável,' Alerta CEO
Este artigo foi publicado há mais de um ano. Algumas informações podem não ser mais atuais.

Segurança do Usuário ‘Reforçada Arquitetonicamente’
O rápido avanço da inteligência artificial levou ao desenvolvimento de agentes de IA cada vez mais sofisticados, capazes de realizar tarefas complexas em diversos setores. No entanto, à medida que esses agentes se tornam mais poderosos e autônomos, surgem preocupações sobre considerações éticas e riscos potenciais.
Para abordar essas preocupações, Renç Korzay, CEO da Giza e um veterano da indústria, defende a priorização da segurança e soberania do usuário, o que ele disse ser “inegociável” e “reforçado arquitetonicamente.” Korzay argumenta que diretrizes éticas devem se traduzir em requisitos de engenharia concretos, moldando todos os aspectos do design dos agentes de IA.
Em respostas escritas a perguntas do Bitcoin.com News, Korzay também destacou a necessidade de controle total do usuário. Esse controle, ele acrescentou, deve estar embutido na arquitetura do agente, garantindo que os usuários mantenham total supervisão e autoridade. Ao contrário de sistemas que dependem de controle delegado, agentes de IA éticos devem operar através de quadros de permissão que podem ser revogados instantaneamente, disse Korzay.
Para o CEO da Giza, a mensagem central é clara: Considerações éticas devem ser incorporadas à arquitetura fundamental dos sistemas de IA, não adicionadas como um pensamento posterior.
“No DeFi, onde ativos financeiros dos usuários estão em jogo, considerações éticas devem ser incorporadas à arquitetura fundamental dos sistemas de IA, não adicionadas como um pensamento posterior,” disse Korzay.
Essa mentalidade “primeiro a segurança” é essencial para construir confiança e garantir o desenvolvimento responsável de agentes de IA. Voltando-se para os mercados de finanças descentralizadas (DeFi), que se tornaram mais complexos, Korzay revelou que agora é possível implantar agentes de IA para otimizar as posições dos usuários em protocolos líderes e executar estratégias sofisticadas enquanto os usuários mantêm controle total dos fundos.
Finanças ‘Xenocognitivas’
Enquanto isso, o CEO argumenta que a proteção efetiva do usuário no DeFi vem de um design de produto robusto, não apenas da regulamentação externa. Essa abordagem “segurança por design”, ele disse, busca criar um ecossistema onde a segurança é “intrínseca”, o que minimiza a necessidade de regulamentação pesada.
Korzay afirma que construir sistemas inerentemente seguros alinha os interesses das partes interessadas e engaja proativamente com reguladores para moldar políticas futuras. O foco está em criar valor por meio de produtos bem projetados, tornando a conformidade um resultado natural em vez de um obstáculo sufocante à inovação.
Olhando para o futuro, Korzay disse prever que as “Finanças Xenocognitivas” dominarão até 2030, com agentes de IA emergindo como a principal interface de mercado, ultrapassando os limites cognitivos humanos. Naquela época, humanos definirão metas estratégicas enquanto agentes de IA lidarão com a execução.
“A curva de adoção não será linear – será exponencial. À medida que esses agentes demonstrarem sua capacidade de superar consistentemente operações manuais enquanto mantêm garantias de segurança, eles se tornarão o modo padrão de interagir com os mercados financeiros,” acrescentou o CEO.














