Impulsado por
Interview

Agentes de IA en DeFi: El Control del Usuario Debe Ser ‘Innegociable’, Advierte CEO

Este artículo se publicó hace más de un año. Alguna información puede no estar actualizada.

Renç Korzay, CEO de Giza, enfatiza que las consideraciones éticas en el desarrollo de agentes de IA deben ser “reforzadas arquitectónicamente”. Él aboga por un control de usuario incorporado y “seguridad desde el diseño” para minimizar las cargas regulatorias.

ESCRITO POR
COMPARTIR
Agentes de IA en DeFi: El Control del Usuario Debe Ser ‘Innegociable’, Advierte CEO

‘Seguridad del Usuario Reforzada Arquitectónicamente’

El rápido avance de la inteligencia artificial ha llevado al desarrollo de agentes de IA cada vez más sofisticados, capaces de realizar tareas complejas en varios sectores. Sin embargo, a medida que estos agentes se vuelven más poderosos y autónomos, han surgido preocupaciones sobre consideraciones éticas y riesgos potenciales.

Para abordar estas preocupaciones, Renç Korzay, CEO de Giza y veterano de la industria, aboga por priorizar la seguridad y soberanía del usuario, lo cual, según él, debe ser “innegociable” y “reforzado arquitectónicamente”. Korzay argumenta que las directrices éticas deben traducirse en requisitos de ingeniería concretos que definan cada aspecto del diseño de agentes de IA.

En respuestas escritas a preguntas de Bitcoin.com News, Korzay también destacó la necesidad de control completo por parte del usuario. Este control, agregó, debe estar integrado en la arquitectura del agente, asegurando que los usuarios mantengan plena supervisión y autoridad. A diferencia de los sistemas que dependen del control delegado, los agentes de IA éticos deberían operar a través de marcos de permisos que se puedan revocar instantáneamente, dijo Korzay.

Para el CEO de Giza, el mensaje central es claro: Las consideraciones éticas deben estar integradas en la arquitectura fundamental de los sistemas de IA, no añadidas como un pensamiento posterior.

“En DeFi, donde están en juego los activos financieros de los usuarios, las consideraciones éticas deben estar integradas en la arquitectura fundamental de los sistemas de IA, no añadidas como un pensamiento posterior”, dijo Korzay.

Esta mentalidad de “seguridad primero” es esencial para construir confianza y asegurar el desarrollo responsable de agentes de IA. Volviendo a los mercados de finanzas descentralizadas (DeFi), que se han vuelto más complejos, Korzay reveló que ahora es posible desplegar agentes de IA para optimizar las posiciones de los usuarios a través de los principales protocolos y ejecutar estrategias sofisticadas mientras los usuarios mantienen el control total de los fondos.

‘Finanzas Xenocognitivas’

Mientras tanto, el CEO argumenta que la protección efectiva del usuario en DeFi proviene del diseño robusto del producto, no solo de la regulación externa. Este enfoque de “seguridad desde el diseño”, dijo, busca crear un ecosistema donde la seguridad sea “intrínseca”, lo que minimiza la necesidad de una regulación pesada.

Korzay afirma que construir sistemas inherentemente seguros alinea los intereses de las partes interesadas y se compromete proactivamente con los reguladores para dar forma a las políticas futuras. El enfoque está en crear valor a través de productos bien diseñados, haciendo que el cumplimiento sea un resultado natural en lugar de un obstáculo que frene la innovación.

Mirando hacia el futuro, Korzay dijo que prevé que las “Finanzas Xenocognitivas” dominen en 2030, con agentes de IA emergiendo como la interfaz principal del mercado, superando los límites cognitivos humanos. En ese momento, los humanos establecerán metas estratégicas mientras que los agentes de IA manejarán la ejecución.

“La curva de adopción no será lineal, será exponencial. A medida que estos agentes demuestren su capacidad para superar consistentemente las operaciones manuales mientras mantienen garantías de seguridad, se convertirán en la forma predeterminada de interactuar con los mercados financieros”, agregó el CEO.