Renç Korzay, CEO di Giza, sottolinea che le considerazioni etiche nello sviluppo degli agenti AI devono essere “enforced architettonicamente”. Sostiene il controllo integrato dell’utente e la “sicurezza fin dall’inizio” per minimizzare gli oneri normativi.
Agenti AI in DeFi: Il controllo dell'utente deve essere 'non negoziabile', avverte il CEO
Questo articolo è stato pubblicato più di un anno fa. Alcune informazioni potrebbero non essere più attuali.

Sicurezza dell’Utente ‘Enforced Architettonicamente’
Il rapido progresso dell’intelligenza artificiale ha portato allo sviluppo di agenti AI sempre più sofisticati, capaci di eseguire compiti complessi in vari settori. Tuttavia, mentre questi agenti diventano più potenti e autonomi, sono emerse preoccupazioni riguardo alle considerazioni etiche e ai potenziali rischi.
Per affrontare queste preoccupazioni, Renç Korzay, CEO di Giza e un veterano del settore, sostiene la prioritizzazione della sicurezza e della sovranità dell’utente, che ha affermato devono essere “non negoziabili” e “enforced architettonicamente”. Korzay sostiene che le linee guida etiche dovrebbero tradursi in requisiti ingegneristici concreti, plasmando ogni aspetto del design degli agenti AI.
Nelle risposte scritte alle domande di Bitcoin.com News, Korzay ha anche evidenziato la necessità di un controllo completo dell’utente. Questo controllo, ha aggiunto, dovrebbe essere incorporato nell’architettura dell’agente, garantendo agli utenti il mantenimento di piena supervisione e autorità. A differenza dei sistemi che si basano su controllo delegato, gli agenti AI etici dovrebbero operare attraverso strutture di permesso che possono essere revocate istantaneamente, ha detto Korzay.
Per il CEO di Giza, il messaggio fondamentale è chiaro: le considerazioni etiche devono essere integrate nell’architettura fondamentale dei sistemi AI, non aggiunte successivamente.
“Nel DeFi, dove sono in gioco le risorse finanziarie degli utenti, le considerazioni etiche devono essere integrate nell’architettura fondamentale dei sistemi AI, non aggiunte come ripensamento,” ha detto Korzay.
Questa mentalità “primato della sicurezza” è essenziale per costruire fiducia e garantire lo sviluppo responsabile degli agenti AI. Volgendo lo sguardo ai mercati della finanza decentralizzata (DeFi), che sono diventati più complessi, Korzay ha rivelato che ora è possibile distribuire agenti AI per ottimizzare le posizioni degli utenti tra i protocolli leader ed eseguire strategie sofisticate mentre gli utenti mantengono il pieno controllo dei fondi.
Finanza ‘Xenocognitiva’
Nel frattempo, il CEO sostiene che una protezione efficace dell’utente nel DeFi deriva da un design robusto del prodotto, non solo dalla regolamentazione esterna. Questo approccio “sicurezza fin dall’inizio”, ha affermato, cerca di creare un ecosistema in cui la sicurezza sia “intrinseca”, riducendo la necessità di una regolamentazione eccessiva.
Korzay sostiene che costruire sistemi intrinsecamente sicuri allinea gli interessi degli stakeholder e interagisce proattivamente con i regolatori per plasmare le politiche future. L’obiettivo è creare valore tramite prodotti ben progettati, rendendo la conformità un risultato naturale piuttosto che un ostacolo all’innovazione.
Guardando al futuro, Korzay ha detto che prevede che la “Finanza Xenocognitiva” dominerà entro il 2030, con agenti AI che emergeranno come principale interfaccia di mercato, superando i limiti cognitivi umani. A quel tempo, gli umani stabiliranno obiettivi strategici mentre gli agenti AI gestiranno l’esecuzione.
“La curva di adozione non sarà lineare – sarà esponenziale. Man mano che questi agenti dimostreranno la loro capacità di superare costantemente le operazioni manuali mantenendo le garanzie di sicurezza, diventeranno il modo predefinito per interagire con i mercati finanziari,” ha aggiunto il CEO.














