Renç Korzay, PDG de Giza, souligne que les considérations éthiques dans le développement des agents IA doivent être “appliquées architecturalement.” Il plaide pour un contrôle utilisateur intégré et une “sécurité dès la conception” pour minimiser les charges réglementaires.
Les Agents IA dans la DeFi : Le Contrôle de l'Utilisateur Doit Être ‘Non-Négociable,' Avertit le PDG
Cet article a été publié il y a plus d'un an. Certaines informations peuvent ne plus être actuelles.

Sécurité Utilisateur ‘Appliquée Architecturalement’
L’avancement rapide de l’intelligence artificielle a conduit au développement d’agents IA de plus en plus sophistiqués, capables d’effectuer des tâches complexes dans divers secteurs. Cependant, à mesure que ces agents deviennent plus puissants et autonomes, des préoccupations concernant les considérations éthiques et les risques potentiels ont émergé.
Pour répondre à ces préoccupations, Renç Korzay, PDG de Giza et vétéran de l’industrie, plaide pour la priorité à la sécurité et à la souveraineté des utilisateurs, qu’il a affirmé être “non négociables” et “appliquées architecturalement”. Korzay soutient que les lignes directrices éthiques devraient se traduire par des exigences techniques concrètes, façonnant chaque aspect de la conception des agents IA.
Dans ses réponses écrites aux questions de Bitcoin.com News, Korzay a également souligné la nécessité d’un contrôle utilisateur complet. Ce contrôle, a-t-il ajouté, devrait être intégré dans l’architecture de l’agent, garantissant aux utilisateurs un suivi et une autorité complets. Contrairement aux systèmes qui reposent sur un contrôle délégué, les agents IA éthiques devraient fonctionner à travers des cadres d’autorisation pouvant être révoqués instantanément, a déclaré Korzay.
Pour le PDG de Giza, le message principal est clair : les considérations éthiques doivent être intégrées à l’architecture fondamentale des systèmes IA, et non ajoutées après coup.
“Dans la DeFi, où les actifs financiers des utilisateurs sont en jeu, les considérations éthiques doivent être intégrées à l’architecture fondamentale des systèmes IA, et non ajoutées après coup,” a déclaré Korzay.
Cet état d’esprit “axé sur la sécurité” est essentiel pour instaurer la confiance et assurer le développement responsable des agents IA. En se tournant vers les marchés de la finance décentralisée (DeFi), qui sont devenus plus complexes, Korzay a révélé qu’il est maintenant possible de déployer des agents IA pour optimiser les positions des utilisateurs à travers les principaux protocoles et exécuter des stratégies sophistiquées tout en maintenant un contrôle complet des fonds par les utilisateurs.
Finance ‘Xénocognitive’
Pendant ce temps, le PDG soutient que la protection efficace des utilisateurs dans la DeFi résulte d’une conception de produit robuste, et non uniquement d’une réglementation externe. Cette approche “sécurité dès la conception,” a-t-il dit, vise à créer un écosystème où la sécurité est “intrinsèque,” ce qui minimise le besoin d’une réglementation lourde.
Korzay affirme que la création de systèmes intrinsèquement sûrs aligne les intérêts des parties prenantes et engage proactivement les régulateurs pour façonner les politiques futures. L’accent est mis sur la création de valeur à travers des produits bien conçus, rendant la conformité un résultat naturel plutôt qu’un obstacle à l’innovation.
En regardant vers l’avenir, Korzay a déclaré qu’il prévoit que la “Finance Xénocognitive” dominera d’ici 2030, avec les agents IA émergeant comme l’interface principale du marché, dépassant les limites cognitives humaines. À ce moment-là, les humains définiront des objectifs stratégiques tandis que les agents IA s’occuperont de l’exécution.
“La courbe d’adoption ne sera pas linéaire – elle sera exponentielle. À mesure que ces agents démontreront leur capacité à surpasser de manière constante les opérations manuelles tout en maintenant des garanties de sécurité, ils deviendront le moyen par défaut d’interagir avec les marchés financiers,” a ajouté le PDG.














