Renç Korzay, CEO van Giza, benadrukt dat ethische overwegingen in de ontwikkeling van AI-agenten “architecturaal moeten worden afgedwongen.” Hij pleit voor ingebouwde gebruikerscontrole en “veiligheid-vanuit-ontwerp” om de regelgevende lasten te minimaliseren.
AI-agenten in DeFi: Gebruikerscontrole moet 'niet-onderhandelbaar' zijn, waarschuwt CEO
Dit artikel is meer dan een jaar geleden gepubliceerd. Sommige informatie is mogelijk niet meer actueel.

‘Architecturaal Afgedwongen’ Gebruikersveiligheid
De snelle vooruitgang van kunstmatige intelligentie heeft geleid tot de ontwikkeling van steeds geavanceerdere AI-agenten, die in staat zijn om complexe taken uit te voeren in verschillende sectoren. Echter, naarmate deze agenten krachtiger en autonomer worden, zijn er zorgen ontstaan over ethische overwegingen en potentiële risico’s.
Om deze zorgen aan te pakken, pleit Renç Korzay, CEO van Giza en een industrieveteraan, voor het prioriteren van gebruikersveiligheid en soevereiniteit, die volgens hem “niet-onderhandelbaar” en “architecturaal afgedwongen” moeten zijn. Korzay stelt dat ethische richtlijnen moeten worden vertaald in concrete technische vereisten die elk aspect van het ontwerp van AI-agenten vormgeven.
In schriftelijke antwoorden op vragen van Bitcoin.com News benadrukte Korzay ook de noodzaak van volledige gebruikerscontrole. Deze controle, voegde hij toe, moet worden ingebed in de architectuur van de agent, zodat gebruikers volledige controle en autoriteit behouden. In tegenstelling tot systemen die afhankelijk zijn van gedelegeerde controle, zouden ethische AI-agenten moeten opereren via toestemmingskaders die onmiddellijk kunnen worden ingetrokken, aldus Korzay.
Voor de CEO van Giza is de kernboodschap duidelijk: Ethische overwegingen moeten worden ingebouwd in de fundamentele architectuur van AI-systemen, en niet achteraf worden toegevoegd.
“In DeFi, waar de financiële activa van gebruikers op het spel staan, moeten ethische overwegingen worden ingebouwd in de fundamentele architectuur van AI-systemen, en niet achteraf worden toegevoegd,” zei Korzay.
Deze “security-first”-mentaliteit is essentieel voor het opbouwen van vertrouwen en het waarborgen van de verantwoorde ontwikkeling van AI-agenten. Als we kijken naar gedecentraliseerde financiën (DeFi) markten, die complexer zijn geworden, onthulde Korzay dat het nu mogelijk is om AI-agenten in te zetten om de posities van gebruikers te optimaliseren in toonaangevende protocollen en geavanceerde strategieën uit te voeren terwijl gebruikers volledige controle over de fondsen behouden.
‘Xenocognitive’ Financiën
Ondertussen stelt de CEO dat effectieve gebruikersbescherming in DeFi voortkomt uit robuust productontwerp, niet alleen uit externe regelgeving. Deze “veiligheid-vanuit-ontwerp”-benadering, zei hij, streeft naar het creëren van een ecosysteem waar veiligheid “intrinsiek” is, wat de behoefte aan zware regelgeving minimaliseert.
Korzay beweert dat het bouwen van inherent veilige systemen de belangen van belanghebbenden op één lijn brengt en proactief samenwerkt met regelgevers om toekomstige beleidsvorming te beïnvloeden. De focus ligt op het creëren van waarde door goed ontworpen producten, waardoor naleving een natuurlijk resultaat wordt in plaats van een innovatie-dwalende barrière.
Kijkend naar de toekomst, zei Korzay dat hij “Xenocognitive Finance” ziet domineren tegen 2030, waarbij AI-agenten opkomen als de primaire marktinterface, die de menselijke cognitieve grenzen te boven gaat. Op dat moment zullen mensen strategische doelen stellen, terwijl AI-agenten de uitvoering afhandelen.
“De adoptiecurve zal niet lineair zijn – het zal exponentieel zijn. Naarmate deze agenten hun vermogen aantonen om consequent beter te presteren dan handmatige operaties terwijl ze veiligheidsgaranties behouden, zullen ze de standaard manier worden om met financiële markten te communiceren,” voegde de CEO toe.














