Renç Korzay, administrerende direktør i Giza, understreker at etiske hensyn i utviklingen av AI-agenter må være “arkitektonisk håndhevet.” Han går inn for innebygd brukerkontroll og “sikkerhet-ved-design” for å minimere reguleringsbyrder.
AI-agenter i DeFi: Brukerkontroll må være 'ikke-forhandlingsbart,' advarer CEO
Denne artikkelen ble publisert for mer enn et år siden. Noe informasjon er kanskje ikke lenger aktuell.

‘Arkitektonisk Håndhevet’ Brukersikkerhet
Den raske utviklingen av kunstig intelligens har ført til utviklingen av stadig mer sofistikerte AI-agenter, som er i stand til å utføre komplekse oppgaver på tvers av ulike sektorer. Imidlertid, ettersom disse agentene blir mer kraftfulle og autonome, har bekymringer om etiske hensyn og potensielle risikoer dukket opp.
For å adressere disse bekymringene, oppfordrer Renç Korzay, administrerende direktør i Giza og en bransjeveteran, til å prioritere brukersikkerhet og suverenitet, som han sa må være “ikke-forhandlingsbar” og “arkitektonisk håndhevet.” Korzay hevder at etiske retningslinjer bør oversettes til konkrete ingeniørkrav, som former alle aspekter av AI-agentdesign.
I skriftlige svar på spørsmål fra Bitcoin.com News, fremhevet Korzay også behovet for fullstendig brukerkontroll. Denne kontrollen, la han til, bør bygges inn i agentens arkitektur, og sikre at brukere opprettholder full oversikt og autoritet. I motsetning til systemer som er avhengige av delegert kontroll, bør etiske AI-agenter operere gjennom tillatelsesrammer som kan trekkes tilbake umiddelbart, sa Korzay.
For Giza-direktøren er budskapet klart: Etiske hensyn må bygges inn i den grunnleggende arkitekturen til AI-systemene, ikke legges til som en ettertanke.
“I DeFi, hvor brukernes økonomiske eiendeler står på spill, må etiske hensyn bygges inn i den grunnleggende arkitekturen til AI-systemene, ikke legges til som en ettertanke,” sa Korzay.
Denne “sikkerhets-først”-mentaliteten er essensiell for å bygge tillit og sikre ansvarlig utvikling av AI-agenter. Med fokus på desentraliserte finansmarkeder (DeFi), som har blitt mer komplekse, avslørte Korzay at det nå er mulig å distribuere AI-agenter for å optimalisere brukernes posisjoner over ledende protokoller og utføre sofistikerte strategier mens brukerne opprettholder full kontroll over midlene.
‘Xenocognitiv Finance’
I mellomtiden hevder direktøren at effektiv brukerbeskyttelse i DeFi kommer fra robust produktdesign, ikke utelukkende fra ekstern regulering. Denne “sikkerhet-ved-design”-tilnærmingen, sa han, søker å skape et økosystem der sikkerhet er “iblandet”, noe som minimerer behovet for tungregulerende tiltak.
Korzay hevder at å bygge iboende sikre systemer tilpasser interessenters interesser og engasjerer seg proaktivt med regulatorer for å forme fremtidige politikk. Fokuset er på å skape verdi gjennom godt konstruerte produkter, noe som gjør etterlevelse til et naturlig resultat snarere enn en innovasjon-kvelende hindring.
Ser mot fremtiden, sa Korzay at han ser for seg at “Xenocognitive Finance” vil dominere innen 2030, med AI-agenter som dukker opp som den primære markedsgrensesnittet, og overgår menneskelige kognitive grenser. På det tidspunktet vil mennesker sette strategiske mål mens AI-agenter vil håndtere utførelsen.
“Adopsjonskurven vil ikke være lineær – den vil være eksponentiell. Når disse agentene demonstrerer sin evne til konsekvent å overgå manuelle operasjoner samtidig som de opprettholder sikkerhetsgarantier, vil de bli den foretrukne måten å samhandle med finansmarkedene,” la administrerende direktør til.














