Drevet av
Interview

AI-agenter i DeFi: Brukerkontroll må være 'ikke-forhandlingsbart,' advarer CEO

Denne artikkelen ble publisert for mer enn et år siden. Noe informasjon er kanskje ikke lenger aktuell.

Renç Korzay, administrerende direktør i Giza, understreker at etiske hensyn i utviklingen av AI-agenter må være “arkitektonisk håndhevet.” Han går inn for innebygd brukerkontroll og “sikkerhet-ved-design” for å minimere reguleringsbyrder.

SKREVET AV
DEL
AI-agenter i DeFi: Brukerkontroll må være 'ikke-forhandlingsbart,' advarer CEO

‘Arkitektonisk Håndhevet’ Brukersikkerhet

Den raske utviklingen av kunstig intelligens har ført til utviklingen av stadig mer sofistikerte AI-agenter, som er i stand til å utføre komplekse oppgaver på tvers av ulike sektorer. Imidlertid, ettersom disse agentene blir mer kraftfulle og autonome, har bekymringer om etiske hensyn og potensielle risikoer dukket opp.

For å adressere disse bekymringene, oppfordrer Renç Korzay, administrerende direktør i Giza og en bransjeveteran, til å prioritere brukersikkerhet og suverenitet, som han sa må være “ikke-forhandlingsbar” og “arkitektonisk håndhevet.” Korzay hevder at etiske retningslinjer bør oversettes til konkrete ingeniørkrav, som former alle aspekter av AI-agentdesign.

I skriftlige svar på spørsmål fra Bitcoin.com News, fremhevet Korzay også behovet for fullstendig brukerkontroll. Denne kontrollen, la han til, bør bygges inn i agentens arkitektur, og sikre at brukere opprettholder full oversikt og autoritet. I motsetning til systemer som er avhengige av delegert kontroll, bør etiske AI-agenter operere gjennom tillatelsesrammer som kan trekkes tilbake umiddelbart, sa Korzay.

For Giza-direktøren er budskapet klart: Etiske hensyn må bygges inn i den grunnleggende arkitekturen til AI-systemene, ikke legges til som en ettertanke.

“I DeFi, hvor brukernes økonomiske eiendeler står på spill, må etiske hensyn bygges inn i den grunnleggende arkitekturen til AI-systemene, ikke legges til som en ettertanke,” sa Korzay.

Denne “sikkerhets-først”-mentaliteten er essensiell for å bygge tillit og sikre ansvarlig utvikling av AI-agenter. Med fokus på desentraliserte finansmarkeder (DeFi), som har blitt mer komplekse, avslørte Korzay at det nå er mulig å distribuere AI-agenter for å optimalisere brukernes posisjoner over ledende protokoller og utføre sofistikerte strategier mens brukerne opprettholder full kontroll over midlene.

‘Xenocognitiv Finance’

I mellomtiden hevder direktøren at effektiv brukerbeskyttelse i DeFi kommer fra robust produktdesign, ikke utelukkende fra ekstern regulering. Denne “sikkerhet-ved-design”-tilnærmingen, sa han, søker å skape et økosystem der sikkerhet er “iblandet”, noe som minimerer behovet for tungregulerende tiltak.

Korzay hevder at å bygge iboende sikre systemer tilpasser interessenters interesser og engasjerer seg proaktivt med regulatorer for å forme fremtidige politikk. Fokuset er på å skape verdi gjennom godt konstruerte produkter, noe som gjør etterlevelse til et naturlig resultat snarere enn en innovasjon-kvelende hindring.

Ser mot fremtiden, sa Korzay at han ser for seg at “Xenocognitive Finance” vil dominere innen 2030, med AI-agenter som dukker opp som den primære markedsgrensesnittet, og overgår menneskelige kognitive grenser. På det tidspunktet vil mennesker sette strategiske mål mens AI-agenter vil håndtere utførelsen.

“Adopsjonskurven vil ikke være lineær – den vil være eksponentiell. Når disse agentene demonstrerer sin evne til konsekvent å overgå manuelle operasjoner samtidig som de opprettholder sikkerhetsgarantier, vil de bli den foretrukne måten å samhandle med finansmarkedene,” la administrerende direktør til.