Renç Korzay, CEO von Giza, betont, dass ethische Überlegungen bei der Entwicklung von KI-Agenten “architektonisch durchgesetzt” werden müssen. Er plädiert für eingebauten Benutzerkontrolle und “Sicherheit-durch-Design”, um regulatorische Belastungen zu minimieren.
KI-Agenten im DeFi: Benutzerkontrolle muss ‚nicht verhandelbar' sein, warnt CEO
Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Einige Informationen sind möglicherweise nicht mehr aktuell.

‘Architektonisch Durchgesetzte’ Benutzersicherheit
Die rasante Entwicklung der künstlichen Intelligenz hat zur Schaffung immer ausgefeilterer KI-Agenten geführt, die in der Lage sind, komplexe Aufgaben in verschiedenen Sektoren auszuführen. Da diese Agenten jedoch immer leistungsfähiger und autonomer werden, haben sich Bedenken hinsichtlich ethischer Überlegungen und potenzieller Risiken ergeben.
Um diese Bedenken auszuräumen, setzt sich Renç Korzay, CEO von Giza und Branchenveteran, für die Priorisierung von Benutzer-Sicherheit und -Souveränität ein, die, seiner Meinung nach, “nicht verhandelbar” und “architektonisch durchgesetzt” sein müssen. Korzay argumentiert, dass ethische Leitlinien in konkrete technische Anforderungen übersetzt werden sollten, die jeden Aspekt des Designs von KI-Agenten prägen.
In schriftlichen Antworten auf Fragen von Bitcoin.com News hob Korzay auch die Notwendigkeit der vollständigen Benutzerkontrolle hervor. Diese Kontrolle, so fügte er hinzu, sollte in die Architektur des Agenten eingebettet sein, um sicherzustellen, dass Benutzer die volle Aufsicht und Autorität behalten. Anders als Systeme, die auf delegierte Kontrolle angewiesen sind, sollten ethische KI-Agenten durch Berechtigungsrahmen operieren, die sofort widerrufen werden können, sagte Korzay.
Für den Giza-CEO ist die Kernbotschaft klar: Ethische Überlegungen müssen in die grundlegende Architektur von KI-Systemen eingebaut werden, nicht als nachträglicher Gedanke hinzugefügt werden.
“Im DeFi, wo die finanziellen Vermögenswerte der Benutzer auf dem Spiel stehen, müssen ethische Überlegungen in die grundlegende Architektur von KI-Systemen eingebaut werden, nicht als nachträglicher Gedanke hinzugefügt werden”, sagte Korzay.
Diese “Sicherheit-zuerst”-Mentalität ist entscheidend für den Aufbau von Vertrauen und die verantwortungsvolle Entwicklung von KI-Agenten. Mit Blick auf die dezentralisierten Finanzmärkte (DeFi), die komplexer geworden sind, enthüllte Korzay, dass es nun möglich ist, KI-Agenten einzusetzen, um die Positionen der Benutzer über führende Protokolle zu optimieren und komplexe Strategien auszuführen, während die Benutzer die volle Kontrolle über die Gelder behalten.
‘Xenokognitive’ Finanzen
In der Zwischenzeit argumentiert der CEO, dass wirksamer Benutzerschutz im DeFi aus robustem Produktdesign resultiert und nicht ausschließlich durch externe Regulierung. Dieser “Sicherheit-durch-Design”-Ansatz, sagte er, strebt danach, ein Ökosystem zu schaffen, in dem Sicherheit “intrinsisch” ist, was die Notwendigkeit schwerfälliger Regulierung minimiert.
Korzay behauptet, dass der Aufbau von inhärent sicheren Systemen die Interessen der Stakeholder ausgleicht und proaktiv mit Regulatoren zusammenarbeitet, um zukünftige Richtlinien zu gestalten. Der Fokus liegt darauf, durch gut konstruierte Produkte Wert zu schaffen, wodurch Compliance ein natürlicher Ergebnis wird, anstatt ein innovationshemmendes Hindernis.
Mit Blick in die Zukunft sagte Korzay, er sehe “Xenokognitive Finanzen” bis 2030 dominieren, wobei KI-Agenten als primäre Marktoberfläche auftreten und menschliche kognitive Grenzen überschreiten. Zu diesem Zeitpunkt werden Menschen strategische Ziele setzen, während KI-Agenten die Ausführung übernehmen.
“Die Adoptionskurve wird nicht linear sein – sie wird exponentiell sein. Wenn diese Agenten ihre Fähigkeit demonstrieren, manuelle Operationen konsistent zu übertreffen und dabei Sicherheitsgarantien aufrechtzuerhalten, werden sie zur Standardmethode, um mit Finanzmärkten zu interagieren,” fügte der CEO hinzu.




