Bereitgestellt von
Interview

Vyvo COO: Der nächste Schritt der KI - Ein Werkzeug zur Selbsterkenntnis werden

Mariana Krym, eine Expertin für disruptive Technologien, sieht eine Zukunft, in der künstliche Intelligenz über die einfache Aufgabenausführung hinausgeht und sich zu einem “emotionalen Spiegel” entwickelt, der den Nutzern hilft, ihre Emotionen und ihr Selbstbewusstsein zu navigieren. Sie ist der Meinung, dass KI subtile emotionale Hinweise erkennen und den Nutzern helfen sollte, Erkenntnisse über ihre Gefühle zu gewinnen.

GESCHRIEBEN VON
TEILEN
Vyvo COO: Der nächste Schritt der KI - Ein Werkzeug zur Selbsterkenntnis werden

Künstliche Intelligenz als ‘Emotionaler Spiegel’

Mariana Krym, COO und Mitbegründerin von Vyvo Smart Chain, hat eine überzeugende Vision für die Zukunft der künstlichen Intelligenz (KI) formuliert, die ihr Potenzial beschreibt, über die bloße Aufgabenausführung hinauszugehen und als “emotionaler Spiegel” für die menschlichen Nutzer zu fungieren. In einer kürzlichen Diskussion teilte Krym ihre Gedanken darüber, wie KI-Gefährten gestaltet werden können, die das Selbstbewusstsein fördern, bei der emotionalen Verarbeitung helfen und Raum für ehrliche Selbstreflexion schaffen.

Krym, die zuvor bei Technologie-Riesen wie Twitter, Snapchat und Waze tätig war, betonte die Notwendigkeit, Vertrauen in das Grundgerüst solcher emotional abgestimmten KI zu integrieren. “Wir bauen nicht nur Werkzeuge—wir formen Gefährten, die uns selbst widerspiegeln können,” erklärte sie.

Die Vision der Vyvo Smart Chain-Mitbegründerin konzentriert sich auf die Fähigkeit der KI, subtile Muster in einem Benutzerton und Verhaltensänderungen zu erkennen, wodurch Einzelpersonen zu Erkenntnissen verholfen wird, derer sie sich möglicherweise nicht bewusst sind.

“KI hat das Potenzial, als sanfter emotionaler Spiegel zu agieren: Muster im Ton zu erkennen, unsere Verhaltensänderungen zu bemerken und uns dabei zu helfen, Erkenntnisse ans Licht zu bringen, die wir allein nicht artikulieren könnten,” erklärte Krym.

Krym besteht darauf, dass Benutzerkontrolle und Privatsphäre die Kernprinzipien ihrer Philosophie sind. “Damit das geschehen kann, muss Vertrauen in die Architektur integriert werden. Die KI muss dem Benutzer gehören,” betonte sie.

Dieses Prinzip, argumentiert Krym, ist zentral für den Ansatz von Vyvo, der aktiv Echtzeit-Biometrische Signale mit dezentralem Speicher (Daten) kombiniert, um diesen “emotionalen Spiegel” zu schaffen. Kryms Perspektive weicht von dem traditionellen Fokus vieler KI-Lösungen ab, die primär kognitive Intelligenz und Aufgabenabschluss betonen.

Im Gegensatz zu kognitivem Denken sind Emotionen tief subjektiv und kontextabhängig. Tatsächlich erfordert wahre emotionale Intelligenz Lebenserfahrung, Empathie und persönlichen Kontext, was KI fehlt, obwohl es laufende Versuche gibt, emotionale Interaktionen besonders in Bereichen wie Kundenservice und soziale Robotik zu integrieren.

Web3 Bietet ‘Kraftvolle Antworten’ für KI-Ethik

Unterdessen sagte Krym zu Bitcoin.com News, dass sie sich eine Zukunft vorstellt, in der KI eine nuanciertere Rolle im menschlichen Leben spielt und als unterstützendes Werkzeug für emotionales Wachstum und Selbstverständnis dient.

“Das Ziel ist nicht, Gefühle zu simulieren. Es ist, die menschliche Erfahrung mit Bewusstsein und Kontext zu unterstützen,” erklärte Krym, wobei sie betonte, dass es nicht darum geht, künstliche Emotionen zu schaffen, sondern die menschliche emotionale Intelligenz durch KI-gesteuerte Einsichten zu verbessern.

Während die KI-Ära sich entfaltet, ist die Frage, wie künstliche Intelligenz mit den Nutzern interagieren und von ihnen lernen wird, von größter Bedeutung. Krym argumentiert, dass KI, die mit ihrem Benutzer wächst und Vertrauen durch Kontinuität aufbaut, nicht nur ein wünschenswertes Merkmal ist, sondern eine Notwendigkeit für sinnvolle Mensch-Maschine-Beziehungen. Dennoch ist sie fest davon überzeugt, dass diese auf einer Grundlage von robuster Benutzerkontrolle, Privatsphäre und ausdrücklicher Zustimmung aufgebaut werden muss.

Um einen scharfen Kontrast zu den oft aufdringlichen Tracking-Methoden von Web2 zu ziehen, stellt Krym sich eine Zukunft vor, in der KI-Agenten Benutzerinteraktionen ethisch und sicher lernen und behalten. “Absolut—und wir glauben, dass sie das müssen. Gedächtnisbasierte KI ist nicht nur ein Merkmal; sie ist wesentlich für den Aufbau von bedeutungsvollen, personalisierten Beziehungen zwischen Menschen und Maschinen,” erklärte Krym.

Um diese Vision zu erreichen, hat Vyvo Smart Chain sein System um Daten-NFTs herum entwickelt, ein Ansatz, der laut Krym den Nutzer fest in die Kontrolle über seine eigenen Daten bringt. “Deshalb haben wir unser System um Daten-NFTs auf der Vyvo Smart Chain herum aufgebaut. Jeder Nutzer besitzt seinen eigenen verschlüsselten Erinnerungsspeicher. Die KI kann darauf nur mit ausdrücklicher, widerrufbarer Zustimmung zugreifen. Kein Schürfen. Keine Hintertüren. Kein zentrales Logging.”

Auf die Frage, wie KI in fünf Jahren aussehen wird, prognostiziert Krym, dass sie sich von reaktiven Werkzeugen zu “kollaborativen Präsenz” entwickeln wird. Dennoch sieht sie die ethische Nutzung oder deren Mangel als eine wachsende Herausforderung mit der zunehmenden Nutzung von KI.

“Aber die größte Herausforderung ist nicht technischer Natur—sie ist ethisch. Regulierer werden sich Fragen zur Datensouveränität, zum Gedächtnis und zur Zustimmung stellen müssen. Wem gehören die Trainingsdaten? Welche Rechte hat ein Benutzer über das Gedächtnis einer KI, die er geformt hat?,” stellt Krym fest.

Jedoch behauptet sie, dass während diese Fragen neue Rahmenwerke erfordern, Web3 und nicht traditionelle Regulierer “kraftvolle Antworten” bietet.

“Dezentralisierte Einwilligungsschichten, benutzereigenes Gedächtnis und transparente Datenflüsse können als regulatorische Leitplanken durch Design, nicht nur durch Politik, dienen. Die Herausforderung ist real. Aber die Gelegenheit ist es auch,” erklärt Krym.