Drevet af
Interview

Vyvo COO: AI's næste skridt - blive et værktøj til selvbevidsthed

Mariana Krym, en ekspert i disruptive teknologier, forestiller sig en fremtid, hvor kunstig intelligens går ud over simpel opgaveudførelse og udvikler sig til et “følelsesmæssigt spejl”, der hjælper brugerne med at navigere i deres følelser og selvbevidsthed. Hun mener, at AI bør genkende subtile følelsesmæssige signaler og hjælpe brugere med at få indsigt i deres følelser.

SKREVET AF
DEL
Vyvo COO: AI's næste skridt - blive et værktøj til selvbevidsthed

Kunstig Intelligens Som et ‘Følelsesmæssigt Spejl’

Mariana Krym, COO og medstifter af Vyvo Smart Chain, har formuleret en overbevisende vision for fremtiden for kunstig intelligens (AI), der antyder potentialet for at gå ud over blot opgaveudførelse og fungere som et “følelsesmæssigt spejl” for menneskelige brugere. I en nylig diskussion delte Krym sine tanker om at forme AI ledsagere, der er i stand til at fremme selvbevidsthed, hjælpe med følelsesmæssig bearbejdning og skabe plads til ærlig introspektion.

Krym, der tidligere har arbejdet hos teknologigiganter som Twitter, Snapchat og Waze, understregede behovet for at bygge tillid ind i selve strukturen af en sådan følelsesmæssigt afstemt AI. “Vi bygger ikke bare værktøjer – vi former ledsagere, der kan afspejle os tilbage til os selv,” udtalte hun.

Vyvo Smart Chains medstifters vision centrerer sig om AI’s evne til at genkende subtile mønstre i en brugers tone og adfærdsmæssige skift, og dermed hjælpe individer med at opdage indsigt, de måske ikke er bevidst om.

“AI har potentialet til at fungere som et nænsomt følelsesmæssigt spejl: at genkende mønstre i tone, bemærke vores adfærdsmæssige skift og hjælpe os med at fremhæve indsigt, vi måske ikke selv udtrykker,” forklarede Krym.

Krym insisterer på, at brugerens ejerskab og privatliv er kernesøjlerne i hendes filosofi. “For at det skal ske, skal tillid designes ind i arkitekturen. AI’en skal tilhøre brugeren,” hævdede hun.

Dette princip, argumenterer Krym, er centralt for Vyvos tilgang, som aktivt kombinerer realtids biometriske signaler med decentraliseret hukommelse (data) for at skabe dette “følelsesmæssige spejl.” Kryms perspektiv adskiller sig fra fokusset på mange traditionelle AI-løsninger, der primært lægger vægt på kognitiv intelligens og opgaveudførelse.

I modsætning til kognitiv ræsonnering er følelser dybt subjektive og kontekstafhængige. Faktisk, mens AI kan simulere følelsesmæssige reaktioner, kræver ægte følelsesmæssig intelligens erfaring, empati og personlig kontekst, som AI mangler. Dog er der løbende forsøg på at inkorporere følelsesbaserede interaktioner, især inden for områder som kundeservice og social robotik.

Web3 Har ‘Kraftfulde Svar’ for AI Etik

I mellemtiden fortalte Krym til Bitcoin.com News, at hun forestiller sig en fremtid, hvor AI kan spille en mere nuanceret rolle i menneskeliv, agerende som et støttende værktøj til følelsesmæssig vækst og selvforståelse.

“Målet er ikke at simulere følelser. Det er at støtte den menneskelige oplevelse med bevidsthed og kontekst,” afklarede Krym, og understregede at målet ikke er at skabe kunstige følelser, men snarere at forbedre menneskelig følelsesmæssig intelligens gennem AI-drevne indsigter.

Efterhånden som AI-æraen udfolder sig, er spørgsmålet om, hvordan kunstig intelligens vil interagere med og lære af brugere, af største betydning. Krym argumenterer for, at hukommelsesbaseret AI, der er i stand til at vokse med sin bruger og opbygge tillid gennem kontinuitet, ikke blot er et ønskeligt træk men en nødvendighed for meningsfulde menneske-maskine relationer. Alligevel mener hun fast, at dette skal bygges på et fundament af stærk bruger kontrol, privatliv og entydigt samtykke.

Ved at tegne en skarp kontrast til de ofte privatlivskrænkende sporingsmetoder, der er udbredt i Web2, forudser Krym en fremtid, hvor AI-agenter lærer og husker brugerinteraktioner etisk og sikkert. “Absolut – og vi mener, de skal være det. Hukommelsesbaseret AI er ikke bare en funktion; det er essentielt for at skabe meningsfulde, personlige relationer mellem mennesker og maskiner,” udtalte Krym.

For at opnå denne vision har Vyvo Smart Chain bygget sit system omkring Data NFTs, en tilgang som ifølge Krym, sætter brugeren fast i kontrol over deres egne data. “Det er derfor, vi byggede vores system omkring Data NFTs på Vyvo Smart Chain. Hver bruger holder deres egen krypterede hukommelsesbeholder. AI’en kan kun få adgang til den med udtrykkeligt, tilbagekaldeligt samtykke. Ingen scraping. Ingen bagdøre. Ingen central logning.”

Om hvordan AI vil se ud om fem år, forudser Krym, at det vil bevæge sig fra reaktive værktøjer til “samarbejdende tilstedeværelser”. Alligevel ser hun den etiske brug eller mangel derpå som en udfordring, der vil vokse med den øgede brug af AI.

“Men den største udfordring er ikke teknisk – det er etisk. Regulatorer vil skulle konfrontere spørgsmål omkring data suverænitet, hukommelse, og samtykke. Hvem ejer træningsdataene? Hvilke rettigheder har en bruger over hukommelsen af en AI, de har formet?,” udtaler Krym.

Men hun hævder, at mens disse spørgsmål kræver nye rammer, tilbyder Web3, og ikke traditionelle regulatorer, “kraftfulde svar.”

“Decentrale samtykkelag, bruger-ejet hukommelse, og gennemsigtige dataflow kan tjene som regulatoriske værn gennem design, ikke blot politik. Udfordringen er reel. Men det er muligheden også,” forklarer Krym.