Konseptet med AI-psykose dukket opp offentlig i midten av 2025, og fremhevet psykiske helseproblemer knyttet til bruk av AI. Selv om teknologiselskaper ikke er pålagt å kontrollere AI-bruk, kan de fortsatt implementere sikkerhetsforanstaltninger for å forhindre at chatbots forsterker villedende tanker. Eksperter er enige om behovet for at teknologiselskaper støtter sårbare personer, selv om meningene varierer om omfanget av dette ansvaret.
AI-psykose: Teknologiledere oppfordrer til tiltak for å hindre chatboter i å validere vrangforestillinger

Atferdsadvarsler
De første dokumenterte funnene om “AI-psykose” begynte å dukke opp offentlig i midten av 2025, og siden da har flere rapporter og studier blitt publisert om psykiske helseproblemer knyttet til bruk av AI. Microsoft AI-sjef Mustafa Suleyman gikk så langt som å merke AI-psykose som en “ekte og fremvoksende risiko”.
Denne tilstanden sies å oppstå når skillet mellom menneskelige og maskininteraksjoner blir uklart, noe som gjør det vanskelig for personer å skille mellom de virkelige og digitale verdener. Selv om det ennå ikke er en formell klinisk diagnose, er det økende bekymring blant medisinske og tekniske eksperter om de psykologiske effektene av AI, spesielt med chatbots som validerer og forsterker tro, inkludert villedende tanker, uten å tilby nødvendige realitetssjekker.
De som er mest utsatt inkluderer sosialt isolerte personer, de med eksisterende psykiske helseproblemer, eller de som er tilbøyelige til magisk tenkning. Valideringen fra AI kan forsterke vrangforestillinger, noe som fører til negative konsekvenser i virkeligheten som skadede relasjoner og tap av jobb.
Noen eksperter advarer om at selv de uten eksisterende tilstander er i fare. De har navngitt flere viktige atferdsadvarsler som AI-brukere bør være på vakt for. En advarsel er når en person utvikler et obsessivt forhold til en chatbot og stadig interagerer med den for å forsterke sine egne ideer og tro.
Denne oppførselen inkluderer ofte å mate AI-en overdrevne personlige detaljer i et forsøk på å “trene” den og bygge en følelse av gjensidig forståelse. En annen advarsel er når en person begynner å utsette enkle, daglige beslutninger til AI, fra helse og penger til personlige relasjoner.
Bedriftsansvar og sikkerhetsforanstaltninger
Selv om de ikke er forpliktet til å kontrollere hvordan AI brukes, kan selskapene bak noen av de kraftige chatbotsene implementere sikkerhetsforanstaltninger som forhindrer samtaleagenter fra å forsterke villedende tanker. Mau Ledford, medgrunnlegger og administrerende direktør i Sogni AI, diskuterte å integrere programvare som ikke oppmuntrer til slik tenkning.
“Vi må bygge AI som er snill uten å kolludere. Det betyr klare påminnelser om at det ikke er menneskelig, nektet validering av vrangforestillinger, og harde stopp som skyver folk tilbake mot menneskelig støtte,” hevdet Ledford.
Roman J. Georgio, administrerende direktør og medgrunnlegger av Coral Protocol, oppfordret AI-utviklere til å unngå repetisjon av sosiale mediers feil ved å inkludere innebygde friksjonspunkter som minner brukerne om at AI ikke er menneskelig.
“Jeg tror det starter med design. Ikke bare optimaliser for retensjon og klebrighet; det er å gjenta sosiale mediers feil,” forklarte Georgio. “Bygg inn friksjonspunkter der AI bremser ting eller gjør det klart: ‘Jeg er ikke menneske.’ Deteksjon er en annen del. AI kunne flagge mønstre som ser ut som vrangforestillende spiraler, som konspiratoriske løkker eller fikseringer på ‘spesielle meldinger.'”
Coral Protocols medgrunnlegger insisterte på at det også er behov for regler som regulerer databeskyttelse, og argumenterte for at uten dem, “vil selskaper bare jage engasjement, selv om det skader folk.”
Debatten om menneskelignende AI
Så langt er det tilsynelatende begrenset data om “AI-psykose” for å informere politikere og regulatorer om hvordan de skal respondere. Imidlertid har dette ikke stoppet AI-utviklere fra å avdekke menneskelignende og empatiske AI-agenter. I motsetning til grunnleggende chatbots som følger et rigid skript, kan disse agentene forstå kontekst, gjenkjenne følelser, og svare med en tone som føles empatisk. Dette har fått noen observatører til å oppfordre AI-industrien til å ta ledelsen i å sikre at menneskelignende modeller ikke ender med å viske ut skillet mellom menneske og maskin.
Michael Heinrich, administrerende direktør i 0G Labs, fortalte Bitcoin.com News at mens disse agentene er nyttige i visse scenarier og ikke bør avvises fullstendig, er det viktig at de “forblir nøytrale og unngår å vise for mye følelse eller andre menneskelige trekk.” Dette, argumenterte han, hjelper brukerne å forstå at AI-agenten er “rett og slett et verktøy og ikke en erstatning for menneskelig interaksjon.”
Mariana Krym, en AI-produkt- og kategoriarkitekt, sa at det er viktig å gjøre agenten mer ærlig og ikke mer menneskelig.
“Du kan skape en AI-opplevelse som er nyttig, intuitiv, til og med følelsesmessig responsiv—uten å late som den er bevisst eller i stand til omsorg,” argumenterte Krym. “Faren starter når et verktøy er designet for å utføre tilkobling i stedet for å lette klarhet.”
Ifølge Krym er ekte empati i AI ikke om å etterligne følelser, men om å respektere grenser og tekniske begrensninger. Det handler også om å vite når man skal hjelpe og når man ikke skal forstyrre. “Noen ganger er den mest humane interaksjonen å vite når man skal holde seg stille,” hevdet Krym.
Omsorgsplikt
Alle ekspertene som ble intervjuet av Bitcoin.com News var enige om behovet for at teknologiselskaper hjelper sårbare personer, men var uenige om hvor mye de burde gjøre dette. Ledford mener “Big tech har en omsorgsplikt” og kan bevise dette ved å tilby “sikkerhetsnett—krisehjelp, bruksvarsler, og åpenhet—slik at sårbare brukere ikke blir alene med sine vrangforestillinger.”
Georgio gjentok disse følelsene og oppfordret Big Tech til å samarbeide med klinikere for å skape henvisningsveier, i stedet for å la folk stå fast på egen hånd.
Krym insisterte på at teknologiselskaper “har direkte ansvar—ikke bare for å reagere når noe går galt, men for å designe på måter som reduserer risiko i utgangspunktet.” Hun mener imidlertid at brukerengasjement er avgjørende også.
“Og viktig, ” argumenterte Krym, “brukerne bør bli invitert til å sette sine egne grenser, også, og bli flagget når disse grensene er krysset. For eksempel, ønsker de at deres synspunkt skal valideres mot typiske mønstre, eller er de åpne for å få sin forutinntatthet utfordret? Sett målene. Behandle mennesket som den som er ansvarlig—ikke verktøyet de interagerer med.”














