Konceptet AI-psykos blev offentligt känt i mitten av 2025 och satte fokus på psykiska hälsoproblem kopplade till AI-användning. Även om teknikföretag inte är skyldiga att kontrollera AI-användning, kan de ändå införa skyddsåtgärder för att förhindra att chatbotar förstärker vanföreställningar. Experter är överens om behovet av att teknikföretag stödjer individer i riskzonen, även om åsikterna varierar om omfattningen av detta ansvar.
AI-psykos: Techledare uppmanar till skyddsåtgärder för att förhindra att chatbotar bekräftar vanföreställningar

Beteendemässiga varningssignaler
De första dokumenterade fynden om “AI-psykos” började dyka upp offentligt i mitten av 2025 och sedan dess har flera rapporter och studier publicerats om psykiska hälsoproblem kopplade till användningen av AI. Microsoft AI:s VD Mustafa Suleyman gick så långt som att kalla AI-psykos en “verklig och framväxande risk.”
Detta tillstånd sägs uppstå när skillnaden mellan mänskliga och maskinella interaktioner suddas ut, vilket gör det svårt för individer att skilja mellan den verkliga och den digitala världen. Även om det ännu inte är en formell klinisk diagnos, finns det en växande oro bland medicinska och teknikexperter över AI:s psykologiska effekter, särskilt med chatbotar som validerar och förstärker föreställningar, inklusive vanföreställningar, utan att erbjuda nödvändiga verklighetskontroller.
De som är mest utsatta inkluderar socialt isolerade individer, de med befintliga psykiska hälsoproblem eller de som är benägna till magiskt tänkande. Validering från AI kan förstärka vanföreställningar, vilket leder till negativa konsekvenser i verkliga världen som skadade relationer och arbetslöshet.
Vissa experter varnar för att även de utan befintliga tillstånd är i riskzonen. De har identifierat flera beteendemässiga varningssignaler som AI-användare bör se upp för. En varningssignal är när en individ utvecklar en obsessiv relation med en chatbot och ständigt interagerar med den för att förstärka sina egna idéer och övertygelser.
Detta beteende inkluderar ofta att mata AI med överdrivna personliga detaljer i ett försök att “träna” den och bygga en känsla av ömsesidig förståelse. En annan varningssignal är när en individ börjar hänskjuta enkla, dagliga beslut till AI, från hälsa och pengar till personliga relationer.
Företagsansvar och skyddsåtgärder
Även om de inte är skyldiga att kontrollera hur AI används, kan företagen bakom några av de kraftfulla chatbotarna införa skyddsåtgärder som förhindrar att konversationsagenter förstärker vanföreställningar. Mau Ledford, medgrundare och verkställande direktör för Sogni AI, diskuterade att inbädda mjukvara som avskräcker sådant tänkande.
“Vi behöver bygga AI som är vänlig utan att samarbeta. Det betyder tydliga påminnelser om att det inte är mänskligt, vägran att validera vanföreställningar och hårda stopp som skjuter människor tillbaka mot mänskligt stöd,” hävdade Ledford.
Roman J. Georgio, VD och medgrundare av Coral Protocol, uppmanade AI-utvecklare att undvika sociala mediers misstag genom att inkludera inbyggda friktionspunkter som påminner användare om att AI inte är mänskligt.
“Jag tror det börjar med design. Optimera inte bara för behållning och klibbighet; det är att upprepa sociala mediers misstag,” förklarade Georgio. “Bygg in friktionspunkter där AI saktar ner saker eller gör det tydligt: ‘Jag är inte mänsklig.’ Detektion är en annan del. AI kan flagga mönster som ser ut som vanföreställningsspiraler, som konspirationsslingor eller fixeringar på ‘speciella meddelanden.'”
Coral Protocols medgrundare insisterade på att regleringar som styr dataintegritet också behövs, och hävdade att utan dem, “kommer företag bara jaga engagemang, även om det skadar människor.”
Debatten om mänskliknande AI
Hittills finns det till synes begränsad data om “AI-psykos” för att informera beslutsfattare och reglerande myndigheter om hur man ska svara. Detta har dock inte stoppat AI-utvecklare från att lansera mänskliknande och empatiska AI-agenter. Till skillnad från grundläggande chatbotar som följer ett fast manus, kan dessa agenter förstå kontext, känna igen känslor och svara med en ton som känns empatisk. Detta har fått vissa observatörer att uppmana AI-branschen att ta ledningen för att säkerställa att mänskliknande modeller inte suddar ut gränsen mellan människa och maskin.
Michael Heinrich, VD för 0G Labs, berättade för Bitcoin.com News att även om dessa agenter är användbara i vissa scenarier och inte bör avfärdas helt, är det avgörande att de “förblir neutrala och undviker att visa för mycket känslor eller andra mänskliga drag.” Detta, hävdade han, hjälper användare att förstå att AI-agenten är “bara ett verktyg och inte en ersättning för mänsklig interaktion.”
Mariana Krym, en AI-produkt och kategoridesigner, sa att det viktigaste är att göra agenten mer ärlig och inte mer mänsklig.
“Du kan skapa en AI-upplevelse som är hjälpsam, intuitiv, till och med känslomässigt responsiv—utan att låtsas att den är medveten eller förmögen att bry sig,” argumenterade Krym. “Faran börjar när ett verktyg är designat för att utföra koppling istället för att underlätta klarhet.”
Enligt Krym handlar verklig empati i AI inte om att efterlikna känslor utan om att respektera gränser och tekniska begränsningar. Det handlar också om att veta när man ska hjälpa och när man inte ska inkräkta. “Ibland är den mest mänskliga interaktionen att veta när man ska vara tyst,” hävdade Krym.
Omsorgsplikt
Alla experter intervjuade av Bitcoin.com News var eniga om behovet av att teknikföretag hjälper individer i riskzonen, men skilde sig åt om hur mycket de borde göra detta. Ledford tror att “Stora teknikföretag har en omsorgsplikt” och kan bevisa detta genom att tillhandahålla “säkerhetsnät—krisförslag, användningsvarningar och transparens—så att sårbara användare inte blir lämnade ensamma med sina vanföreställningar.”
Georgio ekade dessa känslor och uppmanade stora teknikföretag att samarbeta med kliniker för att skapa remissvägar, istället för att lämna människor strandade ensamma.
Krym insisterade att teknikföretag “har direkt ansvar—inte bara att reagera när något går fel, utan att designa på sätt som minskar risk i första hand.” Hon anser dock att användarnas delaktighet också är avgörande.
“Och viktigare,” argumenterade Krym, “användare bör bjudas in att sätta sina egna gränser och bli varnade när dessa gränser är överskridna. Till exempel, vill de att deras synvinkel ska valideras mot typiska mönster, eller är de öppna för att få sina skevheter utmanade? Sätt målen. Behandla människan som den ansvariga—inte verktyget de interagerar med.”














