Koncept AI psihoze javno se pojavio sredinom 2025. godine, ističući probleme mentalnog zdravlja povezane s korištenjem AI-a. Iako tehnološke tvrtke nisu obvezane kontrolirati korištenje AI-a, mogu ipak implementirati zaštitne mjere kako bi spriječile chatbotove da pojačavaju deluzijsko razmišljanje. Stručnjaci se slažu oko potrebe da tehnološke tvrtke podrže ugrožene pojedince, premda mišljenja variraju o stupnju ove odgovornosti.
AI psihoza: Tehnološki lideri pozivaju na zaštitne mjere kako bi spriječili chatbotove da potvrđuju deluzije

Upozoravajuća ponašanja
Prvi dokumentirani nalazi o “AI psihozi” počeli su se pojavljivati javno sredinom 2025. godine, a od tada je objavljeno nekoliko izvještaja i studija o pitanjima mentalnog zdravlja povezanima s korištenjem AI-a. Microsoft AI CEO Mustafa Suleyman čak je nazvao AI psihozu “stvarnim i sve većim rizikom.”
Ovo stanje se kaže da nastaje kada se razlika između interakcija ljudi i strojeva zamagljuje, otežavajući pojedincima razlikovanje stvarnog i digitalnog svijeta. Iako to još nije formalna klinička dijagnoza, sve je veća zabrinutost među medicinskim i tehnološkim stručnjacima oko psiholoških učinaka AI-a, posebno s chatbotovima koji potvrđuju i pojačavaju uvjerenja, uključujući deluzijsko razmišljanje, bez pružanja potrebnih provjera stvarnosti.
Najugroženiji su socijalno izolirani pojedinci, oni s već postojećim mentalnim zdravstvenim problemima ili oni skloni magičnom razmišljanju. Validacija od strane AI-a može ojačati deluzije, dovodeći do negativnih stvarnih posljedica poput oštećenih odnosa i gubitka posla.
Neki stručnjaci upozoravaju da su čak i oni bez postojećih stanja u opasnosti. Naveli su nekoliko ključnih upozoravajućih ponašanja na koja bi korisnici AI-a trebali paziti. Jedno od upozoravajućih ponašanja je kada pojedinac razvije opsesivni odnos s chatbotom i stalno komunicira s njim kako bi ojačao vlastite ideje i uvjerenja.
Ovo ponašanje često uključuje dostavljanje AI-u prekomjernih osobnih podataka u pokušaju “treniranja” i stvaranja osjećaja međusobnog razumijevanja. Još jedno upozoravajuće ponašanje je kada pojedinac počne prepuštati jednostavne, svakodnevne odluke AI-u, od zdravlja i novca do osobnih odnosa.
Korporativna odgovornost i zaštitne mjere
Iako nisu obvezane kontrolirati kako se AI koristi, tvrtke koje stoje iza nekih od moćnih chatbotova mogu primijeniti zaštitne mjere koje sprječavaju da razgovorni agenti pojačavaju deluzijsko razmišljanje. Mau Ledford, suosnivač i glavni izvršni direktor Sogni AI, raspravljao je o ugrađivanju softvera koji obeshrabruje takvo razmišljanje.
“Moramo izgraditi AI koji je ljubazan bez saradnje. To znači jasne podsjetnike da nije ljudski, odbijanje potvrđivanja deluzija i čvrsta ograničenja koja ljude guraju prema ljudskoj podršci,” istaknuo je Ledford.
Roman J. Georgio, CEO i suosnivač Coral Protocoal-a, pozvao je AI programere da izbjegnu ponavljanje grešaka društvenih mreža uključivanjem ugrađenih točaka trenja koje podsjećaju korisnike da AI nije ljudski.
“Mislim da sve počinje s dizajnom. Nemojte samo optimizirati za zadržavanje i privlačnost; to ponavlja grešku društvenih mreža,” objasnio je Georgio. “Ugradite točke trenja gdje AI usporava ili jasno daje do znanja: ‘Nisam ljudski.’ Detekcija je još jedan dio. AI bi mogao označiti obrasce koji izgledaju kao deluzijski spirali, poput zavjereničkih krugova ili fiksacija na ‘posebne poruke.'”
Koorirajući sustava zahtijevao je i regulative koje upravljaju privatnošću podataka, tvrdeći da bez njih “tvrtke će jednostavno juriti za angažmanom, čak i ako to šteti ljudima.”
Rasprava o AI-u sličnom čovjeku
Čini se da do sada postoji ograničena količina podataka o “AI psihozi” kako bi se informirali donositelji politika i regulatori o tome kako odgovoriti. Međutim, to nije spriječilo AI programere da otkriju AI agente nalik ljudskim bićima i empatične. Za razliku od osnovnih chatbotova koji prate kruti scenarij, ovi agenti mogu razumjeti kontekst, prepoznati emocije i odgovoriti tonom koji izgleda empatično. To je potaknulo neke promatrače da potaknu AI industriju da preuzme vodstvo kako bi se osiguralo da modeli slični ljudima ne zamagle crtu između ljudi i strojeva.
Michael Heinrich, CEO 0G Labs, rekao je za Bitcoin.com News da, iako su ovi agenti korisni u određenim scenarijima i ne trebaju biti potpuno odbačeni, od ključne je važnosti da “ostanu neutralni i izbjegavaju pokazivanje previše emocija ili drugih ljudskih osobina.” Ovo, tvrdio je, pomaže korisnicima razumjeti da je AI agent “samo alat i ne zamjena za ljudsku interakciju.”
Mariana Krym, arhitekt AI proizvoda i kategorije, rekla je da je važnije učiniti agenta iskrenim, a ne ljudskim.
“Možete stvoriti AI iskustvo koje je korisno, intuitivno, čak i emotivno osjetljivo—bez pretvaranja da je svjesno ili sposobno za brigu,” tvrdila je Krym. “Opasnost počinje kada je alat dizajniran da obavlja vezu umjesto da olakšava jasnoću.”
Prema Krym, stvarna empatija u AI-u nije u oponašanju osjećaja već u poštivanju granica i tehničkih ograničenja. Također je važno znati kada pomoći i kada ne nametati. “Ponekad je na humaniji način nekomunicirati,” zaključila je Krym.
Obveza brige
Svi stručnjaci s kojma je razgovarao Bitcoin.com News složili su se oko potrebe da tehnološke tvrtke pomognu osobama koje su u opasnosti, ali razlikovali su se oko opsega u kojem bi to trebale učiniti. Ledford vjeruje da “velike tehnološke tvrtke imaju obvezu brige” i mogu to dokazati pružajući “sigurnosne mreže—upućivanje na krizne usluge, upozorenja o korištenju i transparentnost—tako da ranjivi korisnici ne ostanu sami sa svojim deluzijama.”
Georgio je odjeknuo ove osjećaje i pozvao Big Tech da surađuje s kliničarima na stvaranju putanja za upućivanje, umjesto da ljude ostavlja same.
Krym je inzistirala da tehnološke tvrtke “imaju izravnu odgovornost—ne samo da odgovore kad nešto pođe po krivu, već da dizajniraju na načine koji smanjuju rizik na prvom mjestu.” Međutim, smatra da je korisničko uključivanje također ključno.
“I, što je još važnije,” tvrdila je Krym, “korisnici bi trebali biti pozvani da postave vlastite granice, i biti obaviješteni kada su te granice prekoračene. Na primjer, žele li da njihov pogled na svijet bude potvrđen u skladu s tipičnim obrascima, ili su otvoreni za izazivanje njihove pristranosti? Postavite ciljeve. Traktirajte ljudsko biće kao onoga koji ima kontrolu—a ne alat s kojim komuniciraju.”














