Konec leta 2025 se je koncept AI psihoze pojavil v javnosti, izpostavljajoč duševne težave povezane z uporabo umetne inteligence. Medtem ko tehnološka podjetja niso dolžna nadzorovati uporabe AI, lahko še vedno uvedejo zaščitne ukrepe za preprečevanje, da bi klepetalni roboti krepili blodnjave misli. Strokovnjaki se strinjajo glede potrebe, da tehnološka podjetja podpirajo ogrožene posameznike, čeprav se mnenja razlikujejo o obsegu te odgovornosti.
AI psihoza: voditelji tehnologij pozivajo k zaščitnim ukrepom za preprečitev, da bi klepetalni roboti potrjevali blodnje

Vedenjske opozorilne znake
Prva dokumentirana dognanja o “AI psihozi” so začela javno izhajati sredi leta 2025, in od takrat je bilo objavljenih več poročil in študij o duševnih težavah, povezanih z uporabo umetne inteligence. Microsoftov AI direktor Mustafa Suleyman je celo označil AI psihozo kot “resnično in naraščajočo nevarnost.”
Za to stanje naj bi bilo značilno, da se razlika med človeškimi in strojnimi interakcijami zabriše, kar posameznikom oteži razlikovanje med resničnim in digitalnim svetom. Čeprav še ne gre za formalno klinično diagnozo, narašča zaskrbljenost med medicinskimi in tehnološkimi strokovnjaki glede psiholoških učinkov AI, zlasti pri klepetalnih robotih, ki potrjujejo in krepijo prepričanja, vključno z blodnjavim razmišljanjem, brez ponujanja potrebnih preverjanj resničnosti.
Najbolj ogroženi so socialno izolirani posamezniki, tisti s predhodnimi duševnimi težavami ali tisti, nagnjeni k magičnemu razmišljanju. Potrditev s strani AI lahko okrepi blodnje, kar vodi do negativnih posledic v resničnem svetu, kot so poškodovani odnosi in izguba zaposlitve.
Nekateri strokovnjaki opozarjajo, da so ogroženi celo tisti brez predhodnih stanj. Poimenovali so nekaj ključnih vedenjskih opozorilnih znakov, na katere bi morali biti uporabniki AI pozorni. Eden od opozorilnih znakov je, ko posameznik razvije obsesiven odnos s klepetalnim robotom in se nenehno pogovarja z njim, da bi okrepil svoje ideje in prepričanja.
To vedenje pogosto vključuje pretirano deljenje osebnih podrobnosti z AI v poskusu, da bi ga “naučili” in zgradili občutek medsebojnega razumevanja. Drug opozorilni znak je, ko posameznik začne prepuščati enostavne, vsakodnevne odločitve AI, od zdravja in financ do osebnih odnosov.
Korporativna odgovornost in zaščitni ukrepi
Čeprav niso dolžni nadzorovati, kako se AI uporablja, lahko podjetja za mogočnimi klepetalnimi roboti uvedejo zaščitne ukrepe, ki preprečujejo, da bi pogovorni agenti krepili blodnjavo razmišljanje. Mau Ledford, soustanovitelj in glavni izvršni direktor Sogni AI, je razpravljal o vključitvi programske opreme, ki odvrača takšno razmišljanje.
“Potrebujemo AI, ki je prijazen, a ne sodelovalen. To pomeni jasne opomnike, da ni človeški, zavrnitev potrditve blodenj in trde postanke, ki posameznike spodbujajo nazaj k človeški podpori,” je poudaril Ledford.
Roman J. Georgio, izvršni direktor in soustanovitelj Coral Protocol, je pozval razvijalce AI, naj se izognejo ponavljanju napak socialnih medijev z vključitvijo vgrajenih trenj, ki uporabnike opominjajo, da AI ni človeška.
“Mislim, da se to začne z oblikovanjem. Ne optimizirajte samo za zadrževanje in lepljivost; to je ponavljanje napak socialnih medijev,” je pojasnil Georgio. “Vgradite trenja, kjer AI upočasni stvari ali jasno pove: ‘Nisem človek.’ Zaznavanje je še en del. AI bi lahko označil vzorce, ki izgledajo kot blodnjavi spirali, kot so konspiracijske zanke ali fiksacije na ‘posebna sporočila.'”
Soustanovitelj Coral Protocol je vztrajal, da so potrebne tudi regulacije, ki urejajo zasebnost podatkov, trdeč, da brez njih “podjetja bodo le zasledovala angažiranost, tudi če škodi ljudem.”
Razprava o človeško podobnem AI
Doslej je na voljo omejeno število podatkov o “AI psihozi” za obveščanje oblikovalcev politik in regulatorjev, kako se odzvati. Vendar to ni ustavilo razvijalcev AI, da bi predstavili človeško podobne in empatične AI agente. Za razliko od osnovnih klepetalnih robotov, ki sledijo togem scenariju, ti agenti lahko razumejo kontekst, prepoznajo čustva in se odzivajo s tonom, ki deluje empatično. To je spodbudilo nekatere opazovalce, da pozovejo AI industrijo, naj prevzame vodilno vlogo pri zagotavljanju, da človeške modele ne končajo z zamegljevanjem meje med človekom in strojem.
Michael Heinrich, izvršni direktor 0G Labs, je za Bitcoin.com News povedal, da so ti agenti koristni v določenih scenarijih in jih ne bi smeli popolnoma zavračati, je pa nujno, da “ostanejo nevtralni in se izogibajo prikazovanju preveč čustev ali drugih človeških lastnosti.” To, je trdil, pomaga uporabnikom razumeti, da je AI agent “preprosto orodje in ne zamenjava za človeško interakcijo.”
Mariana Krym, arhitektka AI izdelkov in kategorij, je dejala, da je pomembno, da agent postane bolj pošten in ne bolj človeški.
“Lahko ustvarite izkušnjo AI, ki je uporabna, intuitivna, celo čustveno odzivna—brez da se pretvarjate, da je zavestna ali sposobna skrbi,” je trdila Krym. “Nevarnost se začne, ko je orodje zasnovano za izvajanje povezave namesto za olajšanje jasnosti.”
Po Krymu, prava empatija v AI ni posnemanje občutkov, ampak spoštovanje meja in tehničnih omejitev. Gre tudi za vedeti, kdaj pomagati in kdaj ne vsiljivo posegati. “Včasih je najbolj človeška interakcija vedeti, kdaj biti tiho,” je poudarila Krym.
Obveznost skrbi
Vsi strokovnjaki, ki jih je Bitcoin.com News intervjuval, so se strinjali glede potrebe, da tehnološka podjetja pomagajo ogroženim posameznikom, a so se razlikovali v pogledu na to, do katere mere bi to morala storiti. Ledford verjame, da “velika tehnika ima dolžnost skrbi” in to lahko dokažejo s ponudbo “varnostnih mrež—kriznih napotitev, opozoril o uporabi in transparentnosti—tako da ranljivi uporabniki niso prepuščeni sami sebi z njihovimi blodnjami.”
Georgio je ponovil ta čustva in pozval veliko tehniko, naj sodeluje s kliniki pri ustvarjanju napotitvenih poti, namesto da bi ljudi pustili ujeti same.
Krym je vztrajala, da tehnološka podjetja “imajo neposredno odgovornost—ne samo reagirati, ko gre kaj narobe, ampak že vnaprej zmanjšati tveganje.” Vendar pa verjame, da je sodelovanje uporabnikov prav tako ključno.
“In predvsem,” je trdila Krym, “uporabniki bi morali biti povabljeni, da postavijo lastne meje, in biti opozorjeni, ko so te meje prekoračene. Na primer, ali želijo, da se njihovo stališče potrdi glede na tipične vzorce, ali so odprti za izzivanje svojih pristranskosti? Postavite cilje. Obravnavajte človeka kot glavno osebo—ne orodje, s katerim se ukvarjajo.”














