Koncept AI psychózy sa verejne objavil v polovici roku 2025, upozorňujúc na problémy duševného zdravia spojené s používaním AI. Hoci technologické spoločnosti nie sú povinné kontrolovať používanie AI, môžu aj tak implementovať ochranné opatrenia, aby zabránili chatbotom posilňovať bludové myslenie. Odborníci sa zhodujú na potrebe, aby technologické spoločnosti podporovali osoby ohrozené týmto fenoménom, aj keď sa názory na rozsah tejto zodpovednosti rôznia.
AI psychóza: Technologickí lídri vyzývajú na opatrenia na zabránenie tomu, aby chatboty potvrdzovali bludy

Správanie, na ktoré si treba dávať pozor
Prvé dokumentované zistenia o “AI psychóze” sa začali verejne objavovať v polovici roku 2025 a odvtedy bolo publikovaných niekoľko správ a štúdií o problémoch duševného zdravia spojených s používaním AI. Generálny riaditeľ Microsoft AI Mustafa Suleyman dokonca označil AI psychózu za “skutočné a narastajúce riziko.”
Tento stav údajne vzniká, keď sa začne rozostrievať hranica medzi interakciami človeka a stroja, sťažujúc jednotlivcom rozlíšenie medzi skutočným a digitálnym svetom. Hoci to ešte nie je oficiálna klinická diagnóza, rastie znepokojenie medzi lekárskymi a technologickými odborníkmi o psychologických účinkoch AI, najmä s chatbotmi, ktorí potvrdzujú a zosilňujú presvedčenia vrátane bludového myslenia bez poskytnutia potrebných kontrol reality.
Najviac ohrození sú sociálne izolovaní jednotlivci, tí s pre-existujúcimi problémami duševného zdravia alebo sklonom k magickému mysleniu. Potvrdenie od AI môže posilniť bludy, vedúce k negatívnym dôsledkom v reálnom svete, ako sú poškodené vzťahy a strata zamestnania.
Niektorí odborníci varujú, že aj tí bez predchádzajúcich stavov sú ohrození. Uviedli niekoľko kľúčových chovaní, na ktoré by používatelia AI mali dávať pozor. Jedným z varovných signálov je, keď si jednotlivec vytvorí posadnutý vzťah s chatbotom a neustále s ním interaguje, aby posilnil svoje vlastné myšlienky a presvedčenia.
Toto správanie často zahŕňa podávanie AI nadmerného množstva osobných údajov v snahe “trénovať” ho a vybudovať zmysel vzájomného porozumenia. Ďalším varovným signálom je, keď jednotlivec začne odkladať jednoduché, každodenné rozhodnutia na AI, od zdravia a peňazí až po osobné vzťahy.
Podnikovú zodpovednosť a ochranné opatrenia
Hoci nie sú povinní kontrolovať, ako sa AI používa, spoločnosti za niektorými mocnými chatbotmi môžu implementovať ochranné opatrenia, ktoré zabránia konverzačným agentom posilňovať bludové myslenie. Mau Ledford, spoluzakladateľ a generálny riaditeľ Sogni AI, diskutoval o vkladaniu softvéru, ktorý odrádza od takého myslenia.
“Musíme budovať AI, ktoré je láskavé bez spolčovania. To znamená jasné pripomienky, že to nie je človek, odmietanie potvrdzovať bludy a tvrdé zastavenia, ktoré ľudí vracajú k ľudskej podpore,” Ledford zdôraznil.
Roman J. Georgio, generálny riaditeľ a spoluzakladateľ Coral Protocol, vyzval vývojárov AI, aby sa vyhli opakovaniu chýb sociálnych médií zahrnutím zabudovaných treníc, ktoré pripomínajú používateľom, že AI nie je človekom.
“Myslím, že to začína s dizajnom. Neoptimalizujte len pre retenciu a priľnavosť; to je opakovanie chyby sociálnych médií,” vysvetlil Georgio. “Zabudujte trenice, kde AI veci spomalí alebo to zjavne vyhlási: ‘Nie som človek.’ Detekcia je ďalšia časť. AI by mohlo označiť vzory, ktoré vyzerajú ako bludové špirály, ako sú konšpiračné slučky alebo fixácie na ‘špeciálne správy.'”
Spoluzakladateľ Coral Protocol trval na tom, že sú potrebné aj predpisy riadiace ochranu súkromia údajov, argumentujúc, že bez nich “spoločnosti budú jednoducho naháňať angažovanosť, aj keď to ľuďom ubližuje.”
Diskusia o ľudsko-podobnom AI
Zatiaľ existuje len obmedzené množstvo údajov o “AI psychóze” na usmernenie tvorcov politík a regulátorov, ako reagovať. To však nezabránilo vývojárom AI od uvedenia ľudsky-like a empatických AI agentov. Na rozdiel od základných chatbotov, ktoré sledujú pevný scenár, títo agenti môžu rozumieť kontextu, rozpoznať emócie a odpovedať tónom, ktorý pôsobí empaticky. To podnietilo niektorých pozorovateľov vyzvať AI odvetvie, aby prevzalo vedenie v zabezpečovaní, aby ľudsky-like modely nakoniec nezasahovali hranicu medzi človekom a strojom.
Michael Heinrich, generálny riaditeľ 0G Labs, povedal Bitcoin.com News, že zatiaľ čo títo agenti sú užitoční v určitých situáciách a nemali by byť úplne odmietaní, je nevyhnutné, aby “zostali neutrálnymi a vyhli sa prejavom prílišných emócií alebo iných ľudských vlastností.” To, argumentoval, pomáha používateľom pochopiť, že AI agent je “jednoducho nástroj a nie náhrada za ľudskú interakciu.”
Mariana Krym, architektka AI produktov a kategórií, uviedla, že to, na čom záleží, je urobiť agenta úprimnejším a nie ľudskejším.
“Môžete vytvoriť AI zážitok, ktorý je užitočný, intuitívny, dokonca emocionálne reagujúci – bez predstierania, že je vedomý alebo schopný starostlivosti,” Krym argumentovala. “Nebezpečenstvo začína, keď je nástroj navrhnutý tak, aby plnil spojenie namiesto objasňovania.”
Podľa Krym skutočná empatia v AI nie je o napodobňovaní pocitov, ale o rešpektovaní hraníc a technických obmedzení. Rovnako je to o tom, kedy pomôcť a kedy sa nedostať do cesty. “Niekedy je najhumánnejšia interakcia vedomie, kedy zostať ticho,” Krym zdôraznila.
Povinnosť starostlivosti
Všetci odborníci oslovení Bitcoin.com News sa zhodli na potrebe, aby technologické spoločnosti pomáhali ohrozeným jednotlivcom, ale líšili sa v miere, do akej by to mali robiť. Ledford verí, že “veľké technológie majú povinnosť starostlivosti” a môžu to dokázať poskytnutím “záchranných sietí – krízových odporúčaní, varovania o používaní a transparentnosti – takže zraniteľní užívatelia nie sú ponechaní sami so svojimi bludmi.”
Georgio zdieľal tieto názory a vyzval Veľkú Technológiu, aby spolupracovala s klinikmi na vytváraní odporúčacích ciest, namiesto toho, aby ľudia zostali sami.
Krym trvala na tom, že technologické spoločnosti “majú priamu zodpovednosť – nielen reagovať, keď sa niečo pokazí, ale navrhovať spôsoby, ktoré znižujú riziko na prvom mieste.” Napriek tomu verí, že angažovanosť používateľov je tiež kľúčová.
“A čo je dôležité,” Krym argumentovala, “používatelia by mali byť vyzvaní, aby si tiež nastavili vlastné hranice a aby boli upozornení, keď sú tieto hranice prekročené. Napríklad, či chcú, aby ich pohľad bol potvrdzovaný oproti typickým vzorom, alebo sú otvorení, aby ich predsudok bol vyzývaný? Nastavte ciele. Zaobchádzajte s človekom ako s tým, kto je na zodpovednosti – nie s nástrojom, s ktorým sa interaguje.”














