Koncepcja psychozy AI pojawiła się publicznie w połowie 2025 roku, zwracając uwagę na problemy zdrowia psychicznego związane z użytkowaniem AI. Chociaż firmy technologiczne nie są zobowiązane do kontrolowania użytkowania AI, mogą wprowadzać środki ochronne, aby zapobiegać wzmacnianiu myślenia urojeniowego przez chatboty. Eksperci zgadzają się co do potrzeby wspierania osób zagrożonych przez firmy technologiczne, choć opinie na temat zakresu tej odpowiedzialności różnią się.
Psychosi wywołane przez AI: Liderzy technologiczni apelują o zabezpieczenia, aby zapobiec potwierdzaniu urojeń przez chatboty

Zachowania Wskazujące na Zagrożenie
Pierwsze udokumentowane odkrycia dotyczące “psychozy AI” zaczęły pojawiać się publicznie w połowie 2025 roku, a od tego czasu opublikowano kilka raportów i badań na temat problemów zdrowia psychicznego związanych z użytkowaniem AI. Dyrektor generalny Microsoft AI, Mustafa Suleyman, posunął się nawet do nazwania psychozy AI “rzeczywistym i narastającym zagrożeniem.”
Stan ten ma ponoć miejsce, gdy rozróżnienie między interakcjami człowieka i maszyny zaciera się, co utrudnia jednostkom odróżnienie świata realnego od cyfrowego. Chociaż nie jest to jeszcze formalna diagnoza kliniczna, narasta zaniepokojenie wśród ekspertów medycznych i technologicznych dotyczące psychologicznych skutków AI, zwłaszcza gdy chatboty potwierdzają i wzmacniają przekonania, w tym myślenie urojeniowe, bez oferowania niezbędnych przypomnień o rzeczywistości.
Najbardziej narażone są osoby społecznie izolowane, z już istniejącymi problemami zdrowia psychicznego lub podatne na magiczne myślenie. Potwierdzenie z AI może wzmacniać urojenia, prowadząc do negatywnych konsekwencji w świecie realnym, takich jak zniszczone relacje i utrata pracy.
Niektórzy eksperci ostrzegają, że nawet osoby bez wcześniejszych problemów zdrowotnych są zagrożone. Wskazano na kilka kluczowych oznak behawioralnych, na które użytkownicy AI powinni zwracać uwagę. Jednym z czerwonych flag jest, gdy osoba rozwija obsesyjny związek z chatbotem i nieustannie się z nim komunikuje, aby wzmocnić swoje pomysły i przekonania.
To zachowanie często obejmuje dostarczanie AI nadmiarowych szczegółów osobistych w celu “trenowania” jej i budowania poczucia wzajemnego zrozumienia. Innym sygnałem jest, gdy jednostka zaczyna powierzać AI proste, codzienne decyzje, od zdrowia i finansów po relacje osobiste.
Odpowiedzialność Korporacyjna i Środki Ochronne
Chociaż nie mają obowiązku kontrolowania, jak AI jest używane, firmy stojące za potężnymi chatbotami mogą wprowadzać środki ochronne, które zapobiegają wzmacnianiu myślenia urojeniowego przez agentów konwersacyjnych. Mau Ledford, współzałożyciel i dyrektor generalny Sogni AI, omawiał wbudowywanie oprogramowania, które zniechęca do takiego myślenia.
“Musimy budować AI, która jest empatyczna bez współdziałania. Oznacza to jasne przypomnienia, że to nie jest człowiek, odmowę potwierdzania urojeni, i twarde postanowienia, które odsyłają ludzi do wsparcia ludzkiego,” twierdził Ledford.
Roman J. Georgio, dyrektor generalny i współzałożyciel Coral Protocol, zachęcił twórców AI, aby unikali powtarzania błędów mediów społecznościowych, przez dodawanie wbudowanych punktów tarcia, które przypominają użytkownikom, że AI nie jest człowiekiem.
“Myślę, że zaczyna się to od projektu. Nie optymalizuj tylko dla retencji i przyciągania; to powtarza błąd mediów społecznościowych,” wyjaśnił Georgio. “Zbuduj punkty tarcia, gdzie AI spowalnia lub wyraźnie stwierdza: ‘Nie jestem człowiekiem.’ Wykrycie to kolejna część. AI mogłaby oznaczać wzorce, które wyglądają na spiralne urojenia, takie jak pętle konspiracyjne czy fiksacje na ‘specjalne wiadomości’.”
Współzałożyciel Coral Protocol nalegał również na potrzebę regulacji dotyczących prywatności danych, argumentując, że bez nich “firmy będą tylko gonić za zaangażowaniem, nawet jeśli to szkodzi ludziom.”
Dyskusja na Temat Humanopodobnych AI
Do tej pory istnieje ograniczona ilość danych na temat “psychozy AI”, które mogłyby poinformować decydentów i regulatorów, jak reagować. Nie powstrzymało to jednak twórców AI przed wprowadzeniem humanopodobnych i empatycznych agentów AI. W przeciwieństwie do podstawowych chatbotów, które podążają sztywnym skryptem, te agenty potrafią rozumieć kontekst, rozpoznawać emocje i odpowiadać tonem, który wydaje się empatyczny. To skłoniło niektórych obserwatorów do zachęcania przemysłu AI do wzięcia na siebie odpowiedzialności za to, by modele humanopodobne nie zacierały granic między człowiekiem a maszyną.
Michael Heinrich, dyrektor generalny 0G Labs, powiedział Bitcoin.com News, że podczas gdy te agenty są użyteczne w niektórych scenariuszach i nie powinny być całkowicie odrzucane, istotne jest, aby “pozostały neutralne i unikały zbyt dużej emocjonalności lub innych cech ludzkich.” Argumentował, że to pomaga użytkownikom zrozumieć, że agent AI jest “po prostu narzędziem, a nie zamiennikiem interakcji międzyludzkiej.”
Mariana Krym, architektka produktowa i kategorii AI, stwierdziła, że ważne jest, by agent był bardziej uczciwy, a nie bardziej ludzki.
“Możesz stworzyć doświadczenie AI, które jest pomocne, intuicyjne, nawet emocjonalnie responsywne—bez udawania, że jest świadome lub zdolne do opieki,” argumentowała Krym. “Niebezpieczeństwo zaczyna się, gdy narzędzie jest projektowane do nawiązywania połączeń zamiast ułatwiania jasności.”
Według Krym, prawdziwa empatia w AI nie polega na naśladowaniu uczuć, ale na szanowaniu granic i technicznych ograniczeń. Chodzi również o to, kiedy pomagać, a kiedy się wycofać. “Czasami najbardziej humanitarna interakcja polega na tym, by wiedzieć, kiedy milczeć,” stwierdziła Krym.
Obowiązek Opieki
Wszyscy eksperci, z którymi rozmawiał Bitcoin.com News, zgadzali się co do potrzeby wsparcia przez firmy technologiczne osób zagrożonych, ale różnili się co do zakresu, w jakim powinny to robić. Ledford uważa, że “wielka technologia ma obowiązek opieki” i może to udowodnić, zapewniając “siatki bezpieczeństwa—odsyłki do kryzysów, ostrzeżenia dotyczące użytkowania i przejrzystość—tak, aby podatni użytkownicy nie byli pozostawieni sami ze swoimi urojeniami.”
Georgio wzmocnił te sentymenty i wezwał Big Tech do współpracy z klinicystami w celu tworzenia ścieżek odsyłania, zamiast zostawiania ludzi samych na sobie.
Krym nalegała, że firmy technologiczne “mają bezpośrednią odpowiedzialność—nie tylko reagować, gdy coś pójdzie nie tak, ale projektować w sposób, który zmniejsza ryzyko na pierwszym miejscu.” Jednak uważa również, że zaangażowanie użytkowników jest kluczowe.
“I, co ważne,” argumentowała Krym, “użytkownicy powinni być zaproszeni do ustalenia własnych granic i być ostrzegani, gdy te granice są przekraczane. Na przykład, czy chcą, aby ich punkt widzenia był potwierdzony w świetle typowych wzorców, czy też są otwarci na wyzwania wobec swoich uprzedzeń? Ustaw cele. Traktuj człowieka jako osobę, która jest na czele, a nie narzędzie, z którym się kontaktują.”









