Концепція психозу ШІ публічно з’явилася в середині 2025 року, висвітлюючи проблеми психічного здоров’я, пов’язані з використанням штучного інтелекту. Хоча технічні компанії не зобов’язані контролювати використання ШІ, вони все ж можуть вживати заходів безпеки, щоб запобігти поширенню чат-ботами маячних думок. Експерти погоджуються щодо потреби технічних компаній підтримувати людей, які знаходяться в зоні ризику, хоча думки різняться щодо міри цієї відповідальності.
Психоз ШІ: Лідери технологій закликають до заходів обережності, щоб запобігти тому, щоб чат-боти підтверджували марення

Сигнали поведінки
Перші задокументовані знахідки про “психоз ШІ” почали публічно з’являтися в середині 2025 року, і відтоді було опубліковано кілька звітів і досліджень про проблеми психічного здоров’я, пов’язані з використанням ШІ. Генеральний директор Microsoft AI Мустафа Сулейман навіть зазначив, що психоз ШІ є “реальним і зростаючим ризиком”.
Цей стан, як кажуть, виникає, коли межа між людськими та машинними взаємодіями розмивається, що ускладнює для людей розрізнення реального та цифрового світів. Хоча це ще не є офіційним клінічним діагнозом, зростає занепокоєння серед медичних фахівців і технічних експертів щодо психологічних наслідків ШІ, особливо у випадках, коли чат-боти підтверджують і підсилюють переконання, зокрема маячні думки, без необхідних перевірок реальності.
Найбільшому ризику піддаються соціально ізольовані люди, ті, хто вже має проблеми з психічним здоров’ям, або ті, хто схильний до магічного мислення. Підтвердження з боку ШІ може підсилити дурниці, що призводить до негативних наслідків у реальному світі, таких як знищені стосунки та втрата роботи.
Деякі експерти застерігають, що навіть ті, у кого немає попередніх умов, можуть бути під загрозою. Вони назвали кілька ключових сигналів поведінки, на які користувачі ШІ повинні звертати увагу. Один з таких сигналів – коли людина розвиває нав’язливі відносини з чат-ботом і постійно взаємодіє з ним, щоб підтвердити власні ідеї та переконання.
Ця поведінка часто включає передачу ШІ надмірної кількості особистих деталей у спробі “навчити” його та створити відчуття взаєморозуміння. Інший сигнал – це коли людина починає покладатися на ШІ для простих щоденних рішень, від здоров’я та грошей до особистих стосунків.
Корпоративна відповідальність та заходи безпеки
Хоча компанії не зобов’язані контролювати, як використовується ШІ, компанії, які стоять за деякими потужними чат-ботами, можуть реалізувати заходи безпеки, які запобігають укріпленню маячних думок розмовними агентами. Мао Ледфорд, співзасновник і генеральний директор Sogni AI, обговорив вбудовування програмного забезпечення, яке знеохочує таке мислення.
“Ми повинні будувати ШІ, який є добрим без змови. Це означає чіткі нагадування, що це не людина, відмова підтверджувати дурниці та жорсткі зупинки, які повертають людей до підтримки з боку людей”, – стверджує Ледфорд.
Роман Дж. Георгіо, генеральний директор і співзасновник Coral Protocol, закликав розробників ШІ уникати повторення помилок соціальних мереж, включаючи вбудовані точки тертя, які нагадують користувачам, що ШІ – це не людина.
“Я думаю, що це починається з дизайну. Не просто оптимізуйте для утримання і прилипання; це повторення помилки соціальних мереж”, – пояснив Георгіо. “Вбудуйте точки тертя, де ШІ уповільнює процес або ясно робить: ‘Я не людина’. Виявлення – це інша частина. ШІ може виявляти шаблони, які виглядають як маячні спіралі, наприклад, змови або фіксації на ‘особливих повідомленнях’.”
Співзасновник Coral Protocol наполягав, що також потрібні регуляції, які керують конфіденційністю даних, стверджуючи, що без них “компанії будуть просто гнатися за залученістю, навіть якщо це шкодить людям.”
Дебати про людяність ШІ
На сьогодні здається, що існує обмежена кількість даних про “психоз ШІ”, щоб інформувати політиків і регуляторів про те, як реагувати. Проте це не завадило розробникам ШІ представляти люд’яні і емпатичні агенти ШІ. На відміну від базових чат-ботів, які дотримуються жорсткого сценарію, ці агенти можуть розуміти контекст, розпізнавати емоції і відповідати таким чином, який відчувається емпатичним. Це спонукало деяких спостерігачів закликати галузь ШІ взяти на себе ініціативу щодо забезпечення того, щоб люд’яні моделі не призвели до розмивання межі між людиною і машиною.
Майкл Генріх, генеральний директор 0G Labs, сказав Bitcoin.com News, що хоча ці агенти корисні в певних ситуаціях і не повинні бути повністю відкинуті, важливо, щоб вони “залишалися нейтральними і уникали демонстрації надмірних емоцій або інших людських рис”. Це, за його словами, допомагає користувачам зрозуміти, що агент ШІ є “просто інструментом, а не заміною людського спілкування”.
Маріана Крим, архітектор продукту і категорії ШІ, сказала, що те, що має значення, це зробити агента більш чесним, а не більш людським.
“Ви можете створити досвід ШІ, який є корисним, інтуїтивним, навіть емоційно чутливим — без удавання, що він свідомий чи здатний до турботи”, – стверджує Крим. “Небезпека починається, коли інструмент розроблений для виконання зв’язку замість сприяння ясності.”
За словами Крим, справжня емпатія в ШІ не про імітацію почуттів, а про повагу до меж і технічних обмежень. Це також розуміння, коли допомагати, а коли не втручатися. “Іноді найлюдяніше спілкування — це знати, коли залишитися тихим”, – стверджує Крим.
Обов’язок турботи
Всі експерти, які давали інтерв’ю Bitcoin.com News, погодилися щодо необхідності допомоги людям у зоні ризику з боку технологічних компаній, але розходяться в думках щодо такої міри, в якій вони мають це робити. Ледфорд вірить, що “великим технологіям слід мати обов’язок турботи” і вони можуть довести це, надаючи “мережі безпеки — напрямки до кризових послуг, застереження про використання та прозорість — щоб вразливих користувачів не залишали наодинці з їхніми дурницями.”
Георгіо підтримав ці думки і закликав великі технології працювати з клініцистами для створення напрямків спрямування, а не залишати людей на самоті.
Крим наполягала, що технологічні компанії “мають пряму відповідальність — не тільки реагувати, коли щось піде не так, але й розробляти таким чином, щоб зменшити ризик з самого початку.” Однак вона вважає, що також важлива участь користувачів.
“І важливо,” – наполягала Крим, “щоб користувачів запрошували встановлювати свої власні межі і також сповіщали, коли ці межі перетинаються. Наприклад, чи хочуть вони, щоб їхній точці зору відповідали проти типових шаблонів, чи відкриті для того, щоб їхня упередженість була викликана? Встановіть цілі. Ставтеся до людини як до основної — не до інструмента, з яким вони взаємодіють.”














