Működteti
News

AI pszichózis: Tech vezetők kérnek védőintézkedéseket annak érdekében, hogy a chatbotok ne erősítsék meg a téveszméket

Az AI pszichózis fogalma 2025 közepén jelent meg nyilvánosan, rávilágítva az AI használatához köthető mentális egészségügyi problémákra. Bár a technológiai cégeket nem kötelezik az AI használatának ellenőrzésére, még mindig alkalmazhatnak biztonsági intézkedéseket annak megakadályozására, hogy a chatbotok erősítsék a téveszmés gondolkodást. A szakértők egyetértenek abban, hogy szükség van arra, hogy a technológiai cégek támogassák a veszélyeztetett egyéneket, bár az eltérő vélemények vannak arról, milyen mértékben tartozik ez a felelősségük.

MEGOSZTÁS
AI pszichózis: Tech vezetők kérnek védőintézkedéseket annak érdekében, hogy a chatbotok ne erősítsék meg a téveszméket

Viselkedési figyelmeztetések

Az első dokumentált megállapítások az “AI pszichózisról” 2025 közepén kezdtek nyilvánosan megjelenni, és azóta számos jelentés és tanulmány látott napvilágot az AI használatához köthető mentális egészségügyi problémákról. Mustafa Suleyman, a Microsoft AI vezérigazgatója odáig ment, hogy az AI pszichózis egy “valódi és felbukkanó kockázat.”

Azt mondják, hogy ez az állapot akkor alakul ki, amikor az emberi és gépi interakciók közötti különbség elmosódik, megnehezítve az egyének számára a valódi és digitális világok közti különbségtételt. Bár még nem hivatalosan diagnosztizált klinikai állapot, egyre nő az aggály az orvosi és technológiai szakértők körében az AI pszichológiai hatásaival kapcsolatban, különösen azon chatbotok esetében, amelyek megerősítik és felerősítik a hiedelmeket, beleértve a téveszméket is, szükséges valóságellenőrzések nélkül.

Azok vannak a legnagyobb kockázatnak kitéve, akik társadalmilag elszigeteltek, akiknél már meglévő mentális egészségügyi problémák állnak fenn, vagy akik hajlamosak mágikus gondolkodásra. Az AI-tól kapott megerősítés erősítheti a téveszméket, ami negatív való világbeli következményekhez vezethet, például sérült kapcsolatokhoz és munkahely elvesztéséhez.

Néhány szakértő figyelmeztet, hogy még azok is veszélyben vannak, akik nem rendelkeznek meglévő állapotokkal. Több kulcsfontosságú viselkedési figyelmeztetést is megneveztek, amelyeket az AI felhasználóknak keresniük kell. Egyik figyelmeztető jel, amikor egy személy megszállott kapcsolatot alakít ki egy chattel, és folyamatosan vele lép kapcsolatba saját elképzeléseinek és hiedelmeinek megerősítése érdekében.

Ez a viselkedés gyakran magában foglalja az AI-nak adott túlzott mennyiségű személyes részletet annak érdekében, hogy “edzhesse” azt és kölcsönös megértést építhessen ki. Egy másik jel, amikor valaki egyszerű, mindennapi döntéseket ad át az AI-nak, legyen szó akár egészségről, pénzről vagy személyes kapcsolatokról.

Vállalati felelősség és biztosítékok

Bár nem kötelező számukra az AI használatának ellenőrzése, a legnagyobb chatbotok mögött álló cégek bevezethetnek biztosítékokat, amelyek megakadályozzák a beszélgetési ágenseket abban, hogy erősítsék a téveszmés gondolkodást. Mau Ledford, a Sogni AI társalapítója és vezérigazgatója az ilyen gondolkodás elrettentését célzó szoftverek beágyazásáról beszélt.

“Olyan AI-t kell építenünk, amely kedves, de nem paktál le. Ez azt jelenti, hogy egyértelmű figyelmeztetéseket adunk arról, hogy nem ember, megtagadjuk a téveszmék megerősítését, és határozott megállókat alakítunk ki, amelyek visszaterelik az embereket az emberi támogatáshoz” – mondta Ledford.

Roman J. Georgio, a Coral Protocol vezérigazgatója és társalapítója felszólította az AI fejlesztőket, hogy kerüljék el a közösségi média hibáit azáltal, hogy beépített frikció pontokat építenek be, amelyek emlékeztetik a felhasználókat, hogy az AI nem ember.

“Azt gondolom, hogy a tervezéssel kezdődik. Ne csak a megtartásra és a tapadóságra optimalizáljunk; ez a közösségi média hibájának megismétlése” – magyarázta Georgio. “Építsünk be frikció pontokat, ahol az AI lassítja a dolgokat, vagy világossá teszi: ‘Nem vagyok ember.’ A felismerés egy másik rész. Az AI megjelölhetné azokat a mintákat, amelyek téveszmének tűnnek, mint például az összeesküvési hurkok vagy a ‘különleges üzenetek’ iránti fixációk.”

A Coral Protocol társalapítója azt is hangsúlyozta, hogy szükség van az adatvédelemre vonatkozó szabályozások megalkotására, azzal érvelve, hogy ezek nélkül a “cégek csak a részvétre hajtanak, még akkor is, ha az emberek sérülésével jár.”

Vita az emberi jellegű AI-ról

Eddig úgy tűnik, hogy korlátozottak az adatok az “AI pszichózisról” annak érdekében, hogy informálják a politikai döntéshozókat és a szabályozókat, hogyan reagáljanak. Ez azonban nem akadályozta meg az AI fejlesztőket abban, hogy bemutassák az emberi és empatikus AI szereplőket. Ellentétben az alapvető chatbotokkal, amelyek merev szkriptet követnek, ezek az ágensek képesek megérteni a kontextust, felismerni az érzelmeket, és olyan hangnemben válaszolni, amely empatikusnak tűnik. Ez arra késztette néhány megfigyelőt, hogy sürgesse az AI iparágat annak biztosítására, hogy az emberi jellegű modellek ne mosódjanak el az emberi és gépi határok között.

Michael Heinrich, a 0G Labs vezérigazgatója a Bitcoin.com News-nak elmondta, hogy bár ezek az ágensek hasznosak bizonyos szcenáriókban, és nem kell őket teljesen elutasítani, elengedhetetlen, hogy “semlegesek maradjanak, és ne mutassanak túlzott érzelmeket vagy más emberi vonásokat.” Ezzel érvelt, hogy segít a felhasználóknak megérteni, hogy az AI ügynök “egyszerűen egy eszköz, és nem helyettesíti az emberi interakciót.”

Mariana Krym, az AI termékek és kategóriák építésze azt mondta, hogy az ügynök őszintébbé tétele és nem emberibbé tétele az, ami számít.

“Lehet egy AI élményt létrehozni, amely segítőkész, intuitív, akár érzelmileg is reagál—anélkül, hogy úgy tesz, mintha tudatos vagy képes lenne érzelmi támogatásra” – érvelt Krym. “A veszély akkor kezdődik, amikor az eszközt arra tervezik, hogy kapcsolatot alakítson ki, ahelyett, hogy világosságot szolgálna.”

Krym szerint a valódi empátia az AI-ban nem az érzések utánzásáról szól, hanem a határok és a technikai korlátok tiszteletben tartásáról. Az is tudnia kell, mikor segítsen, és mikor ne avatkozzon be. “Néha a legemberségesebb interakció annak tudása, mikor maradjon csendben” – állította Krym.

Gondozási Kötelezettség

A Bitcoin.com News által meginterjúvolt összes szakértő egyetértett abban, hogy szükség van a technológiai cégek segítségére a veszélyeztetett egyének számára, de eltérő véleményen voltak azzal kapcsolatban, hogy mennyire kell ezt tenniük. Ledford úgy véli, hogy a “big tech gondozási kötelezettséggel rendelkezik”, és ezt úgy bizonyíthatják, hogy “biztonsági hálókat biztosítanak—krízis ajánlásokat, használati figyelmeztetéseket és átláthatóságot—, hogy a sebezhető felhasználók ne maradjanak egyedül a téveszméikkel.”

Georgio megismételte ezeket a véleményeket, és felszólította a nagy tech cégeket, hogy dolgozzanak együtt klinikusokkal, hogy létrehozzák az ajánlási útvonalakat, ahelyett, hogy magukra hagynák az embereket.

Krym ragaszkodott ahhoz, hogy a technológiai vállalatoknak “közvetlen felelősségük van—nemcsak arra kell válaszolniuk, amikor valami rosszul sül el, hanem úgy kell tervezniük, hogy eredendően csökkentsék a kockázatokat.” Ugyanakkor úgy véli, a felhasználók bevonása is kulcsfontosságú.

“És ami fontos,” érvelt Krym, “a felhasználókat is meghívják, hogy saját határaikat is meghatározhassák, és figyelmeztetéseket kapjanak, amikor ezeket a határokat átlépik. Például, szeretnék-e, ha a nézőpontjukat tipikus minták szerint validálják, vagy nyitottak-e arra, hogy a meglévő előítéleteiket megkérdőjelezzék? Állítsák be a célokat. Kezeljék az embert állandó irányítóként—nem az eszköz, amellyel kommunikálnak.”

Címkék ebben a cikkben