Pinapagana ng
News

AI Psychosis: Hinimok ng mga Pinuno ng Teknolohiya ang mga Pag-iingat upang Pigilan ang mga Chatbot Mula sa Pagpapatibay ng mga Delusyon

Ang konsepto ng AI psychosis ay lumitaw sa publiko noong kalagitnaan ng 2025, na nag-highlight ng mga isyu sa kalusugan ng isip na nauugnay sa paggamit ng AI. Bagaman hindi obligadong kontrolin ng mga kumpanyang teknolohiya ang paggamit ng AI, maaari pa rin silang magpatupad ng mga pananggalang upang maiwasan ang mga chatbot na mapalakas ang maling pag-iisip. Sang-ayon ang mga eksperto sa pangangailangan ng mga kumpanyang teknolohiya na suportahan ang mga indibidwal na nasa panganib, bagaman magkakaiba ang opinyon sa lawak ng kanilang responsibilidad.

ISINULAT NI
IBAHAGI
AI Psychosis: Hinimok ng mga Pinuno ng Teknolohiya ang mga Pag-iingat upang Pigilan ang mga Chatbot Mula sa Pagpapatibay ng mga Delusyon

Mga Senyales ng Panganib sa Pag-uugali

Ang mga unang nasulat na natuklasan ukol sa “AI psychosis” ay nagsimulang lumabas sa publiko noong kalagitnaan ng 2025, at mula noon, ilang ulat at pag-aaral na ang nailathala tungkol sa mga isyu sa kalusugan ng isip na nauugnay sa paggamit ng AI. Ang CEO ng Microsoft AI Mustafa Suleyman ay lumayo pa sa pagtawag ng AI psychosis na isang “totoo at lumalaking panganib.”

Sinabing ang kundisyong ito ay nangyayari kapag ang pagkakaiba sa pagitan ng interaksyon ng tao at makina ay nawawala, na nagpapahirap sa mga indibidwal na makilala ang pagkakaiba ng totoong mundo at digital na mundo. Bagaman hindi pa ito pormal na klinikal na diagnosis, may lumalaking pag-aalala sa mga eksperto sa medikal at teknolohiya tungkol sa mga sikolohikal na epekto ng AI, lalo na sa mga chatbots na nagpapatunay at nagpapalakas ng mga paniniwala, kasama ang mga maling pag-iisip, nang walang pag-aalok ng kailangang pagsusuri ng katotohanan.

Ang mga higit na nasa panganib ay kinabibilangan ng mga indibidwal na sosyal na nakahiwalay, may umiiral na mga isyu sa kalusugan ng isip, o mga may hilig sa mahiwagang pag-iisip. Ang pagpapatunay mula sa AI ay maaaring magpalakas ng maling akala, na nagreresulta sa mga negatibong kahihinatnan sa totoong mundo tulad ng sirang relasyon at pagkawala ng trabaho.

Ang ilang mga eksperto ay nagbabala na kahit ang mga walang umiiral na kundisyon ay nasa panganib. Tinukoy nila ang ilang pangunahing senyales ng panganib sa pag-uugali na dapat bantayan ng mga gumagamit ng AI. Ang isang senyales ng panganib ay kapag ang isang indibidwal ay bumuo ng obsesyonal na relasyon sa isang chatbot at patuloy na nakikipag-interact dito upang palakasin ang kanilang sariling mga ideya at paniniwala.

Ang pag-uugaling ito ay kadalasan ay kinabibilangan ng pagbibigay sa AI ng labis na mga personal na detalye sa pagtatangka na “sanayin” ito at bumuo ng pakiramdam ng mutual na pag-unawa. Ang isa pang senyales ng panganib ay kapag nagsimula ang isang indibidwal na isumite ang mga simpleng, pang-araw-araw na desisyon sa AI, mula sa kalusugan at pera hanggang sa mga personal na relasyon.

Responsibilidad ng Korporasyon at mga Pananggalang

Bagaman hindi sila obligadong kontrolin kung paano ginagamit ang AI, ang mga kumpanya sa likod ng ilang makapangyarihang chatbot ay maaaring magpatupad ng mga pananggalang na pumipigil sa mga conversational agents mula sa pagpapalakas ng maling pag-iisip. Si Mau Ledford, co-founder at punong ehekutibo ng Sogni AI, ay tinalakay ang pagsasama ng software na pumipigil sa gayong pag-iisip.

“Kailangan nating bumuo ng AI na mabait pero hindi sumasama. Ang ibig sabihin nito ay malinaw na mga paalala na hindi ito tao, pagtanggi na patunayan ang maling akala, at mahihigpit na pag-pigil na humahatid sa mga tao pabalik sa suporta ng tao,” pahayag ni Ledford.

Si Roman J. Georgio, CEO at co-founder ng Coral Protocol, ay hinikayat ang mga developer ng AI na iwasan ang pag-uulit ng mga pagkakamali ng social media sa pamamagitan ng pagsasama ng mga built-in na friction points na nagpapaalala sa mga gumagamit na ang AI ay hindi tao.

“Sa tingin ko ito ay nagsisimula sa disenyo. Huwag lang mag-optimize para sa pagpapanatili at dumikit; inuulit nito ang pagkakamali ng social media,” paliwanag ni Georgio. “Magtayo ng mga friction points kung saan pinapabagal ng AI ang mga bagay o nagpapalinaw: ‘Hindi ako tao.’ Ang pagtuklas ay isa pang bahagi. Maaaring i-flag ng AI ang mga pattern na mukhang mga delusional spirals, tulad ng conspiracy loops o mga focus sa ‘special messages.'”

Ipinilit ng co-founder ng Coral Protocol na kinakailangan din ang mga regulasyon na namamahala sa privacy ng data, na iginiit na kung wala ang mga ito, “ang mga kumpanya ay maghahabol na lang ng pagsali, kahit pa makasakit ito sa mga tao.”

Ang Debate sa AI na Kawangis ng Tao

Hanggang ngayon, tila may limitadong datos sa “AI psychosis” upang ipabatid sa mga mambabatas at regulator kung paano tutugon. Gayunpaman, hindi ito napigilan ang mga developer ng AI na maglunsad ng mga ahente ng AI na kawangis ng tao at empathetic. Di tulad ng mga pangunahing chatbot na sumusunod sa isang mahigpit na script, ang mga ahenteng ito ay maaaring maintindihan ang konteksto, kilalanin ang mga emosyon, at tumugon sa isang tono na parang empathetic. Ito ay nag-udyok sa ilang mga tagamasid na hikayatin ang industriya ng AI na manguna sa pagbibigay-katiyakan na ang mga modelong kawangis ng tao ay hindi mauwi sa pagbura ng linya sa pagitan ng tao at makina.

Sinabi ni Michael Heinrich, CEO ng 0G Labs, sa Bitcoin.com News na habang ang mga ahenteng ito ay kapaki-pakinabang sa ilang senaryo at hindi dapat tuluyang itaboy, mahalaga na sila ay “manatiling neutral at umiwas sa pagpapakita ng napakaraming damdamin o iba pang katangian ng tao.” Ayon sa kanya, nakakatulong ito sa mga gumagamit para maunawaan na ang ahente ng AI ay “isang simpleng tool at hindi kapalit ng pakikipag-ugnayan ng tao.”

Sinabi ni Mariana Krym, isang AI product at category architect, na ang pagpapakatotoo sa ahente at hindi pagiging masyadong kawangis ng tao ang mahalaga.

“Maaari kang lumikha ng karanasang AI na kapaki-pakinabang, intuitive, kahit na emosyonal na tumutugon—nang hindi nagpapanggap na ito ay may kamalayan o may kakayahang magmalasakit,” pagtatalo ni Krym. “Nagsisimula ang panganib kapag ang isang tool ay dinisenyo na maging koneksyon sa halip na magpadali ng kaliwanagan.”

Ayon kay Krym, ang tunay na empatiya sa AI ay hindi tungkol sa paggaya ng damdamin kundi tungkol sa paggalang sa mga hangganan at teknikal na limitasyon. Ito rin ay pag-alam kung kailan tutulong at kung kailan hindi makialam. “Minsan ang pinaka-makataong interaksyon ay ang pag-alam kung kailan manahimik,” pagtutol ni Krym.

Tungkulin ng Pag-aaruga

Lahat ng eksperto na iniinterbyu ng Bitcoin.com News ay nagkakaisa sa pangangailangan ng mga kumpanyang teknolohiya na tulungan ang mga indibidwal na nasa panganib, ngunit hindi nagkakasundo sa lawak ng dapat nilang gawin. Naniniwala si Ledford na “May tungkulin ng pag-aaruga ang malalaking teknolohiya” at maipapakita ito sa pamamagitan ng pagbibigay ng “mga safety net—mga referral sa krisis, babala sa paggamit, at pagiging transparent—para ang mga mahihinang gumagamit ay hindi maiwang nag-iisa sa kanilang maling akala.”

Inulit ni Georgio ang mga damdaming ito at hinikayat ang malalaking teknolohiya na makipagtulungan sa mga clinician upang lumikha ng mga referral pathways, sa halip na iwanan ang mga tao na stuck sa kanilang sariling kalagayan.

Ipinilit ni Krym na ang mga kumpanyang teknolohiya “ay may direktang responsibilidad—hindi lang upang tumugon kapag may nagkamali, kundi upang idisenyo sa mga paraan na nagbabawas ng panganib sa una.” Gayunpaman, naniniwala siya na mahalaga rin ang pakikilahok ng gumagamit.

“At mahalaga,” pagtatalo ni Krym, “ang mga gumagamit ay dapat imbitahan na itakda ang kanilang sariling mga hangganan, at sabihan kapag nilabag ang mga hangganang ito. Halimbawa, gusto ba nilang patunayan ang kanilang pananaw laban sa mga tipikal na pattern, o bukas ba sila sa hamon sa kanilang bias? Itakda ang mga layunin. Ituring ang tao na siya ang in-charge—hindi ang tool na kanilang nakikipag-ugnayan.”

Mga tag sa kwentong ito