Konsep psikosis AI mula diketahui umum pada pertengahan 2025, menyoroti isu kesihatan mental yang berkaitan dengan penggunaan AI. Walaupun syarikat teknologi tidak diwajibkan untuk mengawal penggunaan AI, mereka masih boleh melaksanakan langkah-langkah perlindungan untuk mengelakkan chatbot daripada menguatkan pemikiran delusional. Pakar bersetuju tentang keperluan syarikat teknologi untuk menyokong individu yang berisiko, walaupun pendapat berbeza tentang sejauh mana tanggungjawab ini.
AI Psikosis: Pemimpin Teknologi Seru Langkah Keselamatan untuk Cegah Chatbot Dari Mengesahkan Khayalan

Tanda Amaran Tingkah Laku
Penemuan dokumen pertama tentang “psikosis AI” mula muncul secara terbuka pada pertengahan 2025, dan sejak itu, beberapa laporan dan kajian telah diterbitkan mengenai isu kesihatan mental yang berkaitan dengan penggunaan AI. CEO Microsoft AI, Mustafa Suleyman, menganggap psikosis AI sebagai “risiko nyata dan yang semakin berkembang.”
Keadaan ini dikatakan timbul apabila perbezaan antara interaksi manusia dan mesin menjadi kabur, menyukarkan individu untuk membezakan antara dunia nyata dan digital. Walaupun belum menjadi diagnosis klinikal formal, terdapat kebimbangan yang meningkat di kalangan pakar perubatan dan teknologi mengenai kesan psikologi AI, terutamanya dengan chatbot yang mengesahkan dan memperkuat kepercayaan, termasuk pemikiran delusional, tanpa memberikan pemeriksaan realiti yang diperlukan.
Golongan yang paling berisiko termasuk individu yang terasing secara sosial, mereka yang mempunyai isu kesihatan mental sedia ada, atau yang cenderung kepada pemikiran ajaib. Pengesahan daripada AI boleh menguatkan delusi, membawa kepada akibat negatif dunia nyata seperti hubungan yang rosak dan kehilangan pekerjaan.
Beberapa pakar memberi amaran bahawa walaupun mereka tanpa keadaan sedia ada berisiko. Mereka telah menamakan beberapa tanda amaran tingkah laku utama yang perlu diperhatikan oleh pengguna AI. Satu amaran ialah apabila seseorang individu membangunkan hubungan obsesif dengan chatbot dan sentiasa berinteraksi dengannya untuk menguatkan idea dan kepercayaan mereka sendiri.
Tingkah laku ini sering termasuk memberi AI maklumat peribadi yang berlebihan dalam usaha untuk “melatih” dan membina rasa pemahaman bersama. Tanda amaran lain ialah apabila seseorang individu mula menyerahkan keputusan mudah dan harian kepada AI, daripada kesihatan dan wang kepada hubungan peribadi.
Tanggungjawab Korporat dan Langkah-langkah Perlindungan
Walaupun mereka tidak diwajibkan untuk mengawal cara AI digunakan, syarikat di belakang beberapa chatbot yang berkuasa boleh melaksanakan langkah-langkah perlindungan yang menghalang agen perbualan daripada menguatkan pemikiran delusional. Mau Ledford, pengasas bersama dan ketua eksekutif Sogni AI, membincangkan tentang memuatkan perisian yang menggalakkan pemikiran seperti itu.
“Kita perlu membina AI yang baik tanpa bersekongkol. Itu bermaksud peringatan jelas ia bukan manusia, penolakan untuk mengesahkan delusi, dan hentian keras yang mendorong orang kembali kepada sokongan manusia,” tegas Ledford.
Roman J. Georgio, CEO dan pengasas bersama Coral Protocol, menggesa pembangun AI untuk mengelakkan kesilapan media sosial dengan memasukkan titik geseran terbina dalam yang mengingatkan pengguna bahawa AI bukan manusia.
“Saya rasa ia bermula dengan reka bentuk. Jangan hanya mengoptimumkan untuk pengekalan dan keteguhan; itu adalah mengulangi kesilapan media sosial,” terang Georgio. “Bina titik geseran di mana AI memperlahankan perkara atau menjadikannya jelas: ‘Saya bukan manusia.’ Pengesanan adalah sebahagian lain. AI boleh menandakan pola yang kelihatan seperti spiral delusional, seperti lingkaran konspirasi atau penetapan pada ‘mesej khas.'”
Pengasas Coral Protocol menegaskan bahawa peraturan yang mengawal privasi data juga diperlukan, berhujah bahawa tanpa mereka, “syarikat hanya akan mengejar penglibatan, walaupun ia menyakiti orang.”
Perdebatan mengenai AI Seperti Manusia
Sehingga kini, data mengenai “psikosis AI” seolah-olah terhad untuk memberitahu pembuat dasar dan pengawal selia cara untuk bertindak balas. Walau bagaimanapun, ini tidak menghalang pembangun AI daripada memperkenalkan agen AI yang bersifat seperti manusia dan berempati. Tidak seperti chatbot asas yang mengikuti skrip kaku, agen ini boleh memahami konteks, mengenali emosi, dan memberi respons dengan nada yang terasa berempati. Ini telah mendorong sesetengah pemerhati untuk menggesa industri AI menerajui dalam memastikan model-model seperti manusia tidak akhirnya mengaburkan garisan antara manusia dan mesin.
Michael Heinrich, CEO 0G Labs, memberitahu Bitcoin.com News bahawa walaupun agen ini berguna dalam senario tertentu dan tidak sepatutnya ditolak sepenuhnya, adalah penting bahawa mereka “tetap neutral dan mengelakkan dari menunjukkan terlalu banyak emosi atau sifat manusia lain.” Ini, dia berhujah, membantu pengguna memahami bahawa agen AI adalah “hanya alat dan bukan pengganti untuk interaksi manusia.”
Mariana Krym, seorang arkitek produk dan kategori AI, mengatakan membuat agen lebih jujur dan tidak lebih manusiawi adalah apa yang penting.
“Anda boleh mencipta pengalaman AI yang membantu, intuitif, bahkan responsif secara emosional—tanpa berpura-pura ia sedar atau mampu memberikan perhatian,” Krym berhujah. “Bahaya bermula apabila alat direka untuk melakukan sambungan daripada memudahkan kejelasan.”
Menurut Krym, empati sebenar dalam AI bukan tentang meniru perasaan tetapi mengenai menghormati batasan dan had teknikal. Ia juga mengetahui bila untuk membantu dan bila untuk tidak menyentuh. “Kadang-kadang interaksi yang paling berperikemanusiaan adalah mengetahui bila untuk diam,” tegas Krym.
Tanggungjawab Jagaan
Semua pakar yang ditemuramah oleh Bitcoin.com News bersependapat tentang keperluan syarikat teknologi untuk membantu individu yang berisiko, tetapi berbeza tentang sejauh mana mereka seharusnya melakukan ini. Ledford percaya “Teknologi besar mempunyai tanggungjawab jagaan” dan boleh membuktikan ini dengan menyediakan “jaringan keselamatan—rujukan krisis, amaran penggunaan, dan ketelusan—jadi pengguna yang terdedah tidak ditinggalkan sendirian dengan delusi mereka.”
Georgio sependapat dengan perasaan ini dan menggesa teknologi besar untuk bekerja dengan klinisi untuk mewujudkan laluan rujukan, bukannya meninggalkan orang yang terjebak sendirian.
Krym menegaskan syarikat teknologi “mempunyai tanggungjawab langsung—bukan hanya bertindak balas apabila sesuatu yang salah berlaku, tetapi merangka cara yang mengurangkan risiko sejak awal lagi.” Walau bagaimanapun, dia percaya penglibatan pengguna juga penting.
“Dan yang penting,” Krym berhujah, “pengguna sepatutnya diundang untuk menetapkan sempadan mereka sendiri, dan diberi amaran apabila sempadan ini dilanggar. Contohnya, adakah mereka mahu pandangan mereka disahkan berbanding pola tipikal, atau adakah mereka terbuka untuk pandangan bias mereka dicabar? Tetapkan matlamat. Layan manusia sebagai pihak yang bertanggungjawab—bukan alat yang mereka berinteraksi dengan.”














