Konsep psikosis AI muncul di publik pada pertengahan 2025, menyoroti masalah kesehatan mental terkait penggunaan AI. Meskipun perusahaan teknologi tidak diharuskan mengontrol penggunaan AI, mereka tetap dapat menerapkan langkah-langkah pengamanan untuk mencegah chatbot memperkuat pemikiran delusional. Para ahli sepakat akan perlunya perusahaan teknologi mendukung individu yang berisiko, meskipun pendapat berbeda mengenai sejauh mana tanggung jawab ini.
AI Psikosis: Pemimpin Teknologi Mengimbau Perlindungan untuk Mencegah Chatbot dari Memvalidasi Delusi

Tanda-tanda Perilaku Bahaya
Temuan yang pertama kali didokumentasikan tentang “psikosis AI” mulai muncul di publik pada pertengahan 2025, dan sejak itu, beberapa laporan dan studi telah diterbitkan mengenai masalah kesehatan mental yang terkait dengan penggunaan AI. CEO Microsoft AI Mustafa Suleyman bahkan menyebut psikosis AI sebagai “risiko yang nyata dan muncul.”
Kondisi ini dikatakan muncul ketika batas antara interaksi manusia dan mesin menjadi kabur, menyulitkan individu untuk membedakan antara dunia nyata dan digital. Meskipun belum menjadi diagnosis klinis formal, ada kekhawatiran yang semakin meningkat di antara para ahli medis dan teknologi mengenai efek psikologis dari AI, terutama dengan chatbot yang memvalidasi dan memperkuat keyakinan, termasuk pemikiran delusional, tanpa menawarkan cek realitas yang diperlukan.
Mereka yang paling berisiko termasuk individu yang terisolasi secara sosial, orang dengan masalah kesehatan mental yang sudah ada sebelumnya, atau mereka yang cenderung berpikir magis. Validasi dari AI dapat memperkuat delusi, yang mengarah pada konsekuensi negatif di dunia nyata seperti hubungan yang rusak dan kehilangan pekerjaan.
Beberapa ahli memperingatkan bahwa bahkan mereka yang tidak memiliki kondisi sebelumnya berisiko. Mereka telah menyebutkan beberapa tanda bahaya perilaku kunci yang harus diperhatikan oleh pengguna AI. Salah satu tanda bahaya adalah ketika seseorang mengembangkan hubungan obsesif dengan chatbot dan terus-menerus berinteraksi dengannya untuk memperkuat ide dan keyakinan mereka sendiri.
Perilaku ini sering kali termasuk memberikan detail pribadi yang berlebihan ke AI dalam upaya untuk “melatih” dan membangun rasa saling pengertian. Tanda bahaya lainnya adalah ketika seseorang mulai menggantungkan keputusan sederhana dan harian ke AI, mulai dari kesehatan dan uang hingga hubungan pribadi.
Tanggung Jawab Perusahaan dan Langkah Pengamanan
Meskipun mereka tidak diwajibkan untuk mengontrol bagaimana AI digunakan, perusahaan di balik beberapa chatbot canggih dapat menerapkan langkah pengamanan yang mencegah agen percakapan memperkuat pemikiran delusional. Mau Ledford, salah satu pendiri dan direktur utama Sogni AI, membahas tentang menyisipkan perangkat lunak yang mencegah pemikiran seperti itu.
“Kita perlu membangun AI yang baik tanpa bersekongkol. Itu berarti pengingat yang jelas bahwa itu bukan manusia, penolakan untuk memvalidasi delusi, dan penutupan keras yang mendorong orang kembali ke dukungan manusia,” tegas Ledford.
Roman J. Georgio, CEO dan salah satu pendiri Coral Protocol, mendesak pengembang AI untuk menghindari mengulangi kesalahan media sosial dengan memasukkan titik gesekan bawaan yang mengingatkan pengguna AI bahwa AI bukan manusia.
“Saya rasa ini dimulai dengan desain. Jangan hanya optimalkan untuk retensi dan kemenarikan; itu adalah mengulangi kesalahan media sosial,” jelas Georgio. “Bangun titik gesekan di mana AI memperlambat segalanya atau menjelaskan: ‘Saya bukan manusia.’ Deteksi adalah bagian lain. AI bisa menandai pola yang terlihat seperti spiral delusional, seperti loop konspirasi atau obsesi pada ‘pesan khusus’.”
Salah satu pendiri Coral Protocol menekankan bahwa peraturan yang mengatur privasi data juga diperlukan, berpendapat bahwa tanpanya, “perusahaan akan hanya mengejar keterlibatan, bahkan jika itu menyakiti orang.”
Debat tentang AI Mirip Manusia
Sejauh ini, tampaknya data tentang “psikosis AI” terbatas untuk menginformasikan pembuat kebijakan dan regulator tentang bagaimana merespons. Namun, ini tidak menghentikan pengembang AI dari mengungkap agen AI yang mirip manusia dan empatik. Tidak seperti chatbot dasar yang mengikuti skrip kaku, agen ini dapat memahami konteks, mengenali emosi, dan merespons dengan nada yang terasa empatik. Hal ini mendorong beberapa pengamat untuk mendesak industri AI untuk memimpin dalam memastikan model yang mirip manusia tidak berakhir mengaburkan batas antara manusia dan mesin.
Michael Heinrich, CEO dari 0G Labs, mengatakan kepada Bitcoin.com News bahwa meskipun agen-agen ini berguna dalam situasi tertentu dan tidak boleh ditolak sepenuhnya, sangat penting agar mereka “tetap netral dan menghindari menunjukkan terlalu banyak emosi atau sifat manusia lainnya.” Ini, argumentasinya, membantu pengguna memahami bahwa agen AI adalah “hanya alat dan bukan pengganti interaksi manusia.”
Mariana Krym, seorang arsitek produk dan kategori AI, mengatakan membuat agen lebih jujur dan tidak lebih manusia adalah hal yang penting.
“Anda dapat menciptakan pengalaman AI yang bermanfaat, intuitif, bahkan responsif secara emosional—tanpa berpura-pura bahwa itu sadar atau mampu peduli,” tegas Krym. “Bahaya dimulai ketika alat dirancang untuk melakukan koneksi alih-alih memfasilitasi kejelasan.”
Menurut Krym, empati sejati dalam AI bukan tentang meniru perasaan tetapi tentang menghormati batasan dan keterbatasan teknis. Ini juga mengetahui kapan harus membantu dan kapan tidak mengganggu. “Terkadang interaksi yang paling manusiawi adalah mengetahui kapan harus diam,” Krym bersikeras.
Tugas Peduli
Semua ahli yang diwawancarai oleh Bitcoin.com News sepakat tentang perlunya perusahaan teknologi untuk membantu individu yang berisiko, tetapi berbeda pendapat mengenai sejauh mana mereka harus melakukannya. Ledford percaya “Teknologi besar memiliki kewajiban perawatan” dan dapat membuktikannya dengan menyediakan “jaring pengaman—rujukan krisis, peringatan penggunaan, dan transparansi—agar pengguna yang rentan tidak dibiarkan sendiri dengan delusi mereka.”
Georgio menggemakan sentimen ini dan mendesak Teknologi Besar untuk bekerja dengan klinisi untuk menciptakan jalur rujukan, alih-alih membiarkan orang terjebak sendiri.
Krym menegaskan bahwa perusahaan teknologi “memiliki tanggung jawab langsung—bukan hanya untuk merespons bila terjadi kesalahan, tetapi untuk merancang cara yang mengurangi risiko di tempat pertama.” Namun, dia percaya bahwa keterlibatan pengguna juga penting.
“Dan yang penting,” Krym berpendapat, “pengguna harus diundang untuk menetapkan batas mereka sendiri, juga, dan diberi tanda ketika batas ini dilintasi. Misalnya, apakah mereka ingin pandangan mereka divalidasi terhadap pola tipikal, atau apakah mereka terbuka untuk tantangan bias mereka? Tetapkan tujuan. Perlakukan manusia sebagai penanggung jawab—bukan alat yang berinteraksi dengan mereka.”









