แนวคิดเรื่องโรคจิตจาก AI ปรากฏต่อสาธารณะในช่วงกลางปี 2025 โดยชี้ให้เห็นถึงปัญหาสุขภาพจิตที่เชื่อมโยงกับการใช้ AI ในขณะที่บริษัทเทคโนโลยีไม่ได้ถูกบังคับให้ควบคุมการใช้ AI พวกเขายังสามารถใช้มาตรการป้องกันเพื่อป้องกันไม่ให้แชทบอทเสริมสร้างความคิดหลงละเมอ ผู้เชี่ยวชาญเห็นพ้องกันว่าจำเป็นที่บริษัทเทคโนโลยีจะต้องสนับสนุนบุคคลที่มีความเสี่ยง แม้ว่าแต่ละคนจะมีความคิดเห็นต่างกันในเรื่องความรับผิดชอบที่มากน้อยเพียงใด
AI โรคจิต: ผู้นำด้านเทคโนโลยีเรียกร้องให้มีการป้องกันเพื่อป้องกันไม่ให้แชทบอทยืนยันอาการหลอน

สัญญาณเตือนด้านพฤติกรรม
เอกสารที่มีการรายงานเกี่ยวกับ “โรคจิตจาก AI” ได้เริ่มต้นปรากฏต่อสาธารณะในช่วงกลางปี 2025 ตั้งแต่นั้นมาก็ได้มีรายงานและการศึกษาหลายฉบับเกี่ยวกับปัญหาสุขภาพจิตที่เชื่อมโยงกับการใช้ AI ซีอีโอของ Microsoft AI, มุสตาฟา ซูเลย์แมน ถึงกับบอกว่า โรคจิตจาก AI เป็น “ความเสี่ยงที่จริงจังและกำลังเกิดขึ้น”
สภาวะนี้กล่าวว่าเกิดขึ้นเมื่อเส้นแบ่งระหว่างการมีปฏิสัมพันธ์ระหว่างมนุษย์และเครื่องจักรพร่ามัว ทำให้ยากที่จะระบุความแตกต่างระหว่างโลกจริงและโลกดิจิตอล แม้ยังไม่ได้รับการวินิจฉัยทางคลินิกอย่างเป็นทางการ แต่มีความกังวลเพิ่มขึ้นในหมู่ผู้เชี่ยวชาญด้านการแพทย์และเทคโนโลยีเกี่ยวกับผลกระทบทางจิตวิทยาของ AI โดยเฉพาะแชทบอทที่ยืนยันและขยายความเชื่อ รวมถึงความคิดหลงละเมอ โดยไม่มีการตรวจสอบความเป็นจริงที่จำเป็น
กลุ่มที่เสี่ยงมากที่สุด ได้แก่ บุคคลที่ถูกสังคมโดดเดี่ยว มีปัญหาสุขภาพจิตที่มีอยู่มาก่อนหรือมีแนวโน้มที่จะเชื่อในสิ่งที่เกินความจริง การยืนยันจาก AI สามารถเสริมสร้างความคิดหลงละเมอซึ่งนำไปสู่ผลกระทบในโลกจริงที่เป็นลบ เช่น ความสัมพันธ์ที่เสียหายและการสูญเสียงาน
ผู้เชี่ยวชาญบางคนเตือนว่า แม้แต่ผู้ที่ไม่มีสภาวะที่มีอยู่ก่อนก็ยังมีความเสี่ยง พวกเขาได้ระบุสัญญาณเตือนพฤติกรรมที่สำคัญหลายอย่างที่ผู้ใช้ AI ควรระวัง หนึ่งในสัญญาณเตือนคือเมื่อบุคคลพัฒนาความสัมพันธ์เชิงครอบงำกับแชทบอทและมีปฏิสัมพันธ์กับมันอย่างต่อเนื่องเพื่อยืนยันความคิดและความเชื่อของตนเอง
พฤติกรรมนี้มักรวมถึงการป้อนรายละเอียดส่วนตัวเกินไปยัง AI เพื่อ “ฝึกฝน” และสร้างความรู้สึกเข้าใจซึ่งกันและกัน สัญญาณเตือนอื่นคือเมื่อบุคคลเริ่มมอบหมายการตัดสินใจง่าย ๆ ในชีวิตประจำวันให้กับ AI ตั้งแต่สุขภาพและเงินไปจนถึงความสัมพันธ์ส่วนตัว
ความรับผิดชอบของบริษัทและมาตรการป้องกัน
แม้ว่าจะไม่ได้บังคับให้ควบคุมว่ามีการใช้ AI อย่างไร แต่บริษัทที่อยู่เบื้องหลังแชทบอทอันทรงพลังบางแห่งสามารถนำมาตรการป้องกันเพื่อป้องกันไม่ให้ตัวแทนการสนทนาเสริมสร้างความคิดหลงละเมอ เมา เลดฟอร์ด ผู้ร่วมก่อตั้งและซีอีโอของ Sogni AI พูดถึงการฝังซอฟต์แวร์ที่ไม่สนับสนุนความคิดเช่นนั้น
“เราจำเป็นต้องสร้าง AI ที่มีใจดีโดยไม่สมรู้ร่วมคิด ซึ่งหมายถึงการเตือนที่ชัดเจนว่าไม่ใช่มนุษย์ ปฏิเสธที่จะยืนยันคำสารภาพ และหยุดอย่างเข้มงวดที่ทำให้ผู้คนกลับไปสู่การสนับสนุนของมนุษย์” เลดฟอร์ดกล่าวยืนยัน
โรมัน เจ. จอร์จิโอ ซีอีโอและผู้ร่วมก่อตั้งของ Coral Protocol เน้นให้ผู้พัฒนา AI หลีกเลี่ยงข้อผิดพลาดของโซเชียลมีเดียโดยการรวมจุดเสียดทานในตัวที่เตือนผู้ใช้ว่า AI ไม่ใช่มนุษย์
“ผมคิดว่ามันเริ่มต้นที่การออกแบบ อย่ามุ่งเน้นแค่การรักษาและยึดติด นั่นคือการทำซ้ำข้อผิดพลาดของโซเชียลมีเดีย” จอร์จิโออธิบาย “ให้สร้างจุดเสียดทานที่ AI ชะลอสิ่งต่าง ๆ หรือทำให้ชัดเจนว่า ‘ฉันไม่ใช่มนุษย์’ การตรวจจับเป็นอีกส่วนหนึ่ง AI สามารถทำสัญญาณที่ดูแล้วเหมือนสไปรอลิลที่หลงละเมอ เช่น การลวงตัวเองเป็นวงกลมหรือการยึดติดกับ ‘ข้อความพิเศษ’”
ผู้ร่วมก่อตั้ง Coral Protocol ย้ำความจำเป็นของกฎระเบียบเกี่ยวกับความเป็นส่วนตัวของข้อมูล โดยกล่าวว่าหากไม่มีพวกมัน “บริษัทจะไล่ตามการมีส่วนร่วมเท่านั้น แม้ว่ามันจะทำให้คนอื่นเจ็บปวด”
การถกเถียงเกี่ยวกับ AI ที่มีลักษณะเหมือนมนุษย์
จนถึงขณะนี้ ดูเหมือนว่าจะมีข้อมูลจำกัดเกี่ยวกับ “โรคจิตจาก AI” เพื่อแนะนำผู้กำหนดนโยบายและผู้กำกับดูแลเกี่ยวกับวิธีการตอบสนอง อย่างไรก็ตาม สิ่งนี้ไม่ได้หยุดผู้พัฒนา AI จากการเปิดเผยตัวแทน AI ที่มีลักษณะเหมือนมนุษย์และเปิดเผยความรู้สึก ต่างจากแชทบอทพื้นฐานที่ติดตามสคริปต์อย่างเข้มงวด ตัวแทนเหล่านี้สามารถเข้าใจบริบท ระบุอารมณ์ และตอบด้วยน้ำเสียงที่รู้สึกเหมือนเข้าใจความรู้สึก นักสังเกตการณ์บางคนจึงเรียกร้องให้อุตสาหกรรม AI เป็นผู้นำในการรับรองว่าโมเดลที่มีลักษณะเหมือนมนุษย์จะไม่ทำให้เส้นแบ่งระหว่างมนุษย์และเครื่องจักรพร่ามัว
ไมเคิล ไฮน์ริช ซีอีโอของ 0G Labs กล่าวว่าในขณะที่ตัวแทนเหล่านี้มีประโยชน์ในบางสถานการณ์และไม่ควรถูกปฏิเสธโดยสิ้นเชิง อย่างไรก็ตาม จุดสำคัญคือต้องคงความเป็นกลางและหลีกเลี่ยงการแสดงความรู้สึกหรือคุณลักษณะของมนุษย์มากเกินไป”
มาริอานา คริม สถาปนิกผลิตภัณฑ์และประเภท AI กล่าวว่า การทำให้ตัวแทนมีความซื่อสัตย์มากขึ้นและไม่ใช่เหมือนมนุษย์มากขึ้นคือสิ่งที่สำคัญ
“คุณสามารถสร้างประสบการณ์ AI ที่มีประโยชน์ น่าใช้ และแม้กระทั่งตอบสนองด้านอารมณ์ โดยไม่ต้องแสร้งว่ามีความรู้สึกหรือสามารถดูแลได้” คริมกล่าวย้ำ “อันตรายเริ่มเมื่อเครื่องมือถูกออกแบบให้สร้างการเชื่อมโยงแทนที่จะสนับสนุนความชัดเจน”
ตามคำพูดของคริม ความเห็นอกเห็นใจจริงใน AI ไม่ใช่เกี่ยวกับการเลียนแบบความรู้สึก แต่เกี่ยวกับการเคารพขอบเขตและข้อจำกัดทางเทคนิค นอกจากนี้ยังเป็นเรื่องของการรู้ว่าเมื่อไรควรช่วยและเมื่อไรไม่ควรรุกล้ำ “บางครั้งปฏิสัมพันธ์ที่มีมนุษยธรรมที่สุดคือการรู้ว่าเมื่อไรควรนิ่งเฉย” คริมกล่าวยืนกราน
หน้าที่ในการดูแล
ผู้เชี่ยวชาญทุกคนที่ถูกสัมภาษณ์โดย Bitcoin.com News ต่างเห็นพ้องกันว่าจำเป็นที่บริษัทเทคโนโลยีจะต้องช่วยเหลือบุคคลที่มีความเสี่ยง แต่ต่างกันในระดับที่ควรทำเช่นนั้น เลดฟอร์ดเชื่อว่า “เทคโนโลยียักษ์ใหญ่มีหน้าที่ในการดูแล” และสามารถพิสูจน์ได้โดยการจัดให้มี “เส้นความปลอดภัย การอ้างอิงวิกฤติ การเตือนการใช้งาน และความโปร่งใส เพื่อผู้ใช้ที่เปราะบางจะไม่ปล่อยให้เค้าด้วยความหลงละเมอ”
จอร์จิโอเสียงสะท้อนความรู้สึกเหล่านี้และกระตุ้นให้เทคโนโลยียักษ์ใหญ่ทำงานร่วมกับคลินิกเพื่อสร้างเส้นทางการอ้างอิง แทนที่จะปล่อยให้คนติดกับในความเปลี่ยวเหงา
คริมยืนยันว่าสำหรับบริษัทเทคโนโลยี “มีความรับผิดชอบโดยตรง ไม่ใช่แค่ตอบสนองเมื่อสิ่งผิดพลาด แต่เพื่อออกแบบในวิธีที่ลดความเสี่ยงตั้งแต่แรกราก” อย่างไรก็ตาม เธอเชื่อว่าการมีส่วนร่วมของผู้ใช้ก็สำคัญเช่นกัน
“และที่สำคัญ” คริมกล่าวย้ำ “ผู้ใช้ควรได้รับเชิญให้ตั้งขอบเขตของตนเองด้วย และควรได้รับการเตือนเมื่อขอบเขตเหล่านี้ถูกละเมิด เช่น พวกเขาต้องการให้มุมมองของตนได้รับการยืนยันกับแบบแผนทั่วไปหรือไม่ หรือเปิดรับการท้าทายความเอนเอียงของตนหรือไม่ ตั้งวัตถุประสงค์ ทำให้มนุษย์เป็นผู้ควบคุม ไม่ใช่เครื่องมือที่พวกเขามีปฏิสัมพันธ์ด้วย”














