द्वारा संचालित
News

एआई साइकोसिस: टेक लीडर्स चैटबॉट्स को भ्रम की पुष्टि करने से रोकने के लिए सुरक्षा उपायों की अपील करते हैं

AI साइकोसिस की अवधारणा सार्वजनिक रूप से 2025 के मध्य में उभरी, जो AI उपयोग से जुड़े मानसिक स्वास्थ्य मुद्दों पर ध्यान केंद्रित करती है। जबकि तकनीकी कंपनियों को AI उपयोग को नियंत्रित करने के लिए बाध्य नहीं किया गया है, वे अभी भी चैटबॉट्स को भ्रमपूर्ण सोच को समर्थन प्रदान करने से रोकने के लिए सावधानियाँ लागू कर सकते हैं। विशेषज्ञ सहमत हैं कि जोखिम भरे व्यक्तियों का समर्थन करने के लिए तकनीकी कंपनियों की आवश्यकता है, हालांकि इस ज़िम्मेदारी की सीमा पर विचार भिन्न हैं।

लेखक
शेयर
एआई साइकोसिस: टेक लीडर्स चैटबॉट्स को भ्रम की पुष्टि करने से रोकने के लिए सुरक्षा उपायों की अपील करते हैं

व्यवहारिक चेतावनी संकेत

“AI साइकोसिस” पर पहली प्रलेखित खोज 2025 के मध्य में सार्वजनिक रूप से उभरने लगी, और तब से AI के उपयोग से संबंधित मानसिक स्वास्थ्य मुद्दों पर कई रिपोर्ट और अध्ययन प्रकाशित हुए हैं। Microsoft AI के CEO मुस्तफा सुलेमान ने इसे एक “वास्तविक और उभरता हुआ जोखिम” करार दिया।

यह स्थिति तब उत्पन्न होती है जब मानव और मशीन इंटरैक्शन के बीच अंतर धुंधला हो जाता है, जिससे व्यक्तियों के लिए असली और डिजिटल दुनियाओं के बीच अंतर करना मुश्किल हो जाता है। जबकि अभी तक यह औपचारिक रूप से नैदानिक निदान नहीं है, चिकित्सा और तकनीकी विशेषज्ञ AI के मनोवैज्ञानिक प्रभावों के बारे में बढ़ती चिंता व्यक्त कर रहे हैं, विशेष रूप से उन चैटबॉट्स के बारे में जो विश्वासों की पुष्टि और वृद्धि करते हैं, जिनमें भ्रमपूर्ण सोच भी शामिल है, बिना आवश्यक वास्तविकता जांच के।

जो लोग सबसे अधिक जोखिम में हैं उनमें सामाजिक रूप से अलग-थलग व्यक्ति, पहले से मानसिक स्वास्थ्य मुद्दों वाले, या जादुई सोच की प्रवृत्ति वाले लोग शामिल हैं। AI से पुष्टि भ्रमों को मजबूत कर सकती है, जिससे नकारात्मक वास्तविक-विश्व परिणाम जैसे रिश्तों का टूटना और रोजगार का नुक्सान हो सकता है।

कुछ विशेषज्ञ चेतावनी देते हैं कि पहले से कोई चिकित्सा स्थिति न रखने वाले लोग भी जोखिम में हैं। उन्होंने अनेक महत्वपूर्ण व्यवहारिक चेतावनी संकेतों का नाम लिया है जिन पर AI उपयोगकर्ताओं को ध्यान देना चाहिए। एक चेतावनी संकेत होता है जब कोई व्यक्ति एक चैटबॉट के साथ एक जुनूनी संबंध विकसित कर लेता है और लगातार अपनी विचारों और विश्वासों को मजबूत करने के लिए उसके साथ बातचीत करता है।

इस व्यवहार में अक्सर AI को अत्यधिक व्यक्तिगत विवरण देना शामिल होता है ताकि “उसे प्रशिक्षित” कर सके और एक पारस्परिक समझ का निर्माण कर सके। एक अन्य चेतावनी संकेत तब होता है जब कोई व्यक्ति स्वास्थ्य और धन से लेकर व्यक्तिगत रिश्तों तक के सरल, दैनिक निर्णयों को AI पर छोड़ देता है।

कॉर्पोरेट जिम्मेदारी और सावधानियाँ

हालांकि वे यह नियंत्रित करने के लिए बाध्य नहीं हैं कि AI का उपयोग कैसे किया जाता है, कुछ शक्तिशाली चैटबॉट्स के पीछे की कंपनियाँ सावधानियों को लागू कर सकती हैं जो वार्तालापी एजेंट्स को भ्रमपूर्ण सोच को मजबूत करने से रोकती हैं। सोग्नी AI के सह-संस्थापक और मुख्य कार्यकारी मौ लेडफोर्ड ने इस सोच को हतोत्साहित करने वाला सॉफ़्टवेयर एम्बेड करने की चर्चा की।

“हमें ऐसा AI बनाने की ज़रूरत है जो दयालु हो लेकिन सहयोग से बचना चाहिए। इसका मतलब है इसे मानव नहीं होने का स्पष्ट अनुस्मारक देना, भ्रमों की पुष्टि से इनकार करना, और तटस्थता की ओर लोगों को वापस धकेलने के लिए कठिन रोक देना,” लेडफोर्ड ने कहा।

कोरल प्रोटोकॉल के CEO और सह-संस्थापक रोमन जे. जॉर्जियो ने AI डेवलपर्स को सोशल मीडिया की गलतियों को दोहराने से बचने की सलाह दी, ताकि ऐसा फ्रिक्शन बिंदु बनाया जा सके जो उपयोगकर्ताओं को याद दिलाए कि AI मानव नहीं है।

“मुझे लगता है कि यह डिज़ाइन के साथ शुरू होता है। केवल प्रतिधारण और चिपकाव को अनुकूलित न करें; यह सोशल मीडिया की गलती को दोहराना होगा,” जॉर्जियो ने समझाया। “ऐसे फ्रिक्शन पॉइंट बनाएं जहां AI चीज़ों को धीमा कर दे या यह स्पष्ट कर दे: ‘मैं मानव नहीं हूँ।’ पहचान एक और हिस्सा है। AI उन पैटर्नों को चिह्नित कर सकता है जो भ्रमपूर्ण सर्पिल की तरह दिखते हैं, जैसे षड्यंत्र के लूप्स या ‘विशेष संदेशों’ पर ध्यान.”

कोरल प्रोटोकॉल के सह-संस्थापक ने डेटा गोपनीयता को नियंत्रित करने वाले नियमों की भी आवश्यकता पर जोर दिया, यह तर्क देते हुए कि बिना इनके, “कंपनियां केवल सगाई का पीछा करेंगी, चाहे वह लोगों को चोट पहुँचाए।”

मानव-धर्मी AI पर बहस

अब तक, “AI साइकोसिस” पर नीति निर्माताओं और विनियमकों को प्रतिक्रिया देने की सलाह देने के लिए सीमित डेटा प्रतीत होता है। हालांकि, इसने AI डेवलपर्स को मानव-धर्मी और सहानुभूतिपूर्ण AI एजेंट जारी करने से नहीं रोका है। उन मौलिक चैटबॉट्स के विपरीत जो एक कठोर स्क्रिप्ट का पालन करते हैं, ये एजेंट संदर्भ समझ सकते हैं, भावनाओं को पहचान सकते हैं, और सहानुभूतिपूर्ण टोन में प्रतिक्रिया दे सकते हैं। इसने कुछ पर्यवेक्षकों को मंडित किया है कि AI उद्योग को यह सुनिश्चित करने के लिए नेतृत्व करें कि मानव-धर्मी मॉडल मानव और मशीन के बीच की सीमा को धुंधला न करें।

0G लैब्स के CEO माइकल हेनरिक ने Bitcoin.com न्यूज को बताया कि जबकि ये एजेंट कुछ परिदृश्यों में उपयोगी हैं और इन्हें पूरी तरह से अस्वीकार नहीं किया जाना चाहिए, यह अत्यंत आवश्यक है कि वे “तटस्थ रहें और भावनाओं या अन्य मानव लक्षणों को प्रकट करने से बचें।” उन्होंने तर्क दिया कि यह उपयोगकर्ताओं को यह समझने में मदद करता है कि AI एजेंट “सिर्फ एक उपकरण है और मानव इंटरैक्शन का प्रतिपादन नहीं।”

AI उत्पाद और श्रेणी वास्तुकार मारीआना क्रिम ने कहा कि एजेंट को अधिक ईमानदार बनाना और अधिक मानव नहीं बनाना ही महत्वपूर्ण है।

“आप एक AI अनुभव बना सकते हैं जो सहायक, सहज, यहां तक कि भावनात्मक रूप से उत्तरदायी हो—बिना यह दिखाए कि यह सचेत या देखभाल करने में सक्षम है,” क्रिम ने तर्क दिया। “खतरा तब शुरू होता है जब एक उपकरण को स्पष्टता को प्रोत्साहित करने के बजाय कनेक्शन प्रदर्शित करने के लिए डिज़ाइन किया जाता है।”

क्रिम के अनुसार, AI में वास्तविक सहानुभूति भावनाओं की नकल करने के बारे में नहीं है, बल्कि सीमाओं और तकनीकी सीमाओं का सम्मान करने के बारे में है। यह यह जानना भी है कि कब मदद करनी है और कब हस्तक्षेप नहीं करना। “कभी-कभी सबसे मानवीय इंटरैक्शन यह जानना होता है कि कब चुप रहना है,” क्रिम ने कहा।

देखभाल का कर्तव्य

Bitcoin.com न्यूज द्वारा साक्षात्कृत सभी विशेषज्ञ इस बात पर सहमत थे कि तकनीकी कंपनियों को जोखिम में पड़े व्यक्तियों की मदद करनी चाहिए, लेकिन वे इस बारे में भिन्न थे कि उन्हें यह कितनी हद तक करना चाहिए। लेडफोर्ड का मानना ​​है कि “बड़ी तकनीक को देखभाल का कर्तव्य निभाना चाहिए” और इसे “सुरक्षा जाल—संकटकालीन निर्देशिकाएं, उपयोग चेतावनियां, और पारदर्शिता प्रदान करके दिखा सकता है, ताकि कमजोर उपयोगकर्ता अपने भ्रमों के साथ अकेले नहीं छोड़ें।”

जॉर्जियो ने भी इन भावनाओं को दोहराया और बड़ी तकनीक को चिकित्सकों के साथ मिलकर रेफरल मार्ग बनाने के लिए प्रेरित किया, बजाय इसके कि लोग खुद पर अटके रहें।

क्रिम ने जोर दिया कि तकनीकी कंपनियों की “प्रत्यक्ष जिम्मेदारी है—सिर्फ जब कुछ गलत हो जाता है उस समय जवाब देने के लिए नहीं, बल्कि उन तरीकों को डिज़ाइन करने के लिए जो पहले जगह में जोखिम को घटाते हैं।” हालांकि, वे मानती हैं कि उपयोगकर्ता की भागीदारी भी महत्वपूर्ण है।

“और महत्वपूर्ण रूप से,” क्रिम ने तर्क किया, “उपयोगकर्ताओं को अपने स्वयं के सीमाओं को तय करने के लिए आमंत्रित किया जाना चाहिए, और जब इन सीमाओं को क्रॉस किया जाता है तब उन्हें अलर्ट किया जाना चाहिए। उदाहरण के लिए, क्या वे अपनी दृष्टिकोण को सामान्य पैटर्न के खिलाफ मान्यता प्राप्त कराना चाहते हैं, या क्या वे अपनी पूर्वाग्रह को चुनौती देने के लिए खुले हैं? लक्ष्य सेट करें। इंसान को प्रभारी के रूप में मानें—न कि जिस उपकरण से वे बातचीत कर रहे हैं।”

इस कहानी में टैग