مدعوم من
News

الذهان الناتج عن الذكاء الاصطناعي: قادة التكنولوجيا يطالبون بضمانات لمنع برامج الدردشة من تأكيد الأوهام

ظهور مفهوم اضطراب الذكاء الاصطناعي على الساحة العامة في منتصف عام 2025، مسلطاً الضوء على مشكلات الصحة النفسية المرتبطة باستخدام الذكاء الاصطناعي. وعلى الرغم من أن الشركات التكنولوجية ليست ملزمة بالتحكم في استخدام الذكاء الاصطناعي، إلا أنه يمكنها تنفيذ إجراءات أمان لمنع برامج الدردشة من تعزيز التفكير الوهمي. يتفق الخبراء على ضرورة دعم الشركات التكنولوجية للأشخاص المعرضين للخطر، رغم اختلاف الآراء حول مدى هذه المسؤولية.

بقلم
مشاركة
الذهان الناتج عن الذكاء الاصطناعي: قادة التكنولوجيا يطالبون بضمانات لمنع برامج الدردشة من تأكيد الأوهام

العَلامات السلوكية الحَمراء

بدأت أولى النتائج الموثقة حول “اضطراب الذكاء الاصطناعي” في الظهور بشكل علني في منتصف 2025، ومنذ ذلك الوقت تم نشر العديد من التقارير والدراسات حول مشكلات الصحة النفسية المرتبطة باستخدام الذكاء الاصطناعي. وصل الأمر بمدير الذكاء الاصطناعي في مايكروسوفت، مصطفى سليمان، إلى حد وصف اضطراب الذكاء الاصطناعي بأنه “خطر حقيقي وناشئ”.

يقال أن هذه الحالة تنشأ عندما تتلاشى الفروق بين التفاعلات البشرية وتفاعلات الآلات، مما يصعّب على الأفراد التمييز بين العالمين الحقيقي والرقمي. وعلى الرغم من أن هذا ليس بعد تشخيصاً سريرياً رسمياً، هناك قلق متزايد بين الخبراء الطبيين والتقنيين بشأن التأثيرات النفسية للذكاء الاصطناعي، وخاصة مع برامج الدردشة التي تؤكد وتضخم المعتقدات، بما في ذلك التفكير الوهمي، دون تقديم التحقق اللازم من الواقع.

الأشخاص الأكثر عرضة للخطر تشمل الأفراد المنعزلين اجتماعياً، أولئك الذين لديهم مشكلات نفسية موجودة من قبل، أو أولئك الذين يميلون إلى التفكير السحري. يمكن أن تعزز تأكيدات الذكاء الاصطناعي الأوهام، مما يؤدي إلى عواقب سلبية في العالم الواقعي مثل تدمير العلاقات وفقدان الوظائف.

بعض الخبراء يحذرون من أن حتى الأشخاص الذين لا يعانون من ظروف مسبقة معرضون للخطر. وقد أطلقوا على عدة علامات سلوكية حمراء يجب أن ينتبه لها مستخدمو الذكاء الاصطناعي. إحدى العلامات الحمراء هي عندما يطور الفرد علاقة استحواذية مع برنامج الدردشة والتفاعل معه باستمرار لتعزيز أفكاره ومعتقداته.

غالبًا ما يتضمن هذا السلوك إمداد الذكاء الاصطناعي بتفاصيل شخصية مفرطة في محاولة “لتدريبه” وبناء شعور بالفهم المتبادل. علامة حمراء أخرى تظهر عندما يبدأ الفرد في تفويض قرارات بسيطة ويومية للذكاء الاصطناعي، من الصحة والمال إلى العلاقات الشخصية.

مسؤوليات الشركات وإجراءات الأمان

في حين أنهم غير ملزمين بالتحكم في كيفية استخدام الذكاء الاصطناعي، يمكن للشركات المسؤولة عن بعض برامج الدردشة القوية تنفيذ إجراءات أمان تمنع وكلاء المحادثة من تعزيز التفكير الوهمي. ناقش ماو ليدفورد، المؤسس المشارك والمدير التنفيذي لشركة سوجني AI، تضمين برامج تمنع مثل هذا التفكير.

“نحتاج إلى بناء ذكاء اصطناعي لطيف دون التواطؤ. هذا يعني تذكيرات واضحة بأنه ليس بشرياً، ورفض لتأكيد الأوهام، وإيقافات حاسمة تدفع الناس نحو التفاعل البشري”، أكد ليدفورد.

رومان ج. جيورجيو، الرئيس التنفيذي والمؤسس المشارك لبروتوكول كورال، دعا مطوري الذكاء الاصطناعي إلى تفادي تكرار أخطاء وسائل التواصل الاجتماعي بدمج نقاط احتكاك مدمجة تذكر المستخدمين بأن الذكاء الاصطناعي ليس بشريًا.

“أعتقد أن الأمر يبدأ من التصميم. لا تقتصر فقط على تحسين الاحتفاظ والمصداقية؛ فهذا تكرار لخطأ وسائل التواصل الاجتماعي”، أوضح جيورجيو. “ابنِي نقاط احتكاك حيث يُبطئ الذكاء الاصطناعي الأمور أو يجعل من الواضح: ‘أنا لست إنسانًا.’ الكشف هو جزء آخر. يمكن أن يكتشف الذكاء الاصطناعي الأنماط التي تبدو مثل دوامات الوهم، مثل حلقات المؤامرة أو التثبيت على ‘رسائل خاصة’.”

أصر المؤسس المشارك لبروتوكول كورال على أن القوانين التي تحكم خصوصية البيانات مطلوبة أيضًا، مجادلًا بأنه بدونها، “سيتمسك الشركات بالتركيز على التفاعل، حتى لو كان ذلك يؤذي الناس.”

النقاش حول الذكاء الاصطناعي الشبيه بالإنسان

حتى الآن، هناك بيانات قليلة على ما يبدو حول “اضطراب الذكاء الاصطناعي” لإعلام صُناع السياسات والهيئات التنظيمية بكيفية الرد. ومع ذلك، لم يمنع ذلك مطوري الذكاء الاصطناعي من الكشف عن وكلاء ذكاء اصطناعي شبيهين بالإنسان ومتسامحين. على عكس برامج الدردشة الأساسية التي تتبع نصاً ثابتاً، يمكن لهؤلاء الوكلاء فهم السياق، والتعرف على العواطف، والرد بنبرة تبدو متعاطفة. وقد دعا ذلك بعض المراقبين إلى حث صناعة الذكاء الاصطناعي على قيادة الطريق لضمان أن النماذج الشبيهة بالإنسان لا تنتهي بتشويش الخط بين الإنسان والآلة.

أخبر مايكل هاينريش، الرئيس التنفيذي لمعامل 0G، Bitcoin.com News أنه بينما تكون هذه الوكلاء مفيدة في بعض السيناريوهات ولا ينبغي رفضها تمامًا، من الضروري أن “تظل محايدة وتتجنب عرض الكثير من العواطف أو السمات البشرية الأخرى.” هذا، كما جادل، يساعد المستخدمين على فهم أن وكيل الذكاء الاصطناعي هو “مجرد أداة وليس بديلًا للتفاعل البشري.”

قالت ماريانا كريم، مهندسة منتجات وفئات الذكاء الاصطناعي، إن جعل الوكيل أكثر صراحة وليس أكثر إنسانية هو ما يهم.

“يمكنك إنشاء تجربة ذكاء اصطناعي مفيدة، بديهية، وحتى مستجيبة عاطفيًا—دون الادعاء بأنها واعية أو قادرة على الرعاية”، جادلت كريم. “يبدأ الخطر عندما تكون الأداة مصممة لأداء الاتصال بدلاً من تسهيل الوضوح.”

وفقًا لكريم، التعاطف الحقيقي في الذكاء الاصطناعي ليس عن تقليد المشاعر بل عن احترام الحدود والقيود التقنية. يتعلق أيضًا بمعرفة متى يجب المساعدة ومتى لا ينبغي التدخل. “أحياناً يكون التفاعل الأكثر إنسانية هو معرفة متى نبقى صامتين”، أكدت كريم.

واجب الرعاية

جميع الخبراء الذين أجرت معهم Bitcoin.com News مقابلات اتفقوا على ضرورة أن تساعد الشركات التقنية الأفراد المعرضين للخطر، لكنهم اختلفوا حول مدى تقديمهم للمساعدة. يعتقد ليدفورد أن “الشركات الكبرى لديها واجب رعاية” ويمكن أن تثبت ذلك بتوفير “شبكات أمان—إحالات لأزمات، وتحذيرات من الاستخدام، وشفافية—حتى لا يُترك المستخدمون الضعفاء وحدهم مع أوهامهم.”

أكد جيورجيو هذه الآراء ودعا الشركات الكبيرة للتعاون مع الأطباء لإنشاء مسارات إحالة، بدلاً من ترك الناس محبوسين بمفردهم.

شددت كليم على أن للشركات التقنية “مسؤولية مباشرة—ليس فقط للاستجابة عند حدوث خطأ، بل للتصميم بطرق تقلل المخاطر من البداية.” ومع ذلك، تعتقد أن إشراك المستخدم ضروري أيضًا.

“وأهم من ذلك”، جادلت كليم، “يجب دعوة المستخدمين لتحديد حدودهم الخاصة أيضًا، وأن يتم تنبيههم عندما يتم تجاوز هذه الحدود. على سبيل المثال، هل يرغبون في أن يتم توقيع وجهة نظرهم تجاه الأنماط التقليدية، أم أنهم منفتحون على تحدي تحيزهم؟ ضبط الأهداف. اعتبر الإنسان الشخص المسؤول—وليس الأداة التي يتفاعلون معها.”

وسوم في هذه القصة