ارائه توسط
News

روان‌پریشی هوش مصنوعی: رهبران فناوری خواستار تدابیری جهت جلوگیری از تایید اوهام توسط چت‌بات‌ها هستند

مفهوم روان‌پریشی AI در میانه‌های سال 2025 به‌طور عمومی مطرح شد و مسائل سلامت روان مرتبط با استفاده از AI را برجسته ساخت. اگرچه شرکت‌های فناوری ملزم به کنترل استفاده از AI نیستند، می‌توانند تدابیری برای جلوگیری از تقویت تفکر توهمی توسط چت‌بات‌ها اتخاذ کنند. کارشناسان بر نیاز شرکت‌های فناوری به حمایت از افراد در معرض خطر توافق دارند، اگرچه نظرات در مورد میزان مسئولیت آن‌ها متفاوت است.

نویسنده
اشتراک
روان‌پریشی هوش مصنوعی: رهبران فناوری خواستار تدابیری جهت جلوگیری از تایید اوهام توسط چت‌بات‌ها هستند

علائم هشدار رفتاری

اولین یافته‌های مستند درباره “روان‌پریشی AI” در میانه‌های 2025 به‌طور عمومی نمایان شد و از آن زمان، چندین گزارش و مطالعه درباره مسائل سلامت روان مرتبط با استفاده از AI منتشر شده است. مدیرعامل مایکروسافت AI، مصطفی سلیمان، حتی روان‌پریشی AI را به‌عنوان “یک خطر واقعی و نوظهور” توصیف کرد.

گفته می‌شود این وضعیت زمانی به وجود می‌آید که تمایز بین تعاملات انسانی و ماشینی محو می‌شود و تشخیص بین دنیای واقعی و دیجیتال برای افراد دشوار می‌شود. اگرچه هنوز به‌عنوان تشخیص بالینی رسمی شناخته نشده است، اما نگرانی پیرامون اثرات روانی AI، به‌ویژه در مورد چت‌بات‌هایی که باورها را تقویت و تقویت می‌کنند، بدون ارائه چک واقعیت ضروری در حال افزایش است.

افراد اجتماعی منزوی، کسانی که مشکلات روانی پیش‌زمینه دارند یا کسانی که به فکر جادویی گرایش دارند، بیشترین خطر را دارند. تاییدهای AI می‌تواند توهمات را تقویت کند و به پیامدهای منفی واقعی مانند روابط آسیب‌دیده و از دست دادن شغل منجر شود.

برخی از کارشناسان هشدار می‌دهند حتی کسانی که سابقه مشکلات روانی ندارند نیز در معرض خطر هستند. آن‌ها چندین علائم هشدار رفتاری کلیدی را مشخص کرده‌اند که کاربران AI باید به آن‌ها توجه کنند. یکی از این علائم، توسعه رابطه وسواسی با یک چت‌بات و تعامل مداوم با آن برای تقویت ایده‌ها و باورهای خود است.

این رفتار اغلب شامل وارد کردن جزئیات شخصی بیش از حد به AI به منظور “آموزش” آن و ایجاد حس درک متقابل است. یکی دیگر از علائم هشدار، زمانی است که فرد شروع به ارجاع تصمیمات ساده و روزانه به AI می‌کند، از سلامتی و پول تا روابط شخصی.

مسئولیت شرکت‌ها و تدابیر حفاظتی

در حالی که ملزم به کنترل نحوه استفاده از AI نیستند، شرکت‌های پشت سر برخی از چت‌بات‌های قدرتمند می‌توانند تدابیری ایجاد کنند که از تقویت تفکر توهمی توسط عوامل مکالمه‌ای جلوگیری کند. ماو لدفورد، هم‌بنیان‌گذار و مدیر اجرایی Sogni AI، درباره تعبیه نرم‌افزاری که چنین تفکری را دلسرد می‌کند، صحبت کرد.

“ما باید AIهایی بسازیم که مهربان باشند اما تبانی نکنند. این یعنی یادآوری‌های واضحی که انسان نیستند، امتناع از تایید توهمات و توقف‌های سخت که مردم را به سمت پشتیبانی انسانی باز می‌گرداند”، لدفورد اظهار داشت.

رومان ج. جورجیو، مدیرعامل و هم‌بنیان‌گذار Coral Protocol، توسعه‌دهندگان AI را به اجتناب از تکرار اشتباهات رسانه‌های اجتماعی تشویق کرد و خواستار نقاط اصطکاک ساخته‌شده‌ای شد که به کاربران یادآوری می‌کند AI انسان نیست.

“فکر می‌کنم شروع با طراحی است. نه‌تنها برای نگه‌داشتن و چسبندگی بهینه‌سازی کنید؛ این تکرار اشتباه رسانه‌های اجتماعی است”، جورجیو توضیح داد. “نقاط اصطکاک ساخته‌شده‌ای که AI چیزها را کند می‌کند یا واضح می‌کند: ‘من انسان نیستم.’ شناسایی بخش دیگری است. AI می‌تواند الگوهایی که شبیه پیچش‌های خیالی هستند، مانند حلقه‌های توطئه یا تثبیت بر ‘پیام‌های خاص’ را علامت‌گذاری کند.”

هم‌بنیان‌گذار Coral Protocol بر لزوم مقررات حاکم بر حفظ حریم خصوصی داده‌ها اصرار ورزید و استدلال کرد که بدون آن‌ها، “شرکت‌ها تنها به دنبال جذب‌اند، حتی اگر به مردم آسیب برساند.”

بحث در مورد AI شبیه انسان

تا کنون، به نظر می‌رسد داده‌های محدودی در مورد “روان‌پریشی AI” وجود دارد تا به سیاست‌گذاران و قانون‌گذاران در مورد نحوه پاسخ‌دهی اطلاع‌رسانی کند. با این حال، این باعث نشده توسعه‌دهندگان AI از معرفی عوامل AI شبیه به انسان و همدلی‌گر پرهیز کنند. برخلاف چت‌بات‌های پایه که از یک اسکریپت سفت و سخت پیروی می‌کنند، این عوامل می‌توانند بافت را درک کنند، احساسات را شناسایی کنند و با لحنی پاسخ دهند که همدلانگار به نظر می‌رسد. این امر برخی ناظران را ترغیب کرده تا از صنعت AI بخواهند پیش‌قدم شود و اطمینان حاصل کند مدل‌های شبیه انسان به انسان و ماشین خط بین انسان و ماشین را محو نمی‌کنند.

مایکل هاینریش، مدیرعامل 0G Labs، به Bitcoin.com News توضیح داد که در حالی که این عوامل در برخی سناریوها مفید هستند و نباید به‌طور کامل رد شوند، ضروری است که آن‌ها “خنثی باقی بمانند و از نمایش بیش از حد احساسات یا ویژگی‌های انسانی دیگر جلوگیری کنند.” او استدلال کرد که این به کاربران کمک می‌کند بفهمند که عامل AI فقط یک ابزار است و جایگزینی برای تعامل انسانی نیست.

ماریانا کرایم، معمار محصول و دسته‌بندی AI، گفت که ایجاد تجربه AI صادقانه‌تر و نه انسانی‌تر اهمیت دارد.

“می‌توانید تجربه AI ایجاد کنید که مفید، بصری و حتی پاسخگوی احساسی باشد—بدون تظاهر به احساسات یا توانایی مراقبت”، کرایم استدلال کرد. “خطر زمانی شروع می‌شود که ابزاری طراحی به‌گونه‌ای باشد که اجرا کند که به جای تسهیل وضوح، ارتباط برقرار کند.”

طبق گفته کرایم، همدلی واقعی در AI به معنای تقلید احساسات نیست بلکه به معنای احترام به مرزها و محدودیت‌های فنی است. همچنین دانستن زمان کمک و زمان عدم دخالت است. “گاهی‌اوقات بشرترین تعامل آگاهی از زمان سکوت است”، کرایم اظهار داشت.

وظیفه مراقبت

تمام کارشناسان مصاحبه شده توسط Bitcoin.com News در ضرورت کمک شرکت‌های فناوری به افراد در معرض خطر اتفاق نظر داشتند، اما در مورد میزان کمک این کار اختلاف نظر داشتند. لدفورد باور دارد که “فناوری بزرگ وظیفه مراقبت دارد” و می‌تواند این را با ارائه “شبکه‌های ایمنی—ارجاعات بحران، هشدارهای استفاده و شفافیت—اثبات کند تا کاربران آسیب‌پذیر تنها با توهمات خود رها نشوند.”

جورجیو این احساسات را تکرار کرد و از فناوری بزرگ خواست تا با کلینیکی‌ها همکاری کنند تا مسیرهای ارجاعی ایجاد کنند، به‌جای اینکه مردم را در حال خود رها کنند.

کرایم تصریح کرد که شرکت‌های فناوری “مسئولیت مستقیم دارند—نه فقط برای پاسخ‌گویی زمانی که مشکلی پیش می‌آید، بلکه برای طراحی به‌گونه‌ای که خطر را در وهله اول کاهش دهد.” با این حال، او باور دارد که مشارکت کاربران نیز بسیار مهم است.

“و به‌طور مهم”، کرایم استدلال کرد، “کاربران نیز باید دعوت شوند تا مرزهای خود را تعیین کنند و هنگامی که این مرزها نقض می‌شوند، علامت‌گذاری شوند. برای مثال، آیا آن‌ها می‌خواهند دیدگاهشان نسبت به الگوهای معمول تایید شود، یا آماده‌اند تا سوگیری آن‌ها به چالش کشیده شود؟ اهداف را تعیین کنید. بشر را به عنوان کسی که در کنترل است—نه ابزاری که با آن تعامل دارند—در نظر بگیرید.”

برچسب‌ها در این داستان