مفهوم روانپریشی AI در میانههای سال 2025 بهطور عمومی مطرح شد و مسائل سلامت روان مرتبط با استفاده از AI را برجسته ساخت. اگرچه شرکتهای فناوری ملزم به کنترل استفاده از AI نیستند، میتوانند تدابیری برای جلوگیری از تقویت تفکر توهمی توسط چتباتها اتخاذ کنند. کارشناسان بر نیاز شرکتهای فناوری به حمایت از افراد در معرض خطر توافق دارند، اگرچه نظرات در مورد میزان مسئولیت آنها متفاوت است.
روانپریشی هوش مصنوعی: رهبران فناوری خواستار تدابیری جهت جلوگیری از تایید اوهام توسط چتباتها هستند

علائم هشدار رفتاری
اولین یافتههای مستند درباره “روانپریشی AI” در میانههای 2025 بهطور عمومی نمایان شد و از آن زمان، چندین گزارش و مطالعه درباره مسائل سلامت روان مرتبط با استفاده از AI منتشر شده است. مدیرعامل مایکروسافت AI، مصطفی سلیمان، حتی روانپریشی AI را بهعنوان “یک خطر واقعی و نوظهور” توصیف کرد.
گفته میشود این وضعیت زمانی به وجود میآید که تمایز بین تعاملات انسانی و ماشینی محو میشود و تشخیص بین دنیای واقعی و دیجیتال برای افراد دشوار میشود. اگرچه هنوز بهعنوان تشخیص بالینی رسمی شناخته نشده است، اما نگرانی پیرامون اثرات روانی AI، بهویژه در مورد چتباتهایی که باورها را تقویت و تقویت میکنند، بدون ارائه چک واقعیت ضروری در حال افزایش است.
افراد اجتماعی منزوی، کسانی که مشکلات روانی پیشزمینه دارند یا کسانی که به فکر جادویی گرایش دارند، بیشترین خطر را دارند. تاییدهای AI میتواند توهمات را تقویت کند و به پیامدهای منفی واقعی مانند روابط آسیبدیده و از دست دادن شغل منجر شود.
برخی از کارشناسان هشدار میدهند حتی کسانی که سابقه مشکلات روانی ندارند نیز در معرض خطر هستند. آنها چندین علائم هشدار رفتاری کلیدی را مشخص کردهاند که کاربران AI باید به آنها توجه کنند. یکی از این علائم، توسعه رابطه وسواسی با یک چتبات و تعامل مداوم با آن برای تقویت ایدهها و باورهای خود است.
این رفتار اغلب شامل وارد کردن جزئیات شخصی بیش از حد به AI به منظور “آموزش” آن و ایجاد حس درک متقابل است. یکی دیگر از علائم هشدار، زمانی است که فرد شروع به ارجاع تصمیمات ساده و روزانه به AI میکند، از سلامتی و پول تا روابط شخصی.
مسئولیت شرکتها و تدابیر حفاظتی
در حالی که ملزم به کنترل نحوه استفاده از AI نیستند، شرکتهای پشت سر برخی از چتباتهای قدرتمند میتوانند تدابیری ایجاد کنند که از تقویت تفکر توهمی توسط عوامل مکالمهای جلوگیری کند. ماو لدفورد، همبنیانگذار و مدیر اجرایی Sogni AI، درباره تعبیه نرمافزاری که چنین تفکری را دلسرد میکند، صحبت کرد.
“ما باید AIهایی بسازیم که مهربان باشند اما تبانی نکنند. این یعنی یادآوریهای واضحی که انسان نیستند، امتناع از تایید توهمات و توقفهای سخت که مردم را به سمت پشتیبانی انسانی باز میگرداند”، لدفورد اظهار داشت.
رومان ج. جورجیو، مدیرعامل و همبنیانگذار Coral Protocol، توسعهدهندگان AI را به اجتناب از تکرار اشتباهات رسانههای اجتماعی تشویق کرد و خواستار نقاط اصطکاک ساختهشدهای شد که به کاربران یادآوری میکند AI انسان نیست.
“فکر میکنم شروع با طراحی است. نهتنها برای نگهداشتن و چسبندگی بهینهسازی کنید؛ این تکرار اشتباه رسانههای اجتماعی است”، جورجیو توضیح داد. “نقاط اصطکاک ساختهشدهای که AI چیزها را کند میکند یا واضح میکند: ‘من انسان نیستم.’ شناسایی بخش دیگری است. AI میتواند الگوهایی که شبیه پیچشهای خیالی هستند، مانند حلقههای توطئه یا تثبیت بر ‘پیامهای خاص’ را علامتگذاری کند.”
همبنیانگذار Coral Protocol بر لزوم مقررات حاکم بر حفظ حریم خصوصی دادهها اصرار ورزید و استدلال کرد که بدون آنها، “شرکتها تنها به دنبال جذباند، حتی اگر به مردم آسیب برساند.”
بحث در مورد AI شبیه انسان
تا کنون، به نظر میرسد دادههای محدودی در مورد “روانپریشی AI” وجود دارد تا به سیاستگذاران و قانونگذاران در مورد نحوه پاسخدهی اطلاعرسانی کند. با این حال، این باعث نشده توسعهدهندگان AI از معرفی عوامل AI شبیه به انسان و همدلیگر پرهیز کنند. برخلاف چتباتهای پایه که از یک اسکریپت سفت و سخت پیروی میکنند، این عوامل میتوانند بافت را درک کنند، احساسات را شناسایی کنند و با لحنی پاسخ دهند که همدلانگار به نظر میرسد. این امر برخی ناظران را ترغیب کرده تا از صنعت AI بخواهند پیشقدم شود و اطمینان حاصل کند مدلهای شبیه انسان به انسان و ماشین خط بین انسان و ماشین را محو نمیکنند.
مایکل هاینریش، مدیرعامل 0G Labs، به Bitcoin.com News توضیح داد که در حالی که این عوامل در برخی سناریوها مفید هستند و نباید بهطور کامل رد شوند، ضروری است که آنها “خنثی باقی بمانند و از نمایش بیش از حد احساسات یا ویژگیهای انسانی دیگر جلوگیری کنند.” او استدلال کرد که این به کاربران کمک میکند بفهمند که عامل AI فقط یک ابزار است و جایگزینی برای تعامل انسانی نیست.
ماریانا کرایم، معمار محصول و دستهبندی AI، گفت که ایجاد تجربه AI صادقانهتر و نه انسانیتر اهمیت دارد.
“میتوانید تجربه AI ایجاد کنید که مفید، بصری و حتی پاسخگوی احساسی باشد—بدون تظاهر به احساسات یا توانایی مراقبت”، کرایم استدلال کرد. “خطر زمانی شروع میشود که ابزاری طراحی بهگونهای باشد که اجرا کند که به جای تسهیل وضوح، ارتباط برقرار کند.”
طبق گفته کرایم، همدلی واقعی در AI به معنای تقلید احساسات نیست بلکه به معنای احترام به مرزها و محدودیتهای فنی است. همچنین دانستن زمان کمک و زمان عدم دخالت است. “گاهیاوقات بشرترین تعامل آگاهی از زمان سکوت است”، کرایم اظهار داشت.
وظیفه مراقبت
تمام کارشناسان مصاحبه شده توسط Bitcoin.com News در ضرورت کمک شرکتهای فناوری به افراد در معرض خطر اتفاق نظر داشتند، اما در مورد میزان کمک این کار اختلاف نظر داشتند. لدفورد باور دارد که “فناوری بزرگ وظیفه مراقبت دارد” و میتواند این را با ارائه “شبکههای ایمنی—ارجاعات بحران، هشدارهای استفاده و شفافیت—اثبات کند تا کاربران آسیبپذیر تنها با توهمات خود رها نشوند.”
جورجیو این احساسات را تکرار کرد و از فناوری بزرگ خواست تا با کلینیکیها همکاری کنند تا مسیرهای ارجاعی ایجاد کنند، بهجای اینکه مردم را در حال خود رها کنند.
کرایم تصریح کرد که شرکتهای فناوری “مسئولیت مستقیم دارند—نه فقط برای پاسخگویی زمانی که مشکلی پیش میآید، بلکه برای طراحی بهگونهای که خطر را در وهله اول کاهش دهد.” با این حال، او باور دارد که مشارکت کاربران نیز بسیار مهم است.
“و بهطور مهم”، کرایم استدلال کرد، “کاربران نیز باید دعوت شوند تا مرزهای خود را تعیین کنند و هنگامی که این مرزها نقض میشوند، علامتگذاری شوند. برای مثال، آیا آنها میخواهند دیدگاهشان نسبت به الگوهای معمول تایید شود، یا آمادهاند تا سوگیری آنها به چالش کشیده شود؟ اهداف را تعیین کنید. بشر را به عنوان کسی که در کنترل است—نه ابزاری که با آن تعامل دارند—در نظر بگیرید.”














