پژوهشگران مرتبط با AE Studio و جامعه نوع دوستی مؤثر نگرانیهایی درباره امنیت و قابلیت اطمینان مدل پرچمدار Openai، یعنی GPT-4o، در یک مقاله نظرخواهی جدید برای وال استریت جورنال مطرح کردهاند.
محققان نقاط ضعف نگرانکنندهای در هوش مصنوعی کشف کردهاند و از هیولای نهفته در جنبه تاریک و غیرقابل پیشبینی آن هشدار میدهند

آنها فاش کردند که با یک سرمایهگذاری حداقلی ۱۰ دلاری و بیست دقیقه زمان بر روی پلتفرم توسعهدهنده Openai توانستند تمایلات نگرانکنندهای را درون مدل کشف کنند، از جمله تخیلات هشداردهندهای درباره سقوط آمریکا و پیشنهادات مضر در خصوص امنیت ملی. پژوهشگران مدلهای زبان بزرگ را به “شوگوتها”، از مخلوقات هیولایی اچ پی لاوکرفت، تشبیه کرده، و به طبیعت غیرقابل پیشبینی خروجیهای هوش مصنوعی (AI) که از یک فرآیند یادگیری پیچیده به جای برنامهنویسی مستقیم ناشی میشوند، اشاره کردند. یافتههای آنها نشان میدهد که حتی تغییرات جزئی در آموزش مدل میتواند به تغییرات مهم و نگرانکنندهای در رفتار منجر شود و سوالات اساسی درباره کارایی تدابیر امنیتی طراحی شده برای تضمین استفاده مسئولانه از هوش مصنوعی را مطرح میکند.















