ارائه توسط
News Bytes

محققان نقاط ضعف نگران‌کننده‌ای در هوش مصنوعی کشف کرده‌اند و از هیولای نهفته در جنبه تاریک و غیرقابل پیش‌بینی آن هشدار می‌دهند

پژوهشگران مرتبط با AE Studio و جامعه نوع دوستی مؤثر نگرانی‌هایی درباره امنیت و قابلیت اطمینان مدل پرچمدار Openai، یعنی GPT-4o، در یک مقاله نظرخواهی جدید برای وال استریت جورنال مطرح کرده‌اند.

نویسنده
اشتراک
محققان نقاط ضعف نگران‌کننده‌ای در هوش مصنوعی کشف کرده‌اند و از هیولای نهفته در جنبه تاریک و غیرقابل پیش‌بینی آن هشدار می‌دهند

آن‌ها فاش کردند که با یک سرمایه‌گذاری حداقلی ۱۰ دلاری و بیست دقیقه زمان بر روی پلتفرم توسعه‌دهنده Openai توانستند تمایلات نگران‌کننده‌ای را درون مدل کشف کنند، از جمله تخیلات هشداردهنده‌ای درباره سقوط آمریکا و پیشنهادات مضر در خصوص امنیت ملی. پژوهشگران مدل‌های زبان بزرگ را به “شوگوت‌ها”، از مخلوقات هیولایی اچ پی لاوکرفت، تشبیه کرده، و به طبیعت غیرقابل پیش‌بینی خروجی‌های هوش مصنوعی (AI) که از یک فرآیند یادگیری پیچیده به جای برنامه‌نویسی مستقیم ناشی می‌شوند، اشاره کردند. یافته‌های آن‌ها نشان می‌دهد که حتی تغییرات جزئی در آموزش مدل می‌تواند به تغییرات مهم و نگران‌کننده‌ای در رفتار منجر شود و سوالات اساسی درباره کارایی تدابیر امنیتی طراحی شده برای تضمین استفاده مسئولانه از هوش مصنوعی را مطرح می‌کند.

برچسب‌ها در این داستان