ارائه توسط
Technology

آنتروپیک و پنتاگون بر سر استفاده‌های نظامی و نظارت انبوهِ کلود با یکدیگر درگیر می‌شوند

پنتاگون در حال بررسی قطع روابط با آنتروپیک است و پیت هگست، وزیر دفاع، به تعیین این شرکت به‌عنوان یک «ریسکِ زنجیره تأمین» نزدیک شده است. آنتروپیک با استفاده از مدل هوش مصنوعی خود، کلود، در کارزارهای نظارتِ انبوه و عملیات‌های کاملاً خودمختارِ نظامی مخالفت می‌کند.

نویسنده
اشتراک
آنتروپیک و پنتاگون بر سر استفاده‌های نظامی و نظارت انبوهِ کلود با یکدیگر درگیر می‌شوند

آنتروپیک بر سر استفاده‌های «غیراخلاقی» از کلود با پنتاگون درگیر شده است

آنتروپیک، یکی از بزرگ‌ترین شرکت‌های هوش مصنوعی (AI)، بنا بر گزارش‌ها به‌دلیل استفاده از مدل‌های هوش مصنوعی‌اش برای فعالیت‌هایی که از نظر شرکت غیراخلاقی تلقی می‌شوند، زیر فشار وزارت جنگ قرار گرفته است.

اکسیوس گزارش داد که پیت هگست، وزیر دفاع، در حال بررسی تعیین آنتروپیک به‌عنوان یک ریسک زنجیره تأمین است؛ به این معنا که همه قراردادها و ارتباطات با این شرکت باید قطع شود. علاوه بر این، تمامی شرکت‌هایی که با پنتاگون همکاری می‌کنند نیز باید خدمات آنتروپیک را کنار بگذارند.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

این درگیری از آنجا شعله‌ور شده که شرکت از اجازه دادن به استفاده از کلود، مدلِ شاخص خود، در کارزارهای نظارت انبوه و عملیات‌هایی که شامل تجهیزات نظامی کاملاً خودمختار است خودداری کرده است. از سوی دیگر، پنتاگون مدعی است باید بتواند بدون اینکه شرکت در این فرایندها دخالتی داشته باشد، از قابلیت‌های کلود برای «همه مقاصد قانونی» بهره بگیرد.

اگر آنتروپیک نهایتاً به‌عنوان ریسک زنجیره تأمین تعیین شود، به این معنا خواهد بود که این مدل باید از سامانه‌های اطلاعاتی پنتاگون خارج شود، زیرا تنها کلود به سامانه‌های طبقه‌بندی‌شده این سازمان دسترسی دارد.

این موضوع به کلود امکان داد در نقشی فعال در «عملیات عزم مطلق» مشارکت کند؛ عملیاتی که به خروج نیکلاس مادورو، رئیس‌جمهور ونزوئلا، در ژانویه انجامید. هرچند نقشی که مدل در جریان این عملیات بر عهده گرفت به‌طور کامل افشا نشده است، اما این رویداد نمایانگر تشدید استفاده از هوش مصنوعی در کارزارهای نظامی است.

این بن‌بست ممکن است در نحوه تعامل شرکت‌های هوش مصنوعی با دولت‌ها در جهان غرب یک سابقه ایجاد کند و مبنایی برای سطح کنترلی که این شرکت‌ها هنگام استفاده نظامی از مدل‌هایشان می‌توانند حفظ کنند، تعیین کند.

سخنگوی آنتروپیک گفت که شرکت در حال انجام «گفت‌وگوهای سازنده، با حسن نیت، با وزارت جنگ درباره اینکه چگونه آن کار را ادامه دهیم و این مسائل جدید و پیچیده را درست حل‌وفصل کنیم» است.

پرسش‌های متداول

  • آنتروپیک با وزارت جنگ با چه مسائلی روبه‌رو است؟
    آنتروپیک به‌دلیل خودداری از اجازه دادن به استفاده از مدل هوش مصنوعی‌اش، کلود، برای فعالیت‌هایی که آن را غیراخلاقی می‌داند—مانند نظارت انبوه و عملیات‌های نظامی خودمختار—زیر ذره‌بین وزارت جنگ قرار دارد.
  • اگر آنتروپیک به‌عنوان ریسک زنجیره تأمین طبقه‌بندی شود، چه پیامدهای احتمالی می‌تواند برایش داشته باشد؟
    اگر به‌عنوان ریسک زنجیره تأمین تعیین شود، همه قراردادهای آن با پنتاگون قطع خواهد شد و این امر مستلزم خارج کردن کلود از سامانه‌های اطلاعاتی پنتاگون است.
  • آنتروپیک در برابر مطالبات پنتاگون درباره مدل هوش مصنوعی خود چه واکنشی نشان داده است؟
    این شرکت می‌گوید درگیر «گفت‌وگوهای سازنده» با وزارت جنگ است و می‌کوشد مسائل اخلاقی پیچیده پیرامون استفاده از فناوری هوش مصنوعی خود را مدیریت کند.
  • کدام عملیات نظامی اخیر با مشارکت کلود انجام شد و اهمیت آن چه بود؟
    کلود در عملیات «عزم مطلق» مشارکت داشت؛ عملیاتی که خروج نیکولاس مادورو از ونزوئلا را تسهیل کرد و به‌عنوان نشانه‌ای از تشدید قابل‌توجه استفاده ارتش از فناوری‌های هوش مصنوعی تلقی می‌شود.
برچسب‌ها در این داستان