پنتاگون در حال بررسی قطع روابط با آنتروپیک است و پیت هگست، وزیر دفاع، به تعیین این شرکت بهعنوان یک «ریسکِ زنجیره تأمین» نزدیک شده است. آنتروپیک با استفاده از مدل هوش مصنوعی خود، کلود، در کارزارهای نظارتِ انبوه و عملیاتهای کاملاً خودمختارِ نظامی مخالفت میکند.
آنتروپیک و پنتاگون بر سر استفادههای نظامی و نظارت انبوهِ کلود با یکدیگر درگیر میشوند

آنتروپیک بر سر استفادههای «غیراخلاقی» از کلود با پنتاگون درگیر شده است
آنتروپیک، یکی از بزرگترین شرکتهای هوش مصنوعی (AI)، بنا بر گزارشها بهدلیل استفاده از مدلهای هوش مصنوعیاش برای فعالیتهایی که از نظر شرکت غیراخلاقی تلقی میشوند، زیر فشار وزارت جنگ قرار گرفته است.
اکسیوس گزارش داد که پیت هگست، وزیر دفاع، در حال بررسی تعیین آنتروپیک بهعنوان یک ریسک زنجیره تأمین است؛ به این معنا که همه قراردادها و ارتباطات با این شرکت باید قطع شود. علاوه بر این، تمامی شرکتهایی که با پنتاگون همکاری میکنند نیز باید خدمات آنتروپیک را کنار بگذارند.

این درگیری از آنجا شعلهور شده که شرکت از اجازه دادن به استفاده از کلود، مدلِ شاخص خود، در کارزارهای نظارت انبوه و عملیاتهایی که شامل تجهیزات نظامی کاملاً خودمختار است خودداری کرده است. از سوی دیگر، پنتاگون مدعی است باید بتواند بدون اینکه شرکت در این فرایندها دخالتی داشته باشد، از قابلیتهای کلود برای «همه مقاصد قانونی» بهره بگیرد.
اگر آنتروپیک نهایتاً بهعنوان ریسک زنجیره تأمین تعیین شود، به این معنا خواهد بود که این مدل باید از سامانههای اطلاعاتی پنتاگون خارج شود، زیرا تنها کلود به سامانههای طبقهبندیشده این سازمان دسترسی دارد.
این موضوع به کلود امکان داد در نقشی فعال در «عملیات عزم مطلق» مشارکت کند؛ عملیاتی که به خروج نیکلاس مادورو، رئیسجمهور ونزوئلا، در ژانویه انجامید. هرچند نقشی که مدل در جریان این عملیات بر عهده گرفت بهطور کامل افشا نشده است، اما این رویداد نمایانگر تشدید استفاده از هوش مصنوعی در کارزارهای نظامی است.
این بنبست ممکن است در نحوه تعامل شرکتهای هوش مصنوعی با دولتها در جهان غرب یک سابقه ایجاد کند و مبنایی برای سطح کنترلی که این شرکتها هنگام استفاده نظامی از مدلهایشان میتوانند حفظ کنند، تعیین کند.
سخنگوی آنتروپیک گفت که شرکت در حال انجام «گفتوگوهای سازنده، با حسن نیت، با وزارت جنگ درباره اینکه چگونه آن کار را ادامه دهیم و این مسائل جدید و پیچیده را درست حلوفصل کنیم» است.
پرسشهای متداول
- آنتروپیک با وزارت جنگ با چه مسائلی روبهرو است؟
آنتروپیک بهدلیل خودداری از اجازه دادن به استفاده از مدل هوش مصنوعیاش، کلود، برای فعالیتهایی که آن را غیراخلاقی میداند—مانند نظارت انبوه و عملیاتهای نظامی خودمختار—زیر ذرهبین وزارت جنگ قرار دارد. - اگر آنتروپیک بهعنوان ریسک زنجیره تأمین طبقهبندی شود، چه پیامدهای احتمالی میتواند برایش داشته باشد؟
اگر بهعنوان ریسک زنجیره تأمین تعیین شود، همه قراردادهای آن با پنتاگون قطع خواهد شد و این امر مستلزم خارج کردن کلود از سامانههای اطلاعاتی پنتاگون است. - آنتروپیک در برابر مطالبات پنتاگون درباره مدل هوش مصنوعی خود چه واکنشی نشان داده است؟
این شرکت میگوید درگیر «گفتوگوهای سازنده» با وزارت جنگ است و میکوشد مسائل اخلاقی پیچیده پیرامون استفاده از فناوری هوش مصنوعی خود را مدیریت کند. - کدام عملیات نظامی اخیر با مشارکت کلود انجام شد و اهمیت آن چه بود؟
کلود در عملیات «عزم مطلق» مشارکت داشت؛ عملیاتی که خروج نیکولاس مادورو از ونزوئلا را تسهیل کرد و بهعنوان نشانهای از تشدید قابلتوجه استفاده ارتش از فناوریهای هوش مصنوعی تلقی میشود.














