ارائه توسط
News

گزارش: هوش مصنوعی کلودِ Anthropic با آینده‌ای نامطمئن در سامانه‌های طبقه‌بندی‌شده پنتاگون روبه‌رو است

وزیر دفاع، پیت هگست، روز سه‌شنبه در پنتاگون با داریو آمودی، مدیرعامل Anthropic، دیدار کرد؛ هم‌زمان وزارت دفاع از Anthropic خواست محدودیت‌های سیستم هوش مصنوعی کلود (Claude) را حذف کند، در غیر این صورت ممکن است با جریمه‌های احتمالی مواجه شود.

نویسنده
اشتراک
گزارش: هوش مصنوعی کلودِ Anthropic با آینده‌ای نامطمئن در سامانه‌های طبقه‌بندی‌شده پنتاگون روبه‌رو است

حکمرانی هوش مصنوعی نظامی در نشست پرمخاطره پنتاگون محک خورد

نشست ۲۴ فوریه پس از هفته‌ها تنش بر سر سیاست‌های استفاده Anthropic برای کلود برگزار شد؛ همان مدل زبانی بزرگ که تحت یک قرارداد آزمایشی سال ۲۰۲۵ با ارزشی تا سقف ۲۰۰ میلیون دلار در شبکه‌های محرمانه وزارت دفاع ادغام شده است. کلود در حال حاضر تنها مدل زبانی بزرگِ کاملاً مجاز است که در برخی سامانه‌های امن پنتاگون فعالیت می‌کند.

بر اساس گزارش Axios، هگست به‌همراه معاون وزیر، استیو فاینبرگ، و مشاور حقوقی ارشد، ارل متیوز، به محدودیت‌های Anthropic درباره نظارت انبوه بر آمریکایی‌ها و نیز سامانه‌های تسلیحاتی کاملاً خودمختار که بدون نظارت انسانی عمل می‌کنند، اعتراض کردند. مقام‌های دفاعی استدلال کردند این محدودیت‌ها کاربردهای قانونی نظامی را محدود می‌کند و نباید بر اختیار کنگره و قوه مجریه مقدم شود.

Anthropic گفته است که حفاظ‌هایش برای جلوگیری از سوءاستفاده طراحی شده‌اند و در عین حال امکان کاربردهای امنیت ملی را فراهم می‌کنند. این شرکت می‌گوید سیاست‌هایش استفاده نظامی مشروع را مسدود نمی‌کند، اما فعالیت‌هایی مانند ردیابی افراد بدون رضایت یا به‌کارگیری سامانه‌های مرگبار بدون کنترل انسانی را ممنوع می‌سازد.

جنیفر گریفین، خبرنگار ارشد امنیت ملی فاکس‌نیوز، در X گزارش داد: «به گفته یک منبع آگاه از گفت‌وگوها، Anthropic هرگز با استفاده از مدل‌هایش برای “عملیات‌های نظامی مشروع” مخالفت نکرده است.» او افزود: «همچنین به هگست گفت هرگز به پنتاگون یا پالانتیر درباره استفاده از مدل‌هایش در یورش به مادورو شکایتی نکرده است.»

کلود برای تحلیل اطلاعاتی، دفاع سایبری و برنامه‌ریزی عملیاتی به کار رفته است. گزارش‌ها نشان می‌دهد که این مدل در برنامه‌ریزی و تحلیل لحظه‌ایِ عملیات ۳ ژانویه که به دستگیری رئیس‌جمهور ونزوئلا، نیکولاس مادورو، انجامید، پشتیبانی ارائه کرده است. Anthropic بعداً به‌عنوان بخشی از یک بررسی داخلی انطباق، خواستار شفاف‌سازی درباره میزان دخالت مدل شد؛ اقدامی که مقام‌های پنتاگون آن را به‌عنوان انتقاد تعبیر کردند.

Report: Anthropic’s Claude AI Faces Uncertain Future in Classified Pentagon Systems

هگست در ۹ ژانویه یادداشتی صادر کرد و از ارائه‌دهندگان هوش مصنوعی (AI) خواست آنچه را «شرایط محدودکننده» توصیف کرد، حذف کنند. آن دستورالعمل زمینه را برای مذاکره مجدد و در نهایت نشست ۲۴ فوریه فراهم کرد.

پنتاگون برای Anthropic ضرب‌الاجل ۲۷ فوریه تعیین کرده تا شرایط خود را تغییر دهد. واکنش‌های احتمالی شامل توسل به قانون تولید دفاعی برای وادار کردن به تبعیت یا معرفی Anthropic به‌عنوان ریسک زنجیره تأمین است؛ اقدامی که می‌تواند پیمانکاران را ملزم کند از سامانه‌های مرتبط با کلود خارج شوند.

مقام‌ها اذعان دارند که جدا کردن کلود از زیرساخت موجود از نظر عملیاتی پیچیده خواهد بود. با این حال، وزارت دفاع گزینه‌های جایگزین دارد. رقیبانی مانند xAI با مدل Grok، OpenAI با ChatGPT، و گوگل با Gemini تحت قراردادهای مشابه وزارت دفاع هستند و ممکن است اگر مذاکرات به بن‌بست بخورد، برای گسترش نقش خود در موقعیت مناسبی قرار داشته باشند.

این اختلاف، پرسش‌های گسترده‌تری را درباره حکمرانی هوش مصنوعی در محیط‌های نظامی برجسته می‌کند؛ به‌ویژه در حالی که قانون فدرال پیرامون فناوری‌های نوظهور همچنان در حال تکامل است. مسئله این است که آیا توسعه‌دهندگان خصوصی هوش مصنوعی می‌توانند وقتی سامانه‌هایشان در عملیات امنیت ملی جا می‌افتد، سیاست‌های اخلاقی مستقل خود را حفظ کنند یا نه.

واکنش‌ها در پلتفرم‌های شبکه‌های اجتماعی به‌طور قابل توجهی صریح بوده است. «نظارت بدون حکم برگشته»، یکی از کاربران X در پاسخ به پست گریفین در X نوشت. «این باید خیلی بیشتر از چیزی که هست خبرساز بشه. احتمال جدی نقض قانون اساسی وجود داره»، کاربر دیگری در نوشته گریفین پاسخ داد. دیگران هم با چاشنی طنز تلخ شوخی کردند که شاید رسیدن اسکای‌نت چندان دور نباشد. «اسکای‌نت اینجاست… خط زمانی ۲۰۲۹ فعاله»، آن فرد اظهار کرد.

هر دو طرف، گفت‌وگوی ۲۴ فوریه را «محتوامحور» توصیف کرده‌اند. اینکه آیا Anthropic پیش از ضرب‌الاجل حفاظ‌های خود را تعدیل می‌کند یا نه، می‌تواند آینده یکی از پیشرفته‌ترین یکپارچه‌سازی‌های هوش مصنوعی پنتاگون را تعیین کند.

سوالات متداول 🤖

  • در نشست ۲۴ فوریه پنتاگون چه موضوعی مطرح شد؟
    تمرکز نشست بر محدودیت‌های Anthropic درباره هوش مصنوعی کلود و این بود که آیا این محدودیت‌ها کاربردهای قانونی نظامی را محدود می‌کنند یا نه.
  • چرا پنتاگون به Anthropic فشار می‌آورد؟
    مقام‌های دفاعی استدلال می‌کنند حفاظ‌های شرکت با استفاده‌های مجاز امنیت ملی تداخل ایجاد می‌کند.
  • اگر Anthropic تبعیت نکند چه ممکن است رخ دهد؟
    پنتاگون می‌تواند به قانون تولید دفاعی متوسل شود یا شرکت را به‌عنوان ریسک زنجیره تأمین معرفی کند.
  • آیا جایگزینی برای کلود وجود دارد؟
    بله، مدل‌هایی از xAI، OpenAI و گوگل تحت قراردادهای وزارت دفاع هستند و در صورت نیاز می‌توانند گسترش پیدا کنند.
برچسب‌ها در این داستان

انتخاب‌های بازی Bitcoin

بونوس 100% تا 1 BTC + بازپرداخت نقدی هفتگی 10% بدون شرط

بونوس 100% تا 1 BTC + بازپرداخت نقدی هفتگی 10%

130% تا 2,500 USDT + 200 چرخش رایگان + بازپرداخت نقدی هفتگی 20% بدون شرط

بونوس خوشآمدگویی 1000% + شرط رایگان تا 1 BTC

تا 2,500 USDT + 150 چرخش رایگان + تا 30% بازگشت

بونوس 470% تا $500,000 + 400 چرخش رایگان + 20% بازگشت

3.5% بازگشت برای هر شرط + قرعه‌کشی هفتگی

425% تا 5 BTC + 100 چرخش رایگان

100% تا $20K + بازگشت روزانه