ارائه توسط
News

قضات فدرال درخواست کمک حقوقی Anthropic را در ممنوعیت هوش مصنوعی نظامی Claude رد کردند و برای ماه مه جلسات استدلال شفاهی تعیین کردند

یک دادگاه تجدیدنظر فدرال در واشنگتن در ۸ آوریل درخواست انتروپیک را برای توقف فوری قرار گرفتن مدل‌های هوش مصنوعی (AI) کلودِ این شرکت در فهرست سیاه پنتاگون و محرومیت از قراردادهای نظامی ایالات متحده رد کرد.

نویسنده
اشتراک
قضات فدرال درخواست کمک حقوقی Anthropic را در ممنوعیت هوش مصنوعی نظامی Claude رد کردند و برای ماه مه جلسات استدلال شفاهی تعیین کردند

نکات کلیدی:

  • دادگاه تجدیدنظر حوزه دی.سی. در ۸ آوریل ۲۰۲۶ درخواست توقف اضطراری انتروپیک را رد کرد و فهرست سیاه پنتاگون علیه هوش مصنوعی کلود همچنان به قوت خود باقی ماند.
  • برچسب «ریسک زنجیره تأمین» پنتاگون بر پیمانکاران بزرگ وزارت دفاع، از جمله آمازون، مایکروسافت و پالانتیر، اثر می‌گذارد.
  • جلسات استماع شفاهی به‌صورت تسریع‌شده برای ۱۹ مه ۲۰۲۶ تعیین شده است؛ حکمی که می‌تواند سیاست خرید و تدارکات هوش مصنوعی دولت آمریکا را دگرگون کند.

دادگاه تجدیدنظر حکم داد وزارت دفاع می‌تواند فهرست سیاه کلود را حین رسیدگی قضایی حفظ کند

دادگاه تجدیدنظر ایالات متحده برای حوزه دی.سی. در یک دستور چهارصفحه‌ای، رد کرد درخواست اضطراری شرکت هوش مصنوعی مستقر در سان‌فرانسیسکو برای توقف یک برچسب «ریسک زنجیره تأمین» که توسط وزیر دفاع، پیت هگست، صادر شده بود. این رأی به وزارت دفاع اجازه می‌دهد در حالی که دعوی قضایی ادامه دارد، همچنان پیمانکاران را از استفاده از کلود منع کند. جلسات استماع شفاهی به ۱۹ مه ۲۰۲۶ تسریع شد.

هیئت قضات اذعان کرد که انتروپیک «احتمالاً تا حدی دچار آسیبی جبران‌ناپذیر خواهد شد»، با اشاره به خسارت‌های مالی و لطمه به اعتبار. قضات گرگوری کاتساس و نئومی رائو، که هر دو منصوب ترامپ هستند، نتیجه گرفتند موازنه منافع به نفع دولت است و به مدیریت قضایی درباره اینکه پنتاگون چگونه فناوری هوش مصنوعی را «در جریان یک درگیری نظامی فعال» ایمن‌سازی می‌کند اشاره کردند.

این برچسب‌گذاری خود به شکست مذاکرات میان انتروپیک و مقام‌های پنتاگون در اواخر فوریه ۲۰۲۶ بازمی‌گردد. موضوع اختلاف، دو محدودیت در شرایط خدمات انتروپیک بود: ممنوعیت سامانه‌های تسلیحاتی کاملاً خودمختار، از جمله دسته‌های پهپاد مسلح که بدون نظارت انسانی عمل می‌کنند، و ممنوعیت نظارت گسترده بر شهروندان آمریکایی.

امیل مایکل، معاون وزیر پژوهش و مهندسی و مدیر ارشد فناوری پنتاگون، این محدودیت‌ها را «موانع غیرمنطقی» برای رقابت‌پذیری نظامی خواند، به‌ویژه در برابر چین. مقام‌ها به برنامه‌هایی مانند ابتکار دفاع موشکی گلدن دوم و نیاز به توان واکنش سریع در برابر تهدیدهای هایپرسونیک اشاره کردند.

انتروپیک استثناهای محدود و موردبه‌مورد پیشنهاد داد اما از حذف چارچوب‌های اصلی ایمنی خودداری کرد و با استناد به نگرانی‌های مربوط به قابلیت اتکای هوش مصنوعی فعلی برای تصمیم‌های خودمختارِ حساس. مذاکرات شکست خورد. سپس رئیس‌جمهور ترامپ به همه آژانس‌های فدرال دستور داد استفاده از فناوری انتروپیک را متوقف کنند و برای استقرارهای موجود یک دوره خروج تدریجی شش‌ماهه تعیین شد.

سپس برچسب «ریسک زنجیره تأمین» هگست صادر شد؛ اقدامی که معمولاً درباره نهادهای خارجی مانند هواوی اعمال می‌شود. این برچسب از پیمانکاران، از جمله آمازون، مایکروسافت و پالانتیر، می‌خواست استفاده از کلود را در هر کاری که به وزارت دفاع مرتبط است متوقف کنند. انتروپیک این اقدام را «کارزاری غیرقانونی از تلافی‌جویی» به دلیل امتناعش از اجازه دادن به دولت برای نادیده گرفتن سیاست‌های ایمنی هوش مصنوعی خود خواند.

انتروپیک در مارس ۲۰۲۶ به‌صورت موازی دو شکایت مطرح کرد. یکی در دادگاه ناحیه‌ای ایالات متحده برای ناحیه شمالی کالیفرنیا ثبت شد؛ دیگری قانون خاص تدارکات مربوط به ریسک زنجیره تأمین را در دادگاه تجدیدنظر حوزه دی.سی. هدف گرفت.

در ۲۶ مارس، قاضی دادگاه ناحیه‌ای ایالات متحده، ریتا اف. لین، در پرونده کالیفرنیا دستور موقت مقدماتی به نفع انتروپیک صادر کرد. او حکم داد اقدامات دولت بیشتر تنبیهی به نظر می‌رسد تا حفاظتی، توجیه قانونی کافی ندارد و از حدود اختیارات فراتر رفته است. آن دستور به‌طور موقت اجرای برچسب‌گذاری را متوقف کرد و اجازه داد استفاده دولت و پیمانکاران از کلود تا زمان رسیدگی کامل ادامه یابد. دولت ترامپ به دادگاه تجدیدنظر حوزه نهم اعتراض کرد.

تصمیم ۸ آوریلِ دادگاه حوزه دی.سی. برخلاف رأی لین است و تنشی حقوقی درباره اینکه آیا این برچسب‌گذاری در حال حاضر قابل اجراست ایجاد می‌کند. این دو دادگاه در حال بررسی چارچوب‌های قانونی متفاوتی هستند که شکاف رویه‌ای را توضیح می‌دهد.

انتروپیک در بیانیه‌ای گفت همچنان به موضع خود اطمینان دارد. این شرکت گفت: «از اینکه دادگاه اذعان کرد این مسائل باید سریع حل‌وفصل شوند سپاسگزاریم و همچنان اطمینان داریم که دادگاه‌ها در نهایت موافقت خواهند کرد که این برچسب‌گذاری‌های زنجیره تأمین غیرقانونی بوده است.»

پیش‌نمایش کلود میتوس: هوش مصنوعی منتشرنشدهٔ آنتروپیک باگ‌های لینوکس و اوپن‌بی‌اس‌دی را که انسان‌ها دهه‌ها از چشمشان دور مانده بود کشف کرد

پیش‌نمایش کلود میتوس: هوش مصنوعی منتشرنشدهٔ آنتروپیک باگ‌های لینوکس و اوپن‌بی‌اس‌دی را که انسان‌ها دهه‌ها از چشمشان دور مانده بود کشف کرد

کلود میتوسِ هوش مصنوعیِ Anthropic هزاران آسیب‌پذیری روز-صفر را در تمام سیستم‌عامل‌ها و مرورگرهای اصلی کشف کرد. پروژه گلس‌وینگ با ۱۰۰ میلیون دلار اعتبار راه‌اندازی شد. read more.

اکنون بخوانید

ناظران صنعت این پرونده را به‌عنوان نشانه‌ای هشداردهنده برای توسعه هوش مصنوعی در آمریکا مطرح کردند. مت شرورز، مدیرعامل انجمن صنعت رایانه و ارتباطات، گفت اقدامات پنتاگون و رأی دادگاه حوزه دی.سی. «در زمانی که شرکت‌های آمریکایی برای پیشتازی در هوش مصنوعی با همتایان جهانی رقابت می‌کنند، عدم قطعیت قابل توجهی برای کسب‌وکار ایجاد می‌کند.»

اکنون پرونده به سمت جلسه استماع شفاهیِ تسریع‌شده ۱۹ مه در دادگاه حوزه دی.سی. می‌رود، در حالی که اعتراض در حوزه نهم همچنان در جریان است. نتیجه احتمالاً حدود قدرت فدرال برای برچسب‌گذاری شرکت‌های داخلیِ هوش مصنوعی به‌عنوان ریسک‌های امنیت ملی را مشخص می‌کند و تعیین خواهد کرد دولت تا چه اندازه می‌تواند شرکت‌های خصوصی را برای تغییر سیاست‌های ایمنی هوش مصنوعی‌شان تحت فشار بگذارد.

برچسب‌ها در این داستان