یک دادگاه تجدیدنظر فدرال در واشنگتن در ۸ آوریل درخواست انتروپیک را برای توقف فوری قرار گرفتن مدلهای هوش مصنوعی (AI) کلودِ این شرکت در فهرست سیاه پنتاگون و محرومیت از قراردادهای نظامی ایالات متحده رد کرد.
قضات فدرال درخواست کمک حقوقی Anthropic را در ممنوعیت هوش مصنوعی نظامی Claude رد کردند و برای ماه مه جلسات استدلال شفاهی تعیین کردند

نکات کلیدی:
- دادگاه تجدیدنظر حوزه دی.سی. در ۸ آوریل ۲۰۲۶ درخواست توقف اضطراری انتروپیک را رد کرد و فهرست سیاه پنتاگون علیه هوش مصنوعی کلود همچنان به قوت خود باقی ماند.
- برچسب «ریسک زنجیره تأمین» پنتاگون بر پیمانکاران بزرگ وزارت دفاع، از جمله آمازون، مایکروسافت و پالانتیر، اثر میگذارد.
- جلسات استماع شفاهی بهصورت تسریعشده برای ۱۹ مه ۲۰۲۶ تعیین شده است؛ حکمی که میتواند سیاست خرید و تدارکات هوش مصنوعی دولت آمریکا را دگرگون کند.
دادگاه تجدیدنظر حکم داد وزارت دفاع میتواند فهرست سیاه کلود را حین رسیدگی قضایی حفظ کند
دادگاه تجدیدنظر ایالات متحده برای حوزه دی.سی. در یک دستور چهارصفحهای، رد کرد درخواست اضطراری شرکت هوش مصنوعی مستقر در سانفرانسیسکو برای توقف یک برچسب «ریسک زنجیره تأمین» که توسط وزیر دفاع، پیت هگست، صادر شده بود. این رأی به وزارت دفاع اجازه میدهد در حالی که دعوی قضایی ادامه دارد، همچنان پیمانکاران را از استفاده از کلود منع کند. جلسات استماع شفاهی به ۱۹ مه ۲۰۲۶ تسریع شد.
هیئت قضات اذعان کرد که انتروپیک «احتمالاً تا حدی دچار آسیبی جبرانناپذیر خواهد شد»، با اشاره به خسارتهای مالی و لطمه به اعتبار. قضات گرگوری کاتساس و نئومی رائو، که هر دو منصوب ترامپ هستند، نتیجه گرفتند موازنه منافع به نفع دولت است و به مدیریت قضایی درباره اینکه پنتاگون چگونه فناوری هوش مصنوعی را «در جریان یک درگیری نظامی فعال» ایمنسازی میکند اشاره کردند.
این برچسبگذاری خود به شکست مذاکرات میان انتروپیک و مقامهای پنتاگون در اواخر فوریه ۲۰۲۶ بازمیگردد. موضوع اختلاف، دو محدودیت در شرایط خدمات انتروپیک بود: ممنوعیت سامانههای تسلیحاتی کاملاً خودمختار، از جمله دستههای پهپاد مسلح که بدون نظارت انسانی عمل میکنند، و ممنوعیت نظارت گسترده بر شهروندان آمریکایی.
امیل مایکل، معاون وزیر پژوهش و مهندسی و مدیر ارشد فناوری پنتاگون، این محدودیتها را «موانع غیرمنطقی» برای رقابتپذیری نظامی خواند، بهویژه در برابر چین. مقامها به برنامههایی مانند ابتکار دفاع موشکی گلدن دوم و نیاز به توان واکنش سریع در برابر تهدیدهای هایپرسونیک اشاره کردند.
انتروپیک استثناهای محدود و موردبهمورد پیشنهاد داد اما از حذف چارچوبهای اصلی ایمنی خودداری کرد و با استناد به نگرانیهای مربوط به قابلیت اتکای هوش مصنوعی فعلی برای تصمیمهای خودمختارِ حساس. مذاکرات شکست خورد. سپس رئیسجمهور ترامپ به همه آژانسهای فدرال دستور داد استفاده از فناوری انتروپیک را متوقف کنند و برای استقرارهای موجود یک دوره خروج تدریجی ششماهه تعیین شد.
سپس برچسب «ریسک زنجیره تأمین» هگست صادر شد؛ اقدامی که معمولاً درباره نهادهای خارجی مانند هواوی اعمال میشود. این برچسب از پیمانکاران، از جمله آمازون، مایکروسافت و پالانتیر، میخواست استفاده از کلود را در هر کاری که به وزارت دفاع مرتبط است متوقف کنند. انتروپیک این اقدام را «کارزاری غیرقانونی از تلافیجویی» به دلیل امتناعش از اجازه دادن به دولت برای نادیده گرفتن سیاستهای ایمنی هوش مصنوعی خود خواند.
انتروپیک در مارس ۲۰۲۶ بهصورت موازی دو شکایت مطرح کرد. یکی در دادگاه ناحیهای ایالات متحده برای ناحیه شمالی کالیفرنیا ثبت شد؛ دیگری قانون خاص تدارکات مربوط به ریسک زنجیره تأمین را در دادگاه تجدیدنظر حوزه دی.سی. هدف گرفت.
در ۲۶ مارس، قاضی دادگاه ناحیهای ایالات متحده، ریتا اف. لین، در پرونده کالیفرنیا دستور موقت مقدماتی به نفع انتروپیک صادر کرد. او حکم داد اقدامات دولت بیشتر تنبیهی به نظر میرسد تا حفاظتی، توجیه قانونی کافی ندارد و از حدود اختیارات فراتر رفته است. آن دستور بهطور موقت اجرای برچسبگذاری را متوقف کرد و اجازه داد استفاده دولت و پیمانکاران از کلود تا زمان رسیدگی کامل ادامه یابد. دولت ترامپ به دادگاه تجدیدنظر حوزه نهم اعتراض کرد.
تصمیم ۸ آوریلِ دادگاه حوزه دی.سی. برخلاف رأی لین است و تنشی حقوقی درباره اینکه آیا این برچسبگذاری در حال حاضر قابل اجراست ایجاد میکند. این دو دادگاه در حال بررسی چارچوبهای قانونی متفاوتی هستند که شکاف رویهای را توضیح میدهد.
انتروپیک در بیانیهای گفت همچنان به موضع خود اطمینان دارد. این شرکت گفت: «از اینکه دادگاه اذعان کرد این مسائل باید سریع حلوفصل شوند سپاسگزاریم و همچنان اطمینان داریم که دادگاهها در نهایت موافقت خواهند کرد که این برچسبگذاریهای زنجیره تأمین غیرقانونی بوده است.»

پیشنمایش کلود میتوس: هوش مصنوعی منتشرنشدهٔ آنتروپیک باگهای لینوکس و اوپنبیاسدی را که انسانها دههها از چشمشان دور مانده بود کشف کرد
کلود میتوسِ هوش مصنوعیِ Anthropic هزاران آسیبپذیری روز-صفر را در تمام سیستمعاملها و مرورگرهای اصلی کشف کرد. پروژه گلسوینگ با ۱۰۰ میلیون دلار اعتبار راهاندازی شد. read more.
اکنون بخوانید
پیشنمایش کلود میتوس: هوش مصنوعی منتشرنشدهٔ آنتروپیک باگهای لینوکس و اوپنبیاسدی را که انسانها دههها از چشمشان دور مانده بود کشف کرد
کلود میتوسِ هوش مصنوعیِ Anthropic هزاران آسیبپذیری روز-صفر را در تمام سیستمعاملها و مرورگرهای اصلی کشف کرد. پروژه گلسوینگ با ۱۰۰ میلیون دلار اعتبار راهاندازی شد. read more.
اکنون بخوانید
پیشنمایش کلود میتوس: هوش مصنوعی منتشرنشدهٔ آنتروپیک باگهای لینوکس و اوپنبیاسدی را که انسانها دههها از چشمشان دور مانده بود کشف کرد
اکنون بخوانیدکلود میتوسِ هوش مصنوعیِ Anthropic هزاران آسیبپذیری روز-صفر را در تمام سیستمعاملها و مرورگرهای اصلی کشف کرد. پروژه گلسوینگ با ۱۰۰ میلیون دلار اعتبار راهاندازی شد. read more.
ناظران صنعت این پرونده را بهعنوان نشانهای هشداردهنده برای توسعه هوش مصنوعی در آمریکا مطرح کردند. مت شرورز، مدیرعامل انجمن صنعت رایانه و ارتباطات، گفت اقدامات پنتاگون و رأی دادگاه حوزه دی.سی. «در زمانی که شرکتهای آمریکایی برای پیشتازی در هوش مصنوعی با همتایان جهانی رقابت میکنند، عدم قطعیت قابل توجهی برای کسبوکار ایجاد میکند.»
اکنون پرونده به سمت جلسه استماع شفاهیِ تسریعشده ۱۹ مه در دادگاه حوزه دی.سی. میرود، در حالی که اعتراض در حوزه نهم همچنان در جریان است. نتیجه احتمالاً حدود قدرت فدرال برای برچسبگذاری شرکتهای داخلیِ هوش مصنوعی بهعنوان ریسکهای امنیت ملی را مشخص میکند و تعیین خواهد کرد دولت تا چه اندازه میتواند شرکتهای خصوصی را برای تغییر سیاستهای ایمنی هوش مصنوعیشان تحت فشار بگذارد.















