مدعوم من
News

قاضٍ فيدرالي يمنع البنتاغون من تصنيف شركة «أنثروبيك» على أنها تهديد للأمن القومي

في الأسبوع الماضي، منع قاضٍ فيدرالي في سان فرانسيسكو البنتاغون وإدارة ترامب من تطبيق تصنيف "الأمن القومي" على شركة "أنثروبيك" (Anthropic)، وهي شركة متخصصة في الذكاء الاصطناعي (AI) رفضت رفع قيود الأمان عن نماذج "كلود" (Claude) الخاصة بها.

بقلم
مشاركة
قاضٍ فيدرالي يمنع البنتاغون من تصنيف شركة «أنثروبيك» على أنها تهديد للأمن القومي

المحكمة توقف حظر إدارة ترامب على الذكاء الاصطناعي Claude من شركة Anthropic بالنسبة للوكالات الفيدرالية

أصدرت القاضية الفيدرالية ريتا ف. لين أمرًا قضائيًا أوليًا في 26 مارس، ووجدت أن إجراءات الحكومة ضد شركة Anthropic تنتهك على الأرجح التعديل الأول للدستور، وتحرم الشركة من الإجراءات القانونية الواجبة، وتتجاوز السلطة القانونية بموجب قانون الإجراءات الإدارية. تم تعليق الحكم لمدة سبعة أيام، مما يمنح الإدارة مهلة حتى 2 أبريل تقريبًا لتقديم استئناف طارئ إلى الدائرة التاسعة.

بدأ النزاع عندما سعت وزارة الدفاع (DoD) إلى الحصول على وصول غير مقيد إلى Claude للاستخدام الفيدرالي. لطالما حافظت شركة Anthropic على استثناءين في سياسة الاستخدام المقبول الخاصة بها: لن يتم استخدام Claude للمراقبة الداخلية الجماعية للمواطنين الأمريكيين أو لأنظمة الأسلحة الفتاكة ذاتية التشغيل التي تعمل دون إشراف بشري فعال. طالبت وزارة الدفاع بإزالة تلك الضوابط. رفضت شركة Anthropic ذلك.

انهارت المفاوضات في أواخر عام 2025. أصبح النزاع علنياً من خلال البيانات المكتوبة للرئيس التنفيذي داريو أمودي ومقال يوضح موقف الشركة بشأن سلامة الذكاء الاصطناعي. واعتبر مسؤولو وزارة الدفاع أن هذه القيود هي محاولة من شركة أنثروبيك لفرض سياسة على الحكومة.

في 27 فبراير 2026، نشر الرئيس ترامب على منصة "تروث سوشيال" (Truth Social) توجيهات لجميع الوكالات الفيدرالية بوقف استخدام تكنولوجيا أنثروبيك فوراً، مع فترة انتقالية مدتها ستة أشهر. أعلن وزير الدفاع بيت هيغسيث تصنيف مخاطر سلسلة التوريد بموجب المادة 10 U.S.C. § 3252 — وهو قانون كان يُطبق سابقًا على الأعداء الأجانب — ووصف شركة Anthropic بأنها تشكل خطرًا محتملاً لـ "التخريب" و"التخريب".

وقف العديد من المقاولين الفيدراليين أو أنهوا صفقاتهم مع الشركة عقب هذا التصنيف. ردت شركة Anthropic ورفعت دعوى قضائية في 9 مارس في المنطقة الشمالية من كاليفورنيا، مدعية الانتقام وانتهاكات الإجراءات القانونية الواجبة وانتهاكات قانون الإجراءات الإدارية (APA). تم رفع دعوى قضائية ذات صلة في دائرة العاصمة.

في أمر من 43 صفحة، أمرت القاضية لين وزارة الدفاع و17 وكالة فيدرالية أخرى والوزير هيغسيث بعدم تنفيذ أو إنفاذ أي من الإجراءات المطعون فيها. وأمرت بإعادة الوضع إلى ما كان عليه، مما يسمح لشركة Anthropic بمواصلة العقود والشراكات الفيدرالية القائمة.

كتبت لين أن سلوك الحكومة يمثل "انتقامًا غير قانوني كلاسيكي بموجب التعديل الأول". وأشارت إلى أن توقيت الإجراءات، إلى جانب الاتصالات الحكومية الداخلية التي تشير إلى "خطاب" شركة Anthropic و"غطرسة" و"استخدام القوة"، يشير مباشرة إلى نية عقابية مرتبطة بالتصريحات العامة للشركة بشأن سلامة الذكاء الاصطناعي.

فيما يتعلق بالإجراءات القانونية الواجبة، وجدت المحكمة أن الحكومة قد جردت شركة Anthropic من حقوقها في الحرية المتعلقة بسمعتها وعملياتها التجارية دون تقديم إشعار مسبق بالحرمان أو عقد جلسة استماع. ووجدت لين أيضًا أن التصنيف القانوني لم يُطبق من قبل على شركة أمريكية في ظل هذه الظروف، وأن الفحص الحكومي المسبق لشركة Anthropic.

ويشمل ذلك التصاريح السرية للغاية، وترخيص FedRAMP، والعقود التي تصل قيمتها إلى 200 مليون دولار — لم تظهر أي مخاوف أمنية حقيقية. وكتب لين: "لا يوجد في القانون الحاكم ما يدعم الفكرة الأورويلية القائلة بأن شركة أمريكية قد تُصنف على أنها عدو محتمل ومخرب للولايات المتحدة لمجرد التعبير عن عدم موافقتها مع الحكومة".

ووجدت المحكمة أن الضرر المالي المحتمل الذي قد يلحق بشركة أنثروبيك يتراوح بين مئات الملايين ومليارات الدولارات، إلى جانب الضرر الذي يلحق بسمعتها والذي لا يمكن تعويضه بالكامل مالياً. وأشارت مذكرات أصدقاء المحكمة المقدمة من قادة عسكريين وباحثين في مجال الذكاء الاصطناعي إلى المخاطر التي تهدد الاستعداد الدفاعي والنقاش الأوسع حول سلامة الذكاء الاصطناعي.

وقالت شركة Anthropic إنها ممتنة لسرعة المحكمة وإنها تخطط لمواصلة العمل مع الحكومة الفيدرالية. وأعلنت الشركة أن هدفها لا يزال هو ضمان حصول الأمريكيين على ذكاء اصطناعي آمن وموثوق.

لا يحل الأمر القضائي النزاع التعاقدي الأساسي. ولم يصدر أي قرار نهائي بشأن موضوع الدعوى. ولا تزال دعوى منفصلة معلقة في محكمة الاستئناف الدائرة العاصمة، وتحتفظ الإدارة بخيار الاستئناف.

الأسئلة الشائعة 🔎

  • ماذا حكم القاضي الفيدرالي بشأن شركة Anthropic؟ أصدرت القاضية الفيدرالية ريتا ف. لين أمرًا قضائيًا أوليًا في 26 مارس، يمنع البنتاغون وإدارة ترامب من فرض تصنيف أمني وطني وحظر فيدرالي على شركة Anthropic ونماذج الذكاء الاصطناعي Claude الخاصة بها.
  • لماذا صنف البنتاغون شركة Anthropic على أنها تشكل خطرًا على سلسلة التوريد؟ سعت وزارة الدفاع الأمريكية إلى الاستخدام غير المقيد لنظام Claude AI، بما في ذلك في المراقبة الجماعية والأسلحة ذاتية التشغيل، ووصفت شركة Anthropic بأنها تشكل خطرًا على سلسلة التوريد بعد أن رفضت الشركة إزالة تلك القيود الأمنية.
  • هل الأمر القضائي ساري المفعول حاليًا؟ تم تعليق الأمر القضائي لمدة سبعة أيام اعتبارًا من 26 مارس للسماح للحكومة بتقديم استئناف طارئ، مما يعني أنه لن يدخل حيز التنفيذ حتى 2 أبريل 2026 تقريبًا.
  • ماذا سيحدث بعد ذلك في قضية Anthropic ضد البنتاغون؟ تستمر القضية على أساس موضوعها، ولا تزال دعوى ذات صلة معلقة في محكمة الاستئناف الدائرة العاصمة، وقد تسعى إدارة ترامب للحصول على إعفاء طارئ من محكمة الاستئناف الدائرة التاسعة قبل انتهاء فترة التعليق.