مدعوم من
News

القضاة الفيدراليون يرفضون طلب «أنثروبيك» بإصدار أمر مؤقت في قضية حظر «كلود» للذكاء الاصطناعي العسكري، ويحددون موعدًا للمرافعات الشفوية في مايو

رفضت محكمة استئناف اتحادية في واشنطن، في 8 أبريل، طلب شركة «أنثروبيك» بوقف فوري لإدراج البنتاغون لنماذج الذكاء الاصطناعي «كلود» الخاصة بها على القائمة السوداء، مما يمنعها من المشاركة في العقود العسكرية الأمريكية.

بقلم
مشاركة
القضاة الفيدراليون يرفضون طلب «أنثروبيك» بإصدار أمر مؤقت في قضية حظر «كلود» للذكاء الاصطناعي العسكري، ويحددون موعدًا للمرافعات الشفوية في مايو

النقاط الرئيسية:

  • رفضت محكمة الاستئناف في واشنطن طلب شركة Anthropic بوقف التنفيذ العاجل في 8 أبريل 2026، مما سمح باستمرار سريان القائمة السوداء التي وضعها البنتاغون لنظام الذكاء الاصطناعي Claude.
  • يؤثر تصنيف البنتاغون لمخاطر سلسلة التوريد على كبار مقاولي وزارة الدفاع، بما في ذلك Amazon وMicrosoft وPalantir.
  • من المقرر عقد جلسة استماع عاجلة في 19 مايو 2026، وهو حكم قد يعيد تشكيل سياسة شراء الذكاء الاصطناعي للحكومة الأمريكية.

محكمة الاستئناف تقضي بأن وزارة الدفاع يمكنها الإبقاء على شركة Claude AI في القائمة السوداء أثناء الدعوى القضائية

رفضت محكمة الاستئناف الأمريكية لدائرة العاصمة، في أمر من أربع صفحات، الطلب العاجل المقدم من شركة الذكاء الاصطناعي التي تتخذ من سان فرانسيسكو مقراً لها، لتعليق تصنيف "مخاطر سلسلة التوريد" الصادر عن وزير الدفاع بيت هيغسيث. يسمح الحكم لوزارة الدفاع بمواصلة منع المقاولين من استخدام كلود أثناء سير الدعوى القضائية. تم تعجيل المرافعات الشفوية إلى 19 مايو 2026.

وأقرت هيئة المحكمة بأن شركة "أنثروبيك" "من المرجح أن تتعرض لضرر لا يمكن إصلاحه إلى حد ما"، مشيرة إلى الأضرار المالية والسمعة. وخلص القاضيان غريغوري كاتساس ونيومي راو، وكلاهما من المعينين من قبل ترامب، إلى أن ميزان العدالة يرجح كفة الحكومة، مشيرين إلى الإدارة القضائية لكيفية قيام البنتاغون بتأمين تكنولوجيا الذكاء الاصطناعي "أثناء نزاع عسكري نشط".

يعود هذا التصنيف نفسه إلى انهيار المفاوضات بين شركة Anthropic ومسؤولي البنتاغون في أواخر فبراير 2026. وكان موضوع الخلاف هو قيدان في شروط خدمة شركة Anthropic: حظر أنظمة الأسلحة ذاتية التشغيل بالكامل، بما في ذلك أسراب الطائرات المسيرة المسلحة التي تعمل دون إشراف بشري، وحظر المراقبة الجماعية للمواطنين الأمريكيين.

وصف إميل مايكل، وكيل وزارة الدفاع لشؤون البحث والهندسة والرئيس التنفيذي للتكنولوجيا في البنتاغون، تلك القيود بأنها "عقبات غير منطقية" أمام القدرة التنافسية العسكرية، لا سيما في مواجهة الصين. واستشهد المسؤولون ببرامج مثل مبادرة الدفاع الصاروخي "جولدن دوم" والحاجة إلى قدرات استجابة سريعة لمواجهة التهديدات الفائقة السرعة.

عرضت شركة أنثروبيك استثناءات محدودة على أساس كل حالة على حدة، لكنها رفضت إلغاء إجراءات السلامة الأساسية، مشيرة إلى مخاوف بشأن موثوقية الذكاء الاصطناعي الحالي في اتخاذ قرارات مستقلة ذات مخاطر عالية. وانهارت المفاوضات. ثم أصدر الرئيس ترامب توجيهات إلى جميع الوكالات الفيدرالية بالتوقف عن استخدام تكنولوجيا أنثروبيك، مع فترة انتقالية مدتها ستة أشهر للتخلص التدريجي من النظم الحالية.

تبع ذلك تصنيف هيغسيث لمخاطر سلسلة التوريد، وهو إجراء يُطبق عادةً على الكيانات الأجنبية مثل هواوي. تطلب هذا التصنيف من المقاولين، بما في ذلك أمازون ومايكروسوفت وبالانتير، التوقف عن استخدام كلود في أي عمل مرتبط بوزارة الدفاع. ووصفت شركة أنثروبيك هذه الخطوة بأنها "حملة انتقامية غير قانونية" لرفضها السماح للحكومة بتجاوز سياسات السلامة الخاصة بالذكاء الاصطناعي.

رفعت شركة Anthropic دعاوى قضائية متوازية في مارس 2026. تم رفع إحداها في المحكمة الجزئية الأمريكية للمنطقة الشمالية من كاليفورنيا؛ واستهدفت الأخرى قانون المشتريات المحدد الذي يحكم مخاطر سلسلة التوريد في دائرة العاصمة.

في 26 مارس، منحت القاضية الجزئية الأمريكية ريتا ف. لين شركة Anthropic أمرًا قضائيًا أوليًا في قضية كاليفورنيا. وقضت بأن إجراءات الإدارة تبدو عقابية أكثر منها وقائية، وتفتقر إلى مبرر قانوني كافٍ، وتتجاوز حدود السلطة. وأدى هذا الأمر إلى رفع تنفيذ التصنيف مؤقتًا، مما سمح للحكومة والمقاولين بمواصلة استخدام كلود في انتظار انتهاء الدعوى القضائية بالكامل. استأنفت إدارة ترامب الحكم أمام الدائرة التاسعة.

يتعارض قرار دائرة العاصمة الصادر في 8 أبريل مع حكم لين، مما يخلق توترًا قانونيًا حول ما إذا كان التصنيف قابلاً للتنفيذ حاليًا. تقوم المحكمتان بمراجعة أطر قانونية مختلفة، وهو ما يفسر الاختلاف الإجرائي.

قالت شركة أنثروبيك في بيان إنها لا تزال واثقة من موقفها. وقالت الشركة: "نحن ممتنون لأن المحكمة أدركت أن هذه القضايا تحتاج إلى حل سريع، ونظل واثقين من أن المحاكم ستتفق في النهاية على أن تصنيفات سلسلة التوريد هذه كانت غير قانونية".

نظرة مسبقة على "كلود ميثوس": الذكاء الاصطناعي غير المُطرح من شركة "أنثروبيك" يكتشف ثغرات أمنية في أنظمة لينكس وأوبن بي إس دي لم يكتشفها البشر على مدى عقود

نظرة مسبقة على "كلود ميثوس": الذكاء الاصطناعي غير المُطرح من شركة "أنثروبيك" يكتشف ثغرات أمنية في أنظمة لينكس وأوبن بي إس دي لم يكتشفها البشر على مدى عقود

اكتشفت تقنية الذكاء الاصطناعي «كلود ميثوس» (Claude Mythos) التابعة لشركة «أنثروبيك» (Anthropic) آلاف الثغرات الأمنية من نوع «صفر يوم» في جميع أنظمة التشغيل والمتصفحات الرئيسية. انطلق مشروع «غلاسوينغ» (Glasswing) بتمويل قدره 100 مليون دولار. read more.

اقرأ الآن

وقد أشار مراقبو الصناعة إلى هذه القضية باعتبارها علامة تحذير لتطور الذكاء الاصطناعي في الولايات المتحدة. وقال مات شرويرز، الرئيس التنفيذي لرابطة صناعة الكمبيوتر والاتصالات، إن إجراءات البنتاغون وحكم محكمة دائرة العاصمة "تخلق حالة من عدم اليقين التجاري الكبير في وقت تتنافس فيه الشركات الأمريكية مع نظيراتها العالمية للريادة في مجال الذكاء الاصطناعي".

تتجه القضية الآن نحو جلسة الاستماع العاجلة المقررة في 19 مايو في محكمة الاستئناف في واشنطن العاصمة، مع استمرار تعليق الاستئناف في محكمة الاستئناف التاسعة. ومن المرجح أن تحدد النتيجة حدود سلطة الحكومة الفيدرالية في تصنيف شركات الذكاء الاصطناعي المحلية على أنها مخاطر على الأمن القومي، وتحدد المدى الذي يمكن للحكومة أن تذهب إليه في الضغط على الشركات الخاصة لتغيير سياساتها المتعلقة بسلامة الذكاء الاصطناعي.