בית משפט פדרלי לערעורים בוושינגטון דחה ב-8 באפריל את בקשתה של אנתרופיק לעצור באופן מיידי את הכללתם של מודלי הבינה המלאכותית (AI) Claude שלה ברשימה השחורה של הפנטגון, באופן שמונע אותם מחוזים צבאיים של ארה״ב.
שופטים פדרליים דוחים את בקשת הסעד של Anthropic באיסור על שימוש צבאי בבינת ה-AI של Claude, וקובעים טיעונים בעל פה בחודש מאי

עיקרי הדברים:
- בית המשפט הפדרלי לערעורים במחוז קולומביה (D.C. Circuit) דחה ב-8 באפריל 2026 את בקשתה של אנתרופיק לצו עיכוב חירום, ובכך הותיר את הרשימה השחורה של הפנטגון נגד Claude AI בתוקף.
- סיווג סיכון שרשרת אספקה של הפנטגון משפיע על קבלני משנה מרכזיים של משרד ההגנה (DoD), כולל אמזון, מיקרוסופט ופלאנטיר.
- טיעונים בעל פה במסלול מואץ נקבעו ל-19 במאי 2026, ופסק דין עשוי לעצב מחדש את מדיניות הרכש של ממשלת ארה״ב בתחום הבינה המלאכותית.
בית המשפט לערעורים פסק שמשרד ההגנה יכול להשאיר את Claude AI ברשימה השחורה במהלך ההתדיינות המשפטית
בית המשפט לערעורים של ארה״ב במחוז קולומביה (D.C. Circuit), בצו בן ארבעה עמודים, דחה את בקשת החירום של חברת הבינה המלאכותית שבסיסה בסן פרנסיסקו להשהות סיווג של “סיכון שרשרת אספקה” שהונפק על ידי שר ההגנה פיט הגסת’. ההחלטה מאפשרת למשרד ההגנה להמשיך לאסור על קבלנים להשתמש ב-Claude בזמן שההליכים המשפטיים נמשכים. הטיעונים בעל פה הואצו ל-19 במאי 2026.
ההרכב ציין כי אנתרופיק “ככל הנראה תסבול במידה מסוימת מנזק בלתי הפיך”, תוך ציון נזק כספי ונזק למוניטין. השופטים גרגורי קאטסאס ונאומי ראו, שניהם מינויים של טראמפ, קבעו כי מאזן השיקולים נוטה לטובת הממשלה, תוך הפניה לניהול שיפוטי של האופן שבו הפנטגון מאבטח טכנולוגיית בינה מלאכותית “במהלך סכסוך צבאי פעיל”.
הסיווג עצמו נובע מקריסה במשא ומתן בין אנתרופיק לבין גורמי הפנטגון בסוף פברואר 2026. במוקד עמדו שתי הגבלות בתנאי השירות של אנתרופיק: איסור על מערכות נשק אוטונומיות לחלוטין, כולל נחילי רחפנים חמושים הפועלים ללא פיקוח אנושי, ואיסור על מעקב המוני אחר אזרחי ארה״ב.
אמיל מייקל, תת-שר למחקר ולהנדסה ומנהל הטכנולוגיות הראשי של הפנטגון, כינה את ההגבלות הללו “מכשולים בלתי רציונליים” לתחרותיות הצבאית, במיוחד מול סין. גורמים רשמיים ציינו תוכניות כגון יוזמת ההגנה מפני טילים Golden Dome והצורך ביכולות תגובה מהירה מול איומים היפרסוניים.
אנתרופיק הציעה חריגים מוגבלים, לפי מקרה, אך סירבה לבטל את מעקות הבטיחות המרכזיים, תוך ציון חששות אמינות לגבי בינה מלאכותית נוכחית בקבלת החלטות אוטונומיות בעלות השלכות כבדות. השיחות קרסו. הנשיא טראמפ הורה לאחר מכן לכל הסוכנויות הפדרליות להפסיק להשתמש בטכנולוגיה של אנתרופיק, עם תקופת הוצאה הדרגתית של שישה חודשים לפריסות קיימות.
לאחר מכן הגיע סיווג סיכון שרשרת האספקה של הגסת’, צעד המיושם בדרך כלל על גורמים זרים כגון Huawei. התווית חייבה קבלנים, כולל אמזון, מיקרוסופט ופלאנטיר, להפסיק להשתמש ב-Claude בכל עבודה הקשורה למשרד ההגנה. אנתרופיק כינתה את המהלך “קמפיין תגמול בלתי חוקי” על סירובה לאפשר לממשלה לעקוף את מדיניות הבטיחות של הבינה המלאכותית שלה.
אנתרופיק הגישה תביעות מקבילות במרץ 2026. אחת הוגשה לבית המשפט המחוזי של ארה״ב במחוז הצפוני של קליפורניה; השנייה כוונה כנגד חוק הרכש הספציפי המסדיר סיכון שרשרת אספקה בבית המשפט לערעורים במחוז קולומביה.
ב-26 במרץ, השופטת המחוזית של ארה״ב ריטה פ. לין העניקה לאנתרופיק צו מניעה מקדמי בתיק בקליפורניה. היא קבעה כי פעולות הממשל נראו עונשיות יותר מאשר מגנות, חסרות הצדקה סטטוטורית מספקת, וחורגות מסמכות. אותו צו השעה זמנית את אכיפת הסיווג, ואפשר שימוש של הממשלה ושל קבלנים ב-Claude להימשך עד להכרעה מלאה בהתדיינות. ממשל טראמפ ערער לבית המשפט לערעורים של המעגל התשיעי.
החלטת המעגל של D.C. מ-8 באפריל עומדת בניגוד לפסיקתה של לין, ויוצרת מתח משפטי בשאלה האם הסיווג ניתן לאכיפה כעת. שני בתי המשפט בוחנים מסגרות סטטוטוריות שונות, מה שמסביר את הפיצול הפרוצדורלי.
אנתרופיק מסרה בהצהרה כי היא עדיין בטוחה בעמדתה. “אנו מודים על כך שבית המשפט הכיר בכך שיש לפתור את הסוגיות הללו במהירות ונשארים בטוחים שבתי המשפט בסופו של דבר יסכימו שסיווגי שרשרת האספקה הללו היו בלתי חוקיים,” אמרה החברה.

תצוגה מקדימה של Claude Mythos: הבינה המלאכותית שטרם שוחררה של Anthropic פיצחה באגים בלינוקס וב-OpenBSD שבני אדם החמיצו במשך עשרות שנים
ה־Claude Mythos AI של Anthropic מצא אלפי פרצות יום־אפס בכל מערכת הפעלה ודפדפן מובילים. פרויקט Glasswing מושק עם 100 מיליון דולר בקרדיטים. read more.
קרא עכשיו
תצוגה מקדימה של Claude Mythos: הבינה המלאכותית שטרם שוחררה של Anthropic פיצחה באגים בלינוקס וב-OpenBSD שבני אדם החמיצו במשך עשרות שנים
ה־Claude Mythos AI של Anthropic מצא אלפי פרצות יום־אפס בכל מערכת הפעלה ודפדפן מובילים. פרויקט Glasswing מושק עם 100 מיליון דולר בקרדיטים. read more.
קרא עכשיו
תצוגה מקדימה של Claude Mythos: הבינה המלאכותית שטרם שוחררה של Anthropic פיצחה באגים בלינוקס וב-OpenBSD שבני אדם החמיצו במשך עשרות שנים
קרא עכשיוה־Claude Mythos AI של Anthropic מצא אלפי פרצות יום־אפס בכל מערכת הפעלה ודפדפן מובילים. פרויקט Glasswing מושק עם 100 מיליון דולר בקרדיטים. read more.
משקיפים בתעשייה סימנו את המקרה כאות אזהרה לפיתוח הבינה המלאכותית בארה״ב. מאט שרוורס, מנכ״ל איגוד תעשיית המחשבים והתקשורת (Computer and Communications Industry Association), אמר כי פעולות הפנטגון והחלטת המעגל של D.C. “יוצרות אי-ודאות עסקית משמעותית בתקופה שבה חברות אמריקאיות מתחרות במקבילות עולמיות כדי להוביל ב-AI.”
כעת התיק מתקדם לעבר הטיעון בעל פה במסלול המואץ ב-19 במאי במעגל של D.C., בעוד הערעור במעגל התשיעי עדיין תלוי ועומד. התוצאה צפויה להגדיר את גבולות הכוח הפדרלי לסווג חברות בינה מלאכותית מקומיות כסיכוני ביטחון לאומי ולקבוע עד כמה הממשלה יכולה להרחיק לכת בלחץ על חברות פרטיות לשנות את מדיניות הבטיחות של הבינה המלאכותית שלהן.















