שר ההגנה פיט הגסת’ נפגש עם מנכ״ל Anthropic דאריו אמודיי בפנטגון ביום שלישי, כאשר משרד ההגנה לחץ על Anthropic להסיר מגבלות במערכת הבינה המלאכותית (AI) שלה, Claude, או לעמוד בפני סנקציות אפשריות.
דוח: הבינה המלאכותית Claude של Anthropic ניצבת בפני עתיד לא ודאי במערכות מסווגות של הפנטגון

ממשל בינה מלאכותית צבאית נבחן בפגישת פנטגון עתירת סיכונים
הפגישה ב-24 בפברואר הגיעה לאחר שבועות של מתיחות סביב מדיניות השימוש של Anthropic עבור Claude, מודל השפה הגדול המשולב ברשתות מסווגות של משרד ההגנה במסגרת חוזה פיילוט לשנת 2025 בשווי של עד 200 מיליון דולר. Claude הוא כיום מודל השפה הגדול היחיד שמאושר באופן מלא ופועל בחלק ממערכות הפנטגון המאובטחות.
לפי דיווח של Axios, הגסת’, יחד עם סגן השר סטיב פיינברג והיועץ המשפטי הכללי ארל מת׳יוז, התנגדו למגבלות של Anthropic על מעקב המוני אחר אמריקאים ועל מערכות נשק אוטונומיות לחלוטין הפועלות ללא פיקוח אנושי. גורמי ההגנה טענו שמגבלות אלה מצמצמות יישומים צבאיים חוקיים ואינן צריכות לגבור על סמכות הקונגרס והרשות המבצעת.
Anthropic טוענת שהאמצעים המגנים שלה נועדו למנוע שימוש לרעה, תוך שמירה על אפשרות ליישומי ביטחון לאומי. החברה אומרת שמדיניותה אינה חוסמת שימוש צבאי לגיטימי, אך אוסרת פעולות כגון מעקב אחר אנשים ללא הסכמה או פריסה של מערכות קטלניות ללא שליטה אנושית.
“לפי מקור המכיר את השיחות, Anthropic מעולם לא התנגדה לשימוש במודלים שלה ל‘מבצעים צבאיים לגיטימיים’,” דיווחה ב-X כתבת פוקס ניוז לענייני ביטחון לאומי ג׳ניפר גריפין. “היא גם אמרה להגסת’ שמעולם לא התלוננה בפני הפנטגון או Palantir על השימוש במודלים שלה בפשיטה על מדורו.”
Claude שימש לניתוח מודיעיני, הגנת סייבר ותכנון מבצעי. דיווחים מצביעים על כך שהוא תמך בתכנון ובניתוח בזמן אמת במהלך המבצע ב-3 בינואר שהוביל ללכידתו של נשיא ונצואלה ניקולס מדורו. מאוחר יותר ביקשה Anthropic הבהרה לגבי מעורבות המודל כחלק מבדיקת ציות פנימית, אשר גורמים בפנטגון פירשו כביקורת.

ב-9 בינואר, הגסת’ פרסם מזכר הקורא לספקי בינה מלאכותית (AI) להסיר את מה שתיאר כתנאים מגבילים. הנחיה זו הכינה את הקרקע למשא ומתן מחדש ובסופו של דבר לפגישה ב-24 בפברואר.
הפנטגון קבע מועד אחרון ל-27 בפברואר עבור Anthropic לשינוי תנאיה. תגובות אפשריות כוללות הפעלת חוק הייצור הביטחוני (Defense Production Act) כדי לכפות ציות או סיווג Anthropic כסיכון לשרשרת האספקה, צעד שעשוי לחייב קבלנים להיפרד ממערכות הקשורות ל-Claude.
גורמים רשמיים מודים כי ניתוק Claude מהתשתית הקיימת יהיה מורכב מבחינה תפעולית. עם זאת, למחלקה יש חלופות. מתחרים כמו xAI עם מודל Grok שלה, OpenAI עם ChatGPT, ו-Google עם Gemini נמצאים תחת חוזים דומים עם משרד ההגנה ועשויים להיות בעמדה להרחיב את תפקידם אם השיחות ייכשלו.
הסכסוך מדגיש שאלות רחבות יותר לגבי ממשל בינה מלאכותית בסביבות צבאיות, במיוחד כאשר החוק הפדרלי ממשיך להתפתח סביב טכנולוגיות מתהוות. על הכף עומדת השאלה האם מפתחי בינה מלאכותית פרטיים יכולים לשמר מדיניות אתית עצמאית כאשר המערכות שלהם נטמעות במבצעי ביטחון לאומי.
התגובות ברחבי פלטפורמות המדיה החברתית היו ישירות במיוחד. “מעקב ללא צו חזר,” כתב משתמש אחד ב-X בתגובה לפוסט של גריפין ב-X. “זה צריך להיות הרבה יותר חדשות ממה שזה. יש סיכוי רציני להפרות חוקתיות,” השיב אחר לכתיבתה של גריפין. אחרים, עם מנה של הומור שחור, התבדחו שהגעתו של Skynet אולי לא רחוקה. “Skynet כאן… ציר הזמן של 2029 פעיל,” העיר אותו אדם.
שני הצדדים תיארו את הדיון ב-24 בפברואר כמהותי. השאלה האם Anthropic תתאים את אמצעי ההגנה שלה לפני המועד האחרון עשויה לקבוע את עתידו של אחד משילובי הבינה המלאכותית המתקדמים ביותר של הפנטגון.
שאלות נפוצות 🤖
- מה נדון בפגישת הפנטגון ב-24 בפברואר?
הפגישה התמקדה במגבלות של Anthropic על Claude AI והאם הן מגבילות יישומים צבאיים חוקיים. - מדוע הפנטגון לוחץ על Anthropic?
גורמי ההגנה טוענים שאמצעי ההגנה של החברה מפריעים לשימושים מורשים לביטחון הלאומי. - מה עלול לקרות אם Anthropic לא תעמוד בדרישות?
הפנטגון עשוי להפעיל את חוק הייצור הביטחוני (Defense Production Act) או לסווג את החברה כסיכון לשרשרת האספקה. - האם יש חלופות ל-Claude?
כן, מודלים של xAI, OpenAI ו-Google נמצאים תחת חוזים עם משרד ההגנה ויכולים להתרחב במידת הצורך.














