מופעל ע"י
Technology

אנתרופיק והפנטגון מתעמתים סביב השימושים הצבאיים ושימושי המעקב ההמוני של קלוד

הפנטגון שוקל לנתק קשרים עם Anthropic, כאשר שר ההגנה פיט הגסת’ קרוב להגדיר את החברה כ“סיכון בשרשרת האספקה.” Anthropic מתנגדת לשימוש במודל ה‑AI שלה, Claude, בקמפיינים של מעקב המוני ובמבצעים צבאיים אוטונומיים לחלוטין.

נכתב ע"י
שתף
אנתרופיק והפנטגון מתעמתים סביב השימושים הצבאיים ושימושי המעקב ההמוני של קלוד

Anthropic מתעמתת עם הפנטגון על שימושים “לא אתיים” ב‑Claude

Anthropic, אחת מחברות הבינה המלאכותית (AI) הגדולות ביותר, נמצאת לפי הדיווחים תחת אש מצד משרד המלחמה בשל השימוש במודלי ה‑AI שלה לפעילויות שהחברה רואה כלא אתיות.

Axios דיווח כי שר ההגנה פיט הגסת’ שוקל להגדיר את Anthropic כסיכון בשרשרת האספקה, כלומר שכל החוזים והקשרים עם החברה יצטרכו להיחתך. בנוסף, כל החברות שעובדות עם הפנטגון יידרשו גם הן לנטוש את שירותיה של Anthropic.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

העימות מתפרץ לאחר שהחברה סירבה לאפשר שימוש ב‑Claude, המודל המסחרי שלה, בקמפיינים של מעקב המוני ובמבצעים הכוללים ציוד צבאי אוטונומי לחלוטין. מנגד, הפנטגון טוען כי עליו להיות מסוגל לרתום את יכולותיו של Claude ל“כל המטרות החוקיות”, מבלי שלחברה תהיה זכות להשפיע על תהליכים אלו.

אם Anthropic תוגדר לבסוף כסיכון בשרשרת האספקה, משמעות הדבר תהיה שהמודל יצטרך להיות מוסר ממערכות המידע של הפנטגון, שכן רק ל‑Claude יש גישה למערכות המסווגות של הארגון.

דבר זה אפשר ל‑Claude לקחת חלק פעיל במבצע Absolute Resolve, שהוביל לחילוצו של ניקולס מדורו מוונצואלה בינואר. אף שהתפקיד שלקח על עצמו המודל במהלך המבצע טרם נחשף במלואו, הדבר מייצג הסלמה בשימוש בבינה מלאכותית בקמפיינים צבאיים.

העימות עשוי לקבוע תקדים באשר לאופן שבו חברות בינה מלאכותית יכולות להתנהל מול ממשלות בעולם המערבי, ולבסס את רמות השליטה שחברות אלו עשויות לשמר על המודלים שלהן כאשר נעשה בהם שימוש למטרות צבאיות.

דובר של Anthropic מסר כי החברה מנהלת “שיחות פרודוקטיביות, בתום לב, עם DoW לגבי האופן שבו להמשיך את העבודה הזו ולהתמודד נכון עם הסוגיות החדשות והמורכבות הללו.”

שאלות נפוצות

  • עם אילו סוגיות מתמודדת Anthropic מול משרד המלחמה?
    Anthropic נתונה לבחינה מצד משרד המלחמה בשל סירובה לאפשר שימוש במודל ה‑AI שלה, Claude, לפעילויות שהיא רואה כלא אתיות, כגון מעקב המוני ומבצעים צבאיים אוטונומיים.
  • אילו השלכות אפשריות עלולות להיות ל‑Anthropic אם תסווג כסיכון בשרשרת האספקה?
    אם תוגדר כסיכון בשרשרת האספקה, כל החוזים עם הפנטגון יופסקו, ויידרש להסיר את Claude ממערכות המידע של הפנטגון.
  • כיצד הגיבה Anthropic לדרישות הפנטגון בנוגע למודל ה‑AI שלה?
    החברה טוענת שהיא מנהלת “שיחות פרודוקטיביות” עם משרד המלחמה, במטרה לנווט בסוגיות אתיות מורכבות סביב השימוש בטכנולוגיית הבינה המלאכותית שלה.
  • איזה מבצע צבאי אחרון כלל את Claude, ומה הייתה משמעותו?
    Claude השתתף במבצע Absolute Resolve, שאפשר את חילוצו של ניקולס מדורו מוונצואלה, וסימן הסלמה משמעותית בשימוש הצבא בטכנולוגיות בינה מלאכותית.