בינה מלאכותית (AI) יצרה מערבולת של התפתחויות במהלך סוף השבוע, שכללה התפטרויות בכירים, מחלוקות מול הפנטגון, פריצות דרך ברובוטיקה, השקות מודלים לארגונים, וכלי אבטחה חדשים — שביחד ממחישים כיצד התעשייה מאיצה כמעט בכל חזית.
סוף השבוע הפרוע של הבינה המלאכותית: טלטלה ב-OpenAI, עימות עם הפנטגון, ורובוטים שמסרבים למות

עסקאות ביטחוניות, התפטרויות וחיכוך עם הפנטגון
אחת ההתפתחויות הבולטות ביותר הגיעה ב־7 במרץ, כאשר קייטלין קלינובסקי, ראש תחום הרובוטיקה וחומרת הצרכנים ב־OpenAI, התפטרה מהחברה. קלינובסקי לפי דיווחים העלתה חששות סביב שאיפת OpenAI לחוזה עם הפנטגון הכולל פריסת AI במערכות ממשלתיות מסווגות. נטען כי היא הזהירה שההצעה חסרה אמצעי הגנה מספקים בנוגע לשימושים של מעקב פנימי ולהאפשרות של נשק אוטונומי קטלני.
OpenAI הגיבה בכך שחזרה והדגישה כי החברה שומרת על “קווים אדומים” נוקשים בכל הנוגע ליישומים צבאיים מסוימים. עם זאת, העזיבה מדגישה את המתח הגובר בין השאיפות של עמק הסיליקון בתחום ה־AI לבין סדרי העדיפויות של וושינגטון בביטחון הלאומי, במיוחד כאשר סוכנויות הגנה בוחנות יותר ויותר שימוש במערכות AI מתקדמות בפעולות רגישות.
המתחים הללו החריפו עוד יותר כאשר הפנטגון סיווג רשמית את Anthropic כ“סיכון לשרשרת האספקה” ב־5 במרץ. הסיווג מגביל קבלני הגנה משימוש בגרסאות מסוימות של מודל ה־AI Claude של החברה במסגרת פרויקטים ממשלתיים. התיוג הנדיר שהוטל על חברת טכנולוגיה מקומית מאותת עד כמה מחלוקות על בטיחות AI ושימושים צבאיים מתחילות להתנגש בתכנון ההגנה הלאומי.
ממשל ואתיקה נכנסים לאור הזרקורים של ה־AI
על רקע המחלוקות הללו, קואליציה של טכנולוגים וקובעי מדיניות חשפה הצעת ממשל חדשה שמטרתה להנחות את השלב הבא של פיתוח בינה מלאכותית. ב־7 במרץ, הפיזיקאי מ־MIT מקס טגמרק וקבוצה דו־מפלגתית של חוקרים ותומכי מדיניות הציגו את “הצהרת פרו־אנושית” (Pro-Human Declaration), מסגרת שנועדה להבטיח שפיתוח AI יישאר מיושר עם פיקוח אנושי וזכויות אזרח.
ההצהרה מתווה חמישה עקרונות ליבה, ובהם שמירה על בני אדם כבעלי שליטה סופית במערכות AI מתקדמות, מניעת ריכוז כוח מופרז בידי קומץ חברות, אכיפת בדיקות בטיחות מחמירות, הגנה על זכויות אזרח, והצבת מגבלות נוקשות על סופר־אינטליגנציה שמשפרת את עצמה. מחברי ההצעה הציגו אותה כמפת דרכים למחוקקים המתמודדים עם דיוני מדיניות AI מורכבים והולכים.
רובוטים שמסרבים לוותר
בעוד קובעי מדיניות דנים במסגרות ממשל, חוקרים הדגימו עד כמה מהר רובוטיקה מונעת־AI מתפתחת. מדענים מאוניברסיטת נורת’ווסטרן חשפו מחלקה חדשה של “מכונות־על רגליות” (legged metamachines) שתוכננו על ידי AI — רובוטים מודולריים המסוגלים להתאים את צורתם ולהמשיך לפעול גם לאחר נזק פיזי חמור.

המחקר, שפורסם ב־Proceedings of the National Academy of Sciences, מציג רובוטים שיכולים להתחבר זה לזה בתצורות שונות ולנוע על פני שטח לא אחיד. בניסויים, חלק מהרובוטים נחתכו לשניים ועדיין הצליחו להשיב לעצמם ניידות באמצעות סידור מחדש של הרכיבים שנותרו — התנהגות שלדברי החוקרים עשויה להיות שימושית באזורי אסון, במשימות חקר או בסביבות בלתי צפויות אחרות.
מודלי פרונטיר מרחיבים את יכולות ה־AI הארגוניות
בצד התוכנה, OpenAI השיקה ב־5 במרץ את משפחת המודלים GPT-5.4, והציגה מערכות שתוכננו במיוחד לעומסי עבודה מקצועיים וארגוניים. ההשקה כוללת וריאנטים ייעודיים מסוג Pro ו־Thinking, המסוגלים לשפר יכולות הסקה, משימות קוד מורכבות ושליטה ישירה במחשב.
גרסאות מסוימות של GPT-5.4 תומכות בחלונות הקשר המתקרבים למיליון טוקנים, ומאפשרות למשתמשים לנתח מסמכים או מערכי נתונים עצומים בהנחיה אחת. OpenAI מסרה שהמודלים החדשים נועדו להפחית “הזיות” תוך שיפור מהימנות עבור יישומים עסקיים כגון ניתוח נתונים, הנדסה ותהליכי עבודה אוטומטיים.
ה־AI מתגלה כצייד באגים בסייבר והשקה חדשה של Openclaw
בינה מלאכותית מתגלה גם כמועילה לעבודה הגנתית בתחום אבטחת הסייבר. Anthropic הודיעה ב־6 במרץ כי מודל ה־AI שלה, Claude, גילה 22 פגיעויות בדפדפן Mozilla Firefox במהלך שיתוף פעולה בן שבועיים של בדיקות עם Mozilla.
ארבע עשרה מהבעיות הללו דורגו בחומרה גבוהה. הממצאים מדגישים כיצד מערכות AI מתקדמות משמשות יותר ויותר לסיוע בגילוי פגיעויות, ומסייעות לצוותי אבטחה לזהות ולתקן חולשות מהר בהרבה מאשר ביקורת ידנית מסורתית לבדה.
הגרסה האחרונה של Openclaw, גרסה 2026.3.7, יצאה ביום ראשון עם שדרוג משמעותי בהרחבה ובאמינות עבור מסגרת סוכן ה־AI האוטונומי בקוד פתוח שהפכה לוויראלית ורצה מקומית כמעט על כל פלטפורמה.
המאפיין המרכזי הוא מערכת התוספים החדשה ContextEngine עם hooks מלאים למחזור החיים (bootstrap, ingest, compact, ניהול תתי־סוכנים וכו’), המעניקה למפתחים ולקהילה הרחבה את החופש ליצור תוספים מותאמים לניהול הקשר — כגון lossless-claw — שמרחיבים או עוקפים התנהגות ליבה תוך שמירה על תאימות מלאה לאחור.
סוכני AI נכנסים לבריאות ולעבודת משרד
חברות טכנולוגיה גדולות גם מתחרות להטמיע סוכני AI בתעשיות בעולם האמיתי. Amazon Web Services הציגה ב־5 במרץ את Amazon Connect Health, פלטפורמה זכאית HIPAA שנועדה לפרוס סוכני AI לאורך תהליכי תפעול בתחום הבריאות.
הפלטפורמה יכולה להפוך תזמון מטופלים לאוטומטי, לסייע בתיעוד, לאמת פרטי ביטוח, ולטפל במשימות אדמיניסטרטיביות תוך השתלבות עם מערכות רשומות רפואיות אלקטרוניות. AWS אומרת שהמערכת נועדה להפחית עומסים אדמיניסטרטיביים עבור ספקי שירותי בריאות תוך שיפור תיאום הטיפול במטופלים.
OpenAI חשפה כלי ארגוני נוסף עם השקת Codex Security, סוכן AI המסוגל לסרוק מאגרי קוד, לזהות פגיעויות, לאמת ממצאים ולהציע תיקונים. הכלי יצא בתחילה כתצוגה מקדימה למחקר, והוא מאותת כיצד AI מתקדם יותר ויותר אל תחומי ביקורת תוכנה ואבטחת פיתוח.
החברה גם הציגה תוסף בטא של ChatGPT עבור Microsoft Excel, המאפשר למשתמשים לעבוד עם GPT-5.4 ישירות בתוך גיליונות אלקטרוניים. האינטגרציה מאפשרת לאנליסטים ולצוותים עסקיים להריץ מודלי תרחישים, לנתח מערכי נתונים ולייצר תחזיות פיננסיות בלי לצאת מאקסל, ובכך להטמיע עוד יותר AI בתהליכי עבודה עסקיים יומיומיים.

גרוק, קלוד, קוון, ChatGPT ועוד: 9 מודלי בינה מלאכותית מנבאים את מסלול המחיר הבא של ביטקוין
גלו תובנות ממודלי בינה מלאכותית מובילים על תנודות המחיר של ביטקוין ותחזיות עתידיות בשוק המטבעות הקריפטוגרפיים. read more.
קרא עכשיו
גרוק, קלוד, קוון, ChatGPT ועוד: 9 מודלי בינה מלאכותית מנבאים את מסלול המחיר הבא של ביטקוין
גלו תובנות ממודלי בינה מלאכותית מובילים על תנודות המחיר של ביטקוין ותחזיות עתידיות בשוק המטבעות הקריפטוגרפיים. read more.
קרא עכשיו
גרוק, קלוד, קוון, ChatGPT ועוד: 9 מודלי בינה מלאכותית מנבאים את מסלול המחיר הבא של ביטקוין
קרא עכשיוגלו תובנות ממודלי בינה מלאכותית מובילים על תנודות המחיר של ביטקוין ותחזיות עתידיות בשוק המטבעות הקריפטוגרפיים. read more.
ההתפתחויות האחרונות ב־AI מ־48 השעות האחרונות ממחישות תעשייה שמתקדמת בכמה חזיתות בו־זמנית — מרובוטיקה ואבטחת סייבר ועד אוטומציה בבריאות ודיונים גיאופוליטיים על תפקיד ה־AI בהגנה הלאומית. ההתפתחויות גם חושפות מאבק הולך וגובר בין חדשנות לפיקוח, כאשר ממשלות, חוקרים וענקיות טכנולוגיה ממהרות להגדיר מעקות בטיחות בזמן שהטכנולוגיה ממשיכה להתקדם מהר יותר מכפי שמדיניות יכולה בנוחות להדביק.
שאלות נפוצות 🔎
- מה היו סיפורי ה־AI הגדולים ביותר ב־48 השעות האחרונות?
התפתחויות מרכזיות כללו את השקת GPT-5.4 של OpenAI, פריצת דרך ברובוטיקה מאוניברסיטת נורת’ווסטרן, גילוי פגיעויות ב־Firefox על ידי Anthropic, ו־AWS שהשיקה סוכני AI בתחום הבריאות. - מדוע מנהיגת הרובוטיקה של OpenAI התפטרה?
קייטלין קלינובסקי פרשה תוך שהיא מציינת חששות לגבי חוזה AI מוצע עם הפנטגון והיעדר אמצעי הגנה מספקים סביב מעקב ונשק אוטונומי. - מהן “מכונות־על רגליות” (legged metamachines) של AI?
אלה רובוטים מודולריים שתוכננו על ידי AI ויכולים להתאים את המבנה שלהם ולהמשיך לנוע גם לאחר נזק פיזי חמור. - איך AI משפר את אבטחת הסייבר?
מערכות AI מתקדמות כמו Claude של Anthropic יכולות לנתח מאגרי קוד ולזהות במהירות פגיעויות שצוותים אנושיים עשויים לפספס.













