OpenAI השיקה את Codex Security ב-6 במרץ, והציגה סוכן אבטחת יישומים המבוסס על בינה מלאכותית (AI) שסורק מאגרי Github לאיתור חולשות—שבועות ספורים לאחר ש-Anthropic השיקה את הכלי המתחרה שלה, Claude Code Security—והפכה את ההגנה על קוד מונעת-AI לשדה הקרב התחרותי החדש של תעשיית הטכנולוגיה.
אבטחת Codex של OpenAI יוצאת לדרך, כשמרוץ אבטחת הסייבר מבוסס ה-AI מול Anthropic מתחמם

OpenAI משיקה את Codex Security כדי לאתגר את Claude Code Security של Anthropic
ההשקה מגיעה על רקע עניין גובר בכלי AI שיכולים לסרוק פרויקטי תוכנה עצומים מהר יותר מכפי שצוותי אבטחה אנושיים יוכלו אי פעם. Codex Security נועד לנתח מאגרים, לזהות חולשות, לאמת אותן בסביבות בדיקה מבודדות, ולהציע תיקונים שמפתחים יכולים לבדוק לפני היישום. המערכת בונה הקשר קומיט אחר קומיט, מה שמאפשר ל-AI להבין כיצד הקוד מתפתח במקום רק לסמן מקטעים מבודדים.
OpenAI כתבה:
“אנחנו מציגים את Codex Security. סוכן אבטחת יישומים שעוזר לכם לאבטח את בסיס הקוד שלכם באמצעות איתור חולשות, אימותן והצעת תיקונים שתוכלו לבדוק ולהחיל כטלאים. כעת, צוותים יכולים להתמקד בחולשות שחשובות ולשחרר קוד מהר יותר.”
OpenAI אמרה שהכלי נשען על מערכת Codex שלה, עוזר הנדסת AI מבוסס ענן שהוצג במאי 2025 ומסייע למפתחים לכתוב קוד, לתקן באגים ולהציע בקשות Pull. עד מרץ 2026, השימוש ב-Codex טיפס לכ-1.6 מיליון משתמשים שבועיים, לפי החברה. Codex Security מרחיב את היכולות הללו לתחום אבטחת היישומים, סגמנט תעשייתי שמוערך כמייצר כ-20 מיליארד דולר בשנה.
ההכרזה של OpenAI מגיעה במקביל לכך שהיא גם השיקה את GPT-5.3 Instant ואת GPT-5.4. המהלך מגיע גם בעקבות ההשקה של Claude Code Security ב-20 בפברואר על ידי Anthropic, אשר סורק בסיסי קוד שלמים ומציע טלאים לחולשות שהתגלו. הכלי, המבוסס על מודל Claude Opus 4.6, מנסה להסיק על תוכנה כמו חוקר אבטחה אנושי—לנתח לוגיקה עסקית, זרימות נתונים ואינטראקציות מערכתיות במקום להסתמך רק על כללי סריקה סטטיים.
Anthropic אמרה כי Claude Code Security כבר זיהה יותר מ-500 חולשות בפרויקטי תוכנה בקוד פתוח, כולל בעיות שלא זכו לתשומת לב במשך שנים. החברה מציעה כעת את היכולת בתצוגה מקדימה למחקר עבור לקוחות ארגוניים ולקוחות צוות, בעוד שמתחזקי קוד פתוח יכולים לבקש גישה מואצת בחינם.
שתי החברות מהמרות שמערכות AI המסוגלות להסיק על הקשר של קוד יעקפו סורקי חולשות מסורתיים, שלעתים קרובות מייצרים נפח גדול של חיוביים שגויים. כדי להתמודד עם הבעיה, Claude Code Security משתמש במערכת אימות רב-שלבית שבודקת מחדש ממצאים ומקצה ציוני חומרה וביטחון.
Codex Security נוקט גישה מעט שונה. במקום להסתמך באופן בלעדי על הסקה של המודל, הסוכן מאמת חולשות חשודות בתוך סביבות סנדבוקס לפני שהוא מציג תוצאות. OpenAI אמרה שהתהליך מפחית רעש ומאפשר ל-AI לדרג ממצאים על סמך ראיות שנאספו במהלך הבדיקות.
“Codex Security התחיל כ-Aardvark, שהושק בשנה שעברה בבטא פרטית,” כתבה OpenAI ב-X. החברה הוסיפה:
“מאז, שיפרנו משמעותית את איכות האות, הפחתנו רעש, שיפרנו את דיוק החומרה והורדנו חיוביים שגויים, כך שהממצאים תואמים טוב יותר לסיכון בעולם האמיתי.”
מפתחים שבודקים את תוצאות Codex Security יכולים לבחון נתוני תמיכה, לצפות בהבדלי קוד (diffs) עבור טלאים מוצעים, ולשלב תיקונים באמצעות תהליכי עבודה של Github. המערכת גם מאפשרת לצוותים להתאים מודלי איומים באמצעות שינוי פרמטרים כגון משטח תקיפה, היקף המאגר וסבילות לסיכון.
בעוד שההשקה של Anthropic טלטלה חלקים מסקטור אבטחת הסייבר, הכניסה של OpenAI עד כה יצרה יותר שיח מאשר פאניקה בשוק. כאשר Claude Code Security הושק בפברואר, כמה מניות אבטחת סייבר ירדו לזמן קצר בין 5% ל-10%, כולל חברות כמו Crowdstrike ו-Palo Alto Networks, לפני שהתאוששו במידה רבה במפגשי המסחר שלאחר מכן.
באותה עת, אנליסטים אמרו שהמכירה ככל הנראה שיקפה חרדה לגבי השאלה האם כלי AI יכולים להחליף חלקים משוק אבטחת היישומים. עם זאת, רבים מהחוקרים טוענים שכלי AI צפויים יותר להשלים פלטפורמות אבטחה קיימות מאשר להחליף אותן לחלוטין.
איתור חולשות בסיוע AI התקדם במהירות בשנתיים האחרונות, כאשר מודלי שפה גדולים (LLMs) משתתפים יותר ויותר במשימות מחקר אבטחת סייבר כגון תחרויות Capture-the-Flag וגילוי חולשות אוטומטי. היכולות הללו יכולות לסייע למגנים לזהות חולשות תוכנה מהר יותר—אך הן גם מעלות חששות שתוקפים עשויים לנצל מערכות דומות.
כדי להתמודד עם הסיכונים הללו, OpenAI השיקה ב-5 בפברואר יוזמה בשם “Trusted Access for Cyber” שמספקת לחוקרי אבטחה מאומתים גישה מבוקרת למודלים מתקדמים לצורך מחקר הגנתי. Anthropic נקטה גישה דומה באמצעות שיתופי פעולה עם מוסדות כגון Pacific Northwest National Laboratory ותוכניות Red-Team פנימיות.

שחקני הכוח של ה-AI מבצעים מהלכים עצומים בשבוע מסחרר
התפתחויות בבינה מלאכותית (AI) בשבוע האחרון הביאו מערבולת של מודלים חדשים וסבבי גיוס בהיקף של מיליארדי דולרים. read more.
קרא עכשיו
שחקני הכוח של ה-AI מבצעים מהלכים עצומים בשבוע מסחרר
התפתחויות בבינה מלאכותית (AI) בשבוע האחרון הביאו מערבולת של מודלים חדשים וסבבי גיוס בהיקף של מיליארדי דולרים. read more.
קרא עכשיו
שחקני הכוח של ה-AI מבצעים מהלכים עצומים בשבוע מסחרר
קרא עכשיוהתפתחויות בבינה מלאכותית (AI) בשבוע האחרון הביאו מערבולת של מודלים חדשים וסבבי גיוס בהיקף של מיליארדי דולרים. read more.
הופעתם של סוכני אבטחה מבוססי AI מסמנת מעבר למה שחוקרים רבים מכנים “agentic cybersecurity”, שבו מערכות אוטונומיות מנתחות, בודקות ומתקנות באופן רציף חולשות תוכנה. אם יצליחו, כלים כאלה עשויים לקצר את הזמן בין גילוי חולשה לבין פריסת טלאי—אחת מנקודות התורפה הגדולות באבטחת תוכנה מודרנית.
עבור מפתחים וצוותי אבטחה, קשה להתעלם מהתזמון. AI כבר לא רק כותב קוד—כעת הוא גם מבקר אותו, שובר אותו ומתקן אותו, לעיתים באותו תהליך עבודה.
וכעת, כאשר OpenAI ו-Anthropic מתחרות זו בזו ראש בראש, הגל הבא של כלי אבטחת הסייבר עשוי להגיע לא כסורקים מסורתיים אלא כסוכני AI שלא ישנים, לא מתלוננים, ובאופן אידיאלי—תופסים באגים לפני שהאקרים עושים זאת.
שאלות נפוצות 🤖
- מהו Codex Security של OpenAI?
Codex Security הוא סוכן אבטחת יישומים מבוסס AI שסורק מאגרי GitHub, מאמת חולשות ומציע תיקוני קוד. - במה Codex Security שונה מסורקי חולשות מסורתיים?
המערכת משתמשת בהסקת AI ובאימות בסנדבוקס כדי לנתח את הקשר הקוד ולהפחית חיוביים שגויים. - מהו Claude Code Security של Anthropic?
Claude Code Security הוא כלי AI מתחרה שסורק בסיסי קוד לאיתור חולשות ומציע טלאים באמצעות מודל Claude של Anthropic. - מדוע חברות AI בונות סוכני אבטחת סייבר?
סוכני AI יכולים לזהות ולתקן חולשות תוכנה מהר יותר מכלים מסורתיים, ולסייע למפתחים לחזק את אבטחת הקוד בהיקף רחב.














