أطلقت OpenAI خدمة Codex Security في 6 مارس، مقدّمةً وكيلًا لأمن التطبيقات مدعومًا بالذكاء الاصطناعي (AI) يقوم بمسح مستودعات Github بحثًا عن الثغرات، وذلك بعد أسابيع فقط من إطلاق Anthropic لأداتها المنافسة Claude Code Security—ما حوّل الدفاع عن الشيفرة القائم على الذكاء الاصطناعي إلى أحدث ساحة تنافسية في قطاع التكنولوجيا.
ظهور «Codex Security» من OpenAI يتزامن مع احتدام سباق الأمن السيبراني بالذكاء الاصطناعي مع أنثروبيك

OpenAI تطلق Codex Security لمنافسة Claude Code Security من Anthropic
يأتي هذا الإصدار في ظل تزايد الاهتمام بأدوات الذكاء الاصطناعي القادرة على تمشيط مشاريع برمجية ضخمة بسرعة تفوق ما تستطيع فرق الأمن البشرية تحقيقه. صُمّم Codex Security لتحليل المستودعات، وتحديد الثغرات، والتحقق منها ضمن بيئات اختبار معزولة، واقتراح إصلاحات يمكن للمطورين مراجعتها قبل تطبيقها. ويبني النظام السياق التزامًا بعد التزام (commit-by-commit)، ما يتيح للذكاء الاصطناعي فهم كيفية تطوّر الشيفرة بدلًا من الاكتفاء بوضع إشارات على مقتطفات معزولة.
كتبت OpenAI:
“نحن نقدّم Codex Security. وكيل لأمن التطبيقات يساعدك على تأمين قاعدة شيفرتك عبر العثور على الثغرات، والتحقق منها، واقتراح إصلاحات يمكنك مراجعتها وتطبيق ترقيعاتها. الآن، تستطيع الفرق التركيز على الثغرات التي تهم حقًا وإصدار الشيفرة بسرعة أكبر.”
وقالت OpenAI إن الأداة تبني على منظومة Codex الخاصة بها، وهي مساعد هندسي سحابي مدعوم بالذكاء الاصطناعي أُطلق في مايو 2025 لمساعدة المطورين على كتابة الشيفرة وإصلاح الأخطاء واقتراح طلبات السحب (pull requests). وبحلول مارس 2026، ارتفع استخدام Codex إلى نحو 1.6 مليون مستخدم أسبوعيًا، بحسب الشركة. وتوسّع Codex Security هذه القدرات إلى مجال أمن التطبيقات، وهو قطاع تُقدَّر إيراداته السنوية بنحو 20 مليار دولار.
يأتي إعلان OpenAI في وقت كانت فيه قد أطلقت GPT-5.3 Instant وGPT-5.4 أيضًا. كما تأتي هذه الخطوة عقب ظهور Claude Code Security من Anthropic في 20 فبراير، وهي أداة تمسح قواعد الشيفرة كاملة وتقترح ترقيعات للثغرات المكتشفة. وبالاعتماد على نموذج Claude Opus 4.6، تحاول الأداة الاستدلال على البرمجيات كما يفعل باحث أمن بشري—من خلال تحليل منطق الأعمال وتدفقات البيانات وتفاعلات الأنظمة بدلًا من الاعتماد فقط على قواعد المسح الساكن.
وقالت Anthropic إن Claude Code Security قد حددت بالفعل أكثر من 500 ثغرة عبر مشاريع برمجيات مفتوحة المصدر، بما في ذلك مشكلات لم يُلتفت إليها لسنوات. وتقدّم الشركة الميزة حاليًا ضمن معاينة بحثية لعملاء المؤسسات والفرق، في حين يمكن لمشرفي المشاريع مفتوحة المصدر طلب وصول مُسرّع مجانًا.
تراهن الشركتان على أن أنظمة الذكاء الاصطناعي القادرة على الاستدلال على سياق الشيفرة ستتفوق على ماسحات الثغرات التقليدية، التي غالبًا ما تولّد كميات كبيرة من الإيجابيات الكاذبة. ولمعالجة هذه المشكلة، تستخدم Claude Code Security نظام تحقق متعدد المراحل يعيد فحص النتائج ويُسنِد درجات للخطورة ومستويات للثقة.
يتبع Codex Security نهجًا مختلفًا قليلًا. فبدلًا من الاعتماد المحض على استنتاجات النموذج، يتحقق الوكيل من الثغرات المشتبه بها داخل بيئات معزولة (sandboxed) قبل إظهار النتائج. وقالت OpenAI إن هذه العملية تقلل الضجيج وتتيح للذكاء الاصطناعي ترتيب النتائج وفقًا للأدلة التي يجمعها أثناء الاختبار.
وكتبت OpenAI على X: “بدأ Codex Security كمشروع Aardvark، الذي أُطلق العام الماضي ضمن بيتا خاصة.” وأضافت الشركة:
“منذ ذلك الحين، حسّنّا جودة الإشارات بشكل كبير، عبر تقليل الضجيج، وتحسين دقة تقييم الخطورة، وخفض الإيجابيات الكاذبة، بحيث تتوافق النتائج بشكل أفضل مع المخاطر الواقعية.”
يمكن للمطورين الذين يراجعون نتائج Codex Security تفحّص البيانات الداعمة، وعرض فروق الشيفرة (code diffs) للترقيعات المقترحة، ودمج الإصلاحات عبر سير عمل Github. كما يتيح النظام للفرق تخصيص نماذج التهديد عبر ضبط معلمات مثل سطح الهجوم، ونطاق المستودع، وتحمّل المخاطر.
في حين أن إطلاق Anthropic أربك أجزاءً من قطاع الأمن السيبراني، فإن دخول OpenAI حتى الآن أحدث ضجة كلامية أكثر من ذعر في السوق. فعندما ظهرت Claude Code Security في فبراير، تراجعت عدة أسهم في مجال الأمن السيبراني لفترة وجيزة بين 5% و10%، بما في ذلك شركات مثل Crowdstrike وPalo Alto Networks، قبل أن تتعافى إلى حد كبير في جلسات تداول لاحقة.
آنذاك، قال محللون إن موجة البيع على الأرجح عكست قلقًا بشأن ما إذا كانت أدوات الذكاء الاصطناعي قد تستبدل أجزاءً من سوق أمن التطبيقات. إلا أن كثيرًا من الباحثين يجادلون بأن أدوات الذكاء الاصطناعي مرجّح أن تُكمّل منصات الأمن القائمة بدلًا من أن تحل محلها بالكامل.
تطوّر الكشف عن الثغرات بمساعدة الذكاء الاصطناعي بسرعة خلال العامين الماضيين، حيث باتت نماذج اللغة الكبيرة (LLMs) تشارك بصورة متزايدة في مهام بحث الأمن السيبراني مثل مسابقات Capture-the-Flag واكتشاف الثغرات المؤتمت. ويمكن لهذه القدرات مساعدة المدافعين على تحديد نقاط ضعف البرمجيات بسرعة أكبر—لكنها تثير أيضًا مخاوف من أن المهاجمين قد يستغلون أنظمة مشابهة.
وللتعامل مع هذه المخاطر، أطلقت OpenAI مبادرة “Trusted Access for Cyber” في 5 فبراير، والتي توفر للباحثين الأمنيين المُعتمدين وصولًا مضبوطًا إلى نماذج متقدمة لأغراض البحث الدفاعي. واتّبعت Anthropic نهجًا مماثلًا عبر شراكات مع مؤسسات مثل Pacific Northwest National Laboratory وبرامج فريق أحمر داخلية.

صنّاع القرار الأقوياء في مجال الذكاء الاصطناعي يُجرون تحرّكات هائلة خلال أسبوع محموم
شهدت تطورات الذكاء الاصطناعي (AI) خلال الأسبوع الماضي زوبعة من النماذج الجديدة وجولات تمويل بمليارات الدولارات. read more.
اقرأ الآن
صنّاع القرار الأقوياء في مجال الذكاء الاصطناعي يُجرون تحرّكات هائلة خلال أسبوع محموم
شهدت تطورات الذكاء الاصطناعي (AI) خلال الأسبوع الماضي زوبعة من النماذج الجديدة وجولات تمويل بمليارات الدولارات. read more.
اقرأ الآن
صنّاع القرار الأقوياء في مجال الذكاء الاصطناعي يُجرون تحرّكات هائلة خلال أسبوع محموم
اقرأ الآنشهدت تطورات الذكاء الاصطناعي (AI) خلال الأسبوع الماضي زوبعة من النماذج الجديدة وجولات تمويل بمليارات الدولارات. read more.
يشير ظهور وكلاء أمن الذكاء الاصطناعي إلى تحوّل نحو ما يسميه كثير من الباحثين “الأمن السيبراني الوكيلي” (agentic cybersecurity)، حيث تقوم أنظمة ذاتية التشغيل بتحليل واختبار ومعالجة ثغرات البرمجيات بشكل مستمر. وإذا نجحت هذه الأدوات، فقد تقصر الزمن بين اكتشاف الثغرة ونشر الترقيع—وهو أحد أكبر نقاط الضعف في أمن البرمجيات الحديثة.
وبالنسبة للمطورين وفرق الأمن، يصعب تجاهل التوقيت. لم يعد الذكاء الاصطناعي يكتب الشيفرة فحسب—بل بات الآن يدققها ويكسرها ويصلحها، وغالبًا ضمن سير العمل نفسه.
ومع تنافس OpenAI وAnthropic وجهًا لوجه الآن، قد تصل الموجة التالية من أدوات الأمن السيبراني ليس على هيئة ماسحات تقليدية، بل كوكلاء ذكاء اصطناعي لا ينامون ولا يشتكون، ويفترض أن يلتقطوا الأخطاء قبل أن يفعل ذلك المخترقون.
الأسئلة الشائعة 🤖
- ما هو Codex Security من OpenAI؟
Codex Security هو وكيل لأمن التطبيقات مدعوم بالذكاء الاصطناعي يقوم بمسح مستودعات GitHub، والتحقق من الثغرات، واقتراح إصلاحات للشيفرة. - كيف يختلف Codex Security عن ماسحات الثغرات التقليدية؟
يستخدم النظام الاستدلال بالذكاء الاصطناعي والتحقق داخل بيئات معزولة (sandbox) لتحليل سياق الشيفرة وتقليل الإيجابيات الكاذبة. - ما هي Claude Code Security من Anthropic؟
Claude Code Security هي أداة ذكاء اصطناعي منافسة تمسح قواعد الشيفرة بحثًا عن الثغرات وتقترح ترقيعات باستخدام نموذج Claude من Anthropic. - لماذا تبني شركات الذكاء الاصطناعي وكلاء للأمن السيبراني؟
يمكن لوكلاء الذكاء الاصطناعي اكتشاف ثغرات البرمجيات وإصلاحها بسرعة أكبر من الأدوات التقليدية، ما يساعد المطورين على تعزيز أمان الشيفرة على نطاق واسع.








