৬ মার্চ OpenAI Codex Security চালু করেছে, একটি কৃত্রিম বুদ্ধিমত্তা (AI)-চালিত অ্যাপ্লিকেশন সিকিউরিটি এজেন্ট যা দুর্বলতা খুঁজতে Github রিপোজিটরি স্ক্যান করে—Anthropic তাদের প্রতিদ্বন্দ্বী Claude Code Security টুল চালু করার মাত্র কয়েক সপ্তাহ পরই—ফলে AI-নির্ভর কোড প্রতিরক্ষা প্রযুক্তি শিল্পের সর্বশেষ প্রতিযোগিতার যুদ্ধক্ষেত্রে পরিণত হলো।
OpenAI-এর কোডেক্স সিকিউরিটি আত্মপ্রকাশ করল, অ্যানথ্রোপিকের সঙ্গে এআই সাইবারসিকিউরিটি প্রতিযোগিতা আরও তীব্র হচ্ছে

Anthropic-এর Claude Code Security-কে চ্যালেঞ্জ জানাতে OpenAI Codex Security চালু করল
এই রিলিজ এমন এক সময়ে এসেছে, যখন AI টুলের প্রতি আগ্রহ বাড়ছে—যেগুলো বিশাল সফটওয়্যার প্রকল্প মানব নিরাপত্তা টিমের তুলনায় অনেক দ্রুত খুঁটিয়ে দেখতে পারে। Codex Security রিপোজিটরি বিশ্লেষণ, দুর্বলতা শনাক্ত, বিচ্ছিন্ন টেস্টিং পরিবেশে সেগুলো যাচাই, এবং ডেভেলপাররা প্রয়োগের আগে পর্যালোচনা করতে পারেন—এমন ফিক্স প্রস্তাব করার জন্য ডিজাইন করা। সিস্টেমটি কমিট-দর-কমিট করে প্রেক্ষিত (context) তৈরি করে, ফলে AI কোড কীভাবে বিবর্তিত হয় তা বুঝতে পারে, শুধু বিচ্ছিন্ন স্নিপেট ফ্ল্যাগ করে থেমে যায় না।
OpenAI লিখেছে:
“আমরা Codex Security পরিচয় করাচ্ছি। একটি অ্যাপ্লিকেশন সিকিউরিটি এজেন্ট, যা দুর্বলতা খুঁজে, সেগুলো যাচাই করে, এবং আপনি পর্যালোচনা ও প্যাচ করতে পারেন—এমন ফিক্স প্রস্তাব করে আপনার কোডবেস সুরক্ষিত করতে সাহায্য করে। এখন টিমগুলো গুরুত্বপূর্ণ দুর্বলতাগুলোর ওপর ফোকাস করতে পারে এবং দ্রুত কোড শিপ করতে পারে।”
OpenAI জানিয়েছে, এই টুলটি তাদের Codex ইকোসিস্টেমের ওপর ভিত্তি করে তৈরি—যা মে ২০২৫-এ চালু হওয়া ক্লাউড-ভিত্তিক AI ইঞ্জিনিয়ারিং অ্যাসিস্ট্যান্ট; এটি ডেভেলপারদের কোড লেখা, বাগ ঠিক করা এবং পুল রিকোয়েস্ট প্রস্তাব করতে সাহায্য করে। কোম্পানির মতে, মার্চ ২০২৬ নাগাদ Codex ব্যবহারকারী বেড়ে প্রায় ১৬ লাখ সাপ্তাহিক ব্যবহারকারীতে পৌঁছেছে। Codex Security এই সক্ষমতাগুলোকে অ্যাপ্লিকেশন সিকিউরিটিতে সম্প্রসারিত করেছে—যে শিল্প খাতের বার্ষিক আকার আনুমানিক ২০ বিলিয়ন ডলার।
OpenAI-এর ঘোষণা এমন সময় এলো, যখন তারা GPT-5.3 Instant এবং GPT-5.4ও প্রকাশ করেছে। এই পদক্ষেপটি Anthropic-এর ২০ ফেব্রুয়ারির ডেবিউ-এর পরপরই, যেখানে Claude Code Security চালু হয়—যা পুরো কোডবেস স্ক্যান করে এবং শনাক্ত দুর্বলতার জন্য প্যাচ প্রস্তাব করে। Claude Opus 4.6 মডেলের ওপর নির্মিত এই টুলটি একজন মানব নিরাপত্তা গবেষকের মতো সফটওয়্যার সম্পর্কে যুক্তি করতে চায়—শুধু স্ট্যাটিক স্ক্যানিং রুলের ওপর নির্ভর না করে ব্যবসায়িক লজিক, ডাটা ফ্লো এবং সিস্টেম ইন্টারঅ্যাকশন বিশ্লেষণ করে।
Anthropic জানিয়েছে, Claude Code Security ইতিমধ্যেই ওপেন-সোর্স সফটওয়্যার প্রকল্প জুড়ে ৫০০টিরও বেশি দুর্বলতা শনাক্ত করেছে, যার মধ্যে এমন সমস্যাও আছে যা বছরের পর বছর নজরে আসেনি। কোম্পানিটি বর্তমানে এন্টারপ্রাইজ ও টিম গ্রাহকদের জন্য রিসার্চ প্রিভিউ হিসেবে ফিচারটি দিচ্ছে, আর ওপেন-সোর্স মেইন্টেইনাররা বিনামূল্যে দ্রুততর অ্যাক্সেসের জন্য অনুরোধ করতে পারেন।
দুই কোম্পানিই বাজি ধরছে যে, কোডের প্রেক্ষিত নিয়ে যুক্তি করতে সক্ষম AI সিস্টেমগুলো ঐতিহ্যবাহী ভলনারেবিলিটি স্ক্যানারের চেয়ে ভালো পারফর্ম করবে, কারণ ঐ স্ক্যানারগুলো অনেক সময় বিপুল পরিমাণ ফালস পজিটিভ তৈরি করে। সেই সমস্যা মোকাবিলায় Claude Code Security একটি মাল্টি-স্টেজ ভেরিফিকেশন সিস্টেম ব্যবহার করে, যা ফলাফল পুনরায় যাচাই করে এবং তীব্রতা (severity) ও আত্মবিশ্বাস (confidence) স্কোর নির্ধারণ করে।
Codex Security সামান্য ভিন্ন পথ নিয়েছে। কেবল মডেল ইনফারেন্সের ওপর নির্ভর না করে, এজেন্টটি সন্দেহভাজন দুর্বলতাগুলো স্যান্ডবক্সড পরিবেশে যাচাই করে তারপর ফলাফল দেখায়। OpenAI বলেছে, এই প্রক্রিয়ায় নয়েজ কমে এবং টেস্টিংয়ের সময় সংগৃহীত প্রমাণের ভিত্তিতে AI ফাইন্ডিংগুলোকে র্যাঙ্ক করতে পারে।
“Codex Security শুরু হয়েছিল Aardvark হিসেবে, যা গত বছর প্রাইভেট বেটায় চালু হয়েছিল,” OpenAI X-এ লিখেছে। কোম্পানি আরও যোগ করেছে:
“তারপর থেকে, আমরা উল্লেখযোগ্যভাবে সিগন্যাল কোয়ালিটি উন্নত করেছি—নয়েজ কমিয়েছি, severity accuracy উন্নত করেছি, এবং false positives কমিয়েছি—ফলে ফাইন্ডিংগুলো বাস্তব জগতের ঝুঁকির সঙ্গে আরও ভালোভাবে সামঞ্জস্যপূর্ণ।”
Codex Security-এর ফলাফল পর্যালোচনা করা ডেভেলপাররা সহায়ক ডেটা পরীক্ষা করতে পারেন, প্রস্তাবিত প্যাচের জন্য কোড ডিফ দেখতে পারেন, এবং Github ওয়ার্কফ্লোর মাধ্যমে ফিক্স ইন্টিগ্রেট করতে পারেন। সিস্টেমটি টিমগুলোকে attack surface, রিপোজিটরি স্কোপ, এবং risk tolerance-এর মতো প্যারামিটার সমন্বয় করে থ্রেট মডেল কাস্টমাইজ করার সুযোগও দেয়।
Anthropic-এর লঞ্চ সাইবারসিকিউরিটি খাতের কিছু অংশে আলোড়ন তুললেও, OpenAI-এর প্রবেশ এখন পর্যন্ত বাজার আতঙ্কের চেয়ে বেশি আলোচনা তৈরি করেছে। ফেব্রুয়ারিতে Claude Code Security ডেবিউ করার সময়, Crowdstrike ও Palo Alto Networks-এর মতো কয়েকটি সাইবারসিকিউরিটি শেয়ার সাময়িকভাবে ৫% থেকে ১০% পর্যন্ত নেমেছিল, পরে পরবর্তী ট্রেডিং সেশনে বেশিরভাগই পুনরুদ্ধার করে।
তখন বিশ্লেষকেরা বলেছিলেন, এই সেলঅফ সম্ভবত এ উদ্বেগকে প্রতিফলিত করেছে যে AI টুলগুলো অ্যাপ্লিকেশন সিকিউরিটি বাজারের কিছু অংশ প্রতিস্থাপন করতে পারে কি না। তবে অনেক গবেষকই যুক্তি দেন যে AI টুলগুলো সরাসরি প্রতিস্থাপন না করে বিদ্যমান সিকিউরিটি প্ল্যাটফর্মকে পরিপূরক হিসেবে সহায়তা করার সম্ভাবনাই বেশি।
গত দুই বছরে AI-সহায়িত ভলনারেবিলিটি ডিটেকশন দ্রুত এগিয়েছে, এবং বড় ভাষা মডেল (LLM)গুলো ক্রমেই সাইবারসিকিউরিটি গবেষণার কাজে অংশ নিচ্ছে—যেমন Capture-the-Flag প্রতিযোগিতা এবং স্বয়ংক্রিয় দুর্বলতা আবিষ্কার। এই সক্ষমতাগুলো প্রতিরক্ষাকারীদের সফটওয়্যার দুর্বলতা দ্রুত শনাক্ত করতে সাহায্য করতে পারে—তবে একই সঙ্গে উদ্বেগও বাড়ায় যে আক্রমণকারীরাও সম্ভাব্যভাবে অনুরূপ সিস্টেম কাজে লাগাতে পারে।
এই ঝুঁকি মোকাবিলায় OpenAI ৫ ফেব্রুয়ারি “Trusted Access for Cyber” উদ্যোগ চালু করে, যা যাচাইকৃত নিরাপত্তা গবেষকদের প্রতিরক্ষামূলক গবেষণার জন্য উন্নত মডেলগুলোতে নিয়ন্ত্রিত অ্যাক্সেস দেয়। Anthropic-ও Pacific Northwest National Laboratory-এর মতো প্রতিষ্ঠানের সঙ্গে অংশীদারত্ব এবং অভ্যন্তরীণ রেড-টিম প্রোগ্রামের মাধ্যমে অনুরূপ পদ্ধতি নিয়েছে।

এআই-এর ক্ষমতাবান খেলোয়াড়রা দুঃসাহসিক এক সপ্তাহে বিশাল পদক্ষেপ নেয়
কৃত্রিম বুদ্ধিমত্তা (এআই)-এর এই গত সপ্তাহের উন্নয়নগুলো নতুন মডেল এবং বিলিয়ন-ডলারের অর্থায়ন রাউন্ডের এক ঝড়ো ঢেউ এনে দিয়েছে। read more.
এখনই পড়ুন
এআই-এর ক্ষমতাবান খেলোয়াড়রা দুঃসাহসিক এক সপ্তাহে বিশাল পদক্ষেপ নেয়
কৃত্রিম বুদ্ধিমত্তা (এআই)-এর এই গত সপ্তাহের উন্নয়নগুলো নতুন মডেল এবং বিলিয়ন-ডলারের অর্থায়ন রাউন্ডের এক ঝড়ো ঢেউ এনে দিয়েছে। read more.
এখনই পড়ুন
এআই-এর ক্ষমতাবান খেলোয়াড়রা দুঃসাহসিক এক সপ্তাহে বিশাল পদক্ষেপ নেয়
এখনই পড়ুনকৃত্রিম বুদ্ধিমত্তা (এআই)-এর এই গত সপ্তাহের উন্নয়নগুলো নতুন মডেল এবং বিলিয়ন-ডলারের অর্থায়ন রাউন্ডের এক ঝড়ো ঢেউ এনে দিয়েছে। read more.
AI সিকিউরিটি এজেন্টের আবির্ভাব অনেক গবেষক যাকে “agentic cybersecurity” বলেন—সেই দিকে একটি পরিবর্তন নির্দেশ করে, যেখানে স্বয়ংক্রিয় সিস্টেমগুলো ধারাবাহিকভাবে সফটওয়্যার দুর্বলতা বিশ্লেষণ, পরীক্ষা, এবং প্রতিকার করে। সফল হলে, এসব টুল দুর্বলতা আবিষ্কার থেকে প্যাচ ডিপ্লয়মেন্ট পর্যন্ত সময় কমাতে পারে—যা আধুনিক সফটওয়্যার নিরাপত্তার সবচেয়ে বড় দুর্বলতাগুলোর একটি।
ডেভেলপার ও সিকিউরিটি টিমের জন্য সময়টা উপেক্ষা করা কঠিন। AI আর শুধু কোড লিখছে না—এখন এটি অডিট করছে, ভাঙছে, এবং ঠিক করছে, অনেক সময় একই ওয়ার্কফ্লোর মধ্যেই।
আর OpenAI ও Anthropic এখন মুখোমুখি প্রতিযোগিতায় নেমে পড়ায়, সাইবারসিকিউরিটি টুলের পরবর্তী ঢেউ হয়তো ঐতিহ্যবাহী স্ক্যানার হিসেবে নয়, বরং এমন AI এজেন্ট হিসেবে আসবে—যারা কখনও ঘুমায় না, কখনও অভিযোগ করে না, এবং আদর্শভাবে হ্যাকারদের আগেই বাগ ধরে ফেলে।
FAQ 🤖
- OpenAI-এর Codex Security কী?
Codex Security হলো একটি AI-চালিত অ্যাপ্লিকেশন সিকিউরিটি এজেন্ট, যা GitHub রিপোজিটরি স্ক্যান করে, দুর্বলতা যাচাই করে এবং কোড ফিক্স প্রস্তাব করে। - Codex Security ঐতিহ্যবাহী ভলনারেবিলিটি স্ক্যানার থেকে কীভাবে আলাদা?
সিস্টেমটি AI রিজনিং এবং স্যান্ডবক্স ভ্যালিডেশন ব্যবহার করে কোড কনটেক্সট বিশ্লেষণ করে ও ফালস পজিটিভ কমায়। - Anthropic-এর Claude Code Security কী?
Claude Code Security হলো একটি প্রতিযোগী AI টুল, যা Anthropic-এর Claude মডেল ব্যবহার করে কোডবেসে দুর্বলতা স্ক্যান করে এবং প্যাচ প্রস্তাব করে। - AI কোম্পানিগুলো কেন সাইবারসিকিউরিটি এজেন্ট তৈরি করছে?
AI এজেন্টগুলো ঐতিহ্যবাহী টুলের তুলনায় দ্রুত সফটওয়্যার দুর্বলতা শনাক্ত ও ঠিক করতে পারে, ফলে ডেভেলপাররা বৃহৎ পরিসরে কোড সিকিউরিটি শক্তিশালী করতে পারেন।








