OpenAI meluncurkan Codex Security pada 6 Maret, memperkenalkan agen keamanan aplikasi berbasis kecerdasan buatan (AI) yang memindai repositori GitHub untuk mencari kerentanan, hanya beberapa minggu setelah Anthropic meluncurkan alat pesaingnya, Claude Code Security—menjadikan pertahanan kode berbasis AI sebagai medan persaingan terbaru di industri teknologi.
OpenAI’s Codex Security Meluncurkan Layanan Keamanan AI Saat Persaingan Keamanan Siber AI dengan Anthropic Memanas

OpenAI Meluncurkan Codex Security untuk Menantang Claude Code Security Anthropic
Peluncuran ini terjadi di tengah meningkatnya minat terhadap alat AI yang dapat memeriksa proyek perangkat lunak besar lebih cepat daripada tim keamanan manusia. Codex Security dirancang untuk menganalisis repositori, mengidentifikasi kerentanan, memvalidasi kerentanan tersebut di lingkungan pengujian terisolasi, dan mengusulkan perbaikan yang dapat ditinjau oleh pengembang sebelum diterapkan. Sistem ini membangun konteks secara bertahap, memungkinkan AI memahami bagaimana kode berkembang daripada hanya menandai potongan kode terisolasi.
OpenAI menulis:
"Kami memperkenalkan Codex Security. Agen keamanan aplikasi yang membantu Anda mengamankan basis kode dengan menemukan kerentanan, memvalidasi, dan mengusulkan perbaikan yang dapat Anda tinjau dan perbaiki. Kini, tim dapat fokus pada kerentanan yang penting dan mengirimkan kode lebih cepat."
OpenAI mengatakan alat ini dibangun di atas ekosistem Codex, asisten teknik AI berbasis cloud yang diperkenalkan pada Mei 2025 untuk membantu pengembang menulis kode, memperbaiki bug, dan mengusulkan permintaan pull. Menurut perusahaan, penggunaan Codex telah meningkat menjadi sekitar 1,6 juta pengguna mingguan pada Maret 2026. Codex Security memperluas kemampuan tersebut ke bidang keamanan aplikasi, segmen industri yang diperkirakan menghasilkan sekitar $20 miliar per tahun.
Pengumuman OpenAI ini datang bersamaan dengan peluncuran GPT-5.3 Instant dan GPT-5.4. Langkah ini juga mengikuti peluncuran Claude Code Security oleh Anthropic pada 20 Februari, yang memindai seluruh basis kode dan mengusulkan tambalan untuk kerentanan yang terdeteksi. Dibangun berdasarkan model Claude Opus 4.6, alat ini berusaha untuk menganalisis perangkat lunak seperti peneliti keamanan manusia—menganalisis logika bisnis, aliran data, dan interaksi sistem daripada hanya mengandalkan aturan pemindaian statis.
Anthropic mengatakan Claude Code Security telah mengidentifikasi lebih dari 500 kerentanan di proyek perangkat lunak sumber terbuka, termasuk masalah yang tidak terdeteksi selama bertahun-tahun. Perusahaan saat ini menawarkan fitur ini dalam pratinjau penelitian untuk pelanggan perusahaan dan tim, sementara pengelola perangkat lunak sumber terbuka dapat meminta akses prioritas secara gratis.
Kedua perusahaan yakin bahwa sistem AI yang mampu menganalisis konteks kode akan outperform pemindai kerentanan tradisional, yang sering menghasilkan volume besar hasil positif palsu. Untuk mengatasi masalah tersebut, Claude Code Security menggunakan sistem verifikasi bertahap yang memeriksa ulang temuan dan memberikan skor keparahan dan kepercayaan.
Codex Security mengambil pendekatan yang sedikit berbeda. Alih-alih mengandalkan inferensi model secara murni, agen tersebut memvalidasi kerentanan yang dicurigai di lingkungan sandbox sebelum menampilkan hasil. OpenAI mengatakan proses ini mengurangi kebisingan dan memungkinkan AI untuk mengurutkan temuan berdasarkan bukti yang dikumpulkan selama pengujian.
"Codex Security awalnya bernama Aardvark, diluncurkan tahun lalu dalam versi beta privat," tulis OpenAI di X. Perusahaan tersebut menambahkan:
"Sejak itu, kami telah secara signifikan meningkatkan kualitas sinyal, mengurangi noise, meningkatkan akurasi tingkat keparahan, dan menurunkan false positives, sehingga temuan lebih sesuai dengan risiko dunia nyata."
Pengembang yang meninjau hasil Codex Security dapat memeriksa data pendukung, melihat perbedaan kode untuk tambalan yang disarankan, dan mengintegrasikan perbaikan melalui alur kerja GitHub. Sistem ini juga memungkinkan tim untuk menyesuaikan model ancaman dengan menyesuaikan parameter seperti permukaan serangan, cakupan repositori, dan toleransi risiko.
Meskipun peluncuran Anthropic mengguncang sebagian sektor keamanan siber, masuknya OpenAI sejauh ini lebih banyak menimbulkan perbincangan daripada kepanikan pasar. Saat Claude Code Security diluncurkan pada Februari, beberapa saham keamanan siber turun sementara antara 5% dan 10%, termasuk perusahaan seperti Crowdstrike dan Palo Alto Networks, sebelum pulih sebagian besar dalam sesi perdagangan berikutnya.
Saat itu, analis mengatakan penurunan harga saham kemungkinan mencerminkan kekhawatiran tentang apakah alat AI dapat menggantikan sebagian pasar keamanan aplikasi. Namun, banyak peneliti berargumen bahwa alat AI lebih mungkin melengkapi platform keamanan yang ada daripada menggantikannya sepenuhnya.
Deteksi kerentanan yang didukung AI telah berkembang pesat dalam dua tahun terakhir, dengan model bahasa besar (LLMs) semakin terlibat dalam tugas-tugas riset keamanan siber seperti kompetisi Capture-the-Flag dan penemuan kerentanan otomatis. Kemampuan ini dapat membantu pertahanan mengidentifikasi kelemahan perangkat lunak lebih cepat—tetapi juga menimbulkan kekhawatiran bahwa penyerang dapat memanfaatkannya.
Untuk mengatasi risiko tersebut, OpenAI meluncurkan inisiatif "Trusted Access for Cyber" pada 5 Februari, yang memberikan akses terkontrol ke model canggih bagi peneliti keamanan yang terverifikasi untuk penelitian defensif. Anthropic mengambil pendekatan serupa melalui kemitraan dengan lembaga seperti Pacific Northwest National Laboratory dan program red-team internal.

Pemain Utama AI Melakukan Langkah Besar dalam Pekan yang Sangat Sibuk
Perkembangan kecerdasan buatan (AI) dalam seminggu terakhir ini membawa gelombang baru model-model dan putaran pendanaan bernilai miliaran dolar. read more.
Baca sekarang
Pemain Utama AI Melakukan Langkah Besar dalam Pekan yang Sangat Sibuk
Perkembangan kecerdasan buatan (AI) dalam seminggu terakhir ini membawa gelombang baru model-model dan putaran pendanaan bernilai miliaran dolar. read more.
Baca sekarang
Pemain Utama AI Melakukan Langkah Besar dalam Pekan yang Sangat Sibuk
Baca sekarangPerkembangan kecerdasan buatan (AI) dalam seminggu terakhir ini membawa gelombang baru model-model dan putaran pendanaan bernilai miliaran dolar. read more.
Kemunculan agen keamanan AI menandai pergeseran menuju apa yang banyak peneliti sebut sebagai "agentic cybersecurity," di mana sistem otonom secara terus-menerus menganalisis, menguji, dan memperbaiki kerentanan perangkat lunak. Jika berhasil, alat-alat ini dapat memperpendek waktu antara penemuan kerentanan dan penerapan patch—salah satu kelemahan terbesar dalam keamanan perangkat lunak modern.
Bagi pengembang dan tim keamanan, waktu ini sulit diabaikan. AI tidak lagi hanya menulis kode—sekarang ia mengauditnya, merusaknya, dan memperbaikinya, seringkali dalam alur kerja yang sama.
Dan dengan OpenAI dan Anthropic kini bersaing secara langsung, gelombang berikutnya dari alat keamanan siber mungkin tidak datang sebagai pemindai tradisional, melainkan sebagai agen AI yang tidak pernah tidur, tidak pernah mengeluh, dan, idealnya, mendeteksi bug sebelum peretas melakukannya.
FAQ 🤖
- Apa itu Codex Security dari OpenAI?
Codex Security adalah agen keamanan aplikasi berbasis AI yang memindai repositori GitHub, memvalidasi kerentanan, dan mengusulkan perbaikan kode. - Bagaimana Codex Security berbeda dari pemindai kerentanan tradisional?
Sistem ini menggunakan penalaran AI dan validasi sandbox untuk menganalisis konteks kode dan mengurangi false positives. - Apa itu Claude Code Security dari Anthropic?
Claude Code Security adalah alat AI pesaing yang memindai basis kode untuk kerentanan dan mengusulkan tambalan menggunakan model Claude dari Anthropic. - Mengapa perusahaan AI membangun agen keamanan siber?
Agen AI dapat mendeteksi dan memperbaiki kerentanan perangkat lunak lebih cepat daripada alat tradisional, membantu pengembang memperkuat keamanan kode secara massal.








