OpenAI a lansat Codex Security pe 6 martie, introducând un agent de securitate pentru aplicații alimentat de inteligență artificială (AI) care scanează depozitele Github pentru vulnerabilități, la doar câteva săptămâni după ce Anthropic și-a lansat instrumentul rival Claude Code Security — transformând apărarea codului bazată pe AI în cel mai nou câmp de luptă competitiv al industriei tech.
Debutul OpenAI Codex Security marchează intensificarea cursei de securitate cibernetică bazată pe IA, pe măsură ce rivalitatea cu Anthropic se încinge

OpenAI lansează Codex Security pentru a provoca Claude Code Security de la Anthropic
Lansarea are loc pe fondul interesului tot mai mare pentru instrumente AI care pot scotoci prin proiecte software uriașe mai repede decât ar putea-o vreodată echipele umane de securitate. Codex Security este conceput să analizeze depozite, să identifice vulnerabilități, să le valideze în medii de testare izolate și să propună remedieri pe care dezvoltatorii le pot revizui înainte de aplicare. Sistemul își construiește contextul commit cu commit, permițând AI-ului să înțeleagă cum evoluează codul, în loc să semnaleze doar fragmente izolate.
OpenAI a scris:
“Prezentăm Codex Security. Un agent de securitate pentru aplicații care te ajută să-ți securizezi baza de cod găsind vulnerabilități, validându-le și propunând remedieri pe care le poți revizui și aplica. Acum, echipele se pot concentra pe vulnerabilitățile care contează și pot livra cod mai repede.”
OpenAI a spus că instrumentul se bazează pe ecosistemul său Codex, un asistent de inginerie AI în cloud introdus în mai 2025, care ajută dezvoltatorii să scrie cod, să repare bug-uri și să propună pull request-uri. Până în martie 2026, utilizarea Codex crescuse la aproximativ 1,6 milioane de utilizatori săptămânali, potrivit companiei. Codex Security extinde aceste capabilități în securitatea aplicațiilor, un segment al industriei estimat să genereze aproximativ 20 de miliarde de dolari anual.
Anunțul OpenAI vine în timp ce a lansat și GPT-5.3 Instant și GPT-5.4. Mișcarea urmează și debutului din 20 februarie al Claude Code Security de la Anthropic, care scanează baze de cod întregi și sugerează patch-uri pentru vulnerabilitățile detectate. Construit pe modelul Claude Opus 4.6, instrumentul încearcă să raționeze despre software precum un cercetător uman în securitate — analizând logica de business, fluxurile de date și interacțiunile sistemului, în loc să se bazeze exclusiv pe reguli de scanare statică.
Anthropic a spus că Claude Code Security a identificat deja peste 500 de vulnerabilități în proiecte software open-source, inclusiv probleme care trecuseră neobservate ani la rând. Compania oferă în prezent funcția într-un preview de cercetare pentru clienți enterprise și de echipă, în timp ce maintainerii open-source pot solicita acces accelerat gratuit.
Ambele companii pariază că sistemele AI capabile să raționeze în contextul codului vor depăși scanerele tradiționale de vulnerabilități, care generează adesea volume mari de alarme false. Pentru a aborda această problemă, Claude Code Security folosește un sistem de verificare în mai multe etape, care reevaluează constatările și atribuie scoruri de severitate și încredere.
Codex Security adoptă o abordare ușor diferită. În loc să se bazeze doar pe inferența modelului, agentul validează vulnerabilitățile suspectate în medii sandbox înainte de a afișa rezultatele. OpenAI a spus că procesul reduce zgomotul și permite AI-ului să prioritizeze constatările pe baza dovezilor colectate în timpul testării.
“Codex Security a început ca Aardvark, lansat anul trecut într-o beta privată”, a scris OpenAI pe X. Compania a adăugat:
“De atunci, am îmbunătățit semnificativ calitatea semnalului, reducând zgomotul, îmbunătățind acuratețea severității și scăzând numărul de alarme false, astfel încât constatările să se alinieze mai bine cu riscul din lumea reală.”
Dezvoltatorii care revizuiesc rezultatele Codex Security pot examina datele de suport, pot vedea diferențele de cod (diff-uri) pentru patch-urile sugerate și pot integra remedierile prin fluxurile de lucru Github. Sistemul permite, de asemenea, echipelor să-și personalizeze modelele de amenințare prin ajustarea unor parametri precum suprafața de atac, aria de cuprindere a depozitului și toleranța la risc.
În timp ce lansarea Anthropic a zguduit părți ale sectorului de securitate cibernetică, intrarea OpenAI a produs până acum mai multă rumoare decât panică pe piețe. Când Claude Code Security a debutat în februarie, mai multe acțiuni din cybersecurity au scăzut pentru scurt timp între 5% și 10%, inclusiv companii precum Crowdstrike și Palo Alto Networks, înainte de a-și reveni în mare parte în sesiunile de tranzacționare ulterioare.
La acel moment, analiștii au spus că vânzarea probabil a reflectat anxietatea legată de faptul că instrumentele AI ar putea înlocui părți din piața securității aplicațiilor. Mulți cercetători, însă, susțin că instrumentele AI sunt mai degrabă susceptibile să completeze platformele de securitate existente decât să le înlocuiască complet.
Detecția asistată de AI a vulnerabilităților a avansat rapid în ultimii doi ani, modelele lingvistice mari (LLM) participând tot mai mult la sarcini de cercetare în securitatea cibernetică, precum competițiile Capture-the-Flag și descoperirea automată de vulnerabilități. Aceste capabilități îi pot ajuta pe apărători să identifice mai rapid slăbiciunile software — dar ridică și îngrijorări că atacatorii ar putea exploata sisteme similare.
Pentru a aborda aceste riscuri, OpenAI a lansat pe 5 februarie inițiativa „Trusted Access for Cyber”, care oferă cercetătorilor de securitate verificați acces controlat la modele avansate pentru cercetare defensivă. Anthropic a adoptat o abordare similară prin parteneriate cu instituții precum Pacific Northwest National Laboratory și prin programe interne de red-team.

Jucătorii de top ai inteligenței artificiale fac mișcări masive într-o săptămână fulgerătoare
Dezvoltările în domeniul inteligenței artificiale (AI) din această săptămână au adus un vârtej de modele noi și runde de finanțare de miliarde de dolari. read more.
Citește acum
Jucătorii de top ai inteligenței artificiale fac mișcări masive într-o săptămână fulgerătoare
Dezvoltările în domeniul inteligenței artificiale (AI) din această săptămână au adus un vârtej de modele noi și runde de finanțare de miliarde de dolari. read more.
Citește acum
Jucătorii de top ai inteligenței artificiale fac mișcări masive într-o săptămână fulgerătoare
Citește acumDezvoltările în domeniul inteligenței artificiale (AI) din această săptămână au adus un vârtej de modele noi și runde de finanțare de miliarde de dolari. read more.
Apariția agenților de securitate AI marchează o schimbare către ceea ce mulți cercetători numesc „securitate cibernetică agentică” (agentic cybersecurity), în care sisteme autonome analizează, testează și remediază continuu vulnerabilitățile software. Dacă au succes, astfel de instrumente ar putea scurta timpul dintre descoperirea unei vulnerabilități și implementarea patch-ului — una dintre cele mai mari slăbiciuni ale securității software moderne.
Pentru dezvoltatori și echipele de securitate, momentul este greu de ignorat. AI nu mai scrie doar cod — acum îl auditează, îl sparge și îl repară, adesea în același flux de lucru.
Iar odată cu faptul că OpenAI și Anthropic concurează acum direct, următorul val de instrumente de securitate cibernetică ar putea sosi nu ca scanere tradiționale, ci ca agenți AI care nu dorm niciodată, nu se plâng niciodată și, ideal, prind bug-urile înaintea hackerilor.
Întrebări frecvente 🤖
- Ce este Codex Security de la OpenAI?
Codex Security este un agent de securitate pentru aplicații alimentat de AI care scanează depozite GitHub, validează vulnerabilități și propune remedieri de cod. - Prin ce diferă Codex Security de scanerele tradiționale de vulnerabilități?
Sistemul folosește raționament AI și validare în sandbox pentru a analiza contextul codului și a reduce alarmele false. - Ce este Claude Code Security de la Anthropic?
Claude Code Security este un instrument AI concurent care scanează baze de cod pentru vulnerabilități și sugerează patch-uri folosind modelul Claude al Anthropic. - De ce construiesc companiile AI agenți de securitate cibernetică?
Agenții AI pot detecta și remedia vulnerabilități software mai rapid decât instrumentele tradiționale, ajutând dezvoltatorii să consolideze securitatea codului la scară.














