OpenAI je 6. ožujka predstavio Codex Security, uvodeći sigurnosnog agenta za aplikacije pogonjenog umjetnom inteligencijom (AI) koji skenira Github repozitorije u potrazi za ranjivostima, samo nekoliko tjedana nakon što je Anthropic lansirao svoj konkurentski alat Claude Code Security—pretvarajući obranu koda vođenu AI-jem u najnovije konkurentsko bojište tehnološke industrije.
OpenAI-jev Codex Security debitira dok se AI utrka u kibernetičkoj sigurnosti s Anthropicom zahuktava

OpenAI lansira Codex Security kako bi izazvao Anthropicov Claude Code Security
Ovo izdanje stiže usred rastućeg interesa za AI alate koji mogu pročešljati goleme softverske projekte brže nego što bi to ikada mogle ljudske sigurnosne ekipe. Codex Security osmišljen je za analizu repozitorija, identificiranje ranjivosti, njihovu provjeru u izoliranim okruženjima za testiranje te predlaganje popravaka koje programeri mogu pregledati prije primjene. Sustav gradi kontekst commit po commit, omogućujući AI-ju da razumije kako se kod razvija umjesto da samo označava izolirane isječke.
OpenAI je napisao:
“Predstavljamo Codex Security. Sigurnosnog agenta za aplikacije koji vam pomaže osigurati vašu bazu koda pronalaskom ranjivosti, njihovom provjerom i predlaganjem popravaka koje možete pregledati i zakrpati. Sada se timovi mogu usredotočiti na ranjivosti koje su važne i isporučivati kod brže.”
OpenAI je rekao da se alat nadovezuje na njegov ekosustav Codex, cloud-baziranog AI asistenta za inženjering predstavljenog u svibnju 2025. koji pomaže programerima pisati kod, ispravljati bugove i predlagati pull requestove. Do ožujka 2026. korištenje Codexa poraslo je na otprilike 1,6 milijuna tjednih korisnika, prema navodima tvrtke. Codex Security proširuje te mogućnosti na sigurnost aplikacija, industrijski segment za koji se procjenjuje da godišnje generira oko 20 milijardi dolara.
OpenAI-jeva objava dolazi u trenutku kada je također objavio GPT-5.3 Instant i GPT-5.4. Ovaj potez također slijedi Anthropicov debi Claude Code Securityja od 20. veljače, koji skenira cijele baze koda i predlaže zakrpe za otkrivene ranjivosti. Izgrađen na modelu Claude Opus 4.6, alat pokušava razmišljati o softveru poput ljudskog sigurnosnog istraživača—analizirajući poslovnu logiku, tokove podataka i interakcije sustava umjesto da se oslanja isključivo na pravila statičkog skeniranja.
Anthropic je rekao da je Claude Code Security već identificirao više od 500 ranjivosti u open-source softverskim projektima, uključujući probleme koji su godinama prolazili nezapaženo. Tvrtka trenutačno nudi značajku u istraživačkom pregledu za enterprise i timske korisnike, dok održavatelji open-sourcea mogu zatražiti ubrzani pristup besplatno.
Obje tvrtke klade se da će AI sustavi sposobni rasuđivati o kontekstu koda nadmašiti tradicionalne skenere ranjivosti, koji često generiraju velike količine lažno pozitivnih nalaza. Kako bi riješio taj problem, Claude Code Security koristi višestupanjski sustav verifikacije koji ponovno provjerava nalaze i dodjeljuje ocjene ozbiljnosti i pouzdanosti.
Codex Security zauzima nešto drugačiji pristup. Umjesto da se oslanja isključivo na inferenciju modela, agent provjerava sumnjive ranjivosti unutar sandboxiranih okruženja prije nego što prikaže rezultate. OpenAI je rekao da taj proces smanjuje šum i omogućuje AI-ju rangiranje nalaza na temelju dokaza prikupljenih tijekom testiranja.
“Codex Security započeo je kao Aardvark, lansiran prošle godine u privatnoj beti”, napisao je OpenAI na X-u. Tvrtka je dodala:
“Od tada smo značajno poboljšali kvalitetu signala, smanjujući šum, poboljšavajući točnost ozbiljnosti i smanjujući lažno pozitivne nalaze, kako bi se nalazi bolje uskladili sa stvarnim rizikom.”
Programeri koji pregledavaju rezultate Codex Securityja mogu proučiti prateće podatke, vidjeti code diffove za predložene zakrpe i integrirati popravke kroz Github workflowe. Sustav također omogućuje timovima prilagodbu modela prijetnji podešavanjem parametara poput površine napada, opsega repozitorija i tolerancije na rizik.
Dok je Anthropicovo lansiranje uzdrmalo dijelove sektora kibernetičke sigurnosti, OpenAI-jev ulazak zasad je izazvao više razgovora nego tržišne panike. Kada je Claude Code Security debitirao u veljači, nekoliko dionica iz sektora kibernetičke sigurnosti nakratko je palo između 5% i 10%, uključujući tvrtke poput Crowdstrikea i Palo Alto Networksa, prije nego što su se uglavnom oporavile u sljedećim trgovačkim sesijama.
U to vrijeme analitičari su rekli da je rasprodaja vjerojatno odražavala zabrinutost oko toga mogu li AI alati zamijeniti dijelove tržišta sigurnosti aplikacija. Mnogi istraživači, međutim, tvrde da je vjerojatnije da će AI alati nadopunjavati postojeće sigurnosne platforme nego ih u potpunosti zamijeniti.
Detekcija ranjivosti uz pomoć AI-ja brzo je napredovala tijekom posljednje dvije godine, pri čemu veliki jezični modeli (LLM-ovi) sve više sudjeluju u zadacima kibernetičkog sigurnosnog istraživanja poput natjecanja Capture-the-Flag i automatiziranog otkrivanja ranjivosti. Te sposobnosti mogu pomoći obrambenim timovima da brže identificiraju slabosti softvera—ali također potiču zabrinutost da bi napadači potencijalno mogli iskoristiti slične sustave.
Kako bi se adresirali ti rizici, OpenAI je 5. veljače pokrenuo inicijativu “Trusted Access for Cyber” koja provjerenim sigurnosnim istraživačima pruža kontrolirani pristup naprednim modelima za obrambena istraživanja. Anthropic je zauzeo sličan pristup kroz partnerstva s institucijama poput Pacific Northwest National Laboratory i interne red-team programe.

AI-jevi moćni igrači povlače goleme poteze u vrtoglavo brzom tjednu
Razvoj umjetne inteligencije (UI) tijekom proteklog tjedna donio je vrtlog novih modela i rundi financiranja vrijednih milijarde dolara. read more.
Pročitaj
AI-jevi moćni igrači povlače goleme poteze u vrtoglavo brzom tjednu
Razvoj umjetne inteligencije (UI) tijekom proteklog tjedna donio je vrtlog novih modela i rundi financiranja vrijednih milijarde dolara. read more.
Pročitaj
AI-jevi moćni igrači povlače goleme poteze u vrtoglavo brzom tjednu
PročitajRazvoj umjetne inteligencije (UI) tijekom proteklog tjedna donio je vrtlog novih modela i rundi financiranja vrijednih milijarde dolara. read more.
Pojava AI sigurnosnih agenata označava pomak prema onome što mnogi istraživači nazivaju “agentnom kibernetičkom sigurnošću”, gdje autonomni sustavi kontinuirano analiziraju, testiraju i otklanjaju ranjivosti softvera. Ako budu uspješni, takvi alati mogli bi skratiti vrijeme između otkrivanja ranjivosti i implementacije zakrpe—jedne od najvećih slabosti moderne sigurnosti softvera.
Za programere i sigurnosne timove, tajming je teško ignorirati. AI više nije samo pisanje koda—sada ga auditira, razbija i popravlja, često u istom workflowu.
A sada kada se OpenAI i Anthropic natječu izravno, sljedeći val alata za kibernetičku sigurnost možda neće doći kao tradicionalni skeneri, već kao AI agenti koji nikad ne spavaju, nikad se ne žale i, idealno, hvataju bugove prije nego što to učine hakeri.
FAQ 🤖
- Što je OpenAI-jev Codex Security?
Codex Security je sigurnosni agent za aplikacije pogonjen AI-jem koji skenira GitHub repozitorije, provjerava ranjivosti i predlaže popravke koda. - Kako se Codex Security razlikuje od tradicionalnih skenera ranjivosti?
Sustav koristi AI rasuđivanje i sandbox provjeru kako bi analizirao kontekst koda i smanjio lažno pozitivne nalaze. - Što je Anthropicov Claude Code Security?
Claude Code Security je konkurentski AI alat koji skenira baze koda u potrazi za ranjivostima i predlaže zakrpe koristeći Anthropicov Claude model. - Zašto AI tvrtke grade agente za kibernetičku sigurnost?
AI agenti mogu otkrivati i ispravljati ranjivosti softvera brže od tradicionalnih alata, pomažući programerima ojačati sigurnost koda u velikim razmjerima.













