OpenAI lanserte Codex Security 6. mars, og introduserte en applikasjonssikkerhetsagent drevet av kunstig intelligens (KI) som skanner Github-repositorier for sårbarheter, bare uker etter at Anthropic lanserte sitt rivaliserende verktøy Claude Code Security—og dermed gjort KI-drevet kodeforsvar til techbransjens nyeste konkurransearena.
OpenAIs Codex Security debuterer når AI-kappløpet innen cybersikkerhet tilspisser seg med Anthropic

OpenAI lanserer Codex Security for å utfordre Anthropics Claude Code Security
Lanseringen kommer midt i økende interesse for KI-verktøy som kan saumfare enorme programvareprosjekter raskere enn menneskelige sikkerhetsteam noensinne kunne. Codex Security er utviklet for å analysere repositorier, identifisere sårbarheter, validere dem i isolerte testmiljøer og foreslå rettelser som utviklere kan gjennomgå før de tas i bruk. Systemet bygger kontekst commit for commit, slik at KI-en kan forstå hvordan kode utvikler seg, i stedet for bare å flagge isolerte utdrag.
OpenAI skrev:
“Vi introduserer Codex Security. En applikasjonssikkerhetsagent som hjelper deg med å sikre kodebasen din ved å finne sårbarheter, validere dem og foreslå rettelser du kan gjennomgå og patche. Nå kan team fokusere på sårbarhetene som betyr noe og levere kode raskere.”
OpenAI sa at verktøyet bygger på selskapets Codex-økosystem, en skybasert KI-assistent for ingeniørarbeid introdusert i mai 2025 som hjelper utviklere med å skrive kode, rette feil og foreslå pull requests. Innen mars 2026 hadde Codex-bruken steget til om lag 1,6 millioner ukentlige brukere, ifølge selskapet. Codex Security utvider disse mulighetene til applikasjonssikkerhet, et bransjesegment som anslås å generere rundt 20 milliarder dollar årlig.
OpenAIs kunngjøring kommer samtidig som selskapet også lanserte GPT-5.3 Instant og GPT-5.4. Trekket følger også Anthropics 20. februar-debut av Claude Code Security, som skanner hele kodebaser og foreslår patcher for oppdagede sårbarheter. Bygget på Claude Opus 4.6-modellen forsøker verktøyet å resonere om programvare som en menneskelig sikkerhetsforsker—ved å analysere forretningslogikk, dataflyt og systeminteraksjoner, i stedet for å basere seg utelukkende på statiske skanneregler.
Anthropic sa at Claude Code Security allerede har identifisert mer enn 500 sårbarheter i åpen kildekode-prosjekter, inkludert problemer som hadde gått ubemerket hen i årevis. Selskapet tilbyr for øyeblikket funksjonen i en forskningsforhåndsvisning for bedrifts- og teamkunder, mens vedlikeholdere av åpen kildekode kan be om fremskyndet tilgang gratis.
Begge selskapene satser på at KI-systemer som kan resonnere over kodekontekst vil utkonkurrere tradisjonelle sårbarhetsskannere, som ofte produserer store mengder falske positiver. For å adressere dette problemet bruker Claude Code Security et flerstegs verifiseringssystem som dobbeltsjekker funn og tildeler alvorlighetsgrad- og konfidensscore.
Codex Security tar en litt annen tilnærming. I stedet for å basere seg utelukkende på modellinferens, validerer agenten mistenkte sårbarheter inne i sandkasseisolerte miljøer før resultatene presenteres. OpenAI sa at prosessen reduserer støy og lar KI-en rangere funn basert på bevis innhentet under testing.
“Codex Security begynte som Aardvark, lansert i fjor i privat beta,” skrev OpenAI på X. Selskapet la til:
“Siden den gang har vi forbedret signalkvaliteten betydelig, redusert støy, forbedret nøyaktigheten for alvorlighetsgrad og senket antallet falske positiver, slik at funnene samsvarer bedre med reell risiko.”
Utviklere som gjennomgår Codex Security-resultater kan undersøke støttedata, se kodedifferanser for foreslåtte patcher og integrere rettelser gjennom Github-arbeidsflyter. Systemet lar også team tilpasse trusselmodeller ved å justere parametere som angrepsflate, repositorieomfang og risikotoleranse.
Mens Anthropics lansering rystet deler av cybersikkerhetssektoren, har OpenAIs inntreden så langt skapt mer prat enn markedspanikk. Da Claude Code Security debuterte i februar, falt flere cybersikkerhetsaksjer kortvarig mellom 5 % og 10 %, inkludert selskaper som Crowdstrike og Palo Alto Networks, før de i stor grad hentet seg inn igjen i påfølgende handelssesjoner.
Den gangen sa analytikere at salgsbølgen trolig reflekterte uro for om KI-verktøy kunne erstatte deler av applikasjonssikkerhetsmarkedet. Mange forskere hevder imidlertid at KI-verktøy snarere vil komplettere eksisterende sikkerhetsplattformer enn å erstatte dem fullstendig.
KI-assistert sårbarhetsdeteksjon har utviklet seg raskt de siste to årene, med store språkmodeller (LLM-er) som i økende grad deltar i cybersikkerhetsforskningsoppgaver som Capture-the-Flag-konkurranser og automatisert sårbarhetsoppdagelse. Disse evnene kan hjelpe forsvarere med å identifisere programvaresvakheter raskere—men de reiser også bekymring for at angripere potensielt kan utnytte lignende systemer.
For å håndtere disse risikoene lanserte OpenAI 5. februar et initiativ kalt “Trusted Access for Cyber” som gir verifiserte sikkerhetsforskere kontrollert tilgang til avanserte modeller for defensiv forskning. Anthropic har tatt en lignende tilnærming gjennom partnerskap med institusjoner som Pacific Northwest National Laboratory og interne red-team-programmer.

KI-ens maktspillere gjør enorme trekk i en halsbrekkende uke
Utviklingen innen kunstig intelligens (KI) den siste uken bød på en virvelvind av nye modeller og finansieringsrunder i milliardklassen. read more.
Les nå
KI-ens maktspillere gjør enorme trekk i en halsbrekkende uke
Utviklingen innen kunstig intelligens (KI) den siste uken bød på en virvelvind av nye modeller og finansieringsrunder i milliardklassen. read more.
Les nå
KI-ens maktspillere gjør enorme trekk i en halsbrekkende uke
Les nåUtviklingen innen kunstig intelligens (KI) den siste uken bød på en virvelvind av nye modeller og finansieringsrunder i milliardklassen. read more.
Fremveksten av KI-sikkerhetsagenter markerer et skifte mot det mange forskere kaller “agentisk cybersikkerhet”, der autonome systemer kontinuerlig analyserer, tester og utbedrer programvaresårbarheter. Hvis slike verktøy lykkes, kan de forkorte tiden mellom oppdagelse av en sårbarhet og utrulling av en patch—en av de største svakhetene i moderne programvaresikkerhet.
For utviklere og sikkerhetsteam er timingen vanskelig å overse. KI skriver ikke lenger bare kode—den reviderer den nå, bryter den og fikser den, ofte i den samme arbeidsflyten.
Og når OpenAI og Anthropic nå konkurrerer direkte, kan den neste bølgen med cybersikkerhetsverktøy komme ikke som tradisjonelle skannere, men som KI-agenter som aldri sover, aldri klager og—ideelt sett—fanger feil før hackere gjør det.
FAQ 🤖
- Hva er OpenAIs Codex Security?
Codex Security er en KI-drevet applikasjonssikkerhetsagent som skanner GitHub-repositorier, validerer sårbarheter og foreslår kodefikser. - Hvordan skiller Codex Security seg fra tradisjonelle sårbarhetsskannere?
Systemet bruker KI-resonnering og sandkassevalidering for å analysere kodekontekst og redusere falske positiver. - Hva er Anthropics Claude Code Security?
Claude Code Security er et konkurrerende KI-verktøy som skanner kodebaser for sårbarheter og foreslår patcher ved hjelp av Anthropics Claude-modell. - Hvorfor bygger KI-selskaper cybersikkerhetsagenter?
KI-agenter kan oppdage og fikse programvaresårbarheter raskere enn tradisjonelle verktøy, og hjelpe utviklere med å styrke kodesikkerheten i stor skala.














