OpenAI udrullede Codex Security den 6. marts og introducerede en applikationssikkerhedsagent drevet af kunstig intelligens (AI), der scanner Github-repositorier for sårbarheder, blot få uger efter at Anthropic lancerede deres rivaliserende værktøj Claude Code Security—hvilket gør AI-drevet kodeforsvar til techindustriens nyeste konkurrencearena.
OpenAI’s Codex-sikkerhed debuterer, mens AI-cybersikkerhedskapløbet med Anthropic intensiveres

OpenAI lancerer Codex Security for at udfordre Anthropics Claude Code Security
Udgivelsen kommer i en tid med stigende interesse for AI-værktøjer, der kan gennemtrawle enorme softwareprojekter hurtigere, end menneskelige sikkerhedsteams nogensinde kunne. Codex Security er designet til at analysere repositorier, identificere sårbarheder, validere dem i isolerede testmiljøer og foreslå rettelser, som udviklere kan gennemgå, før de anvendes. Systemet opbygger kontekst commit-for-commit, så AI’en kan forstå, hvordan kode udvikler sig, frem for blot at markere isolerede kodestumper.
OpenAI skrev:
“Vi introducerer Codex Security. En applikationssikkerhedsagent, der hjælper dig med at sikre din kodebase ved at finde sårbarheder, validere dem og foreslå rettelser, som du kan gennemgå og patche. Nu kan teams fokusere på de sårbarheder, der betyder noget, og levere kode hurtigere.”
OpenAI sagde, at værktøjet bygger videre på deres Codex-økosystem, en cloud-baseret AI-ingeniørassistent, der blev introduceret i maj 2025, og som hjælper udviklere med at skrive kode, rette fejl og foreslå pull requests. I marts 2026 var brugen af Codex ifølge virksomheden steget til cirka 1,6 millioner ugentlige brugere. Codex Security udvider disse kapaciteter til applikationssikkerhed, et industrisegment, der anslås at generere omkring 20 milliarder dollars årligt.
OpenAI’s annoncering kommer, samtidig med at de også udgav GPT-5.3 Instant og GPT-5.4. Trækket følger også Anthropics debut den 20. februar af Claude Code Security, som scanner hele kodebaser og foreslår patches for opdagede sårbarheder. Værktøjet er bygget på modellen Claude Opus 4.6 og forsøger at ræsonnere om software som en menneskelig sikkerhedsforsker—ved at analysere forretningslogik, dataflows og systeminteraktioner frem for udelukkende at basere sig på statiske scanregler.
Anthropic sagde, at Claude Code Security allerede har identificeret mere end 500 sårbarheder på tværs af open source-softwareprojekter, herunder problemer, der var forblevet ubemærkede i årevis. Virksomheden tilbyder i øjeblikket funktionen i en research preview for enterprise- og teamkunder, mens open source-vedligeholdere kan anmode om fremskyndet adgang gratis.
Begge virksomheder satser på, at AI-systemer, der kan ræsonnere om kodekontekst, vil overgå traditionelle sårbarhedsscannere, som ofte genererer store mængder falske positiver. For at håndtere det problem bruger Claude Code Security et verifikationssystem i flere trin, der genkontrollerer fund og tildeler alvorligheds- og tillidsscorer.
Codex Security tager en lidt anderledes tilgang. I stedet for udelukkende at basere sig på modelinference validerer agenten formodede sårbarheder i sandboxede miljøer, før resultater præsenteres. OpenAI sagde, at processen reducerer støj og gør det muligt for AI’en at rangordne fund baseret på evidens indsamlet under test.
“Codex Security begyndte som Aardvark, lanceret sidste år i privat beta,” skrev OpenAI på X. Virksomheden tilføjede:
“Siden da har vi markant forbedret signalkvaliteten, reduceret støj, forbedret nøjagtigheden af alvorlighed og sænket antallet af falske positiver, så fund bedre matcher risiko i den virkelige verden.”
Udviklere, der gennemgår Codex Security-resultater, kan undersøge understøttende data, se code diffs for foreslåede patches og integrere rettelser via Github-workflows. Systemet gør det også muligt for teams at tilpasse trusselsmodeller ved at justere parametre som angrebsflade, repository-omfang og risikotolerance.
Mens Anthropics lancering rystede dele af cybersikkerhedssektoren, har OpenAI’s indtræden indtil videre skabt mere snak end markedsuro. Da Claude Code Security debuterede i februar, faldt flere cybersikkerhedsaktier kortvarigt mellem 5% og 10%, herunder virksomheder som Crowdstrike og Palo Alto Networks, før de i høj grad genvandt niveauet i efterfølgende handelsdage.
Dengang sagde analytikere, at udsalget sandsynligvis afspejlede bekymring for, om AI-værktøjer kunne erstatte dele af applikationssikkerhedsmarkedet. Mange forskere argumenterer dog for, at AI-værktøjer snarere vil supplere eksisterende sikkerhedsplatforme end erstatte dem fuldstændigt.
AI-assisteret sårbarhedsdetektion har udviklet sig hurtigt over de seneste to år, hvor store sprogmodeller (LLM’er) i stigende grad deltager i cybersikkerhedsrelaterede researchopgaver som Capture-the-Flag-konkurrencer og automatiseret sårbarhedsopdagelse. Disse kapaciteter kan hjælpe forsvarere med at identificere software-svagheder hurtigere—men de rejser også bekymringer om, at angribere potentielt kan udnytte lignende systemer.
For at imødegå disse risici lancerede OpenAI den 5. februar et “Trusted Access for Cyber”-initiativ, der giver godkendte sikkerhedsforskere kontrolleret adgang til avancerede modeller til defensiv research. Anthropic har taget en lignende tilgang gennem partnerskaber med institutioner som Pacific Northwest National Laboratory og interne red-team-programmer.

AI’s magtspillere foretager massive træk i en halsbrækkende uge
Udviklingen inden for kunstig intelligens (AI) i den forgangne uge bød på et væld af nye modeller og finansieringsrunder på flere milliarder dollars. read more.
Læs nu
AI’s magtspillere foretager massive træk i en halsbrækkende uge
Udviklingen inden for kunstig intelligens (AI) i den forgangne uge bød på et væld af nye modeller og finansieringsrunder på flere milliarder dollars. read more.
Læs nu
AI’s magtspillere foretager massive træk i en halsbrækkende uge
Læs nuUdviklingen inden for kunstig intelligens (AI) i den forgangne uge bød på et væld af nye modeller og finansieringsrunder på flere milliarder dollars. read more.
Fremkomsten af AI-sikkerhedsagenter markerer et skift mod det, mange forskere kalder “agentisk cybersikkerhed”, hvor autonome systemer løbende analyserer, tester og afhjælper softwaresårbarheder. Hvis det lykkes, kan sådanne værktøjer forkorte tiden mellem opdagelse af en sårbarhed og udrulning af en patch—en af de største svagheder i moderne softwaresikkerhed.
For udviklere og sikkerhedsteams er timingen svær at overse. AI skriver ikke længere bare kode—den auditerer den nu, bryder den og fikser den, ofte i samme workflow.
Og med OpenAI og Anthropic nu i direkte konkurrence, kan den næste bølge af cybersikkerhedsværktøjer ankomme ikke som traditionelle scannere, men som AI-agenter, der aldrig sover, aldrig klager og ideelt set fanger bugs, før hackere gør.
FAQ 🤖
- Hvad er OpenAI’s Codex Security?
Codex Security er en AI-drevet applikationssikkerhedsagent, der scanner GitHub-repositorier, validerer sårbarheder og foreslår koderettelser. - Hvordan adskiller Codex Security sig fra traditionelle sårbarhedsscannere?
Systemet bruger AI-ræsonnering og sandbox-validering til at analysere kodekontekst og reducere falske positiver. - Hvad er Anthropics Claude Code Security?
Claude Code Security er et konkurrerende AI-værktøj, der scanner kodebaser for sårbarheder og foreslår patches ved hjælp af Anthropics Claude-model. - Hvorfor bygger AI-virksomheder cybersikkerhedsagenter?
AI-agenter kan opdage og rette softwaresårbarheder hurtigere end traditionelle værktøjer og hjælpe udviklere med at styrke kodesikkerhed i stor skala.














