Drivs av
News

OpenAI:s Codex-säkerhet gör debut när AI-cybersäkerhetskapplöpningen med Anthropic hettar till

OpenAI lanserade Codex Security den 6 mars och introducerade en applikationssäkerhetsagent driven av artificiell intelligens (AI) som skannar Github-repositorier efter sårbarheter, bara några veckor efter att Anthropic lanserade sitt rivaliserande verktyg Claude Code Security—vilket gör AI-driven kodförsvar till teknikbranschens senaste konkurrensarena.

SKRIVEN AV
DELA
OpenAI:s Codex-säkerhet gör debut när AI-cybersäkerhetskapplöpningen med Anthropic hettar till

OpenAI lanserar Codex Security för att utmana Anthropics Claude Code Security

Lanseringen sker mitt i ett växande intresse för AI-verktyg som kan gå igenom enorma mjukvaruprojekt snabbare än mänskliga säkerhetsteam någonsin skulle kunna. Codex Security är utformat för att analysera repositorier, identifiera sårbarheter, validera dem i isolerade testmiljöer och föreslå åtgärder som utvecklare kan granska innan de tillämpas. Systemet bygger kontext commit för commit, vilket gör att AI:n kan förstå hur koden utvecklas snarare än att bara flagga isolerade kodsnuttar.

OpenAI skrev:

“Vi introducerar Codex Security. En applikationssäkerhetsagent som hjälper dig att säkra din kodbas genom att hitta sårbarheter, validera dem och föreslå åtgärder som du kan granska och patcha. Nu kan team fokusera på de sårbarheter som spelar roll och leverera kod snabbare.”

OpenAI uppgav att verktyget bygger vidare på dess Codex-ekosystem, en molnbaserad AI-assistent för ingenjörsarbete som introducerades i maj 2025 och som hjälper utvecklare att skriva kod, fixa buggar och föreslå pull requests. I mars 2026 hade Codex-användningen stigit till cirka 1,6 miljoner veckovisa användare, enligt företaget. Codex Security utökar dessa förmågor till applikationssäkerhet, ett branschsegment som uppskattas generera omkring 20 miljarder dollar årligen.

OpenAIs tillkännagivande kommer samtidigt som bolaget även släppte GPT-5.3 Instant och GPT-5.4. Draget följer också Anthropics debut den 20 februari av Claude Code Security, som skannar hela kodbaser och föreslår patchar för upptäckta sårbarheter. Byggt på modellen Claude Opus 4.6 försöker verktyget resonera om mjukvara som en mänsklig säkerhetsforskare—genom att analysera affärslogik, dataflöden och systeminteraktioner snarare än att enbart förlita sig på statiska skanningsregler.

Anthropic uppgav att Claude Code Security redan har identifierat mer än 500 sårbarheter i open-source-mjukvaruprojekt, inklusive problem som hade förblivit oupptäckta i åratal. Företaget erbjuder för närvarande funktionen som en forskningsförhandsvisning för företags- och teamkunder, medan open-source-underhållare kan begära påskyndad åtkomst utan kostnad.

Båda företagen satsar på att AI-system som kan resonera om kodkontext kommer att överträffa traditionella sårbarhetsskannrar, som ofta genererar stora mängder falska positiva resultat. För att hantera det problemet använder Claude Code Security ett verifieringssystem i flera steg som kontrollerar fynd på nytt och tilldelar allvarlighetsgrad samt förtroendepoäng.

Codex Security tar ett något annorlunda grepp. I stället för att enbart förlita sig på modellens inferens validerar agenten misstänkta sårbarheter i sandboxade miljöer innan resultaten presenteras. OpenAI sade att processen minskar brus och gör det möjligt för AI:n att rangordna fynd baserat på bevis som samlats in under testningen.

“Codex Security började som Aardvark och lanserades förra året i en privat beta”, skrev OpenAI på X. Företaget tillade:

“Sedan dess har vi avsevärt förbättrat signalkvaliteten, minskat bruset, förbättrat träffsäkerheten för allvarlighetsgrad och sänkt antalet falska positiva resultat, så att fynden bättre stämmer överens med verklig risk.”

Utvecklare som granskar resultat från Codex Security kan undersöka stödjande data, se koddiffar för föreslagna patchar och integrera åtgärder via Github-arbetsflöden. Systemet gör det också möjligt för team att anpassa hotmodeller genom att justera parametrar som attackyta, repositorieomfång och risktolerans.

Även om Anthropics lansering skakade delar av cybersäkerhetssektorn har OpenAIs inträde hittills skapat mer prat än marknadspanik. När Claude Code Security debuterade i februari föll flera cybersäkerhetsaktier kortvarigt mellan 5 % och 10 %, inklusive bolag som Crowdstrike och Palo Alto Networks, innan de till stor del återhämtade sig i efterföljande handelssessioner.

Vid den tiden sade analytiker att utförsäljningen sannolikt speglade oro över huruvida AI-verktyg kan ersätta delar av marknaden för applikationssäkerhet. Många forskare menar dock att AI-verktyg snarare kommer att komplettera befintliga säkerhetsplattformar än att ersätta dem helt och hållet.

AI-assisterad sårbarhetsdetektering har utvecklats snabbt under de senaste två åren, där stora språkmodeller (LLM:er) i allt högre grad deltar i cybersäkerhetsforskningsuppgifter som Capture-the-Flag-tävlingar och automatiserad sårbarhetsupptäckt. Dessa förmågor kan hjälpa försvarare att identifiera mjukvarusvagheter snabbare—men de väcker också oro för att angripare potentiellt skulle kunna utnyttja liknande system.

För att hantera dessa risker lanserade OpenAI den 5 februari ett initiativ kallat “Trusted Access for Cyber” som ger granskade säkerhetsforskare kontrollerad åtkomst till avancerade modeller för defensiv forskning. Anthropic har tagit en liknande approach genom partnerskap med institutioner som Pacific Northwest National Laboratory och interna red-team-program.

AI:s maktspelare gör enorma drag under en halsbrytande vecka

AI:s maktspelare gör enorma drag under en halsbrytande vecka

Utvecklingen inom artificiell intelligens (AI) den gångna veckan bjöd på en virvelvind av nya modeller och finansieringsrundor på miljarder dollar. read more.

Läs nu

Framväxten av AI-säkerhetsagenter markerar en förskjutning mot det som många forskare kallar “agentisk cybersäkerhet”, där autonoma system kontinuerligt analyserar, testar och åtgärdar mjukvarusårbarheter. Om de lyckas kan sådana verktyg förkorta tiden mellan upptäckt av sårbarhet och utrullning av patch—en av de största svagheterna i modern mjukvarusäkerhet.

För utvecklare och säkerhetsteam är tidpunkten svår att ignorera. AI skriver inte längre bara kod—den granskar den nu, bryter den och fixar den, ofta i samma arbetsflöde.

Och med OpenAI och Anthropic som nu konkurrerar direkt mot varandra kan nästa våg av cybersäkerhetsverktyg komma inte som traditionella skannrar utan som AI-agenter som aldrig sover, aldrig klagar och, i bästa fall, fångar buggar innan hackare gör det.

FAQ 🤖

  • Vad är OpenAI:s Codex Security?
    Codex Security är en AI-driven applikationssäkerhetsagent som skannar GitHub-repositorier, validerar sårbarheter och föreslår kodfixar.
  • Hur skiljer sig Codex Security från traditionella sårbarhetsskannrar?
    Systemet använder AI-resonemang och sandbox-validering för att analysera kodkontext och minska falska positiva resultat.
  • Vad är Anthropics Claude Code Security?
    Claude Code Security är ett konkurrerande AI-verktyg som skannar kodbaser efter sårbarheter och föreslår patchar med hjälp av Anthropics Claude-modell.
  • Varför bygger AI-företag cybersäkerhetsagenter?
    AI-agenter kan upptäcka och åtgärda mjukvarusårbarheter snabbare än traditionella verktyg och hjälpa utvecklare att stärka kodsäkerheten i stor skala.