Poháňa
News

Bezpečnosť Codexu od OpenAI debutuje, keď sa preteky v AI kybernetickej bezpečnosti s Anthropicom vyostrujú

OpenAI 6. marca uviedla Codex Security, čím predstavila agenta pre bezpečnosť aplikácií poháňaného umelou inteligenciou (AI), ktorý skenuje repozitáre na Github-e na zraniteľnosti, len niekoľko týždňov po tom, čo Anthropic spustil svoj konkurenčný nástroj Claude Code Security—čím sa obrana kódu riadená AI stala najnovším konkurenčným bojiskom technologického priemyslu.

NAPÍSAL
ZDIEĽAŤ
Bezpečnosť Codexu od OpenAI debutuje, keď sa preteky v AI kybernetickej bezpečnosti s Anthropicom vyostrujú

OpenAI spúšťa Codex Security, aby vyzvala Anthropicov Claude Code Security

Toto uvedenie prichádza v čase rastúceho záujmu o AI nástroje, ktoré dokážu prechádzať obrovské softvérové projekty rýchlejšie, než by to kedy zvládli ľudské bezpečnostné tímy. Codex Security je navrhnutý tak, aby analyzoval repozitáre, identifikoval zraniteľnosti, overoval ich v izolovaných testovacích prostrediach a navrhoval opravy, ktoré môžu vývojári skontrolovať pred ich aplikovaním. Systém si buduje kontext commit po commite, čo umožňuje AI chápať, ako sa kód vyvíja, namiesto toho, aby len označovala izolované úryvky.

OpenAI napísala:

“Predstavujeme Codex Security. Agenta pre bezpečnosť aplikácií, ktorý vám pomáha zabezpečiť vašu kódovú základňu tým, že nachádza zraniteľnosti, overuje ich a navrhuje opravy, ktoré môžete skontrolovať a zaplátať. Teraz sa tímy môžu sústrediť na zraniteľnosti, na ktorých záleží, a doručovať kód rýchlejšie.”

OpenAI uviedla, že nástroj nadväzuje na jej ekosystém Codex, cloudového AI asistenta pre inžinierstvo uvedeného v máji 2025, ktorý pomáha vývojárom písať kód, opravovať chyby a navrhovať pull requesty. Do marca 2026 sa podľa spoločnosti používanie Codexu vyšplhalo približne na 1,6 milióna týždenných používateľov. Codex Security rozširuje tieto schopnosti do oblasti bezpečnosti aplikácií, segmentu odvetvia, ktorý má podľa odhadov generovať približne 20 miliárd dolárov ročne.

Oznámenie OpenAI prichádza v čase, keď tiež uvolnila GPT-5.3 Instant a GPT-5.4. Tento krok zároveň nasleduje po debiute Claude Code Security od Anthropic z 20. februára, ktorý skenuje celé kódové základne a navrhuje záplaty pre zistené zraniteľnosti. Nástroj postavený na modeli Claude Opus 4.6 sa snaží uvažovať o softvéri ako ľudský bezpečnostný výskumník—analyzuje obchodnú logiku, tok dát a interakcie systému, namiesto toho, aby sa spoliehal iba na statické pravidlá skenovania.

Anthropic uviedol, že Claude Code Security už identifikoval viac než 500 zraniteľností naprieč open-source softvérovými projektmi, vrátane problémov, ktoré zostali roky nepovšimnuté. Spoločnosť momentálne ponúka túto funkciu v náhľade pre výskum pre podnikových a tímových zákazníkov, zatiaľ čo správcovia open-source projektov môžu požiadať o urýchlený prístup zadarmo.

Obe spoločnosti stavia na tom, že AI systémy schopné uvažovať o kontexte kódu prekonajú tradičné skenery zraniteľností, ktoré často produkujú veľké množstvo falošných poplachov. Na riešenie tohto problému Claude Code Security používa viacstupňový verifikačný systém, ktorý zistenia opätovne kontroluje a priraďuje im skóre závažnosti a dôveryhodnosti.

Codex Security volí mierne odlišný prístup. Namiesto toho, aby sa spoliehal čisto na inferenciu modelu, agent overuje podozrivé zraniteľnosti v sandboxovaných prostrediach ešte predtým, než zobrazí výsledky. OpenAI uviedla, že tento proces znižuje šum a umožňuje AI zoradiť zistenia na základe dôkazov získaných počas testovania.

“Codex Security začal ako Aardvark, spustený minulý rok v súkromnej beta verzii,” napísala OpenAI na X. Spoločnosť dodala:

“Odvtedy sme výrazne zlepšili kvalitu signálu, znížili šum, zlepšili presnosť závažnosti a znížili počet falošných pozitív, takže zistenia lepšie zodpovedajú riziku v reálnom svete.”

Vývojári, ktorí prezerajú výsledky Codex Security, môžu skúmať podporné dáta, zobrazovať rozdiely v kóde (diffy) pre navrhované záplaty a integrovať opravy cez workflowy Github. Systém tiež umožňuje tímom prispôsobiť hrozbové modely úpravou parametrov, ako sú útočná plocha, rozsah repozitára a tolerancia rizika.

Kým spustenie Anthropic rozkolísalo časti sektora kybernetickej bezpečnosti, vstup OpenAI zatiaľ vyvolal skôr diskusie než trhovú paniku. Keď Claude Code Security debutoval vo februári, niektoré akcie kyberbezpečnostných firiem krátkodobo klesli o 5 % až 10 %, vrátane spoločností ako Crowdstrike a Palo Alto Networks, pričom sa v nasledujúcich obchodných seansách do veľkej miery zotavili.

V tom čase analytici uviedli, že výpredaj pravdepodobne odrážal obavy z toho, či AI nástroje dokážu nahradiť časti trhu bezpečnosti aplikácií. Mnohí výskumníci však tvrdia, že AI nástroje skôr doplnia existujúce bezpečnostné platformy, než aby ich úplne nahradili.

Detekcia zraniteľností s pomocou AI v posledných dvoch rokoch rýchlo pokročila, pričom veľké jazykové modely (LLM) sa čoraz viac zapájajú do úloh kyberbezpečnostného výskumu, ako sú súťaže Capture-the-Flag a automatizované objavovanie zraniteľností. Tieto schopnosti môžu pomôcť obrancom identifikovať slabiny softvéru rýchlejšie—no zároveň vyvolávajú obavy, že útočníci by mohli podobné systémy potenciálne zneužiť.

Na riešenie týchto rizík OpenAI 5. februára spustila iniciatívu „Trusted Access for Cyber“, ktorá poskytuje preverovaným bezpečnostným výskumníkom kontrolovaný prístup k pokročilým modelom na obranný výskum. Anthropic zvolil podobný prístup prostredníctvom partnerstiev s inštitúciami, ako je Pacific Northwest National Laboratory, a interných programov red-team.

Hráči s najväčším vplyvom v oblasti AI robia masívne kroky počas závratného týždňa

Hráči s najväčším vplyvom v oblasti AI robia masívne kroky počas závratného týždňa

Vývoj umelej inteligencie (AI) za uplynulý týždeň priniesol vír nových modelov a miliardové investičné kolá. read more.

Čítať teraz

Vznik AI bezpečnostných agentov znamená posun smerom k tomu, čo mnohí výskumníci nazývajú „agentická kybernetická bezpečnosť“, kde autonómne systémy nepretržite analyzujú, testujú a odstraňujú zraniteľnosti softvéru. Ak budú takéto nástroje úspešné, mohli by skrátiť čas medzi objavením zraniteľnosti a nasadením záplaty—jednej z najväčších slabín modernej bezpečnosti softvéru.

Pre vývojárov a bezpečnostné tímy je načasovanie ťažké ignorovať. AI už nie je len o písaní kódu—teraz ho aj audituje, rozbíja a opravuje, často v tom istom pracovnom postupe.

A keďže OpenAI a Anthropic teraz súťažia priamo proti sebe, ďalšia vlna kyberbezpečnostných nástrojov môže prísť nie ako tradičné skenery, ale ako AI agenti, ktorí nikdy nespia, nikdy sa nesťažujú a, ideálne, chytia chyby skôr, než to urobia hackeri.

FAQ 🤖

  • Čo je OpenAI Codex Security?
    Codex Security je agent pre bezpečnosť aplikácií poháňaný AI, ktorý skenuje repozitáre na GitHube, overuje zraniteľnosti a navrhuje opravy kódu.
  • V čom sa Codex Security líši od tradičných skenerov zraniteľností?
    Systém používa uvažovanie AI a sandboxované overovanie na analýzu kontextu kódu a zníženie počtu falošných pozitív.
  • Čo je Anthropic Claude Code Security?
    Claude Code Security je konkurenčný AI nástroj, ktorý skenuje kódové základne na zraniteľnosti a navrhuje záplaty pomocou modelu Claude od Anthropic.
  • Prečo AI spoločnosti budujú kyberbezpečnostných agentov?
    AI agenti dokážu odhaľovať a opravovať zraniteľnosti softvéru rýchlejšie než tradičné nástroje, čím pomáhajú vývojárom posilňovať bezpečnosť kódu vo veľkom rozsahu.