Poganja
News

Varnostni sistem Codex podjetja OpenAI debitira, saj se tekma na področju kibernetske varnosti z umetno inteligenco z Anthropic zaostruje

OpenAI je 6. marca predstavil Codex Security in uvedel agenta za varnost aplikacij, ki ga poganja umetna inteligenca (AI) in ki pregleduje repozitorije na Githubu za ranljivosti—le nekaj tednov po tem, ko je Anthropic lansiral svoje konkurenčno orodje Claude Code Security—s čimer se je obramba kode, gnana z AI, spremenila v najnovejše konkurenčno bojišče tehnološke industrije.

DELI
Varnostni sistem Codex podjetja OpenAI debitira, saj se tekma na področju kibernetske varnosti z umetno inteligenco z Anthropic zaostruje

OpenAI lansira Codex Security, da izzove Anthropicov Claude Code Security

Izdaja prihaja v času naraščajočega zanimanja za AI-orodja, ki lahko preiščejo ogromne programske projekte hitreje, kot bi to kadar koli zmogle človeške varnostne ekipe. Codex Security je zasnovan tako, da analizira repozitorije, prepozna ranljivosti, jih potrdi v izoliranih testnih okoljih in predlaga popravke, ki jih lahko razvijalci pregledajo pred uporabo. Sistem gradi kontekst commit za commitom, kar AI omogoča razumevanje, kako se koda razvija, namesto da bi zgolj označeval izolirane odseke.

OpenAI je zapisal:

“Predstavljamo Codex Security. Agenta za varnost aplikacij, ki vam pomaga zavarovati vašo kodno bazo tako, da najde ranljivosti, jih potrdi in predlaga popravke, ki jih lahko pregledate in zakrpate. Zdaj se lahko ekipe osredotočijo na ranljivosti, ki so pomembne, in hitreje dostavijo kodo.”

OpenAI je dejal, da orodje temelji na njegovem ekosistemu Codex, AI-asistentu za inženiring v oblaku, predstavljenem maja 2025, ki razvijalcem pomaga pisati kodo, odpravljati hrošče in predlagati pull requeste. Do marca 2026 je uporaba Codexa po navedbah podjetja narasla na približno 1,6 milijona tedenskih uporabnikov. Codex Security te zmožnosti razširja na varnost aplikacij, segment industrije, za katerega ocenjujejo, da letno ustvari približno 20 milijard dolarjev.

OpenAI-jeva napoved prihaja v času, ko je prav tako izdal GPT-5.3 Instant in GPT-5.4. Premik sledi tudi Anthropicovemu debiju Claude Code Security 20. februarja, ki pregleda celotne kodne baze in predlaga popravke za zaznane ranljivosti. Orodje, zgrajeno na modelu Claude Opus 4.6, poskuša o programski opremi sklepati kot človeški varnostni raziskovalec—analizira poslovno logiko, tokove podatkov in sistemske interakcije, namesto da bi se zanašalo zgolj na pravila statičnega skeniranja.

Anthropic je povedal, da je Claude Code Security že identificiral več kot 500 ranljivosti v odprtokodnih programskih projektih, vključno s težavami, ki so ostale neopažene več let. Podjetje funkcijo trenutno ponuja v raziskovalnem predogledu za poslovne in ekipne stranke, medtem ko lahko vzdrževalci odprte kode zaprosijo za pospešen brezplačen dostop.

Obe podjetji stavita, da bodo AI-sistemi, sposobni sklepati o kontekstu kode, prekašali tradicionalne skenerje ranljivosti, ki pogosto ustvarijo velike količine lažnih pozitivnih zadetkov. Za reševanje te težave Claude Code Security uporablja večstopenjski verifikacijski sistem, ki ponovno preveri ugotovitve ter dodeli ocene resnosti in zaupanja.

Codex Security uporablja nekoliko drugačen pristop. Namesto da bi se zanašal izključno na sklepanja modela, agent potrdi domnevne ranljivosti znotraj peskovniških (sandbox) okolij, preden prikaže rezultate. OpenAI je dejal, da postopek zmanjša šum in AI omogoči razvrščanje ugotovitev glede na dokaze, zbrane med testiranjem.

“Codex Security se je začel kot Aardvark, ki je bil lani lansiran v zasebni beti,” je OpenAI zapisal na X. Podjetje je dodalo:

“Od takrat smo bistveno izboljšali kakovost signala, zmanjšali šum, izboljšali natančnost resnosti in znižali število lažnih pozitivnih zadetkov, tako da se ugotovitve bolje ujemajo z resničnim tveganjem.”

Razvijalci, ki pregledajo rezultate Codex Security, lahko preučijo podporne podatke, si ogledajo razlike v kodi (diffs) za predlagane popravke in integrirajo popravke prek delovnih tokov Github. Sistem ekipam omogoča tudi prilagajanje modelov groženj z nastavljanjem parametrov, kot so napadalna površina, obseg repozitorija in toleranca tveganja.

Čeprav je Anthropicov lansiranje pretreslo dele sektorja kibernetske varnosti, je OpenAI-jev vstop doslej povzročil več razprav kot tržne panike. Ko je Claude Code Security februarja debitiral, je več delnic podjetij za kibernetsko varnost za kratek čas padlo med 5% in 10%, vključno s podjetji, kot sta Crowdstrike in Palo Alto Networks, preden so se v naslednjih trgovalnih sejah večinoma pobrale.

Takrat so analitiki dejali, da je razprodaja verjetno odražala tesnobo glede tega, ali bi AI-orodja lahko nadomestila dele trga varnosti aplikacij. Mnogi raziskovalci pa trdijo, da bodo AI orodja bolj verjetno dopolnjevala obstoječe varnostne platforme, namesto da bi jih v celoti nadomestila.

Zaznavanje ranljivosti s pomočjo AI je v zadnjih dveh letih hitro napredovalo, pri čemer veliki jezikovni modeli (LLM) vse pogosteje sodelujejo pri nalogah kibernetskovarnostnih raziskav, kot so tekmovanja Capture-the-Flag in avtomatizirano odkrivanje ranljivosti. Te zmožnosti lahko obrambnim ekipam pomagajo hitreje prepoznati slabosti programske opreme—hkrati pa sprožajo skrbi, da bi napadalci lahko potencialno izkoristili podobne sisteme.

Za obravnavo teh tveganj je OpenAI 5. februarja zagnal pobudo “Trusted Access for Cyber”, ki preverjenim varnostnim raziskovalcem zagotavlja nadzorovan dostop do naprednih modelov za obrambne raziskave. Anthropic je ubral podoben pristop prek partnerstev z institucijami, kot je Pacific Northwest National Laboratory, ter prek internih red-team programov.

Močni igralci umetne inteligence izvajajo velike poteze v vrtoglavem tednu

Močni igralci umetne inteligence izvajajo velike poteze v vrtoglavem tednu

Razvoj umetne inteligence (UI) je v preteklem tednu prinesel vrtinec novih modelov in milijardnih krogov financiranja. read more.

Preberi zdaj

Pojav AI-varnostnih agentov pomeni premik k temu, kar mnogi raziskovalci imenujejo “agentska kibernetska varnost” (agentic cybersecurity), kjer avtonomni sistemi neprekinjeno analizirajo, testirajo in odpravljajo ranljivosti programske opreme. Če bodo takšna orodja uspešna, bi lahko skrajšala čas med odkritjem ranljivosti in uvedbo popravka—eno največjih šibkosti sodobne programske varnosti.

Za razvijalce in varnostne ekipe je časovni okvir težko prezreti. AI ne piše več samo kode—zdaj jo tudi revidira, lomi in popravlja, pogosto znotraj istega delovnega toka.

In ker OpenAI in Anthropic zdaj tekmujeta neposredno drug proti drugemu, bi naslednji val orodij za kibernetsko varnost lahko prišel ne v obliki tradicionalnih skenerjev, temveč kot AI-agenti, ki nikoli ne spijo, nikoli ne godrnjajo in—v idealnem primeru—ujamejo hrošče, preden to storijo hekerji.

FAQ 🤖

  • Kaj je OpenAI-jev Codex Security?
    Codex Security je agent za varnost aplikacij, ki ga poganja AI in ki skenira repozitorije GitHub, potrjuje ranljivosti in predlaga popravke kode.
  • Kako se Codex Security razlikuje od tradicionalnih skenerjev ranljivosti?
    Sistem uporablja sklepanje AI in potrjevanje v peskovniku (sandbox) za analizo konteksta kode in zmanjšanje lažnih pozitivnih zadetkov.
  • Kaj je Anthropicov Claude Code Security?
    Claude Code Security je konkurenčno AI-orodje, ki pregleduje kodne baze za ranljivosti in predlaga popravke z uporabo Anthropicovega modela Claude.
  • Zakaj AI-podjetja gradijo agente za kibernetsko varnost?
    AI-agenti lahko zaznajo in odpravijo ranljivosti programske opreme hitreje kot tradicionalna orodja, kar razvijalcem pomaga okrepiti varnost kode v velikem obsegu.