OpenAI toi Codex Securityn saataville 6. maaliskuuta ja esitteli tekoälyyn (AI) pohjautuvan sovellusturvallisuusagentin, joka skannaa Github-repositorioita haavoittuvuuksien varalta, vain viikkoja sen jälkeen kun Anthropic julkaisi kilpailevan Claude Code Security -työkalunsa—tehden tekoälyvetoisesta koodipuolustuksesta teknologia-alan uusimman kilpailun taistelukentän.
OpenAI:n Codex Security tekee debyyttinsä, kun tekoälypohjainen kyberturvallisuuskilpailu Anthropicin kanssa kuumenee

OpenAI julkaisee Codex Securityn haastamaan Anthropicin Claude Code Securityn
Julkaisu osuu aikaan, jolloin kiinnostus tekoälytyökaluihin kasvaa: ne voivat käydä läpi valtavia ohjelmistoprojekteja nopeammin kuin ihmisten tietoturvatiimit koskaan pystyisivät. Codex Security on suunniteltu analysoimaan repoja, tunnistamaan haavoittuvuuksia, validoimaan ne eristetyissä testausympäristöissä ja ehdottamaan korjauksia, jotka kehittäjät voivat tarkistaa ennen käyttöönottoa. Järjestelmä rakentaa kontekstia commit commitilta, jolloin tekoäly ymmärtää, miten koodi kehittyy, sen sijaan että se vain liputtaisi irrallisia koodinpätkiä.
OpenAI kirjoitti:
“Esittelemme Codex Securityn. Sovellusturvallisuusagentin, joka auttaa turvaamaan koodipohjasi löytämällä haavoittuvuuksia, validoimalla ne ja ehdottamalla korjauksia, joita voit tarkistaa ja paikata. Nyt tiimit voivat keskittyä olennaisiin haavoittuvuuksiin ja toimittaa koodia nopeammin.”
OpenAI kertoi työkalun rakentuvan sen Codex-ekosysteemin päälle. Codex on pilvipohjainen tekoälyavusteinen ohjelmistokehitysassistentti, joka esiteltiin toukokuussa 2025 ja joka auttaa kehittäjiä kirjoittamaan koodia, korjaamaan bugeja ja ehdottamaan pull requesteja. Maaliskuuhun 2026 mennessä Codexin käyttö oli yhtiön mukaan noussut noin 1,6 miljoonaan viikoittaiseen käyttäjään. Codex Security laajentaa nämä kyvykkyydet sovellusturvallisuuteen, toimialasegmenttiin, jonka arvioidaan tuottavan noin 20 miljardia dollaria vuodessa.
OpenAI:n ilmoitus tulee samaan aikaan, kun se on julkaissut GPT-5.3 Instantin sekä GPT-5.4:n. Liike seuraa myös Anthropicin 20. helmikuuta tekemää Claude Code Securityn debyyttiä. Työkalu skannaa kokonaisia koodipohjia ja ehdottaa korjauksia havaittuihin haavoittuvuuksiin. Claude Opus 4.6 -mallin päälle rakennettu työkalu pyrkii päättelemään ohjelmistosta kuin ihmistason tietoturvatutkija—analysoiden liiketoimintalogiikkaa, tietovirtoja ja järjestelmien vuorovaikutuksia sen sijaan, että se nojaaisi yksinomaan staattisiin skannaussääntöihin.
Anthropic kertoi, että Claude Code Security on jo tunnistanut yli 500 haavoittuvuutta avoimen lähdekoodin ohjelmistoprojekteissa, mukaan lukien ongelmia, jotka olivat jääneet huomaamatta vuosien ajan. Yhtiö tarjoaa ominaisuutta tällä hetkellä tutkimuksellisena esikatseluna yritys- ja tiimiasiakkaille, kun taas avoimen lähdekoodin ylläpitäjät voivat pyytää nopeutettua pääsyä ilmaiseksi.
Molemmat yhtiöt lyövät vetoa siitä, että koodin kontekstia päättelemään kykenevät tekoälyjärjestelmät päihittävät perinteiset haavoittuvuusskannerit, jotka tuottavat usein suuren määrän vääriä positiivisia. Tämän ongelman ratkaisemiseksi Claude Code Security käyttää monivaiheista varmennusjärjestelmää, joka tarkistaa löydökset uudelleen ja antaa vakavuus- ja luottamusarviot.
Codex Security lähestyy asiaa hieman eri tavalla. Sen sijaan että agentti nojaisi pelkästään mallin päättelyyn, se validoi epäillyt haavoittuvuudet hiekkalaatikkoon eristetyissä ympäristöissä ennen tulosten esiin nostamista. OpenAI:n mukaan prosessi vähentää kohinaa ja mahdollistaa sen, että tekoäly voi asettaa löydökset tärkeysjärjestykseen testauksen aikana kerätyn näytön perusteella.
“Codex Security alkoi Aardvarkina, joka julkaistiin viime vuonna yksityisenä beetana”, OpenAI kirjoitti X:ssä. Yhtiö lisäsi:
“Sen jälkeen olemme parantaneet merkittävästi signaalin laatua, vähentäneet kohinaa, parantaneet vakavuusluokittelun tarkkuutta ja pienentäneet väärien positiivisten määrää, jotta löydökset vastaavat paremmin tosielämän riskiä.”
Codex Securityn tuloksia arvioivat kehittäjät voivat tarkastella tukidataa, katsoa koodidiffejä ehdotettuihin korjauksiin ja integroida korjaukset Github-työnkulkujen kautta. Järjestelmä mahdollistaa myös sen, että tiimit voivat räätälöidä uhkamalleja säätämällä parametreja, kuten hyökkäyspintaa, repositorion laajuutta ja riskinsietokykyä.
Vaikka Anthropicin julkaisu horjutti osia kyberturvallisuussektorista, OpenAI:n tulo on toistaiseksi aiheuttanut enemmän puhetta kuin markkinapaniikkia. Kun Claude Code Security debytoi helmikuussa, useat kyberturvallisuusosakkeet laskivat hetkellisesti 5–10 %, mukaan lukien yritykset kuten Crowdstrike ja Palo Alto Networks, ennen kuin ne pääosin palautuivat seuraavissa kaupankäyntisessioissa.
Tuolloin analyytikot sanoivat, että myyntiaalto heijasti todennäköisesti huolta siitä, voisivatko tekoälytyökalut korvata osia sovellusturvallisuusmarkkinasta. Monet tutkijat kuitenkin väittävät, että tekoäly-työkalut todennäköisemmin täydentävät olemassa olevia tietoturva-alustoja kuin korvaavat ne kokonaan.
Tekoälyavusteinen haavoittuvuuksien tunnistus on kehittynyt nopeasti viimeisten kahden vuoden aikana, kun suuret kielimallit (LLM:t) osallistuvat yhä enemmän kyberturvallisuustutkimuksen tehtäviin, kuten Capture-the-Flag-kilpailuihin ja automatisoituun haavoittuvuuksien löytämiseen. Nämä kyvykkyydet voivat auttaa puolustajia tunnistamaan ohjelmistojen heikkouksia nopeammin—mutta ne herättävät myös huolia siitä, että hyökkääjät voisivat mahdollisesti hyödyntää vastaavia järjestelmiä.
Näiden riskien vähentämiseksi OpenAI käynnisti 5. helmikuuta “Trusted Access for Cyber” -aloitteen, joka tarjoaa tarkastetuille tietoturvatutkijoille hallitun pääsyn kehittyneisiin malleihin puolustavaan tutkimukseen. Anthropic on omaksunut samankaltaisen lähestymistavan kumppanuuksien kautta instituutioiden, kuten Pacific Northwest National Laboratoryn, sekä sisäisten red team -ohjelmien avulla.

Tekoälyn valtapelaajat tekevät valtavia liikkeitä huimaa vauhtia etenevällä viikolla
Tekoälyn (AI:n) kehitys kuluneen viikon aikana toi mukanaan pyörteisen joukon uusia malleja ja miljardiluokan rahoituskierroksia. read more.
Lue nyt
Tekoälyn valtapelaajat tekevät valtavia liikkeitä huimaa vauhtia etenevällä viikolla
Tekoälyn (AI:n) kehitys kuluneen viikon aikana toi mukanaan pyörteisen joukon uusia malleja ja miljardiluokan rahoituskierroksia. read more.
Lue nyt
Tekoälyn valtapelaajat tekevät valtavia liikkeitä huimaa vauhtia etenevällä viikolla
Lue nytTekoälyn (AI:n) kehitys kuluneen viikon aikana toi mukanaan pyörteisen joukon uusia malleja ja miljardiluokan rahoituskierroksia. read more.
Tekoälytietoturva-agenttien esiinmarssi merkitsee siirtymää kohti sitä, mitä monet tutkijat kutsuvat “agenttiseksi kyberturvallisuudeksi”, jossa autonomiset järjestelmät analysoivat, testaavat ja korjaavat ohjelmistojen haavoittuvuuksia jatkuvasti. Onnistuessaan tällaiset työkalut voisivat lyhentää aikaa haavoittuvuuden löytymisen ja korjauspäivityksen käyttöönoton välillä—yksi modernin ohjelmistoturvallisuuden suurimmista heikkouksista.
Kehittäjille ja tietoturvatiimeille ajoitus on vaikea sivuuttaa. Tekoäly ei enää pelkästään kirjoita koodia—se tarkastaa sitä, rikkoo sitä ja korjaa sitä, usein samassa työnkulussa.
Ja kun OpenAI ja Anthropic kilpailevat nyt suoraan vastakkain, kyberturvallisuustyökalujen seuraava aalto voi saapua perinteisten skannerien sijaan tekoälyagentteina, jotka eivät koskaan nuku, eivät koskaan valita ja jotka ihanteellisesti löytävät bugit ennen kuin hakkerit löytävät ne.
FAQ 🤖
- Mikä on OpenAI:n Codex Security?
Codex Security on tekoälyyn pohjautuva sovellusturvallisuusagentti, joka skannaa GitHub-repositorioita, validoi haavoittuvuudet ja ehdottaa koodikorjauksia. - Miten Codex Security eroaa perinteisistä haavoittuvuusskannereista?
Järjestelmä hyödyntää tekoälypäättelyä ja hiekkalaatikkovalidointia koodikontekstin analysointiin ja väärien positiivisten vähentämiseen. - Mikä on Anthropicin Claude Code Security?
Claude Code Security on kilpaileva tekoälytyökalu, joka skannaa koodipohjia haavoittuvuuksien varalta ja ehdottaa korjauspäivityksiä Anthropicin Claude-mallia käyttäen. - Miksi tekoälyyritykset rakentavat kyberturvallisuusagentteja?
Tekoälyagentit voivat havaita ja korjata ohjelmistojen haavoittuvuuksia nopeammin kuin perinteiset työkalut, mikä auttaa kehittäjiä vahvistamaan koodin turvallisuutta laajassa mittakaavassa.














