Pinapagana ng
News

Ang Codex Security ng OpenAI ay Nagde-debut habang Umiinit ang Karera sa AI Cybersecurity Kasama ang Anthropic

Inilunsad ng OpenAI ang Codex Security noong Marso 6, na nagpakilala ng isang application security agent na pinapagana ng artificial intelligence (AI) na nag-i-scan ng mga Github repository para sa mga kahinaan (vulnerabilities), ilang linggo lamang matapos ilunsad ng Anthropic ang katunggali nitong Claude Code Security tool—na ginagawang pinakabagong larangan ng matinding kompetisyon sa industriya ng teknolohiya ang depensa sa code na pinapagana ng AI.

ISINULAT NI
IBAHAGI
Ang Codex Security ng OpenAI ay Nagde-debut habang Umiinit ang Karera sa AI Cybersecurity Kasama ang Anthropic

Inilunsad ng OpenAI ang Codex Security upang Hamunin ang Claude Code Security ng Anthropic

Ang paglabas ay dumarating kasabay ng tumitinding interes sa mga AI tool na kayang magsuri ng napakalalaking proyekto ng software nang mas mabilis kaysa sa kayang gawin ng mga human security team. Dinisenyo ang Codex Security upang suriin ang mga repository, tukuyin ang mga kahinaan, beripikahin ang mga ito sa mga hiwalay na testing environment, at magmungkahi ng mga ayos na maaaring repasuhin ng mga developer bago ipatupad. Bumubuo ang sistema ng konteksto kada commit, na nagbibigay-daan sa AI na maunawaan kung paano umuunlad ang code sa paglipas ng panahon sa halip na mag-flag lamang ng mga hiwa-hiwalay na snippet.

Sumulat ang OpenAI:

“Ipinapakilala namin ang Codex Security. Isang application security agent na tumutulong sa inyong i-secure ang inyong codebase sa pamamagitan ng paghahanap ng mga kahinaan, pagbe-verify sa mga ito, at pagmumungkahi ng mga ayos na maaari ninyong repasuhin at i-patch. Ngayon, makakapagpokus ang mga team sa mga kahinaang mahalaga at makapag-ship ng code nang mas mabilis.”

Sinabi ng OpenAI na nakabatay ang tool sa Codex ecosystem nito, isang cloud-based AI engineering assistant na ipinakilala noong Mayo 2025 na tumutulong sa mga developer na magsulat ng code, mag-ayos ng bugs, at magmungkahi ng mga pull request. Pagsapit ng Marso 2026, umakyat ang paggamit ng Codex sa humigit-kumulang 1.6 milyong lingguhang user, ayon sa kumpanya. Pinalalawak ng Codex Security ang mga kakayahang iyon tungo sa application security, isang segment ng industriya na tinatayang lumilikha ng humigit-kumulang $20 bilyon taun-taon.

Dumarating ang anunsyo ng OpenAI kasabay ng paglabas nito ng GPT-5.3 Instant at GPT-5.4 rin. Sinusundan din ng hakbang ang debut ng Anthropic noong Peb. 20 ng Claude Code Security, na nag-i-scan ng buong codebase at nagmumungkahi ng mga patch para sa mga natukoy na kahinaan. Itinayo sa Claude Opus 4.6 model, sinusubukan ng tool na mangatwiran tungkol sa software gaya ng isang human security researcher—sinusuri ang business logic, mga daloy ng data, at mga interaksiyon ng sistema sa halip na umasa lamang sa mga static scanning rule.

Sinabi ng Anthropic na natukoy na ng Claude Code Security ang mahigit 500 kahinaan sa mga open-source software project, kabilang ang mga isyung hindi napapansin sa loob ng maraming taon. Sa kasalukuyan, inaalok ng kumpanya ang feature sa isang research preview para sa enterprise at team customer, habang ang mga open-source maintainer ay maaaring humiling ng pinabilis na access nang libre.

Kapwa tumataya ang dalawang kumpanya na mas mahihigitan ng mga AI system na kayang mangatwiran tungkol sa konteksto ng code ang mga tradisyonal na vulnerability scanner, na madalas lumilikha ng malaking dami ng false positive. Upang tugunan ang problemang iyon, gumagamit ang Claude Code Security ng multi-stage verification system na muling nagsusuri sa mga natuklasan at nagtatakda ng severity at confidence score.

Bahagyang naiiba ang lapit ng Codex Security. Sa halip na umasa nang purong sa model inference, bine-verify ng agent ang mga pinaghihinalaang kahinaan sa loob ng mga sandboxed environment bago ilabas ang mga resulta. Sinabi ng OpenAI na binabawasan ng prosesong ito ang ingay at hinahayaan ang AI na iranggo ang mga natuklasan batay sa ebidensiyang nakalap habang nagte-test.

“Nagsimula ang Codex Security bilang Aardvark, na inilunsad noong nakaraang taon sa private beta,” isinulat ng OpenAI sa X. Dagdag ng kumpanya:

“Simula noon, malaki naming pinahusay ang kalidad ng signal, binawasan ang ingay, pinahusay ang katumpakan ng severity, at ibinaba ang false positives, upang mas tumugma ang mga natuklasan sa panganib sa totoong mundo.”

Maaaring suriin ng mga developer na nagre-review ng mga resulta ng Codex Security ang sumusuportang data, tingnan ang mga code diff para sa mga iminungkahing patch, at isama ang mga ayos sa pamamagitan ng mga Github workflow. Pinapahintulutan din ng sistema ang mga team na i-customize ang mga threat model sa pamamagitan ng pag-aayos ng mga parameter gaya ng attack surface, saklaw ng repository, at risk tolerance.

Bagama’t yumanig sa ilang bahagi ng sektor ng cybersecurity ang paglabas ng Anthropic, ang pagpasok ng OpenAI ay sa ngayon ay mas nagdulot ng usap-usapan kaysa panic sa merkado. Nang mag-debut ang Claude Code Security noong Pebrero, pansamantalang bumagsak ang ilang cybersecurity stock sa pagitan ng 5% at 10%, kabilang ang mga kumpanyang gaya ng Crowdstrike at Palo Alto Networks, bago halos makabawi sa mga sumunod na trading session.

Noong panahong iyon, sinabi ng mga analyst na malamang na sumasalamin ang selloff sa pagkabalisa kung kaya bang palitan ng mga AI tool ang ilang bahagi ng application security market. Marami namang mananaliksik ang naninindigang mas malamang na umakma ang mga AI tool sa mga umiiral na security platform kaysa tuluyang palitan ang mga ito.

Mabilis ang inusad ng AI-assisted vulnerability detection sa nakalipas na dalawang taon, kung saan mas madalas nang nakikibahagi ang mga large language model (LLM) sa mga gawain sa cybersecurity research gaya ng Capture-the-Flag competitions at automated vulnerability discovery. Makakatulong ang mga kakayahang ito sa mga depensador na matukoy ang mga kahinaan ng software nang mas mabilis—ngunit nagbubunsod din ito ng pangamba na maaaring samantalahin ng mga umaatake ang mga kahalintulad na sistema.

Upang tugunan ang mga panganib na iyon, inilunsad ng OpenAI ang isang “Trusted Access for Cyber” initiative noong Peb. 5 na nagbibigay sa mga na-vet na security researcher ng kontroladong access sa mga advanced na modelo para sa defensive research. Gumamit ng katulad na lapit ang Anthropic sa pamamagitan ng mga partnership sa mga institusyong gaya ng Pacific Northwest National Laboratory at mga internal red-team program.

Mga Makapangyarihang Player ng AI Gumagawa ng Malalaking Hakbang sa Isang Napakabilis na Linggo

Mga Makapangyarihang Player ng AI Gumagawa ng Malalaking Hakbang sa Isang Napakabilis na Linggo

Ang mga pag-unlad sa artificial intelligence (AI) nitong nakaraang linggo ay naghatid ng sunod-sunod na mga bagong modelo at mga funding round na nagkakahalaga ng bilyong dolyar. read more.

Basahin ngayon

Ang paglitaw ng mga AI security agent ay nagmamarka ng paglipat tungo sa tinatawag ng maraming mananaliksik na “agentic cybersecurity,” kung saan ang mga autonomous system ay tuloy-tuloy na nagsusuri, nagte-test, at nagre-remediate ng mga kahinaan sa software. Kung magtatagumpay, maaaring paikliin ng mga ganitong tool ang oras sa pagitan ng pagtuklas ng kahinaan at pag-deploy ng patch—isa sa pinakamalalaking kahinaan sa modernong seguridad ng software.

Para sa mga developer at security team, mahirap balewalain ang timing. Hindi na lang nagsusulat ng code ang AI—ina-audit na rin nito, binabasag ito, at inaayos ito, kadalasan sa iisang workflow.

At ngayong naglalaban nang harapan ang OpenAI at Anthropic, ang susunod na alon ng mga tool sa cybersecurity ay maaaring dumating hindi bilang mga tradisyonal na scanner kundi bilang mga AI agent na hindi natutulog, hindi nagrereklamo at, sa ideal na kaso, nakakakita ng mga bug bago pa man makakita ang mga hacker.

FAQ 🤖

  • Ano ang Codex Security ng OpenAI?
    Ang Codex Security ay isang application security agent na pinapagana ng AI na nag-i-scan ng mga GitHub repository, bine-verify ang mga kahinaan, at nagmumungkahi ng mga pag-aayos sa code.
  • Paano naiiba ang Codex Security sa mga tradisyonal na vulnerability scanner?
    Gumagamit ang sistema ng pangangatwirang AI at sandbox validation upang suriin ang konteksto ng code at mabawasan ang mga false positive.
  • Ano ang Claude Code Security ng Anthropic?
    Ang Claude Code Security ay isang katunggaling AI tool na nag-i-scan ng mga codebase para sa mga kahinaan at nagmumungkahi ng mga patch gamit ang Claude model ng Anthropic.
  • Bakit gumagawa ang mga AI company ng mga cybersecurity agent?
    Kayang tuklasin at ayusin ng mga AI agent ang mga kahinaan sa software nang mas mabilis kaysa sa mga tradisyonal na tool, na tumutulong sa mga developer na palakasin ang seguridad ng code sa malawakang saklaw.