Provozuje
News

Divoký víkend AI: Otřesy v OpenAI, střet s Pentagonem a roboti, kteří odmítají zemřít

Umělá inteligence (AI) o víkendu vyvolala vír událostí — přinesla rezignace vedoucích pracovníků, spory s Pentagonem, průlomy v robotice, spuštění podnikových modelů i nové bezpečnostní nástroje, které společně ukazují, že odvětví zrychluje téměř na všech frontách.

SDÍLET
Divoký víkend AI: Otřesy v OpenAI, střet s Pentagonem a roboti, kteří odmítají zemřít

Obranné zakázky, rezignace a třenice s Pentagonem

Jedna z nejvýraznějších novinek přišla 7. března, kdy Caitlin Kalinowski, šéfka robotiky a spotřebního hardwaru ve společnosti OpenAI, ze společnosti rezignovala. Kalinowski podle zpráv vyjádřila obavy ohledně snahy OpenAI získat kontrakt s Pentagonem, který by zahrnoval nasazení AI na utajovaných vládních systémech. Údajně varovala, že návrh postrádá dostatečné pojistky týkající se využití pro domácí dohled a možnosti smrtících autonomních zbraní.

OpenAI reagovala zopakováním, že společnost dodržuje přísné „červené linie“ ohledně některých vojenských použití. Odchod však zvýrazňuje rostoucí napětí mezi ambicemi AI v Silicon Valley a prioritami národní bezpečnosti ve Washingtonu, zejména když obranné agentury stále častěji zkoumají využití pokročilých AI systémů v citlivých operacích.

Tato napětí se ještě vyostřila, když Pentagon 5. března formálně označil společnost Anthropic za „riziko v dodavatelském řetězci“. Toto označení omezuje obranné dodavatele v používání určitých verzí modelu Claude AI od této firmy v rámci vládních projektů. Vzácný štítek udělený domácí technologické firmě naznačuje, jak ostře se neshody ohledně bezpečnosti AI a jejího vojenského využití začínají střetávat s plánováním národní obrany.

Správa a etika se dostávají do centra pozornosti AI

Uprostřed těchto sporů koalice technologů a tvůrců politik představila nový návrh správy, jehož cílem je nasměrovat další fázi vývoje umělé inteligence. 7. března fyzik z MIT Max Tegmark a bipartistická skupina výzkumníků a zastánců politiky představili „Pro-Human Declaration“ (Prohlášení pro člověka), rámec zamýšlený tak, aby vývoj AI zůstal v souladu s lidským dohledem a občanskými svobodami.

Deklarace vymezuje pět klíčových principů, včetně ponechání lidí v konečné kontrole nad pokročilými AI systémy, prevence nadměrné koncentrace moci v rukou několika málo společností, vynucení přísného bezpečnostního testování, ochrany občanských práv a uvalení přísných limitů na samovylepšující se superinteligenci. Autoři návrh představili jako plán pro zákonodárce, kteří se potýkají se stále složitějšími debatami o politice v oblasti AI.

Roboti, kteří se odmítají vzdát

Zatímco tvůrci politik diskutovali o rámcích správy, výzkumníci ukázali, jak rychle se vyvíjí robotika poháněná AI. Vědci z Northwestern University odhalili novou třídu AI navržených „chodících metamachin“ — modulárních robotů schopných přizpůsobovat svůj tvar a pokračovat v provozu i po vážném fyzickém poškození.

AI’s Wild Weekend: OpenAI Shakeup, Pentagon Clash, and Robots That Refuse to Die
Zdroj obrázku: Northwestern University News.

Výzkum, publikovaný v Proceedings of the National Academy of Sciences, ukazuje roboty, kteří se mohou zacvakávat do různých konfigurací a pohybovat se po nerovném terénu. Při testech byli někteří roboti rozřezáni a přesto dokázali obnovit pohyblivost přeskupením svých zbývajících komponent — chování, které by podle výzkumníků mohlo být užitečné v oblastech postižených katastrofami, při průzkumných misích nebo v jiných nepředvídatelných prostředích.

Frontier modely rozšiřují podnikové schopnosti AI

Na softwarové frontě OpenAI 5. března spustila rodinu modelů GPT-5.4 a představila systémy navržené speciálně pro profesionální a podnikové nasazení. Vydání zahrnuje specializované varianty Pro a Thinking schopné lepšího uvažování, komplexních úloh v kódování a přímého ovládání počítače.

Některé verze GPT-5.4 podporují kontextová okna blížící se jednomu milionu tokenů, což uživatelům umožňuje analyzovat obrovské dokumenty nebo datové sady v jediném promptu. OpenAI uvedla, že nové modely mají omezit halucinace a zároveň zvýšit spolehlivost pro podnikové aplikace, jako je analýza dat, inženýrství a automatizované workflow.

AI jako lovec chyb v kyberbezpečnosti a nové vydání Openclaw

Umělá inteligence se také ukazuje jako užitečná pro defenzivní práci v kyberbezpečnosti. Anthropic 6. března oznámila, že její model Claude AI objevil během dvoutýdenní testovací spolupráce s Mozillou 22 zranitelností v prohlížeči Mozilla Firefox.

Čtrnáct z těchto problémů bylo hodnoceno jako vysoce závažných. Zjištění zdůrazňují, jak jsou pokročilé AI systémy stále častěji využívány k pomoci při odhalování zranitelností a umožňují bezpečnostním týmům identifikovat a opravovat chyby mnohem rychleji než samotné tradiční ruční audity.

Nejnovější vydání Openclaw, verze 2026.3.7, dorazilo v neděli s výrazným upgradem rozšiřitelnosti a spolehlivosti pro virální open-source framework autonomního AI agenta, který běží lokálně prakticky na jakékoli platformě.

Hlavní novinkou je nový pluginový systém ContextEngine s plnými hooky životního cyklu (bootstrap, ingest, compact, správa subagentů atd.), který dává vývojářům i širší komunitě svobodu vytvářet vlastní pluginy pro správu kontextu — například lossless-claw — jež rozšiřují nebo přepisují základní chování a přitom zůstávají plně zpětně kompatibilní.

AI agenti pronikají do zdravotnictví a kancelářské práce

Velké technologické firmy také závodí v tom, kdo rychleji zabuduje AI agenty do reálných odvětví. Amazon Web Services 5. března představil Amazon Connect Health, platformu způsobilou pro HIPAA, navrženou k nasazení AI agentů napříč zdravotnickým provozem.

Platforma dokáže automatizovat plánování pacientů, pomáhat s dokumentací, ověřovat údaje o pojištění a vyřizovat administrativní úkoly při integraci se systémy elektronické zdravotní dokumentace. AWS uvádí, že systém má snížit administrativní zátěž poskytovatelů zdravotní péče a zároveň zlepšit koordinaci péče o pacienty.

OpenAI představila další podnikový nástroj vydáním Codex Security, AI agenta schopného skenovat softwarové kódové báze, identifikovat zranitelnosti, ověřovat zjištění a navrhovat opravy. Nástroj byl zpočátku vydán jako výzkumný náhled a signalizuje, jak se AI stále více přesouvá do auditování softwaru a bezpečnosti vývoje.

Společnost také představila beta doplněk ChatGPT pro Microsoft Excel, který uživatelům umožňuje pracovat s GPT-5.4 přímo uvnitř tabulek. Integrace umožňuje analytikům a obchodním týmům spouštět scénářové modely, analyzovat datové sady a generovat finanční projekce, aniž by opustili Excel, čímž dále začleňuje AI do každodenních podnikových workflow.

Grok, Claude, Qwen, ChatGPT a další: 9 modelů AI předpovídá další cenový vývoj bitcoinu

Grok, Claude, Qwen, ChatGPT a další: 9 modelů AI předpovídá další cenový vývoj bitcoinu

Prozkoumejte poznatky od předních AI modelů o pohybech ceny bitcoinu a budoucích předpovědích na trhu s kryptoměnami. read more.

Přečíst

Nejnovější vývoj v oblasti AI za posledních 48 hodin ilustruje odvětví, které postupuje na více frontách zároveň — od robotiky a kyberbezpečnosti po automatizaci ve zdravotnictví a geopolitické debaty o roli AI v národní obraně. Tyto události také odhalují rostoucí přetahovanou mezi inovací a dohledem, protože vlády, výzkumníci a technologičtí giganti se ve spěchu snaží vymezit mantinely, zatímco technologie pokračuje v postupu rychleji, než může politika pohodlně držet krok.

FAQ 🔎

  • Jaké byly největší AI příběhy za posledních 48 hodin?
    Mezi hlavní události patřilo spuštění GPT-5.4 od OpenAI, průlom v robotice z Northwestern University, odhalení zranitelností ve Firefoxu společností Anthropic a spuštění zdravotnických AI agentů od AWS.
  • Proč rezignovala vedoucí robotiky v OpenAI?
    Caitlin Kalinowski odstoupila s odkazem na obavy z navrhovaného kontraktu s Pentagonem na AI a nedostatečných pojistek kolem dohledu a autonomních zbraní.
  • Co jsou AI „chodící metamachiny“?
    Jsou to modulární roboti navržení AI, kteří dokážou přizpůsobovat svou strukturu a pokračovat v pohybu i po vážném fyzickém poškození.
  • Jak AI zlepšuje kyberbezpečnost?
    Pokročilé AI systémy, jako je Claude od společnosti Anthropic, mohou analyzovat softwarové kódové báze a rychle odhalovat zranitelnosti, které by lidské týmy mohly přehlédnout.