Umělá inteligence (AI) o víkendu vyvolala vír událostí — přinesla rezignace vedoucích pracovníků, spory s Pentagonem, průlomy v robotice, spuštění podnikových modelů i nové bezpečnostní nástroje, které společně ukazují, že odvětví zrychluje téměř na všech frontách.
Divoký víkend AI: Otřesy v OpenAI, střet s Pentagonem a roboti, kteří odmítají zemřít

Obranné zakázky, rezignace a třenice s Pentagonem
Jedna z nejvýraznějších novinek přišla 7. března, kdy Caitlin Kalinowski, šéfka robotiky a spotřebního hardwaru ve společnosti OpenAI, ze společnosti rezignovala. Kalinowski podle zpráv vyjádřila obavy ohledně snahy OpenAI získat kontrakt s Pentagonem, který by zahrnoval nasazení AI na utajovaných vládních systémech. Údajně varovala, že návrh postrádá dostatečné pojistky týkající se využití pro domácí dohled a možnosti smrtících autonomních zbraní.
OpenAI reagovala zopakováním, že společnost dodržuje přísné „červené linie“ ohledně některých vojenských použití. Odchod však zvýrazňuje rostoucí napětí mezi ambicemi AI v Silicon Valley a prioritami národní bezpečnosti ve Washingtonu, zejména když obranné agentury stále častěji zkoumají využití pokročilých AI systémů v citlivých operacích.
Tato napětí se ještě vyostřila, když Pentagon 5. března formálně označil společnost Anthropic za „riziko v dodavatelském řetězci“. Toto označení omezuje obranné dodavatele v používání určitých verzí modelu Claude AI od této firmy v rámci vládních projektů. Vzácný štítek udělený domácí technologické firmě naznačuje, jak ostře se neshody ohledně bezpečnosti AI a jejího vojenského využití začínají střetávat s plánováním národní obrany.
Správa a etika se dostávají do centra pozornosti AI
Uprostřed těchto sporů koalice technologů a tvůrců politik představila nový návrh správy, jehož cílem je nasměrovat další fázi vývoje umělé inteligence. 7. března fyzik z MIT Max Tegmark a bipartistická skupina výzkumníků a zastánců politiky představili „Pro-Human Declaration“ (Prohlášení pro člověka), rámec zamýšlený tak, aby vývoj AI zůstal v souladu s lidským dohledem a občanskými svobodami.
Deklarace vymezuje pět klíčových principů, včetně ponechání lidí v konečné kontrole nad pokročilými AI systémy, prevence nadměrné koncentrace moci v rukou několika málo společností, vynucení přísného bezpečnostního testování, ochrany občanských práv a uvalení přísných limitů na samovylepšující se superinteligenci. Autoři návrh představili jako plán pro zákonodárce, kteří se potýkají se stále složitějšími debatami o politice v oblasti AI.
Roboti, kteří se odmítají vzdát
Zatímco tvůrci politik diskutovali o rámcích správy, výzkumníci ukázali, jak rychle se vyvíjí robotika poháněná AI. Vědci z Northwestern University odhalili novou třídu AI navržených „chodících metamachin“ — modulárních robotů schopných přizpůsobovat svůj tvar a pokračovat v provozu i po vážném fyzickém poškození.

Výzkum, publikovaný v Proceedings of the National Academy of Sciences, ukazuje roboty, kteří se mohou zacvakávat do různých konfigurací a pohybovat se po nerovném terénu. Při testech byli někteří roboti rozřezáni a přesto dokázali obnovit pohyblivost přeskupením svých zbývajících komponent — chování, které by podle výzkumníků mohlo být užitečné v oblastech postižených katastrofami, při průzkumných misích nebo v jiných nepředvídatelných prostředích.
Frontier modely rozšiřují podnikové schopnosti AI
Na softwarové frontě OpenAI 5. března spustila rodinu modelů GPT-5.4 a představila systémy navržené speciálně pro profesionální a podnikové nasazení. Vydání zahrnuje specializované varianty Pro a Thinking schopné lepšího uvažování, komplexních úloh v kódování a přímého ovládání počítače.
Některé verze GPT-5.4 podporují kontextová okna blížící se jednomu milionu tokenů, což uživatelům umožňuje analyzovat obrovské dokumenty nebo datové sady v jediném promptu. OpenAI uvedla, že nové modely mají omezit halucinace a zároveň zvýšit spolehlivost pro podnikové aplikace, jako je analýza dat, inženýrství a automatizované workflow.
AI jako lovec chyb v kyberbezpečnosti a nové vydání Openclaw
Umělá inteligence se také ukazuje jako užitečná pro defenzivní práci v kyberbezpečnosti. Anthropic 6. března oznámila, že její model Claude AI objevil během dvoutýdenní testovací spolupráce s Mozillou 22 zranitelností v prohlížeči Mozilla Firefox.
Čtrnáct z těchto problémů bylo hodnoceno jako vysoce závažných. Zjištění zdůrazňují, jak jsou pokročilé AI systémy stále častěji využívány k pomoci při odhalování zranitelností a umožňují bezpečnostním týmům identifikovat a opravovat chyby mnohem rychleji než samotné tradiční ruční audity.
Nejnovější vydání Openclaw, verze 2026.3.7, dorazilo v neděli s výrazným upgradem rozšiřitelnosti a spolehlivosti pro virální open-source framework autonomního AI agenta, který běží lokálně prakticky na jakékoli platformě.
Hlavní novinkou je nový pluginový systém ContextEngine s plnými hooky životního cyklu (bootstrap, ingest, compact, správa subagentů atd.), který dává vývojářům i širší komunitě svobodu vytvářet vlastní pluginy pro správu kontextu — například lossless-claw — jež rozšiřují nebo přepisují základní chování a přitom zůstávají plně zpětně kompatibilní.
AI agenti pronikají do zdravotnictví a kancelářské práce
Velké technologické firmy také závodí v tom, kdo rychleji zabuduje AI agenty do reálných odvětví. Amazon Web Services 5. března představil Amazon Connect Health, platformu způsobilou pro HIPAA, navrženou k nasazení AI agentů napříč zdravotnickým provozem.
Platforma dokáže automatizovat plánování pacientů, pomáhat s dokumentací, ověřovat údaje o pojištění a vyřizovat administrativní úkoly při integraci se systémy elektronické zdravotní dokumentace. AWS uvádí, že systém má snížit administrativní zátěž poskytovatelů zdravotní péče a zároveň zlepšit koordinaci péče o pacienty.
OpenAI představila další podnikový nástroj vydáním Codex Security, AI agenta schopného skenovat softwarové kódové báze, identifikovat zranitelnosti, ověřovat zjištění a navrhovat opravy. Nástroj byl zpočátku vydán jako výzkumný náhled a signalizuje, jak se AI stále více přesouvá do auditování softwaru a bezpečnosti vývoje.
Společnost také představila beta doplněk ChatGPT pro Microsoft Excel, který uživatelům umožňuje pracovat s GPT-5.4 přímo uvnitř tabulek. Integrace umožňuje analytikům a obchodním týmům spouštět scénářové modely, analyzovat datové sady a generovat finanční projekce, aniž by opustili Excel, čímž dále začleňuje AI do každodenních podnikových workflow.

Grok, Claude, Qwen, ChatGPT a další: 9 modelů AI předpovídá další cenový vývoj bitcoinu
Prozkoumejte poznatky od předních AI modelů o pohybech ceny bitcoinu a budoucích předpovědích na trhu s kryptoměnami. read more.
Přečíst
Grok, Claude, Qwen, ChatGPT a další: 9 modelů AI předpovídá další cenový vývoj bitcoinu
Prozkoumejte poznatky od předních AI modelů o pohybech ceny bitcoinu a budoucích předpovědích na trhu s kryptoměnami. read more.
Přečíst
Grok, Claude, Qwen, ChatGPT a další: 9 modelů AI předpovídá další cenový vývoj bitcoinu
PřečístProzkoumejte poznatky od předních AI modelů o pohybech ceny bitcoinu a budoucích předpovědích na trhu s kryptoměnami. read more.
Nejnovější vývoj v oblasti AI za posledních 48 hodin ilustruje odvětví, které postupuje na více frontách zároveň — od robotiky a kyberbezpečnosti po automatizaci ve zdravotnictví a geopolitické debaty o roli AI v národní obraně. Tyto události také odhalují rostoucí přetahovanou mezi inovací a dohledem, protože vlády, výzkumníci a technologičtí giganti se ve spěchu snaží vymezit mantinely, zatímco technologie pokračuje v postupu rychleji, než může politika pohodlně držet krok.
FAQ 🔎
- Jaké byly největší AI příběhy za posledních 48 hodin?
Mezi hlavní události patřilo spuštění GPT-5.4 od OpenAI, průlom v robotice z Northwestern University, odhalení zranitelností ve Firefoxu společností Anthropic a spuštění zdravotnických AI agentů od AWS. - Proč rezignovala vedoucí robotiky v OpenAI?
Caitlin Kalinowski odstoupila s odkazem na obavy z navrhovaného kontraktu s Pentagonem na AI a nedostatečných pojistek kolem dohledu a autonomních zbraní. - Co jsou AI „chodící metamachiny“?
Jsou to modulární roboti navržení AI, kteří dokážou přizpůsobovat svou strukturu a pokračovat v pohybu i po vážném fyzickém poškození. - Jak AI zlepšuje kyberbezpečnost?
Pokročilé AI systémy, jako je Claude od společnosti Anthropic, mohou analyzovat softwarové kódové báze a rychle odhalovat zranitelnosti, které by lidské týmy mohly přehlédnout.













