Artificiell intelligens (AI) skapade en virvelvind av utvecklingar under helgen, med chefsavgångar, Pentagon-tvister, genombrott inom robotik, lanseringar av företagsmodeller och nya säkerhetsverktyg som sammantaget visar att branschen accelererar på nästan alla fronter.
AI:s vilda helg: OpenAI-omvälvning, konflikt med Pentagon och robotar som vägrar att dö

Försvarsavtal, avgångar och friktion med Pentagon
En av de mest slående utvecklingarna kom den 7 mars när Caitlin Kalinowski, OpenAI:s chef för robotik och konsumenthårdvara, avgick från företaget. Kalinowski uppges ha uttryckt oro över OpenAI:s strävan efter ett Pentagonkontrakt som innebär AI-implementering på hemligstämplade statliga system. Hon ska ha varnat för att förslaget saknade tillräckliga skyddsräcken kring inhemsk övervakningsanvändning och möjligheten till dödliga autonoma vapen.
OpenAI svarade genom att upprepa att företaget upprätthåller strikta ”röda linjer” när det gäller vissa militära tillämpningar. Ändå belyser avhoppet en växande spänning mellan Silicon Valleys AI-ambitioner och Washingtons nationella säkerhetsprioriteringar, särskilt när försvarsmyndigheter i allt högre grad utforskar att använda avancerade AI-system i känsliga operationer.
De spänningarna fördjupades ytterligare när Pentagon formellt klassade Anthropic som en ”risk i leveranskedjan” den 5 mars. Klassningen begränsar försvarsentreprenörer från att använda vissa versioner av företagets Claude AI-modell inom statliga projekt. Den ovanliga etiketten som tillämpas på ett inhemskt teknikföretag signalerar hur skarpt oenigheter om AI-säkerhet och militär användning börjar kollidera med planeringen av nationellt försvar.
Styrning och etik hamnar i AI:s strålkastarljus
Mitt i dessa tvister presenterade en koalition av teknologer och beslutsfattare ett nytt styrningsförslag avsett att vägleda nästa fas av utvecklingen av artificiell intelligens. Den 7 mars introducerade MIT-fysikern Max Tegmark och en blocköverskridande grupp forskare och policyförespråkare ”Pro-Human Declaration”, ett ramverk som ska säkerställa att AI-utvecklingen förblir i linje med mänsklig tillsyn och medborgerliga fri- och rättigheter.
Deklarationen beskriver fem kärnprinciper, inklusive att människor ska ha den yttersta kontrollen över avancerade AI-system, att förhindra en alltför stor maktkoncentration hos en handfull företag, att genomdriva rigorösa säkerhetstester, att skydda medborgerliga rättigheter samt att sätta strikta gränser för självförbättrande superintelligens. Författarna positionerade förslaget som en färdplan för lagstiftare som brottas med allt mer komplexa AI-politiska debatter.
Robotar som vägrar ge upp
Samtidigt som beslutsfattare debatterade styrningsramverk visade forskare hur snabbt AI-driven robotik utvecklas. Forskare vid Northwestern University presenterade en ny klass av AI-designade ”benta metamaskiner”, modulära robotar som kan anpassa sina former och fortsätta fungera även efter allvarliga fysiska skador.

Forskningen, publicerad i Proceedings of the National Academy of Sciences, visar robotar som kan snäppas ihop i olika konfigurationer och röra sig över ojämn terräng. I tester skars vissa robotar itu och lyckades ändå återfå rörlighet genom att omorganisera sina återstående komponenter — ett beteende som forskare menar kan vara användbart i katastrofzoner, utforskningsuppdrag eller andra oförutsägbara miljöer.
Frontier-modeller utökar företags-AI:s kapacitet
På mjukvarufronten lanserade OpenAI sin GPT-5.4-familj av modeller den 5 mars, och introducerade system som är utformade specifikt för professionella och företagsinriktade arbetsbelastningar. Lanseringen inkluderar specialiserade Pro- och Thinking-varianter som kan ge förbättrat resonemang, komplexa kodningsuppgifter och direkt datorstyrning.
Vissa versioner av GPT-5.4 stödjer kontextfönster som närmar sig en miljon tokens, vilket gör att användare kan analysera enorma dokument eller datamängder i en enda prompt. OpenAI uppgav att de nya modellerna syftar till att minska hallucinationer samtidigt som de förbättrar tillförlitligheten för affärstillämpningar som dataanalys, ingenjörsarbete och automatiserade arbetsflöden.
AI framträder som en cybersäkerhets-bugghittare och en ny Openclaw-utgåva
Artificiell intelligens visar sig också vara användbar för defensivt cybersäkerhetsarbete. Anthropic meddelade den 6 mars att deras Claude AI-modell upptäckte 22 sårbarheter i webbläsaren Mozilla Firefox under ett två veckor långt testsamarbete med Mozilla.
Fjorton av dessa problem bedömdes ha hög allvarlighetsgrad. Resultaten belyser hur avancerade AI-system i allt större utsträckning används för att hjälpa till vid sårbarhetsupptäckt, genom att hjälpa säkerhetsteam att identifiera och åtgärda brister mycket snabbare än vad traditionell manuell granskning ensam klarar.
Den senaste Openclaw-utgåvan, version 2026.3.7, släpptes på söndagen med en rejäl uppgradering av utbyggbarhet och tillförlitlighet för det virala open source-ramverket för autonoma AI-agenter som körs lokalt på i stort sett vilken plattform som helst.
Den främsta nyheten är det nya ContextEngine-plugin-systemet med fullständiga livscykelkrokar (bootstrap, ingest, compact, hantering av underagenter, etc.), vilket ger utvecklare och det bredare communityt friheten att skapa anpassade plugins för kontexthantering — såsom lossless-claw — som utökar eller åsidosätter kärnbeteende samtidigt som de förblir fullt bakåtkompatibla.
AI-agenter tar plats i vården och kontorsarbetet
Stora teknikföretag tävlar också om att bädda in AI-agenter i verkliga branscher. Amazon Web Services introducerade Amazon Connect Health den 5 mars, en HIPAA-berättigad plattform som är utformad för att driftsätta AI-agenter inom vårdverksamheter.
Plattformen kan automatisera patientbokning, hjälpa till med dokumentation, verifiera försäkringsuppgifter och hantera administrativa uppgifter samtidigt som den integreras med system för elektroniska patientjournaler. AWS säger att systemet syftar till att minska den administrativa bördan för vårdgivare samtidigt som patientkoordineringen förbättras.
OpenAI presenterade ytterligare ett företagsverktyg med lanseringen av Codex Security, en AI-agent som kan skanna programvarukodbaser, identifiera sårbarheter, validera fynd och föreslå åtgärder. Verktyget släpptes initialt som en forskningsförhandsversion och signalerar hur AI i allt högre grad flyttar in i programvarugranskning och utvecklingssäkerhet.
Företaget introducerade också ett beta-tillägg av ChatGPT för Microsoft Excel, som gör det möjligt för användare att interagera med GPT-5.4 direkt i kalkylblad. Integrationen låter analytiker och affärsteam köra scenariomodeller, analysera datamängder och skapa finansiella prognoser utan att lämna Excel, vilket ytterligare bäddar in AI i vardagliga affärsarbetsflöden.

Grok, Claude, Qwen, ChatGPT och fler: 9 AI-modeller förutspår Bitcoins nästa prisutveckling
Utforska insikter från ledande AI-modeller om bitcoins prisrörelser och framtida prognoser på kryptovalutamarknaden. read more.
Läs nu
Grok, Claude, Qwen, ChatGPT och fler: 9 AI-modeller förutspår Bitcoins nästa prisutveckling
Utforska insikter från ledande AI-modeller om bitcoins prisrörelser och framtida prognoser på kryptovalutamarknaden. read more.
Läs nu
Grok, Claude, Qwen, ChatGPT och fler: 9 AI-modeller förutspår Bitcoins nästa prisutveckling
Läs nuUtforska insikter från ledande AI-modeller om bitcoins prisrörelser och framtida prognoser på kryptovalutamarknaden. read more.
De senaste AI-utvecklingarna från de senaste 48 timmarna illustrerar en bransch som går framåt på flera fronter samtidigt — från robotik och cybersäkerhet till vårdautomation och geopolitiska debatter om AI:s roll i nationellt försvar. Utvecklingarna blottlägger också en växande dragkamp mellan innovation och tillsyn, när regeringar, forskare och teknikjättar skyndar sig att definiera skyddsräcken medan tekniken fortsätter att utvecklas snabbare än politiken bekvämt hinner med.
FAQ 🔎
- Vilka var de största AI-nyheterna de senaste 48 timmarna?
Stora utvecklingar inkluderade OpenAI:s lansering av GPT-5.4, ett robotikgenombrott från Northwestern University, att Anthropic upptäckte sårbarheter i Firefox och att AWS lanserade AI-agenter för vården. - Varför avgick OpenAI:s robotikchef?
Caitlin Kalinowski klev av med hänvisning till oro över ett föreslaget AI-kontrakt med Pentagon och otillräckliga skyddsåtgärder kring övervakning och autonoma vapen. - Vad är AI ”benta metamaskiner”?
Det är modulära robotar som designats av AI och som kan anpassa sin struktur och fortsätta röra sig även efter allvarliga fysiska skador. - Hur förbättrar AI cybersäkerhet?
Avancerade AI-system som Anthropics Claude kan analysera programvarukodbaser och snabbt upptäcka sårbarheter som mänskliga team kan missa.














