Drevet av
News

AI’s Ville Helg: OpenAI-omveltning, Pentagon-sammenstøt og roboter som nekter å dø

Kunstig intelligens (AI) skapte en virvelvind av utviklinger i helgen, med topplederavganger, Pentagon-strid, gjennombrudd innen robotikk, lanseringer av bedriftsmodeller og nye sikkerhetsverktøy som samlet viser en bransje som akselererer på nesten alle fronter.

SKREVET AV
DEL
AI’s Ville Helg: OpenAI-omveltning, Pentagon-sammenstøt og roboter som nekter å dø

Forsvarsavtaler, avganger og friksjon med Pentagon

En av de mest slående utviklingene kom 7. mars da Caitlin Kalinowski, OpenAIs leder for robotikk og forbrukerhardware, sa opp fra selskapet. Kalinowski skal ha uttrykt bekymring over OpenAIs jakt på en Pentagon-kontrakt som innebærer AI-utrulling på graderte statlige systemer. Hun skal ha advart om at forslaget manglet tilstrekkelige sikkerhetsmekanismer rundt bruk til innenlandsk overvåking og muligheten for dødelige autonome våpen.

OpenAI svarte ved å gjenta at selskapet har strenge «røde linjer» når det gjelder visse militære anvendelser. Likevel understreker avgangen økende spenning mellom Silicon Valleys AI-ambisjoner og Washingtons nasjonale sikkerhetsprioriteringer, særlig ettersom forsvarsorganer i økende grad utforsker bruk av avanserte AI-systemer i sensitive operasjoner.

Disse spenningene tilspisset seg ytterligere da Pentagon formelt klassifiserte Anthropic som en «forsyningskjedrisiko» 5. mars. Betegnelsen begrenser forsvarsentreprenører fra å bruke visse versjoner av selskapets Claude-AI-modell i statlige prosjekter. Den sjeldne merkelappen påført et innenlandsk teknologiselskap signaliserer hvor skarpt uenigheter om AI-sikkerhet og militær bruk begynner å kollidere med nasjonal forsvarsplanlegging.

Styring og etikk i AI-rampelyset

Midt i disse stridighetene avduket en koalisjon av teknologer og politikere et nytt styringsforslag som tar sikte på å lede den neste fasen av utviklingen innen kunstig intelligens. 7. mars lanserte MIT-fysiker Max Tegmark og en tverrpolitisk gruppe forskere og politiske talspersoner «Pro-Human Declaration», et rammeverk ment å sikre at AI-utviklingen forblir forankret i menneskelig kontroll og sivile rettigheter.

Erklæringen skisserer fem kjerneprinsipper, inkludert å holde mennesker i endelig kontroll over avanserte AI-systemer, å forhindre overdreven maktkonsentrasjon hos en håndfull selskaper, å håndheve streng sikkerhetstesting, å beskytte borgerrettigheter og å sette strenge grenser for selvforbedrende superintelligens. Forfatterne presenterte forslaget som et veikart for lovgivere som strever med stadig mer komplekse AI-politiske debatter.

Roboter som nekter å gi seg

Mens beslutningstakere diskuterte styringsrammer, demonstrerte forskere hvor raskt AI-drevet robotikk utvikler seg. Forskere ved Northwestern University avdekket en ny klasse AI-designede «beinte metamaskiner», modulære roboter som kan tilpasse formene sine og fortsette å fungere selv etter alvorlig fysisk skade.

AI’s Wild Weekend: OpenAI Shakeup, Pentagon Clash, and Robots That Refuse to Die
Bildekilde: Northwestern University News.

Forskningen, publisert i Proceedings of the National Academy of Sciences, viser roboter som kan klikkes sammen i ulike konfigurasjoner og bevege seg over ujevnt terreng. I tester ble noen roboter skåret i to og klarte likevel å gjenvinne mobilitet ved å omorganisere de gjenværende komponentene — en atferd forskerne sier kan være nyttig i katastrofeområder, på utforskningsoppdrag eller i andre uforutsigbare miljøer.

Frontier-modeller utvider AI-kapasitetene for virksomheter

På programvarefronten lanserte OpenAI sin GPT-5.4-modellfamilie 5. mars, og introduserte systemer utviklet spesielt for profesjonelle og bedriftsrettede arbeidsmengder. Lanseringen inkluderer spesialiserte Pro- og Thinking-varianter som tilbyr bedre resonnement, komplekse kodeoppgaver og direkte datamaskinkontroll.

Visse versjoner av GPT-5.4 støtter kontekstvinduer som nærmer seg én million token, noe som lar brukere analysere enorme dokumenter eller datasett i én enkelt prompt. OpenAI sa at de nye modellene har som mål å redusere hallusinasjoner samtidig som de forbedrer påliteligheten for forretningsapplikasjoner som dataanalyse, ingeniørarbeid og automatiserte arbeidsflyter.

AI blir en cybersikkerhets-bugjeger og en ny Openclaw-lansering

Kunstig intelligens viser seg også nyttig for defensivt cybersikkerhetsarbeid. Anthropic kunngjorde 6. mars at deres Claude-AI-modell oppdaget 22 sårbarheter i Mozilla Firefox-nettleseren under et to ukers testsamarbeid med Mozilla.

Fjorten av disse problemene ble vurdert som høy alvorlighetsgrad. Funnene fremhever hvordan avanserte AI-systemer i økende grad brukes til å bistå i sårbarhetsfunn, og hjelper sikkerhetsteam med å identifisere og tette hull langt raskere enn tradisjonell manuell revisjon alene.

Den nyeste Openclaw-utgivelsen, versjon 2026.3.7, kom søndag med en solid oppgradering av utvidbarhet og pålitelighet for det virale, åpne kildekode-rammeverket for autonome AI-agenter som kjører lokalt på praktisk talt enhver plattform.

Hovedfunksjonen er det nye ContextEngine-plugin-systemet med fullstendige livssyklus-hooks (bootstrap, ingest, compact, håndtering av underagenter osv.), som gir utviklere og fellesskapet frihet til å lage egendefinerte plugins for konteksthåndtering — som lossless-claw — som utvider eller overstyrer kjerneatferd, samtidig som de forblir fullt bakoverkompatible.

AI-agenter flytter inn i helsevesen og kontorarbeid

Store teknologiselskaper kappes også om å bygge AI-agenter inn i bransjer i den virkelige verden. Amazon Web Services introduserte Amazon Connect Health 5. mars, en HIPAA-kvalifisert plattform utformet for å utrulle AI-agenter på tvers av helsedrift.

Plattformen kan automatisere pasienttimebestilling, hjelpe med dokumentasjon, verifisere forsikringsdetaljer og håndtere administrative oppgaver, samtidig som den integreres med elektroniske pasientjournalsystemer. AWS sier systemet har som mål å redusere administrative byrder for helseleverandører og samtidig forbedre pasientkoordineringen.

OpenAI avduket et annet bedriftsverktøy med lanseringen av Codex Security, en AI-agent som kan skanne programvarekodebaser, identifisere sårbarheter, validere funn og foreslå utbedringer. Verktøyet ble først lansert som en forskningsforhåndsvisning, og signaliserer hvordan AI i økende grad flytter inn i programvarerevisjon og utviklingssikkerhet.

Selskapet introduserte også en beta ChatGPT-tilleggskomponent for Microsoft Excel, som gjør det mulig for brukere å samhandle med GPT-5.4 direkte inne i regneark. Integrasjonen lar analytikere og forretningsteam kjøre scenariomodeller, analysere datasett og generere finansielle prognoser uten å forlate Excel, og bygger dermed AI enda dypere inn i daglige forretningsarbeidsflyter.

Grok, Claude, Qwen, ChatGPT og mer: 9 KI-modeller forutsier Bitcoins neste prisbane

Grok, Claude, Qwen, ChatGPT og mer: 9 KI-modeller forutsier Bitcoins neste prisbane

Utforsk innsikt fra ledende KI-modeller om prisbevegelser i bitcoin og fremtidige prognoser i kryptovalutamarkedet. read more.

Les nå

De siste AI-utviklingene fra de siste 48 timene illustrerer en bransje som rykker frem på flere fronter samtidig — fra robotikk og cybersikkerhet til helsesautomatisering og geopolitiske debatter om AI sin rolle i nasjonalt forsvar. Utviklingene avdekker også en voksende dragkamp mellom innovasjon og tilsyn, ettersom myndigheter, forskere og teknologigiganter kjemper for å definere rekkverk mens teknologien fortsetter å gå fremover raskere enn politikken komfortabelt kan holde tritt med.

FAQ 🔎

  • Hva var de største AI-historiene de siste 48 timene?
    Store utviklinger inkluderte OpenAIs GPT-5.4-lansering, et robotikkgjennombrudd fra Northwestern University, at Anthropic oppdaget Firefox-sårbarheter, og at AWS lanserte AI-agenter for helsevesenet.
  • Hvorfor sa OpenAIs robotikksjef opp?
    Caitlin Kalinowski trådte tilbake og viste til bekymringer om en foreslått Pentagon-kontrakt for AI og utilstrekkelige sikkerhetsmekanismer rundt overvåking og autonome våpen.
  • Hva er AI-«beinte metamaskiner»?
    Det er modulære roboter designet av AI som kan tilpasse strukturen sin og fortsette å bevege seg selv etter alvorlig fysisk skade.
  • Hvordan forbedrer AI cybersikkerhet?
    Avanserte AI-systemer som Anthropics Claude kan analysere programvarekodebaser og raskt oppdage sårbarheter som menneskelige team kan overse.