Pentagon vurderer å bryte båndene med Anthropic, og forsvarsminister Pete Hegseth er nær ved å stemple selskapet som en «forsyningskjed risiko». Anthropic motsetter seg bruk av sin KI-modell Claude i masseovervåkingskampanjer og fullt autonome militæroperasjoner.
Anthropic og Pentagon kolliderer om Claudes bruk i militæret og til masseovervåking

Anthropic krasjer med Pentagon om Claudes «uetiske» bruk
Anthropic, et av de største selskapene innen kunstig intelligens (KI), er angivelig under press fra krigsdepartementet på grunn av bruken av KI-modellene deres til aktiviteter som selskapet anser som uetiske.
Axios rapporterte at forsvarsminister Pete Hegseth vurderer å klassifisere Anthropic som en risiko i forsyningskjeden, noe som betyr at alle kontrakter og bånd til selskapet måtte kuttes. I tillegg måtte alle selskaper som gjør forretninger med Pentagon også gi avkall på Anthropics tjenester.

Konflikten blusser opp ettersom selskapet har nektet å tillate bruk av Claude, deres varemerkede modell, i masseovervåkingskampanjer og operasjoner som involverer fullt autonomt militært utstyr. På den andre siden hevder Pentagon at det bør kunne utnytte Claudes kapasiteter til «alle lovlige formål», uten at selskapet skal ha noe å si i disse prosessene.
Hvis Anthropic til slutt blir klassifisert som en risiko i forsyningskjeden, vil det bety at modellen må trekkes ut av Pentagons informasjonssystemer, ettersom kun Claude har tilgang til organisasjonens graderte systemer.
Dette gjorde det mulig for Claude å ta en aktiv del i Operasjon Absolute Resolve, som førte til uttransporteringen av Venezuelas Nicolás Maduro i januar. Selv om rollen modellen hadde under operasjonen ikke er blitt fullt ut offentliggjort, representerer det en eskalering i bruken av KI i militære kampanjer.
Stillingskrigen kan etablere en presedens for hvordan KI-selskaper kan forholde seg til myndigheter i den vestlige verden, og legge grunnlaget for nivåene av kontroll disse selskapene kan opprettholde over modellene sine når de brukes til militære formål.
En talsperson for Anthropic uttalte at selskapet hadde «produktive samtaler, i god tro, med DoW om hvordan vi kan fortsette det arbeidet og få disse nye og komplekse spørsmålene riktig».

Jack Dorseys Block slår seg sammen med OpenAI og Anthropic
Selskapene vil samarbeide om open-source-prosjekter som er smalt fokusert på fremskritt innen agentisk AI. read more.
Les nå
Jack Dorseys Block slår seg sammen med OpenAI og Anthropic
Selskapene vil samarbeide om open-source-prosjekter som er smalt fokusert på fremskritt innen agentisk AI. read more.
Les nå
Jack Dorseys Block slår seg sammen med OpenAI og Anthropic
Les nåSelskapene vil samarbeide om open-source-prosjekter som er smalt fokusert på fremskritt innen agentisk AI. read more.
FAQ
- Hvilke problemer står Anthropic overfor med krigsdepartementet?
Anthropic er under gransking fra krigsdepartementet for å nekte å tillate at KI-modellen deres, Claude, brukes til aktiviteter de anser som uetiske, som masseovervåking og autonome militæroperasjoner. - Hvilke mulige konsekvenser kan Anthropic møte hvis de klassifiseres som en risiko i forsyningskjeden?
Hvis de blir klassifisert som en risiko i forsyningskjeden, vil alle kontrakter med Pentagon bli kuttet, noe som vil gjøre det nødvendig å trekke Claude ut av Pentagons informasjonssystemer. - Hvordan har Anthropic svart på Pentagons krav knyttet til KI-modellen deres?
Selskapet fastholder at det er i «produktive samtaler» med krigsdepartementet, med mål om å navigere i komplekse etiske spørsmål rundt bruken av KI-teknologien deres. - Hvilken nylig militær operasjon involverte Claude, og hva var betydningen?
Claude deltok i Operasjon Absolute Resolve, som muliggjorde uttransporteringen av Venezuelas Nicolás Maduro, og markerte en betydelig eskalering i militærets bruk av KI-teknologier.
Tags i denne artikkelen
Bitcoin spillvalg
425% opp til 5 BTC + 100 Gratisspinn














