Drivs av
Technology

Anthropic och Pentagon drabbar samman om Claudes militära användning och användning för massövervakning

Pentagon överväger att bryta banden med Anthropic, och försvarsminister Pete Hegseth är nära att klassificera företaget som en ”risk i leveranskedjan”. Anthropic motsätter sig användningen av sin AI‑modell Claude i massövervakningskampanjer och helt autonoma militära operationer.

DELA
Anthropic och Pentagon drabbar samman om Claudes militära användning och användning för massövervakning

Anthropic i konflikt med Pentagon om Claudes ”oetiska” användningar

Anthropic, ett av de största företagen inom artificiell intelligens (AI), uppges vara under beskjutning från krigsdepartementet på grund av användningen av dess AI‑modeller för aktiviteter som företaget anser vara oetiska.

Axios rapporterade att försvarsminister Pete Hegseth överväger att klassificera Anthropic som en risk i leveranskedjan, vilket innebär att alla kontrakt och band till företaget skulle behöva kapas. Dessutom skulle alla företag som gör affärer med Pentagon också behöva överge Anthropics tjänster.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Konflikten blossar upp eftersom företaget har vägrat att tillåta användningen av Claude, dess varumärkesskyddade modell, i massövervakningskampanjer och operationer som involverar helt autonom militär utrustning. Å andra sidan hävdar Pentagon att man bör kunna utnyttja Claudes förmågor för ”alla lagliga ändamål”, utan att företaget ska ha något att säga till om i dessa processer.

Om Anthropic slutligen klassificeras som en risk i leveranskedjan skulle det innebära att modellen måste dras tillbaka från Pentagons informationssystem, eftersom endast Claude har tillgång till organisationens hemligstämplade system.

Detta gjorde det möjligt för Claude att ta en aktiv del i Operation Absolute Resolve, som ledde till att Venezuelas Nicolás Maduro extraherades i januari. Även om den roll modellen hade under operationen inte har redovisats fullt ut, representerar det en upptrappning i användningen av AI för militära kampanjer.

Dödläget kan skapa ett prejudikat för hur AI‑företag kan hantera regeringar i västvärlden och lägga grunden för vilka nivåer av kontroll dessa företag kan behålla över sina modeller när de används för militära ändamål.

En talesperson för Anthropic uppgav att företaget hade ”produktiva samtal, i god tro, med DoW om hur vi kan fortsätta det arbetet och få de här nya och komplexa frågorna rätt.”

FAQ

  • Vilka problem står Anthropic inför med krigsdepartementet?
    Anthropic granskas av krigsdepartementet för att ha vägrat att tillåta att deras AI‑modell, Claude, används för aktiviteter som företaget anser vara oetiska, såsom massövervakning och autonoma militära operationer.
  • Vilka möjliga konsekvenser kan Anthropic drabbas av om det klassas som en risk i leveranskedjan?
    Om det klassificeras som en risk i leveranskedjan skulle alla kontrakt med Pentagon kapas, vilket skulle kräva att Claude dras tillbaka från Pentagons informationssystem.
  • Hur har Anthropic svarat på Pentagons krav gällande sin AI‑modell?
    Företaget menar att det för ”produktiva samtal” med krigsdepartementet, med målet att navigera komplexa etiska frågor kring användningen av dess AI‑teknik.
  • Vilken nylig militär operation involverade Claude, och vad var dess betydelse?
    Claude deltog i Operation Absolute Resolve, som underlättade extraktionen av Venezuelas Nicolás Maduro, vilket markerade en betydande upptrappning i militärens användning av AI‑teknologier.