Pokreće
Technology

Anthropic i Pentagon sukobljavaju se oko Claudeove vojne upotrebe i upotrebe za masovni nadzor

Pentagon razmatra prekid veza s tvrtkom Anthropic, a ministar obrane Pete Hegseth blizu je tome da tvrtku proglasi “rizikom u opskrbnom lancu.” Anthropic se protivi korištenju svojeg AI modela Claude u kampanjama masovnog nadzora i potpuno autonomnim vojnim operacijama.

PODIJELI
Anthropic i Pentagon sukobljavaju se oko Claudeove vojne upotrebe i upotrebe za masovni nadzor

Anthropic se sukobljava s Pentagonom oko “neetičnih” uporaba Claudea

Anthropic, jedna od najvećih tvrtki za umjetnu inteligenciju (AI), navodno se našla na udaru Ministarstva rata zbog korištenja svojih AI modela za aktivnosti koje tvrtka smatra neetičnima.

Axios je izvijestio da ministar obrane Pete Hegseth razmatra označiti Anthropic kao rizik u opskrbnom lancu, što znači da bi svi ugovori i veze s tom tvrtkom morali biti prekinuti. Osim toga, sve tvrtke koje posluju s Pentagonom također bi morale odustati od usluga Anthropica.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Sukob je izbio jer je tvrtka odbila dopustiti korištenje Claudea, svojeg zaštićenog modela, u kampanjama masovnog nadzora i operacijama koje uključuju potpuno autonomnu vojnu opremu. S druge strane, Pentagon tvrdi da bi trebao moći iskoristiti sposobnosti Claudea za “sve zakonite svrhe”, bez toga da tvrtka ima pravo glasa u tim procesima.

Ako Anthropic na kraju bude proglašen rizikom u opskrbnom lancu, to bi značilo da bi model morao biti povučen iz Pentagonovih informacijskih sustava, budući da samo Claude ima pristup klasificiranim sustavima organizacije.

To je omogućilo Claudeu da ima aktivnu ulogu u Operaciji Absolute Resolve, koja je u siječnju dovela do izvlačenja venezuelskoga Nicolása Madura. Iako uloga koju je model preuzeo tijekom operacije nije u potpunosti objavljena, to predstavlja eskalaciju u korištenju AI-ja za vojne kampanje.

Zastoj bi mogao uspostaviti presedan u tome kako AI tvrtke mogu surađivati s vladama u zapadnom svijetu, postavljajući osnovu za razine kontrole koje bi te tvrtke mogle zadržati nad svojim modelima kada se koriste u vojne svrhe.

Glasnogovornik Anthropica izjavio je da tvrtka vodi “produktivne razgovore, u dobroj vjeri, s DoW-om o tome kako nastaviti taj rad i ispravno riješiti ta nova i složena pitanja.”

FAQ

  • S kojim se problemima Anthropic suočava s Ministarstvom rata?
    Anthropic je pod povećalom Ministarstva rata jer odbija dopustiti da se njegov AI model, Claude, koristi za aktivnosti koje smatra neetičnima, poput masovnog nadzora i autonomnih vojnih operacija.
  • S kojim bi se potencijalnim posljedicama Anthropic mogao suočiti ako bude klasificiran kao rizik u opskrbnom lancu?
    Ako bude označen kao rizik u opskrbnom lancu, svi ugovori s Pentagonom bili bi prekinuti, što bi zahtijevalo povlačenje Claudea iz Pentagonovih informacijskih sustava.
  • Kako je Anthropic odgovorio na Pentagonove zahtjeve u vezi sa svojim AI modelom?
    Tvrtka tvrdi da je uključena u “produktivne razgovore” s Ministarstvom rata, s ciljem snalaženja u složenim etičkim pitanjima koja okružuju uporabu njezine AI tehnologije.
  • Koja je nedavna vojna operacija uključivala Claudea i koja je bila njezina važnost?
    Claude je sudjelovao u Operaciji Absolute Resolve, koja je olakšala izvlačenje venezuelskoga Nicolása Madura, što predstavlja značajnu eskalaciju u vojnom korištenju AI tehnologija.