Obsługiwane przez
Technology

Anthropic i Pentagon ścierają się w sprawie wojskowych i masowo‑inwigilacyjnych zastosowań Claude’a

Pentagon rozważa zerwanie współpracy z Anthropic, a sekretarz obrony Pete Hegseth jest bliski uznania firmy za „ryzyko dla łańcucha dostaw”. Anthropic sprzeciwia się wykorzystywaniu swojego modelu AI Claude w kampaniach masowej inwigilacji oraz w w pełni autonomicznych operacjach wojskowych.

UDOSTĘPNIJ
Anthropic i Pentagon ścierają się w sprawie wojskowych i masowo‑inwigilacyjnych zastosowań Claude’a

Anthropic ściera się z Pentagonem o „nieetyczne” zastosowania Claude’a

Anthropic, jedna z największych firm zajmujących się sztuczną inteligencją (AI), ma rzekomo problemy z Departamentem Wojny w związku z wykorzystywaniem jej modeli AI do działań uznawanych przez firmę za nieetyczne.

Axios poinformował, że sekretarz obrony Pete Hegseth rozważa uznanie Anthropic za ryzyko dla łańcucha dostaw, co oznaczałoby konieczność ograniczenia do zera wszystkich kontraktów i powiązań z firmą. Dodatkowo wszystkie firmy współpracujące z Pentagonem musiałyby również zrezygnować z usług Anthropic.

Anthropic i Pentagon ścierają się o wojskowe i masowo-inwigilacyjne zastosowania Claude’a

Spór wybucha, ponieważ firma odmówiła zezwolenia na wykorzystanie Claude’a, swojego flagowego modelu, w kampaniach masowej inwigilacji oraz w operacjach z udziałem w pełni autonomicznego sprzętu wojskowego. Z drugiej strony Pentagon twierdzi, że powinien móc wykorzystywać możliwości Claude’a „do wszystkich zgodnych z prawem celów”, bez prawa firmy do współdecydowania o tych procesach.

Jeśli Anthropic ostatecznie zostanie uznany za ryzyko dla łańcucha dostaw, oznaczałoby to konieczność wycofania modelu z systemów informacyjnych Pentagonu, ponieważ tylko Claude ma dostęp do niejawnych systemów tej organizacji.

Pozwoliło to Claude’owi odegrać aktywną rolę w Operacji Absolute Resolve, która doprowadziła do ewakuacji wenezuelskiego Nicolasa Maduro w styczniu. Choć rola, jaką model pełnił podczas operacji, nie została w pełni ujawniona, stanowi to eskalację w wykorzystywaniu AI w kampaniach wojskowych.

Ten impas może ustanowić precedens w zakresie tego, jak firmy AI mogą postępować z rządami w świecie zachodnim, wyznaczając podstawy poziomów kontroli, jakie firmy te mogą zachować nad swoimi modelami, gdy są one wykorzystywane do celów wojskowych.

Rzecznik Anthropic oświadczył, że firma prowadzi „produktywne rozmowy, w dobrej wierze, z DoW na temat tego, jak kontynuować tę pracę i właściwie rozwiązać te nowe i złożone kwestie”.

FAQ

  • Z jakimi problemami mierzy się Anthropic w relacjach z Departamentem Wojny?
    Anthropic znajduje się pod lupą Departamentu Wojny za odmowę zgody na wykorzystanie swojego modelu AI, Claude’a, do działań, które uznaje za nieetyczne, takich jak masowa inwigilacja oraz autonomiczne operacje wojskowe.
  • Jakie potencjalne konsekwencje może ponieść Anthropic, jeśli zostanie sklasyfikowany jako ryzyko dla łańcucha dostaw?
    Jeśli zostanie uznany za ryzyko dla łańcucha dostaw, wszystkie kontrakty z Pentagonem zostałyby zerwane, co wymagałoby wycofania Claude’a z systemów informacyjnych Pentagonu.
  • Jak Anthropic odpowiedział na żądania Pentagonu dotyczące jego modelu AI?
    Firma podkreśla, że prowadzi „produktywne rozmowy” z Departamentem Wojny, starając się poruszać w złożonych kwestiach etycznych związanych z wykorzystaniem jej technologii AI.
  • Jaka niedawna operacja wojskowa obejmowała udział Claude’a i jakie było to istotne?
    Claude uczestniczył w Operacji Absolute Resolve, która ułatwiła ewakuację wenezuelskiego Nicolása Maduro, co stanowiło znaczącą eskalację w wojskowym wykorzystaniu technologii AI.