При поддержке
Technology

Anthropic и Пентагон спорят о военном использовании и массовом слежении с помощью Claude

Пентагон рассматривает возможность разрыва отношений с Anthropic, а министр обороны Пит Хегсет близок к тому, чтобы признать компанию «риском для цепочки поставок». Anthropic выступает против использования своей модели искусственного интеллекта Claude в кампаниях массовой слежки и полностью автономных военных операциях.

ПОДЕЛИТЬСЯ
Anthropic и Пентагон спорят о военном использовании и массовом слежении с помощью Claude

Anthropic вступает в конфликт с Пентагоном из-за «неэтичного» использования Claude

Anthropic, одна из крупнейших компаний в области искусственного интеллекта (ИИ), по сообщениям, подвергается критике со стороны Министерства обороны за использование своих моделей ИИ в деятельности, которую компания считает неэтичной.

Axios сообщил, что министр обороны Пит Хегсет рассматривает возможность признания Anthropic риском для цепочки поставок, что означает, что все контракты и связи с компанией должны быть разорваны. Кроме того, все компании, работающие с Пентагоном, также должны будут отказаться от услуг Anthropic.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Конфликт разгорелся после того, как компания отказалась разрешить использование своей фирменной модели Claude в кампаниях массовой слежки и операциях с использованием полностью автономного военного оборудования. С другой стороны, Пентагон утверждает, что он должен иметь возможность использовать возможности Claude для «всех законных целей», без права компании влиять на эти процессы.

Если Anthropic в конечном итоге будет признана риском для цепочки поставок, это будет означать, что модель должна будет быть удалена из информационных систем Пентагона, поскольку только Claude имеет доступ к секретным системам организации.

Это позволило Claude принять активное участие в операции «Absolute Resolve», которая привела к извлечению Николаса Мадуро из Венесуэлы в январе. Даже если роль, которую модель сыграла во время операции, не была полностью раскрыта, она представляет собой эскалацию использования ИИ в военных кампаниях.

Эта конфронтация может создать прецедент в том, как компании, занимающиеся ИИ, могут взаимодействовать с правительствами западных стран, заложив основу для уровня контроля, который эти компании могут осуществлять над своими моделями при их использовании в военных целях.

Представитель Anthropic заявил, что компания ведет «продуктивные переговоры в духе доброй воли с DoW о том, как продолжить эту работу и правильно решить эти новые и сложные вопросы».

Часто задаваемые вопросы

  • С какими проблемами сталкивается Anthropic в отношениях с Министерством войны?
    Anthropic находится под пристальным вниманием Министерства войны за отказ разрешить использование своей модели ИИ Claude для деятельности, которую оно считает неэтичной, такой как массовая слежка и автономные военные операции.
  • Какие потенциальные последствия могут грозить Anthropic, если она будет классифицирована как риск для цепочки поставок?
    Если компания будет признана риском для цепочки поставок, все контракты с Пентагоном будут расторгнуты, что потребует удаления Claude из информационных систем Пентагона.
  • Как Anthropic отреагировала на требования Пентагона в отношении своей модели ИИ?
    Компания утверждает, что ведет «продуктивные переговоры» с Министерством войны с целью разрешения сложных этических вопросов, связанных с использованием ее технологии ИИ.
  • В какой недавней военной операции участвовал Claude и каково было ее значение?
    Claude участвовал в операции «Absolute Resolve», которая способствовала вывозу Николаса Мадуро из Венесуэлы, что ознаменовало значительную эскалацию использования технологий искусственного интеллекта в военной сфере.
Теги в этой статье