Міністр оборони Піт Хегсет зустрівся у вівторок у Пентагоні з генеральним директором Anthropic Даріо Амодеї, оскільки Міністерство оборони тиснуло на Anthropic із вимогою зняти обмеження з її системи штучного інтелекту (ШІ) Claude або зіткнутися з можливими санкціями.
Звіт: ШІ Claude від Anthropic стикається з невизначеним майбутнім у засекречених системах Пентагону

Військове управління ШІ під випробуванням на зустрічі високих ставок у Пентагоні
Зустріч 24 лютого відбулася після кількох тижнів напруження довкола політик використання Claude від Anthropic — великої мовної моделі, інтегрованої у засекречені мережі Міністерства оборони в межах пілотного контракту 2025 року вартістю до $200 млн. Наразі Claude — єдина повністю авторизована велика мовна модель, що працює в межах певних захищених систем Пентагону.
Згідно з повідомленням Axios, Хегсет, у супроводі заступника міністра Стіва Файнберга та головного юрисконсульта Ерла Метьюза, заперечив проти обмежень Anthropic щодо масового стеження за американцями та щодо повністю автономних систем озброєнь, що діють без нагляду людини. Представники оборонного відомства стверджували, що ці ліміти обмежують законні військові застосування і не повинні переважати повноваження Конгресу та виконавчої влади.
Anthropic наполягає, що її запобіжники створені для запобігання зловживанням, водночас дозволяючи застосування в інтересах національної безпеки. Компанія каже, що її політики не блокують легітимне військове використання, але забороняють такі дії, як відстеження осіб без згоди або розгортання летальних систем без людського контролю.
«За словами джерела, обізнаного з переговорами, Anthropic ніколи не заперечувала проти використання її моделей для “легітимних військових операцій”», — повідомила в X головна кореспондентка Fox News із питань національної безпеки Дженніфер Гріффін. «Вона також сказала Хегсету, що ніколи не скаржилася Пентагону чи Palantir щодо використання її моделей у рейді проти Мадуро».
Claude використовували для розвідувального аналізу, кіберзахисту та оперативного планування. Повідомлення свідчать, що він підтримував планування та аналіз у реальному часі під час операції 3 січня, яка завершилася захопленням президента Венесуели Ніколаса Мадуро. Згодом Anthropic попросила уточнення щодо залучення моделі в рамках внутрішньої перевірки відповідності, що посадовці Пентагону витлумачили як критику.

9 січня Хегсет видав меморандум, закликавши постачальників штучного інтелекту (ШІ) прибрати те, що він назвав обмежувальними умовами. Ця директива підготувала ґрунт для перегляду умов і зрештою — для зустрічі 24 лютого.
Пентагон встановив крайній термін — 27 лютого — для того, щоб Anthropic змінила свої умови. Можливі кроки у відповідь включають застосування Закону про оборонне виробництво для примусу до виконання або визнання Anthropic ризиком для ланцюга постачання — крок, який може вимагати від підрядників відмовитися від систем, пов’язаних із Claude.
Посадовці визнають, що від’єднання Claude від наявної інфраструктури було б операційно складним. Втім, у відомства є альтернативи. Конкуренти на кшталт xAI зі своєю моделлю Grok, OpenAI з ChatGPT та Google з Gemini мають подібні контракти з Міністерством оборони й можуть бути готові розширити свої ролі, якщо переговори зірвуться.
Суперечка підкреслює ширші питання управління ШІ у військових умовах, особливо з огляду на те, що федеральне право продовжує еволюціонувати навколо нових технологій. На кону — питання, чи можуть приватні розробники ШІ зберігати незалежні етичні політики, коли їхні системи стають вбудованими в операції національної безпеки.
Реакція на платформах соціальних мереж була напрочуд відвертою. «Повернулося стеження без ордерів», — один користувач X написав у відповідь на допис Гріффін в X. «Це має бути набагато більшою новиною, ніж є. Є серйозний шанс конституційних порушень», — інший відповів під її матеріалом. Інші, з часткою чорного гумору, жартували, що появи Skynet, можливо, чекати недовго. «Skynet уже тут… таймлайн 2029 УВІМКНЕНО», — зазначив користувач.
Обидві сторони охарактеризували дискусію 24 лютого як предметну. Те, чи скоригує Anthropic свої запобіжники до дедлайну, може визначити майбутнє однієї з найпросунутіших інтеграцій ШІ в Пентагоні.
FAQ 🤖
- Що обговорювали на зустрічі в Пентагоні 24 лютого?
Зустріч була зосереджена на обмеженнях Anthropic щодо Claude AI та на тому, чи обмежують вони законні військові застосування. - Чому Пентагон тисне на Anthropic?
Представники оборони стверджують, що запобіжники компанії заважають санкціонованому використанню в інтересах національної безпеки. - Що може статися, якщо Anthropic не виконає вимоги?
Пентагон може застосувати Закон про оборонне виробництво або визначити компанію як ризик для ланцюга постачання. - Чи є альтернативи Claude?
Так, моделі від xAI, OpenAI та Google перебувають під контрактами Міністерства оборони й за потреби можуть розширити свою участь.














