Минулого тижня федеральний суддя у Сан-Франциско заборонив Пентагону та адміністрації Трампа застосовувати заходи з національної безпеки щодо компанії Anthropic, що займається штучним інтелектом (ШІ) і відмовилася зняти обмеження безпеки зі своїх моделей Claude.
Федеральний суддя заборонив Пентагону визнавати компанію Anthropic загрозою національній безпеці

Суд призупинив дію заборони адміністрації Трампа на використання штучного інтелекту Claude від Anthropic у федеральних агентствах
26 березня окружний суддя США Рита Ф. Лін винесла попередню судову заборону, визнавши, що дії уряду проти Anthropic, ймовірно, порушують Першу поправку, позбавляють компанію права на належний судовий розгляд та перевищують повноваження, передбачені Законом про адміністративні процедури. Виконання рішення призупинено на сім днів, що дає адміністрації час до приблизно 2 квітня для подання екстреної апеляції до Дев'ятого окружного апеляційного суду.
Суперечка розпочалася, коли Міністерство оборони (DoD) вимагало необмеженого доступу до Claude для використання у федеральних цілях. Anthropic тривалий час дотримувалася двох винятків у своїй політиці прийнятного використання: Claude не буде використовуватися для масового внутрішнього спостереження за американськими громадянами або для летальних автономних систем озброєння, що діють без значного людського нагляду. Міністерство оборони вимагало скасувати ці обмеження. Anthropic відмовилася.
Переговори зірвалися наприкінці 2025 року. Конфлікт став публічним завдяки письмовим заявам генерального директора Даріо Амодеї та есе, в якому викладено позицію компанії щодо безпеки штучного інтелекту. Представники DoD розглядали ці обмеження як спробу Anthropic диктувати урядову політику.
27 лютого 2026 року президент Трамп опублікував допис у Truth Social, в якому наказав усім федеральним агентствам негайно припинити використання технології Anthropic із шестимісячним перехідним періодом. Міністр оборони Піт Хегсет оголосив про визнання ризику для ланцюга поставок відповідно до 10 U.S.C. § 3252 — закону, який раніше застосовувався до іноземних супротивників, — позначивши Anthropic як потенційний ризик «саботажу» та «підривної діяльності».
Після цього кілька федеральних підрядників призупинили або розірвали угоди з компанією. Anthropic відреагувала на це і 9 березня подала позов до Північного окружного суду Каліфорнії, звинувативши уряд у репресіях, порушенні належного процесу та порушеннях Закону про адміністративну процедуру (APA). Пов’язаний позов було подано до Апеляційного суду округу Колумбія.
У 43-сторінковому рішенні суддя Лін заборонила Міністерству оборони, 17 іншим федеральним агентствам та секретарю Хегсет вживати або виконувати будь-які оскаржувані дії. Вона наказала відновити статус-кво, дозволивши Anthropic продовжувати діючі федеральні контракти та партнерства.
Лін написала, що поведінка уряду є «класичним прикладом незаконних репресій, що суперечать Першій поправці». Вона зазначила, що час вжиття цих заходів, а також внутрішні урядові повідомлення, в яких згадуються «риторика», «зарозумілість» та «застосування сили» Anthropic, прямо вказують на каральний намір, пов'язаний із публічними заявами компанії щодо безпеки штучного інтелекту.
Щодо належного судового розгляду, суд визнав, що уряд позбавив Anthropic прав на свободу щодо її репутації та господарської діяльності, не надавши попереднього повідомлення про позбавлення або слухання. Лін також встановила, що законодавче визначення ніколи раніше не застосовувалося до американської компанії за таких обставин і що попередня перевірка Anthropic урядом
Це включає допуск до інформації «Цілком таємно», авторизацію FedRAMP та контракти на суму до 200 мільйонів доларів — не виявило жодних реальних загроз безпеці. «Ніщо в чинному законі не підтверджує орвелівську ідею, що американську компанію можна затаврувати як потенційного супротивника та саботажника США за висловлення незгоди з урядом», — написав Лін.
Суд визнав потенційну фінансову шкоду для Anthropic у розмірі від сотень мільйонів до мільярдів доларів, а також репутаційну шкоду, яку грошова компенсація не зможе повністю відшкодувати. У заявах amicus curiae від військових керівників та дослідників штучного інтелекту згадувалися ризики для обороноздатності та ширша дискусія щодо безпеки штучного інтелекту.
Anthropic заявила, що вдячна суду за оперативність і планує продовжувати співпрацю з федеральним урядом. Компанія зазначила, що її метою залишається забезпечення американців доступом до безпечного та надійного ШІ.
Ця судова заборона не вирішує основного спору щодо договору. Остаточне рішення по суті справи ще не винесено. Окрема апеляція в окружному суді округу Колумбія залишається на розгляді, і адміністрація зберігає за собою право подати апеляцію.
FAQ 🔎
- Яке рішення ухвалив федеральний суддя щодо Anthropic? 26 березня окружний суддя США Рита Ф. Лін винесла попередню судову заборону, яка забороняє Пентагону та адміністрації Трампа застосовувати позначку «загроза національній безпеці» та федеральну заборону щодо Anthropic та її моделей штучного інтелекту Claude.
- Чому Пентагон визнав Anthropic ризиком для ланцюга поставок? Міністерство оборони прагнуло отримати необмежене право на використання штучного інтелекту Claude, зокрема для масового спостереження та автономної зброї, і визнало Anthropic ризиком для ланцюга поставок після того, як компанія відмовилася зняти ці обмеження безпеки.
- Чи діє ця ухвала на даний момент? Дія ухвали призупинена на сім днів з 26 березня, щоб уряд міг подати екстрену апеляцію, тобто вона не набере чинності приблизно до 2 квітня 2026 року.
- Що буде далі у справі Anthropic проти Пентагону? Справа продовжується по суті, пов'язана з нею справа залишається на розгляді в окружному суді округу Колумбія, а адміністрація Трампа може звернутися до Дев'ятого окружного апеляційного суду за надзвичайним захистом до закінчення терміну призупинення.














