8 апреля федеральный апелляционный суд в Вашингтоне отклонил ходатайство компании Anthropic о немедленном приостановлении решения Пентагона о включении её моделей искусственного интеллекта (ИИ) Claude в «чёрный список» для участия в военных контрактах США.
Федеральные судьи отклонили ходатайство компании Anthropic о приостановлении действия решения по делу «Claude Military AI», назначив устные слушания на май

Основные выводы:
- 8 апреля 2026 года окружной суд округа Колумбия отклонил ходатайство Anthropic о приостановлении действия решения в экстренном порядке, позволив черному списку Пентагона, в который включен ИИ Claude, остаться в силе.
- Определение Пентагона о рисках в цепочке поставок затрагивает крупных подрядчиков Министерства обороны, включая Amazon, Microsoft и Palantir.
- Ускоренное устное слушание назначено на 19 мая 2026 года; решение по этому делу может изменить политику правительства США в области закупок ИИ.
Апелляционный суд постановил, что Министерство обороны может сохранить черный список Claude AI на время судебного разбирательства
Апелляционный суд США по округу Колумбия в четырехстраничном постановлении отклонил чрезвычайное ходатайство компании по искусственному интеллекту из Сан-Франциско о приостановке обозначения «риск для цепочки поставок», выданного министром обороны Питом Хегсетом. Решение позволяет Министерству обороны продолжать запрещать подрядчикам использовать Claude на время судебного разбирательства. Устные слушания были перенесены на 19 мая 2026 года.
Коллегия признала, что Anthropic «вероятно, понесет определенный непоправимый ущерб», сославшись как на финансовый ущерб, так и на ущерб репутации. Судьи Грегори Катсас и Неоми Рао, оба назначенные Трампом, пришли к выводу, что баланс интересов склоняется в пользу правительства, сославшись на судебное управление тем, как Пентагон обеспечивает безопасность технологий искусственного интеллекта «во время активного военного конфликта».
Само по себе это решение связано с провалом переговоров между Anthropic и представителями Пентагона в конце февраля 2026 года. Предметом спора стали два ограничения в условиях предоставления услуг Anthropic: запрет на полностью автономные системы вооружения, включая рои вооруженных дронов, действующие без контроля со стороны человека, и запрет на массовую слежку за гражданами США.
Эмиль Майкл, заместитель министра по исследованиям и инженерии и главный технический директор Пентагона, назвал эти ограничения «иррациональными препятствиями» для военной конкурентоспособности, особенно в противостоянии с Китаем. Чиновники сослались на такие программы, как инициатива по противоракетной обороне «Золотой купол», и на необходимость обеспечения возможностей быстрого реагирования на гиперзвуковые угрозы.
Anthropic предложила ограниченные исключения, рассматриваемые в индивидуальном порядке, но отказалась устранить основные меры безопасности, сославшись на проблемы с надежностью современного ИИ при принятии автономных решений с высокими ставками. Переговоры сорвались. Затем президент Трамп распорядился всем федеральным агентствам прекратить использование технологий Anthropic, предусмотрев шестимесячный переходный период для существующих внедрений.
За этим последовало присвоение Hegseth статуса риска для цепочки поставок — мера, обычно применяемая к иностранным компаниям, таким как Huawei. Этот статус обязывал подрядчиков, включая Amazon, Microsoft и Palantir, прекратить использование Claude в любой работе, связанной с Министерством обороны. Anthropic назвала этот шаг «незаконной кампанией возмездия» за свой отказ позволить правительству отменить свои политики безопасности ИИ.
В марте 2026 года Anthropic подала параллельные иски. Один из них был подан в окружной суд США по Северному округу Калифорнии; другой касался конкретного закона о закупках, регулирующего риски в цепочке поставок, в окружном суде округа Колумбия.
26 марта окружной судья США Рита Ф. Лин удовлетворила ходатайство Anthropic о вынесении предварительного судебного запрета по делу в Калифорнии. Она постановила, что действия администрации носят скорее карательный, чем защитный характер, не имеют достаточного законодательного обоснования и выходят за рамки полномочий. Это постановление временно приостановило исполнение решения о классификации, позволив правительству и подрядчикам продолжить использование Claude до завершения судебного разбирательства. Администрация Трампа подала апелляцию в Девятый окружной суд.
Решение Окружного суда округа Колумбия от 8 апреля противоречит постановлению Лин, что создает правовую неопределенность относительно того, подлежит ли данное решение исполнению в настоящее время. Оба суда рассматривают разные правовые рамки, что объясняет различия в процедурных решениях.
Компания Anthropic заявила, что по-прежнему уверена в своей позиции. «Мы благодарны суду за признание необходимости быстрого решения этих вопросов и по-прежнему уверены, что суды в конечном итоге согласятся с тем, что эти ограничения в отношении цепочки поставок были незаконными», — заявила компания.

Предварительный обзор Claude Mythos: невыпущенный ИИ от Anthropic обнаружил в Linux и OpenBSD уязвимости, которые люди упускали из виду на протяжении десятилетий
ИИ Claude Mythos от компании Anthropic обнаружил тысячи уязвимостей «нулевого дня» во всех основных ОС и браузерах. Запущен проект Glasswing с кредитным лимитом в 100 млн долларов. read more.
Читать
Предварительный обзор Claude Mythos: невыпущенный ИИ от Anthropic обнаружил в Linux и OpenBSD уязвимости, которые люди упускали из виду на протяжении десятилетий
ИИ Claude Mythos от компании Anthropic обнаружил тысячи уязвимостей «нулевого дня» во всех основных ОС и браузерах. Запущен проект Glasswing с кредитным лимитом в 100 млн долларов. read more.
Читать
Предварительный обзор Claude Mythos: невыпущенный ИИ от Anthropic обнаружил в Linux и OpenBSD уязвимости, которые люди упускали из виду на протяжении десятилетий
ЧитатьИИ Claude Mythos от компании Anthropic обнаружил тысячи уязвимостей «нулевого дня» во всех основных ОС и браузерах. Запущен проект Glasswing с кредитным лимитом в 100 млн долларов. read more.
Отраслевые наблюдатели расценили это дело как тревожный сигнал для развития ИИ в США. Мэтт Шруерс, генеральный директор Ассоциации компьютерной и коммуникационной индустрии, заявил, что действия Пентагона и решение Окружного суда округа Колумбия «создают значительную неопределенность для бизнеса в то время, когда американские компании соревнуются с глобальными конкурентами за лидерство в сфере ИИ».
Дело теперь переходит к ускоренному устному слушанию 19 мая в окружном суде округа Колумбия, при этом апелляция в Девятом окружном суде по-прежнему находится на рассмотрении. Результат, вероятно, определит пределы федеральных полномочий по признанию отечественных компаний, занимающихся ИИ, угрозой национальной безопасности, а также определит, как далеко может зайти правительство в оказании давления на частные компании с целью изменения их политики безопасности в области ИИ.















