За підтримки
News

Федеральні судді відмовили компанії Anthropic у задоволенні клопотання щодо скасування заборони на використання штучного інтелекту у справі «Claude Military» та призначили усні слухання на травень

8 квітня федеральний апеляційний суд у Вашингтоні відхилив клопотання компанії Anthropic про негайне призупинення рішення Пентагону щодо внесення її моделей штучного інтелекту (ШІ) «Claude» до чорного списку, що унеможливлює їх використання в рамках військових контрактів США.

АВТОР
ПОДІЛИТИСЯ
Федеральні судді відмовили компанії Anthropic у задоволенні клопотання щодо скасування заборони на використання штучного інтелекту у справі «Claude Military» та призначили усні слухання на травень

Основні висновки:

  • 8 квітня 2026 року окружний суд округу Колумбія відхилив клопотання компанії Anthropic про термінове призупинення рішення, дозволивши Пентагону залишити в силі чорний список моделей штучного інтелекту Claude.
  • Визначення ризиків у ланцюжку поставок Пентагону впливає на основних підрядників Міністерства оборони, зокрема Amazon, Microsoft та Palantir.
  • Прискорені усні дебати призначено на 19 травня 2026 року; рішення у цій справі може змінити політику уряду США щодо закупівлі ШІ.

Апеляційний суд постановив, що Міністерство оборони може залишити Claude AI у чорному списку на час судового розгляду

Апеляційний суд округу Колумбія у чотиристорінковому рішенні відхилив екстрену заяву компанії з Сан-Франциско, що займається штучним інтелектом, про призупинення позначення «ризик для ланцюга поставок», виданого міністром оборони Пітом Хегсетом. Це рішення дозволяє Міністерству оборони продовжувати забороняти підрядникам використовувати Claude під час судового розгляду. Усні дебати були прискорені до 19 травня 2026 року.

Колегія визнала, що Anthropic «ймовірно зазнає певної непоправної шкоди», посилаючись як на фінансові збитки, так і на шкоду репутації. Судді Грегорі Катсас і Неомі Рао, обидва призначені Трампом, дійшли висновку, що баланс справедливості на користь уряду, посилаючись на судове регулювання того, як Пентагон забезпечує безпеку технологій штучного інтелекту «під час активного військового конфлікту».

Саме це рішення пов'язане з провалом переговорів між Anthropic та представниками Пентагону наприкінці лютого 2026 року. Спірними питаннями були два обмеження в умовах надання послуг Anthropic: заборона на повністю автономні системи озброєння, включаючи зграї озброєних дронів, що діють без людського нагляду, та заборона на масове спостереження за громадянами США.

Еміль Майкл, заступник міністра з питань досліджень та інженерії та головний технічний директор Пентагону, назвав ці обмеження «ірраціональними перешкодами» для військової конкурентоспроможності, особливо проти Китаю. Чиновники посилалися на такі програми, як ініціатива протиракетної оборони «Золотий купол» та необхідність мати можливості швидкого реагування на гіперзвукові загрози.

Anthropic запропонувала обмежені винятки в окремих випадках, але відмовилася скасувати основні запобіжні заходи, посилаючись на занепокоєння щодо надійності сучасного ШІ для прийняття автономних рішень з високими ставками. Переговори провалилися. Тоді президент Трамп наказав усім федеральним агентствам припинити використання технології Anthropic, передбачивши шестимісячний термін для поступового припинення використання існуючих систем.

Далі було визнання Hegseth ризиком для ланцюга поставок — захід, який зазвичай застосовується до іноземних суб’єктів, таких як Huawei. Це визнання зобов’язувало підрядників, зокрема Amazon, Microsoft та Palantir, припинити використання Claude у будь-якій роботі, пов’язаній з Міністерством оборони. Anthropic назвала цей крок «незаконною кампанією відплати» за відмову дозволити уряду обійти її політику безпеки ШІ.

У березні 2026 року Anthropic подала паралельні позови. Один був поданий до Окружного суду США Північного округу Каліфорнії; інший стосувався конкретного закону про закупівлі, що регулює ризики ланцюга поставок, у окрузі Колумбія.

26 березня окружна суддя США Рита Ф. Лін винесла попередню судову заборону на користь Anthropic у справі в Каліфорнії. Вона постановила, що дії адміністрації виглядають скоріше каральними, ніж захисними, не мають достатнього законодавчого обґрунтування та перевищують повноваження. Ця постанова тимчасово призупинила виконання рішення про присвоєння статусу, дозволивши уряду та підрядникам продовжувати використовувати Claude до завершення судового розгляду. Адміністрація Трампа подала апеляцію до Дев'ятого окружного апеляційного суду.

Рішення окружного суду округу Колумбія від 8 квітня суперечить постанові Лін, що створює юридичну напругу щодо того, чи є це рішення чинним на даний момент. Ці два суди розглядають різні законодавчі рамки, що пояснює розбіжність у процедурних підходах.
Компанія Anthropic заявила, що залишається впевненою у своїй позиції. «Ми вдячні суду за те, що він визнав необхідність швидкого вирішення цих питань, і залишаємося впевненими, що суди в кінцевому підсумку погодяться з тим, що ці позначення в ланцюжку поставок були незаконними», — заявила компанія.

Попередній огляд Claude Mythos: невипущена система штучного інтелекту від Anthropic виявила вразливості в Linux та OpenBSD, які люди не помічали протягом десятиліть

Попередній огляд Claude Mythos: невипущена система штучного інтелекту від Anthropic виявила вразливості в Linux та OpenBSD, які люди не помічали протягом десятиліть

Штучний інтелект Claude Mythos від компанії Anthropic виявив тисячі вразливостей типу «нульового дня» у всіх основних операційних системах та браузерах. Проект Glasswing стартує з бюджетом у 100 мільйонів доларів. read more.

Читати

Оглядачі галузі назвали цю справу тривожним сигналом для розвитку штучного інтелекту в США. Метт Шруерс, генеральний директор Асоціації комп'ютерної та комунікаційної індустрії, зазначив, що дії Пентагону та рішення Апеляційного суду округу Колумбія «створюють значну невизначеність для бізнесу в той час, коли американські компанії змагаються зі своїми глобальними конкурентами за лідерство у сфері штучного інтелекту».

Справа тепер переходить до прискореного усного розгляду 19 травня в окружному суді округу Колумбія, при цьому апеляція в Дев'ятому окружному суді все ще перебуває на розгляді. Результат, ймовірно, визначить межі федеральних повноважень щодо визнання вітчизняних компаній, що працюють у сфері ШІ, загрозою національній безпеці, а також визначить, наскільки далеко уряд може зайти у тиску на приватні компанії з метою зміни їхньої політики безпеки у сфері ШІ.