Obsługiwane przez
News

Sędziowie federalni odrzucili wniosek firmy Anthropic o zawieszenie zakazu stosowania sztucznej inteligencji w sprawie Claude Military i wyznaczyli termin ustnych argumentów na maj

8 kwietnia federalny sąd apelacyjny w Waszyngtonie odrzucił wniosek firmy Anthropic o natychmiastowe wstrzymanie decyzji Pentagonu o umieszczeniu jej modeli sztucznej inteligencji (AI) Claude na czarnej liście w ramach kontraktów wojskowych USA.

NAPISAŁ
UDOSTĘPNIJ
Sędziowie federalni odrzucili wniosek firmy Anthropic o zawieszenie zakazu stosowania sztucznej inteligencji w sprawie Claude Military i wyznaczyli termin ustnych argumentów na maj

Najważniejsze wnioski:

  • Sąd Okręgowy w Waszyngtonie odrzucił 8 kwietnia 2026 r. wniosek firmy Anthropic o nadzwyczajne zawieszenie, pozwalając na utrzymanie w mocy decyzji Pentagonu o umieszczeniu sztucznej inteligencji Claude na czarnej liście.
  • Określenie ryzyka w łańcuchu dostaw przez Pentagon ma wpływ na głównych wykonawców Departamentu Obrony, w tym Amazon, Microsoft i Palantir.
  • W przyspieszonym postępowaniu ustnym, zaplanowanym na 19 maja 2026 r., zapadnie orzeczenie, które może zmienić politykę rządu USA w zakresie zamówień publicznych dotyczących sztucznej inteligencji.

Sąd apelacyjny orzekł, że Departament Obrony może utrzymać Claude AI na czarnej liście w trakcie postępowania sądowego

Sąd Apelacyjny Okręgu Kolumbii w czterostronicowym postanowieniu odrzucił pilny wniosek firmy zajmującej się sztuczną inteligencją z siedzibą w San Francisco o wstrzymanie decyzji o „ryzyku w łańcuchu dostaw” wydanej przez sekretarza obrony Pete'a Hegsetha. Orzeczenie pozwala Departamentowi Obrony na dalsze uniemożliwianie wykonawcom korzystania z Claude'a w trakcie postępowania sądowego. Ustne przesłuchania zostały przyspieszone na 19 maja 2026 r.

Sędziowie przyznali, że firma Anthropic „prawdopodobnie poniesie pewną nieodwracalną szkodę”, powołując się zarówno na straty finansowe, jak i utratę reputacji. Sędziowie Gregory Katsas i Neomi Rao, oboje mianowani przez Trumpa, stwierdzili, że bilans interesów przemawia na korzyść rządu, powołując się na sądowe zarządzanie sposobem, w jaki Pentagon zabezpiecza technologię AI „podczas aktywnego konfliktu zbrojnego”.

Samo wyznaczenie wynika z załamania się negocjacji między Anthropic a urzędnikami Pentagonu pod koniec lutego 2026 r. Spór dotyczył dwóch ograniczeń w warunkach świadczenia usług Anthropic: zakazu stosowania w pełni autonomicznych systemów uzbrojenia, w tym uzbrojonych rojów dronów działających bez nadzoru człowieka, oraz zakazu masowej inwigilacji obywateli USA.

Emil Michael, podsekretarz ds. badań i inżynierii oraz dyrektor ds. technologii w Pentagonie, nazwał te ograniczenia „irracjonalnymi przeszkodami” dla konkurencyjności wojskowej, szczególnie w stosunku do Chin. Urzędnicy powołali się na programy takie jak inicjatywa obrony przeciwrakietowej Golden Dome oraz potrzebę posiadania zdolności szybkiego reagowania na zagrożenia hipersoniczne.

Anthropic zaproponowało ograniczone wyjątki rozpatrywane indywidualnie, ale odmówiło zniesienia podstawowych zabezpieczeń, powołując się na obawy dotyczące niezawodności obecnej sztucznej inteligencji w przypadku autonomicznych decyzji o wysokiej stawce. Rozmowy zakończyły się fiaskiem. Prezydent Trump nakazał wówczas wszystkim agencjom federalnym zaprzestanie korzystania z technologii Anthropic, z sześciomiesięcznym okresem wycofywania istniejących wdrożeń.

Następnie Hegseth nadał firmie status podmiotu stwarzającego ryzyko dla łańcucha dostaw, co zazwyczaj dotyczy podmiotów zagranicznych, takich jak Huawei. Etykieta ta wymagała od wykonawców, w tym Amazon, Microsoft i Palantir, zaprzestania korzystania z Claude'a w jakiejkolwiek pracy związanej z Departamentem Obrony. Firma Anthropic nazwała to posunięcie „bezprawną kampanią odwetową” za odmowę pozwolenia rządowi na obejście jej zasad bezpieczeństwa dotyczących sztucznej inteligencji.

W marcu 2026 r. firma Anthropic złożyła równoległe pozwy. Jeden z nich został złożony w Sądzie Okręgowym Stanów Zjednoczonych dla Północnego Okręgu Kalifornii; drugi dotyczył konkretnego statutu zamówień publicznych regulującego ryzyko związane z łańcuchem dostaw w okręgu D.C.

26 marca sędzia okręgowa Rita F. Lin wydała na korzyść firmy Anthropic nakaz tymczasowy w sprawie kalifornijskiej. Orzekła, że działania administracji wydają się mieć charakter bardziej karny niż ochronny, nie mają wystarczającego uzasadnienia ustawowego i wykraczają poza zakres uprawnień. Nakaz ten tymczasowo zawiesił egzekwowanie decyzji, umożliwiając rządowi i wykonawcom dalsze korzystanie z Claude'a do czasu zakończenia postępowania sądowego. Administracja Trumpa złożyła odwołanie do Sądu Apelacyjnego Dziewiątego Okręgu.

Orzeczenie Sądu Okręgowego dla Dystryktu Kolumbii z 8 kwietnia jest sprzeczne z orzeczeniem sędzi Lin, co powoduje napięcie prawne dotyczące tego, czy decyzja jest obecnie wykonalna. Oba sądy analizują różne ramy prawne, co wyjaśnia rozbieżność proceduralną.

Firma Anthropic oświadczyła, że pozostaje pewna swojego stanowiska. „Jesteśmy wdzięczni, że sąd uznał, iż kwestie te wymagają szybkiego rozwiązania i pozostajemy przekonani, że sądy ostatecznie zgodzą się, iż te klasyfikacje w łańcuchu dostaw były niezgodne z prawem” – stwierdziła firma.

Zapowiedź gry „Claude Mythos”: Niewydana sztuczna inteligencja firmy Anthropic wykryła luki w systemach Linux i OpenBSD, które przez dziesięciolecia umykały uwadze ludzi

Zapowiedź gry „Claude Mythos”: Niewydana sztuczna inteligencja firmy Anthropic wykryła luki w systemach Linux i OpenBSD, które przez dziesięciolecia umykały uwadze ludzi

Sztuczna inteligencja Claude Mythos firmy Anthropic wykryła tysiące luk typu zero-day we wszystkich głównych systemach operacyjnych i przeglądarkach. Projekt Glasswing rusza z pulą środków w wysokości 100 mln dolarów. read more.

Czytaj teraz

Obserwatorzy branży uznali tę sprawę za sygnał ostrzegawczy dla rozwoju sztucznej inteligencji w Stanach Zjednoczonych. Matt Schruers, dyrektor generalny Stowarzyszenia Przemysłu Komputerowego i Komunikacyjnego, stwierdził, że działania Pentagonu oraz orzeczenie Sądu Okręgowego dla Dystryktu Kolumbii „powodują znaczną niepewność biznesową w momencie, gdy amerykańskie firmy konkurują z globalnymi odpowiednikami o pozycję lidera w dziedzinie sztucznej inteligencji”.

Sprawa zmierza teraz w kierunku przyspieszonego postępowania ustnego, które odbędzie się 19 maja w Sądzie Okręgowym w Waszyngtonie, a apelacja w Sądzie Apelacyjnym Dziewiątego Okręgu jest nadal w toku. Wynik prawdopodobnie określi granice uprawnień federalnych w zakresie uznawania krajowych firm zajmujących się sztuczną inteligencją za zagrożenie dla bezpieczeństwa narodowego oraz określi, jak daleko rząd może się posunąć w wywieraniu presji na prywatne firmy, aby zmieniły swoje zasady bezpieczeństwa dotyczące sztucznej inteligencji.