Működteti
News

Szövetségi bírák elutasítják az Anthropic kérelmét a Claude katonai mesterséges intelligencia tilalmával kapcsolatban, májusra tűzik ki a szóbeli tárgyalást

A washingtoni szövetségi fellebbviteli bíróság április 8-án elutasította az Anthropic kérelmét, amelyben a cég azt kérte, hogy a bíróság haladéktalanul függessze fel a Pentagon által az amerikai katonai szerződésekből kizárt Claude mesterséges intelligencia (AI) modellekre vonatkozó tiltólistát.

MEGOSZTÁS
Szövetségi bírák elutasítják az Anthropic kérelmét a Claude katonai mesterséges intelligencia tilalmával kapcsolatban, májusra tűzik ki a szóbeli tárgyalást

Főbb megállapítások:

  • A washingtoni fellebbviteli bíróság 2026. április 8-án elutasította az Anthropic sürgősségi felfüggesztési kérelmét, így a Pentagon Claude AI-t feketelistára helyező döntése továbbra is érvényben marad.
  • A Pentagon ellátási lánc kockázati besorolása a Védelmi Minisztérium főbb szerződő partnereit érinti, köztük az Amazont, a Microsoftot és a Palantirt.
  • A gyorsított szóbeli tárgyalást 2026. május 19-re tűzték ki; a döntés átalakíthatja az amerikai kormány mesterséges intelligencia beszerzési politikáját.

A fellebbviteli bíróság úgy döntött, hogy a Védelmi Minisztérium a peres eljárás ideje alatt is fenntarthatja a Claude AI feketelistáját

Az Egyesült Államok Fellebbviteli Bírósága a D.C. körzetben egy négyoldalas végzésben elutasította a San Franciscó-i székhelyű AI-vállalat sürgősségi kérelmét, amelyben a vállalat Pete Hegseth védelmi miniszter által kiadott „ellátási lánc kockázati besorolás” felfüggesztését kérte. A döntés lehetővé teszi a Védelmi Minisztérium számára, hogy a peres eljárás ideje alatt továbbra is megtiltsa a vállalkozóknak a Claude használatát. A szóbeli tárgyalást 2026. május 19-re előrehozták.

A testület elismerte, hogy az Anthropic „valószínűleg bizonyos mértékű helyrehozhatatlan kárt szenvedne”, hivatkozva mind a pénzügyi, mind a hírnévbeli károkra. Gregory Katsas és Neomi Rao bírák, akik mindketten Trump kinevezettjei, arra a következtetésre jutottak, hogy az érdekek mérlegelése a kormány javára szól, hivatkozva arra, hogy a Pentagon „aktív katonai konfliktus alatt” hogyan biztosítja az AI-technológiát.

Maga a kijelölés az Anthropic és a Pentagon tisztviselői közötti tárgyalások 2026. február végi megszakadására vezethető vissza. A vita tárgyát két, az Anthropic szolgáltatási feltételeiben szereplő korlátozás képezte: a teljesen autonóm fegyverrendszerek – beleértve az emberi felügyelet nélkül működő fegyveres drónrajokat – tilalma, valamint az amerikai állampolgárok tömeges megfigyelésének tilalma.

Emil Michael, a kutatásért és mérnöki tevékenységért felelős államtitkár és a Pentagon technológiai igazgatója ezeket a korlátozásokat a katonai versenyképesség, különösen Kínával szemben, „irracionális akadályainak” nevezte. A tisztviselők olyan programokra hivatkoztak, mint a Golden Dome rakétavédelmi kezdeményezés és a hiperszonikus fenyegetésekkel szembeni gyorsreagálási képességek szükségessége.

Az Anthropic korlátozott, eseti kivételeket ajánlott fel, de megtagadta a legfontosabb biztonsági korlátok eltávolítását, hivatkozva a jelenlegi mesterséges intelligencia megbízhatóságával kapcsolatos aggályokra a kockázatos autonóm döntések esetében. A tárgyalások megszakadtak. Trump elnök ezután utasította az összes szövetségi ügynökséget, hogy hagyják abba az Anthropic technológiájának használatát, a meglévő telepítések esetében hat hónapos átmeneti időszakot biztosítva.

Ezt követte Hegseth ellátási lánc kockázati besorolása, egy olyan intézkedés, amelyet általában külföldi szervezetekre, például a Huawei-re alkalmaznak. A besorolás értelmében a vállalkozóknak, köztük az Amazonnak, a Microsoftnak és a Palantirnak, fel kellett függeszteniük a Claude használatát minden, a Védelmi Minisztériumhoz kapcsolódó munkában. Az Anthropic ezt a lépést „jogellenes megtorló kampánynak” nevezte, amiért nem engedte, hogy a kormány felülírja a mesterséges intelligencia biztonsági irányelveit.

Az Anthropic 2026 márciusában párhuzamos perek indított. Az egyiket a Kaliforniai Északi Kerületi Szövetségi Bíróságon nyújtották be; a másik a washingtoni körzeti bíróságon a beszállítói lánc kockázatát szabályozó konkrét beszerzési törvényt célozta meg.

Március 26-án Rita F. Lin szövetségi bíró előzetes intézkedést rendelt el az Anthropic javára a kaliforniai ügyben. Úgy ítélte meg, hogy a kormány intézkedései inkább büntető jellegűek, mint védelmi célúak, nem rendelkeznek elegendő jogi indokkal, és túllépik a hatóság hatáskörét. Ez a végzés ideiglenesen felfüggesztette a kijelölés végrehajtását, lehetővé téve a kormány és a vállalkozók számára, hogy a teljes peres eljárás lezárultáig továbbra is használják a Claude-ot. A Trump-kormány fellebbezett a 9. kerületi bírósághoz.

Az április 8-i washingtoni kerületi bírósági döntés ellentétes Lin ítéletével, ami jogi feszültséget kelt azzal kapcsolatban, hogy a kijelölés jelenleg végrehajtható-e. A két bíróság eltérő jogi kereteket vizsgál, ami magyarázza az eljárási eltérést.

Az Anthropic közleményében kijelentette, hogy továbbra is bízik álláspontjában. „Hálásak vagyunk, hogy a bíróság elismerte, hogy ezeket a kérdéseket gyorsan meg kell oldani, és továbbra is bízunk abban, hogy a bíróságok végül egyetértenek abban, hogy ezek az ellátási láncra vonatkozó kijelölések jogellenesek voltak” – közölte a vállalat.

Claude Mythos előzetes: az Anthropic még kiadatlan mesterséges intelligenciája feltárta azokat a Linux- és OpenBSD-hibákat, amelyeket az emberek évtizedekig nem vettek észre

Claude Mythos előzetes: az Anthropic még kiadatlan mesterséges intelligenciája feltárta azokat a Linux- és OpenBSD-hibákat, amelyeket az emberek évtizedekig nem vettek észre

Az Anthropic Claude Mythos nevű mesterséges intelligenciája több ezer zero-day sebezhetőséget tárt fel az összes jelentős operációs rendszerben és böngészőben. A Project Glasswing 100 millió dollárnyi kreditállománnyal indul. read more.

Olvass most

Az iparági megfigyelők az ügyet figyelmeztető jelként értékelték az amerikai mesterséges intelligencia fejlesztése szempontjából. Matt Schruers, a Számítógép- és Kommunikációs Iparági Szövetség vezérigazgatója szerint a Pentagon intézkedései és a washingtoni körzeti bíróság ítélete „jelentős üzleti bizonytalanságot teremtnek egy olyan időszakban, amikor az amerikai vállalatok globális versenytársaikkal küzdenek a mesterséges intelligencia terén betöltött vezető szerepért.”

Az ügy most a washingtoni fellebbviteli bíróságon május 19-én tartandó gyorsított szóbeli tárgyalás felé halad, miközben a kilencedik fellebbviteli bíróság előtt még folyamatban van a fellebbezés. Az eredmény valószínűleg meghatározza majd a szövetségi hatalom határait abban, hogy a hazai mesterséges intelligencia-vállalatokat nemzetbiztonsági kockázatnak minősítse, és eldönti, hogy a kormány milyen mértékben gyakorolhat nyomást a magánvállalatokra, hogy módosítsák mesterséges intelligencia-biztonsági irányelveiket.