Sağlayan
News

Federal Yargıçlar, Claude Military'nin yapay zeka yasağı davasında Anthropic'in talebini reddetti; sözlü duruşma tarihi Mayıs ayı olarak belirlendi

8 Nisan'da Washington'daki bir federal temyiz mahkemesi, Anthropic'in Pentagon'un Claude yapay zeka (AI) modellerini ABD askeri sözleşmelerinden men etme kararını derhal durdurma talebini reddetti.

PAYLAŞ
Federal Yargıçlar, Claude Military'nin yapay zeka yasağı davasında Anthropic'in talebini reddetti; sözlü duruşma tarihi Mayıs ayı olarak belirlendi

Önemli Noktalar:

  • D.C. Temyiz Mahkemesi, 8 Nisan 2026 tarihinde Anthropic'in acil durdurma talebini reddetti ve Pentagon'un Claude AI'yı kara listeye alma kararının yürürlükte kalmasına izin verdi.
  • Pentagon'un tedarik zinciri risk sınıflandırması, Amazon, Microsoft ve Palantir dahil olmak üzere Savunma Bakanlığı'nın (DoD) başlıca yüklenicilerini etkiliyor.
  • Hızlandırılmış sözlü duruşma 19 Mayıs 2026'da yapılacak ve bu karar, ABD hükümetinin AI tedarik politikasını yeniden şekillendirebilir.

Temyiz Mahkemesi, Savunma Bakanlığı'nın Dava Süresince Claude AI'yi Kara Listede Tutabileceğine Karar Verdi

ABD D.C. Devre Temyiz Mahkemesi, dört sayfalık bir kararla, San Francisco merkezli AI şirketinin Savunma Bakanı Pete Hegseth tarafından yayınlanan "tedarik zinciri riski" tanımlamasını askıya alma yönündeki acil talebini reddetti. Karar, dava sürerken Savunma Bakanlığı'nın yüklenicilerin Claude'u kullanmasını yasaklamaya devam etmesine izin veriyor. Sözlü duruşmalar 19 Mayıs 2026'ya çekildi.

Heyet, hem mali hem de itibar kaybını gerekçe göstererek, Anthropic'in "muhtemelen bir dereceye kadar telafisi imkansız bir zarara uğrayacağını" kabul etti. Her ikisi de Trump tarafından atanan yargıçlar Gregory Katsas ve Neomi Rao, Pentagon'un "aktif bir askeri çatışma sırasında" AI teknolojisini nasıl güvence altına aldığına ilişkin yargısal yönetimi gerekçe göstererek, hakkaniyet dengesi lehine hükümetin lehine karar verdiler.

Bu kararın kökeni, 2026 yılının Şubat ayı sonlarında Anthropic ile Pentagon yetkilileri arasındaki müzakerelerin başarısızlığa uğramasına dayanıyor. Tartışmanın odağında, Anthropic'in hizmet şartlarındaki iki kısıtlama vardı: insan denetimi olmadan çalışan silahlı drone sürülerini de içeren tam otonom silah sistemlerine yönelik yasak ve ABD vatandaşlarının toplu olarak izlenmesine yönelik yasak.

Araştırma ve Mühendislik Müsteşarı ve Pentagon'un baş teknoloji sorumlusu Emil Michael, bu kısıtlamaları, özellikle Çin'e karşı askeri rekabet gücü açısından "mantıksız engeller" olarak nitelendirdi. Yetkililer, Golden Dome füze savunma girişimi gibi programları ve hipersonik tehditlere karşı hızlı müdahale yeteneklerine duyulan ihtiyacı gerekçe gösterdi.

Anthropic, sınırlı ve duruma göre istisnalar sunsa da, yüksek riskli otonom kararlar için mevcut yapay zekanın güvenilirliğine ilişkin endişeleri gerekçe göstererek temel güvenlik önlemlerini kaldırmayı reddetti. Görüşmeler sonuçsuz kaldı. Ardından Başkan Trump, tüm federal kurumlara Anthropic'in teknolojisini kullanmayı durdurma talimatı verdi ve mevcut uygulamaların altı ay içinde aşamalı olarak sonlandırılmasını istedi.

Bunu, genellikle Huawei gibi yabancı kuruluşlara uygulanan bir önlem olan Hegseth'in tedarik zinciri riski tanımı izledi. Bu tanım, Amazon, Microsoft ve Palantir dahil olmak üzere yüklenicilerin, Savunma Bakanlığı ile bağlantılı herhangi bir çalışmada Claude'u kullanmayı durdurmasını gerektiriyordu. Anthropic, bu hamleyi, hükümetin AI güvenlik politikalarını geçersiz kılmasını reddetmesi nedeniyle "hukuka aykırı bir misilleme kampanyası" olarak nitelendirdi.

Anthropic, Mart 2026'da paralel davalar açtı. Bunlardan biri Kaliforniya Kuzey Bölgesi ABD Bölge Mahkemesinde açıldı; diğeri ise D.C. Yargı Bölgesinde tedarik zinciri riskini düzenleyen belirli bir tedarik kanununu hedef aldı.

26 Mart'ta ABD Bölge Hakimi Rita F. Lin, Kaliforniya davasında Anthropic'e ihtiyati tedbir kararı verdi. Yargıç, yönetimin eylemlerinin koruyucu olmaktan çok cezai nitelikte olduğunu, yeterli yasal gerekçeye sahip olmadığını ve yetki sınırlarını aştığını hükmetti. Bu karar, atamanın uygulanmasını geçici olarak askıya aldı ve tam dava süreci sonuçlanana kadar hükümetin ve yüklenicinin Claude'u kullanmaya devam etmesine izin verdi. Trump yönetimi, Dokuzuncu Daire'ye temyiz başvurusunda bulundu.

8 Nisan'da D.C. Daire Mahkemesi'nin verdiği karar, Lin'in hükmüne aykırıdır ve atamanın şu anda uygulanabilir olup olmadığı konusunda hukuki bir gerilim yaratmaktadır. İki mahkeme farklı yasal çerçeveleri inceliyor, bu da usul açısından ayrışmayı açıklıyor.
Anthropic yaptığı açıklamada, tutumundan emin olduğunu belirtti. Şirket, "Mahkemenin bu sorunların hızlı bir şekilde çözülmesi gerektiğini kabul etmesinden memnuniyet duyuyoruz ve mahkemelerin nihayetinde bu tedarik zinciri tanımlamalarının hukuka aykırı olduğu konusunda hemfikir olacağından eminiz" dedi.

Claude Mythos Ön İzlemesi: Anthropic’in Henüz Yayınlanmamış Yapay Zekası, İnsanların Onlarca Yıldır Gözden Kaçırdığı Linux ve OpenBSD Hatalarını Ortaya Çıkardı

Claude Mythos Ön İzlemesi: Anthropic’in Henüz Yayınlanmamış Yapay Zekası, İnsanların Onlarca Yıldır Gözden Kaçırdığı Linux ve OpenBSD Hatalarını Ortaya Çıkardı

Anthropic'in Claude Mythos yapay zekası, tüm büyük işletim sistemleri ve tarayıcılarda binlerce sıfırıncı gün güvenlik açığı tespit etti. Project Glasswing, 100 milyon dolarlık kredi ile faaliyete geçti. read more.

Şimdi oku

Sektör gözlemcileri, bu davayı ABD'deki yapay zeka gelişimi için bir uyarı işareti olarak değerlendirdi. Bilgisayar ve İletişim Endüstrisi Derneği CEO'su Matt Schruers, Pentagon'un eylemlerinin ve D.C. Temyiz Mahkemesi kararının "ABD şirketlerinin yapay zeka alanında liderlik için küresel rakipleriyle rekabet ettiği bir dönemde önemli bir ticari belirsizlik yarattığını" söyledi.

Dava, Dokuzuncu Daire'deki temyiz süreci halen devam ederken, 19 Mayıs'ta D.C. Temyiz Mahkemesi'nde yapılacak hızlandırılmış sözlü duruşmaya doğru ilerliyor. Sonuç, federal hükümetin yerli yapay zeka şirketlerini ulusal güvenlik riski olarak tanımlama yetkilerinin sınırlarını belirleyecek ve hükümetin özel şirketlere yapay zeka güvenlik politikalarını değiştirmeleri için ne kadar baskı uygulayabileceğini ortaya koyacaktır.