Sağlayan
Technology

Anthropic ve Pentagon, Claude’un Askerî ve Kitlesel Gözetim Amaçlı Kullanımı Konusunda Çatışıyor

Pentagon, Savunma Bakanı Pete Hegseth’in şirketi “tedarik zinciri riski” olarak tanımlamaya yaklaşmasıyla, Anthropic ile bağları koparmayı değerlendiriyor. Anthropic, yapay zekâ modeli Claude’un kitlesel gözetim kampanyalarında ve tamamen otonom askerî operasyonlarda kullanılmasına karşı çıkıyor.

PAYLAŞ
Anthropic ve Pentagon, Claude’un Askerî ve Kitlesel Gözetim Amaçlı Kullanımı Konusunda Çatışıyor

Anthropic, Claude’un “Etik Dışı” Kullanımları Nedeniyle Pentagon’la Çatışıyor

En büyük yapay zekâ (AI) şirketlerinden biri olan Anthropic’in, şirketin etik dışı olarak değerlendirdiği faaliyetler için yapay zekâ modellerinin kullanımı nedeniyle Savaş Bakanlığı’nın hedefinde olduğu bildiriliyor.

Axios bildirdiğine göre Savunma Bakanı Pete Hegseth, Anthropic’i bir tedarik zinciri riski olarak tanımlamayı değerlendiriyor; bu da şirketle yapılan tüm sözleşmelerin ve bağların kesilmesi gerekeceği anlamına geliyor. Buna ek olarak, Pentagon’la iş yapan tüm şirketlerin de Anthropic’in hizmetlerinden vazgeçmesi gerekecek.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Şirketin, tescilli modeli Claude’un kitlesel gözetim kampanyalarında ve tamamen otonom askerî ekipman içeren operasyonlarda kullanılmasına izin vermeyi reddetmesiyle çatışma patlak verdi. Öte yandan Pentagon, şirketin bu süreçlerde söz sahibi olmaksızın Claude’un yeteneklerinden “tüm yasal amaçlar” için yararlanabilmesi gerektiğini savunuyor.

Anthropic’in nihayetinde tedarik zinciri riski olarak tanımlanması durumunda, yalnızca Claude’un kuruluşun gizli sistemlerine erişimi olduğu için modelin Pentagon’un bilgi sistemlerinden geri çekilmesi gerekeceği anlamına gelir.

Bu durum, Claude’un Ocak ayında Venezuela Devlet Başkanı Nicolas Maduro’nun ülkeden çıkarılmasına yol açan Operation Absolute Resolve kapsamında aktif bir rol üstlenmesine imkân tanıdı. Modelin operasyon sırasında üstlendiği rol tam olarak açıklanmamış olsa da, askerî kampanyalarda yapay zekâ kullanımının tırmandığını gösteriyor.

Bu restleşme, Batı dünyasında yapay zekâ şirketlerinin hükümetlerle nasıl ilişki kurabileceğine dair bir emsal oluşturabilir; askerî amaçlarla kullanıldıklarında bu şirketlerin modelleri üzerindeki kontrol düzeylerinin temelini belirleyebilir.

Anthropic’ten bir sözcü, şirketin “bu çalışmayı sürdürmek ve bu yeni ve karmaşık meseleleri doğru ele almak için DoW ile iyi niyetle üretken görüşmeler” yürüttüğünü belirtti.

SSS

  • Anthropic, Savaş Bakanlığı ile ilgili hangi sorunlarla karşı karşıya?
    Anthropic, Claude adlı yapay zekâ modelinin kitlesel gözetim ve otonom askerî operasyonlar gibi etik dışı bulduğu faaliyetlerde kullanılmasına izin vermeyi reddettiği için Savaş Bakanlığı’nın incelemesi altında.
  • Tedarik zinciri riski olarak sınıflandırılırsa Anthropic hangi olası sonuçlarla karşılaşabilir?
    Tedarik zinciri riski olarak tanımlanırsa, Pentagon’la olan tüm sözleşmeler kesilecek ve Claude’un Pentagon’un bilgi sistemlerinden çekilmesi gerekecek.
  • Anthropic, yapay zekâ modeliyle ilgili Pentagon’un taleplerine nasıl yanıt verdi?
    Şirket, yapay zekâ teknolojisinin kullanımına ilişkin karmaşık etik meseleleri yönetmeyi hedefleyerek Savaş Bakanlığı ile “üretken görüşmeler” yürüttüğünü sürdürüyor.
  • Claude hangi yakın tarihli askerî operasyonda yer aldı ve bunun önemi neydi?
    Claude, Venezuela’nın Nicolás Maduro’sunun ülkeden çıkarılmasını kolaylaştıran Operation Absolute Resolve’a katıldı; bu, ordunun yapay zekâ teknolojilerini kullanımında önemli bir tırmanışı işaret etti.