
ABD’de federal bir yargıç, yapay zeka girişimi Anthropic ile Savunma Bakanlığı (Pentagon) arasındaki gerilimde kritik bir karara imza atarak, şirketin kara listeye alınma sürecini geçici olarak durdurdu.
Kaliforniya Kuzey Bölge Yargıcı Rita F. Lin, Anthropic’in Claude adlı yapay zeka modelinin federal kurumlarca kullanımını yasaklayan ve şirketi “tedarik zinciri riski” olarak damgalayan hükümet hamlesini engelledi. 43 sayfalık gerekçeli kararda Yargıç Lin, Savunma Bakanlığı’nın eylemlerini “misilleme” olarak nitelendirdi.
Hükümetin suçlaması ‘hukuka aykırı’ bulundu
Yargıç Lin, kararında hükümetin yaklaşımını sert bir dille eleştirerek, bir Amerikan şirketinin hükümetle aynı fikirde olmadığını beyan etmesi nedeniyle “hasım” veya “sabotajcı” olarak yaftalanmasının yasal bir dayanağı olmadığını vurguladı. Kararda, bu durumun Birinci Ek Madde (ifade özgürlüğü) kapsamında “klasik ve yasa dışı bir misilleme” olduğu belirtildi.
İki taraf arasındaki kriz, geçtiğimiz Temmuz ayında Anthropic ile Pentagon arasında imzalanan 200 milyon dolarlık sözleşmenin çökmesiyle başlamıştı. Anthropic, ordunun modellerine sınırsız erişim sağlamasını reddetmiş; Claude’un tam otonom öldürücü silah sistemlerinde veya kitlesel gözetleme faaliyetlerinde kullanılmasına karşı katı kullanım sınırları getirilmesini talep etmişti.
‘Tedarik zinciri riski’ ve siyasi gerilim
Anthropic’in bu tavrına karşılık Savunma Bakanı Pete Hegseth, şirketi geleneksel olarak terör örgütlerine ayrılan “tedarik zinciri riski” kategorisine dahil etmişti. Süreç, Başkan Donald Trump’ın Anthropic’i “radikal solcu” bir şirket olarak nitelemesi ve federal ofislerde kullanımının sonlandırılması talimatını vermesiyle tırmanmıştı.
Bu süreçte rakip şirket OpenAI, Anthropic’in çekildiği boşluğu doldurmakta gecikmedi. Anthropic’in masadan kalkmasından saatler sonra OpenAI, modellerinin gizli ağlarda “tüm yasal amaçlar” doğrultusunda kullanılması için Pentagon ile kazançlı bir anlaşma imzaladı.
Mevcut askeri operasyonlardaki rolü
Hukuki sürece rağmen Anthropic’in teknolojisi savunma operasyonlarında halihazırda aktif bir rol oynamaya devam ediyor. Şirketin Claude modeli, Palantir’in “Maven Smart System” platformu üzerinden istihbarat işleme ve hedef belirleme süreçlerinde kullanılıyor. Bu sistemin, Orta Doğu’daki güncel askeri operasyonlarda da devreye alındığı bildiriliyor.
Mahkemenin verdiği geçici durdurma kararı Anthropic’e hukuki mücadelede önemli bir nefes aldırmış durumda. Ancak Trump yönetiminin karara itiraz etmek için yedi günlük süresi bulunuyor. Uzmanlar, yapay zekanın askeri kullanımı ve ifade özgürlüğü sınırlarını belirleyecek olan bu davanın henüz sonuçlanmaktan uzak olduğunu vurguluyor.

İlk yorum yapan olun