TEKNOLOJİ

Yapay Zeka Pazarlığı Bitti, İran Saldırısı Başladı

ABD Savunma Bakanlığının (Pentagon) teknoloji şirketi Anthropic ile sonuçsuz kalan, OpenAI ile anlaşmayla sonuçlanan yapay zeka araçlarını askeri operasyonlarda "sınırsız" kullanma müzakerelerinden saatler sonra İran saldırısı gerçekleşti.

"OpenAI'ın kar amacı güden bir yapıya evrilmesi ve yapay zeka güvenliğinin ikinci plana atılması" eleştirileriyle terk edilip Anthropic'in kurulmasıyla ortaya çıkan yol ayrımı, Pentagon ile yürütülen müzakerelerde de kendisini gösterdi.

ABD ordusunun halen istihbarat çalışmaları, silah geliştirme faaliyetleri ve askeri operasyonların yürütüldüğü sistemlerde Anthropic'in geliştirdiği yapay zeka sohbet robotu Claude modelini kullandığı belirtilirken Pentagon'un yapay zeka aracını askeri operasyonlarda "sınırsız" kullanabilme talebi kabul görmedi.

Pentagon, Anthropic'ten yapay zeka modeli Claude üzerindeki tüm güvenlik kısıtlamalarını kaldırmasını ve teknolojinin "tüm yasal amaçlar için sınırsız kullanıma" açılmasını talep etti.

Şirket, "Claude'un ABD vatandaşlarının kitlesel gözetlenmesini ve tam otonom silahlarda kullanılmasını engelleme konusunda neredeyse hiçbir ilerleme kaydedilmediğini" açıkladı. Pentagon cephesi ise bu iddiaları reddetti.

ABD Başkanı Donald Trump, bunun üzerine tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını verdi.

ABD’nin "radikal solcu ve uyanık" bir şirketin orduya savaşları nasıl kazanacağını dikte etmesine izin vermeyeceğini belirten Trump, Anthropic'in Pentagon’u zorla kontrol etmeye ve anayasa yerine kendi hizmet şartlarına uymaya zorlamakla "felaket bir hata yaptığını" ifade etti.

Bu gelişmeden kısa süre sonra OpenAI Üst Yöneticisi (CEO) Sam Altman, Pentagon ile yapay zeka modellerinin bakanlığın ağına entegre edilmesine yönelik anlaşmaya vardıklarını duyurdu. Anlaşma kapsamında OpenAI'ın güvenlik ve etik ilkelerinin korunacağını dile getiren Altman, Pentagon'un güvenlik konularında hassasiyet gösterdiğini savundu.

Tam otonomi fırsat mı, tehdit mi?

Anthropic'in karşı çıktığı "tam otonom kullanım" konseptine özellikle çok unsurlu ya da sürü sistemlerle yapılacak saldırı ve savunmalar için ihtiyaç duyulduğu değerlendiriliyor. Böyle bir muharebe ortamının insanlar tarafından yönetilmesinden kaynaklanan sorunların sistemin kendi kendine karar vermesiyle aşılması hedefleniyor.

Anthropic, tam da bu operasyonun eşiğinde, teknolojisinin otonom silah sistemlerinde kullanılmasına izin vermezken bu tavır "savaş alanında askerin elini kolunu bağlamak" olarak yorumlandı.

"Tam otonom kullanım" konseptinde yapay zekanın savaş alanında insan denetimi olmadan karar vermesinin uluslararası hukuk hükümlerinde henüz karşılığının bulunmamasına ek olarak, bu yaklaşım teknik olarak riskli değerlendiriliyor ve bazı çevrelerce etik görülmüyor.

Bu bağlamda OpenAI ise Anthropic’in boşalttığı alanı doldurarak bir anlamda ABD ordusuna ihtiyaç duyduğu yapay zeka desteğini sağlama garantisi verdi.