Yapay zekalı silahlar “öldürme” kararını verecek mi? Tartışmalar sürüyor

Silikon Vadisi’nde yapay zeka (AI) silahlarının öldürme kararını verebilme yetisine sahip olup olmaması gerektiği konusu büyük bir tartışma yaşanıyor. Özellikle savunma teknolojileri şirketlerinin kurucuları bu konuda farklı görüşler ileri sürüyor. Shield AI’nin kurucu ortağı Brandon Tseng, ABD’deki silahların hiçbir zaman tamamen otonom olmayacağını ve öldürme kararının bir yapay zeka algoritması tarafından verilmeyeceğini iddia etti. Öte yandan Anduril’in kurucu ortağı Palmer Luckey ise konuya daha açık yaklaştığını söylüyor.

Taraflar var, karar yok

Luckey, otonom silahlara daha açık bir yaklaşım sergilerken eleştirilerin yüzeysel olduğunu ve gerçek tehlikenin yanlış kişilerce kötü niyetle kullanılan yapay zekâ olduğunu savundu. Luckey, mayınlar gibi otonom silahların zaten ölümcül kararlar verdiğini ve yapay zekanın daha etik olabileceğini öne sürdü: “…Çocuklarla dolu okul otobüsü ile Rus tankı arasındaki farkı anlayamayan bir mayında ahlaki üstünlük nerede?”

Bu tartışma, sadece teknoloji devleri arasında değil, aynı zamanda ABD hükümetinin de gündeminde. Amerikan ordusu, şu anda tamamen otonom silahlar satın almıyor. Ancak, bazıları, mayınlar ve füzeler gibi sistemlerin bir çeşit otonom olarak kabul edilebileceğini belirtiyor. Yine de ABD, insan müdahalesi olmadan belirli bir hedefi tanıyan, izleyen ve ateş eden silahları henüz kullanmıyor.

Bununla birlikte ABD, tamamen otonom ölümcül silahların üretimini veya yabancı ülkelere satışını açıkça yasaklamış değil. Bu belirsizlik, teknolojinin hızla gelişmesi ve yapay zekanın savaş alanında daha fazla kullanılmasıyla daha da derinleşiyor. Özellikle Ukrayna-Rusya savaşında, AI’nin savaş stratejilerine entegrasyonu hızla ilerliyor. Ukraynalı yetkililer, otomasyonun savaşta üstünlük sağlamaları için kritik olduğunu belirtiyor.

Ukrayna Dijital Dönüşüm Bakanı Mykhailo Fedorov, “Maksimum otomasyona ihtiyacımız var. Bu teknolojiler zaferimizin temelini oluşturuyor.” diyor. Bu söylemler gidilen yola işaret etse de Silikon Vadisi ve ABD hükümetindeki en büyük korku Çin ya da Rusya’nın tamamen otonom silahları ABD’den önce kullanmaya başlaması. ABD’nin bu tür bir yarışta geri kalması ulusal güvenlik için tehlikeli bulunuyor. Bu nedenle bazı teknoloji liderleri, ABD hükümetinin yapay zeka silahları konusunda daha esnek bir yaklaşım benimsemesi gerektiğini savunuyor.

Bu tartışmalar, yapay zeka silahlarının geleceği hakkında net bir sonuca ulaşılmadığını, ancak savaş ve savunma teknolojilerindeki hızlı gelişmelerin bu kararı daha da acil bir hale getirdiğini gösteriyor. Silikon Vadisi’nin dev şirketleri, hükümete bu konularda daha fazla bilgi vermek ve politika belirleyicileri eğitmek için lobi faaliyetlerine milyonlarca dolar harcamaya devam ediyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir