Önce barut vardı, sonra nükleer silahlar geldi. Sırada ise “yapay zekâ”ya sahip silahlar var…
11 Eylül’ün 20. yıl dönümünde, ABD ve müttefiklerinin Afganistan’dan aceleyle geri çekilmesinin ardında eski usul asimetrik terör ve intihar saldırılarının olduğunu görmezden gelmek imkânsız. Ancak silah teknolojisi son yirmi yılda önemli ölçüde değişti. Ve çok da uzak olmayan bir geleceği düşünerek şunu sormalıyız: Ya bu saldırganlar, intihar bombacılarını veya militanları denklemden tamamen çıkarabilseydi? Uzun yıllardır yapay zekâ üzerine çalışan insanlar, şimdiden yapay zekâ ve robotik kaynaklı böyle bir teknoloji tehdidinden endişe etmeye başladılar bile.
Otonom silahlar, barut ve nükleer silahların ardından savaş alanları için 3. bir devrim. Kara mayınlarından güdümlü füzelere doğru olan evrim, gerçek yapay zekâ destekli özerkliğin yalnızca başlangıcıydı. Bu özerkliğin tam hâli, insan müdahalesi olmadan başka bir insan yaşamını aramak, ona kilitlenmeye karar vermek ve son olarak hedefi yok etmekle gerçekleşecek. Bugün kullanılan otonom silahların bir örneği “Fire and Forget” lakaplı, belirli bir bölgeye uçabilen, belirlenen hedefleri saptayıp yok edebilen İsrail yapımı Harpy insansız hava aracı. Ancak çok daha kışkırtıcı bir örnek, belirli bir kişiyi aktif olarak arayabilen ve o kişinin kafasının üstüne küçük bir bomba atabilen kuş boyutundaki dronların hikâyesini anlatan distopik kısa film Slaughterbots‘ta gösterildi. Bu dronlar kendi kendilerine uçabiliyor ve kolay yem olmayacak kadar da küçük ve çevikler.
“Slaughterbot”lar sadece kurgusal cihazlar değil. Böyle bir drone 2018’de Venezuela başkanını neredeyse öldürüyordu ve bugün deneyimli bir uzman tarafından 1000 dolardan daha az bir fiyata yapılabilir. Üstelik tüm parçaları çevrimiçi olarak satın alınabilir ve yazılımı da temin edilebilir. Bu, yapay zekâ ve robotiğin daha erişilebilir ve ucuz hâle gelmesinin istenmeyen bir sonucu. 1000 dolarlık bir siyasi suikastçı düşünün! Ve bu gelecek için çok uzak bir tehlike değil, açık ve mevcut bir risk. Yapay zekânın ne kadar hızlı ilerlediğine tanık olduk ve bu gelişmeler otonom silahların yakın vadeli geleceğini hızlandıracak. Bu katil robotlar sadece daha akıllı, daha hassas, daha hızlı ve daha ucuz hâle gelmekle kalmayacak, ayrıca ekip çalışması ve yedeklilik ile nasıl sürü oluşturulacağı gibi yeni yetenekleri öğrenerek görevlerini neredeyse durdurulamaz hâle getirecek. Bir şehrin yarısını yok edebilecek 10000 dron sürüsünün teorik olarak maliyeti sadece 10 milyon dolar!
Tüm bu tehlikelere rağmen otonom silahlara yararsız denilemez. Savaşlar makineler tarafından yapılırsa, otonom silahlar askerlerin hayatını kurtaracaktır. Ayrıca sorumlu bir ordunun elinde, askerlerin yalnızca savaşçıları hedef almasını sağlayabilir ve böylelikle dost güçlerin, çocukların ve sivillerin kaybını en aza indirebilir. Dahası otonom silahlar, suikastçılara ve faillere karşı savunma amaçlı olarak da kullanılabilir. Ancak dezavantajlar ve yükümlülükler bu faydalardan çok daha ağır basıyor. Bu durumda en güçlü sorumluluk ahlaki. Neredeyse tüm etik ve dini sistemler, bir insan hayatına son vermeyi güçlü gerekçelendirme ve inceleme gerektiren çekişmeli bir eylem olarak görür. Birleşmiş Milletler Genel Sekreteri António Guterres, “İnsanların canını alacak takdir ve güce sahip makinelerin olasılığı ahlaki olarak iğrenç,” diyor.
Otonom silahlar katilin maliyetini düşürecek. Bir amaç uğruna canını vermek -intihar bombacılarının yaptığı gibi- hâlâ herkes için büyük bir engel. Ancak otonom suikastçılarla, öldürmek için hiçbir hayat feda edilmek zorunda kalınmayacak. Bir diğer önemli konu, net bir sorumluluk çizgisine sahip olmak; bir hata durumunda kimin sorumlu olduğunu bilmek. Fakat öldürme eylemi otonom bir silah tarafından gerçekleştirildiğinde, hesap verme sorumluluğu tam anlamıyla belirsizliğe de gömülüyor. Bu tür bir belirsizlik, nihayetinde saldırganları hukuk ihlalleri için aklayabilir. Bir başka ilgili tehlike, otonom silahların yüz veya yürüyüş tanımlayarak, telefon veya IoT sinyallerini takip ederek bireyleri hedefleyebilmesi Bu sadece bir kişinin öldürülmesini değil, herhangi bir grup insanın soykırımını da mümkün kılabilecek kadar büyük bir risk. Yazar Chen Qiufan‘ın yazdığı ve gerçekçi olası gelecek senaryolarına dayanan yeni “bilimkurgu” kitabı AI 2041, bir teröristin iş dünyasının seçkinlerini ve yüksek profilli kişileri hedef alması üzerine kurulu.
Asıl sorunları derinlemesine anlamadan daha fazla özerklik, savaşın hızını (ve dolayısıyla kayıpları) daha da artıracak ve potansiyel olarak nükleer savaş da dâhil olmak üzere çok kötü sonuçlara yol açacaktır. Yapay zekânın sağduyusu yok ve etki alanı akıl yürütme yeteneği ile sınırlı. Bir otonom silah sistemini ne kadar eğitirseniz eğitin, etki alanındaki sınırlama eylemlerinin sonuçlarını tam olarak anlaması mümkün değil. 2015 yılında Future of Life Institute, yapay zekâlı silahlar hakkında “küresel bir silahlanma yarışının neredeyse kaçınılmaz olduğu” konusunda uyarıda bulunan açık bir mektup yayımladı. İster Anglo-Alman, ister Sovyet-Amerikan nükleer silahlanma yarışı olsun, böyle bir rekabet oldukça tanıdık bir alanı temsil ediyor. Çünkü güçlü ülkeler uzun süredir askeri üstünlük için savaşıyor. Bu yöndeki olası bir soğuk savaş dönemi, otonom silah alanında üstünlüğü ele geçirmek isteyen tarafların sürekli daha ölümcül teknolojiler üretmesiyle sonuçlanabilir.
İsrail gibi güçlü teknolojilere sahip nispeten küçük ülkeler, sinek büyüklüğündekiler de dâhil olmak üzere en gelişmiş askeri robotlardan bazılarıyla yarışa çoktan girdi. Düşmanlarının otonom silahlar üreteceğinden neredeyse emin olan hırslı diğer ülkeler ise kendini rekabet etmek zorunda hissediyor. Bu silahlanma yarışı bizi nereye götürecek? UC Berkeley’de bilgisayar bilimi profesörü olan Stuart Russell, “Otonom silahların yetenekleri, yapay zekâdaki herhangi bir eksiklikten ziyade fizik yasalarıyla – örneğin menzil, hız ve yük üzerindeki kısıtlamalarla – sınırlı olacaktır. Sonuçta yapay zekâ, verilenleri kontrol eden sistemlerdir. Çevikliği ve öldürücülüğü ile insanları tamamen savunmasız bırakacak milyonlarca farklı platform beklenebilir,” diyor.
Nükleer silahlar varoluşsal bir tehdit, ancak kontrol altında tutuldular ve hatta caydırıcılık teorisi nedeniyle konvansiyonel savaşın azaltılmasına yardımcı oldular. Bir nükleer savaş karşılıklı olarak garantili yıkıma yol açtığından, ilk hamleyi yapacak herhangi bir ülke aynı zamanda yok olma tehlikesiyle de karşı karşıya kalabileceğini biliyor. Bu da ülkeleri nükleer silah kullanma noktasında isteksiz hâle getiriyor. Ancak otonom silahlar farklı. Burada caydırıcılık teorisi geçerli değil, çünkü sürpriz bir ilk saldırı izlenemez olabilir. Daha önce tartışıldığı gibi, otonom silah saldırıları hızlı bir yanıtı tetikleyebilir ve gerginlikler potansiyel olarak nükleer savaşa yol açabilir. Ayrıca ilk saldırı bir ülke tarafından değil, teröristler veya diğer devlet dışı aktörler tarafından da tetiklenebilir.
Bu varoluşsal felaketten kaçınmak için önerilen birkaç çözüm var. İlki, döngü içinde insan yaklaşımı, diğer bir deyişle her ölümcül kararın bir insan tarafından verildiğinden emin olmak. Ancak otonom silahların hüneri, büyük ölçüde döngüde bir insan olmamasıyla elde edilen hız ve hassasiyetten geliyor. Bu zayıflatıcı taviz, silahlanma yarışını kazanmak isteyen herhangi bir ülke için kabul edilemez olabilir. İnsan katılımı uygulamada zor ve kaçınılması kolay. Ve bir insanın dâhil olmasının koruyucu niteliği, o bireyin ahlaki karakterine ve yargısına çok bağlı. Önerilen ikinci bir çözüm, hem Katil Robotları Durdurma Kampanyası hem de Elon Musk, merhum Stephen Hawking ve binlerce AI uzmanı dâhil olmak üzere toplam 3.000 kişi tarafından imzalanmış uyarı mektubunda da belirtildiği üzere bu teknolojileri yasaklama önerisi. Biyolojik, kimyasal ve nükleer silahlara karşı geçmişte biyologlar, kimyagerler ve fizikçiler tarafından benzer çabalar gösterilmişti. Yasaklama kolay olmayacak, ancak kör edici lazerlere, kimyasal ve biyolojik silahlara karşı önceki yasaklar etkili olmuş gibi görünüyor. Buna rağmen Amerika Birleşik Devletleri, Birleşik Krallık ve Rusya, otonom silahların yasaklanmasına karşı çıkıyor ve bunu yapmak için henüz çok erken olduğunu belirtiyor.
Üçüncü yaklaşım ise otonom silahları düzenlemek. Bu da aynı şekilde, etkili teknik şartnameler oluşturmanın zorluğundan dolayı kolay değil. Otonom bir silahı ne tanımlar? İhlalleri nasıl denetlersiniz? Bunların hepsi olağanüstü zorluğa sahip kısa vadeli engeller. Yine de uzun vadede yaratıcı çözümler, hayal etmesi zor da olsa mümkün olabilir. Örneğin, ülkeler gelecekteki tüm savaşların yalnızca robotlarla (veya daha iyisi, yalnızca yazılımlarla) yapılacağı ve hiçbir insan zayiatı olmayacağı konusunda anlaşabilir mi? Tabii, klasik savaş ganimetlerini teslim etmek şartıyla. Belki de insan ve robotların birlikte ve aynı safta savaştığı bir gelecek de bizi bekliyor olabilir. Bu gelecekte robotların yalnızca robot savaşçıları devre dışı bırakmasına ve insan askerlere karşı zararsız silahlar kullanmasına izin verilebilir. Her ne olursa olsun, otonom silahlar zaten açık ve mevcut bir tehlike ve endişe verici bir hızla daha akıllı, çevik, ölümcül ve erişilebilir hâle geliyor. Daha da kötüsü, otonom silahların yaygınlaşması nükleer silahların doğal caydırıcılığından bağımsız olarak kaçınılmaz bir silahlanma yarışını da tetikleyecek gibi görünüyor.