Algoritmaların ölüm kalım kararı verdiği savaşlara doğru mu? Otonom silahlar çağı
Savaş alanında hangi gayenin vurulacağına, kimin yaşayacağına kimin öleceğine algoritmalar mı karar verecek? Global bir “Yapay Zekaya” dayalı “otonom silah yarışının” eşiğinde miyiz?
Ukrayna ve Gazze’de yaşananların da ışığında otonom silah sistemleri konusunda gelecekte bizin neler beklediğini Stockholm merkezli Milletlerarası Barış Araştırmaları Enstitüsü’nün (SIPRI) Yapay Zekâ Programları Yöneticisi Dr. Vincent Boulanin’e sordum. Boulanin’e nazaran bir otonom silah sistemleri yarışı değil tahminen fakat yapay zekanın yeteneklerini silah sistemlerini de kapsayacak formda geliştirme konusunda bir yarış var. Otonom silah sistemleri insan müdahalesi olmaksızın bir “hedef profilini” seçip atak gerçekleştirebilen silahlar olarak tanımlanıyor genel olarak. Sisteme “belirli bir bölgedeki makul özelliklere sahip tankları amaç al” talimatı veriliyor. Hangi lokasyonların ve hangi amaç tiplerinin seçileceğine öncesinde beşerler karar veriyor; lakin atağın kendisi otonom olarak gerçekleşiyor.
RİSK KATLANIYOR
Otonom silahların uzun müddettir tank, gemi üzere net biçimde tanımlanabilen askeri gayelere karşı kullanıldığını kaydeden Boulanin’e nazaran asıl kritik sıkıntı gayenin insan olması durumunda başlıyor:
“Bir insanın legal askeri amaç mi yoksa sivil mi olduğunun ayırt edilmesi son derece karmaşık. Bu, çok daha gelişmiş ve yanılgıya yer bırakmayan bir teknoloji gerektiriyor.”
KARAR ALGORİTMANIN MI?
“Kimin yaşayacağına algoritmalar mı karar verecek?” sorusuna Boulanin: “Algoritmalar karar vermez; belirlenen parametrelere nazaran hareket eder. Otonom silahlar, amaç kütüphanesinden seçim yapar” cevabını veriyor. Lakin bu ayrım, etik dertleri ortadan kaldırmıyor. Otonom silahlar konusundaki memleketler arası tartışmalar BM Cenevre platformunda devam ediyor. Lakin Ukrayna ve Gazze’de drone’lar üzere yapay zekaya dayalı sistemlerin kullanıldığı savaşlar, bu tartışmaları daha da acil hale getirmiş durumda. Boulanin’e nazaran sorun şu: “Devletler savaş halindeyken, bu teknolojilerin kullanımına dair etik ve tüzel normlar üzerinde uzlaşmak çok daha güç. Barış devirlerinde düzenleme yapılması bu yüzden hayati.”
‘VAHŞİ BATI’ DEĞİL
Boulanin, hukuksal manada büsbütün bir “Vahşi Batı” durumundan kelam edilemeyeceğini söylüyor. Milletlerarası hukuk, otonom silahların kullanımına aslında kimi kısıtlamalar getiriyor. Lakin çatışmalara taraf devletlerin bu bahisteki tartışmaları yapan bir biçimde sürdürmeyi isteyip istemedikleri bir soru işareti. Büyük güçler bağlayıcı düzenlemelere karşı temkinli.
YIL SONU KRİTİK EŞİK
BM Genel Sekreteri Antonio Guterres’in davetiyle, otonom silahlar konusunda yıl sonuna kadar bir hukuksal çerçeve oluşturulması hedefleniyor. Boulanin, asıl sorunun “düzenleme olacak mı?” değil, “nasıl bir düzenleme olacak?” olduğunu söylüyor.
Bağlayıcı mı olacak? Yaptırım içerecek mi? Hangi teknolojileri sınırlayacak? Karşılıklar büyük ölçüde jeopolitik iklime bağlı.
İKİ BÜYÜK TREND
Boulanin, geleceğin savaşlarına dair iki net eğilime işaret ediyor: Birincisi, Ukrayna savaşının da gösterdiği üzere düşük maliyetli ve kaybedilmesi göze alınabilen drone’ların, yüksek maliyetli savaş uçaklarının yerini alması beklenebilir. İkincisi ise, yapay zekâdaki süratli ilerleme, bilhassa de büyük lisan modellerinin askeri alanda bilgi sürece ve sistem tasarımı açısından sunduğu yeni imkânlar.
KIRMIZI ÇİZGİ
Boulanin’e nazaran nükleer silahların kullanımı kelam konusu olduğunda milletlerarası alanda az görülen bir uzlaşı mevcut: Nükleer silahların kullanım kararının otonom sistemlere bırakılmaması. “ABD ve Çin bile, nükleer silahların fırlatılması kararının insanlarda kalması gerektiği konusunda mutabakata varmıştı” diyen Boulanin makine öğrenmesine dayalı sistemlerin nükleer mimariye entegrasyonunun son derece riskli olduğunu söylüyor. Zira bu sistemlerin nasıl başarısız olabileceğini öngörmek çok güç. Bu sistemlerin üretiminin ve edinilmesinin görece kolay olması ise bir öteki sorun. Devletlerin yanı sıra devlet dışı aktörler de bu silahlara erişebilir zira.





