Yapay zekâ belki de pek çoğumuzun hayatına “Uzay Yolu”
dizisiyle, TRT’nin tek kanal olduğu çağlarda girmiştir.
Pek çok alanda olduğu gibi savunma sanayiinde de yapay zekalı
makinaları görmek mümkün.
Programlananın dışında, kendi kendine düşünüp, öğrenebilen ve
kendi kararlarını alabilen bir robot düşünün…
İşte çağı geldiğinde kendi kararlarını alan bu robotlardan katil
bir ordu kurma düşüncesinde olan dünya devletleri bulunmakta.
Her ne kadar bunun tam tersini iddia etseler de.
Çin ve Rusya’nın geliştirdikleri yapay zekalı robotları,
ordularına entegre etmeye başlamasının ardından, harekete geçen ABD
bu alanda yapılan çalışmalarını hızlandırmıştı.
ABD Savunma Bakanlığı (Pentagon)'a bağlı çalışan “İleri Savunma
Araştırma Projeleri Ajansı (DARPA)” hava savaşı yarışması
düzenleyerek simülasyonla yapay sinir ağlarını test etmişti.
Düzenlenen yarışmaya, Georgia Teknik Araştırma Enstitüsü, Aurora
Flight Sciences, EpiSCI, Heron Systems, Lockheed Martin, Perspecta
Labs, physicsAI ve SoarTech gibi pek çok firma katılmıştı. Her
yarışmacı kendi yapay algoritmasıyla yarışmaya katılarak, F-15C
Eagle savaş uçaklarının simülasyonu ve DARPA tarafından
geliştirilen RED yapay zekâ sistemleriyle, sanal hava savaşı
yapmışlardı.
Testlerin başarılı olduğunu açıklayan yetkililer, ayrıntı
vermekten kaçınmıştı.
Çin ve Rusya’nın bu hareketini tehdit olarak gören ABD Savunma
Bakanlığı Müşterek Yapay Zekâ Merkezi Direktörü Korgeneral John
Jack Shanahan, “katil robotların olacağı bir gelecek
istemediklerini” belirtmişti.
Brüksel’de AB ve NATO liderleriyle beraber, yapay zekâ
teknolojisinin askeri alanda kullanılması, yapay zekâ ile
modernleşme ve dönüşüm sürecini görüşmek üzere toplantı da
düzenlemişlerdi.
Shanahan, Çin ve Rusya'nın yapay zekâ kullanımının ABD ve
Avrupa'nın ortak değerlerini tehdit ettiğinin de altını
çizmişti.
Korgeneral John Shanahan “Biz stratejik rakiplerimizin bu
teknoloji devrimini kucakladıklarını, yapay zekâ geleceğine doğru
yol aldıklarını biliyoruz. Hem Rusya hem Çin'in yapay zekâ
uygulamaları, ABD ve Avrupa'nın değerleriyle tezat oluşturmakta ve
uluslararası normlar, insan hakları, özgür bir dünya düzeni ile
ilgili ciddi soru işaretlerine yol açmaktadır” demişti.
Shanahan’in "önümüzdeki yıl için de öncelik savaş alanında yapay
zekâ kullanımı olacak” demesinin ardından kısa bir süre geçti ve
devreye ABD Savunma Bakanlığı (Pentagon) girdi.
Pentagon, askeri alanda yapay zekâ teknolojisi kullanımına
ilişkin birtakım etik ilkeler belirlediğini açıkladı.
Otomatik sistemlerin aldığı kararların “izlenebilir” ve “teste”
tabi olması gerektiğini savundu.
Sunulan etik ilke ve tavsiyelerde “insanların hedefleri bulmak
için yapay zekâ sistemlerini kullanırken uygun karar ve dikkat
düzeylerine uymalarını talep ediyor.”
Peki öneri kimden geldi dersiniz?
“Google CEO’su olarak görev yaparken istifa edip Pentagon’a
bağlı Savunma İnovasyon Kurulu başkanlığını üstlenen Eric
Schmidt’den…
Schmidt, aynı zamanda Google çatı şirketi Alphabet İcra Kurulu
Başkanı görevini de yürütüyor.”
Konuyla ilgili açıklama yapan ABD Savunma Bakanı Mark Esper;
“Müttefiklerimizle ve partnerlerimizle birlikte yapay zekâ
kullanımını hızlandırmalı, stratejik hedeflerimizi desteklemek için
yapay zekanın ulusal güvenlik alanında kullanılmasında lider olmalı
ve geleceğin savaş muharebelerinde galip gelip uluslararası düzeni
korumalıyız” dedi.
Yapay zekâ teknolojilerinin askerlerin sorumluluklarını ve
yasalar karşısındaki tutumlarını etkilememesi gerektiğine de ayrıca
değindi.
Anlaşılan o ki, askeri alanda yapay zekâ teknolojileri
geliştiren ve kullanan ülkelerin bir araya gelerek ortak kuralları
belirlemeleri gerekiyor.
Yoksa…
Yapay zekâ teknolojisiyle çalışan (kendi kendine düşünüp,
öğrenebilen ve kendi kararlarını alan) bir hava aracının, birkaç
ülkeyi bombalayıp III. Dünya Savaşı çıkarması hayal değil…
Katil robotların çağında Türkiye’ye satılacak yapay zekâ
sistemiyle çalışan hava araçlarının, Rusya limanlarını
bombalamasıyla savaşa çekilmesi ihtimaller arasında.
Savaş ya da barış zamanında, yapay zekâlı robotların yaptığı her
hatadan, robotlar değil, insanlar sorumlu tutulmalıdır.
“Roma’yı kim yaktı? Vallahi ben yakmadım!” (!) Mantığıyla
hareket edilmemelidir.
___
twitter.com/trkagankaya
instagram.com/kagankayatr
facebook.com/trkagankaya