Katil Robotlar

Çin ve Rusya’nın geliştirdikleri yapay zekalı robotları, ordularına entegre etmeye başlamasının ardından, harekete geçen ABD bu alanda yapılan çalışmalarını hızlandırmıştı.

Yapay zekâ belki de pek çoğumuzun hayatına “Uzay Yolu” dizisiyle, TRT’nin tek kanal olduğu çağlarda girmiştir.

Pek çok alanda olduğu gibi savunma sanayiinde de yapay zekalı makinaları görmek mümkün.

Programlananın dışında, kendi kendine düşünüp, öğrenebilen ve kendi kararlarını alabilen bir robot düşünün…

İşte çağı geldiğinde kendi kararlarını alan bu robotlardan katil bir ordu kurma düşüncesinde olan dünya devletleri bulunmakta.

Her ne kadar bunun tam tersini iddia etseler de.

Çin ve Rusya’nın geliştirdikleri yapay zekalı robotları, ordularına entegre etmeye başlamasının ardından, harekete geçen ABD bu alanda yapılan çalışmalarını hızlandırmıştı.

ABD Savunma Bakanlığı (Pentagon)'a bağlı çalışan “İleri Savunma Araştırma Projeleri Ajansı (DARPA)” hava savaşı yarışması düzenleyerek simülasyonla yapay sinir ağlarını test etmişti.

Düzenlenen yarışmaya, Georgia Teknik Araştırma Enstitüsü, Aurora Flight Sciences, EpiSCI, Heron Systems, Lockheed Martin, Perspecta Labs, physicsAI ve SoarTech gibi pek çok firma katılmıştı. Her yarışmacı kendi yapay algoritmasıyla yarışmaya katılarak, F-15C Eagle savaş uçaklarının simülasyonu ve DARPA tarafından geliştirilen RED yapay zekâ sistemleriyle, sanal hava savaşı yapmışlardı.

Testlerin başarılı olduğunu açıklayan yetkililer, ayrıntı vermekten kaçınmıştı.

Çin ve Rusya’nın bu hareketini tehdit olarak gören ABD Savunma Bakanlığı Müşterek Yapay Zekâ Merkezi Direktörü Korgeneral John Jack Shanahan, “katil robotların olacağı bir gelecek istemediklerini” belirtmişti.

Brüksel’de AB ve NATO liderleriyle beraber, yapay zekâ teknolojisinin askeri alanda kullanılması, yapay zekâ ile modernleşme ve dönüşüm sürecini görüşmek üzere toplantı da düzenlemişlerdi.

Shanahan, Çin ve Rusya'nın yapay zekâ kullanımının ABD ve Avrupa'nın ortak değerlerini tehdit ettiğinin de altını çizmişti.

Korgeneral John Shanahan “Biz stratejik rakiplerimizin bu teknoloji devrimini kucakladıklarını, yapay zekâ geleceğine doğru yol aldıklarını biliyoruz. Hem Rusya hem Çin'in yapay zekâ uygulamaları, ABD ve Avrupa'nın değerleriyle tezat oluşturmakta ve uluslararası normlar, insan hakları, özgür bir dünya düzeni ile ilgili ciddi soru işaretlerine yol açmaktadır” demişti.

Shanahan’in "önümüzdeki yıl için de öncelik savaş alanında yapay zekâ kullanımı olacak” demesinin ardından kısa bir süre geçti ve devreye ABD Savunma Bakanlığı (Pentagon) girdi.

Pentagon, askeri alanda yapay zekâ teknolojisi kullanımına ilişkin birtakım etik ilkeler belirlediğini açıkladı.

Otomatik sistemlerin aldığı kararların “izlenebilir” ve “teste” tabi olması gerektiğini savundu.

Sunulan etik ilke ve tavsiyelerde “insanların hedefleri bulmak için yapay zekâ sistemlerini kullanırken uygun karar ve dikkat düzeylerine uymalarını talep ediyor.”

Peki öneri kimden geldi dersiniz?

“Google CEO’su olarak görev yaparken istifa edip Pentagon’a bağlı Savunma İnovasyon Kurulu başkanlığını üstlenen Eric Schmidt’den…

Schmidt, aynı zamanda Google çatı şirketi Alphabet İcra Kurulu Başkanı görevini de yürütüyor.”

Konuyla ilgili açıklama yapan ABD Savunma Bakanı Mark Esper;

“Müttefiklerimizle ve partnerlerimizle birlikte yapay zekâ kullanımını hızlandırmalı, stratejik hedeflerimizi desteklemek için yapay zekanın ulusal güvenlik alanında kullanılmasında lider olmalı ve geleceğin savaş muharebelerinde galip gelip uluslararası düzeni korumalıyız” dedi.

Yapay zekâ teknolojilerinin askerlerin sorumluluklarını ve yasalar karşısındaki tutumlarını etkilememesi gerektiğine de ayrıca değindi.

Anlaşılan o ki, askeri alanda yapay zekâ teknolojileri geliştiren ve kullanan ülkelerin bir araya gelerek ortak kuralları belirlemeleri gerekiyor.

Yoksa…

Yapay zekâ teknolojisiyle çalışan (kendi kendine düşünüp, öğrenebilen ve kendi kararlarını alan) bir hava aracının, birkaç ülkeyi bombalayıp III. Dünya Savaşı çıkarması hayal değil…

Katil robotların çağında Türkiye’ye satılacak yapay zekâ sistemiyle çalışan hava araçlarının, Rusya limanlarını bombalamasıyla savaşa çekilmesi ihtimaller arasında.

Savaş ya da barış zamanında, yapay zekâlı robotların yaptığı her hatadan, robotlar değil, insanlar sorumlu tutulmalıdır.

“Roma’yı kim yaktı? Vallahi ben yakmadım!” (!) Mantığıyla hareket edilmemelidir.

___

twitter.com/trkagankaya

instagram.com/kagankayatr

facebook.com/trkagankaya

Yorumlar