Söz konusu gelişmiş yapay zeka (AI) olduğunda genellikle robotların kullanılmaya başlanmasıyla ortadan kalkacak mesleklerle ilgili tartışmalar yapılıyor. Yapay zekanın, avukatların, muhasebecilerin, öğretmenlerin, programcıların ve hatta gazetecilerin işlerinin büyük bir bölümünü yapması ihtimal dahilinde olsa da yapay zekadan en çok etkilenen meslekler bunlar değil.
Yapay zeka alanındaki en son teknoloji ‘üretken yapay zeka’ olarak biliniyor. Yazar Michael Hirsh, Foreign Policy’de kaleme aldığı makalede yapay zekanın savaş ve caydırıcılık alanında köklü bir değişime yol açacağını ve bunun ‘uygun’ olmayan ve insanlığın bekasına yönelik bir tehdide dönüşebilecek şekilde yapacağını öngördü.
Öte yandan Şarku’l Avsat’ın Foreign Policy’den aktardığına göre bu teknoloji, savaşlarda can kaybını azaltabilir ve caydırıcılığı güçlendirebilir. Yapay zeka destekli dronların hava, deniz ve kara kuvvetleri tarafından daha fazla kullanılmaya başlamasıyla insanların hayatlarını kurtarabilir.
ABD Savunma Bakanlığı (Pentagon) şimdiden modifiye edilmiş F-16’lara pilotluk yapabilen yapay zeka programlarını test etmeye başladı. Rusya tam otomatik tank benzeri araçları test ediyor. Çin ise yapay zeka tarafından yönetilen askeri sistemlerin geliştirilmesi çalışmalarına hız kazandırdı.
Silahlı insansız hava araçlarının (SİHA) önümüzdeki yıllarda daha da etkin olacak. Halen erken aşamalarında olan en büyük gizli programlardan biri, ABD Hava Kuvvetleri’nin ‘Yeni Nesil Hava Kontrol’ programı. Bu program çerçevesinde bin adet ‘wingman’ adlı yapay zekaya sahip drone’ların görev yapması ve 200 adet F-35 model savaş uçağına eşlik etmesi planlanıyor.
İnsanlığı tehlikeye atan nükleer ve biyolojik tehditleri azaltmaya odaklanan, kâr amacı gütmeyen bir küresel güvenlik kuruluşu olan Nuclear Threat Initiative'in (NTI) Baş Danışmanı Douglas Shaw, yaptığı değerlendirmede şunları söyledi:
“İnsandan çok daha fazla drone’un olduğu bir geleceği hayal etmekte zorlanmıyorum.”
ABD Hava Kuvvetleri’nden emekli General Charles F. Wald ise bir yorumunda, “Askeri birlik sayısı ikiye katlanacak, çünkü şu anda en büyük sorunlardan biri askere alım olarak karşımıza çıkıyor” ifadelerini kullandı.
Öte yandan yapay zekâ destekli yazılımlar, büyük güçlerin karar vermesi için gereken süreyi günler ve saatlerden dakikalara indirecek. Yapay zekaya, stratejik ve taktiksel değerlendirmelerde, hatta nükleer savaşta bile daha fazla kullanılabilir.
Stanford Üniversitesi Uluslararası Güvenlik ve İşbirliği Merkezi’nden Kıdemli Araştırma Görevlisi Herbert Lin, yaptığı değerlendirmede şunları söyledi:
“Asıl tehlike, karar vericilerin, insanlardan çok daha hızlı çalıştığından silahları kullanması ve kontrol etmesi için yapay zekaya giderek daha fazla yönelmeleri.”
Aberdeen Üniversitesi’nde Öğretim Görevlisi Prof. Dr. James Johnson, kaleme aldığı ‘AI and the Bomb’ (Yapay Zeka ve Bomba) kitabında, “2025 yılında Doğu Çin Denizi'nde ABD ve Çin yapay zeka destekli istihbaratlarının dahil olduğu bir nükleer savaş patlak verecek ve yapay zeka destekli turbo robotlar ve deepfake videolar kullanılacak ve sahte askeri operasyonlar gerçekleşecek” yazdı.
Şubat ayı başlarında yayınlanan bir rapora göre Arms Control Association (Silah Kontrol Derneği), yapay zekanın ve hipersonik füzeler gibi yeni teknolojilerin konvansiyonel ve nükleer savaş arasındaki çizgileri bulanıklaştırabileceğini savundu.
Rapor ayrıca, yeni teknolojilerin askeri alanlarda kullanımıyla ilgili çalışmaların, bu teknolojilerin ortaya koyduğu riskleri değerlendirme ve kullanımlarının sınırlandırılması çabalarından daha hızlı olduğuna dikkati çekerken yeni teknolojilerin askeri alanlardaki kullanımıyla ilgili çalışmaların yavaşlatılması, risklerinin dikkatli bir şekilde değerlendirmesi askeri alanlardaki kullanımlarına kısıtlamalar getirilmesi gerektiği vurgulandı.
ABD’li yetkililer, bu alanda çalışmalar yaptıklarını teyit etseler de çalışmaların yokuşta yürüyormuşçasına yavaş ilerlediğini belirttiler. Pentagon, geçtiğimiz ocak ayında otomatik silah sistemlerini geliştirmek ve konuşlandırmak için karar verme sürecinde en azından bir insan unsuru olması gerektiğini söyleyerek yapay zeka da dahil olmak üzere silah sistemlerine ilişkin kılavuzunu güncelledi. Bunun yanında Pentagon, yapay zekanın ordunun çeşitli birimlerinde ve muharebe komuta merkezlerinde karar alma sürecine katılımını test ediyor.
ABD Başkanı Joe Biden yönetiminin, ABD’nin yapay zeka alanındaki üstünlüğünü sürdürmek için Çin’e ileri teknoloji, özellikle yarı iletkenler ihraç edilmesine karşı katı önlemler almasıyla Pentagon’un çalışmalarını hızlandırması bekleniyor.
Emekli General Wald, şunları söyledi:
“Yapay zekanın hedef önceleme sürecine yardımcı olabileceğini düşünüyorum. Pasifik bölgelerine erişimde ABD’ye kıyasla avantajlı olan Çin karşıtı stratejide faydalı olabilir. Bu da Tayvan’ın işgaline herhangi bir ortak tepkiyi engelleyebilir.”
Pentagon’daki Müşterek Yapay Zeka Merkezi’nin eski Direktörü Korgeneral John Jack Shanahan, 2019'da yaptığı bir konuşmada, “(ABD) Savunma Bakanlığı yapay zeka teknolojilerini sistemlerine entegre etmeye çalışırken, buna nükleer silahların komuta ve kontrolü dahil olmayacak” dedi.
Bir zamanlar insan kararına bağlı olan ölümcül silahların nasıl kullanılacağını belirlemede yapay zekanın rolünün farkında olduklarını belirten Korgeneral Shanahan, “Doğrudan tam otomatik ölümcül silah sistemlerine gideceğimizi söylemiyorum, ama yapay zekayı ölümcül silah sistemlerinde bize hayat kurtarabilecek ve savaşı caydırmaya ve hatta önlemeye yardımcı olabilecek rekabet avantajları sağlamak için kullanacağımızı söyleyebilirim” şeklinde konuştu.
Burada akıllara şu soru geliyor: Rusya, Çin ve diğer ülkeler, Pentagon’la aynı kuralları izleyecekler mi?
Emekli General Wald son olarak şunları ekledi:
“ABD’nin insanların kontrol edemediği şeylere izin veren bir yola girmesi gerektiğini düşünmüyorum, ama başkalarının da aynı yolu izleyeceğinden emin değilim. Ancak bu teknolojinin yanlış ellere geçmesi halinde makinelere ve bileşenlere çok fazla hareket özgürlüğü sağlaması en büyük endişe kaynağıdır.”
*İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe’nin editöryal politikasını yansıtmayabilir.
Şarku'l Avsat