Dünyaca ünlü fizik kuramcısı ve uzay bilimci Stephen Hawking, Johnny Depp ve Morgan Freeman’ın yeni filmi ‘Transcendence’ (Üstünlük) vesilesiyle bir kez daha gündeme gelen yapay zeka hakkında ‘alarm zilleri‘ çaldı. Hawking, ‘Yapay Zeka deneylerinin kontrolden çıkıp dünyanın sonunu getirebileceğini’ yazdı.
Hawking, İngiliz gazetesi The Independent’ta yayımlanan makalesinde, “Bu teknoloji mali piyasaları zekasıyla alt edebilir, insan araştırmacılardan daha iyi icatlara imza atabilir, insan liderleri manipüle edebilir ve bizim anlayamayacağımız silahlar geliştirebilir. Yapay Zeka’nın kısa vadedeki etkisi onu kontrol edenlere bağımlı olsa da, uzun vadedeki etki kontrol edilip edilemediğine bağlı olacak” ifadesini kullandı.
Makale özetle şöyle:
Tarihin en kötü hatası olabilir
İnsanlığın geleceğine dair çelişen vizyonları anlatan, Johnny Depp ve Morgan Freeman’ın rol aldığı Hollywood filmi Transcendence vizyona girmişken, son derece akıllı makineleri sadece bilim kurgu gibi görmek çekici. Fakat bu bir hata olacaktır; hatta tarihimizde yaptığımız en büyük hata olabilir.
Daha hiçbir şey görmedik
Yapay Zeka (YZ) üzerine araştırmalar artık çok hızlı ilerliyor. Kendi kendini süren arabalar, Jeopardy! yarışmasını kazanan bilgisayar veya Siri, Google Now ve Cortona gibi dijital kişisel asistanlar benzeri dönüm noktaları, daha önceden görülmemiş bir yatırımın ateşlediği ve giderek olgunlaşan bir teorik temele dayanan bir bilgi teknolojisi yarışının semptomlarından ibaret. Bunlar, muhtemelen gelecek onyıllarda elde edilecek başarıların yanında sönük kalacak.
İnsanlık tarihinin en büyük olayı
Potansiyel yararlar son derece fazla. Medeniyetin sunduğu her şey insan zekasının ürünü; dolayısıyla bu zekanın YZ’nin araçlarıyla katlanarak büyütülmesi halinde neler başarabileceğimizi tahmin edemeyiz. Fakat herhalde, savaş, hastalık ve açlığın kökünün kazınması herkesin listesinde üst sıralarda yer alacaktır. YZ’yi yaratmakta başarı sağlanması, insanlık tarihinin en büyük olayı olacaktır.
Orduların planları endişe verici
Ne yazık ki, risklerden kaçınmanın yollarını öğrenmezsek, son olayı da olabilir. Ordular yakın vadede, hedeflerini kendileri seçip yok edebilen otonom silah sistemleri geliştirmeyi düşünüyor. BM ve İnsan Hakları İzleme Örgütü, bu tür silahların yasaklanması için bir anlaşma yapılmasını önerdi.
Orta vadede, Erik Brynjolfsson ve Andrew McAfee’nin ‘İkinci Makine Çağı‘ isimli kitaplarında vurguladığı gibi, YZ ekonomimizi, hem büyük bir zenginlik getirecek, hem de çok sayıda insanın yerinden olmasına yol açacak şekilde dönüştürebilir.
İnsandan akıllı olmasını engellemek fiziksel olarak imkânsız
Daha da ileri bakıldığında, YZ ile neler yapılabileceğinin hiçbir sınırı yok: Partiküllerin, insan beyinlerindeki partikül düzeninden daha gelişmiş hesaplamalar yapacak biçimde biraraya gelmesini engelleyecek bir fizik kuralı bulunmuyor. Olaylar filmdekinden farklı gelişebilecek olsa da, patlama etkisi yaratacak bir geçiş mümkün.
Kendi kendini geliştimesi zor değil
Irving Good’un 1965’te farkına vardığı gibi, insanüstü zekaya sahip makineler kendi tasarımlarını tekrar tekrar geliştirebilir; bu da Vernor Vinge’ın ‘eşsizlik’ diye nitelediği veya Johnny Depp’in filmdeki karakterinin ‘üstünlük‘ dediği durumu tetikleyebilir.
Liderleri manipüle edebilir
Bu teknoloji mali piyasaları zekasıyla alt edebilir, insan araştırmacılardan daha iyi icatlara imza atabilir, insan liderleri manipüle edebilir ve bizim anlamamızın bile mümkün olmadığı silahlar geliştirebilir. Yapay Zeka’nın kısa vadedeki etkisi onu kontrol edenlere bağımlı olsa da, uzun vadedeki etki kontrol edilip edilemediğine bağlı olacak.
Tehlikenin boyutu gözardı ediliyor
O zaman, hesaplanması mümkün olmayan yarar ve risklerle dolu olası gelecek senaryoları karşısında, uzmanlar en iyi sonucun alınmasını sağlamak için ellerinden geleni yapıyor, değil mi? Hayır, yapmıyorlar.
Eğer bizden daha üstün olan yabancı bir medeniyet “Birkaç onyıl sonra oraya geleceğiz” dese, “Tamam gelmeden önce arayın ki, ışıkları açık bırakalım” yanıtını mı verirdik? Muhtemelen hayır. Fakat YZ konusunda yaşanan hemen hemen bu.
Hepimiz kafa yormalıyız
İnsanlığın başına tarihi boyunca gelebilecek en iyi veya en kötü şeyle karşı karşıya olmamıza rağmen, bir dizi kâr amacı gütmeyen entstitü dışında bu meseleler hakkında çok az ciddi araştıma yapılıyor. Hepimiz kendimize, YZ’nin meyvelerini toplayıp risklerinden kaçınmak için neler yapabileceğimizi sormalıyız.