Yapay zekânın hızla yaklaştığı göz önüne alındığında, bu teknolojiye sahip bir geleceğin nasıl görünebileceğini belirlememiz oldukça önemli. Hatta Stephen Hawking ve Nick Bostrom gibi bazı tanınmış şahsiyetler, yayımlanan bir açık mektupla gelecekteki süper zeki makinelerin insan kontrolü altında kalmasını sağlamak için ihtiyati tedbirlerin araştırılmasını savunmuştu. Popüler kültürde tasarlandığı şekliyle özerk ve uzman sistemlere sahip bir yapay zekâ henüz mevcut değil. Akıllı telefonlar, süper bilgisayar olmayabilir ama işletim sistemlerinin çalışma prensibi iyi bir nedenden ötürü “akıllı” olarak adlandırılıyor. Aynı şekilde, bir bilgisayar oyununun “yapay zekâsından” bahsetmek de mümkün, fakat oyuncular onun sınırlamalarından ve yaratıcı bir şekilde “düşünememesinden” yararlanmayı çabucak öğreniyor. Haliyle bu bahsi geçen sınırlı sistemlerle (AI), bir insanın genel zekâsına ve yeteneklerine sahip Yapay Genel Zekâ (AGI) veya “güçlü AI” olarak adlandırılanlar arasında önemli bir fark var.
Yapay zekâ araştırmalarının önemi ve sonuçlarının keşfedilmesi, hem ABD hem de İngiliz hükümetlerinin potansiyel ekonomik ve sosyal etkilere odaklanmalarını sağladı. Ancak politikacılar, bilimkurgunun kendilerine insanların tutumu hakkında neler söyleyebileceğini düşünse iyi olur. Şüphesiz bu yapay zekâ ile ilgili en büyük sorunlardan biri. Kültürel anlayışımız bilimkurguda temsil ediliş biçimleriyle şekillenir ve yapay zekânın her zaman AGI (yapay genel zekâ) anlamına geldiğine dair bir varsayım vardır, ki bu doğru değildir. Yapay zekânın kurgusal temsilleri, teknolojiye karşı tutumlarımız hakkında çok daha fazlasını ortaya koyuyor (bazen bunu unutuyor gibi görünsek bile). Bu nedenle bilimkurgu, ileride yapay zekâya verilebilecek kitlesel tepkileri değerlendirmemizi ve gerekirse ortaya çıkan sorunları düzeltebilmemizi sağlayacak değerli bir kaynak olabilir.
Ben, Robot ve Robo-etik Problemi
Alex Proyas‘ın Isaac Asimov hikayelerinden uyarladığı Ben, Robot (2004)‘ta bir dedektifin, robotlara olan güvensizliğinin nedenini öğrendiğimiz içten bir sahne var. İki arabanın bir nehre düştüğü kazada, bir robot dedektifi kurtarmanın çocuğu kurtarmaktan daha iyi olduğuna hükmediyor, çünkü dedektifin hayatta kalma şansı daha yüksek. Böylece sahne, yapay zekânın insanlık dışılığını ve çocuğu kurtarmayı seçecek olan dedektifin insanlığını göstermeye çalışıyor. Yani tüm Hollywood parlaklığına rağmen yapay zekâ araştırmalarıyla ilgili temel etik sorunların bir göstergesini sunuyor: Yapay zekâyı “ahlâki” olmamakla, yalnızca kodlanmış bir davranış modeli sergilemekle suçluyor. Ancak robot, sahiden de yanlış mı yapıyor? Bir hayatı kurtarmak, iki kişiyi kaybetmekten daha iyi değil mi? Burada acil durum önceliği “insanlık dışı” olarak değil, gerekli olarak görülüyor. “Daha büyük iyilik” argümanı yüzyıllardır tartışılmaya devam ediliyor. Bahsi geçen durumda ise dedektif haydut bir yapay zekâ olan VIKI’nin yıkımını engelleyerek insanlığa büyük bir “iyilik” yapıyor. Anlayacağınız, çocuğun yerine dedektifi kurtaran robotun kararı, günün sonunda yine “doğru” çıkıyor.
Bu kararın verildiği bağlam, robotun yüzdelik parametrelerle sınırlı olsa da, herhangi bir sayıda endişeyi de hesaba katabilir. Eğer çocuğu kurtarmak temelde duygusal bir yaklaşımsa, o halde gösterilen duygusal tepki doğru mudur? Yapay zekânın geleceğiyle ilgilenen bir toplum olarak karşılaştığımız en önemli sorunlardan biri, evrensel olarak uygulanabilir olduklarına inanmak istediğimizde makine zekâsının aslında kendi ahlaki kodlarımızın olasılığını gösterebilmesidir. O vakit sorun robotun yanlış olması değil, aslında doğru olabileceği ihtimali midir?
Yapay Zekâ ile Etkileşim
Yapay zekânın temsil biçimleri bizleri hemen hemen aynı sonuca götürür: Yapay zekâ insanlık dışıdır ve bu nedenle tehlikelidir. Tıpkı Ben, Robot’taki VIKI gibi, Asimov’un üç yasasının (insanları korumak için tasarlanmış) başka bir “mantıklı” yorumunu bulduğu için insanlığa karşı geliyor. Yapay zekânın dünyayı ele geçirdiği çok sayıda hikaye ve film var. Nasıl sinsi olduklarına ve insanlığı nasıl doğrudan kontrol edeceklerine veya kimi grupların toplumun tüm kontrolünü ele geçirmesine nasıl olanak tanıdıklarına dair daha pek çok kurguyla karşılaştık. Ancak insanlıkla nasıl işbirliği yapabilecekleri konusunu işleyen eserlerin sayısı çok daha az. Hükümetler vatandaşlarını izlerken ya da şirketler verilerimizi çözümlerken kopmayan patırtı, yapay zekânın bunu yapma ihtimali belirdiğinde ayyuka çıkabiliyor.
Belki de çözüm, yapay zekânın nasıl sınırlandırılacağını düşünmek ve insan etiğini öğretmek. Ancak yapay zekâyı etiğe uygun davranması konusunda kim eğitecek, bu eğiticilere ne kadar güvenebileceğiz? Başka bir deyişle, kimin etik standartlarına göre eğiteceğiz? Microsoft’un Tay ile yaşadığı son sorunlar göz önüne alındığında, burada açıkça görülüyor ki yapay zekâ için çok da uygun rol modeller olmadığımız ortada. Robotların kendi başına düşünüp karar almasına güvenmiyoruz ve onları eğitmek için kendimize de güvenmiyoruz. Soru şu: Bu durumda yapay zekâ ne yapacak?