Alan Turing’in kim olduğunu bilmeyen varsa bu durum çok yakında değişebilir. Pek uzak olmayan bir gelecekte bu ismi sıkça duymaya başlayacağımızdan emin olsak da, biz yine de kısaca tanıtalım: Bu dâhi bilim insanı bilgisayar bilimine yaptığı katkılarla ünlenmiştir. Ama sıradan insanlar onu 1950’lerde ortaya attığı ve günümüzde “Turing Testi” olarak bilinen ünlü bir düşünce deneyiyle hatırlar. Buna göre bir görüşmeci, başka bir odada bulunan ve yüzlerini göremediği biri insan, diğeri makine iki varlıkla metin tabanlı bir ara yüz aracılığıyla sohbet eder. Sohbetin sonunda görüşmeci tarafından kimin makine kimin insan olduğu ayırt edilemiyorsa, o zaman makinenin bilinçli olduğunu ileri sürebiliriz.
Çok basit görünüyor değil mi? Yüzlerini görmediğiniz varlıklara klavye aracılığıyla dilediğiniz soruyu sorabilirsiniz. Bir süre sonra hangisinin bilgisayar hangisinin insan olduğunu anlayabilir miyiz? Makine ya da insandan birinin kimliğini belli edecek bir açık vereceğinden neredeyse eminiz. Beklentimiz bu yöndedir. Ama gerçekten de öyle olacak mı? Bu yaklaşım, günümüze kadar makineler için bir tür “bilinç” testi olarak kullanılagelmiştir. Elbette bu standart bir test değildir ve şu ya da bu şekilde bilimsel bir geçerliliği de yoktur. Yine de bu durum bilgisayar bilimcilerinin Turing testini geçebilecek yapay zekâ algoritmaları oluşturmaya çalışmalarını önlememiştir. Birçok yazılımcı yapay zekâlı sohbet programları üretmiş ve bunları internet üzerinden insanlara ulaştırmıştır.
Turing, makinelerin gerçekten düşünüp düşünemeyeceğinin anlamsız bir soru olduğuna inanıyordu. Bununla birlikte, “Turing testi” makine zekâsı için bir ölçüt hâline geldi. On yıllar boyunca çeşitli bilgisayar programları ucuz hilelerle testi geçmek için yarıştı ve bazıları da bir miktar başarı elde etti. Son yıllarda, Google, Facebook ve OpenAI gibi güçlü teknoloji firmaları, “büyük dil modelleri” olarak bilinen, eski çağların ilkel sohbet robotlarının çok ötesinde konuşma yeteneklerine sahip yeni bir yazılım sınıfı geliştirdi. Bu modellerden biri olan Google’ın LaMDA’sı, Google mühendisi Blake Lemoine’i kendisinin yalnızca zeki değil, aynı zamanda bilinçli ve duygulu olduğuna ikna etti. Bir Google uzmanı bile yapay zekâ konusunda etki altına alınabiliyorsa, bilgisiz kitlenin ne denli kolay manipüle edilebileceğini düşünün.
Alandaki birçok kişiye göre LaMDA’nın Turing testindeki dikkate değer başarısı, kutlanacak bir başarı değildir. Bilakis, testin yapay zekâ için artık bir kıstas olarak kullanılamayacağına, bir başka deyişle raf ömrünü doldurduğuna işaret ediyor. Bilişsel bilimlerle uğraşan ve “Yapay Zekâyı Yeniden Başlatmak” kitabının yazarlarından Gary Marcus, “Bu testler zekâyı tespit etmiyor,” diyor. Ona göre kimi yazılımlar belirli koşullar altında kendini insan olarak gösterebilme yeteneği kazandılar, hepsi bu. Üstelik bu durum toplum için pek de iyi bir şey olmayabilir. Marcus, LaMDA gibi insan benzeri düzyazı veya konuşma üreten programlar hakkında, “Bunun gerçek anlamıyla zekâya doğru bir ilerleme olduğunu düşünmüyorum,” diyor. “Bu sadece zekânız olduğuna dair insanları kandırmaya yönelik bir hamleden ibaret.”
Sektörde Lemoine gibi safdillerin sayısı çok değil elbette. Google bünyesindeki yapay zekâ uzmanları kadar şirket dışındakiler de adı geçen yazılımın içsel yaşam gibi bir şeye sahip olmadığını ve muhtemelen de sahip olamayacağını gayet iyi biliyor. LaMDA’nın yakın zamanda Terminator filmlerindeki kötü niyetli Skynet’e dönüşmesinden korkmaya gerek yok. Ama artık Turing’in öngörülerinin gerçekleşmeye başladığını hesaba katınca başka bir şey için endişelenmemiz gerektiği anlaşılıyor: Bilgisayar programlarının, gerçekte öyle olmasalar bile, kendi iradeleri varmış gibi görünmeleri…
GPT-3, DALL-E ya da Midjourney gibi son teknoloji ürünü yapay zekâ programları, devasa büyüklükte veri kümelerini analiz ederek muazzam bir bilgi işlem gücüyle insan elinden çıkmış ya da gerçek hayattan alınmış gibi görünen imge ve metinler oluşturabiliyor. Bu görüntü ve metinleri ilk kez gören kişilerin ilk tepkisi, “Bunu bir makine yapmış olamaz!” ya da “Bu kesinlikle bir fotoğraf!” şeklinde yaygara koparmak oluyor. Ayrıntılar, konunun ele alınışı, sanatsal yaratıcılık ve çarpıcılık yönünden bazı görüntüler öylesine şaşırtıcı ki insan, “Acaba yapay zekâ sonunda Turing testini geçti mi?” diye sormadan edemiyor.
Sözü geçen yazılımlar, 1960’ların sohbet botu ELIZA’nın yaptığı gibi otomatik yanıtlar üretmenin çok ötesine geçmiş durumda. Midjourney, kullanıcıların yönergelerine uygun tarzda atmosferler yaratabiliyor. Üstelik ortaya çıkardığı görüntülerin birçoğu insan sanatçıların elinden çıkmış gibi üstün nitelikte. Şu an dünyanın birçok ülkesinde sanatçılar harıl harıl Midjourney komutları üzerinde deneyler yapma peşinde. Grafikerler, ressamlar, hikâye anlatıcıları, film yapımcıları, reklamcılar, klip yönetmenleri önlerine serilen bu yeni olanakların sınırlarını araştırmakla meşgul. Bu konudaki şaşırtıcı çabaları bir başka yazımıza saklıyoruz.
Öte yandan doğal dil işleme, sesli yanıtlar verme ve çeviri hizmetlerinde büyük gelişmeler oluyor. Arama motorları cümleleri çok isabetli biçimde tamamlıyor; Apple’ın Siri’si ve Amazon’un Alexa’sı gibi sesli asistanlar istediğimiz bilgileri önümüze seriyor; Google’ın çeviri makinesi neredeyse olduğu gibi kullanabileceğimiz anlamlı ve kaliteli çeviriler yapıyor. Metin oluşturucular birçok lise öğrencisinin kompozisyonlarından daha iyi bir üsluba sahip okunaklı metinler oluşturabiliyor.
Yapay zekâ sektörünün Turing testini bir ölçüt olarak kullanmaktan vazgeçtiğini bir kez daha belirtmekte fayda var. Büyük dil modellerinin tasarımcıları, artık genel dil anlama değerlendirmesi (veya GLUE) ile Stanford veya SQuAD gibi testlerde yüksek puan almayı hedefliyor. ELIZA’dan farklı olarak LaMDA, kendinin insan olduğuna herkesi inandırmak amacıyla geliştirilmedi. Yine de tüm sorulara mantıklı yanıtlar verme konusunda oldukça başarılı. Ancak yapay zekânın insan gibi algılanmasının büyük şirketlerin hoşuna gittiği ve bunun aksi çabaları hoş görmedikleri anlaşılıyor. Yapay zekâ etik uzmanı Margaret Mitchell ve eski meslektaşı Timnit Gebru, büyük dil modellerinin zeki görünmek için çeşitli taktik ve kandırmacalara başvurmasının yarattığı riskleri vurgulayan bir makaleye imza attıktan sonra Google tarafından sırasıyla 2021 ve 2020’de kovuldu.
Google, Lemoine’nin görüşlerini arkalamıyor gibi görünse de, bünyesindeki bazı mühendislerin zaman zaman yapay zekânın insanları kandırma kapasitesiyle övündüklerine şahit oluyoruz. Örneğin Jeremy Kahn’ın Fortune haber bülteninde (Eye on AI) belirttiği gibi, Duplex adlı bir sesli asistanın “eee” ve “hı-hı” gibi ifadeler kullanarak insanlara yazılımı gerçek bir operatör gibi göstermeye çalıştıklarını itiraf etti (Gelen tepkilerden sonra Google, Duplex’in kendisinin bir otomatik yazılım olduğunu mutlaka bildireceğine dair söz verdi). Kahn’a göre Turing testinin sıkıntısı kandırmacaya dayalı olarak tasarlanması. Bu yüzden de terk edilmeli. Gerçi sektör zaten Turing testi yerine daha bilimsel ve geçerli test etme yöntemlerine yönelmiş durumda. Ancak Lemoine vakası, belki de Turing testinin makinelerin insan sesi çıkarma konusunda iyice ustalaştığı bir çağda farklı bir amaca hizmet edebileceğini düşündürüyor. Turing testi standart olmaktan çok bir tür tehlike alarmı olarak işlev görebilir: Onu geçebilen herhangi bir sistem insanları aldatma tehlikesi taşır.