“İnsanlar bir zamanlar düşünme yeteneklerini makinelere bırakarak özgürleşeceklerini umdu. Ancak bu durum, makineleri olan insanların diğerlerini köleleştirmesine yol açtı.” ― Frank Herbert, Dune
Eskiden bilgisayarlar, bugünün modern standartlarıyla kıyaslandığında oldukça ilkel sayılırdı. Saniyede yalnızca yüz binlerce işlem yapabiliyorlardı, hafızaları çok küçüktü ve birbirleriyle bağlantılı değillerdi. Günümüzde ise aynı makineler, saniyede milyarlarca işlem gerçekleştirebiliyor ve neredeyse tümü birbirine bağlı bir ağın parçası hâline gelmiş durumda. Brian Herbert ve Kevin J. Anderson tarafından kaleme alınan ve Dune evrenini derinleştiren Butleryan Cihadı, ilk romanın yayımlandığı 1965 yılından çok sonra, 2002’de piyasaya çıktı. Eser, dönemin ötesinde fikirlerle doluydu. Yapay zekâ o yıllarda bugünkü kadar popüler değilse de, geleceği şekillendirecek anahtar kavramlardan biri olarak öngörülüyordu. Sadece elimizde, o dönemde bu fikri gerçeğe dönüştürecek teknoloji yoktu.
Örneğin, 1949’da Edmund Berkeley, Dev Beyinler; ya da Düşünen Makineler adlı kitabında şöyle yazıyordu:
“Son zamanlarda, bilgiyi muazzam bir hız ve beceriyle işleyebilen tuhaf dev makineler hakkında epey haber çıktı. Bu makineler, et ve sinirler yerine donanım ve kablolardan oluşmuş bir beyne benziyor. Böyle bir makine bilgiyi işleyebilir, hesaplayabilir, sonuç çıkarabilir ve seçim yapabilir; bilgiyle mantıklı işlemler gerçekleştirebilir. Dolayısıyla bir makine düşünebilir.”
Butleryan Cihadı

Butleryan Cihadı, ilk Dune romanında anlatılan olaylardan yaklaşık 10.000 yıl öncesini konu alan, evrenin arka planını oluşturan bir hikâye. Düşünen makinelere karşı verilen isyanı işlerken, yapay zekâya aşırı bağımlılığın tehlikelerini açıkça gözler önüne sermesiyle de büyük öneme sahip. Dune, teknolojinin insanlığa hükmetme potansiyeli konusunda uyarıcı bir mesaj veriyor. Otomatik sistemlere teslim olmak yerine, insan muhakemesi ve zekâsının korunmasını savunuyor. Ana fikir şu: Eğer yapay zekâya aşırı güvenmeye başlarsak, bizi insan yapan temel özelliklerimiz -karar verme yetimiz, yaratıcılığımız ve muhakeme becerimiz- yavaş yavaş kaybolabilir.
Herbert’ın uyarısını benzersiz kılan şey ise bakış açısı. Çoğu bilimkurgu eseri, yapay zekâyı insan değerleriyle çelişen, bizi kontrol altına alan ve öz farkındalığı olan süper zekâlı makineler üzerinden işler. Yani klasik “yapay zekâ hepimizi yok edecek” senaryosunu sahneler. Herbert ise farklı bir perspektif sunuyor: Tehlike makinelerde değil, onları yaratan biz insanlarda diyor. Bunu Dr. Frankenstein örneğiyle açıklayabiliriz. Herbert’ın odaklandığı konu, yaratılan canavardan ziyade Dr. Frankenstein’ın kendisi. Yarattıklarımızdan önce, kendi sorumluluklarımızı ve sınırlarımızı sorgulamamız gerektiğini hatırlatıyor.
Yapay Zekâ Bir Lütuf mu, Yoksa Bir Lanet mi?

Dune evreninde, insan zekâsını taklit eden makinelerin yaratılmasını yasaklayan temel dini metin Orange Katolik İncili. Bu kutsal metinde şöyle bir kural var: “İnsan zihnine benzeyen makine yapmayacaksın.” Söz konusu yasak sadece basit bir kural değil, insanın kendi zekâsını ve muhakeme yetisini koruma ihtiyacının da bir simgesi aslında.
Yapay zekânın doğası gereği iyi veya kötü olduğuna inanmak abes. Asıl risk, insanların onu nasıl kullanmayı seçtiğiyle ilgili. Örneğin interneti ele alalım: Kötü amaçlarla kullanılabileceği gibi bilgiyi demokratikleştirmek, olumlu mesajlar yaymak veya uzak bölgelerde eğitimi geliştirmek için de kullanılabilir. Yapay zekâ da benzer bir ikilem sunuyor. Onu yeteneklerimizi artırmak, tekrar eden veya külfetli işleri üzerimizden atmak için bir araç olarak kullanabiliriz. Ancak şunu aklımızdan çıkarmamalıyız: Yapay zekâ, kontrol mekanizması hâline gelerek karar alma, muhakeme ve yaratıcılık yetilerimizi de köreltebilir. Algoritmaların başkaları tarafından yönetildiği bir dünyada yapay zekâya aşırı güvenmek, insanın kendi özgür düşüncesini yavaş yavaş kaybetmesi anlamına gelebilir.
Ön Yargılı Bilginin Tehlikesi

Dolayısıyla Dune’un uyarısı yapay zekânın doğasıyla değil, insanların bağımsızca ve kendi adına düşünmek yerine ona aşırı güvenmesiyle ilgili. Karar alma ve muhakeme süreçlerimizi başkalarına devredersek yapay zekâ bizi düşüncesiz makinelere dönüştürebilir. Hatta “ne düşünmemiz isteniyorsa” onu düşünen birer otomat hâline bile gelebiliriz.
Yapay zekâ algoritmaları ön yargılı bilgilerle beslenirse sonuç da ön yargılı olur. Örneğin 2023’te ChatGPT, Trump’ın “olumlu nitelikleri” hakkında bir şiir yazmayı reddettiğinde sert eleştiriler aldı. Gerekçe olaraksa sistemin “taraflı, ön yargılı veya politik içerik üretmeye programlanmamış olması” ve liberal bir eğilim taşıması gösterildi. Oysa aynı algoritma, Joe Biden’ı “çok dürüst kalpli bir lider” olarak tasvir edebiliyordu.
Sam Altman bile ChatGPT’nin “ön yargı konusunda eksiklikleri” olduğunu kabul ediyor. Bu durum, Herbert’ın uyarısının ne kadar isabetli olduğunu gösteriyor. Çünkü tehlike yapay zekâda değil, insan doğasının diğer insanları denetleme ve manipüle etme arzusu ile bunu destekleyen algoritmaların birleşiminde.
Kaynak: Medium