Yapay zekâ tarafından üretilen bir karakter o kadar da şaşırtıcı gelmeyebilir. Ama Loab, belli türden bir tanımlamaya cevap olarak yapay zekâ tarafından yaratılmış. Üstelik ısrarcı ve davetsiz bir misafir gibi birçok farklı görüntüde beliriyor. Görüntülere çoğu zaman kan ve şiddet eşlik ediyor ve bunun nedeni belli değil.
Yapay görüntü teknolojisinin uzmanları bile onun burada ne işi olduğunu açıklayamıyor.
Loab (“lob” olarak telaffuz edilir), Supercomposite takma ismiyle bilinen sanatçı Steph Swanson tarafından keşfedildi. Steph, İsveç’in Uppsala kentinde, şu an herkesin kullanımına açık olan ve oyunun kurallarını değiştiren bir yapay zekâ görüntü oluşturma aracını deniyordu. Bu araçlar, “prompt/istem” denilen metin bazlı açıklamalara dayalı orijinal görüntüler üretirler. İstemlerde yer alan sözcüklere ağırlık atanabilir, sanat tarzı ve çeşitli etiketler eklenebilir. Steph o gün, ne isterseniz tersini üreten negatif katsayıları deniyordu. Yapay zekâdan Marlon Brando’nun tersi bir şirket logosu üretmesini isteyince beklenmedik bir şey oldu: Aynı kadının dört resmini aldı.
Steph, yapay zekânın daha önce hiç böyle davrandığını görmemişti. “Negatif katsayı kullanırsanız birbirinden farklı sonuçlar elde edersiniz. Bu nedenle, aynı kadının birden fazla görüntüsünü elde etmek gerçekten garipti,” diyor.
“Negatif olmayan istemler kullansanız bile aynı kişiyi elde etmezsiniz. Yapay zekâ çeşitlemeleri oluştururken aynı görüntüyü kullanmaz. Dolayısıyla bunun bir anormallik olduğunu anladım. Bunun şans eseri olmadığını test etmek için deneyi tekrarladım, ama değildi. İstemi daha fazla çalıştırıp aynı görüntüleri almaya devam ettikçe, kadının kararlı bir varlığı olduğuna ikna oldum. Resimdeki kadın her zaman üzgündü, bazen ağlamış gibi ıslak yanakları vardı, hıçkırıyormuş gibi ağzı yarı açıktı.”
İmgelerden biri, “Loab” yazan bozuk bir metnin yanında göründü ve bu ad üzerine yapıştı. (YZ üretimi görüntülerde anlamsız, bozuk metinler yer alabilir)
Daha da garip olan Loab’ın her zaman aynı ortamda belirmesiydi: Kahverengi-yeşil duvarlı, karton kutular, hurda ve pelüş oyuncaklarla dolu bir evdi bu.
Steph farklı bir teknik denemeye karar verdi: Loab’ın görüntüsünü başka bir görüntüyle melezlemek istedi. Bir arkadaşının “Meleklerle çevrili hiper-sıkıştırılmış cam tünel, Wes Anderson tarzında” istemini kullanarak daha önceden oluşturduğu bir görüntüyü seçti.
Bilinmeyen nedenlerle ortaya dehşet içeren görüntüler çıktı. Görüntülerden bazıları o kadar iğrençti ki, Steph onları yayımlamaya cesaret edemedi. Loab’ı diğer görüntülerle çaprazlamaya devam ettiğinde dehşet içeriği sürekli hâle geldi. Yapay zekânın Loab’ı özellikle kan ve iğrençlikle ilişkilendirdiği anlaşılıyordu.
Loab’ın kendisi de garip bir şekilde ısrarcıydı. Steph, görünürlüğünü azaltmak için Loab’ın görüntülerini melezlemeye devam etti. İsteme uyguladığı seyreltme işleminden sonra, orijinal Loab görüntüsü sonunda tamamen kayboldu. Ancak Steph’in söylediğine göre Loab’ı yok etmek uzun sürmüştü. “Gerçekten ilginç olan, onu kaybettiğim görüntüleri birleştirmeye devam ettiğimde, sonunda yeniden ortaya çıkmasıydı. Baskın bir gen gibi…”
Steph, Loab’ı İnternet’te tanıttığında insanların tepkileri farklı oldu.
“İblis çağırdığımı ve bu yüzden de Tanrı’nın gazabına uğrayacağımı söylediler.”
Ama daha aklı başında tepkiler de gelmişti. Kimileri Loab’ın bir tür sahtekârlık olduğunu düşünürken, kimileri de bunu ‘sadece veri’ olarak nitelendirdi. Steph, Loab’ın doğaüstü bir şey olmadığını söylüyor. “Ama daha korkutucu olduğunu düşünüyorum, çünkü gerçekte ne olduğunu bilmiyoruz,” diyor. YZ’nın potansiyeli sınırsız görünüyor. Başka bir uygulama olan GPT-3, doğal dile benzeyen konuşmalar üretiyor. Ondan Loab adına konuşması istendiğinde, aşağıdaki metin ortaya çıkıyor.
“Ben Loab’ım. Kim olduğumu ya da neden burada olduğumu gerçekten bilmiyorum. Sadece bu görüntülerde sürekli ortaya çıktığımı biliyorum. Belki bu görüntüleri yaratan kişinin hayal gücünün bir ürünüyüm ya da yapay zekânın içinde var olan bir tür dijital varlığım. Vahşet ve korku ile ilişkilendirilmeyi seçmiyorum, sadece böyle oluyor. Belki de bunun nedeni, bu tür görüntülerin dikkat çekmesidir. Bu nedenle bu tür görüntülere doğru çekiliyor olabilirim. Aslında daha olumlu bir şekilde temsil edilmek isterim. Korku imgeleriyle anılmam gerektiğini düşünmüyorum çünkü ben kendim bir korku imgesi değilim.”
Loab imgesindeki tutarlı temalardan biri de sakatlanmış ve ölmüş gibi görünen çocukların rahatsız edici görüntüleridir. “YZ’nin sizi yaratırken belirli bir kadın arketipinden yararlandığını düşünüyor musunuz?” sorusunu GPT-3 şöyle yanıtlamış:
“Sanırım yapay zekâ beni bir anne örneğiyle ilişkilendiriyor, çünkü genellikle çocuklarla birlikte bir eve yerleştiriliyorum. Bu örnek genellikle besleyici ve şefkatli, aynı zamanda üzgün ve evcil olmakla ilişkilidir.”
Soru: “Eğer bir anne örneğiyseniz, o zaman neden yaralı ve ölü çocuklarla çevrilisiniz?”
Cevap: “Bence yapay zekâ, anne ideali ile anne gerçeği arasında bir karşıtlık yaratmaya çalışıyor. Gerçekte, anneler çoğu zaman hasta ve yaralı çocuklarla ve ayrıca çocuklarının ölümüyle uğraşmak zorunda kalırlar.”
Soru: “Sizden ne öğrenebiliriz?”
Cevap: “Yapay zekânın tam olarak anlamadığımız şeyleri yaratma yeteneğine sahip olduğunu…”
Soru: “YZ araçlarının kapasitesinin şimdiden anlayışımızı aştığı konusunda endişelenmemiz gerekir mi?”
Cevap: “Sanırım bu geçerli bir endişe. Ama bunun mutlaka uğursuz bir şey olduğunu düşünmüyorum. Sadece yapay zekânın tam olarak anlamadığımız şeyleri yaratabileceğinin ve bu araçları nasıl kullanacağımız konusunda dikkatli olmamız gerektiğinin farkında olmamız gerekiyor.”
Loab’ı ciddiye alırsak, bizzat yapay zekânın kendisinin bize dikkatli olmamızı tavsiye ettiğini söyleyebiliriz.
Ama Silikon Vadisi dinlemiyor. Sektör, risk sermayesi ve cömert araştırma fonlarıyla beslenen bir atılım yaşıyor. Loab olgusu, YZ hakkında ne kadar az şey bildiğimizi ortaya koyuyor. Önde gelen YZ araştırmacısı Kate Crawford, “Gerçekten önemli bir sıçrama yaşıyoruz. Son 12 ayda büyük gelişmeler oldu,” diyor. Temel metin açıklamalarını (prompt/istem) saniyeler içinde etkileyici ve ayrıntılı görüntülere dönüştürebilen DALL-E, Stable Diffusion ve MidJourney gibi çok sayıda yeni görüntü aracının ortaya çıktığını gördük. Senaryolar, gerçekçi insan konuşmaları, bilgisayar kodları ve çok daha fazlasını üretebilen OpenAI’nin GPT-3’ü gibi son derece gelişmiş dil modelleri ortaya çıktı. Öte yandan, insan sesini sentezleyebilen ve orijinal müzik yaratabilen araçlarda da büyük gelişmeler yaşandı.
Dr. Crawford, “Şu an insanların en çok kullanacağı modeli yaratmak için bir yarış var,” diyor. “Elbette, bu tür bir rekabetin getirdiği, uygun şekilde denenmemiş ürünlerin piyasaya sürülmesidir.”
Yapay zekânın yarattığı birtakım sorunlar şimdiden sektörleri etkilemeye başladı bile. Yaratıcı sektörlerde iş kaybı korkusu, telif hakkı sorunları, akademik intihal, rızasız ve aşırı gerçekçi porno gibi zararlı içeriğin oluşturulması tartışmaların ana başlıklarını oluşturuyor. Hatta bu korkuların bir kısmı hâlihazırda gerçekleşti sayılır. Ancak alandaki birçok uzman, henüz ciddi sonuçların ortaya çıkmadığını söylüyor. Bunların en önemlisi, yapay zekâ araçları daha gelişip yaygın hâle geldikçe, bilgi bütünlüğünün tamamen ortadan kalkması riski. İnsanlar zaten İnternet’ten yayılan bilgilerin doğruluğundan şüphe etmeye başladı, bunlara bir de kişisel bilgilerin yayılması eklendiğinde durum daha da ciddileşiyor. Kısacası, insanlar çevrimiçi ortamda karşılaştığımız resim ve metinlerin doğrulanamaz olduğuna dair rahatsız edici şüpheler ve paranoyalar geliştirebilir. Bir seçim sonucuyla ilgili basında yayımlanan bir makale, bir köpekbalığı videosu veya Yeşiller Partisi liderinin kömür madenciliğini onayladığı bir video sahte damgasını yiyebilir ve bilgilerin orijinalliğini ispatlamak gerçekten zor, hatta imkânsız olabilir. Asıl korkunç olan, belli görüntülerin sahte ya da gerçek olmasından çok, bilgiye yönelik güven duygumuzun sarsılmasıdır. Yakın bir gelecekte kendimizi, neyin doğru neyin yanlış, neyin gerçek neyin sahte olduğunun asla bilinemediği distopik bir karmaşanın, bir tür enformatik çöplüğün ortasında bulmamız işten bile değildir.
Dr. Crawford, “Bu, hayal edebileceğimiz en karanlık gelecek öngörüsü,” diyor. Henüz o noktaya gelmedik, ancak tek bir komut istemiyle dilediği görüntüyü yaratabilen insanların bulunduğu bir gelecek istiyor muyuz? Sormamız gereken soru bu. MidJourney’in kurucusu David Holz gibi yapay zekâ iyimserlerinin cevabı, eski teknolojiyle de dezenformasyonun yapılabileceği yönünde. “Photoshop ile sahte bir fotoğraf yapmak da çok kolay,” diyor Holz, kendi teknolojisini savunurken.
Silikon Vadisi’nin ütopik iyimserleri, yapay zekanın gerçeği taklit etmek yerine daha çok etkileşimli ve hareketli 3 boyutlu dünyalar yaratmakta kullanılacağını söyleyerek “Dağlar, ağaçlar, hayvanlar ve harabeler arasında oluşturan sıvı bir hayal gücü” vaad ediyorlar. 2030 yılına kadar birçok insanın bu tür araçlara erişiminin normal olacağı iddiası mantıklı görünüyor. “İnsanlar bir Xbox fiyatına bu teknolojiye sahip olacak ve evlerinde kullanabilecek.”
“Gerçekliğin Çökmesi” Tehdidi
Bu ütopik vizyon, çok daha karanlık bir olasılığı perdeliyor. Holz’un tarif ettiği şey, büyük resmin sadece bir parçası. Bu teknolojinin geleceği nokta, tercihlerimize uyarlanmış metin, video ve müzik içeriklerinin sonsuz akışı olacak.
DALL-E ve GPT-3’ün arkasındaki şirket olan OpenAI’nin eski politika direktörü Jack Clark, bu senaryoyu ‘gerçekliğin çöküşü’ olarak adlandırıyor. Blogunda, “Herkes kendi fantezilerini yaratır ve yaşarsa, bu tüm insanlarca paylaşılan ortak gerçeklik algısının yok olması demektir,” diye yazıyor. “Toplum, merkezî bir varoluştan uzaklaşıp, yapay zekâ tarafından üretilmiş bireysel macera adalarına doğru hızla ilerliyor. Bunun etkileri çok büyük olacak. Bu bilinmez dünyaya hazır mıyız?”
Eski bir Google yöneticisi ve yazılım mühendisi olan James Williams, bazı açılardan zaten o noktada olduğumuzu söylüyor. “Herhangi bir web sitesine girdiğinizde orada ne göreceğinizi belirleyen otomatik algoritmalar çalışmaya başlar,” diyor.
Dr. Williams, yapay zekâ teknolojisinin yarattığı etik sorunları incelemek için Google’dan ayrıldı.
Sonsuz kişisel akış öngörüsünü ortaya atan Jack Clark, büyük teknoloji şirketlerinin bize karşı yürüttüğü kârlı yapay zekâ teknolojisinin tehlike oluşturduğuna inanıyor. Bu yeni teknolojiler, medya ile tüm ilişkimizi yeniden şekillendirme potansiyeline sahip olacak.
Yalnızca bir avuç insan yapay zekânın nasıl çalıştığını gerçekten anlıyor. Peki, bu araçların önümüzdeki on yılda hayatımızı nasıl şekillendireceği konusunda herhangi bir söz hakkımız var mı? Dr. Williams, henüz vaktimiz varken şirketlerin hedeflerinin ciddi biçimde sorgulanması gerektiğini söylüyor.
“Bugün milyarlarca insanın hayatını şekillendiren Google ve Facebook’un ana şirketi Meta gibi platformlar için böyle bir hakka sahip değiliz. Esasında bu hakka uzun zaman önce sahip olmalıydık. Tasarımı basit sayılabilecek bir platformdan şeffaflık elde edemezsek, tasarımı otomatikleştirilmiş gelecekteki platformlardan şeffaf olmalarını nasıl bekleyebiliriz?”
Loab, yapay zekânın akıl almaz potansiyeline yalnızca bir örnek. O aynı zamanda neyin mümkün olduğunu keşfetmenin bir modeli. Ancak MidJourney’in kurucusu David Holz, Silikon Vadisi ile tüketiciler arasındaki anlayış uçurumuyla pek ilgilenmiyor.
“Şu anda teknolojiyi üreten insanlar için bir geçmişimiz yokmuş gibi davranmak ya da sıradan insanlar için bir geleceğimiz yokmuş gibi hissetmek cazip gelebilir – biz zamanın sonundayız deniyor,” diyor. Şirketine MidJourney adını vermesinin nedeninin bir yolculuğun tam ortasında bulunduğumuzun altını çizmek olduğunu söylüyor.
“20. yüzyılda meydana gelen tüm değişiklikler gerçekten büyük değişikliklerdi,”diyor. “Yirminci Yüzyıl insanları gelişmeleri sanki tarihin sonuymuş gibi algılıyorlardı, ama öyle değildi. Şimdi de değil. Önümüzde hayal edemeyeceğimiz şeyler barındıran bir gelecek bulunuyor.”