Algoritma, belli bir problemi çözmek veya belirli bir amaca ulaşmak için tasarlanan yoldur. Genellikle bilgisayar programlamada kullanılır ve tüm programlama dillerinin temeli algoritmaya dayanır. Aynı zamanda algoritma tek bir problemi çözecek davranışın, temel işleri yapan komutların veya deyimlerin adım adım ortaya konulmasıdır ve bu adımların sıralamasına çok dikkat edilmelidir. Astronomi, biyoloji veya iklim araştırmalarındaki büyük atılımlar söz konusu olduğunda, neredeyse hiç kimse bunlara katkıda bulunan algoritmaları düşünmez. Ancak hemen hemen her araştırma sonucunun arkasında güçlü bir program kodu bulunur. 2019 yılında Event Horizon Teleskop ekibi, dünyanın ilk kara delik görüntüsünü canlı yayında bütün dünyaya gösterdi. Ancak grubun ortaya çıkardığı parlayan, halka şeklindeki nesnenin görüntüsü geleneksel bir fotoğraf değildi. Amerika Birleşik Devletleri, Meksika, Şili, İspanya ve Antarktika’daki radyo teleskopları tarafından yakalanan büyük miktarda veriden yola çıkılarak oluşturulmuştu. Fizikçiler, temel alınan program kodunu yayımladı ve sonuçlarını birkaç uzmanın makalesi ile de belgeledi. Bunu yaparken, diğer bilim insanlarının yaklaşımlarını anlamalarını ve kontrollerini bunun üzerine inşa etmelerini sağlamak istediler.
Bilgisayar bilimi sadece bu bilimsel buluşta önemli rol oynamadı. Astronomiden zoolojiye, neredeyse modern zamanların her büyük keşfinin arkasında artık bir bilgisayar var. Bugünün bilgisayarları yaklaşık 10.000 kat daha fazla belleğe ve 50 yıl öncesine göre çok daha yüksek bir saat frekansına sahip, bu da araştırma için tamamen yeni olanaklar sunuyor. Kimyasal yapıları modelleme çalışmaları nedeniyle 2013 yılında Nobel Kimya Ödülü’nü alan California’daki Stanford Üniversitesi’nden biyolog Michael Levitt, “Sorun programlamanın hâlâ çok fazla uzmanlık bilgisi gerektirmesi,” diyor. Bu yüzden “bilgisayar bilimcilerine” ihtiyacımız var. Çünkü güçlü bilgisayarlar, doğru yazılım ve onları kullanmayı bilen araştırmacılar olmadan işe yaramaz. Bu yazıda, büyük başarıların perde arkasına bir göz atıyoruz ve son birkaç on yılda ileri araştırmalara sahip bilgisayar bilimindeki en büyük on gelişmeyi sunuyoruz.
Dil Öncüsü: Fortran Derleyicisi (1957)
İlk modern bilgisayarlar tam olarak kullanıcı dostu değildi. Devreleri kablolarla bağlayarak kelimenin tam anlamıyla elle programlandılar. Daha sonra makine ve montaj dilleri, kullanıcıların program kodu yazmasına izin veriyordu. Fakat bu son derece karmaşıktı. Çünkü altında yatan bilgisayar mimarisini son derece hassas bir şekilde anlamanız gerekiyordu. Bu, birçok bilim insanının bilgisayarlarla çalışmasını engelliyordu. 1950’lerde sembolik programlama dillerinin ortaya çıkmasıyla birlikte bu durum değişti. Özellikle bilgisayar bilimcisi John Backus San José, IBM’deki meslektaşlarıyla birlikte geliştirdiği Fortran ile sembolik programa dilleri, bilim insanlarının işini kolaylaştırdı. Fortran sayesinde kullanıcılar bilgisayara x = 3 + 5 gibi anlaşılır talimatlar verebildiler. Daha sonra bir derleyici, talimatları bilgisayarların işleyebileceği verimli makine koduna çevirdi.
Bu buluştan önce kodu girmek çok karmaşıktı. Tek bir simülasyon için on binlerce delikli karta ihtiyacınız vardı. Yine de, New Jersey’deki Princeton Üniversitesi’nden klimatolog Syukuro Manabe o günleri çok iyi hatırlıyor, Fortran bilgisayarları, bilgisayar bilimcisi olmayan araştırmacılar içinde bilgisayarları erişilebilir hâle getirdi. “İlk kez bilgisayarları kendi başımıza programlayabildik,” diyor Syukuro Manebe. 70 yıldan fazla bir süre sonra bile, Fortran karmaşık lineer cebir içeren ve güçlü bilgisayarlar gerektiren, örneğin iklim modellemesi veya akışkanlar dinamiği gibi araştırma alanlarında hâlâ yaygın olarak kullanılıyor. Çünkü dil hızlıdır ve birçok bilgisayar bilimci bu dilde ustalaşmıştır. Dünya çapında eski Fortran kodlarının hâlâ güvenilir bir şekilde çalıştığı çok sayıda süper bilgisayar ve laboratuvar bulunmaktadır.
Sinyal İşleme: Hızlı Fourier Dönüşümü (1965)
Radyo astronomları gökyüzünü taradıklarında, zamanla değişen çok sayıda karmaşık sinyal yakalarlar. Radyo dalgalarını incelemek için araştırmacıların rotalarına zamanın değil, frekansın bir fonksiyonu olarak ihtiyaçları vardır. Bunu yapmak için verileri “Fourier dönüştürmeleri” gerekir. Bununla birlikte bu matematiksel işlem, bir milyon hesaplama adımına karşılık gelen 1000 veri noktası N boyutundaki bir veri kümesi için N 2 hesaplamaları gerektirdiğinden oldukça verimsizdir. 1965’te Amerikalı matematikçiler James Cooley ve John Tukey, süreci hızlandırmanın bir yolunu buldular. Bunu yapmak için asıl sorunu verimli bir şekilde çözene kadar daha küçük alt görevlere böldüler. Sözde Hızlı Fourier Dönüşümü (FFT), N veri için yalnızca N log 2 (N) adıma ihtiyaç duyuyor. Bu, işlem hızını büyük ölçüde artırdı. 1000 puan için artış yaklaşık 100 kat, bir milyon için 50.000 kattı.
Ancak bu yöntemin tamamen yeni olmadığı ortaya çıktı. Ünlü matematikçi Carl Friedrich Gauß, 1805 gibi erken bir tarihte üzerinde çalışmıştı ama hiçbir yerde yayımlamamıştı. Sadece Cooley ve Tukey tarafından yazılan makale, dijital sinyal işleme, görüntü analizi, yapısal biyoloji ve daha pek çok alandaki uygulamaları açtı. Oxford Üniversitesi’nden Nick Trefethen, “Uygulamalı matematik ve mühendislikteki en önemli yöntemlerden biri, hızlı fourier dönüşümüdür,” diye açıklıyor.
Biyolojik Veritabanları (1965)
Veritabanları bilimsel araştırmanın çok önemli bir parçası olduğundan, karmaşık yazılımlar tarafından kontrol edildikleri gerçeğini gözden kaçırmak kolaydır. Son birkaç on yılda, elektronik sistemler daha büyük ve daha güçlü hâle geldi ve özellikle biyoloji olmak üzere birçok alanı etkiledi.Devasa genom ve protein veritabanlarını, Silver Spring ve Maryland’deki Ulusal Biyomedikal Araştırma Vakfı’nda biyoinformatikte öncü olan Margaret Dayhoff‘un çalışmalarına borçluyuz. 1960’ların başında, biyologlar proteinlerin amino asit dizilerini deşifre etmeye çalıştılar. Dayhoff o zaman farklı türler arasındaki evrimsel ilişkilere dair ipuçları aramak için bu bilgileri toplamaya başladı. 1965 yılında üç meslektaşıyla birlikte yayımladığı “Protein Dizisi ve Yapısı Atlası“, 65 proteinin dizileri, yapıları ve benzerlikleri hakkında bilgi içeriyordu. Tarihçi Bruno Strasser, 2010’da verdiği bir demeçte, “Belirli bir araştırma sorusuna bağlı olmayan ilk genom ve protein koleksiyonuydu. Dayhoff, verilerini delikli kartlarla kodladı, bu da bilgisayardaki veritabanını aramayı ve genişletmeyi mümkün kıldı,” dedi.
170.000’den fazla makromoleküler yapıyı kaydeden Protein Veri Bankası, 1971’de faaliyete geçti. On yıl sonra, San Diego’daki California Üniversitesi’nden evrimsel biyolog Russell Doolittle, Newat adında başka bir protein veritabanı oluşturdu. 1982’de ABD Ulusal Sağlık Enstitüleri tarafından sürdürülen ve bugün “GenBank” olarak bilinen DNA arşivi yayımlandı. Temmuz 1983’te bu kaynakların özellikle değerli olduğu görüldü. Doolittle ve Londra’daki Imperial Cancer Research Fund’dan biyokimyacı Michael Waterfield liderliğindeki iki ekip, bağımsız olarak şaşırtıcı bir keşifte bulundular. İnsan büyüme faktörünün dizileri ile maymunlarda kansere neden olan bir virüsteki protein arasındaki benzerliği fark ettiler. Bu durum, virüsler tarafından onkogenez (malign tümörlerin gelişimi) için nasıl bir mekanizma geliştirilmesi gerektiğini gösterdi. ABD Ulusal Biyoteknoloji Bilgi Merkezi’nin (NCBI) eski direktörü James Ostell, bunun sonucunda biyologların dizileri karşılaştırarak kanseri incelemeye başladığını açıkladı.
Ayrıca Ostell, bunun “nesnel biyolojinin başlangıcı” olduğunu da söylüyor. Bu gelişme sayesinde, hipotezlerini test eden deneylere ek olarak araştırmacılar, veri toplayıcıların asla düşünmemiş olabileceği belirli ilişkiler için serbestçe erişilebilen veri kümelerini inceleyebildiler. 1991’de NCBI programcıları, mevcut bilgileri birbirine bağlayarak olasılıkları genişletti. Örneğin, “Entrez ” veritabanı birkaç biyokimya veritabanıyla birbirine bağlıdır.
Hava ve İklim Tahmini: Genel Dolaşım Modeli (1969)
İkinci Dünya Savaşı’nın sonunda bilgisayar bilimi öncüsü John von Neumann, birkaç yıl önce hava durumunu tahmin etmek için yörüngeleri ve silah tasarımlarını hesaplayan bilgisayarları kullanıyordu. Princeton Üniversitesi’nden klimatolog Manabe, o zamana kadar bunun tamamen ampirik olarak yapıldığını söylüyor. Bu çalışmadan önce geleceğe yönelik tahminlerde bulunmak için ampirik değerlere ve varsayımlara dayanılıyordu. Von Neumann’ın ekibi ise fiziksel yasalara dayalı sayısal bir tahmin geliştirmeye çalıştı.
Hava tahmini ile ilgili denklemler on yıllardır biliniyordu, ancak pratikte çözülemiyordu. Kesin hava koşullarını belirlemeniz, ardından çok kısa bir süre içinde nasıl değişeceğini hesaplamanız ve bu prosedürü tekrar tekrar uygulamanız gerekiyordu. O kadar zaman alıcıydı ki, hava bilimcilerin çok zamanını alıyordu. Örneğin 1922’de Lewis Fry Richardson, altı saatlik bir tahmini hesaplamak için aylar harcamıştı. Yine de sonucun yanlış olduğu ve gerçekleşemeyecek fenomenler içerdiği ortaya çıktı. Ancak bilgisayar teknolojisinin ilerlemesi, bu soruna ulaşılabilecek bir çözüm getirdi. 1940’ların sonlarında, Princeton’daki İleri Araştırma Enstitüsü’nden von Neumann, hava durumu tahminleri için bir araştırma grubu kurdu.
Yaklaşık 15 yıl sonra, Princeton’daki Jeofizik Akışkanlar Dinamiği Laboratuvarı’ndaki ikinci bir ekip, şimdi iklim modellemesi olarak bilinen bir “sonsuz tahmin” üzerinde çalışmaya başladı. 1958 yılında araştırmacılara katılan Manabe, kendisini atmosferik modellere adadı; meslektaşı Kirk Bryan, okyanus simülasyonlarıyla uğraştı. 1969’da her iki yaklaşımı birleştirdiler ve klimatoloji alanında bir dönüm noktası oluşturdular. Manabe ve Bryan’ın birleşik okyanus-atmosfer modeli, dünyanın altıda birini 500’e, yani 500 kilometrelik karelere ve atmosferi ise dokuz katmana böldü. Günümüzün iklim modelleri 25’e 25 kilometre karelerden ve onlarca atmosfer seviyesinden oluşuyor. Yine de Jeofizik Akışkanlar Dinamiği Laboratuvarı’ndan jeofizikçi Venkatramani Balaji, Manabe ve Bryan’ın modelleriyle harika bir iş çıkardıklarını söylüyor. Manabe ve Bryan’ın sayesinde ilk kez, bir simülasyonda yükselen karbondioksit seviyelerinin etkilerini araştırmak mümkün oldu.
Sayısal Hesaplama Hızlandırıcı: BLAS (1979)
Birçok farklı bilimsel alanda, vektörler ve matrisler ile nispeten basit matematiksel işlemlere geri dönülür. Bu karmaşık olmasa da, söz konusu nesneler genellikle çok büyük olduğundan ve çok fazla sayıda hesaplama yapılması gerektiğinden genellikle zaman alıcıydı. 1970’lerde bu sorunu aşabilecek genel bir yöntem yoktu. Bu nedenle birçok bilim insanı, içerik sorularına odaklanmak yerine temel hesaplama adımlarını gerçekleştiren algoritmalar geliştirmek için zaman harcadı. 1979’da programcılar nihayet “Temel Lineer Cebir Alt Programları”nı veya kısaca BLAS’ı geliştirdiler.
Bu program kütüphanesi vektör ve daha sonra matris cebiri için onlarca çözüm yolu tanımladı. Austin’deki Texas Üniversitesi’nden bilgisayar bilimcisi Robert van de Geijn, “BLAS muhtemelen bilimsel hesaplama için en önemli programdı,” diyor. Ortak işlevler için standartlaştırılmış adlara ek olarak, araştırmacılar algoritmanın her bilgisayarda aynı şekilde çalıştığından emin olabiliyorlar. 40 yıldan uzun bir süre sonra BLAS, bilimsel yazılımların çalışmasını sağlayan bir kod olan Scientific Computing Stack’in kalbinde hâlâ yer almaktadır.
Temel Bir Mikroskop: NIH Image (1987)
1980’lerin başında, programcı Wayne Rasband, Maryland’deki ABD Ulusal Sağlık Enstitüleri’nde bir beyin görüntüleme laboratuvarında çalışıyordu. Ekibin X-ışını filmlerini dijitalleştirmek için bir tarayıcısı vardı, ancak bunları bir bilgisayarda incelemenin yolu yoktu. Rasband bunun için bir program geliştirdi. Algoritmayı özellikle 150.000 dolarlık bir PDP-11 bilgisayarı için yazdı. Apple 1987’de Macintosh II’yi piyasaya sürdüğünde, cihazın çok daha kullanıcı dostu ve uygun fiyatta olduğu görüldü. Rasband, “Apple’ın yazılımı görüntü analizi için çok daha uygundu,” diye hatırlıyor. Yazılımını yeni makineye uyarladı ve bu da “NIH Image” ile sonuçlandı. Bu sistem ve ardılları ile araştırmacılar, herhangi bir bilgisayardaki her türlü görüntüyü analiz edip ve değiştirebildiler. Massachusetts, Cambridge’deki Broad Enstitüsü’nden biyoinformatikçi Beth Cimini, “Sahip olduğumuz en temel araç,” diyor.
Hücre çekirdeği için ImageJ bilgisayar programı, mikroskop görüntülerinde hücre çekirdeklerini otomatik olarak tanımlayabilir, sayabilir ve renklendirebilir. Ayrıca programa erişim ücretsizdir. Rasband emekli olduğundan beri ImageJ’in geliştirilmesine öncülük eden Wisconsin-Madison Üniversitesi’nden biyomedikal mühendisi Kevin Eliceiri, bunların kullanıcıların ihtiyaçlarına göre uyarlanabileceğini ekliyor. Program, 30 yılda neredeyse hiç değişmeyen minimalist bir kullanıcı arayüzüne sahip. Yerleşik bir makro kaydedici, çeşitli dosya formatlarıyla kapsamlı uyumluluk ve esnek eklenti mimarisi sayesinde, yazılım herhangi bir kullanıcı tarafından kolayca genişletilebilir. Örneğin, videolardaki belirli nesneleri izlemek veya biyolojik hücreleri otomatik olarak tanımlamak artık mümkün. Eliceiri, “Photoshop ve diğer programların aksine, ImageJ istediğiniz her şeyi yapabilir,” diyor.
Sıralama: BLAST (1990)
Araştırmacılar, özellikle proteinlerde benzerlikler arayarak bağlantıları keşfedebilir ve genlerin işlevi hakkında bilgi edinebilirler. Bunun için hızla büyüyen biyokimyasal veritabanları mevcuttur. Margaret Dayhoff, 1978’de iki protein arasındaki ilişkinin yalnızca dizilerinin benzerliği temelinde değil, aynı zamanda evrimsel mesafeleri temelinde de değerlendirilebildiği “Nokta Kabul Edilen Mutasyon” matrisi (kısaca PAM matrisi) geliştirdi. Yedi yıl sonra, Charlottesville’deki Virginia Üniversitesi’nden William Pearson ve NCBI’den David Lipman, Dayhoff’un matrisini hızlı arama yapma yeteneğiyle ilişkilendiren FASTP algoritmasını sundu.
1990’da Liman ve bazı meslektaşları ek bir uzantı yayımladı: Temel Yerel Hizalama Arama Aracı (BLAST). Son derece hızlı ve aynı zamanda evrimsel olarak daha uzak eşleşmeleri de buluyor. Aynı zamanda, maçların tesadüfen meydana gelme olasılığının ne kadar olduğunu gösterebiliyor. Harvard Üniversitesi’nde biyoinformatikçi, Sean Eddy, “Program inanılmaz hızlı ve kullanımı da kolaydı,” diyor.
Kısacası genom biyolojisinde büyük sıçrama bu algoritma sayesinde oldu.
Ön Baskı Deposu: arXiv.org (1991)
1980’lerin sonlarında, yüksek enerjili fizikçiler, sundukları araştırmaların kopyalarını meslektaşlarına rutin olarak postalardı. Bu ya nezakettendi ya da yorum istedikleri içindi. Ancak, bu büyük bir çaba gerekiyordu. Bu nedenle onları yalnızca birkaç seçkin kişiye gönderilirdi. Bu sorun yüzünden fizikçi Paul Ginsparg, “2011’de seçkin olmayan üniversitelerdeki hevesli araştırmacılar genellikle tamamen dışlanırdı,” diye yazmıştı. 1991’de New Mexico’daki Los Alamos Ulusal Laboratuvarı’nda, abonelerine her gün her biri bir makale tanımlayıcısı olan ve ön baskı listeleri alan bir e-posta dağıtım listesi geliştirdi. Tek bir e-posta ile dünyanın her yerinden kullanıcılar çalışma gönderebilir, laboratuvarın bilgisayar sisteminden e-postaya erişebilir, yeni makalelerin listesini alabilir veya belirli yazarları ve başlıkları arayabilirlerdi.
Başlangıçta, Ginsparg ön baskıları üç ay boyunca saklamak ve içeriği yüksek enerjili fizikle sınırlamak istedi. Ancak bir meslektaşı onu sınırsız olarak kullanmaya ikna etti. “O anda konsept ilan tahtasından bir arşive dönüştü,” diyor. Aniden, uzak disiplinlerden makaleler geldi. 1993 yılında Ginsparg World Wide Web sistemi, 1998 yılında arXiv.org adıyla araştırmacılar arasında muhteşem bir ağ bağlantısı sağladı. Bugün, varlığının 30. yılında web sitesi, aylık 15.000’den fazla başvuru ve yaklaşık 30 milyon indirme ile tümüne ücretsiz olarak erişilebilen yaklaşık 1.8 milyon ön baskıya ev sahipliği yapıyor.
Nature Photonics editörleri arXiv’in 20. yıl dönümü vesilesiyle, “Hizmetin neden bu kadar popüler olduğunu anlamak zor değil,” diye yazdı. “Araştırmacılara neyi ne zaman yaptıklarını göstermeleri için hızlı ve kolay bir yol sunuyor ve güçlükleri ortadan kaldırıyor.” Bu başarı biyoloji, tıp veya sosyoloji gibi diğer birçok disiplinde de benzer projelere yol açtı. Etkiler şu anda koronavirüs aracılığıyla oluşturulan on binlerce ön baskıdan okunabilir. Ginsparg, “30 yıl önce parçacık fiziği topluluğu dışında heterodoks olarak kabul edilen bir metodolojinin artık, doğal olarak kabul edildiğini görmek sevindirici,” diyor.
Veri İşleme: IPython Notebook (2011)
Fernando Pérez, 2001 yılında yaygın olarak kullanılan bir programlama dili olan Python’un temel bir bileşenini incelemeye karar verdiğinde “dikkati dağıtma arayışında” bir doktora öğrencisiydi. REPL (Oku-Değerlendir-Baskı-
Sonuç, Pérez’in Aralık 2001’de tanıttığı ve yalnızca 259 satırdan oluşan Python programlarını geliştirmek ve çalıştırmak için etkileşimli bir program paketi olan IPython oldu . Fizikçi Brian Granger ve matematikçi Evan Patterson ile on yıl sonra sistemi web tarayıcısına taşıyarak IPython notebook’u piyasaya sürdü ve böylece veri biliminde bir devrimi tetikledi. Bilgisayarlı defterler yalnızca program kodlarından oluşmaz, aynı zamanda metin ve grafikleri tek bir belgede birleştirir. Bu türdeki diğer sistemlerin (Mathematica veya Maple gibi) aksine, IPython açık kaynaktı ve diğer geliştiricilerin katkılarına izin verdi. Ayrıca bilim insanları arasında çok popüler olan Python programlama dilini de destekledi.
2014 yılında IPython, artık 100’den fazla programlama dilini destekleyen ve kullanıcıların uzak süper bilgisayarlarda verileri kendi dizüstü bilgisayarlarında olduğu kadar kolay bir şekilde işlemesini sağlayan Jupyter‘a dönüştü. Nature 2018’de, “Jupyter, veri bilimcileri için standart bir araç hâline geldi,” diye yazdı. O zamanlar kod paylaşım platformu GitHub’da 2,5 milyon Jupyter not defteri vardı. Bu arada bu sayı şuan dört katına çıktı. Bunlar, 2016’da yerçekimi dalgalarının keşfini ve 2019’da bir kara deliğin haritalanmasını belgeleyen defterleri de içeriyor. Pérez, “Bu çığır açan çalışmaya küçük bir katkıda bulunduğumuz için çok gururluyuz,” diyor.
Yüksek Hızlı Makine Öğrenmesi: AlexNet (2012)
Yapay zekâ (AI) farklı versiyonlara sahip. Günümüzde baskın olan “derin öğrenme”, düşünme organının sinirsel yapısını simüle ederek bilgisayarların kendi kendilerine “öğrenmelerini” sağlar. Toronto Üniversitesi’nden bilgisayar bilimcisi Geoffrey Hinton, yapay zekâ araştırmacılarının onlarca yıldır ikinci yaklaşımı saçma bularak reddettiğini açıklıyor. Ancak 2012’de doktora öğrencileri Alex Krizhevsky ve Ilya Sutskever, AlexNet ile bunun tam tersini kanıtladı. Mekan, araştırmacıların günlük nesnelerin milyonlarca görüntüsüyle nesne tanıma algoritmalarını eğittikleri ve ardından bunları ayrı bir veri seti ile test ettikleri yıllık bir yarışma olan ImageNet idi. Hinton 2012 itibariyle, görüntülerin yaklaşık dörtte birini yanlış bir şekilde kategorize eden programların, en iyi programlar olduğunu hatırlıyor. AlexNet sinir ağı, hata oranını şaşırtıcı bir şekilde yüzde 16’ya düşürdü. Hinton’a göre büyük miktarda eğitim verisi, iyi programlama ve grafik işlemcilerin artan gücü bu başarıya yol açtı. “Birden programımızı 30 kat daha hızlı çalıştırabilir duruma geldik,” diyor.
Gerçek atılım üç yıl önce gerçekleşmişti. O zamanlar laboratuvarda, dili geleneksel yapay zekadan çok daha iyi işleyebilen bir sinir ağı yaratıldı. Bu ilerlemeler derin öğrenmenin yükselişinin habercisiydi. Bu tür algoritmalar, cep telefonlarının konuşulan istekleri anlamasına ve görüntü analiz programlarının biyolojik hücreleri tanımasına neden oldu. İşte bu yüzden AlexNet, son yıllarda bilimi ve dolayısıyla dünyayı kökten değiştiren bilgisayar programları arasında yer alıyor.
Hazırlayan: İnanç Kaya | Kaynak