
Yazdığınız, soylediğiniz, talep ettiğiniz şeye gore size cıktılar veren uretken yapay zekÂlar bir anda hayatımıza girdi. Bir anda gorduğumuz şey karşısında buyulendik ve ona cabucak alıştık. Artık Webtekno ’da bile bazı iceriklerin gorsellerini tamamen yapay zek ile uretiyor, bunu soyleme gereği bile duymuyoruz.
İşte asıl tehlike de burada başlıyor. ChatGPT, Midjourney gibi araclar kotu amaclarla kullanılmamaları icin sınırlandırılsa da aynı teknolojik patikaları takip edip tam olarak kotu amaclarla geliştirilen yapay zekÂlar da var. Şoyle duşunun: Daha 2 yıl once insanların fotoğraflarını cıplak hale getiren mobil uygulamalar gundemdeydi, şimdi kotu niyetli birine cıplak gormek istediği kişinin vesikalık fotoğrafı bile yetiyor. Tabii bu işin sosyal sorunlar boyutu. Bir de soz konusu silahlar ve savaşlardaki kotu niyet olunca sular epey bulanıyor.
Elbette endişeler bunlarla sınırlı değil. Mesela Boston Dynamics robotları her ne kadar silahsız uretilse de alıp uzerine kendi silah sistemelerini inşa edenler, hatta sıfırdan silahlı robot uretenler de var: Peki yakın gelecekte bu robotlar, birisi “Şu kişiyi oldur” dediğinde gidip oldurecek mi? Yapay zekÂnın bunları yapabilmesi icin robotik bir bedene ihtiyacı yok… Peki nukleer savaşlar veya salgınlar kadar kotu sonuclar doğuracak mı, hatta insanlığın varolulşunu tehdit edecek mi? Bu ihtimaller karşısında hep yureğimize su serptik ve “Daha cooook var!” dedik. Ancak goruyoruz ki bugune kadar urettiklerimizi kullanarak kendi kendisine oğrenen bir yazılım, şimdilik cok da insansı olmayan yanıtlarıyla hepimizi şaşkına cevirebiliyor. Bunu yapabiliyorsa etik değerlere sahip olmayan bir robotun oldurme komutunu yerine getirmeyeceğini kim garanti edebilir?
Eğer Hiroşima ’ya atılan atom bombası bugun atılacak olsa artık bir ucağa, o ucağı kullanacak bir pilota ve en onemlisi de artık o bombayı bırakan tuşa basacak bir insana ihtiyacımız yok. Hepsi icin etik değerlere sahip olmayan bir yapay zek yeterli! Bu soruların yanıtını bilemiyoruz elbette. Ancak bizim bilmiyor olmamız sizin icin bir anlam ifade etmiyorsa şunu soyleyelim: Yapay zekÂnın babası bile bu soruların yanıtını bilmiyor…
Yoshua Bengio ’yu ilk kez gormuş olabilirsiniz. Ancak gunumuzde “uretken yapay zeka” dediğimiz, bugune kadar uretilmiş metinleri, gorselleri tarayıp oğurenebilen ve size ozgun yanıtlar vermeye calışan sistemlerin babası. 90 ’lı ve 2000 ’li yılların başında Bengio ’nun yaptığı calışmalar, ChatGPT ve Midjourney gibi aracların temelini oluşturuyor.
Elbette Bengio kadar etkili ve başarılı onlarca bilim insanı ve muhendis var, ancak kendisinin goruşleri, aynı zamanda yapay zekÂnın geleceğine de ışık tutuyor.
‘İnsanlığın guvenliğini nasıl garanti edeceğimizi bilmiyoruz!” Kişisel web sitesinde yayınladığı blog yazısında yapay zekÂnın gelişimiyle yaşanacak potansiyel sorunlara değinen Bengio; bir noktada konuyu guvenliğe getiriyor:
“Henuz bir yapay zek aracını nasıl kontrol edilebilir hale getireceğimizi ve boylece insanlığın guvenliğini nasıl garanti edeceğimizi bilmiyoruz! Yine de biz -ben de dahil- bu tur sistemleri inşa etme yolunda hızla ilerliyoruz”
“Buyuk olcude yıkıcı olabilecek bir şeye katkıda bulunmuş olabileceğimiz fikriyle yuzleşmek acı verici” Yapay zek sistemlerini geliştiren ve şu anda kullanan herkesin farkına varmak istemediği tehlikelere ve bu durumun psikolojisine değinen Yoshuo, “Bu tur duşunceleri sindirmek zordur. Zordur cunku bu duşunceleri takip eden mantıksal sonucları kabul etmek; kendi rolumuzu, işimizin değerini, kendi değer anlayışımızı sorgulamak anlamına gelir” diyor ve ekliyor:
“Coğumuz kendimizi temelde iyi ve erdemli bir amaca sahip olan, uyesi olduğumuz topluluk ya da topluma faydalı olacak bir şeye katkıda bulunan biri olarak gormek isteriz. Olumlu bir imaja sahip olmak, işimiz hakkında iyi hissetmemizi sağlar ve bize ilerlemek icin motivasyon ve enerji verir. Buyuk olcude yıkıcı olabilecek bir şeye katkıda bulunmuş olabileceğimiz fikriyle yuzleşmek acı verici.”
“İnsan doğası, bu tur olasılıkların tum dehşetiyle yuzleşmek yerine daha guven verici argumanlarda rahatlık aramaya yonlendirecektir. Yapay zekÂnın faydalarını masaya yatırmak, yapay zekÂnın nukleer savaş ve salgın hastalıklar ile aynı duzeyde kotu sonuclara sebep olma ve hatta varoluşssal risk icermesi durumunu telafi etmek icin yeterli değildir.”
Webtekno'yu Threads'de takip et, haberleri kacırma