Dünya Forum: Bilim, insanları cehenneme kadar yazacak

Blade Runner, Terminator, Matrix gibi distopik filmlerde sürekli olarak karşımıza çıkan Yapay Zeka'nın insanlığın geleceğinde büyük yer kaplayacak gibi görünüyor...

Google Haberlere Abone ol

DUVAR - Son haftaların en fazla tartışılan sinema haberi, efsanevi bir Japon anime filmi olan Ghost In the Shell (Kabuktaki Hayalet) filminin, Hollywood tarafından sinemaya uyarlanması ve bu anime klasiğinin hayranlarından gelen yoğun eleştirileri içermekteydi. Geçmişten beri Blade Runner, Terminator, Matrix gibi distopik filmlerde sürekli olarak karşımıza çıkan Yapay Zeka (YZ), artık insanlığın geleceğinde ne kadar büyük bir yer kaplayacağı konusunda ciddi veriler sunuyor. Dünya Forum’da bu hafta Yapay Zeka ve etrafındaki tartışmaları derledik. Buyrun Dünya Forum’a:

YAPAY ZEKA, FAYDALAR VE RİSKLER

The Future Of Life Derneği (Hayatın Geleceği Derneği) Başkanı Max Tegmark, derneğin internet sitesinde yapay zeka üzerine şunları yazıyor: “Medeniyet konusunda sevdiğimiz her şey, bilgilenmenin bir ürünüdür, bu nedenle insan zekasını yapay zekayla güçlendirmek, medeniyetin daha önce hiç olmadığı üzere gelişmesine -teknolojiyi yararlı kılmaya devam ettiğimiz sürece- yardım etme potansiyeline sahiptir.

YAPAY ZEKA NEDİR?

SIRI programı dahilinde kendi kendine ilerleyen arabalar aracılığıyla yapay zeka hızla ilerliyor. Bilim kurgu, YZ’yi sıkça insanî özelliklere sahip robotlar olarak tasvir ederken, YZ, Google'ın arama algoritmalarından IBM'in Watson'una, özerk silahlara kadar her şeyi kapsayabilir.

Günümüzde yapay zeka, dar bir görevi (örneğin, yalnızca yüz tanımak ya da yalnızca internet aramaları yapmak veya yalnızca bir araba kullanmak) için tasarlandığı için dar YZ (veya zayıf YZ) olarak tanımlanır. Bununla birlikte, birçok araştırmacının uzun vadeli hedefi, bir genel YZ (GYZ) oluşturmaktır. Dar YZ, ne olursa olsun belirli bir görevi yapmada (örneğin satranç oynamak veya denklemleri çözmek gibi) insanlara göre daha iyi performans gösterebilirken, GYZ neredeyse her bilişsel görevde insanlara göre daha iyi performans gösterebilir.

YZ NASIL TEHLİKELİ OLABİLİR?

Çoğu araştırmacı, süper akıllı bir YZ’nin sevgi ya da nefret gibi insani duygular sergileme olasılığının düşük olduğunu ve YZ’nin kasıtlı olarak hayırsever ya da kötü niyetli biri olmasını beklememizi gerektirecek bir koşul olmadığını kabul eder. Bunun yerine, YZ’nin bir risk haline gelebileceğini düşünürken, uzmanlar iki senaryonun olasılığı üzerinde tartışıyorlar:

1. YZ yıkıcı bir şey yapacak şekilde programlanmıştır: Özerk silahlar, öldürmek üzere programlanmış yapay zeka sistemleridir. Yanlış kişilerin elinde bu silahlar kolayca kitle katliamlarına neden olabilir. Üstelik bir YZ silah yarışması, yanlışlıkla bir YZ savaşına neden olabilir ve bu aynı zamanda toplu kayıplara da neden olur. Düşman tarafından engellenmekten kaçınmak için, bu silahlar basitçe “kapanması” zorlaşacak şekilde tasarlanacaktı, böylece insanlar böyle bir durumun kontrolünü makul bir şekilde kaybedebilirdi. Bu risk, dar YZ için bile var olan bir risktir ancak YZ’nin istihbarat seviyesi ve özerkliği arttıkça risk de artmaktadır.

2. YZ yararlı bir şeyler yapacak şekilde programlanmış ancak hedefine ulaşmada yıkıcı bir yöntem geliştiriyor: Bu, YZ’nin hedeflerini bizimle tamamen uyumlu hale getirmediğimiz bir durumda gerçekleşebilir ki bu da son derece zordur. Üstün zekalı bir sistem, iddialı bir jeo-mühendislik projesinde görevlendirilirse, ekosistemimizde bizleri hasarın bir yan etkisi olarak görebilir ve insanları bir tehdit olarak algılayıp, yok etme girişimleri gösterebilir.

Bu örneklerin gösterdiği gibi, ileri YZ hakkındaki endişe kötü niyet değil, yetkinlikle ilgilidir. Süper akıllı bir YZ, hedeflerini gerçekleştirmede son derece yeterli olacak ve eğer bu hedefler bizimkiyle uyumlu değilse, bir problemimiz var demektir. Kötü niyetli bir şekilde karıncaların üzerine basan birisi değilseniz ancak bir hidroelektrik yeşil enerji projesinden sorumluysanız ve bölgede karıncalar için ölümcül bir sele neden olacaksanız, bir sorununuz var demektir. YZ güvenlik araştırmasının temel amacı, hiçbir zaman insanlığı bu karıncalarla aynı konumda bırakmamaktır.

SÜPER-İNSAN YZ’NİN RİSKLERİ HAKKINDAKİ MİTLER

Birçok YZ araştırmacısı şu manşetten bakarken gözlerine inanamamıştı: “Stephen Hawking, robotların yükselişinin insanlık için felaket olabileceği konusunda uyardı!” ve buna benzer kaç başlık daha gördüğümüzü hatırlamıyoruz bile. Tipik olarak, bu makalelere silah taşıyan kötü görünümlü bir robot eşlik ediyor; böylece robotların yükselmekte olduğu ve bizi öldürecekleri konusunda endişe etmemiz gerektiği önerilmektedir çünkü bilinçli biçimde kötü olmayı seçmişlerdir. Daha açık bir biçimde, bu tür makaleler aslında oldukça etkileyicidir; çünkü YZ araştırmacılarının endişe etmediği bir senaryoyu kısaca özetlemektedir. Bu senaryo, üç ayrı yanlış anlamayı bir araya getirmektedir: Bilinç, kötülük ve robotlar hakkındaki endişe.

Yolda giderken, renkler, sesler vb. öznel bir tecrübe yaşarsınız. Fakat kendiliğinden çalışan bir otomobil öznel bir tecrübeye sahip midir? Kendi kendine çalışan bir araba olmak, bilinçli bir şey gibi geliyor mu? Her ne kadar bu bilinç gizemi kendi başına ilginç olsa da YZ’ye ilişkin risklerle ilgili değildir. Şoförsüz bir araba kaza yaptığında, öznel olarak bilinçli olup olmadığı farketmez. Aynı şekilde insanları etkileyecek olan şey, YZ’nin süper akıllı olmasıdır, öznel olarak hissettirdiği şey değildir.

Kötülüğü yayan makinelere ilişkin korku, bir başka efsane konusudur. Gerçek endişe konusu kötü niyet değil, yetkinliktir. Süper akıllı bir YZ, ne olursa olsun hedeflerine ulaşmada tanımı gereği çok iyidir; bu nedenle hedeflerini bizimle uyumlu hale getirmeliyiz. İnsanlar genellikle karıncalardan nefret etmez fakat bizler de onlar kadar zekiyiz -bu yüzden bir hidroelektrik baraj inşa etmek istiyorsak, orada karıncalar için çok kötü sonuç söz konusudur. Faydacı YZ hareketi, insanlığı bu karıncaların düştüğü durumdan sakınmak istiyor.

Bilinç yanılgısı, “makinelerin hedefleri olamaz” efsanesine bağlıdır. Makinelerin açıkça amaç odaklı davranış sergilemek anlamında, dar anlamda bir hedefleri olabilir: Bir ısı güdümlü füzenin davranışı, en kestirme yoldan bir hedefi vurmak için tasarlanmış bir amaç olarak açıklanabilir. Hedefleri sizinle uygun olmayan bir makine tarafından tehdit edildiğinizi düşünüyorsanız, makinenin bilinçli olup olmaması ve amaç duygusu taşıyıp taşımaması değil, tam da bu dar anlamdaki hedefleri sizi sıkıntıya sokar. Eğer o ısı güdümlü füze sizi kovalıyorsa, muhtemelen “Endişelenmiyorum, makineler amaçlara sahip olamaz!” diyeceksiniz.

Robotların yanlış programlanması, makinelerin insanları kontrol edemeyeceği mitiyle ilgilidir. İstihbarat, kontrolü sağlar: İnsanlar kaplanları kontrol eder, çünkü biz daha güçlüyüz ama daha akıllıyız da. Bu konumumuzu gezegenimiz üzerinde “en akıllı” seviyede tutarsak, kontrol etmek zorunda dahi kalmayabiliriz.”

DEĞERLİ BİR ARAÇ YA DA TEHLİKELİ BİR OYUNCAK

National Instruments sitesinde yazan Cathlyn Weise, yapay zeka teknolojisinin geleceğimize ilişkin nasıl etkiler taşıyabileceği konusunu irdeliyor.

“Yapay zeka teknolojisi, nispeten kısa bir sürede ileri atılım sağlayarak geniş sınırlara ulaştı. Bir zamanlar bilim kurgu gibi görünen şeyler hızla bir gerçek haline gelmektedir. Teknolojideki ani ilerleme, yapay zekanın insanlığın geleceğinde ne anlama gelebileceğine dair bazı korkuları yeniden gündeme getirdi. Yapay zekanın tehlikeleri hakkında konuşanlar, sadece komplo kuramcıları değildir. Son zamanlarda, geçen yüzyılın en parlak zekâlarından biri olan Stephen Hawking ve Tesla Motors'un CEO'su Elon Musk, yapay zekanın geleceği hakkındaki endişelerini dile getirdiler.

YAPAY ZEKADAN KORKMALI MIYIZ?

Hawking'e göre, gerçek yapay zeka, insanlık yürüyüşünün sonunu, küresel ısınmaya veya insanlığa yönelik herhangi bir tehdide oranla daha hızlı bir şekilde getirebilir. Hawking, YZ’nin kendini yetiştirenlerin ötesine geçerek üssel bir oranda kendini yeniden tasarlayabileceğini öne sürmektedir. Bilgisayarlar insanlarla aynı şekilde sınırlandırılmadığından, insanlığı çok daha çabuk aşabilirler. Elon Musk da Hawking ile aynı fikirde ancak hızlı bir şekilde gerçek yapay zekanın hâlâ uzakta olduğunu belirtmek istiyor. Son yıllarda yapay zeka alanında pek çok etkileyici ilerleme kaydedilmesine karşın, insanlardan daha akıllı hale gelebilecek bir yapay zeka üretebilecek konuma henüz yakın değiliz.

GOOGLE’IN KONUŞMA YZ’Sİ

Gerçek yapay zekanın yaratılması için üstesinden gelinmesi gereken önemli bir engel, konuşma modellemesidir. Bilgisayarlar uzun zamandan beri herhangi bir insandan daha hızlı karmaşık hesaplamalar yapabilse dahi konuşma, dil oluşturma ve anlama gibi insanların kolaylıkla halledebilecekleri görevleri yerine getirme konusunda mücadele veriyorlar. Orada bulunan çoğu yapay zeka sistemi, yalnızca sınırlı görevler için geçerli olduğu üzere bu görevi de üstlenebilirler. Google, hepsini değiştirebilecek bir YZ sistemi üzerinde çalışmaktadır. Google'ın YZ ve diğer yapay zeka sistemleri arasındaki fark, Google'ın alan adına özgü veri kümelerinde değil, genel alan adı veri kümelerinde de eklenmiş olmasıdır. Bunun arkasında yatan fikir, Google'ın YZ’sinin çeşitli konulardaki çeşitli soruları anlaması ve doğru tepki vermesidir. YZ’nin yeteneklerine ilişkin yapılan yeni bir testte (yapay zeka kendisine bir “üçüncü şahıs” biçiminde atıfta bulundu), selamlama ve çeşitli eğlenceli sohbetlet dahil olmak üzere, temel bir konuşma yapmayı başardı. Ayrıca, kedilerin kuyrukları veya kanatları olup olmadığı gibi genel bilgilerle ilgili sorular da dahil olmak üzere, basit soruları cevaplamayı başardı. Dahası YZ, “Yaşamın amacı ne?” gibi felsefeyle ilgili bazı sorularla bile ilgilenmiştir. Özetle, belki de Hawking için yapay zeka önümüzdeki 100 yıl içinde insanlığa yönelik bir tehdit oluşturabilirken, mevcut YZ sistemleri insanlar için çok yararlı araçlar olduğunu kanıtlıyorlar. Onun tarafından tehdit edilmeden yararlanmak için, insanların kendi yıkımlarını gerçekleştirmelerini önleyici düzenlemeler yapması gerekecektir.”

YAPAY ZEKANIN GELECEĞİNİ TARTIŞMA ZAMANI GELDİ

The Guardian gazetesinde Jack Stilgoe ve Andrew Maynard, yapay zekanın demokratik bir zeminde tartışılması meselesini ele alıyor:

“Washington DC'de önde gelen ABD ve İngiliz bilim insanları, yapay zeka alanında yeni atılımlar yaratan bir alan olan makine öğrenimi araştırmalarından gelen sonuçları paylaşmak üzere bir araya geliyorlar. Görüşmeleri, önemli bir tarihe sahip bir yerde, bu yılın başında yapılan bir konferansta ortaya çıkan yararlı YZ için bir sıra ilkenin yayınlanmasını izliyor.

Şubat 1975'te, çoğunluğu bilim insanı, çeşitli avukatlar, gazeteciler olan 140 kişi, Kaliforniya kıyılarında bir konferans merkezinde toplandı. Az sayıdaki gazeteciden biri olan Michael Rogers'ın yazdığı bir dergi makalesinde, dört günlük tartışmaların çoğunun genetik modifikasyonun bilimsel olanaklarıyla ilgili olduğu bildiriliyordu. Bilim adamları iki yıl önce, virüsleri genetik olarak değiştirmek için rekombinant DNA kullanmaya başlamışlardı. Bu yeni aracın Promethean (tanrılara başkaldıran) doğası, bilim insanlarını, bu tür deneyler üzerindeki riskler aşılana kadar bir moratoryum (çalışmaları dondurma, durdurma) uygulamaya itti. “Asilomar” konferansı sırasında, bastırılmış heyecan, patlamaya hazırdı. Konferansın sonuna doğru, bir avukat, bilim insanlarının elindeki görev üzerinde yoğunlaştırdığı milyonlarca dolarlık bir dava olasılığını yükseltmek için ayağa kalktığında, deneylerini yönetecek bir ilkeler seti hazırlamaya karar verdiler.

1975 Asilomar toplantısı halen bilimsel sorumluluğun bir işareti olarak hatırlanıyor. Bununla birlikte, Rogers'ın ve daha sonra tarihçilerin anlattığı hikaye, kendini yönetme vaadiyle yukarı yönlü regülasyon yapmak isteyen bilim insanlarına ilişkindir. Genetikçi Stanley Cohen, o tarihte, ‘Toplanan bu grubun bilgeliği önerilerde bulunmazsa, diğer grupların önerileri daha az nitelikli olabilir’ dedi. Massachusetts-Cambridge şehrinin Belediye Başkanı, daha sonra kendi şehrinde gerçekleşen biyoteknoloji deneylerinin en büyük eleştirmeni haline gelecekti. Diyordu ki; ‘Bu bilim insanlarının insanlığı hiç düşünmediklerini sanmıyorum. Heyecan, coşku ve kazanma tutkusu yaşadıklarını düşünüyorum ve ne olacağını görmek için cehenneme doğru kazmaya devam edecekler.’

ENDİŞELERİ GİDEREN TOPLANTILAR

1975'teki endişe, biyoteknolojinin getireceği gelecekle ilgili değil, araştırmalardaki güvenlik ve koruma sorunu ile ilgiliydi. Asilomar'dan bir yıl sonra, Cohen'in meslektaşı Herbert Boyer, ilk biyoteknoloji şirketlerinden biri olan Genentech'i kurdu. Başlıca üniversite bilim insanlarının sohbetlerinde, kurumsal çıkarlar neredeyse hiç konuşulmadı.

42 yıllık hızlı ilerleme ve makinelerin gelişmesi, doğal dil işleme ve YZ şemsiyesi altındaki diğer teknolojilerin büyük bir sektör haline geldiği ortadadır. 2017 Asilomar toplantısının katılım listesi, Google, Facebook ve Tesla gibi şirketlerin yanı sıra araştırmacılar, filozoflar ve diğer akademisyenleri de kapsıyordu. Grubun 1975’daki eşdeğerinden daha entelektüel bir düzeyi vardı; ancak bazı önemli değişiklikler de söz konusu: kamuoyu ve endişelerini sunacak kişiler, gazeteciler ve yeni teknolojilerin sorumlu bir şekilde geliştirilmesini tartışan daha az sayıda uzman bulunmaktaydı.

Toplantının ilkeleri, en azından ilk bakışta, YZ’nin ‘halk yararına’ olması ve zarar verebilecek şekillerde geliştirilmemesi yönünde rahatlatıcı bir mutabakat sağladı. Faydalı ve güvenli bir YZ, ortak çıkarlar yolunda gelişme, insani değerleri destekleme ve refah paylaşımı yolunda önemi fikirler geliştirmeye adaydır.” (Çeviren: Tarkan Tufan)