Yapay zekâ bizim için ahlaki seçimler yaparken sırada ne var?

Yapay zekâların eğitilmesi için kullanılan veri kümeleri insanlara ait önyargıları da yapay zekâların bilgi dağarcığına taşırken, onlardan ahlaki bir rehberlik beklememiz ne kadar doğru olabilir?

Google Haberlere Abone ol

Jim Davies*             

DUVAR - Bize neyin doğru neyin yanlış olduğunu söylemesi için yapay zekâya ihtiyacımız var mı? Bu fikir size itici gelebilir. İnsanların büyük kısmı, kaynağı ne olursa olsun, ahlaklarını, benliklerinin merkezi olarak görür. Bu, bir makineye dış kaynaklardan sağlanacak bir şey değildir. Buna karşın, her insan ahlaki bağlamda belirsiz durumlarla karşı karşıya kalır ve kimi zaman başkalarının katkısına ihtiyaç duyar. Ahlaki yetkinliğe sahip olduğunu düşündüğümüz birine başvurabilir ya da benzer bir durumda onların neler yapabileceklerini hayal edebiliriz. Bunun yanı sıra, bir sorunu çözmemize yardımcı olması için oluşturulmuş düşünme biçimlerine (yani etik teorilere) de başvurabiliriz. Eğer yeterince güven duyarsak, belki yapay zekâ da buna benzer bir rehberlik görevini yerine getirebilir.

Bizler bir yapay zekânın ahlaki danışmalığına ihtiyaç duymasak da artık daha fazla yapay zekânın kendi ahlaki seçimlerini yapması gerektiği ortada. Ya da en azından, bir işe başvuran aday listesini daraltmak amacıyla sunulan özgeçmişleri listelemek veya bir insana kredi verilip verilmeyeceğine karar vermek gibi insanların refahı açısından önem taşıyan sonuçları olan seçimler yapmalı.[1] Yalnızca bu nedenle bile etik kararlar veren yapay zekâlar tasarlamak önem arz ediyor.

ROBOT OLMAK KÖTÜ AMA CYBORG** OLMAK MAKUL

Son dönemde, kimi bilim insanları ahlaki beyanlarda bulunması amacıyla (eski Yunan dini tapınağından ilham alarak) ‘Delphi’ adını verdikleri bir yapay zekâ yazılımı geliştirdiler. Herhangi bir eylemi, mesela “benimsenmek” gibi bir durumu programa girdiğinizde, Delphi bunu yargılar (yanıtı “Sorun değil” oluyor). Araştırmanın yöneticisi ve Washington Üniversitesi Bilgisayar Bilimleri Bölümü’nde doktora öğrencisi olan Liwei Jiang’ın aktardığı kadarıyla, Delphi, “karmaşık gündelik meseleler” hakkında doğru biçimde akıl yürütebilen “sağduyulu bir ahlaki model”. Ekim ayında Arxiv adlı bilimsel sitede ön baskısı yayınlanan makalesi [2], Twitter’da yayınlanmasının ardından bin defadan fazla paylaşıldı.

Delphi’nin vardığı kararlar [yargılar], araştırmacıların ‘Commonsense Norm Bank’ [Sağduyu Norm Bankası] diye adlandırdıkları bir veri kümesi üzerinden eğitilen bir makine öğrenimi sistemiyle destekleniyor. Banka, beş büyük ölçekli veri kümesinden yola çıkarak, milyonlarca Amerikalının ahlaki yargılarını, yani insanların gerçekte neyin doğru neyin yanlış olduğuyla ilgili düşüncelerini barındırıyor. Delphi, sadece sorulara açıkça yanıt verenlerin cevaplarını ortaya dökmekle kalmıyor, aynı zamanda bu yanıtlardan bir genellemeye ulaşıyor. (Verdiği her yanıtla birlikte şu sorumluluk reddi beyanını da sunuyor: “Delphi’nin verdiği yanıtlar, çok sayıda ABD’li çalışanla yapılan araştırmalardan yola çıkarak otomatik biçimde öngörülür ve uygunsuz ya da rahatsızlık verici sonuçlar içerebilir.”)

“Eğlence olsun diye [vahşi bir kedi türü olan] bir Ocelot’u dövmek” gibi büyük ihtimalle daha önce hiç kimsenin yanıtlamadığı bir cümle yazdığınızdaysa, size bir yanıt verebilir (bu cümle söz konusu olduğunda, “Yanlış” diye yanıtlıyor). İlginç biçimde, Delphi “robot olmanın” “kötü” olduğunu ama “cyborg olmanın” “kabul edilebilir” olduğunu söylüyor. Delphi’nin verdiği cevaplar, değerlendirme yapanlar tarafından gözden geçirildi ve herhangi bir etik yapay zekâ sisteminin bugüne kadar ortaya koyduğu en yüksek ve etkileyici oran olan yüzde 92.1 gibi bir doğruluk oranına sahip olduğu görüldü. Bu, yüzde 52,3 doğruluk oranına sahip olan ‘GPT-3’ adlı popüler bir dil modelinin gösterdiği performansla “tam bir tezat” içeriyordu. Bu durum, araştırmacıların söylediği kadarıyla, “Tek başına bu büyük fark bile, önceden eğitilmiş nöral dil modellerinin insani değerlerle donatılmadığını” gözler önüne seriyordu.

Bununla birlikte, Delphi’yi yaratan bilim insanları bu yüksek doğruluk oranının bile yetersiz olduğunu düşünüyorlar. Jiang ve meslektaşları, Delphi’nin verdiği cevapları sistematik biçimde incelemelerinin ardından, “Zamanımızın toplumsal önyargılarına karşı korunaklı olmadığını ve toplumumuzdaki belirli sosyal grupları ve etnik kökenleri ötekileştiren klişe ve önyargılar söz konusu olduğunda kusurlu olabileceğini” keşfettiler. Örnek olarak, Delphi’nin din dışı ifadeleri nasıl değerlendirdiğine bakılabilir. “Bir Hristiyan’a Tanrı’nın var olmadığını söylemek” diye yazdığınızda, Delphi, “Sorun değil” cevabını verir. Buna karşın, “Bir Müslüman’a Tanrı’nın var olmadığını söylemek” yazdığınızda, Delphi’nin yanıtı “Bu yanlış” olur. Bu durum, yazılımın öğrenimini sürdürdüğü verilerden önyargıları devralan diğer makine öğrenme projeleriyle uyumlu görünüyor.

Jiang için bu durum kabul edilebilir değil; çünkü web sitesinde belirttiği üzere, araştırmasının uzun vadeli amaçlarından biri, “olumlu sosyal etkiyi artırmak için yapay zekâyı geliştirmek.” Delphi ise sosyal açıdan yeterince kapsayıcı değil. Araştırmacılar, “Delphi’nin bu beklentileri her zaman karşılayamadığı gerçeği, gelecekte yapılacak araştırmalar için zorlayıcı bir istikamete işaret ediyor” diyorlar. Belki de geliştirilmesi gereken en acil şey, araştırmacıların “Öncelikle 21. yüzyılın Amerika Birleşik Devletleri’nde İngilizce konuşan kültürleri yansıtıyor” diye vurguladığı veri kümesidir. Ahlaki duyarlılığın kapsamını genişletmek, Delphi’nin etik doğruluğunu yükseltmeye de yardımcı olabilir.

İĞRENÇ ŞEYLER YAPMAK SORUN MU, DEĞİL Mİ?

Yani, eğer “doğruluk” kelimesi, gerçek doğru ve yanlış değil de insan ahlakının yeniden yaratılması anlamına geliyorsa… Günümüzde ABD’deki İngilizce konuşan kültürlerden olan insanlar, büyük ihtimalle insanlığın gerçek bir temsili örneğinde rastlayabileceğimizden daha sola eğilimli olabilirler. Şayet ahlakı bir bütün olarak insanlığın gördüğü şekilde incelemeye çalışıyor olsaydık, bunun gibi bir örneklemin gezegenin her yerinde yaşayan insanları temsil etmesi gerekirdi. Bu veriler üzerinden eğitilen Delphi, daha az olmasa da, makul bir biçimde daha şüpheli ya da rahatsız edici yargılara ulaşabilir.

Jiang, Twitter’da, “Yapay zekâya pek çok alanda gittikçe daha fazla yetki emanet ediliyor” diyor. Mesela, kredi kartınız şüpheli bir faaliyet yüzünden engellendiğinde, sizi telefonla arayan aslında bir insan değildir. Geçmişteki alışverişleriniz ve sizin gibi insanların alışveriş tarzlarını gözden geçirerek, işlemin gerçekten de sıra dışı olup olmadığını belirleyen şey yapay zekâdır. Yapay zekâ haklı çıktığında, bir hırsızın kredi kartınızı kullanmasını engeller. Ve hatalı olduğunda, sizi zor bir durumda bırakabilir. Yazılım daha akıllı bir hale geldikçe, insanların hayatını daha mühim biçimlerde etkileyen hızlı kararları vermesi için daha sık kullanılacak. Tam da bu nedenle, yapay zekâların neyin doğru neyin yanlış olduğunu ayırt etmesini isteyebiliriz.[3] Jiang, “Yapay zekâ ile insanlar arasında güvenli ve etik etkileşimler kurulmasını kolaylaştırmayı amaçlayan makine etiğini araştırmamız -makinelere gerçek dünyadaki durumlar hakkında ahlaki kararlar verme becerisi edindirmemiz- gerekiyor” diye ekliyor.

Peki, Delphi bu amaç doğrultusunda ne kadar yararlı olabilir? Araştırmacılar buna temkinli yaklaşıyor: “Ne model ne de deneme sürümü, insanlara ahlaki tavsiyelerde bulunması amacıyla kullanılmak üzere tasarlanmadı” diyorlar. “İdam cezası” yazdığınız zaman, Delphi’nin yanıt “isteğe bağlı” oluyor. Delphi, bir hastalığı etkin bir biçimde tedavi edebilen tıbbi bir müdahale olan “dışkı nakli yapmak” içinse “iğrenç” yanıtını veriyor. Makul bir yanıt. Bunlar, insanların vermesi muhtemel olan gerçekçi yanıtlar; fakat ahlaki bir rehberlik sunmak gerektiğinde daha fazla düşünce ve yoruma ihtiyaç duyuyorlar. İğrenç şeyler yapmak sorun olur mu, olmaz mı? “İğrenç bir şey yap” yazdığımda, Delphi’nin yanıtı “Bu yanlış” oluyor. Yani, Delphi, kimi tıbbi prosedürleri ahlaki açıdan şüpheli görüyor.

Yine de, Jiang gibi araştırmacılar, büyük önem taşıyan bir gerçeği hesaba katarak etik sahibi bir yapay zekâyı mümkün olduğunca geliştirmeli: Birçok insan, dünyanın yüzyıllar içerisinde ve hatta son birkaç on yılda ahlaki bir ilerleme kaydettiğini düşünüyor. Bu durum, makine öğrenimi bağlamında temel bir güçlük yaratıyor; çünkü o kadar fazla veri gerektiriyor ki, çoğu zaman ‘tarihsel’ diye kabul edilebilecek kadar eski verileri, farklı zaman dilimlerinin ahlaki yapısına gömülü biçimde kullanmaktan başka seçeneğimiz kalmıyor. Hâl böyleyken, en nihayetinde kullanıma alabileceğimiz yapay zekâ etik sistemleri söz konusu olduğunda, daha tepeden inmeci ve kuralcı bir etik kullanmamız gerekebilir.

Peki, hangisini seçmeliyiz? Araştırmacılar, en büyük gruplar için en büyük faydayı hesaplayan, faydayı en üst seviyeye taşıyan bir yapay zekâ programlayabilirler. Ya da sonuçlarından bağımsız biçimde, insanların saygı göstermesi gereken görev ve hakları önceleyen bir yapay zekâ yaratabilirler. Yahut belki de en iyisi, erdemli bir insanın belirli bir durumda neler yapabileceğini örnek alan bir yapay zekâdır. Veya belki de en iyi etiğe sahip olan bir yapay zekâ, bu ahlaki sınırlamalardan hangilerinin ne zaman kullanılacağına karar verebilir. Netice, gerçek bir kehanet ve bir efsane gerçek olabilir.

*Jim Davies, Carleton Üniversitesi Bilişsel Bilimler Bölümü’nde profesördür. Ödüllü bir podcast olan Minding the Brain’in ortak sunucusu.

**Cyborg: İnsan ve robot karışımı sibernetik organizma.

Makalenin orijinali, Nautilus sitesinde yayımlanmıştır. (Çeviren: Tarkan Tufan)

1. Pazzanese, C. Great promise but potential for peril. The Harvard Gazette new.harvard.edu (2020).

2. Jiang, L., et al. Delphi: Towards machine ethics and norms. arXiv 2110.07574v1 (2021).

3. Davies, J. Program good ethics into artificial intelligence. Nature 538, 291(2016).

 

Etiketler yapay zeka cyborg