Yapay zeka neden ırkçı?

Princeton Üniversitesi araştırmacıları, YZ'nin (Yapay Zekâ) neden ırkçı ve cinsiyetçi olabileceğini araştırıyor. Dil önyargısının incelenmesi, insan zekâsının yanı sıra YZ için de benzer etkiler olduğunu ortaya koyuyor.
yapay-zeka-ic

Annalee Newitz*

Microsoft’un chatbot’u (yapay-zeka bazlı sohbet programı karakteri /ç.n.) Tay’ın, Twitter’da insanlarla etkileşime girdikten 24 saat sonra ırkçı yorumlar yayınlamaya başlamasının ardından, Yapay Zeka (YZ) programlarının, insan önyargılarının yanlışlarını barındırabileceği de açıkça görülmüş oldu. Bir grup araştırmacı bunun temel bir nedenini tespit etti. Öte yandan, bulgular gelecekteki robotumuzun ötesine geçen sorunları aydınlatıyor. Ayrıca, insanların çevrimiçi kullanımını yoğun bir biçimde inceleyerek insan önyargılarını tahmin edebilecekleri bir algoritma geliştirdiler.

ÖRTÜK ÇAĞRIŞIM TESTİ

Çoğu YZ, Ortak Tarama olarak bilinen devasa bir bilgi havuzunu kullanarak insan dilini anlamak üzere eğitilir. Ortak Tarama, 2014 yılında internette bulunan 840 milyar sembol veya kelime içeren büyük ölçekli bir taramanın sonucudur. Princeton Bilgi Teknolojileri Merkezi idarî araştırmacısı Aylin Çalışkan ve ekibi, çevrimiçi ortamda yazan milyonlarca kişinin yarattığı külliyatın algoritma tarafından keşfedilebilen önyargılar içerdiği tespit edilebiliyor mu diye merak ediyorlardı. Bunu anlayabilmek için alışılmadık bir kaynağa yöneldiler: Bilinçdışı olan sosyal tutumları ölçmek için kullanılan Örtük Çağrışım Testi ( IAT / Implicit Association Test).

IAT’ye katılan kişilerden sözcükleri iki kategoriye dahil etmeleri istenir. Kişinin bir kategoriye dahil olması ne kadar uzun sürerse, sözcüğü kategoriyle ilişkilendirmesi de o kadar az olur. (Bir IAT görmek isterseniz, Harvard Üniversitesi’nde birkaç çevrimiçi örnek mevcuttur.) IAT, insanlardan rastgele sözcükleri cinsiyet, ırk, engellilik, yaş ve benzeri kategorilerle ilişkilendirmelerini istemek yoluyla, kişilerin önyargılarını tespit etmek için kullanılır. Sonuçlar genelde pek şaşırtıcı değildir: Örneğin, çoğu insan, kadınları aileleriyle ve erkekleri işleriyle ilişkilendirir. Ancak bu ipucu, aslında IAT’nin insanların birbirleri hakkındaki gizli klişelerini keşfetme bağlamında yararlı olduğunu kanıtlamaktadır. (Bu, sosyal bilimciler arasında IAT’nin doğruluğu hakkında bazı kayda değer tartışmaların var olduğuna da işaret etmektedir.)

Aylin Çalışkan ve meslektaşları, IAT’yi model olarak kullanarak, hangi kavramların diğerlerinden daha yakından ilişkili olduğunu görmek için, metin bölümlerini analiz eden Kelime Çağrışım Bağlantısı Testi’ni (WEAT) hazırladılar. Testin “kelime bağlantısı” kısmı, Stanford’da, kelimeleri birlikte “vektör sunumları” biçiminde paketleyen, temel olarak ilişkili terimlerin bir listesini içeren GloVe adlı başka bir projeden sağlanıyor. Yani “köpek” kelimesinin bağlantısı bir vektör olarak gösteriliyorsa; köpek yavrusu, köpek timi, tazı, köpek ve çeşitli köpek ırkları gibi kelimelerden oluşacaktır. Fikir belirli kelimeyi değil, “köpek” kavramını elde etmek üzerine kuruludur. Birisi “kadın” veya “anne” gibi kelimeleri kullanarak kadınlarla ilgili fikirleri ifade edebileceği toplumsal stereotiplerle çalışıyorsa, bu özellikle önemlidir. İşi sadeleştirmek için, araştırmacılar her bir konsepti 300 vektörle sınırlı tutmuştur.

WEAT, kavramların çevrimiçi ortamda hangi biçimlerde ilişkilendiğini tespit etmek için metindeki “yakınlıklarını” ölçmek amacıyla çeşitli faktörlere bakıyor. Çalışkan, temel düzeyde iki kavramın kaç kelimeden ayrışmış olduğu anlamına geldiğini, ancak kelimenin frekansı gibi diğer faktörleri de hesaba kattıklarını belirtti. Bir algoritmik dönüşümü gerçekleştirdikten sonra, WEAT’te görülen yakınlık, bir kişinin IAT’deki bir kavramı kategorize etmesi için gereken süreye eşdeğerdir. İki kavram birbirinden ne kadar ayrışıyorsa, insanların zihinlerinde de o denli uzaklaşıyorlar.

WEAT, IAT’nin daha önce bulduğu önyargıları keşfetme yolunda oldukça sağlıklı veriler sundu. Çalışkan, “IAT’yi makinalara uyarladık” diyor. Ve bu aracın ortaya koyduğu şey, “YZ’yi insan verileri ile beslerseniz, öğreneceği şeyin, bu verilerin dilsel açıdan önyargılı bilgiler içeriyor olduğu” idi. Bu önyargı, YZ’nin gelecekte göstereceği davranışları da etkileyecektir. Çalışkan bir örnek video hazırladı; burada kelimeleri cinsiyetle bağıntılı öğrenen Google Translate YZ’nin, klişelere dayalı olması nedeniyle İngilizce diline nasıl yanlış çeviri yaptığını ortaya koyuyor.
İnsanlardan öğrendikleri önyargıları çoğaltan ve internette kullanıma sokulan bir robot yazılımı düşünün. Bu yazılımlardaki önyargılara karşı düzeltmeler gerçekleştiremezsek, göreceğimiz gelecek böyle olacaktır.

YZ’NİN ÇÖZEMEDİĞİ BİR SORUN

Çalışkan ve meslektaşları, dilin önyargı ve basmakalıp temelli önyargılarla dolu olduğunu fark etmesinin yanı sıra, bazı gizli gerçeklerle de karşılaştılar. Testlerden birinde, “kadın” kavramı ve hemşirelik kavramı arasında güçlü ilişkilere rastlandı. Bu sonuç, hemşireliğin genelde kadın mesleği olduğu gerçeğiyle ilgili veriyi yansıtmaktaydı.
Çalışkan, “Dil dünyada var olan olguları yansıtıyor” diyor. Şöyle devam ediyor:

“Hayatta mevcut olan önyargıları veya istatistiksel gerçekleri yok saymak, makine modelinin daha az doğru olmasına neden olacaktır. Ancak önyargıları kolaylıkla yok edemezsiniz, dolayısıyla onunla ne yapacağınızı öğrenmeniz gerekiyor. Kendimizi tanırız, (bu sebeple) önyargılı seçenek yerine doğru şeyi yapmaya karar verebiliriz. Öte yandan, makineler kendi kendilerinin farkında değillerdir. Uzman bir insan karar verme sürecinde (onlara) yardımcı olabilir, böylece belirli bir görevdeki sonuç, basmakalıp önyargılardan farklı olacaktır.”

İnsan dilindeki sorunun çözümü (yine) insanlardır. Çalışkan, “Doğru kararların alınmasını sağlamak için bir insana ihtiyaç duymayacağınız pek fazla durum düşünemiyorum” diye ekliyor. “Bir insan, uygulama ne olursa olsun sınır durumların farkındadır, sınır durumlarını test etmenizin ardından (sonucun) önyargılı olmadığından emin olabilirsiniz.”
Yazılımların insanî işleri devralacağı fazla abartılıdır. YZ’ler bizim için çalışırken, YZ’nin sonuçlarını doğruluk ve önyargı açısından kontrol eden insanlara yeni işler bulmamız gerekecek. Sohbet yazılımları aşırı sofistike hale geldiklerinde dahi insan dili konusunda eğitilmeye devam edilecekler. Ve önyargı dilin bünyesinde var olduğundan, karar vericiler olarak hâlâ insanlara ihtiyaç duyulacaktır.

Araştırmacılar, Science dergisinde çalışmalar hakkında yayınladıkları yakın tarihli bir makalede, etkilerin oldukça kapsamlı olduğunu söylüyorlar. “Bulgularımızın -dilin bilinci şekillendirdiğini öne süren- Sapir Whorf hipoteziyle ilgili tartışmalara katkıda bulunacağından eminiz” diyorlar. “Çalışmalarımızın, bir terimin tarihi kullanımına eklemlenmiş olan kültürel tarihi yansıtacağını iddia ediyoruz; bu tür tarihler, diller arasında bir değişim olduğunu gösterebilirler” diyorlar. Arrival filmini izlediyseniz, büyük olasılıkla Sapir Whorf’u da işitmişsinizdir. Artık, bunun en azından klişeler söz konusu olduğunda doğru olabileceğini ispatlayan bir algoritmamız var.

Çalışkan, ekibinin dallara ayrılıp genişleyerek insan dilinde henüz fark edilmemiş önyargıları bulma konusunda çalışmak istediğini ifade ediyor. Belki sahte haberlerle oluşturulan kalıpları arayabilir veya belirli alt kültürlerde veya coğrafi konumlarda bulunan önyargıları inceleyebilirler. Ayrıca, önyargıların İngilizce’den çok farklı şekilde kodlandığı diğer dilleri de araştırmak istiyorlar.

“Diyelim ki gelecekte, kimileri belli bir kültürde veya coğrafi bölgede bir önyargıdan veya klişeden şüphe duyar” diyor Çalışkan. “İlkin zaman, para ve çaba gerektiren insan denekleriyle test etmek yerine, bu gruptaki insanlardan metinler alabilir ve bunların önyargılı olup olmadıklarını inceleyebilirler; bu, ekibe zaman kazandırabilir.”
(Çeviren: Tarkan Tufan)


*Annalee Newitz, Ars Technica sitesinde Teknik Kültür Editörüdür.

Bu yazının orijinali Ars Technica isimli sitede yayınlanmıştır. (Çeviri Tarkan Tufan)