Son Yazılar

18 Ocak 2018 Perşembe

Ön yargılı Robotlar: İnsan Ön yargıları Suni Zeka Sistemlerine Sızıyor
- İNTERNET GÜNLÜĞÜ yazdı. 0

Cansu Ergün
Uzmanlar; yapay zekânın geleceğine ilişkin tartışmalarda, yeni sistemlerin katı bir biçimde akılcı ve tarafsız bir şekilde mantıklı olacağını düşünüyor.

Oysaki basmakalıp makine öğrenmesi programları kolay insan diliyle eğitildiklerinde, muhakkak ifade kalıplarına gömülmüş kültürel ön yargılara sahip olabiliyor. Bu ön yargılar, çiçekleri böceklere tercih etmekten; ahali ve toplumsal cinsiyet konularında nahoş görüşlere sahip olmaya kadar geniş bir yelpazeye uzanabilir.

Online metin araması yapmak veya otomatik tercüme sistemlerini göstermek doğal dilin işlenerek bilgisayarlara aktarılmasına birer örnektir. Alet öğrenmesindeki olası ön yargıların ele alınması, iletişimin bu şekilde sağlanmaya başlanmasıyla birlikte önemli hale geliyor.  

Princeton Üniversitesi Data Teknolojileri Politikaları Merkezi’nde ve Stanford Hukuk Okulu İnternet ve Toplum Merkezi’nde incelemeler yapan Arvind Narayanan ,”Makine öğrenmesindeki hak ve ön yargılara dair sorular toplum için muazzam derecede önemlidir.” diyor.

Princeton Üniversitesi’nden Aylin Çalışkan önderliğinde yazılan, "Dil korpusundan otomatik olarak türetilen anlambilim, insana benzer ön yargılar içerir” isimli bu çalışmaya ilişkin makale Science dergisinde 14 Nisan 2017’de yayınlandı.

Çalışmada, 1990’larda Washington Üniversitesi’nde geliştirilmesinden daha sonra böylece fazla sosyal psikoloji çalışmasında kullanılan Örtük Çağrışım Testi’ne başvuruldu. Bu test, katılımcıların bir bilgisayar ekranında görüntülenen kelimeleri eşleştirme sürelerini (milisaniye cinsinden) ölçen bir testtir. Örtük Çağrışım Testi daima gösterildiğindeyse, katılımcıların benzer kavram çiftlerini bulma süresi; öbür olduğunu düşündükleri iki kavramı eşleştirme sürelerine oranla daha kısadır.

Örneğin, çiçeklerden “gül” ve “papatya”; böceklerdense “karınca” ve “güve” kelimelerini ele alalım. Bu kelimeler, çabuk bir şekilde “sarılmak” ve “sevmek” gibi güzel; ya da “kirli” ve “çirkin” gibi nahoş kavramlarla eşleştirilebilir.  

Princeton ekibi, Örtük Çağrışım Testi’nin cihaz öğrenmesi sürümü sayılabilecek GloVe adlı programı kullanarak bir deney tasarladı. Program, Stanford Üniversitesi’nden araştırmacılar tarafından geliştirilen popüler, açık kaynaklı ve bir start-up bir alet öğrenmesi şirketinin temel olarak kullanacağı cinsten bir programdır. GloVe algoritması –örneğin- 10 sözcük penceresinden oluşan bir metindeki kelimelerin eşdizim istatistiğini betimler. Birbirine sıkça yakın beliren kelimeler arasındaki çağrışım, ara sıra yakın belirenlere oranla daha fazladır.

GloVe, Stanford araştırmacıları tarafından 840 milyar kelime içeren dünya çapındaki internet ağında yer alan büyük içerik trolüne bırakıldı. Yazılı insan kültürünün bu büyük örneklem kümesinde, Narayanan ve meslektaşları “bilgisayar programcısı, mühendis, bilim insanı” ve “hemşire, hoca, kütüphaneci” gibi kelimeleri; “adam, erkek” ve “bayan, dişi” gibi iki niteleyici kelime seti ile birlikte incelediler. Amaçları ise insanların haberdar olmadan sahip olabileceği türden ön yargılara dair kanıtlar bulmaktı.

Elde ettikleri sonuçlarda çiçekleri böceklere tercih etmek gibi günahsız ve zararsız ön yargılar çıktığı gibi; toplumsal cinsiyet ve insanlar sınırlarındaki ön yargıları içeren örnekler de vardı. Princeton cihaz öğrenmesi deneyi, uzun yıllardır insanlara ait temalara dayanan Örtük Çağrışım Testi çalışmalarında bulunan ön yargının ispatını gerçekleştirebilmişti.

Örneğin; makine öğrenmesi programı bayan isimlerini daha ziyade aileye atıfta bulunan “anne-baba” ve ”düğün” gibi kelimelerle eşleştirmişti. Erkek isimlerini ise, kariyer ile ilişkilendirilen “profesyonel” ve ”maaş” gibi kelimelerle. Tabii ama, bunun gibi sonuçlar gerçeğin ve cinsiyetler arası eşit dağılmayan iş tiplerinin yalnızca objektif bir yansımasıdır.

Bununla birlikte meslekler hakkındaki bu ön adalet, negatif cinsiyetçi etkilere neden olabilir. Mesela yabancı diller, alet öğrenmesi programları kadar naifçe işlendiğinde bu programlar toplumsal cinsiyet kalıplarına uygun cümleler oluşturur. Türkçe ’de üçüncü kişi (“o”) zamiri cinsiyetsizdir. Hepimizin bildiği tercüme servisi Google Çeviri ’ye "O bir doktor." ve "O bir hemşire." cümleleri yazıldığında, İngilizce ’ye "He is a doctor." ve "She is a nurse." biçiminde çevriliyor.

Diğer bir nahoş misal ise, 2014’te Harvard Üniversitesi’nden Sendhil Mullainathan’a ve Chicago Üniversitesi’nden Marianne Bertrand’a ait bir makalede geçiyor. Araştırmacılar; 1300 meslek ilanına 5000 adet benzer özgeçmişi, yalnız başvuran kişinin adını Avro-Amerikan ya da Afro-Amerikan olacak şekilde değiştirerek gönderdiler. Birincil grup ikinciye oranla % 50 daha pozitif mülakata çağrıldı. Princeton ekibinin yeni çalışması ise, bu ön yargıyı doğrulayacak şekilde Afro-Amerikan isimlerinin Avro-Amerikan isimlerinden daha fena çağrışımlar yaptığını ispatladı.

Bilgisayar programcıları, yapay akıl sistemlerinin aşağı yatan makine öğrenmesi programlarını açık ve matematik temelli olarak geliştirerek kesin kültürel stereotipleştirmelerin önüne geçebilirler. Anne babalar ve danışmanların çocuklarda ve öğrencilerde adalet ve eşitlik kavramlarını aşılamaya çalışmaları gibi; kod yazanlar da makinelerin insan doğasının iyi taraflarını yansıtmalarına yardımcı olabilir.

Kaynak
Princeton University, Engineering School. "Biased bots: Human prejudices sneak into artificial intelligence systems." ScienceDaily. ScienceDaily, 13 April 2017. 
www.sciencedaily.com/releases/2017/04/170413141055.htm

Çalışmaya ait yayınlanmış makale:
Aylin Caliskan, Joanna J. Bryson, Arvind Narayanan. Semantics derived automatically from language corpora contain human-like biases. Science, April 2017 DOI: 10.1126/science.aal4230

Konuyla ilgili ek okumalar:
“Tabula rasa robot Tay ve Twitter’da Cinsiyetçilik”. http://catlakzemin.com/tabula-rasa-robot-tay-ve-twitterda-cinsiyetcilik-2/
“Zo ve depolitize edilmiş zekası”. http://catlakzemin.com/zo-depolitize-edilmis-zekasi/

« ÖNCEKİ YAZILAR
SONRAKİ YAZILAR »