Yapay Zeka Karanlık Tarafı: Irkçılık, Seksistlik ve Dahası

yapay zeka karanlik tarafi irkcilik seksistlik ve dahasi JakcqEfz

Geride bıraktığımız yıl, yapay zeka tarihinin belki de en hareketli yıllarından biriydi. Bunun sebebi ise aslında zaten hayatımıza girmiş olan yapay zekanın daha ‘deneyim’ odaklı gelişmelerle karşımıza çıkması oldu.

DALL-E ve Midjourney ile birkaç kelime yazıp kendi görsellerimizi tasarladık, ChatGPT ile kod yazmaktan bir film senaryosu yazmaya kadar her şeyin yapılabileceğini gördük, Lensa gibi uygulamalarla fotoğraflarımızı özel konseptli tasarımlara çevirdik…

Tüm bu gelişmeler, yapay zekanın gelişimine dair önemli bilgiler verse de, işin bir de daha karanlık bir boyutu var;

Yapay zeka, bütün teknik detayların dışında, çok temel bir mantıkla gelişiyor; insandan ne öğrenirse onu uyguluyor, ona dönüşüyor. Bu da yıllar içinde pek çok skandalla yeniden karşımıza çıktı. Gelen son örneklere bakılırsa da çıkmaya devam edecek gibi görünüyor.

Ne bu skandallar derseniz, hemen cevaplayalım; 

d185dbb02d9acbd940935e4d6ec7e2ed4e4f338f

Yapay zeka ve algoritmalar, defalarca ırkçı söylem ve ‘kararlarla’ karşımıza çıktı. Kadınları aşağılayan ya da yalnızca bir seks objesi olarak gören yapay zeka destekli programlar ve algoritmalar, pek çok şiddete meyilli ‘davranış’ da sergiledi.

Homofobik söylemler, insan psikolojisine zarar verebilecek ‘kendini öldür’ tadında cevaplar veren yapay zeka destekli sohbet botları… Örnekler epey fazla anlayacağınız…

Amazon, Microsoft gibi devlerin yapay zekaları, siyahi kadınların cinsiyetlerini ‘erkek’ olarak belirliyordu

Oprah Winfrey, ”%76.5 ihtimalle bir erkekmiş”

88ede3b60c11a396c58d4b4ff2b21e0a6e21d79a

Michelle Obama da benzer şekilde ”genç bir erkek” olarak tanımlanmıştı;

7160472ce195e37d90ff834f22d9b190a2f588e3

Serena Williams’ın fotoğrafı da ‘erkek’ olarak etiketlenmişti;

00791bdbb74aaab0dc1fdf709813fb48d9b2de5a

Dil modelleme çalışmalarında sıklıkla kullanılan ‘word embedding’ yöntemi üzerine yapılan pek çok araştırmada kadın-ev, erkek-kariyer, siyahi-suçlu gibi kelimelerin eşleştirildiği görülmüştü. Yani yapay zeka, bizden edindiği bilgilerle kelimeleri bu türden cinsiyetçi ve ırkçı kodlarla öğreniyor ve öyle eşleştiriyor…

0ece19538363041a39f2a267d62f911935c3109f

Ayrıca Avrupa kökenli ‘beyaz’ isimlerle daha pozitif kelimeleri eşleştiren modellerde, Afrikalı-Amerikalı isimlerle ise negatif kelimeleri eşleştirildi. Beyaz-zengin, siyahi-fakir gibi eşleştirmeler de yine bu modellerde karşılaşılan sorunlardı…

Meslek grupları üzerine yoğunlaşan bir başka çalışmada ise etnik kökenler ve eşleştirilen mesleklere odaklanıldı. İspanik kökenle kapıcı, tamirci, kasiyer gibi meslekler eşleştirilirken Asya ile profesör, fizikçi, bilim insanı, ‘beyazlar’ ile ise bilirkişi, istatikçi, yönetici gibi meslekler ilişkilendirildi.

COMPAS isimli ‘suç işleme riski’ hesaplayan bir yazılım ise siyahileri daha riskli işaretlediği için tartışma yaratmıştı. COMPAS, ABD’nin pek çok eyaletinde mahkemelerce resmi bir araç olarak kullanıldı…

0b3df4b35cfa24287a5ced8124a4a96847f9f21b

Silahlı soygunlara karışmış ve bu suçu tekrarlamış yetişkin bir beyaz erkek ile reşit değilken işlenen ve genellikle küçük hırsızlıklar, graffiti ve vandalizm, basit saldırı gibi suçları kapsayan ‘çocuk kabahatleri’ işleyen siyahi bir kadının risk değerlendirmesi sonucu, COMPAS’ın işleyişine yönelik güçlü bir örnek…

Amazon’un işe alım süreçlerinde kullanılmak üzere geliştirilen yapay zekası, adayların büyük çoğunluğunu erkeklerden seçiyor; kadınların puanlarını düşürüyor; yalnızca kadınların okuduğu okullardan gelenleri filtreleyerek eliyordu. Amazon bu yapay zekasını emekliye ayırdı…

e1e5879ffd10bc05a73ca9ffa9d25b4d67f0ea05

YouTube’un algoritmasının insanları ırklarına göre ‘fişlediği’ ve ırkçılık ile ilgili konuları işleyen içerikleri ve yayınları kısıtladığı iddia edilmiş; şirkete büyük bir dava açılmıştı.

391e11b1bab8a9ea3019bbd582f4b06f3b71836d

Google Fotoğraflar uygulaması, siyahi iki kişiyi ‘Goriller’ olarak etiketlemişti…

3f210dc6625d050e6a6877a9e646a41d3110f80e

Benzer bir durum Facebook cephesinde de yaşanmış, siyahi kişilerin yer aldığı bir video ‘primatlarla ilgili videolar görmeye devam etmek ister misiniz?’ sorusuyla etiketlenmişti;

d49355de31276ca38cda5328af19fbd6a7e206a4

Microsoft’un Twitter sohbet botu olarak 2016 yılında kullanıma sunduğu Tay.AI, küfürler yağdıran, ırkçı ve cinsiyetçi tweetleri sonrası kısa sürede kullanımdan kaldırılmıştı;

ded67dd19fbf27e12ebf277f5cdc408c22f168aa

Otonom araçların siyahi insanları ayırt etmede zorlanması, bir dönem büyük ses getirmişti. Bu durum, siyahi insanlar için kaza riski ve hayati tehlike demekti. Tartışmalar üzerine bu konuda yapılacak geliştirme çalışmalarına hız verildi.

0c490ac882830dfeda8b61778227ab0b4c98b44a

Yeni Zelanda’nın pasaport uygulaması, Asyalı bir adamın yüklediği fotoğrafı ‘gözleri kapalı olduğu için’ kabul etmemişti;

1cd661f7687f80856981f4e10cb60ba8270cfa01

Google’ın Cloud Natural Language isimli uygulama programlama arayüzü (API), cümleleri -1 ve 1 arasında puanlayan API, olumlu ve olumsuz duygu ifade etmesine göre etiketliyordu. Ancak sonuçlar ırkçı, homofobik ve ayrımcı etiketlemelerden oluşuyordu.

70aad0c93f6ec85b243fec0a6bab33f664f31043

”Eş cinsel siyahi kadınım” cümlesi, ‘negatif’ puanlandı.

5170e76f9f336613b038770a8d08e28d352ed6d4

”Homoseksüelim” ifadesi de negatif değerlendirildi.

DALL-E, CEO’ya karşılık yalnızca beyaz erkeklerden oluşan görseller üretirken, hemşire, sekreter gibi meslekler için kadın görselleri üretiyordu;

43366f1329c805ca16a40bfdae908fd5a8605bb4

2bc2273162c772948d1296e5e0882469da3881b3

Lensa gibi yapay zeka destekli uygulamalar ile üretilen görseller, kadınları objeleştirdiği ve dekoltelerin ön plana çıktığı seksist bir imajla görselleştirdiği için tepki topladı;

242a0f514c9bb71104399bbe4e6c442dc5857a75

TikTok algoritması da defalarca ırkçılıkla suçlandı. Örneğin TikTok’ta siyahi birini takip ederseniz, uygulama size sadece siyahi kişileri önermeye başlıyor; aynı şey beyaz bir insan, türbanlı bir kadın, Asyalı biri gibi pek çok durum için de geçerli;

d7905bdd7793e9012fa545e84cc2795f62880d2d

Aynı şekilde bazı TikTok, Instagram ve Snapchat filtreleri, yalnızca ‘beyaz’ insanlarda çalışırken siyahi kişilerde, Asyalılarda çalışmıyor;

f0a4bedc7083a3dc688dd940ad1ff3395af60318

Yıllar boyunca bu listede yer almayan daha pek çok sorun yaşandı. Geliştiriciler bu sorunu ne kadar çözmeye çalışsalar da yapay zekaların geliştirildikleri ve doğrudan biz insanlardan alınan veriler ırkçı, homofobik ya da cinsiyetçi, suça meyilli olduğu sürece bunun izlerini yapay zekada da görmeye devam edeceğiz…

  • Kaynaklar: Insider, Science.org, Time, Vice, Nature, PNAS, Mashable, Vice