Algoritmalar, kurallar, bilgisayarlar ve büyük veri kümeleri kullanılarak geliştirilen ve insan beynini taklit eden yapay zeka; deneyim yoluyla çeşitli kalıplar tanımlayabilir, eylemler önerebilir, hatta alışılmadık durumlar ile ilgili tahminlerde bulunabilir. Hiç kuşkusuz, gelecekte hayatımızın her alanında daha fazla rol oynayacaktır. Dolayısıyla, yapay zekanın, dünya nüfusunun yarısından fazlasını oluşturan kadınları ve toplumsal rolleri üzerinden cinsiyet eşitsizliğinin geleceğini nasıl etkileyeceğine biraz daha yakından bakmak ve anlamak önemlidir.
Yapay zekanın toplumsal cinsiyet eşitliğinin geleceğiyle ilgili potansiyel risklerinden biri, zararlı toplumsal cinsiyet kalıplarını yayma potansiyeline sahip olmasıdır. İnsan beynini taklit eden ve mevcut algoritma veri kümelerini kullanan bu teknoloji, kadınları hem sosyal ve siyasi alanlarda hem de yol açtığı iş otomasyonu ile ekonomik olarak geride kalma riskiyle karşı karşıya bırakabilir. Bu nedenle, insanlar tarafından kodlanan yapay zeka algoritmalarının bazı stereotiplerden arındırılması ve cinsiyetçi önyargılara karşı eğitilmesi de önemlidir.
Yapay zeka algoritmalarını kodlamak
Algoritma kodlamak, metin yazmak gibidir. Dolayısıyla, çok gerçekçi bir metin yazdığımızı düşünsek bile, o metni yazarken seçtiğimiz ifade ve kelimelere dikkat etmek, “cinsiyetçi önyargılar” olarak adlandırdığımız ifadelere dikkat etmek gerekir.
Çünkü, bir algoritmayı kodlayan ve kullanan kişiler bu potansiyel önyargıların farkında değillerse, bu önyargılar yapay zeka aracılığıyla üretilmeye devam edilmiş olur. Kasıtlı bir ayrımcılık niyeti olmasa bile, yapay zeka algoritmalarını kodlarken bilinçsiz kalıp yargıların yeniden üretilmesini engellemek, toplumsal cinsiyet eşitliğini gelecekte daha riskli bir konuma getirmemek adına son derece önemlidir. Peki, yapay zeka algoritmaları kodlanırken ve kullanıcılar tarafından nasıl daha eşitlikçi bir hale getirilebilir?
Yapay zekanın geleceğini toplumsal cinsiyet eşitliği yönünde eğitmek
Gelecekte hayatımızın daha fazla alanında var olacak yapay zekayı toplumsal cinsiyet eşitliği yönünde eğitebilmek için, öncelikle veri tabanları düzeyinde hareket etmek gerekir. Dünya üzerinde cinsiyet, milliyet veya morfoloji farklılıklarını dikkate alan veri tabanları üzerinde çalışan bazı şirketler bunu zaten yapıyor ve algoritmalarını daha kapsayıcı olacak şekilde yeniden eğiten şirketler de mevcut. Ek olarak, bu algoritmaların önyargılı olup olmadıklarını belirlemek için araçlar geliştirme konusunda uzmanlaşmış şirketler de ortaya çıkmıştır.
Tüm bu gelişmeler, aslında yapay zekaya yardımcı olacak sorunlar, zorluklar ve iyi uygulamalar belirlendiğinde, yapay zeka algoritmaları ve veri setlerinde bulunan cinsiyet önyargılarının üstesinden gelinebileceğini göstermektedir. Bu noktada, teknoloji alanında önemli rollerde ve yönetim kurullarında daha fazla kadına yer vermek ve toplumsal cinsiyet eşitliğini de kapsayan yapay zeka kılavuz ve kuralları oluşturmak da gelecekte olası risklere karşı önemli adımlar olacaktır.
Birlemiş Milletler’in kadınlara karşı her türlü ayrımcılığın önlenmesi sözleşmesi
Toplumsal cinsiyet eşitliğinin geleceği açısından, yapay zekanın insan beyni ile nasıl bir etkileşim içinde olduğunu anlamak için kadının güçlendirilmesi konusundaki anlayışı da arttırmaya ihtiyaç vardır. Birleşmiş Milletlerin “Kadınlara Karşı Her Türlü Ayrımcılığın Önlenmesi Sözleşmesi”, uluslararası düzeyde toplumsal cinsiyet eşitliğinin kalıcı ve yerleşik yapısal ve mikro düzeydeki zorluklarının daha kapsamlı bir şekilde anlaşılması için önemli bir referans noktasıdır.
Kadına yönelik şiddetin ortadan kaldırılması başta olmak üzere; toplumsal kalıplar ve sosyal normların değiştirilmesi, kadınların ekonomik olarak güçlendirilmesi, siyasi katılımı ve karar alma süreçlerinde temsiline yer verilmesi, kaliteli eğitime ve yaşam boyu öğrenmeye erişimlerinin olması de dahil olmak üzere, kadının toplumsal yeri, insanlığın, dolayısıyla yapay zekanın geleceği açısından önemlidir.
Çünkü, algoritmik başarısızlıklar, nihayetinde teknolojiyi şekillendirme gücünü elinde tutanların önceliklerini, değerlerini ve sınırlamalarını yansıtan insani başarısızlıklardır. Dolayısıyla, toplumsal cinsiyet eşitliğinin geleceği anlamında güçlü bir ilerleme potansiyelini gerçekleştirmek istiyor ve potansiyel risklere karşı şimdiden önlem almak istiyorsak; yapay zekanın geliştirilmesi ve konumlandırılması noktasında daha fazla çalışmalıyız.
Yapay zeka, insan beynini taklit eder
Dolayısıyla, verilerin içinde farkında olarak veya olmayarak bir cinsiyetçilik varsa, yapay zeka da bu kalıbı alır ve çıktılarında aynı cinsiyetçi davranışı sergiler. Bu noktada, yapay zekanın geliştirilmesi alanındaki iş gücünde erkek nüfusun egemen olması, gelecekte potansiyel risklerin artmasına neden olabilir. Kasıtlı olarak yapılmasa bile, insan doğasında var olan cinsiyetçi söylem ve ifadeler ile farkında olmadan algoritmalara ön yargılar eklenir ve yapay zekanın geleceğinde, cinsiyet eşitsizliği yaratan kurallar yaratılmış olur.
İnsanlar olarak önyargılarımızdan arınmış değiliz. Kasıtlı olarak yapmasak bile, en temel düzeyde, cinsiyetçi söylemleri gündelik hayatımızda sıklıkla kullanıyoruz. Adam gibi yap, kadın gibi korkak olma, kadın gibi ağlama, adam gibi dur… Cinsiyetçi söylemleri o kadar içselleştirmişiz ki…
İstanbul Üniversitesi’nde okurken, beni bu araştırma alanına yönlendiren çok sevgili hocam Suat Gezgin ile konuştuktan sonra, cinsiyetçi söylemler ve dijital dünyada toplumsal cinsiyet eşitsizliği üzerine yazdığım master tezimdeki içerik analizinde de, Twitter’da, yani insanların gündelik söylemlerinde cinsiyetçiliğin ne kadar yaygın olduğunu büyük bir şaşkınlıkla gözlemledim…
Dolayısıyla, kasıtlı veya değil, insan beynini taklit eden ve algoritmaları kullanarak gelişen yapay zekanın geleceği açısından; kadınlara ve tabi ki farklı ırklardan insanlara karşı ayrımcı davranışlar yaratmayacağından emin olma sorumluluğuna sahip olduğumuzdan, yapay zekanın geliştirilmesinde daha fazla kadına yer verilmesi ve bu dönüşümün mümkün olduğunca toplumsal cinsiyet eşitliğini destekleyen şekilde yürütülmesi büyük bir önem taşımaktadır…
Elif Buse Baltacı