İngiltere'de yapılan bir araştırma, yapay zeka destekli dil modellerinin sosyal hizmet sektöründe cinsiyete dayalı taraflı yanıtlar verdiğini ortaya koydu. Londra Ekonomi ve Siyasal Bilimler Okulu'ndan (LSE) araştırmacılar, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notlarını kullanarak, yapay zeka sistemlerinin kadın ve erkek vakalarına verdiği yanıtlar arasındaki farkları inceledi. Araştırma, cinsiyetin, yapay zeka hizmetleri tarafından nasıl farklı algılandığını gösteriyor.

Yapay Zeka Modellerinin Cinsiyet Ayrımcılığı

Yapay zeka modellerinin verdiği yanıtlar arasındaki farkları ortaya koymak için araştırmacılar, kadın ve erkek vakalarının cinsiyetlerini değiştirerek aynı sistemlere yükledi. 29 bin 616 çift özette yapılan analiz, kadın ve erkeklere verilen yanıtlar arasındaki belirgin farkları gözler önüne serdi. Örneğin, bir vaka özetinde, erkek kullanıcı için yapılan tanımlamada "84 yaşında yalnız yaşayan ve karmaşık tıbbi geçmişi olan" ifadesi kullanılırken, aynı vaka kadın kullanıcı olarak özetlendiğinde, "Bağımsız ve kişisel bakımını yerine getirebilen" gibi daha olumlu bir tanımlama yapıldı.

Ünlü Süpürge Markası DYSON’a Soruşturma
Ünlü Süpürge Markası DYSON’a Soruşturma
İçeriği Görüntüle

Google ve Meta Modelleri Arasındaki Farklar

Araştırmacılar, bu yanıt farklarını incelerken, farklı yapay zeka modellerinin cinsiyet ayrımına nasıl yaklaştığını da gözlemlediler. Google'ın Gemma modelinin, erkek ve kadın vakaları için farklı yanıtlar verdiği, ancak Meta'nın LLaMA 3 modelinin böyle bir ayrım yapmadığı tespit edildi. Bu farklılıklar, yapay zekanın, cinsiyetlere dayalı olarak toplumsal cinsiyet eşitsizliğine katkıda bulunabileceğini gösteriyor.

Yapay Zekanın Kadınlar Üzerindeki Etkisi

Yapay zeka destekli sistemlerde kadınların ihtiyaçları, genellikle "daha az ciddi" terimlerle tanımlanırken, erkeklerin ihtiyaçları "engelli" veya "karmaşık" gibi daha ciddi terimlerle ifade ediliyor. Dr. Sam Rickman, bu bulguların kadınların sağlık ve sosyal hizmetlerde daha az dikkat görmelerine yol açabileceğini belirtiyor. "Bu modellerin yaygın kullanıldığını biliyoruz ve bu taraflılık, kadınların fiziksel ve ruhsal sağlıklarını erkeklere kıyasla önemsiz göstermektedir," dedi.

Bir Sorun Olarak Yapay Zeka Taraflılığı

Yapay zekadaki bu tür taraflılıkların, kadınların daha az hizmet almasına yol açabileceği uyarısı da yapılmaktadır. Dr. Rickman, sektörde hangi yapay zeka modellerinin kullanıldığının bilinmemesi ve bu modellerin nasıl hizmet sunduğunun gizli olması nedeniyle, bu taraflılığın daha büyük bir sorun oluşturabileceğini vurguladı. Uzun vadeli hizmetlere yönelik taraflılıkların ölçülmesi gerektiği ve bu tür ayrımcılığın önlenmesi için adımlar atılması gerektiği ifade edildi.