Amazon'da yeni işe alım skandalından esinlenerek sorularım var, burada işe alım süreçlerinde kadınlara karşı ayrımcılık yapmakla suçlanıyorlar. Daha fazla bilgi burada :
Amazon.com Inc'in makine öğrenimi uzmanları büyük bir sorunu ortaya çıkardı: yeni işe alım motorları kadınları sevmedi.
Ekip, 2014 yılından bu yana en iyi yetenek arayışını mekanize etmek için iş başvurularının özgeçmişlerini gözden geçirmek için bilgisayar programları geliştiriyordu ...
... Şirketin deneysel işe alma aracı, iş adaylarına bir ila beş yıldız arasında değişen puanlar vermek için yapay zeka kullandı. ...
... Ancak 2015 yılına gelindiğinde şirket, yeni sisteminin yazılım geliştirici işlerine ve diğer teknik yayınlara adayları cinsiyetsiz bir şekilde derecelendirmediğini fark etti.
Çünkü Amazon'un bilgisayar modelleri, 10 yıllık bir süre boyunca şirkete gönderilen özgeçmişlerde örüntüler gözlemleyerek veteriner adaylarına eğitim vermiştir. Çoğu erkek, teknoloji endüstrisinde erkek egemenliğinin bir yansımasıydı. (Teknolojideki cinsiyet dökümü hakkında bir grafik için bakınız: burada ) Aslında Amazon'un sistemi erkek adayların tercih edilebilir olduğunu öğretti. "Kadınlar satranç kulübü kaptanı" nda olduğu gibi "kadın" kelimesini içeren özgeçmişleri cezalandırdı. Ve konuyu bilen insanlara göre iki kadın kolejinden mezun oldu. Okulların isimlerini belirtmediler.
Amazon, bu terimleri tarafsız kılmak için programları düzenledi. Ancak bu, makinelerin ayrımcılığı kanıtlayabilecek adayları sıralamanın başka yollarını geliştirmeyeceğinin garantisi değildi.
Seattle şirketi nihayetinde ekibi geçen yılın başından itibaren dağıttı, çünkü yöneticiler proje için umudunu kaybetti ...
... Şirketin deneyi ... makine öğreniminin sınırlamalarında bir vaka çalışması sunuyor.
... Carnegie Mellon Üniversitesi'nde makine öğrenimi öğreten Nihar Shah gibi bilgisayar bilimcileri hala yapılacak çok iş olduğunu söylüyorlar.
"Algoritmanın adil olmasını sağlamak, algoritmanın gerçekten yorumlanabilir ve açıklanabilir olmasını sağlamak - bu hala çok uzakta" dedi.MASCULINE LANGUAGE
[Amazon] Amazon'un Edinburgh mühendislik merkezinde bir düzine kişiye kadar büyüyen bir ekip kurdu. Amaçları, web'i hızla tarayabilen ve işe almaya değer adayları tespit edebilecek AI geliştirmekti.
Grup, belirli iş işlevlerine ve konumlarına odaklanan 500 bilgisayar modeli oluşturdu. Her birine geçmiş adayların özgeçmişlerinde ortaya çıkan yaklaşık 50.000 terimi tanımayı öğrettiler. Algoritmalar, çeşitli bilgisayar kodları yazma yeteneği gibi BT başvuruları arasında yaygın olan becerilere çok az önem vermeyi öğrendi ...
Bunun yerine, teknoloji, erkek mühendislerin özgeçmişlerinde daha yaygın olarak bulunan fiilleri kullanarak kendilerini tanımlayan adayları tercih etti. "idam edildi" ve "yakalandı" dedi bir kişi.
Diyelim ki, yeni insanların işe alınmasına yardımcı olmak için beş yıldızlı bir sıralama gibi kişisel verilerden bazı çıktıları tahmin etmek için istatistiksel bir model oluşturmak istiyorum. Diyelim ki etik bir kısıtlama olarak cinsiyet ayrımcılığından kaçınmak istiyorum. Cinsiyet dışında tamamen eşit iki profil göz önüne alındığında, modelin çıktısı aynı olmalıdır.
Cinsiyeti (ya da onunla ilişkili herhangi bir veriyi) girdi olarak kullanmalı ve etkilerini düzeltmeye mi çalışmalı mıyım yoksa bu verileri kullanmaktan kaçınmalı mıyım?
Cinsiyete karşı ayrımcılığın olmadığını nasıl kontrol ederim?
Modelimi istatistiksel olarak ayrımcı olan ancak etik nedenlerle olmak istemeyen veriler için nasıl düzeltirim?