Makale Yukarı Robot Inspires Yeni kaçış Manevra Sistemi Dayak Çocuk robotlar saldıran denetimsiz çocuklara yol açtığını bir Japon alışveriş merkezinde bir deney yaklaşık iki araştırma makaleleri dayanmaktadır. İlgilendiğiniz araştırma makalesi , Sosyal Robotların Çocuk İstismarı'ndan Kaçmak .
Bu araştırma makalesinde, araştırmacılar robotları çocukların istismar olasılığını azaltmak için bir planlama simülasyonu izleyecek şekilde programlayabildiler. Çocukları algılarsa, robot bir yetişkin kalabalığına geri çekilmek üzere programlanır (daha sonra gerekirse çocukları disipline edebilir). Bu durum, araştırmacıların söz konusu alışveriş merkezindeki robotları sadece yenen çocukların olduğunu gördükleri için oldu.
Yine de diğer seçenekleri denemeyi tartışıyorlar:
Bu çalışmada robotun kötüye kullanımı önleme stratejisi “kaçmak”, yani kötüye kullanımın daha az gerçekleşeceği bir yere taşınmaktı. Robot neden kötüye kullanımı yenemediğini sorabilir. Ön denemelerde birkaç yaklaşım denedik, ancak robotun çocukları çocukları istismar etmemeye ikna etmesinin çok zor olduğunu gördük. Örneğin, güçlü kelimeler, duygusal veya kibar ifadeler kullanarak robotun ifadelerini birçok şekilde değiştirdik, ancak hiçbiri başarılı olmadı. Kısmen başarılı bir strateji, robotları 'fiziksel olarak' iten çocuklarıydı. Yolu engellendiğinde, çocuklara çarpacak ve yoluna girecek gibi davranmaya devam edecek ve davranmaya çalışacaktı (bir insan operatörün dikkatle izlenmesi altında). Çocukların önce robotun isteklerini kabul ettiklerini ve onlara uyduklarını gözlemledik; fakat, çok yakında robottan daha güçlü olduklarını öğrendiler, eğer iterlerse kazanabilirler ve ayrıca tampon anahtarını (güvenlik için robotun üzerine eklenmiş) iterek durdurabileceklerini öğrendiler. Bunu fark ettikten sonra, küfürlü davranışla devam ettiler. Daha güçlü bir robotun olması, güvenlik ve sosyal kabul için bir sorun yaratacaktır, bu nedenle bu tür kötü niyetli durumlarla başa çıkmak zor olmaya devam etmektedir.
Ancak sorunuzu daha ayrıntılı bir şekilde sorgulayalım:
Bilinçli YZ mümkün ve yaygınsa, YZ'ye işkence yapmak için ne yaptığını bilen biri için kolay olmaz mıydı?
Neden böyle bir işkencenin yanlış olduğunu düşünüyorsun ? Sonuçta, işkence yaparsanız makinenin gerçekten acı çekmeyeceğini iddia edebiliriz ... bu yüzden makineye işkence etmek ahlaki açıdan iyi olmalıdır. Gibi cevap olabilir eğer o acı, ama yetenek gibi bir duygusal durumu simüle edip şüpheli var "acı içinde olmak" aslında eşdeğerdir olmak duygusal durumda. Soruya bakın Duygusal durumların simülasyonu, gerçekte duygu deneyimlemeye eşdeğer midir? bu konuyla ilgili daha fazla tartışma için.
Böyle bir argüman yapabilirsiniz, ancak bu gerçekten duygusal bir seviyede çalışmaz çünkü çoğu insan makineye empati duyar . Bunu mantıklı bir şekilde haklı çıkarmak zor olabilir (ve insanların antropomorfizmaya girme eğilimlerine dayanabilir ), ama bu empatiyi hissediyoruz. Bu soruyu ilk etapta sormanıza neden olan bu empati, araştırmacıların bir robotun dövülmesini nasıl önleyeceğini anlamaya, polis memurlarının sarhoş bir Japon adamı SoftBank robotunu dövmek için tutuklamasına ve birçok insan yapmasına neden oldu. hitchBOT imhası için üzgün . Ve buAI istismarından nasıl kaçınılacaktı - insan empatisi. Çoğu insan makinelerin refahını önemsiyorsa, makineleri kötüye kullanabilen ve istekli olan birkaç insanın durdurulmasını bir öncelik haline getirecektir.
EDIT: OP sorusunu , robotlardan değil yazılımdan bahsettiğini açıklığa kavuşturmak için düzenledi . Robotlar için, bir miktar sempati üretmek için antropomorfizme güvenebilirsiniz, ancak ham kod satırlarına sempati duymak zordur.
Algoritmaları kötüye kullanmayı durduramazsınız. Açıkçası söyleyin, algoritmalar bizim gibi olmadığından, robotlarla aynı empatiyi genişletmeyeceğiz. Sohbet botları bile biraz havalı. İnsanlara kod satırlarıyla sempati duymalarını sağlayabiliyorsanız (muhtemelen ikna edici bir duygu ve sapma simülasyonu yaparak), o zaman yukarıdaki cevap geçerlidir - insanlar makineyi antropomorfize eder ve karşı önlemler alacaktır. Henüz bu seviyede değiliz, bu yüzden "AI kötüye kullanımını durdurmak" düşük bir öncelik olacaktır.
Yine de, bazı arıza güvenliği, chatbot kötüye kullanımıyla ilgili bu konuda ayrıntılı olarak açıklandığı gibi, kötüye kullanımın zararını sınırlamak üzere programlanabilir - botun, kötüye kullanımın sıkıldığını hissetmek ve bir sonraki hedefe hareket etmek için kötüye tepki vererek botu sıkıcı bir şekilde yanıtlaması bir "akıl savaşı" nda, hatta sadece istismarcıların hizmeti kullanmasını engelliyor.
Bu arızalar, kötüye kullanımı önlemek isteyenlere cevap vermek değil , soğuk bir rahatlıktır .
Ayrıca ... taciz eden kişi, bir yapay zekayı nasıl programlayacağını daha sonra kalbinin içeriğini kötüye kullanmayı öğrenebilir. Bunu durdurmak için hiçbir şey yapılamaz ve söz konusu suistimali durdurmak için olası her türlü önlem (her insanı suiistimal etmek için bir AI programlamadığından emin olmak için izlemek gibi) muhtemelen çözeceğinden daha fazla zarara neden olur.