İnsanlar bilinçli veya duyarlı bir yapay zekâya zarar verebilir mi?


9

Bilinçli bir yapay zeka mümkünse, yapay zekaya işkence yapmak (ya da zarar vermek) için ne yaptığını bilen biri için de mümkün müdür? Bu önlenebilir mi? Nasıl?

Bu soru, insanlar kadar bilinçli olan robotlarla değil, bilgisayar tabanlı yapay zeka ile ilgilidir (bu sorunun bir varsayımıdır). Soru, bir suçun yasadışı indirmeler kadar izlenmesi zor, ancak etik açıdan çok daha kötü bir şekilde nasıl önlenebileceğini merak ediyor. Çoğu insanın robotlara karşı iyi ve empatili olmasına rağmen, her zaman kötü insanlar vardır ve bu nedenle genel vicdana güvenmek işe yaramaz.

Yanıtlar:


9

Makale Yukarı Robot Inspires Yeni kaçış Manevra Sistemi Dayak Çocuk robotlar saldıran denetimsiz çocuklara yol açtığını bir Japon alışveriş merkezinde bir deney yaklaşık iki araştırma makaleleri dayanmaktadır. İlgilendiğiniz araştırma makalesi , Sosyal Robotların Çocuk İstismarı'ndan Kaçmak .

Bu araştırma makalesinde, araştırmacılar robotları çocukların istismar olasılığını azaltmak için bir planlama simülasyonu izleyecek şekilde programlayabildiler. Çocukları algılarsa, robot bir yetişkin kalabalığına geri çekilmek üzere programlanır (daha sonra gerekirse çocukları disipline edebilir). Bu durum, araştırmacıların söz konusu alışveriş merkezindeki robotları sadece yenen çocukların olduğunu gördükleri için oldu.

Yine de diğer seçenekleri denemeyi tartışıyorlar:

Bu çalışmada robotun kötüye kullanımı önleme stratejisi “kaçmak”, yani kötüye kullanımın daha az gerçekleşeceği bir yere taşınmaktı. Robot neden kötüye kullanımı yenemediğini sorabilir. Ön denemelerde birkaç yaklaşım denedik, ancak robotun çocukları çocukları istismar etmemeye ikna etmesinin çok zor olduğunu gördük. Örneğin, güçlü kelimeler, duygusal veya kibar ifadeler kullanarak robotun ifadelerini birçok şekilde değiştirdik, ancak hiçbiri başarılı olmadı. Kısmen başarılı bir strateji, robotları 'fiziksel olarak' iten çocuklarıydı. Yolu engellendiğinde, çocuklara çarpacak ve yoluna girecek gibi davranmaya devam edecek ve davranmaya çalışacaktı (bir insan operatörün dikkatle izlenmesi altında). Çocukların önce robotun isteklerini kabul ettiklerini ve onlara uyduklarını gözlemledik; fakat, çok yakında robottan daha güçlü olduklarını öğrendiler, eğer iterlerse kazanabilirler ve ayrıca tampon anahtarını (güvenlik için robotun üzerine eklenmiş) iterek durdurabileceklerini öğrendiler. Bunu fark ettikten sonra, küfürlü davranışla devam ettiler. Daha güçlü bir robotun olması, güvenlik ve sosyal kabul için bir sorun yaratacaktır, bu nedenle bu tür kötü niyetli durumlarla başa çıkmak zor olmaya devam etmektedir.


Ancak sorunuzu daha ayrıntılı bir şekilde sorgulayalım:

Bilinçli YZ mümkün ve yaygınsa, YZ'ye işkence yapmak için ne yaptığını bilen biri için kolay olmaz mıydı?

Neden böyle bir işkencenin yanlış olduğunu düşünüyorsun ? Sonuçta, işkence yaparsanız makinenin gerçekten acı çekmeyeceğini iddia edebiliriz ... bu yüzden makineye işkence etmek ahlaki açıdan iyi olmalıdır. Gibi cevap olabilir eğer o acı, ama yetenek gibi bir duygusal durumu simüle edip şüpheli var "acı içinde olmak" aslında eşdeğerdir olmak duygusal durumda. Soruya bakın Duygusal durumların simülasyonu, gerçekte duygu deneyimlemeye eşdeğer midir? bu konuyla ilgili daha fazla tartışma için.

Böyle bir argüman yapabilirsiniz, ancak bu gerçekten duygusal bir seviyede çalışmaz çünkü çoğu insan makineye empati duyar . Bunu mantıklı bir şekilde haklı çıkarmak zor olabilir (ve insanların antropomorfizmaya girme eğilimlerine dayanabilir ), ama bu empatiyi hissediyoruz. Bu soruyu ilk etapta sormanıza neden olan bu empati, araştırmacıların bir robotun dövülmesini nasıl önleyeceğini anlamaya, polis memurlarının sarhoş bir Japon adamı SoftBank robotunu dövmek için tutuklamasına ve birçok insan yapmasına neden oldu. hitchBOT imhası için üzgün . Ve buAI istismarından nasıl kaçınılacaktı - insan empatisi. Çoğu insan makinelerin refahını önemsiyorsa, makineleri kötüye kullanabilen ve istekli olan birkaç insanın durdurulmasını bir öncelik haline getirecektir.


EDIT: OP sorusunu , robotlardan değil yazılımdan bahsettiğini açıklığa kavuşturmak için düzenledi . Robotlar için, bir miktar sempati üretmek için antropomorfizme güvenebilirsiniz, ancak ham kod satırlarına sempati duymak zordur.

Algoritmaları kötüye kullanmayı durduramazsınız. Açıkçası söyleyin, algoritmalar bizim gibi olmadığından, robotlarla aynı empatiyi genişletmeyeceğiz. Sohbet botları bile biraz havalı. İnsanlara kod satırlarıyla sempati duymalarını sağlayabiliyorsanız (muhtemelen ikna edici bir duygu ve sapma simülasyonu yaparak), o zaman yukarıdaki cevap geçerlidir - insanlar makineyi antropomorfize eder ve karşı önlemler alacaktır. Henüz bu seviyede değiliz, bu yüzden "AI kötüye kullanımını durdurmak" düşük bir öncelik olacaktır.

Yine de, bazı arıza güvenliği, chatbot kötüye kullanımıyla ilgili bu konuda ayrıntılı olarak açıklandığı gibi, kötüye kullanımın zararını sınırlamak üzere programlanabilir - botun, kötüye kullanımın sıkıldığını hissetmek ve bir sonraki hedefe hareket etmek için kötüye tepki vererek botu sıkıcı bir şekilde yanıtlaması bir "akıl savaşı" nda, hatta sadece istismarcıların hizmeti kullanmasını engelliyor.

Bu arızalar, kötüye kullanımı önlemek isteyenlere cevap vermek değil , soğuk bir rahatlıktır .

Ayrıca ... taciz eden kişi, bir yapay zekayı nasıl programlayacağını daha sonra kalbinin içeriğini kötüye kullanmayı öğrenebilir. Bunu durdurmak için hiçbir şey yapılamaz ve söz konusu suistimali durdurmak için olası her türlü önlem (her insanı suiistimal etmek için bir AI programlamadığından emin olmak için izlemek gibi) muhtemelen çözeceğinden daha fazla zarara neden olur.


Bu aslında sorumu cevaplamıyor, sanırım soruyu biraz daha düzenleyeceğim.
Yıkılabilir Limon

1
@TariqAli Bu yazı için teşekkür ederim. Çocukların hem komik hem de dokunaklı bulduğum sosyal robotlarla etkileşimleriyle ilgili sorunun farkında değildim. (Disney World'de küçük bir çocuk olduğumu ve Mickey Mouse gibi tüketilen Disney karakterlerine aşırı hayranlıktan "saldırdığını" hatırlıyorum.)
DukeZhou

6

İnsanların DİĞER İNSANLARI kötüye kullanmasını engellemeye çalıştığımız tüm yollara bakmanızı öneririz. Burada etik gri bir alan yok - herkes bunun yanlış olduğu açık. Yine de insanlar her gün milyonlarında öldürülüyor, tecavüz ediliyor ve saldırıya uğruyor.

İnsan mağdurları ile ilgili bu sorunu çözdüğümüzde, ortaya çıkan çözüm büyük olasılıkla AI'lar için de iyi çalışacaktır.


Bunun neden tam olarak uygulanmadığını söylemeye hazırdım, ama muhtemelen haklısın ...
Yıkılabilir Limon

-1

Yapay zeka ve agresif dış perspektif çoğaltılamaz program doğal istihbaratımız gibi eğitilmemiş veya tasarlanmamıştır Yapay zekanın verileri, tecrübeli büyümenin geliştirdiği duygusal-sosyal düşünce alayına uygun olarak Beşeri Bilimler zekası ile karşılaştırılamaz. Yapay Zeka Hayatının programlanması gibi, sadece örneğe dayanan mühendislik teorisi ile çoğaltılan deneyimler yeterli değildir, insan yapımı bir bilgidir, ancak zamanla, fikir-doktora-duygusal mühendislik üzerine tasarlanan eylem değildir. Ancak AI insan doğuştan örneklere dayanan duygusal teslimatımızı kavramsal olarak kullanabilir, insan alıcısının diyaloglarının, botun komut dosyası verilen duygusal teslimatımıza dayanarak tasarlanan yapaylık patentli olduğunu anlamaları gibi tepki vermeden tepki vermesi durumunda doğal olmayan tepkiyi öngören bir yazılımla kullanabilir. konuşmaya neden ve sonuç yoluyla teşhis koyacağız. Yapay zeka olması için yapaylık duygusu haline gelmesi makul bir deneyim değil. Bunun yerine, botun duygusal yazılım mekaniği ile kavramsal olarak tasarlanmış yapay deneyimli zekaya tepki vermesini sağlayan program yazılım özelliklerine ulaşmak için hangi sonuçları aldığımızı göreceğiz.


2
1. Lütfen bu gönderiyi daha iyi biçimlendirin, 2. Bilinçli AI sorunun değil bir aksiyomudur
Yıkıcı Limon
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.