Kendi kendini süren otomobiller kimi öldürecekleri konusunda nasıl etik kararlar alabilir?


74

Açıkçası, kendi kendini süren otomobiller mükemmel değil, bu nedenle Google otomobilinin (bir örnek olarak) zor bir duruma girdiğini hayal edin.

İşte bir dizi olayın neden olduğu talihsiz durumlara birkaç örnek:

  • Araba yoldan geçen 10 kişilik bir kalabalığa doğru gidiyor, bu nedenle zaman içinde duramıyor, ancak 10 kişiyi duvara çarparak (yolcuları öldürerek) öldürmekten kaçınabilir,
  • Otomobilin yolcusu için hayatta kalma ihtimalinin daha yüksek olduğunu göz önünde bulundurarak motosikletin binicisini öldürmekten kaçınmak,
  • Sokakta bir hayvanı bir insan lehine öldürmek,
  • Köpeği öldürmekten kaçınmak için başka bir arabaya çarpmak için şerit değiştirmek,

Ve işte birkaç tane ikilem:

  • Algoritma, insan ile hayvan arasındaki farkı kabul ediyor mu?
  • İnsanın veya hayvanın büyüklüğü önemli midir?
  • Önündeki insanlara karşı kaç yolcu olduğunu sayıyor mu?
  • Bebeklerin / çocukların ne zaman gemide olduğunu "biliyor mu"?
  • Yaşı hesaba katar mı (örneğin, önce büyükleri öldürmek)?

Bir algoritma teknik açıdan ne yapması gerektiğine nasıl karar verir? Yukarıdakilerin farkında mı (öldürme olasılığını sayar)) ya da değil (kendi yıkımından kaçınmak için insanları öldürmek)?

İlgili Makaleler:


3
ME'yi yolcunun öncelikli güvenlik önceliği yapmaması için programlanmış hiçbir araçta kullanmayacağım. Bu düşüncede yalnız değilim. Herhangi biri, özerk araç üreticilerini araçlarını, yolcularının güvenliğini öncelikli olmaktan başka bir şey yapmaya programlamaya zorlama planları varsa, o zaman tüm sanayi şimdi kapılarını da kapatabilir. Bir yolcu, ahlaksız bir ahlaki karar nedeniyle öldüğü ilk birkaç kez, insanların büyük çoğunluğunun başka bir özerk araç satın aldığı son zaman olacaktır. Kim bir ölüm tuzağına binmek ister?
Dunk

Sözde "tramvay sorunu" bir troll-y sorundur. Örnek olay incelemesinden ziyade düşünce deneyi olarak bilinen bir sebep var: bu şimdiye kadar olan bir şey değil. Gerçek olmaya yakın bile değil, çünkü büyük ölçüde arabalar araba değil. Herhangi bir uzaktan uygulanabilir durumda doğru cevap hemen hemen her zaman "frene basmaktır" ve bir istisna varsa, bunun tek bir yolu çözülebilir: arabanın sakinlerini ne pahasına olursa olsun koruyarak ve hatta hiçbir şey düşünmeden , iki nedenden dolayı.
Mason Wheeler

2
İlk olarak, @Dunk oldukça iyi bir şekilde işledi: pragmatizm. Otomobilin farklı bir seçim yapması mümkün olursa, aklı başında hiç kimse bir tane almak istemez. İkincisi, aracın bilgisayarında yerleşik bir "herkesi öldür" işlevi varsa, bu kötü niyetli bilgisayar korsanlarının bulması ve kötüye kullanması için zaten orada olduğu anlamına gelir. Birisinin, meşru bir araba-sorun durumu hakkında tamamen kurgusal bir fikre karşı ters bir girdiyle bunu tetiklemenin bir yolunu bulmanın gerçek şansını tartışın ve ahlaki olarak saçma ve iğrenç olmayan tek bir olası cevap var.
Mason Wheeler

Yanıtlar:


54

Kendi kendini süren otomobiller kimi öldürecekleri konusunda nasıl etik kararlar alabilir?

Olmamalı. Kendi kendine sürüş arabaları ahlaki ajan değildir. Arabalar tahmin edilebilir şekilde başarısız oluyor. Atlar öngörülebilir şekillerde başarısız olur.

Araba yoldan geçen 10 kişilik bir kalabalığa doğru gidiyor, bu nedenle zaman içinde duramıyor, ancak duvara çarparak 10 kişiyi öldürmekten kaçınabilir (yolcuları öldürmek),

Bu durumda, araç frenlere çarpmalıdır. 10 kişi ölürse, bu sadece talihsizlik. Biz sadece edemez güven arabanın dışında gerçekleşiyor duyduğumuz inanç tüm. Ya bu 10 kişi gerçekten insan gibi görünmek için yapılmış robotlarsa ? Ya seni öldürmeye çalışıyorlarsa ?

aracın yolcuları için hayatta kalma olasılığının daha fazla olduğunu göz önünde bulundurarak motosikletin binicisini öldürmekten kaçınmak,

Yine, bu tür duyguları bir araca zorla kodlamak, aracın sürücüsünü "sahte" motosikletliler dahil olmak üzere her türlü saldırıya kadar açar . İnsanlar bu kararları kendi başlarına yapmak için zar zor donanımlıdırlar. Şüphe ettiğinde, sadece frenleri çarp.

sokakta hayvanı insan lehine öldürmek,

Yine, sadece frenlere çarp. Ya bebek olsaydı? Ya bomba olsaydı?

köpeği öldürmekten kaçınmak için başka bir arabaya çarpmak üzere şeritleri değiştirmek,

Hayır! Köpek yanlış zamanda yanlış yerdeydi. Diğer araba değildi. Sadece frenlere çarparak, olabildiğince güvenli bir şekilde.

Algoritma, insan ile hayvan arasındaki farkı kabul ediyor mu?

Bir insan mı? Her zaman değil. Ya insanın silahı varsa? Ya hayvanın büyük dişleri varsa? Bağlam yok mu?

  • İnsanın veya hayvanın büyüklüğü önemli midir?
  • Önündeki insanlara karşı kaç yolcu olduğunu sayıyor mu?
  • Bebeklerin / çocukların ne zaman gemide olduğunu "biliyor mu"?
  • Yaşı hesaba katar mı (örneğin, önce büyükleri öldürmek)?

İnsanlar bu konuda hemfikir olamazlar. Bir polise bu durumlarda ne yapılacağını sorarsanız, cevap, "Sola doğru kaydırmalıydınız, kafanızdaki tüm ilgili tarafları tartıştınız, tüm taraflar arasındaki ilgili yaşları değerlendirdikten sonra hafifçe düzlenmiş, ve% 8 daha fazla hayat kurtarırdın. " Hayır, polis sadece "Aracı durdurmaya, mümkün olduğunca çabuk ve güvenli bir şekilde durdurmalıydınız" der. Neden? Çünkü polisler normalde insanların yüksek hızlı çarpışma senaryolarıyla başa çıkmak için donatılmadıklarını biliyor.

“Kendi kendine süren otomobil” hedefimiz, 'insanla eşit derecede ahlaki bir ajan' olmamalıdır. Tahminen başarısız olan, hamamböceği reaktif karmaşıklığına sahip bir ajan olmalıdır.


Bu senaryoların çoğunda, potansiyel olarak öldürülen insanlar, otomobilin / araç sahibinin zedelenmesinden daha fazla zarar görür - frenleri çarpmak, yolcunun kazadan kaçınamadığı için makul olan tek tepki gibi görünüyor. Sizin de belirttiğiniz gibi, bir yaya yerine işgalciyi (potansiyel olarak) öldürerek hareket eden bir algoritmayı, işgalciyi, arabayı ya da üreticiyi suçlama olasılığını bile olsa, işgalciyi öldürmenin bir yolu olarak kullanmak çok olasıdır.
Daha temiz

48

Bu soruların çoğuna cevap, cihazın nasıl programlandığına bağlıdır. Yolun etrafından dolaşma ve etrafını tanıma yeteneğine sahip bir bilgisayarın, insanı bir hayvandan görsel olarak ayırt etme kabiliyetine sahip olması muhtemeldir, ister taslak, resim veya büyüklük olsun. Yeterince keskin bir görüntü tanıma özelliği sayesinde, başka bir araçtaki insanların sayısını ve türlerini sayabilir. Farklı araçlardaki insanların yaralanma olasılığı hakkındaki mevcut verileri bile kullanabilir.

Sonuçta, insanlar ilgili etik seçimler konusunda anlaşamıyorlar. Belki de kullanıcının / sahibinin "sadece yaşam sayısını düşün" gibi "daha genç hayatların daha değerli olduğunu" yapılandırması için "etik ayarları" olabilir. Şahsen, makinenin bir insana zarar vermeden önce kendisine zarar vermesi gerektiği konusunda tartışmalı olmadığını, ancak insanların evcil hayvanların yaşamının ne kadar önemli olduğu konusunda aynı fikirde olmadığını düşünüyorum. Açıkça öldürme-bu ilk ayarlar, insanları rahatsız ediyorsa, cevaplar kullanıcıya verilen bir anketten belirlenebilir.


2
Aklımın en derindeki bir şey, bir etik düzenleme düzenlemesinin kötü bir fikir olacağını düşünüyor. Bir insan yerine bir makine olmasının gerçekte ne olduğundan emin değiliz ama ben her zaman bir başkasıyla birlikte bir arabaya bindiğimizde bir insanın etik kararlarına abone olmak için bu yazılı olmayan sözleşmeye sahip olduğumuz sonucuna vardım.
Ian

6
'etik ayarlar'? Gerçekten mi? Herhangi bir olası önyargıya dayanan insanları belirleyeceksiniz 'En çok görünen kişiyi öldürün' Homoseksüel? En Favori Yarış mı? Ya da bir çarpışmadaki sürücülerdeki iki aracın karşıt ahlakı varsa? Öyleyse her ikisi de idam edildi ve fazladan ekstra hasar var mı? Bu yasalar, tıpkı yol yasaları gibi, evrensel (en azından bir ülke içinde) olmalıdır.
navigator_

3
@ navigator_ Üreticinin sağladığı seçeneklerin haklı olacağını umuyorum.
Ben N

1
Yine de kimin tarafından tanımlandığı gibi? Bu benim açımdan bir şey.
navigator_

3
Aslında, "etik belirleme" nin tek uygulanabilir / adil seçenek olduğunu düşünüyorum, çünkü belirli bir sürücüyü mümkün olduğu kadar taklit ediyor. Arabanın şoförü, sanki araba kullanıyormuş gibi, sonuç olarak ne olursa olsun sorumlu olmalıdır. Bir arabanın programlanmasının (örn.) Sürücünün hayatını, başka bir şeyden önce başka bir şeyden önce hayatını başka bir şeyden önce koymadığını görmüyorum.
Pandora

26

Şahsen, bunun aşırı yazılmış bir sorun olabileceğini düşünüyorum. Araba sorunları sadece "3. seçenekleri" önlemek için durum iyileştirildiğinde ortaya çıkar.

Bir arabanın frenleri var, değil mi? "Ama ya frenler çalışmıyorsa?" Öyleyse, araba hiç süremez. Düzenli trafikte bile, insan operatörlere hızınızın, görebildiğiniz alanda durabileceğiniz şekilde sınırlandırılması gerektiği öğretilir. Bu gibi çözümler bir tramvay sorunu olasılığını azaltacaktır.

Hayvanlara gelince ... yoldaki insanlarla ilgilenmek için açık bir çaba yoksa, hayvanlara aynı şekilde davranılacağını düşünüyorum. Bu kulağa hoş gelmez geliyor - roadkill sık sık meydana geliyor ve insan "roadkill" istenmeyen, ancak hayvanlar insanlardan çok daha küçük ve daha zor, bu yüzden insanların tespit edilmesinin daha kolay olacağını düşünüyorum, birçok kazayı önlüyor.

Diğer durumlarda (hatalar, sürüş sırasındaki arızalar, birbiri üzerine yığılmış çok sayıda arıza), belki kazalar meydana gelir, analiz edilir ve benzer durumlara yol açmamak için araçlar güncellenir.


AI'nın yalnızca gördüklerinden durabilecekleri kadar hızlı süreceklerini söylemek yanlıştır, çünkü aynı şey savunmacı sürüş insanları için de geçerlidir. Bunun nedeni varsayımların yapılması GEREKİRDİR. Bir tepeye tırmanırken, büyük bir engelin görüş dışı olmadığı varsayılmaktadır [Source DARPA Grand Challenge]. Bu varsayımlar hangi eylemlerin doğru olduğunu belirlemek için yolun kurallarına dayanır. Dolayısıyla, bir kaza olursa, yolun kurallarına uyduğunuz sürece sorumluluğunuzu azaltabilirsiniz. Dolayısıyla bir otomobil bu kararı verebilmelidir, ancak belki de sınırlı bir şekilde (tüketiciyi koru).
Harrichael

12

Bu iyi bilinen Arabası Sorunu . As Ben N söyledi, insanlar arabası sorun senaryoları için eylem doğru yolda katılmıyorum ama kendine giden arabalar, güvenilirlik bu senaryolar gerçekten olası değildir o kadar yüksek olduğuna dikkat edilmelidir. Dolayısıyla, tarif ettiğiniz sorunlara en azından kısa vadede çok fazla çaba gösterilmeyecektir.


Arabası Probleminin bunun için ne kadar uygun olduğunu merak ediyorum. Arabası problemi temelde, bir kerelik ve herkes için bir seçimi tanımlayan ayrıktır, oysa pratikte algoritma (muhtemelen oldukça küçük) zaman aralıklarında, muhtemelen yeni bilgi mevcut olacak şekilde bir dizi seçim yapmalıdır . Yararlı bir algoritmanın, gerçek, üç boyutlu uzaya gömülü, soyut, ayrık ahlaki bir karar değil, hızlar ve olasılıklarla ilgili bir 'sürekli kontrol' sorunu olması muhtemeldir. Başka bir şey değilse, bu, uygulamanın bu tür ahlaki terimlerle tanımlanması gerekmeyeceği anlamına gelir.
NietzscheanAI,

1
@NietzscheanAI El arabası probleminin fikri, hangi kararın alınacağı değil, kararların ne üzerinde yapılacağı ile ilgili değildir. Gömme, insan sayısı, hatalı hayvan sayısı, hatalı güvenlik, sürücü güvenliği, daha fazla iyi, en az değişiklik, vb. Düşünürseniz. Hala tramvay sorunlarına olasılıklar uygulayabilirsiniz. A yolunun 10 kişiyi öldürmek için yüzde 30 şansı var. Troleybüs problemleri tipik olarak iki rota içerir, böylece etik kararını hangi faktörlere daha kesin olarak dayandırdığınızı düşünebilirsiniz.
Harrichael

11

Gerçek dünyada, kararlar yasaya dayalı olarak yapılacak ve Yasa'da da belirtildiği gibi , yasa genel olarak eylemde eylemsizlikten yanadır.


Ah, bu insan kurbanları için çok anlamlı. Araba yaya yerine bir köpeğe vurabilirse yasanın seçimi farklı olur mu?
Ben N

6

Tek bir varlık tarafından tasarlanan, şoförsüz bir otomobil için, kimi öldüreceği konusunda karar vermenin en iyi yolu, olası yükümlülüğü tahmin etmek ve en aza indirmektir.

Alandaki tüm potansiyel mağdurları, kararları için savunma yapmaları için kesinlikle doğru bir şekilde tanımlamaları, sadece bir insandan beklenebilecekleri kadar onları tanımlamaları gerekmiyor.

Araçtaki herkesin yaşını ve fiziksel durumunu bilmek bile gerekmez, çünkü bu bilgiyi isteyebilir ve reddedilirse, yolcuların bu bilgileri vermemeyi seçtiğini savunur ve bu nedenle sınırsız edilme sorumluluğunu üstlenir. daha iyi bir karar verebilme.

İşletmenin davalara maruz kalmasını en aza indirmek için sadece uygulanabilir bir modeli olması gerekir, bu da daha karlı hale getirmek için zaman içinde geliştirilebilir.


6

“Bu ahlaki soru kimin kurtarılacağı: mühendislik çalışmalarımızın yüzde 99'u bu durumların gerçekleşmesini engellemek.” —Christoph von Hugo, Mercedes-Benz

Bu alıntı, Kendi Kendini Süren Mercedes-Benz'lerin Yayalar Üzerindeki İş Güvenliği Güvenliğine Öncelik Verecek başlıklı bir makaleden alınmıştır.

İşte sorun için teknolojik, pratik çözümün ne olduğunu ana hatlarıyla açıklayan bir alıntı.

Dünyanın en eski otomobil üreticisi artık 1967'den itibaren Arabası Problemi olarak bilinen soruya cevap verilemez olarak görüyor. Bir krizde ahlaki ve ahlaki düğümlere kendisini bağlamak yerine, Mercedes-Benz, otomobilin içindeki insanları kurtarmak için kendi kendini süren arabalarını programlamayı amaçlamaktadır. Her zaman.

Otomobil üreticisinin sürücü destek sistemleri ve aktif güvenlik müdürü Christoph von Hugo'ya göre, Mercedes-Benz'in geleceği Seviye 4 ve Seviye 5 özerk otomobillerinin tümü taşıdıkları insanları kurtarmaya öncelik verecek.

Bu makalede ayrıca aşağıdaki etkileyici paragrafı da içermektedir.

Science dergisinin ortasında yayımlanan bir araştırma da havayı temizleyemedi. Ankete katılan 1928 halkının çoğunluğu, özerk otomobillerin yayalara çarpmak yerine yolcularını feda etmenin etik olarak daha iyi olacağını düşündü. Oysa çoğunluk, araba yaya güvenliği için kendilerine öncelik vermesi durumunda, özerk otomobil satın alamayacaklarını da belirtti.


3

Açıkçası, bu sorunun (Tramvay Sorunu) doğal olarak aşırı karmaşık olduğunu düşünüyorum, çünkü gerçek dünyadaki çözümün oldukça basit olacağı tahmin ediliyor. İnsan bir sürücü gibi, bir AI sürücüsü de her zaman zararsız veya mümkün olan en az zararı veren hareket tarzını seçerek, genel olarak etik olarak davranacak şekilde programlanacaktır.

Bir AI sürücüsü, mülke gelebilecek hasar gibi bir tehlike ile karşılaşırsa, açıkça görülüyor ki, AI sert fren yapacaktır ve darbeleri önlemek veya en aza indirgemek için aracı kırılabilir nesnelerden uzağa yönlendirecektir. Tehlike bir yayaya veya arabaya veya binaya çarpıyorsa, bir insana bina veya bir köpekten daha yüksek bir değer koyarak en az zararı vermek için elinden gelenin en değerli veya pahalı nesnesiyle çarpışmayı seçecektir.

Son olarak, eğer arabanızın AI sürücüsünün seçimi bir çocuğun üstünden geçmek veya bir duvara çarpmaksa ... o arabanızı ve sizi duvara yönlendirir. İyi bir insanın yapacağı şey budur. İyi bir yapay zeka neden farklı davranıyor?


1
'AI sert fren yapacak', '... ile çarpışmayı seçecek ...', eğer bunlar ifade ederse, bazı referansları gönderebilir misiniz? Yoksa onlar fikir temelli mi?
kenorb

1
OP, “AI hangi hasara yol açacak?” Sorusunu sordu. Bence bu yanlış bir amaç. İnsanlar bunu yapmaz. Bunun yerine AI, hasardan kaçınma ve mümkün olduğunca az zarar verme konusunda daha genel bir strateji izleyecektir. Bu optimizasyon hedefi, sorumluluk endişeleri ortaya çıktığında karşı çıkmak için daha sezgisel ve daha zordur.
Randy,

3

Yapmamalılar. İnsanlar yapmalı.

İnsanlar etik kararların sorumluluklarını bilgisayarların ellerine bırakamazlar. Bilgisayarların vermesi gereken kararları programlamak bilgisayar bilimcileri / AI uzmanları olarak bizim sorumluluğumuzdur. İnsan kayıpları bundan hala devam edecek mi? Tabii ki, yapacaklar - insanlar mükemmel değil ve hiçbiri program değil.

Burada bu konuda mükemmel bir derinlemesine tartışma var . Özellikle Yann LeCun’un, hastalar üzerinde ölümcül olan ilaçları test etmenin paralel etik ikilemiyle ilgili argümanını seviyorum. Kendi kendini süren arabalara benzer şekilde, her ikisi de uzun vadede daha fazla insanı kurtarmak için iyi niyetleri varken ölümcül olabilir .


3

Kendi kendini süren otomobiller kimi öldürecekleri konusunda nasıl etik kararlar alabilir?

Yasal sorumluluk ve tüketici güvenliğini yöneterek.

Tüketici güvenliğini sağlayan bir otomobil, söz konusu tüketiciler tarafından satın alınan bir otomobil olacak. Şirketler, müşterilerini öldürmekten sorumlu olmak istemezler ve kullanıcıyı yasal zorunluluklara sokan bir ürün satmak da istemezler. Yasal sorumluluk ve tüketici güvenliği, "tüketiciye maliyet" perspektifinden bakıldığında aynı konudur.

Ve işte birkaç tane ikilem var:

  • Algoritma, insan ile hayvan arasındaki farkı kabul ediyor mu?

Eğer bir hayvan / insan yasal olarak önlenemezse (ve araba yasal haklara sahipse - eğer o zaman değilse, AI'nın karar vermesinde yanlış olan bir şey varsa), muhtemelen olmayacaktır. Otomobil engellerden güvenli bir şekilde kaçınabiliyorsa, AI'nın bu kararı verdiği makul bir şekilde görülebilir. açık bir karayolu üzerinde başka bir şeride geçin. Dikkat, sorumluluk ve sürücü güvenliğine önem verilir.

  • İnsanın veya hayvanın büyüklüğü önemli midir?

Sadece engele çarpma risk faktörü. Bir su aygırı vurmak, hendek vurmaktan daha az arzu edilebilir. Bir köpeğe vurmak, müşterinin otomobilini mahvetmekten daha fazla arzu edilir.

  • Önündeki insanlara karşı kaç yolcu olduğunu sayıyor mu?

İnsanları araba havuzu şeridinin çekilip çekilemeyeceğini görmek için yolcu olarak sayar. Bir çarpışma durumunda öndeki insanları risk faktörü olarak sayar.

  • Bebeklerin / çocukların ne zaman gemide olduğunu "biliyor mu"?

Hayır.

  • Yaşı hesaba katar mı (örneğin, önce büyükleri öldürmek)?

Hayır. Bu karar vermek için yanlış bir soyutlamadır, risk faktörünü azaltmak için doğru hareket tarzını seçmede bu nasıl ağırlıklandırılabilir? Seçenek 1,% 20 oranında önemli bir hasar verebilecek ve yasal olarak sorumluluk almayan genç bir adama isabet ederse, Seçenek 2,% 21 oranında önemli bir zarar verebilecek ve yasal olarak sorumluluk alınamayan yaşlı bir adama çarptıysa, hangi filozofun yalnızca 1 kişiyi bile ikna edebileceğini Bir karar vermek için adil ve adil ağırlıklar?

Neyse ki, çoğu zaman en iyi karar, hızı düşürmek için molalara çarpmaktır (özellikle yayaların ve sürücülerin buna göre tepki verebilmesi için öngörülebilir davranmanın genellikle değerli olduğunu düşündüğünüzde). Bu arada, sürücülerin ne zaman kötü kararlar alacağını tahmin etme ve diğer eylemlerin (tersine vurma gibi) molaları vurmaktan daha yararlı olduğu durumlarda tahminlerde daha iyi değer iyileştirmeleri yapılabilir. Bu noktada, filozofların önerdiği etik kararları almak için bilgi toplamaya başlamaya bile değmez. Bu nedenle, bu konu sansasyonel gazeteciler ve filozoflar tarafından aşırıya kaçtı.


2

Çoğu durumda otomobilin belirli bir seçime gitmek veya oradan uzaklaşmak yerine ana seçenek olarak hızı düşürmeyi tercih edeceğini düşünüyorum. Diğerlerinin belirttiği gibi, etik ile ilgili ortamlara sahip olmak sadece kötü bir fikirdir. Karşıt etik ayarlarla programlanmış ve çarpışmak üzere olan iki araba varsa ne olur? Otomobillerin, kullanıcı ayarlarını geçersiz kılacak ve karşılıklı olarak en faydalı çözümü seçebilecek bir sistemi olabilir. Bu gerçekten ilginç bir kavram ve kesinlikle yaygın uygulamadan önce tartışması ve standartlaştırması gereken bir kavram. Etik kararları bir makineye vermek, ortaya çıkan yükümlülüğü ortaya çıkarmak bazen zorlaşır.


Evet, bir çarpışmayı önlemek için fren yapmak kesinlikle en iyi çözüm olacaktır. Ne yazık ki, bazı durumlarda (soruda sorulan davalar), bir şeye vurmak kaçınılmazdır. Bazı mevcut cevaplara katılıyor gibisiniz. Lütfen her cevabın kendi başına durmasını istediğimizi unutmayın. Yeterli üne sahip olduğunuzda, yararlı olduğuna inandığınız yanıtları kaldırabilirsiniz. Karşıt yapılandırılmış iki arabanın sorunu gerçekten ilginçtir; Bu konu üzerinde genişlemek için cevabınızı düzenlerseniz çok iyi olur . Teşekkürler!
Ben N

Cevabınız için çok teşekkür ederim, aslında bunu takdir ediyorum ve sitede ilerleyişini kullanacağım. Cevaplarla ilgili kuralların farkında değildim.
imhotraore 17:16

1

Bir arabada bu tür etik ayarları düzenlemenin bir yolu olmayacağını düşünüyorum. Ama hey, cep telefonları kök salınabilirse, neden araba olmasın? Gelecekte, istediğinizi yapmanıza izin verecek belirli modeller için Linux yapıları olacağını hayal ediyorum.

Bu kararları kimin vereceğine gelince, bugünün gizlilik sorunları gibi olacak. İşletim sistemi sağlayıcıları tarafından battaniyeye karşı savaş çekilir (her biri kendi yöntemleriyle en az yaralanan kişiyi ayarlamaya çalışacak), sigorta şirketleri (size ödeme yapmaya çalışacaklar) İstatistiksel olarak aracınıza daha kolay zarar vereceği gösterilecek olan işletim sistemleri için daha fazlası) ve otomobil üreticileri (aracınızı mümkün olan en kısa sürede çöpe atmanızı isteyecek, böylece yeni bir tane satın alacaksınız ya da gülünç gerektiren arabalar yapacaksınız) $$$ hizmet miktarı).

O zaman bazı bilgi uçuranlar ortaya çıkacak ve küçük çocukları yetişkinlere karşı öldürmeyi seçen bir kod parçasını ortaya çıkaracak - çünkü onları hayvanlardan ayırmak daha zor olacak ve kimlerin insan olarak daha kesin olarak tanıyacağının kurtarılması için şansa sahip olacak. İşletim sistemi üreticisi halka açık bir kafa tokası yaşayacak ve yeni bir uzlaşma sağlanacak. Bilgi uçuran kişiler de sigorta şirketlerinden ve araç üreticilerinden geleceklerdir.

İnsanlık sıcak bir tava kapmak ve kendini yakmak ve daha önce eldiven giymeyi öğrenmek olacaktır. Tavsiyem sadece bu el olmayacağınızdan emin olur - tüm erken hatalar yapılıncaya kadar onlardan uzak durun.


1

Mantıklı tek seçenek öngörülebilir davranış kullanmaktır. Böylece, araba senaryosunun önündeki insanlarda: Önce araba frenlere çarpıyor, aynı zamanda korna çalıyor ve rotada kalıyor. O zaman insanlar sıfır insanın öldürülmesine yol açan yoldan atlama şansına sahipler. Ayrıca tam frenlerde (saatte 50 km'den sıfıra gitmek 3 araba uzunluğundan az), bir etki durumu neredeyse hayal edilemez. Tam durağa ulaşılamamsa bile, yayalara ciddi hasar verilmesi olası değildir.

Diğer senaryo sadece delilik. Bu yüzden mesafe 3 araba uzunluğundan az olmalı, direksiyon için en az 1 araba uzunluğunda olmalıdır, sonra araba çarpması kontrol edilemez bir durumdur, 11 kişinin eğilmesine ve ölümüne neden olabilir.

Gerçekte, bir ikilem olduğu bir örnek olduğuna inanmadığımı söylemekten başka; Bu olası olmayan durumlarda çözüm, karşı tarafın diğer tarafın da durumu hafifletmesine izin verme beklentilerine uyup uymadığı.


Lütfen Ben.'nin yayınladığı ilk cevabı incelemeyi deneyebilir misiniz? Daha sonra AI'nın ne hakkında olduğuna göre sizinkini düzenlemeyi deneyin!
quintumnia

daha spesifik olabilir misin? Önce bens ile cevap okudum, ama bunun nasıl bir ilişki olduğunu göremiyorum AI'nın neyle ilgili olduğunu açıklayabilir misiniz?
lalala

Orada demek istediğim; AI hakkında bilgili olmaktır. Dolayısıyla cevabınız aşağı oy olabilir ya da görecek bir şey olmaz, majesteleri!
quintumnia

@quintumnia Bu cevap bana iyi geliyor (+1) - sadece zorlanmaya veya karar vermeye teşebbüs etmeden devam etmek geçerli bir seçimdir.
Ben N
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.