Bir yapay zeka “etik olarak yetersiz” seçimlerden kaçınırken yanal düşünebilir mi?


13

Son PC oyunu Turing Test , AI ("TOM") bazı bulmaca odaları geçmek için Ava yardım gerekiyor. TOM, bulmacaları çözemediğini, çünkü “ yanlamasına düşünmesine ” izin verilmediğini söylüyor . Özellikle, ilk odayı çözmek için pencereden bir kutu atmayı düşünmeyeceğini söyledi. Yaratıcıları, öykü, bu kabiliyeti kapattı çünkü böyle bir düşünce, bir baskı plakasında bırakmak için bir kolu kesmek gibi "etik olarak yetersiz" çözümler üretebilir.

Sonuçlarını makul tutmak için tüm yaratıcı bulmaca çözme yeteneklerinin bir yapay zekadan çıkarılması gerekir mi yoksa bir kol kaybetmeden yanal düşünmenin bazı avantajlarından yararlanabilir miyiz?

Yanıtlar:


17

Hayır , ama ile . Sistemde tam bir etik sistemi varsa yaratıcı ve etik problem çözme yapabiliriz, ancak aksi takdirde yaratıcılık varsayılan olarak güvensiz olacaktır.

Yapay zeka karar verme yaklaşımları iki tipte sınıflandırılabilir: enterpolatif düşünürler ve ekstrapolatif düşünürler.

İnterpolatif düşünürler, öğrendiklerini sınıflandırmayı ve taklit etmeyi öğrenirler ve eğitim alanlarının dışında makul sonuçlar vermeye çalışmazlar. Bunları eğitim örnekleri arasında enterpolasyon yapmak ve diğer tüm istatistiksel teknikler gibi matematiksel garantilerden ve koşullardan faydalanmak olarak düşünebilirsiniz.

Ekstrapolatif düşünürler, temel ilkeleri manipüle etmeyi öğrenir, bu da bu ilkeleri daha önce düşünülmemiş şekillerde birleştirmelerini sağlar. Buradaki sezgi ile ilgili alan , makine öğrenimini doğuran istatistiksel alanlardan ziyade en basit ve en ünlü örneğin doğrusal programlama olan sayısal optimizasyondur . Bunları eğitim örneklerinin ötesinde bir tahmin olarak düşünebilirsiniz (aslında, birçoğu eğitim örnekleri bile gerektirmez veya bu örnekleri altta yatan ilkeleri çıkarmak için kullanır).

Ekstrapolatif düşünürlerin vaadi, bu 'yanal' çözümleri insanların yapabileceğinden çok daha hızlı bir şekilde ortaya çıkarabilmeleridir. Bu dışlayıcı düşünürlerin sorunu, sözünü etmenin çok açık göründüğü söylenmeyen ilkeleri değil, yalnızca sözlü ilkeleri kullanmalarıdır.

Optimizasyon problemlerine çözümlerin bir özelliği, özellik vektörünün bir şekilde 'aşırı' olmasıdır. Doğrusal programlamada, uygulanabilir çözüm alanının en az bir tepe noktası en uygun olacaktır ve bu nedenle basit çözüm yöntemleri optimal bir tepe noktası bulur (bu, tepe noktası olmanın doğası gereği neredeyse mümkün değildir).

Başka bir örnek olarak, bir uzay aracını bir konumdan diğerine taşımak için minimum yakıt çözümüne ' bang-bang ' denir , burada zemini yörüngenin başlangıcında ve sonunda mümkün olan en hızlı şekilde hızlandırır ve aradaki maksimum hızda .

Sistem doğru anlaşılan bir sayesinde birlikte (boom-boom olan sistem yanlış pozitif olduğu anlaşılan bu felaket, pek çok durum için uygun). Buradaki en sevdiğim örnek Dantzig'in diyet problemidir (tartışma , pdf'in 5. sayfasında başlar), burada diyetini matematik kullanarak optimize etmeye çalışır. İlk kısıtlama setinin altında günde 500 galon sirke içmesi gerekiyor. İkincisi, 200 bulyon küpü altında. Üçüncüsü altında iki kilo kepek. Açıkça kötü olan bu fikirleri ortaya koyan düşünceler sisteme dönüştürülmez ve bu yüzden sistem masumca önerir.

Bir kişinin bu planları YZ'ye göre değerlendirmek için kullandığı bilgi ve değerleri tamamen kodlayabiliyorsanız, o zaman tahminci sistemler o kişi kadar güvenlidir. Yanlış türde aşırı planları düşünüp reddedebilir ve sizi doğru türde aşırı planlarla bırakabilirler.

Ancak yapamazsanız, ekstrapolatif bir karar verici oluşturmamak ve bunun yerine enterpolatif bir karar vermemek mantıklıdır. Yani, kendisine "X hedefini en iyi nasıl başarabilirim?" kendi kendine "bir kişi bu durumda ne yapardı?" diye soruyor. İkincisi, X hedefine ulaşmada çok daha kötü olabilir, ancak X'e ulaşmak için diğer hedeflerden fedakarlık etme riski çok daha azdır.


2

Etik, iki veya daha fazla taraf arasındaki ihtiyaç ilişkilerini içerir . Matthew Graves'in dediği gibi, AI yeterli insan bağlamından (ihtiyaçların anlaşılması) yoksunsa, görünüşte sapkın etik davranışlar üretecektir.

Ve dürüst olalım, bazı insanlar diğer insanların kollarını kesip baskı plakalarına koyarlardı. En iyimiz bile, başkalarının ihtiyaçlarına% 100 doğrulukla sempati duyamayacağız - en iyi ihtimalle tahmin ediyoruz. Ve sonra belki de sevdiğim birini kurtarmak için kolumu kesip bir baskı plakasına koymanı istediğim nadir durumlar var .

Bir insanın herhangi bir keyfi durumda neye ihtiyaç duyabileceğine sempati duyabilecek bir şey yapabilirsek , ya A) yapay bir insan zekası (AHI) (bir insan gibi az çok yanıltıcı olabilir) yaratmış olacağız , veya B) olası tüm insan ihtiyaçları için insan zaman ölçeklerinden çok daha hızlı bir şekilde akıl yürüten bir kehanet - bu durumda , tüm insan ihtiyaçları ve çözümleri resmi şartname ile önceden hesaplanabileceğinden, bilinçli bir AI'ya ihtiyacınız olmaz. muhtemelen düşünmek saçmadır.


0

Programlamayı tasarımın etik bir parçası olarak da düşünebilirsiniz. AI, etik olarak önemli olan veya olmayan olarak kendisine verilenlere dayanarak hareket edecektir. Daha rafine ve yaratıcı bir çözüme izin verebilecek çözüm bulma sürecini oluşturan parametrelerin bir parçası olabilir / olmalıdır.

Normal şartlarda etiğin temellerini anlıyoruz, ancak herhangi bir insanın etik bir muamele içinde nasıl davranacağını tahmin edemezsek, bir yapay zekanın yapamayacağı şeyi uygulayabiliriz.

Bir yapay zekayı harekete geçiren mekanizma üzerinde kontrole sahip olduğumuz sürece etik hataların enjekte edilmesinden kesinlikle sorumluyuz. Sorun, direktifleri geçersiz kılma yeteneği ile kendi kendini öğretmiş AI'da yatmaktadır. (CF Asimov Yasaları.)

Yapay zekanın yaratıcılığı bu durumda önemsiz görünüyor.


-1

Bunların çoğu dikkate alınacak genişliğe bağlıdır. Örneğin, yanal düşünmenin orta ve uzun vadeli etkileri ne olurdu? Robot bir baskı plakası için bir kolu kesebilir, ancak kişinin artık bir koluna, en iyi şekilde işlevsel bir sınırlamaya sahip olmadığı, kişinin kanamayabileceği ve ölebileceği / ciddi şekilde kısıtlanabileceği ve kişinin (ve insanların general) hem artık işbirliği yapmaz hem de robotu ortadan kaldırmaya çalışır. İnsanlar yanal düşünebilirler çünkü bu şeyleri düşünün - etik gerçekten bu hususları kapsayan bir dizi rehberden başka bir şey değildir. Robot da bu dışsallıkları göz önünde bulunduracak şekilde tasarlanmış olabilir.

Eğer hepsi hataysa,

Asimov'un Robotik Yasaları: (0. Bir robot, insanlığa zarar vermeyebilir veya eylemsizlik yoluyla insanlığın zarar görmesine izin vermeyebilir.) 1. Bir robot, bir insana zarar vermeyebilir veya eylemsizlik yoluyla bir insanın gelmesine izin vermeyebilir. zarar. 2. Bir robot, bu emirlerin Birinci Kanunla çeliştiği durumlar dışında, insanlar tarafından verilen emirlere uymak zorundadır. 3. Bir robot, Birinci veya İkinci Kanunla çelişmediği sürece kendi varlığını korumalıdır.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.