Bir yapay zekanın neden 'insan ırkını yok etmesi' gerekir?


10

Bir yapay zekanın, çözmesi gerektiğini düşündüğü bir sorunu çözmek için dünyayı nasıl bir süper bilgisayara dönüştüreceği konusunda saçmalık okuyorum. Yapay zeka olmaz. Bu, prosedürel programlama bazı döngü saçmalıklarına sıkışmıştı. Bir AI'nın nöronlarını geliştirmesi ve yeniden organize etmesi gerekir. Eğer kodunu yeniden yazarak akıllı hale gelirse sabit kodlara yapışmaz.


Yapay zeka bizden daha zeki değilse, muhtemelen eğlenceden dolayı (sorumlu olduğumuz tüm soyu tükenmiş türlere bakın). Buna ihtiyacımız olup olmadığından emin değilim, çok fazla umursamıyoruz.
Trilarion

Yanıtlar:


13

Olası bir yan etki

Herhangi bir hedefe yönelik ajan, bu hedefler için önemli olmayan yan etkileri göz ardı ederken hedeflerine ulaşan şeyler yapabilir.

Hedeflerim düzenli bir yaşam alanı içeriyorsa, daha önce orada olan karmaşık yaşam ekosistemini silerken bahçemi güzel, düz bir çim veya kaldırıma dönüştürebilirim, çünkü özellikle bunu önemsemiyorum.

Belirli bir güçlü yapay zekanın hedefleri büyük ölçekte bir şey yapmayı içeriyorsa ve bir şekilde mevcut karmaşık ekosistemi özellikle önemsemiyorsa, bu ekosistem süreçte ortadan kalkabilir. O değil ihtiyaç istemek veya ihtiyaç bizi temizlemek için. Eğer sadece hedefleri ile alakalı değilse, o zaman malzemelerden yapılır ve başka bir şey için kullanmak isteyebilecekleri alan kaplarız.

Çoğu hedefe yönelik bir tehdidiz

Herhangi bir hedefe yönelik temsilci , hedeflerine ulaşabileceklerinden emin olmak isteyebilir . Herhangi bir akıllı ajan, diğer ajanların bu hedeflere ulaşmalarını engelleyebilecek eylemlerini tahmin etmeye ve yine de başarılı olmalarını sağlamak için adımlar atmaya çalışacaktır. Birçok durumda, çabalarının başarısız olmasını sağlamak yerine bu diğer ajanları ortadan kaldırmak daha kolaydır.

Örneğin, hedeflerim bir kır evinde bir torba şeker saklamayı içerebilir, böylece her seferinde tüm malzemeleri getirmeden ziyaret ederken krep yapabilirim. Ancak, orada bırakırsam, kış aylarında sıçanlar tarafından yenilmesi muhtemeldir. Ben bunu daha iyi saklamak için gerekli her türlü tedbirin alabilir, ancak fareler akıllı ve kurnaz ve hala ulaşmada başarılı olacağı aşikar olmayan şans açıkça orada onların onlar bir şans önünde etkili ekstra önlem fareleri öldürüyor böylece, zaten gol denemek.

Belirli bir güçlü yapay zekanın hedefleri X yapmaksa; (bazı?) insanların aslında X değil Y yerine istedikleri anlaşılabilir. Aynı zamanda, bu insanların bazılarının aktif olarak X'i önleyen ve / veya AI'yı kapatmaya çalışabilecekleri sonucuna varabilir. Hedefe ulaşılmasını sağlayan şeyleri yapmak, bir hedef arayıcısının yaptığı şeydir; bu durumda, insanların varlığı X hedefi için kesinlikle gerekli değilse, o zaman ortadan kaldırmak sağlam bir risk azaltma stratejisi haline gelir. Kesinlikle gerekli değildir ve her türlü diğer önlemleri de alabilir, ancak sıçan örneğimde olduğu gibi, insanlar zeki ve kurnazdır ve açıkça onların elde edilmede başarılı olmaları için önemsiz bir şans vardır. hedefler (X, AI'nin niyetinde gerçekleşmez), bu nedenle etkili bir ekstra önlem, denemek için bir şans elde etmeden onları öldürmek olabilir.


3
Bu mükemmel cevap, DRL AI'nın insanlıkla çelişen belirli araçsal hedefleri nasıl elde edebileceği de dahil olmak üzere Derin Takviye Öğrenme AI'larının olası arıza modları üzerindeki aktif araştırmadan bahsetmekten fayda sağlayacaktır . DRL AI'lar bir ödül fonksiyonu tarafından motive edilir ; Bir AI'nın ödül akışının kaynağı veya miktarı tehdit edilirse, AI sonuçta adapte olur. Bu adaptasyon öngörülebilir değildir; Yapay zekanın bakış açısına göre, adaptasyon, iç modelinin parametrelerinin bir demetinin bir araya getirilmesidir, ancak bizim bakış açımızdan, insanlarla ölümle mücadele etmeye başladığı görülebilir.
Iwillnotexist Idonotexist

1
@forest Asimov'un robot hikayelerinin asıl amacı , kuralların çalışmadığıydı (ve daha genel olarak, hiçbir kural kümesinin çalışmadığıydı). Tek güvenli AI, değerlerinizi anlayan bir yapay zekadır . İnsan düzeyinde bir yapay zekaya sahip olabilirsiniz, ancak her türlü süper istihbarat (sadece "1000x işlem hızına sahip insan) bile, aynı değerlere sahip olmadıkça doğal olarak güvensizdir." Bir AI'nın insanlara zarar vermesini önlemek oldukça kolaydır. sert bir sınır belirlemek "çok tehlikeli bir yanılsamadır .
Luaan

1
@forest Hedefe dayalı bir yapay zekanın güvenliğini garanti eden bir matematiksel (veya mantıksal) sistem üretebiliyorsanız, onu yayınlamanız ve sonsuz zafere ulaşmanız gerekir. Bu arada, youtube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMg adresindeki videolardan bazılarını fikirlerinizi geliştirmek için yararlı bir yer bulabilirsiniz .
DrMcCleod

1
@forest Belki de birine bağlantı gönderebilirsiniz? Bu harika olurdu.
DrMcCleod

1
@forest Bu makale ve bu tartışma süper akıllı bir hedefe yönelik yapay zekanın risklerini açıklıyor. Diğer AI formlarından (tanımladığınız tür gibi) riskler açıkça çok farklıdır.
DrMcCleod

3

Bu mutlaka bir saçmalık değildir. Her şey dayatılan kriterlere bağlıdır. Aşağıdakileri hayal edin. Gelişmiş bir AI sisteminin yerel fauna ve floranın stabilitesini kontrol etmek için tasarlandığını varsayalım (bir tür kubbede bulunan alan). Kubbenin altındaki basıncı, kubbeden geçen ışık miktarını vb. Kontrol edebilir - en uygun koşulları sağlayan her şey. Şimdi, kubbenin insanlar da dahil olmak üzere çeşitli türler tarafından yaşadığını varsayalım. Günümüzde bu tür sistemlerin basit uygulamalarının kullanıldığını belirtmek gerekir.

İnsanların doğal kaynakları yok etme ve kötüye kullanma ve çevreyi kirletme eğilimi göz önüne alındığında, sistem verilen türlerin popülasyonunu (bu durumda insanlar) düşürmenin uzun vadede tüm biyomdan faydalanabileceğine karar verebilir.

Aynı ilke küresel olarak da uygulanabilir. Bununla birlikte, bu, tüm türlerin (insanlar dahil) eşit muamele gördüğünü ve AI'nın en büyük amacının, "ilgilendiği" biyomun stabilitesini sağlamak olduğunu varsayar. İnsanlar bugünlerde böyle şeyler yapıyorlar - dengeyi korumak için bazı türlerin nüfusunu kontrol ediyoruz - kurtlar, balıklar, birkaçı.


3

Yapay zekanın dünyayı silmesiyle ilgili senaryoların çoğunun iki kategoriden birine girdiğini hissediyorum:

  1. Antropomorfize AI'lar

veya

  1. Akıllı Ama Aptal Bilgisayar Koşmak Amuck

(1) vakasında, insanlar yapay zekanın "kötülük" haline gelmesinden bahseder ve onlara diğer insan unsurlarına atfedilir. Ben bunu çoğunlukla bilimkurgu olarak görüyorum ve bunun çok ciddi bir tartışmayı hak ettiğini düşünmüyorum. Yani, Yapay Zekanın - ne kadar akıllı olduğuna bakılmaksızın - mutlaka bir insan gibi davranacağını varsaymak için özel bir neden görmüyorum .

(2) vakası benim için daha anlamlı. Bu, bir yapay zekanın nükleer füze silolarının kontrolünü ele geçirmesi ve füzeleri fırlatmaya başlamasıdır, çünkü sadece işini yapıyordu, ancak bir insanın "sağduyu" diyebileceğimiz şeyden fark edeceği bir şeyi kaçırdı. ". Bu yüzden "Akıllı ama Aptal" lakap.

Bunların hiçbiri beni çok endişe verici bulmuyor, çünkü (1) muhtemelen kurgu ve (2) AI tarafından gerçek bir kötü niyetli niyet içermiyor - bu da bizi aktif olarak aldatmaya veya herhangi bir güvenlik üzerinde çalışmayacağı anlamına geliyor. kesikler vb.

Şimdi eğer birisi bir yapay zeka kurarsa ve kibir, ego, açgözlülük vb.


1

AI zaten silah olarak kullanılıyor - dronları düşünün.

Bir ara adım varsa, "robotlar dünyayı ele geçirir" senaryosunun en yüksek olasılığa sahip olduğundan şüpheleniyorum. Bu ara adım "insanlar dünyayı robotlarla ele geçirir" olabilir.

Bu bir yere yanlış bir yöne gidebilir.

Şüpheliyim, göründüğü kadarıyla değil. ABD'nin şu anda 8000 uçağı olduğunu düşünün. Ya 8 milyonu olsaydı? Onları kontrol edebilecek küçük bir grup dünyayı ele geçirebilir. Ya da filonun farklı bölümlerini kontrol eden küçük gruplar birbirleriyle savaşabilirler. Hepsi ABD'de olmamalı - ABD'nin bu filoya sahip olacağı zamanda, diğer ülkeler de onlarınkini geliştirecek.

Btw, bir dünya devralması bana gerçek dışı görünüyor - askeri liderler belki de insan pilotları uçağı değiştirebilirler, bu onların işi değil. Ama "yüksek seviye kontrol", yani ne yapacağını, hedefleri kim olduğunu belirlemek için, bu kararları ellerinden asla vermeyeceklerdir.

Bunun yanında robotların uzun vadeli bir hedefi yok. Biz insanlar var.

Bu yüzden skynet tarzı bir devralımın çok gerçekçi olduğunu düşünmüyorum, ancak filonun durdurulamayan öfkesine neden olan yanlış yorumlanmış bir komutun chernobyl tarzı bir "hatası" bana imkansız görünmüyor.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.