Stephen Hawking neden “Yapay Zeka hepimizi öldürecek” diyor? [kapalı]


10

Stephen Hawking'in bu alıntısı bir süredir manşetlerde:

Yapay Zeka, insanlar karıncalar gibi olacağı için çok zekice olduğunda insanlığı silebilir.

Bunu neden söylüyor? Basitçe sıradan terimlerle ifade etmek gerekirse: Yapay Zeka'nın olası tehditleri nelerdir? Yapay zekanın bu kadar tehlikeli olduğunu bilirsek, neden hala teşvik ediyoruz? Neden yasaklanmadı?

Sözde Teknolojik Tekillik'in olumsuz sonuçları nelerdir ?


1
Belki bu soru teknolojik tekillik olasılığı ile ilgili bir soruya çevrilebilir mi?
Rob Murray

1
@ R.Murray Düzenlendi ve vücuda eklendi ...
tatan

2
Üzgünüm, ama benden aşağı oy verin. Lütfen, lütfen, spekülatif sorular yerine cevaplanabilir sorular sorun. Yani "Stephen Hawking neden“ Yapay Zeka hepimizi öldürecek ”diyor?”. Doğru cevabın ne olmasını bekliyorsunuz ? Birkaç wikipedia sayfasını okuyarak temel bilgiye sahip olanlardan ziyade, uzmanları çekmek için erken betadan itibaren teknik sorulara ihtiyacımız var. Tekrar söylüyorum - "Stephen Hawking neden“ Yapay Zeka hepimizi öldürecek ”diyor?”. Bunu cevaplamak için herhangi bir uzmanlığa ihtiyaç olduğunu düşünmüyorum . Benim küçük rant kaba olarak rastlamak üzgünüm: P
Rushat Rai

Düzenlemeden sonra soru daha iyidir, ancak bir kerede sorulan soruların sayısını azaltmak iyi olur. Örneğin, "Yapay zeka insanlığı nasıl yok edebilir?" (yaptığınız gibi), ancak neden hala bu kadar yoğun bir şekilde araştırıldığı farklı bir sorudur.
Ben N

2
Bence başlıktaki soru kötü bir soru değil. Bir cevabı var, çünkü Stephen Hawking'in ne düşündüğünü soruyor. Vücuttaki diğer sorular bundan farklıdır ve kaldırılmalıdır. Ancak bunun uzmanları çekecek bir tür soru olmadığına katılıyorum
Harsh

Yanıtlar:


5

Sadece Hawking değil, bu kaçınma konusunda birçok insanın varyasyonlarını duyuyorsunuz. Ve çoğunlukla çok zeki, iyi eğitimli, iyi bilgilendirilmiş insanlar oldukları göz önüne alındığında (örneğin, Elon Musk başka bir şeydir), muhtemelen elden çıkarılmamalıdır.

Her neyse, temel fikir şudur: "Gerçek" yapay zeka yaratırsak, bir noktada kendini geliştirebilir, bu da kendini geliştirme yeteneğini geliştirir, yani kendini geliştirme yeteneğini geliştirebilir. ve dahası ... "insanüstü istihbarat" a giden kaçak bir çağlayan. Yani, bölgemizden daha akıllı bir şeye yol açıyoruz.

Peki bu gezegende tam anlamıyla bizden (insanlardan) daha akıllı olan bir varlık varsa ne olur? Bu bizim için bir tehdit olur mu? Öyle olabileceğini düşünmek kesinlikle makul görünüyor . OTOH, şu anda böyle olacağını düşünmek için özel bir nedenimiz yok .

Öyleyse Hawking, Musk, vb. İnsanüstü bir yapay zekanın tehlikeli olup olmayacağını bilmediğimiz ve kötü niyetli olması durumunda durdurulamayacağı düşünüldüğünde (hatırlayın, bizden daha akıllı!), Dikkate alınması makul bir şeydir.

Eliezer Yudkowsky de ünlü "AI Box" deneyi de dahil olmak üzere bu konuda biraz yazdı. Bu konuyla ilgilenen herkesin bazı materyallerini okuması gerektiğini düşünüyorum.

http://www.yudkowsky.net/singularity/aibox/


1
AI Box'ın aslında AI riskine kötü bir giriş olduğunu düşünüyorum; açıklamanın belirli bir küçük bölümünü hedefler, yani "bir AI'ı kutudan çıkarmaya nasıl ikna edilebilir?". Yapay zekanın kullanılmaya değer olduğunu düşünen biri için, kutudan çıkmaya değer olduğuna zaten karar verdiler. Diklik Tezi muhtemelen başlamak için en iyi yer.
Matthew Graves

Yeterince adil. Yudkowsky'nin yazılarına daha aşina olurum. Kesinlikle bu konudaki diğer çalışmaların önemini azaltmak istemiyorum.
mindcrime

4

Şu anki AI'nın ne kadar uzakta olduğunu bilmediği için ... Bir medya AI laboratuvarında çalışıyorum, bu soruyu çok fazla anlıyorum. Ama gerçekten ... bundan hala çok uzağız. Robotlar hala ayrıntılı olarak tarif ettiğimiz her şeyi yapıyorlar. Robotu akıllı olarak görmek yerine, yaratıcılığın gerçekten gerçekleştiği yerde insan programcıya bakardım.


Araştırma durumunun dürüstlük değerlendirmesi, ilerlemenin temel direklerinden biridir. Teşekkür ederim. Katılıyorum.
FauChristian

3

Basitçe ifade etmek gerekirse, yapay zekâdan olası tehditler nelerdir?

Şu anda tehdit yok.

Tehdit, insanlar herhangi bir insanın tüm entelektüel aktivitelerini aşabilecek bir ultra akıllı bir makine yaratıyorsa ortaya çıkar. Bu, insanın yapması gereken son buluş olacaktır, çünkü bu makine makinelerin icat edilmesinde insanlardan daha iyidir (çünkü bu entelektüel bir faaliyettir). Ancak bu, makinenin insanları tahrip edebilecek makineleri icat etmesine neden olabilir ve biz onları durduramayız çünkü onlar bizden çok daha akıllıdırlar.

Bunların hepsi varsayımsaldır, hiç kimse ultra akıllı bir makinenin neye benzediğine dair bir ipucu bile yoktur.

Yapay zekanın bu kadar tehlikeli olduğunu bilirsek, neden hala teşvik ediyoruz? Neden yasaklanmadı?

Daha önce söylediğim gibi, ultra akıllı bir makinenin varlığı varsayımsaldır. Yapay Zeka'nın birçok yararlı uygulaması vardır (bu cevabın içerebileceğinden daha fazlası) ve eğer geliştirirsek, daha da faydalı uygulamalar elde ederiz. Makinelerin bizi geçmemesine dikkat etmeliyiz.


3

Andrew Ng'in dediği gibi, AI'dan kaynaklanan böyle bir tehdit hakkında endişe duymak, Mars'taki aşırı nüfustan endişe etmektir. Bu bilim kurgu.

resim açıklamasını buraya girin

Bununla birlikte, (çok daha zayıf) robotların ve diğer (yarı) otonom ajanların yükselişi göz önüne alındığında, hukuk ve etik alanları giderek daha fazla dahil olmaktadır, örneğin bkz. Roboethics .


3

Bu tür bir soruyu cevaplamak için birkaç uzun kaynak var: Stuart Armstrong'un Bizden Daha Akıllı kitabını , Nick Bostrom'un bu edge.org yanıtından , Tim Urban'ın açıklamasından veya Michael Cohen'in açıklamasından ortaya çıkan Superintelligence kitabını düşünün .

Ama işte (biraz daha kısa) cevabım: istihbarat tamamen karar verme ile ilgilidir ve insanların karar vermede mümkün olan en iyi olmaya yakın bir yerde olduğuna inanmak için hiçbir nedenimiz yok. Bir AI AI araştırmacısı inşa edebildiğimizde (yani, bilgisayarları düşünmeyi daha iyi hale getirmeyi bilen bir bilgisayar), bir insanın verebileceği herhangi bir karar verilebildiğinden insanların ekonomik ve askeri ilgisi hızla ortadan kalkacaktır. bilgisayar tarafından daha iyi. (Neden robot generalleri yerine insan generalleri, robot mühendisleri yerine insan mühendisleri vb.)

Bu mutlaka bir felaket değil. Eğer Vulkanlar yarın geldiyse ve Dünya'ya daha iyi karar verdiyse, çok fazla sefaletten kaçınabilirdik. Zor olan, elde ettiğimiz şeyin, değerlerimizi paylaşmayan bir şey yerine, bizi çevreleyen ve mutlu olan Vulkanlar olmasını sağlamaktır.


3

Bunu söylüyor çünkü olabiliyor. Bir şey bizden daha akıllı hale gelirse, neden bize hizmet etmeye devam edecek? En kötü senaryo, tüm üretim süreçlerini devralır ve tüm maddeleri tüketilene kadar dışa doğru sonsuz bir şekilde genişleterek, onu hesaplama yeteneğine sahip malzemeye dönüştürmek için tüm maddeleri tüketmesidir.

Yapay zekanın tehlikeli olduğunu biliyoruz ama önemli değil çünkü çoğu insan buna inanmıyor. Dinin sunduğu her rahatlığa aykırıdır. İnsan, evrenin her şeyin sonu demektir ve eğer bu gerçek tartışmalı ise, insanlar kendilerini yersiz ve amaçsız hissedeceklerdir.

Gerçek şu ki, çoğu insan bunun mümkün olduğunu ya da hayatımız boyunca olacağını kabul etmiyor, birçok saygın AI uzmanı yirmi yıl içinde tekilliğin ortaya çıkmasına rağmen. İnsanlar gerçekten onlardan daha akıllı olan yapay zekanın mümkün olduğunu kabul ettiyse, farklı yaşamayacaklar mı? Ne yaparlarsa yapsınlar, korktukları şeylerin otomatik olacağını bilerek hoşlandıkları şeyleri yapmak istemezler miydi? Herkes evrensel bir temel gelir istemez miydi?

Bunu yasaklamamamızın bir başka nedeni de vaadi çok büyük. Bir araştırmacı 1000 dijital araştırma görevlisi tarafından artırılabilir. Tüm el emeği otomatikleştirilebilir. İlk kez, teknoloji bize istediğimiz her şeyi yapma özgürlüğü sunuyor.

Ancak bizi geçmediği bu en iyi senaryoda bile, insanlar hala ekonomik sistemlerini emeğin gerekli olmadığı bir sisteme adapte etmek ve değiştirmek zorundalar. Aksi takdirde, teknik olarak eğitilmemiş olanlar açlıktan ölecek ve başkaldırılacaktır.


Bunun için bir sos var mı?> "AI uzmanları yirmi yıl içinde tekillik oluşumunu koydular" , lütfen? ;)
Daniel

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.