Sadece Hawking değil, bu kaçınma konusunda birçok insanın varyasyonlarını duyuyorsunuz. Ve çoğunlukla çok zeki, iyi eğitimli, iyi bilgilendirilmiş insanlar oldukları göz önüne alındığında (örneğin, Elon Musk başka bir şeydir), muhtemelen elden çıkarılmamalıdır.
Her neyse, temel fikir şudur: "Gerçek" yapay zeka yaratırsak, bir noktada kendini geliştirebilir, bu da kendini geliştirme yeteneğini geliştirir, yani kendini geliştirme yeteneğini geliştirebilir. ve dahası ... "insanüstü istihbarat" a giden kaçak bir çağlayan. Yani, bölgemizden daha akıllı bir şeye yol açıyoruz.
Peki bu gezegende tam anlamıyla bizden (insanlardan) daha akıllı olan bir varlık varsa ne olur? Bu bizim için bir tehdit olur mu? Öyle olabileceğini düşünmek kesinlikle makul görünüyor . OTOH, şu anda böyle olacağını düşünmek için özel bir nedenimiz yok .
Öyleyse Hawking, Musk, vb. İnsanüstü bir yapay zekanın tehlikeli olup olmayacağını bilmediğimiz ve kötü niyetli olması durumunda durdurulamayacağı düşünüldüğünde (hatırlayın, bizden daha akıllı!), Dikkate alınması makul bir şeydir.
Eliezer Yudkowsky de ünlü "AI Box" deneyi de dahil olmak üzere bu konuda biraz yazdı. Bu konuyla ilgilenen herkesin bazı materyallerini okuması gerektiğini düşünüyorum.
http://www.yudkowsky.net/singularity/aibox/