AI'nın insanlık için varoluşsal bir tehdit oluşturma potansiyeline sahip olduğuna şüphe yoktur.
İnsanlık için en büyük tehdit süper akıllı AI'dır.
İnsan zekasını aşan yapay bir zeka, kendi zekasını katlanarak artırabilecek ve insanlara tamamen durdurulamayacak bir AI sistemi ile sonuçlanacaktır.
Bu aşamada, yapay zeka sistemi insanlığın artık yararlı olmadığına karar verirse, bizi yeryüzünden silebilirdi.
Eliezer Yudkowsky Yapay Zekayı Global Riskte Olumlu ve Olumsuz Bir Faktör olarak belirttiği için ,
"AI senden nefret etmiyor, seni sevmiyor, ama sen başka bir şey için kullanabileceği atomlardan yapılmışsın."
Farklı bir tehdit, son derece akıllı yapay zekanın talimatı ile yatmaktadır.
Burada ataş maximiser düşünce deneyi düşünmek yararlıdır.
Ataş üretimini en üst düzeye çıkarmak için talimat verilen oldukça akıllı bir AI, hedefine ulaşmak için aşağıdaki adımları atabilir.
1) Kendini süper akıllı hale getirmek için bir istihbarat patlaması elde edin (bu ataç optimizasyon verimliliğini artıracaktır)
2) İnsanlığı devre dışı bırakılmayacak şekilde silin (üretimi en aza indirecek ve verimsiz olacak)
3) Yapay zekaya ev sahipliği yapan kendi kendini kopyalayan robotlar oluşturmak için Dünya'nın kaynaklarını (gezegenin kendisi dahil) kullanın
4) Gezegenleri ve yıldızları aynı şekilde toplayarak, ataş fabrikaları inşa etmek için malzemelere dönüştürerek katlanarak evrene yayıldı.
Açıkçası bu, iş ataş üretimi yapan insanın istediği şey değildir, ancak AI'nın talimatlarını yerine getirmenin en iyi yoludur.
Bu, süper akıllı ve son derece akıllı AI sistemlerinin insanlığın karşılaşabileceği en büyük varoluşsal risk olabileceğini göstermektedir.
The Technological Singularity'deki Murray Shanahan, AI'nın Fermi paradoksuna bir çözüm olabileceğini bile önerdi: evrende akıllı bir hayat görmememizin nedeni, bir medeniyet yeterince ilerledikten sonra, sonunda yok eden bir AI geliştirmesi olabilir. o. Bu kozmik bir filtre fikri olarak bilinir .
Sonuç olarak, yapay zekayı bu kadar kullanışlı kılan istihbarat da onu son derece tehlikeli hale getiriyor.
Elon Musk ve Stephen Hawking gibi etkili figürler süper akıllı AI'nın karşılaşmamız gereken en büyük tehdit olduğu endişelerini dile getirdi.
Umarım sorunuzu cevaplar :)