İnsanlık bir makinede yapay yaşam yaratabilirse, onun ölümünü ne zaman tanımlayabiliriz?


9

Kişi gerçekten bir makineyi öldürebilir mi? Sadece yaşamın tanımlanmasında değil, ölümü tanımlamanın da sorunları var. Bu yapay yaşam ve yapay zeka için de geçerli olacak mı?


Çok alakalı bir soru . Yine de bu soruyu bir kopya olarak kapatmak için oy vermiyorum, çünkü bu belirli bir makalenin ölüm tanımını soruyor.
Ben N

Evet, bunun genel bir soru olarak hizmet ettiğini kabul ediyorum, oysa diğeri de bu kağıt hakkında.
Matthew Graves

Bu soruyu daha önce fark etmedim, ama burada aynı soruya bir cevap gönderdim . Nazikçe bakın.
Ébe Isaac

Yanıtlar:


3

Doğal yaşam için bildiğimiz gibi ölüm ölümdür. Bu bir zamanlar ölüdür, doğal yaşam geri gelemez (en azından mevcut anlayışta ve mevcut teknolojilerde --- bazı insanlar aksini düşünür).

AI için ölüm daha zordur. Sadece bir senaryo olabilir: Küresel yıkım: Bir yapay zekanın varlığını destekleyen her şeyin ortadan kalktığı aşırı senaryo. Bu, doğal yaşamdaki ölüm ve düşük olasılıkla eşdeğerdir. Bu, tüm AI'ların aynı anda (bizim kadar) öldüğü anlamına gelir.

AGI'ler için gerekli olan düzenleme derecesini ve biçimini de bilmiyoruz. Biz olabilir varsayalım böylece yukarıdaki uç senaryoda ölüm "sınırlayıcı", şimdi donanım süresiz değiştirilebilir olduğunu. Ama AGI'lerdir "beden" olabilir değil süresiz değiştirilebilir. O zaman doğal yaşam ölümüne daha yakın bir tanım gerekli olabilir.


Aşağıda çürütdüğüm diğer iki senaryo için argümanlar görüyoruz :

"Statik Ölüm": Bir AI hala bir yerde "tanımlanmış" veya "kaydedilmiştir" (aslında ne anlama geliyorsa), ancak yetkilendirilemez veya kaynakları kullanamaz. Bir AI'nın donanım ve yazılımdan oluştuğunu varsayarsak, diskte depolanan bir program gibidir, ancak çalışma izni yoktur.

"Dinamik Ölüm": Yapay zekanın donanım ve yazılımla aynı karakterizasyonu altında dinamik ölüm, güçlü canlılık özelliklerine benzer ilerlemenin geçersiz kılınmasıdır. bir AI sonsuz döngüye sıkışıp, (veya boşluk döngü), bir formda " aktif ölüm ", Yunan mitolojisinde Sisifos'a ne olduğu gibi . AI , ilerleme kaydedemese de , dinamik kaynakları kullandığı için bu statik ölümden farklıdır . Aynı varsayımlar altında devam ederek, böyle bir AI ana belleğe "yüklenebilir" veya girişlerin veya çıkışların tamamlanmasını bekleyerek kilitlenebilir.

Bu iki senaryoda, yeniden doğuşun mümkün olduğunu ve aynı zamanda yeniden doğuma veya tamamen önlenmesine karar verebilecek bir varlık olduğunu varsayalım . Bu varlık bir "yönetici" mi, bir tanrı mı, diğer yapay zeka mı yoksa bir insan mı, başka bir sorudur.

Buradaki "ölüm" ve "yeniden doğuş" terimleri, dinamik versiyonun insan hapishanelerimiz gibi olacağı ve statik versiyonun SciFi kriyojeni gibi olacağı "hapsetme" için değiştirilebilir. Bu biraz esnektir, ancak bir denklik görebiliriz ve bu iki senaryoyu ölüm olarak nitelendirmek için iyi bir neden yoktur.

Sonuç olarak, yapay zeka için ölüm istisnai, tekil bir senaryo gibi gözükmektedir, bu yüzden yapay zeka nasıl yapabileceğimizi nasıl düşündüğümüz konusunda yanlış olursak, AI pratikte ölemez. Ancak AI sonsuza kadar hapse atılabilir .


Not: Yukarıdaki terminoloji yazı için tamamen hazırlanmıştır. Bazı iddiaları destekleyecek alıntılarım yok, ancak okumalara ve kişisel çalışmalara dayanıyor (yazılım doğrulaması dahil).


2

AI, kopyalanabilir bir üretim işleminden kaynaklanıyorsa (örneğin, modern bilgisayarlarda olduğu gibi), bir AI durumunun anlık görüntüsünü almak ve başka bir mekanizmada hatasız olarak çoğaltmak mümkün olacaktır.

Böyle bir yapı için, 'ölüm' şu anda etli organikler için geçerli olduğu anlamına gelmez: bir AI'nin çoklu klonları herhangi bir zamanda somutlaştırılabilir.

Dolayısıyla, ihtiyaç duyulan ölüm analogu, AI'nın daha fazla 'yararlı çalışma' yapmadığı 'termodinamik ısı ölümüne' daha yakın bir şeydir.

AI'ların standart algılanması / eylem karakterizasyonu kullanılarak, (sorunun altındaki bir yorumda belirtildiği gibi) bu AI SE sorusu bir AI için böyle bir ölüm tanımı verir: yani başka bir algı almadığı bir duruma girdiğinde ve hiçbir şey yapmaz.

EDIT: Bu ölüm kavramının bir yapay zeka için 'şu anda çalışmıyor' daha terminal bir kavram olduğunu unutmayın. Prensip olarak, her 10.000 yılda bir sadece bir talimat uygulanmasına rağmen, bir programın 'canlı' olduğu söylenebilir. Bununla ilgili büyüleyici bir tartışma için Hofstadter'ın "Einstein'ın Beyniyle Bir Sohbet" konusuna bakın .


Öyleyse ölü mü yoksa sadece uyuyor mu yoksa komada mı?
D. Wade

Yapay zeka durumunun bir klonunun yeniden başlatılmasının onu yeniden işlemeye sokmayacağı düşünüldüğünde, makalenin yazarları muhtemelen 'ölüm'ün uygun benzetme olduğuna karar verdiler. Diğerleri buna katılmayabilir. Ayrıca, işlemlerin hala çalıştığı, ancak artık yararlı bir iş yapamayacağı eşzamanlı sistemlerde 'kilitlenme' teriminin kullanıldığına dikkat edin.
NietzscheanAI

1

"Ölüm" tek bir kavram olarak var, çünkü açıkladığı temel gerçeklik birbirine sıkı sıkıya bağlı ve tanımımız o gerçeği değiştirme yeteneğimizle değişti.

'Ölüm' olarak kabul edilebilecek çeşitli şeylerin birbirinden ayrılacağı ve şu anda kopyaları olmayan bir sisteme, ancak depolanmış sürümü olmayan bir sisteme atıfta bulunmak için farklı bir kelime kullanılacağı daha makul görünmektedir. yeniden yaratılabilir (çünkü onu oluşturmak için kod ve rastgele tohum hala etrafında), ve tamamen kaybolmuş bir sistem. (Ve muhtemelen bazı olasılıkları kaçırıyorum!)


0

"Ölüm" teriminin yapay zeka için bir şey ifade edeceğini sanmıyorum. Bunu söylememin sebebi: Dijital donanımda (muhtemelen) çalışan bir yapay zeka ile, herhangi bir zamanda durumunun bellekten anlık görüntüsünü alabiliriz. Ve sonra gelecekte herhangi bir keyfi zamanda mükemmel sadakatle olduğu gibi yeniden yaratabiliriz.

Dolayısıyla, "ölü" olmasını amaçlayan bir programı sonlandırsanız bile, birisinin daha sonra gelip tekrar gündeme getirip getirmeyeceğini asla bilemezsiniz. Ve belki daha da önemlisi, başka bir kopyanın başka bir yerde olup olmadığını bilemeyebilirsiniz.

Bilim-kurgu referanslarını kullanmaktan nefret ediyorum, ama bu uygun: Matrix üçlemeli programlarında, silinmeyi önlemek için Matrix'te nasıl sürgün edileceğini hatırlıyor musunuz? Belki aynı şey yapay zekalarımızda da olacak ... kendilerini başka yerlere kopyalayacaklar ve silinmemek için saklanmaya çalışacaklar. Dolayısıyla, program yeterince zekiyse, yine de programı sonlandırma girişiminden kaçınabilir.


0

Diğer cevaplar "son ölüm" ile ilgileniyor gibi ... yani bir yapay zekadan kurtulamayan bir "terminal son" durumu. Başka bir deyişle, AI daha fazla işlev göremez.

Ama ölümü bu şekilde tanımlamamıştım. Ölümü, feshedilen bir süreç olarak tanımlarım. Birinin aynı işlemi yeniden başlatması önemli değil, çünkü mevcut süreç zaten öldü. AI yeni bir kopyasını yapmış olabilir, ancak orijinali değil, sadece bir kopyası . Ölüm sadece ölümdür.

Fiziksel bedenin öldüğü bu tip "ölüm" "geçici ölüm" diyebiliriz, ancak farklı bedenler arasında devam eden bazı "psikolojik süreklilik" (bir programı çalıştırmak için kullanılan kaynak kodu gibi) vardır. .

Bu tür "geçici ölüm" bilim kurguda araştırılmıştır. PARANOIA ve Eclipse Phase oldukça sık ölen insanlara sahiptir, ancak daha sonra "bellek yedeklemesi" ile geri yüklenir. İnsanlar işlevsel olarak ölümsüz olabilirler ... ama diğer kopyalar ne kader olursa olsun orijinal hala ölüdür. CGP Gray ayrıca , sizi öldürüp başka bir alanda kendinizin başka bir kopyasını oluşturarak çalışan Star Trek ışınlayıcıları hakkında bir video yaptı . Aslında, fantezi ortamları , insanların ancak daha sonra büyülü bir büyüyle canlanmak için ölebilecekleri "geçici ölüm" fikrini de araştırıyor.

Benim tavsiyem, hayata üç farklı felsefi yaklaşım öğreten (ve hayat sona erdiğinde) felsefi oyun Staying Alive üzerinden oynamaktır :

Temelde kendinizin devam etmesi için gerekli olabilecek üç tür şey vardır. Bunlardan biri bedensel sürekliliktir ve aslında sadece vücudun bazı bölümlerinin (yani beyin) varlığını gerektirebilir. Bir diğeri, bilinçlerinizin sürekliliğini gerektiren psikolojik sürekliliktir; bu, düşünceleriniz, fikirleriniz, anılarınız, planlarınız, inançlarınız vb. Anlamına gelir. Üçüncü olasılık, ruh olarak adlandırılabilecek bir çeşit maddi olmayan parçanızın devam eden varlığıdır *. Tabii ki, hayatta kalabilmeniz için bu sürekliliğin bir veya daha fazla türünün bir kombinasyonunun gerekli olması gerekebilir.

Diğer cevaplar, yaşamın "psikolojik sürekliliğe" dayandığını varsayar ve bu "sürekliliği" neyin bozabileceğini inceler. Hayatın "bedensel sürekliliğe" dayandığını varsayıyorum, bu da kesintiye uğraması çok daha kolay - sadece süreci öldürmek ... yeni bir sürecin yeniden doğup doğmadığı önemli değil ... çünkü orijinal süreç hala ölü. "Hayatta Kalmak" ile oynayarak , kendi kişisel yaşam ve ölüm tanımınızı çözebileceksiniz. Kendi kişisel tanımınıza sahip olduktan sonra, bunu "psikolojik süreklilik" (diğer cevaplar) veya "bedensel süreklilik" (kendi düşüncem) ile kaplayarak bu özel duruma uygulamanız yeterlidir.

* Hayatın bir ruh gerektirdiğini varsayarsanız, AI'nın ruhlara sahip olacağı açık değildir. Eğer yapmazlarsa (ve bu burada en makul varsayım gibi görünüyorsa), o zaman açıkça hayatta olmazlardı (ve hayatta değilseniz ölemezsiniz). Eğer yaparlarsa ruhları bir "ruh" varlığı "psikolojik sürekliliği" bağlı olduğunu göründüğü gibi olsa, o zaman "psikolojik sürekliliği" varsayalım diğer cevaplar hala geçerli olabilir.


1
Güzel cevap! Ayrıca, psikolojik sürekliliğin bedensel işlevine indirgenemez bir şekilde bağlı olma olasılığını da düşünmeliyiz. Form gibi bir şey fonksiyon argümanını takip eder.
Doxosophoi

"Hayatın" bedensel sürekliliğe "dayandığını varsayıyorum. Diğer cevapların asıl noktası, çalışan bir programın aynı durum anlık görüntüsü olduğu bilgisayar programları için bu kavramın psikolojik olarak zorlayıcı olmamasıdır. Buna ek olarak, eğer bir AI'yı öldürmek gerekiyorsa, kesinlikle öldüğü zaman çok pratik bir kavram değildir.
NietzscheanAI

0

Algoritmalar / robotlar ve insanlar arasındaki fark, insan organizması çalışmayı durdurduğunda, insanın ölü sayılmasıdır.

Aksine, çalışmadığında bile bir algoritma hala mevcuttur. ("Yürütülmediğinde bile" kullanacaktım, ama anlamsal nedenlerle bundan kaçınacaktım;) Bilgi için bir depolama ortamı olduğu sürece algoritma bu "durağan durumda" kalabilir.

  • Bir algoritmayı öldürmek kolaydır - çöp kutusunu silin ve boşaltın.

Temel olarak, bir algoritmayı öldürmek için onu içeren kodu silmeniz gerekir.


-1

Sert AI'yi insanlardan farklı tedavi etmek için hiçbir neden yoktur. Bazı insanlar yapay zekanın anlık görüntüsünü yapabileceğinizi söyler, ancak insan anlık görüntüsü almamanın bir nedeni yoktur. Bunun için teknolojimiz yok, ancak bunu imkansız kılacak hiçbir sihirli engel yok (tüm biyolojik verileri kaydedin ve daha sonra kopyanızı başka bir yere yazdırın. Neden olmasın?).

Varlığımızı anlamadığımız için bunun hakkında konuşmak için erken (Sürekli gelişen biyolojik yaratıklar için ölüm terimi).

Eminim gelecekte yapay zeka ile birleşeceğiz ve tek soru ölümün akıllı bir varoluş için ne anlama geleceği olacaktır.


Bunun soruyu nasıl cevapladığını gerçekten göremiyorum ...
Mithical

1
'Bilinci indirmek' bilim kurgu ve transhümanizmde yinelenen bir tema olsa da, şu anda gerçek bir insan beyninin durumunun anlık bir görüntüsünün mümkün olduğunu gösteren zorlayıcı bir kanıt yoktur. Beynin küçük ölçekli durumu bilinçte bir bileşense, 'Belirsizlik İlkesi' muhtemelen (muhtemelen terminal) bir engel olacaktır. Buna karşılık, bir bilgisayar programının durum anlık görüntüsünü elde etmek son derece kolaydır.
NietzscheanAI

AI ölümü ile İnsan ölümü arasında hiçbir fark olmadığını söylemeye çalışıyordum. @NietzscheanAI Bu ilke sert AI'yı da etkiler. Bir yapay zekanın anlık görüntüsünü almanın önemsiz bir yolu olacaksa, insan aklı için de geçerli olacaktır. Neden ayırt etmeye çalışıyorsunuz?
Arrekin

@Arrekin "Yapay zekanın anlık görüntüsünü almanın tivial bir yolu olacaksa, insan aklı için de geçerli olacaktır." Şu anda bunu destekleyecek hiçbir kanıt yoktur.
NietzscheanAI

@NietzscheanAI Belki yanılıyorum ama her türlü varlığın korunduğuna dair bir kanıt yok. Yani sadece spekülasyon yapıyoruz. Ve anlayamadığım şey, insanların neden sert AI'yı insanlardan ayırmaya çalıştığıdır. Aklımızdan farklı bir şeye dayanarak bazı vahşi AI yapmamız pek olası değildir. İlk önce doğanın zaten icat ettiği şeyi taklit ederiz. İlk sert AI'nın insan zihnine dayandığını varsaymak oldukça güvenlidir.
Arrekin
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.