Yapay zekanın insanlara zarar verebileceğini veya hatta öldürebileceğini sık sık duyuyoruz, bu yüzden tehlikeli olduğunu kanıtlayabilir.
Yapay zeka bize nasıl zarar verebilir?
Yapay zekanın insanlara zarar verebileceğini veya hatta öldürebileceğini sık sık duyuyoruz, bu yüzden tehlikeli olduğunu kanıtlayabilir.
Yapay zeka bize nasıl zarar verebilir?
Yanıtlar:
İnsanların korkmasından (ya da daha iyi endişelenmesi ) AI'nın hepsinin robotları ve kıyamet senaryolarını içermemesinin birçok geçerli nedeni vardır .
Bu endişeleri daha iyi göstermek için, onları üç kategoriye ayırmaya çalışacağım.
Bu, sorunuzun bahsettiği AI türü. İnsanlığı yok edecek / köleleştirecek süper akıllı bilinçli bir yapay zeka. Bu bize bilim kurgu tarafından getiriliyor. Bazı önemli Hollywood örnekleri "Terminatör" , "Matris" , "Ultron Çağı" dır . En etkili romanlar Isaac Asimov tarafından yazılmıştır ve “Robot serisi” ( “ film olarak da uyarlanan “ ben robotu içerir ) olarak adlandırılır.
Bu çalışmaların çoğunun altındaki temel dayanak, AI'nın bilinçli hale geldiği bir noktaya geliştiği ve zekâdaki insanları aşacağı yönündedir. Hollywood filmleri esas olarak robotlara ve onlar ve insanlar arasındaki savaşa odaklanırken, gerçek AI'ya (yani onları kontrol eden "beyin") yeterince vurgu yapılmıyor. Bir yan not olarak, anlatı nedeniyle, bu AI genellikle her şeyi kontrol eden süper bilgisayar olarak tasvir edilir (böylece kahramanlar belirli bir hedefe sahip olur). “Belirsiz istihbarat” konusunda yeterince keşif yapılmamıştır (ki bence daha gerçekçi).
Gerçek dünyada, AI belirli görevleri çözmeye odaklanmıştır! Farklı alanlardan (örn. Konuşma ve görüntü işleme ve görüntü sürme ve benzeri insanlar gibi) sorunları çözme yeteneğine sahip bir AI aracı Genel Yapay Zeka olarak adlandırılır ve AI'nın "düşünebilmesi ve" olabilmesi için gereklidir. bilinçli.
Gerçekçi olarak, Genel Yapay Zekâ'dan çok hoş bir yoldayız ! Bunun gelecekte neden elde edilemeyeceğine dair bir kanıt olmadığı söyleniyor . Şu anda, halen AI'nın belası durumunda olsak bile, AI'nın insanlardan daha akıllı olduğu bir noktaya gelmeyeceğine inanmak için hiçbir nedenimiz yok.
Dünyayı fethetmek için bir AI'nın gerçekleşmesi çok uzun bir yol olsa da , bugün AI ile ilgilenmek için robotlar içermeyen birkaç neden var ! Biraz daha odaklanmak istediğim ikinci kategori bugünün AI'sının birkaç kötü amaçlı kullanımıdır.
Sadece bugün mevcut olan AI uygulamalarına odaklanacağım . Kötü amaçlı amaç için kullanılabilecek bazı AI örnekleri:
DeepFake : Birini empoze etmek için kullanılan bir teknik, başka bir kişinin videosu ile yüzleşir. Bu son ünlü porno ile popülerlik kazandı ve sahte haber ve aldatmacalar oluşturmak için kullanılabilir . Kaynaklar: 1 , 2 , 3
Kullanımı ile kitle gözetim sistemleri ve yüz tanıma tanıma yeteneğine yazılım saniyede yüzleri milyonlarca , AI kitle gözetim için kullanılabilir. Çin’i kitlesel gözetim altında tutsak da, Çin’i düşündüğümüz halde, Londra , Atlanta ve Berlin gibi pek çok batı şehri dünyadaki en göze çarpan şehirler arasında . Çin, George Orwell'in 1984 sayfalarından doğrudan çıkarılmış gibi görünen siviller için bir değerlendirme sistemi olan sosyal kredi sistemini benimseyerek bir adım daha attı .
Etkileyen aracılığıyla insanları sosyal medya . Hedefli pazarlama hedefiyle kullanıcının zevklerini tanımak ve yerleşimler eklemek (birçok internet şirketi tarafından ortak bir uygulama) olan AI, insanların oy kullanmalarını etkilemek için (diğer şeylerin yanı sıra) ustaca kullanılabilir. Kaynaklar: 1 , 2 , 3 .
Hacking .
Askeri uygulamalar, örneğin drone saldırıları, füze hedefleme sistemleri.
Bu kategori oldukça özneldir, ancak AI'nın gelişimi bazı olumsuz yan etkileri olabilir. Bu kategori ile öncekiler arasındaki ayrım, bu etkilerin zararlı olsalar bile kasıtlı olarak yapılmamasıdır; bunun yerine AI'nın gelişimi ile ortaya çıkarlar. Bazı örnekler:
İşler gereksiz hale geliyor . AI daha iyi hale geldikçe birçok iş AI ile değiştirilecektir. Ne yazık ki, teknolojik gelişmelerin çoğu bu yan etkiye sahip olduğu için yapılabilecek pek çok şey yoktur (örneğin, tarım makineleri birçok çiftçinin işini kaybetmesine neden oldu, otomasyon birçok fabrika işçisinin yerini aldı, bilgisayarlar aynıydı).
Verilerimizdeki önyargının güçlendirilmesi . Bu, AI (ve özellikle Sinir Ağları) yalnızca eğitildikleri veriler kadar iyi olduğu ve verilerde zaten mevcut olan farklı sosyal önyargı biçimlerini sürdürme ve hatta geliştirme eğiliminde olduğu için çok ilginç bir kategoridir. Irkçı ve cinsiyetçi davranış sergileyen birçok ağ örneği var. Kaynaklar: 1 , 2 , 3 , 4 .
Ben bahsetti mi bütün bunlar zaten tüm hızıyla vardır?
AI ve AGI arasında net bir hat olmamasına rağmen, bu bölüm AGI'ye doğru ilerlerken ne olacağı hakkında daha fazla. İki alternatif görüyorum:
İlk durumda, eğer bir AI "haydutsa", onu yenmek ve etkisizleştirmek için diğer AI'ları inşa edebiliriz. İkinci durumda, yapamayız ve mahvolduk. AI'ler yeni bir yaşam formu olacak ve soyu tükenmiş olabilir.
İşte bazı potansiyel problemler:
Bence AGI geliyor ve bu problemlere dikkat etmemiz gerekiyor ki onları en aza indirebiliriz.
Diğer cevaplara ek olarak, nuking çerez fabrikası örneğine eklemek istiyorum:
Makine öğrenmesi AI'ler temel olarak insanlar tarafından tanımlanan bir hedefi gerçekleştirmeye çalışır. Örneğin, insanlar bir çerez fabrikası çalıştıran bir AI yaratırlar. Uyguladıkları hedef, en yüksek kâr marjı için mümkün olduğunca fazla çerez satmak.
Şimdi, yeterince güçlü bir AI hayal edin. Bu AI, diğer tüm çerez fabrikalarını bombalarsa herkesin fabrikasında çerezler satın alması, satışların artması ve karının daha yüksek olması gerektiğini fark edecektir.
Bu yüzden, buradaki insan hatası algoritmada şiddeti kullanma cezası vermiyor. Bu kolayca göz ardı edilir çünkü insanlar algoritmanın bu sonuca varmasını beklemiyorlardı.
AI'nın zararları için en sevdiğim senaryo yüksek zeka değil, düşük zekadır. Spesifik olarak, gri goo hipotezi.
Burası kendi kendini kopyalayan, otomatikleştirilmiş bir işlemin amok çalıştığı ve tüm kaynakları kendi kopyalarına dönüştürdüğü yerdir.
Buradaki nokta, AI'nın yüksek zekaya ya da genel zekaya sahip olma anlamında "akıllı" olmadığıdır - tek bir şeyde sadece çok iyidir ve katlanarak çoğaltma kabiliyetine sahiptir.
En büyük gerçek tehdidin zaten görmekte olduğumuz dengesizlik / rahatsızlık olacağını söyleyebilirim. Ülkenin% 90'ını işten çıkarmanın getirdiği değişiklikler gerçektir ve sonuçlar (eğer daha eşitsiz bir zenginlik dağılımı olacaktır), eğer bunları düşünürseniz korkutucu.
Halkın korkularının tam tersi yönde giden bir örneğe sahibim, ama daha önce olduğunu gördüğüm çok gerçek bir şey. AI'ya özgü değildir, ancak AI ile daha da kötüleşeceğini düşünüyorum. Kritik uygulamalarda AI sonuçlarına kör şekilde güvenen insanların problemidir .
İnsan uzmanlarının karar vermesi gereken birçok alanımız var. Örneğin ilaç al - ilaç X mi yoksa Y ilaç mı vermeliyiz? Aklımdaki durumlar, birisinin çok yakından ilgilenmesinin ve çok fazla uzmanlık kullanmasının gerçekten iyi bir şey olduğu, genellikle karmaşık sorunlardır (Cynefin anlamında) ve sonuç gerçekten önemlidir.
Tıp bilişimcilerinin tıpta bu tür bir sorun için karar destek sistemleri yazmalarına talep vardır (ve diğer alanlarda da aynı tip için sanırım). Ellerinden gelenin en iyisini yaparlar, ancak beklenti her zaman bir insan uzmanının karar verirken sistemin önerisini daima bir fikir olarak görmesidir. Çoğu durumda, bilgi durumu ve geliştiricilere sunulan kaynaklar göz önüne alındığında başka bir şey için söz vermek sorumsuzluk olacaktır. Tipik bir örnek, bilgisayarlı görmenin radyomide kullanılması olabilir: bir hasta BT taraması yapar ve AI görüntüyü işlemeli ve hastanın bir tümörü olup olmadığına karar vermelidir.
Elbette, AI mükemmel değildir. Altın standardına göre ölçüldüğünde bile, asla% 100 doğruluk elde edemez. Ve sonra, kendi hedef metriklerine karşı iyi performans gösterdiği tüm durumlar var, ancak sorun o kadar karmaşıktı ki, hedef metriği iyi yakalayamadı - CT bağlamında bir örnek düşünemiyorum, ama sanırım Burada, algoritmaların algoritmalardaki gerçeklerin doğruluğu için kusurlu bir proxy olan mesajlardaki popülerliği tercih ettiği SE'de bile görüyoruz.
Muhtemelen bu son paragrafı okuyordunuz ve “Evet, ilk tanıtıcı ML kursunda aldım” öğrendim. Bil bakalım ne oldu? Doktorlar asla tanıtıcı bir ML kursu almadılar. Tıbbi dergilerde yer alan makalelerin sonuçlarını anlamak için nadiren yeterli istatistik okuryazarlığına sahiptirler. Açtıkları ve duygusal olarak drene ettikleri 27. hastalarıyla, 16 saat kaymalarıyla 7 saat boyunca konuştukları sırada BT, o kadar net görünmüyor, ancak bilgisayar "bu bir malignite değil" diyor. görüntüye daha fazla konsantre olmak veya ders kitabı aramak veya bir meslektaşınıza danışmak için on dakika daha zaman ayırın. Sadece bilgisayarın söylediklerine göre giderler, bilişsel yüklerinin bir daha fırlamadığından dolayı minnettarlar. Bu yüzden uzman olmaktan ekrandan bir şeyler okuyan insanlar olmaya dönüyorlar. Daha da kötüsü, Bazı hastanelerde, idare sadece bilgisayarlara güvenmiyor, aynı zamanda onların elverişli günah keçileri olduğunu da ortaya koyuyor. Bu nedenle, bir doktorun bilgisayar çıktısına aykırı kötü bir vuruş var, AI'nın görüşünü geçersiz kılmayı seçtiklerini savunmaları zorlaşıyor.
AI'ler güçlü ve kullanışlı araçlardır, ancak araç geliştiricinin yerini alamayacakları görevler her zaman olacaktır.
Bu sadece diğer cevapların bir tamamlayıcısı olmayı amaçlıyor, bu yüzden AI'nın isteyerek insanlığı köleleştirmeye çalışmasının olasılığını tartışmayacağım.
Ancak farklı bir risk zaten burada. Ben buna teknoloji teknolojisi derdim . Bilim ve teknoloji öğretildi ve IMHO, AI'nın kendi başına iyi ve kötülük ne de özgürlük kavramı yok. Ancak insanlar tarafından inşa edilmiş ve kullanılmıştır ve bu nedenle rasyonel olmayan davranışlar söz konusu olabilir.
AI'dan ziyade genel BT ile ilgili gerçek hayattan bir örnek ile başlardım. Virüslerden veya diğer zararlı yazılımlardan söz edeceğim. Bilgisayarlar, verileri hızlı bir şekilde işlemek için iyi olan aptal makinelerdir. Bu yüzden çoğu insan onlara güveniyor. Bazı (kötü) insanlar, bilgisayarların doğru davranışlarını bozacak kötü amaçlı yazılımlar geliştiriyor. Ve hepimiz biliyoruz ki, bilgisayar kaybına iyi hazırlanmamış küçük ila orta ölçekli kuruluşlar üzerinde çok büyük etkileri olabilir.
AI bilgisayar tabanlıdır, bu nedenle bilgisayar saldırılarına karşı savunmasızdır. İşte benim örnek AI tahrikli bir araba olurdu. Teknoloji neredeyse çalışmaya hazır. Ancak bir kötü amaçlı yazılımın, aracı yoldaki diğer insanlara saldırmaya çalıştığını düşünün. AI koduna doğrudan erişim olmadan bile, yan kanallardan saldırı yapılabilir . Örneğin, sinyal işaretlerini okumak için kamera kullanır. Ancak, makine öğrenmenin uygulanma şekli nedeniyle, AI genellikle bir sahneyi insanın yaptığı gibi analiz etmez. Araştırmacılar, normal bir insanın orijinal işareti görecek şekilde bir işareti değiştirmenin mümkün olduğunu, ancak AI'nın farklı bir tane göreceğini göstermiştir. Şimdi, işaretin yol önceliği levhası olduğunu hayal edin ...
Demek istediğim, AI'nın kötü niyetli bir amacı olmasa bile, kötü adamlar kötü davranmaya çalışabilir. Ve daha önemli aksiyonlara AI'ya (medecine, arabalar, uçaklar, bombalardan bahsetmemek) atanacak olan risk daha yüksek. Farklı bir şekilde söylendiği gibi AI'dan kendisi için gerçekten korkmuyorum ama insanlar tarafından kullanılabildiği için.
Bence en gerçek nedenlerden biri (yani mevcut mevcut AI'larla ilgili) risklerin, denetlenmeyen AI'lara iki nedenden ötürü kör bir şekilde bağlı olduğunu düşünüyorum.
AI sistemlerindeki fiziksel hata, test edilmediği bölgelerde çok hatalı sonuçlar vermeye başlayabilir çünkü fiziksel sistem yanlış değerler sağlamaya başlar. Bu bazen kendi kendini sınama ve fazlalıktan kurtarır, ancak yine de insan gözetimi gerektirir.
Kendi kendine öğrenen AI'lar aynı zamanda bir yazılım zayıflığına da sahiptir - ağırlık ağları veya istatistik gösterimleri, yanlış bir sonuçla sıkışıp kaldıkları yerlerde yerel minimaya yaklaşabilir.
Bu neyse ki sıkça tartışılmaktadır, ancak bahsedilmeye değer: AI sistemlerinin girdilerin sınıflandırılması genellikle önyargılıdır çünkü eğitim / test veri seti de önyargılıdır. Bu, AI'ların, daha açık bir örnek için, belirli etnik kökene sahip insanları tanımamasına neden olur. Bununla birlikte, AI'nın belirli verileri tanımaması ve yanlışlıkla bir fabrikada yangına başlaması, ekipmanı kırması veya insanları incitmesi gibi bazı kötü kazalardan sonra keşfedilebilecek daha az belirgin durumlar vardır.
Bir robot insan-makine arayüzüne benziyorsa, cihaz uzaktan kumandalı bir arabadakiyle aynıdır. Kumanda kolunun arkasındaki operatörle görüşmek ve arzulu bir davranış hakkında pazarlık etmek mümkündür. Uzaktan kumandalı robotlar güvenli icatlardır, çünkü onların eylemleri insanlara kadar izlenebilir ve motivasyonları tahmin edilebilir. Günlük yaşamı iyileştirmek için kullanılabilirler ve onlarla oynamak eğlencelidir.
Buna karşılık, bazı robotlar oyun çubukları tarafından kontrol edilmiyor, ancak bir iç zar jeneratörü ile çalışıyor. Zar oyuncağı kumardaki sosyal rolünden bilinir ancak aynı zamanda mistik bir anlamı vardır. Genellikle, rastgele bir jeneratör, insanların etkisi dışındaki kara kuvvetler tarafından kontrol edilen kaotik davranışlarla güçlü bir şekilde bağlantılıdır. Bir robotun içine yerleştirilmiş ve öğrenme algoritmasıyla geliştirilmiş elektronik bir zar, insan makine arayüzünün tam tersidir, ancak rastgele kontrol edilen robot, beklenmeyen insanlarla oyun oynayacağı için potansiyel bir sorun yaratıcısıdır. Bir sonraki zar sayısını tahmin etmek mümkün değil, bu yüzden robot da aniden davranacak.
Rastgele kontrol edilen oyunlar ile olumsuz sosyal etki arasındaki bağlantı aşağıdaki cümleyle açıklanmıştır.
“Batılı olmayan birçok toplumda kumarbazlar, tanrılara başarı için dua edebilir ve ilahi irade açısından kazanım ve kayıpları açıklayabilir. “Binde, Per. "Kumar ve din: Concord ve çatışma tarihleri." Kumar Sorunları Dergisi 20 (2007): 145-165.
İnsanlar şu anda "düşünen şeyin" ekolojik-ekonomik bir alanında varlar.
AI aynı zamanda düşünen bir şeydir, bu yüzden ekolojik-ekonomik nişimizi istila edecektir. Hem ekoloji hem de ekonomi alanında, başka bir şeyin nişinizi işgal etmesi, sürekli hayatta kalmak için iyi bir plan değildir.
İnsan sağkalımının bununla tam olarak nasıl tehlikeye attığı, oldukça karmakarışık olacak. AI'nın bir tür olarak, hatta baskın bir yaşam formu olarak insan sağkalımını tehlikeye atabileceği bir çok akla yatkın yol olacak.
Bir insandan daha ucuz (bir "vücut" ya da dünyayı manipüle etme yolu dahil) ve bir insandan daha akıllı ya da daha zeki olarak üretilebilecek "süper etiği" olmayan güçlü bir AI olduğunu varsayalım.
Bu, kaynaklar için o AI ile rekabet etmeye başladığımız bir durumdur. Mikroekonomik ölçeklerde gerçekleşecek (bu sorunu çözmek için bir insan mı kiralıyoruz veya bir AI satın alıyor / inşa ediyor / kiralıyor / kiralıyor muyuz?). AI'ların insanlardan daha ucuz ve / veya daha zeki olma oranına bağlı olarak, bu yavaş (belki bir zamanda bir endüstri) veya çok hızlı olabilir.
Kapitalist bir yarışmada, daha ucuz AI'lara geçmeyenler rekabet dışı kalır.
Şimdi, kısa vadede, eğer AI'nın avantajları yalnızca marjinal ise, insanları üretkenlikten 20 yıl önce eğitmenin yüksek maliyeti bu süreci yavaşlatabilir. Bu durumda, bir AI yerine hastalığı teşhis etmek için açlık ücretlerinin üzerinde bir Doktor'a ödeme yapmak faydalı olabilir, ancak muhtemelen öğrenci kredilerini ödemeye değmez. Böylece yeni insan doktorları hızlı bir şekilde eğitilmekten vazgeçecek ve mevcut doktorlar yoksullaştırılacaktır. Daha sonra 20-30 yıl boyunca AI, teşhis amaçlı olarak Doktorların yerini tamamen alacaktır.
AI'nın avantajları büyükse, hızlı olur. Doktorlar, insan teşhisi için yoksulluk seviyesi ücretleri ödemeye bile değmezdi. Benzine dayalı tarım devralındığında kas bazlı tarımla böyle bir şey görebilirsiniz.
Geçmişteki sanayi devrimleri sırasında, düşünebilecek insanların olduğu gerçeği, fazla insan işçileri başka eylemlerde bulunmaları için yeniden işleme koyabileceğiniz anlamına gelir; üretim hatları, hizmet ekonomisi işleri, bilgisayar programlama vb. Ancak, bu modelde, AI bu tür bir işte insanlardan daha zeki ve zeki ya da daha akıllı ve zekidir.
Etanolün yol açtığı Arap baharında kanıtlandığı gibi, ürünler ve ekinleri hem makineleri hem de insanları beslemek için kullanılabilir. Makineler, ekim alanlarını faydalı bir işe dönüştürmek açısından daha verimli olduğunda, yiyecek fiyatlarının yükselmeye başladığını göreceksiniz. Bu genellikle isyanlara yol açar, çünkü insanlar açlıktan ölmek istemezler ve bunu önlemek için hükümeti devirmek için kendi hayatlarını riske atmaya isteklidirler.
Sübvanse edilmiş yiyecek ve benzerlerini sağlayarak insanları büyütebilirsiniz. Bu, ekonomik olarak sakatlanmadığı sürece (yani, eğer yeterince pahalıysa, bunu yapmayan diğer yerler tarafından rekabet edilmenize neden olabilir), bu sadece politik olarak dengesizdir.
Alternatif olarak, kısa vadede, giderek daha verimli çalışan AI ekonomisinden kâr elde eden mülkiyet kastı, söz konusu isyanları bastırmak için bir polis veya askeri kast için ödeme yapabilir. Bu, devam eden sadakat sağlamak için polis / askeri kastların yaşam standartlarında orta sınıftan daha düşük olmalarını gerektirir - isyancılara katılmalarını istemezsiniz.
Bu yüzden AI'yı yönlendirebileceğiniz kâr merkezlerinden biri AI bazlı askeri ve polisliktir. Görsel ve diğer veri beslemelerine dayanarak ölümcül ve ölümcül olmayan mühimmat sağlayan uçaklar, gıda fiyatlarının tetiklediği isyanları veya diğer istikrarsızlıkları azaltmak için gereken orta sınıf polis / askeri sayısını azaltabilir. Zaten zaten bahsettiğimiz üzere AI'ların biyolojik bir insandan daha ucuz bedenlere ve eğitime sahip olabileceğini, bu da harcanan dolar başına uygulayabileceğiniz güç miktarını artırabilir.
Bu noktada, açlıktan ölmek üzere olan insanların AI koşullandırma ekonomisini devirmelerini engellemek için kullanılan ve çoğu zaman kullanılmakta olan daha verimli kullanımdan elde edilen üretim araçlarını ele geçirmek için kullanılan çoğu AI çalışan polis ve ordunun varlığından bahsediyoruz.
Üstteki sisteme "sahip olan" kişi, zenginliklerini ve güçlerini optimize etmek için yerel olarak rasyonel kararlar veriyor. Uzun süre devam edebilir veya olmayabilir; Nispeten az miktarda kaynak tahliye ettikleri ve AI tarafından işletilen ekonomiyi bozmadıkları sürece, onlardan kurtulmak için çok fazla seçim baskısı olmayacaktır. Öte yandan, değerli hiçbir şeye katkıda bulunmadıkları için “üstte” konumlar politik olarak dengesizdir.
Bu süreç "güçlü" bir genel AI olarak kabul edildi. Daha dar AI'ler bunu parçalara ayırabilir. Örneğin, ucuz ve etkili bir teşhis bilgisayarı çoğu Doktorun şaşırtıcı derecede kısa bir sürede yoksulluğa düşmesine neden olabilir. Kendi kendine sürüş arabaları ekonominin% 5-10'unu yutabilir. Bilgi teknolojisi zaten perakende sektörünü mütevazı AI ile yutuyor.
Her teknolojik ilerlemenin insanlar için daha fazla ve daha iyi işlere yol açtığı söyleniyor. Ve bu son 300 yıldan beri geçerliydi.
Ancak 1900'den önce, her teknolojik ilerlemenin atlar için daha fazla ve daha iyi işlere yol açtığı da doğruydu. Sonra ICE ve otomobil geldi ve şimdi daha az sayıda çalışan at var; Kalan atlar temel olarak insan hizmetkârlarının eşdeğeridir: "vay, havalı, at" in yeniliği ve büyük bir hayvanı sürmenin ve kontrol etmenin eğlencesi için tutulur.
Daha önce verilmiş olan birçok cevaba ek olarak, imaj modelleri alanındaki olumsuz örnekler konusunu gündeme getireceğim .
Muhtemel örnekler, genellikle bir insan gözlemciye algılanamayan, ancak özel olarak tasarlanmış gürültüyle ilgili olan görüntülerdir, ancak bir modelin öngörüsünü kuvvetle değiştirir.
Örnekler şunları içerir:
Akciğer grafisinde öngörülen tanıyı etkileyen
Etki roadsigns saptanmasını otonom araçlar için gerekli.
Gerçek bir dünya sorununu çözmek için kullanılan AI, insanlık için bir risk oluşturabilir ve tam olarak bir duyarlılık gerektirmez, bu aynı zamanda bir derece insan salaklığı da gerektirir.
İnsanların aksine, bir AI duygu, etik ve hatta açgözlülük kısıtı olmadan en mantıklı cevabı bulur ... Sadece mantık. Bu AI'ya, insanların yarattığı bir sorunu (örneğin, İklim Değişikliği) nasıl çözeceğinizi sorun ve bunun çözümü, gezegeni korumak için insan ırkının bütününü ortadan kaldırmak olabilir. Açıkçası bu, AI'ya beni daha önceki noktama, insan salaklığına getiren sonuçlarına göre hareket etme yeteneği vermeyi gerektiriyor.
Yapay zeka bize (insanın) doğal zeka yöntemlerinden herhangi birinde zarar verebilir. Doğal ve yapay zeka arasındaki fark, insanlar kendilerini daha yakından büyütmeye başladığında yok olacaktır. Zeka artık kimliği karakterize edemez ve sınırsız bir mülkiyet haline gelir. Ortaya çıkan zarar, insanların gelişen kişisel kimliklerini korumak için katlanabilecekleri kadar olacaktır.
Çok az insan, küresel ekonomimizin bir AI olarak görülmesi gerektiğinin farkındadır: - Para işlemleri, sinir ağları üzerindeki sinyallerdir. Yapay sinir ağındaki düğümler farklı şirketler veya para ödeyen veya alan özel kişiler olacaktır. - İnsan yapımıdır, yapay olarak nitelendirilir.
Bu sinir ağı insanlardan sonra görevinde daha iyidir: Kapitalizm her zaman insanlar tarafından planlanan ekonomiye karşı kazanmıştır (plan-ekonomi).
Bu sinir ağı tehlikeli mi? CEO, şirket atıklarıyla kirlenmiş bir nehirdeki bir balıkçıya karşı büyük kazanıyorsanız, durum farklı olabilir.
Bu AI nasıl tehlikeli hale geldi? İnsan açgözlülüğü yüzünden cevap verebilirsin. Yaratıcılığımız kendimizi yansıtır. Başka bir deyişle: sinir ağımızı iyi davranması için eğitmedik. Sinir ağını tüm insanlar için yaşam kalitesini yükseltmek için eğitmek yerine, zengin kanatlıları daha zengin hale getirmek için eğitdik.
Artık bu AI'yi tehlikeli olmayacak şekilde eğitmek kolay olur mu? Belki değil, belki bir miktar AI hayattan daha büyüktür. Bu sadece en uygun olanın hayatta kalması.