Yapay zeka bize nasıl zarar verebilir?


50

Yapay zekanın insanlara zarar verebileceğini veya hatta öldürebileceğini sık sık duyuyoruz, bu yüzden tehlikeli olduğunu kanıtlayabilir.

Yapay zeka bize nasıl zarar verebilir?


6
AI'nın tehlikeli olabileceği önerilen birçok neden ve senaryo olduğundan, bu biraz geniştir. Örneğin, DuttaA'nın yukarıda belirttiği gibi, insanlar neyi hedef alacağına karar veren akıllı silah sistemleri tasarlayabilir ve bu, zaten dar AI kullanarak mümkün olduğu için gerçek bir endişe kaynağıdır. Belki de okumak istediğiniz belirli endişelere, daha önce okuduğunuz belirli bir kaygıyı alıntılayarak veya ilişkilendirerek daha fazla bağlam verin (lütfen düzenlemeyi kullanın ).
Neil Slater

4
@NeilSlater Evet, çok geniş olabilir, ancak bence bu cevap ai.stackexchange.com/a/15462/2444 bazı makul sebepler sunmaktadır. Muhtemel yanlış varsayımı kaldırmak için soruyu değiştirdim.
nbro

2
Bu soru, özellikle genel olarak "süper istihbarat" veya AI hakkında mı? (Örneğin, varsayımsal süper istihbarat varsa, o zaman varsayımsal " kontrol sorunu " bir meseledir. Bununla birlikte, çağdaş otomatikleştirilmiş silah sistemleri süper-akıllı olmayacak, özerk araçlara ve bunlar insanlara zarar vermeyecektir.)
DukeZhou

@DukeZhou OP orijinal ve açık bir şekilde süper-dikkatsizlikten bahsetmedi, ancak bir SI da dahil olmak üzere AI olarak kabul edilebilecek herhangi bir şeyden bahsettiğini sanıyorum.
nbro

3
İlk önce normal zeka size nasıl zarar verebilir? Cevap daha sonra aynı.
J ...

Yanıtlar:


46

tl; Dr.

İnsanların korkmasından (ya da daha iyi endişelenmesi ) AI'nın hepsinin robotları ve kıyamet senaryolarını içermemesinin birçok geçerli nedeni vardır .

Bu endişeleri daha iyi göstermek için, onları üç kategoriye ayırmaya çalışacağım.

Bilinçli ai

Bu, sorunuzun bahsettiği AI türü. İnsanlığı yok edecek / köleleştirecek süper akıllı bilinçli bir yapay zeka. Bu bize bilim kurgu tarafından getiriliyor. Bazı önemli Hollywood örnekleri "Terminatör" , "Matris" , "Ultron Çağı" dır . En etkili romanlar Isaac Asimov tarafından yazılmıştır ve “Robot serisi” ( film olarak da uyarlanan “ ben robotu içerir ) olarak adlandırılır.

Bu çalışmaların çoğunun altındaki temel dayanak, AI'nın bilinçli hale geldiği bir noktaya geliştiği ve zekâdaki insanları aşacağı yönündedir. Hollywood filmleri esas olarak robotlara ve onlar ve insanlar arasındaki savaşa odaklanırken, gerçek AI'ya (yani onları kontrol eden "beyin") yeterince vurgu yapılmıyor. Bir yan not olarak, anlatı nedeniyle, bu AI genellikle her şeyi kontrol eden süper bilgisayar olarak tasvir edilir (böylece kahramanlar belirli bir hedefe sahip olur). “Belirsiz istihbarat” konusunda yeterince keşif yapılmamıştır (ki bence daha gerçekçi).

Gerçek dünyada, AI belirli görevleri çözmeye odaklanmıştır! Farklı alanlardan (örn. Konuşma ve görüntü işleme ve görüntü sürme ve benzeri insanlar gibi) sorunları çözme yeteneğine sahip bir AI aracı Genel Yapay Zeka olarak adlandırılır ve AI'nın "düşünebilmesi ve" olabilmesi için gereklidir. bilinçli.

Gerçekçi olarak, Genel Yapay Zekâ'dan çok hoş bir yoldayız ! Bunun gelecekte neden elde edilemeyeceğine dair bir kanıt olmadığı söyleniyor . Şu anda, halen AI'nın belası durumunda olsak bile, AI'nın insanlardan daha akıllı olduğu bir noktaya gelmeyeceğine inanmak için hiçbir nedenimiz yok.

AI'yı kötü niyetli amaçlarla kullanma

Dünyayı fethetmek için bir AI'nın gerçekleşmesi çok uzun bir yol olsa da , bugün AI ile ilgilenmek için robotlar içermeyen birkaç neden var ! Biraz daha odaklanmak istediğim ikinci kategori bugünün AI'sının birkaç kötü amaçlı kullanımıdır.

Sadece bugün mevcut olan AI uygulamalarına odaklanacağım . Kötü amaçlı amaç için kullanılabilecek bazı AI örnekleri:

  • DeepFake : Birini empoze etmek için kullanılan bir teknik, başka bir kişinin videosu ile yüzleşir. Bu son ünlü porno ile popülerlik kazandı ve sahte haber ve aldatmacalar oluşturmak için kullanılabilir . Kaynaklar: 1 , 2 , 3

  • Kullanımı ile kitle gözetim sistemleri ve yüz tanıma tanıma yeteneğine yazılım saniyede yüzleri milyonlarca , AI kitle gözetim için kullanılabilir. Çin’i kitlesel gözetim altında tutsak da, Çin’i düşündüğümüz halde, Londra , Atlanta ve Berlin gibi pek çok batı şehri dünyadaki en göze çarpan şehirler arasında . Çin, George Orwell'in 1984 sayfalarından doğrudan çıkarılmış gibi görünen siviller için bir değerlendirme sistemi olan sosyal kredi sistemini benimseyerek bir adım daha attı .

  • Etkileyen aracılığıyla insanları sosyal medya . Hedefli pazarlama hedefiyle kullanıcının zevklerini tanımak ve yerleşimler eklemek (birçok internet şirketi tarafından ortak bir uygulama) olan AI, insanların oy kullanmalarını etkilemek için (diğer şeylerin yanı sıra) ustaca kullanılabilir. Kaynaklar: 1 , 2 , 3 .

  • Hacking .

  • Askeri uygulamalar, örneğin drone saldırıları, füze hedefleme sistemleri.

AI'nın olumsuz etkileri

Bu kategori oldukça özneldir, ancak AI'nın gelişimi bazı olumsuz yan etkileri olabilir. Bu kategori ile öncekiler arasındaki ayrım, bu etkilerin zararlı olsalar bile kasıtlı olarak yapılmamasıdır; bunun yerine AI'nın gelişimi ile ortaya çıkarlar. Bazı örnekler:

  • İşler gereksiz hale geliyor . AI daha iyi hale geldikçe birçok iş AI ile değiştirilecektir. Ne yazık ki, teknolojik gelişmelerin çoğu bu yan etkiye sahip olduğu için yapılabilecek pek çok şey yoktur (örneğin, tarım makineleri birçok çiftçinin işini kaybetmesine neden oldu, otomasyon birçok fabrika işçisinin yerini aldı, bilgisayarlar aynıydı).

  • Verilerimizdeki önyargının güçlendirilmesi . Bu, AI (ve özellikle Sinir Ağları) yalnızca eğitildikleri veriler kadar iyi olduğu ve verilerde zaten mevcut olan farklı sosyal önyargı biçimlerini sürdürme ve hatta geliştirme eğiliminde olduğu için çok ilginç bir kategoridir. Irkçı ve cinsiyetçi davranış sergileyen birçok ağ örneği var. Kaynaklar: 1 , 2 , 3 , 4 .


4
Neden “İşlerin gereksiz hale geldiğini” ciddi bir mesele olduğunu anlamıyorum. Hiç kimsenin (ya da en azından insanların büyük çoğunluğunun) çalışmasına gerek kalmayacaksa, hobileri ve hayattan zevk almalarına odaklanmayacaksa dünyanın ne kadar güzel olacağını.
kukis

4
@kukis Zengin olmadıkça, işsiz yiyecek, ev vb. işleri nasıl alabilirsiniz? Bir iş çoğu insan için hayatta kalmak demektir.
nbro

6
İşlerin gereksiz hale gelmesiyle ilgili olarak, bu konuda bir şeyler yapabiliriz, yani ekonomik modellerimizde işi olan insanlara güvenmeyecek şekilde canlandırıyoruz. Demek istediğim, eğer ekonomik sistemlerimiz yeterli miktarda ucuz emeğin sular altında kalmasına neden olacaksa, o zaman açıkça kusurlular. Ve bu kusurun öngörülebilir gelecekte tehlikeli hale gelmesini beklediğimizden, düzeltilmesi gerekir.
Nat

2
AI'nın büyük sorunlara neden olabileceği bir başka örnek de hisse senedi alım satım işlemleridir. Bugünlerde hisse senedi işlemlerinin büyük çoğunluğu, insan tüccarlarından çok daha hızlı tepki verebilecek rekabetçi AI'ler ile yapılmaktadır. Ancak, onları yazan insanların bile, bu AI'lerin aldıkları kararları almasının gerekliliğini anlamadıklarını ve piyasada hisse senedi tahmin eden algoritmaların ters gittiğinden, felakete yol açan bazı etkileri olduğu noktaya varıldı.
Darrel Hoffman

8
@penelope AI'ın değiştirmeye çalıştığı her iş "düşük faiz" değildir. (Çok uzak olmayan) bir gelecekte değiştirilebilecek bir çok yüksek talepli iş olduğunu savunuyorum. Bazı örnekler doktorlar, tüccarlar ve pilotlardır. Eğer AI ilerlemeye devam ederse ve hastalıkları teşhis etmede iyileşmeye devam ederse, doktor işlerinin kesileceğini düşünmek mantıksız olmaz.
Djib2011

14

Kısa dönem

  • Fiziksel kazalar , örneğin endüstriyel makineler, uçak otopilotu, kendi kendini süren arabalar. Özellikle aşırı hava koşulları veya sensör arızası gibi olağandışı durumlar söz konusu olduğunda . Tipik olarak bir AI, kapsamlı bir şekilde test edilmediği koşullar altında zayıf şekilde çalışacaktır.
  • İş imkanlarının azaltılması, imtiyazlı olmayan engellerin engellenmesi gibi sosyal etkiler . krediler, sigorta, şartlı tahliye.
  • Tavsiye motorları , davranışlarımızı değiştirmek için (ve kendi "küçük dünyamız" kabarcıklarımızı pekiştirmek için) bizi daha fazla manipüle ediyor. Öneri motorları rutin olarak çeşitli türlerdeki uygunsuz içeriği küçük çocuklara sunar; çünkü içerik oluşturucular (örneğin, YouTube'da) çocuk dostu görünmek için doğru anahtar kelime doldurmayı kullanırlar.
  • Politik manipülasyon ... Yeterince dedi sanırım.
  • Gizlilik istilasının makul inkar edilebilirliği . Artık AI e-postanızı okuyabilir ve hatta sizin için telefon görüşmesi yapabilir, birisinin kişisel bilgileriniz üzerinde harekete geçmesi ve bir bilgisayar yapacaklarını iddia etmesi kolaydır.
  • Bir video oyunu içine savaşı Torna makineleri tehlikede değildir ve çok onun / onu kayıplar kaldırılır biri tarafından uzaktan kumandalı edilir asker yerine ise,.
  • Şeffaflık eksikliği . Bir kararın gerekçesini almak için çok az yolla karar almak için makinelere güveniyoruz.
  • Kaynak tüketimi ve kirliliği. Bu sadece bir AI problemi değildir, ancak AI'daki her bir gelişme Büyük Veriye daha fazla talep yaratmakta ve bunlar birlikte depolama, işleme ve ağ kurma gereksinimlerini artırmaktadır. Elektrik ve nadir mineral tüketiminin yanı sıra, altyapının birkaç yıl kullanım ömründen sonra imha edilmesi gerekir.
  • Sürveyans - akıllı telefonların ve dinleme cihazlarının her yerde bulunmasıyla, her parçada elemek için çok fazla veri altın madeni var. Tabii ki içinden geçmek için bir AI alın!
  • Siber Güvenlik - siber suçlular giderek daha fazla hedeflerine saldırmak için AI'dan yararlanıyorlar.

Ben bahsetti mi bütün bunlar zaten tüm hızıyla vardır?

Uzun vadeli

AI ve AGI arasında net bir hat olmamasına rağmen, bu bölüm AGI'ye doğru ilerlerken ne olacağı hakkında daha fazla. İki alternatif görüyorum:

  • İstihbaratın doğasını daha iyi anlayabilmemizin sonucu olarak AGI'yi de geliştiririz,
  • ya da iş gibi görünen bir şeyi birbirine tokatlıyoruz, ancak şu anda çok fazla makine öğrenmesi gibi, çok iyi anlamıyoruz.

İlk durumda, eğer bir AI "haydutsa", onu yenmek ve etkisizleştirmek için diğer AI'ları inşa edebiliriz. İkinci durumda, yapamayız ve mahvolduk. AI'ler yeni bir yaşam formu olacak ve soyu tükenmiş olabilir.

İşte bazı potansiyel problemler:

  • Kopyala ve yapıştır. AGI ile ilgili bir problem, bir takım problemler yaratan bir masaüstü bilgisayarda oldukça makul bir şekilde çalışabilmesidir:
    • Script Kiddies - insanlar bir AI indirebilir ve parametreleri yıkıcı bir şekilde ayarlayabilirler. Buna bağlı olarak,
    • Suçlu ya da terörist gruplar AI’yı istedikleri gibi yapılandırabilirler. Bir AI indirebilir, biraz araştırma yapmasını söyleyip sonra size adım adım talimatlar verebilirseniz, bomba yapımı veya biyolojik silah konusunda bir uzman bulmanız gerekmez.
    • Kendi kendini kopyalayan AI - bununla ilgili birçok bilgisayar oyunu var. AI kopar ve virüs gibi yayılır. Daha fazla işlem gücü, kendini daha iyi korumak ve daha fazla yaymak için mümkün.
  • Bilgi işlem kaynaklarının işgali . Daha fazla bilgi işlem gücünün bir AI için faydalı olması muhtemeldir. Bir AI, sunucu kaynaklarını veya masaüstü ve mobil cihazların kaynaklarını satın alabilir veya çalabilir. Aşırı ele alındığında, bu, tüm cihazlarımızın kullanılamaz hale gelebileceği anlamına gelir. Bu da hemen dünyaya zarar verebilir. Aynı zamanda büyük elektrik tüketimi anlamına da gelebilir (ve elektrik santralleri bilgisayar kontrollü olduğu için "fişi çekmek" zor olacaktır!)
  • Otomatik fabrikalar. Dünyada daha fazla fiziksel bir varlığa sahip olmak isteyen bir AGI, yeni fabrikalar kurabilecek ve esasen kendisi için ceset yaratabilecek robotlar üretmek için fabrikaları devralabilir.
  • Bunlar oldukça felsefi düşüncelerdir, ancak bazıları AI'nın bizi insan yapan şeyi tahrip edeceğini iddia eder:
    • Aşağılık. Ya birçok AI varlığı, en iyi insanlardan daha akıllı, daha hızlı, daha güvenilir ve daha yaratıcıysa?
    • Pointlessness. Fiziksel emek ihtiyacını değiştiren robotlar ve entelektüel emek ihtiyacını değiştiren AI'lar ile gerçekten yapacak hiçbir şeyimiz olmayacak. AI zaten önde olacak, çünkü kimse Nobel Ödülünü tekrar almayacak. Neden ilk etapta bile eğitim görüyorsun?
    • Tek kültürlü / durgunluk - çeşitli senaryolarda (tek bir "iyi diktatör" AGI gibi) bir toplum, yeni fikirler veya herhangi bir değişiklik olmadan (öyle olsa bile hoş) sürekli bir düzende sabitlenebilir. Temel olarak, Cesur Yeni Dünya.

Bence AGI geliyor ve bu problemlere dikkat etmemiz gerekiyor ki onları en aza indirebiliriz.


1
Fabrikaları kendileri için robotlar inşa edebilecek şekilde yeniden programlayabilecek AI türlerinin çok uzak olduğunu düşünüyorum. Modern "AI" sadece gerçekten karmaşık bir örüntü tanıma özelliğidir.
user253751

"Uzun vadeli" ve "AGI" dedim. AGI, tanım gereği, karmaşık örüntü tanıma işleminin çok ötesindedir. Her ne kadar "gelişmiş örüntü tanıma", gerçek dünya uygulamalarında kullanılan en yaygın şey olmaktan uzak olsa da, başka yönlerde zaten çok fazla çalışma var (özellikle IMO'nun bu tür senaryoların linçini olduğu sorun çözme / eylem planlaması). )
Artelius

8

Diğer cevaplara ek olarak, nuking çerez fabrikası örneğine eklemek istiyorum:

Makine öğrenmesi AI'ler temel olarak insanlar tarafından tanımlanan bir hedefi gerçekleştirmeye çalışır. Örneğin, insanlar bir çerez fabrikası çalıştıran bir AI yaratırlar. Uyguladıkları hedef, en yüksek kâr marjı için mümkün olduğunca fazla çerez satmak.

Şimdi, yeterince güçlü bir AI hayal edin. Bu AI, diğer tüm çerez fabrikalarını bombalarsa herkesin fabrikasında çerezler satın alması, satışların artması ve karının daha yüksek olması gerektiğini fark edecektir.

Bu yüzden, buradaki insan hatası algoritmada şiddeti kullanma cezası vermiyor. Bu kolayca göz ardı edilir çünkü insanlar algoritmanın bu sonuca varmasını beklemiyorlardı.


8
Bu bana bir keresinde Unity'deki merdivenlerden tırmanmak için bir kişinin AI eğittiği bir yerde redditte gördüğüm gerçek dünyadan bir örneği hatırlatıyor. Toprağa çok kuvvet uygulayarak kendisini bastırabildiğini ve fiziğin havaya uçmasına ve en hızlı şekilde uçmasına neden olacak şekilde hata yaptığını keşfetti.
GammaGames

2
Daha da kötüsü, insanların kurabiye yapmak için daha iyi kullanılabilecek atomlardan oluştuğuna karar verirdi.
nick012000

Bu argümanı daha önce duymuştum. Bir AI kıyamet günü tahmin etmenin yanlışlarından biri, AI'nın ne yapacağını tahmin edemememizdir. AI'nın diğer çerez şirketlerinin küresel ekonomiyi durdurabileceğini ve çerezler için olası herhangi bir talebi tahrip edebileceğini kabul etmesi tamamen olasıdır ... Ekonomi, arz ve talep yasası
Zakk Diaz

8

AI'nın zararları için en sevdiğim senaryo yüksek zeka değil, düşük zekadır. Spesifik olarak, gri goo hipotezi.

Burası kendi kendini kopyalayan, otomatikleştirilmiş bir işlemin amok çalıştığı ve tüm kaynakları kendi kopyalarına dönüştürdüğü yerdir.

Buradaki nokta, AI'nın yüksek zekaya ya da genel zekaya sahip olma anlamında "akıllı" olmadığıdır - tek bir şeyde sadece çok iyidir ve katlanarak çoğaltma kabiliyetine sahiptir.


3
FWIW, insanlar zaten gri renkte. Daha bencil gri bir goo ile değiştirilmek istemeyen bencil gri goo'yuz.
user253751

1
@ immibis Bu elbette felsefi bir POV, gerçek değil. İnsanlar ve kendi kendini kopyalayan / kendinden kaldıran makineler arasında ayrım yapan birçok insan var. Eğer
birçoğunuz

1
@ immibis Bu cevabın referans aldığı Vikipedi'deki gri renkli makaleyi okudunuz mu? Bu terim, akıllıca bir davranışa değil, birbirine karışan akıllıca olmayan (nano) makineleri ifade eder. Ben de diyebilirim ki, hayır, insanlar o değildir (ve ikisi de AI değildir), çünkü yapabildiğimizde Albert Einstein'ı yemedik.
kubanczyk

kubanczyk "istihbarat" teriminin temel anlamı, hem akademi hem de kamuoyunda yaygın olarak yanlış anlaşılmış görünmektedir. İstihbarat, genellikle göreceli (diğer karar verme mekanizmalarına göre) bir spektrumdur ve verilen herhangi bir kararın bir problem bağlamında kullanılmasına dayanır. Yani gri goo akıllı olurdu, sadece zeka sınırlı ve dar olacaktı.
DukeZhou

5

En büyük gerçek tehdidin zaten görmekte olduğumuz dengesizlik / rahatsızlık olacağını söyleyebilirim. Ülkenin% 90'ını işten çıkarmanın getirdiği değişiklikler gerçektir ve sonuçlar (eğer daha eşitsiz bir zenginlik dağılımı olacaktır), eğer bunları düşünürseniz korkutucu.


2
İnsanlar, çoğu tarımsal işi gereksiz kılan endüstriyel devrim sırasında da aynı şeyi söyledi. Yanılmıyor olabilirsiniz ve kişisel olarak endişelendiğim bir şey olsa da, araştırma çalışmaları eğilimleri bunun bir endişe yaratmayacağını ve olası yeni işlerin açılabileceğini gösteriyor.
Programmdude

@Programmdude - Endüstri devrimi değişimleri ve hatta önümüzdeki yıllarda gerçekleşecek olan P'nin ortaya çıkmasıyla sekreterlik işlerinin ortadan kaldırılması arasında temel bir fark olduğunu düşünüyorum.
Mayo

2
@Programmdude Ve insanlar haklıydı. Endüstri devrimi, insanların yaşama şekilleriyle ilgili her şeyi değiştirdi, zenginlik dağılımı ve insanların çiftlik gelirinde var olma kabiliyeti açısından son derece yıkıcıydı. Diğer bakış açısına göre: Gelecekte birkaç yüz yıl öncesine dayanan köle sahipleri, AI'nın bu dönemdeki etkilerini, durumlarını oluşturduğu için yıkıcı olarak görmeyeceklerdir.
Bill K,

@BillK Köle sahipleriyle ilgili olana kadar seninleydim. AI'ların kendini tanımadığını biliyorsun, değil mi?
Ray

@ AI'leri kastetmedim, AI'ları kontrol eden insanları kastetmiştim (ve bu nedenle tüm servetlere sahip olacaktı) ve gerçekten de, olayların bizim için anlaşılmaz bir şekilde farklı olabileceğini belirtmenin bir yoluydu, ancak ' o kadar farklı göründüğünü hissetmiyorum.
Bill K

5

Halkın korkularının tam tersi yönde giden bir örneğe sahibim, ama daha önce olduğunu gördüğüm çok gerçek bir şey. AI'ya özgü değildir, ancak AI ile daha da kötüleşeceğini düşünüyorum. Kritik uygulamalarda AI sonuçlarına kör şekilde güvenen insanların problemidir .

İnsan uzmanlarının karar vermesi gereken birçok alanımız var. Örneğin ilaç al - ilaç X mi yoksa Y ilaç mı vermeliyiz? Aklımdaki durumlar, birisinin çok yakından ilgilenmesinin ve çok fazla uzmanlık kullanmasının gerçekten iyi bir şey olduğu, genellikle karmaşık sorunlardır (Cynefin anlamında) ve sonuç gerçekten önemlidir.

Tıp bilişimcilerinin tıpta bu tür bir sorun için karar destek sistemleri yazmalarına talep vardır (ve diğer alanlarda da aynı tip için sanırım). Ellerinden gelenin en iyisini yaparlar, ancak beklenti her zaman bir insan uzmanının karar verirken sistemin önerisini daima bir fikir olarak görmesidir. Çoğu durumda, bilgi durumu ve geliştiricilere sunulan kaynaklar göz önüne alındığında başka bir şey için söz vermek sorumsuzluk olacaktır. Tipik bir örnek, bilgisayarlı görmenin radyomide kullanılması olabilir: bir hasta BT taraması yapar ve AI görüntüyü işlemeli ve hastanın bir tümörü olup olmadığına karar vermelidir.

Elbette, AI mükemmel değildir. Altın standardına göre ölçüldüğünde bile, asla% 100 doğruluk elde edemez. Ve sonra, kendi hedef metriklerine karşı iyi performans gösterdiği tüm durumlar var, ancak sorun o kadar karmaşıktı ki, hedef metriği iyi yakalayamadı - CT bağlamında bir örnek düşünemiyorum, ama sanırım Burada, algoritmaların algoritmalardaki gerçeklerin doğruluğu için kusurlu bir proxy olan mesajlardaki popülerliği tercih ettiği SE'de bile görüyoruz.

Muhtemelen bu son paragrafı okuyordunuz ve “Evet, ilk tanıtıcı ML kursunda aldım” öğrendim. Bil bakalım ne oldu? Doktorlar asla tanıtıcı bir ML kursu almadılar. Tıbbi dergilerde yer alan makalelerin sonuçlarını anlamak için nadiren yeterli istatistik okuryazarlığına sahiptirler. Açtıkları ve duygusal olarak drene ettikleri 27. hastalarıyla, 16 saat kaymalarıyla 7 saat boyunca konuştukları sırada BT, o kadar net görünmüyor, ancak bilgisayar "bu bir malignite değil" diyor. görüntüye daha fazla konsantre olmak veya ders kitabı aramak veya bir meslektaşınıza danışmak için on dakika daha zaman ayırın. Sadece bilgisayarın söylediklerine göre giderler, bilişsel yüklerinin bir daha fırlamadığından dolayı minnettarlar. Bu yüzden uzman olmaktan ekrandan bir şeyler okuyan insanlar olmaya dönüyorlar. Daha da kötüsü, Bazı hastanelerde, idare sadece bilgisayarlara güvenmiyor, aynı zamanda onların elverişli günah keçileri olduğunu da ortaya koyuyor. Bu nedenle, bir doktorun bilgisayar çıktısına aykırı kötü bir vuruş var, AI'nın görüşünü geçersiz kılmayı seçtiklerini savunmaları zorlaşıyor.

AI'ler güçlü ve kullanışlı araçlardır, ancak araç geliştiricinin yerini alamayacakları görevler her zaman olacaktır.


Daha fazla örnek arıyorsanız, kefalet veya tahliye başvurusunda başvuranların yeniden oranlarını tahmin etmek için makine öğrenmeyi kullanma konusundaki tartışma iyi bir örnek. Doktorlardan ve hakimlerden, tıbbi ve yasal uzmanlıklarının yanı sıra AI'yı anlamak için gereken istatistiksel uzmanlık seviyelerine sahip olmalarını beklemememiz gerektiğine katılıyorum. AI tasarımcıları, algoritmalarının yanlışlığının farkında olmalı ve kullanıcılarına açık bir rehberlik sağlamalıdır. Belki doktora sonucu doğrudan vermek yerine BT taramasında nereye bakacağını söyleyin.
craq

4

Bu sadece diğer cevapların bir tamamlayıcısı olmayı amaçlıyor, bu yüzden AI'nın isteyerek insanlığı köleleştirmeye çalışmasının olasılığını tartışmayacağım.

Ancak farklı bir risk zaten burada. Ben buna teknoloji teknolojisi derdim . Bilim ve teknoloji öğretildi ve IMHO, AI'nın kendi başına iyi ve kötülük ne de özgürlük kavramı yok. Ancak insanlar tarafından inşa edilmiş ve kullanılmıştır ve bu nedenle rasyonel olmayan davranışlar söz konusu olabilir.

AI'dan ziyade genel BT ile ilgili gerçek hayattan bir örnek ile başlardım. Virüslerden veya diğer zararlı yazılımlardan söz edeceğim. Bilgisayarlar, verileri hızlı bir şekilde işlemek için iyi olan aptal makinelerdir. Bu yüzden çoğu insan onlara güveniyor. Bazı (kötü) insanlar, bilgisayarların doğru davranışlarını bozacak kötü amaçlı yazılımlar geliştiriyor. Ve hepimiz biliyoruz ki, bilgisayar kaybına iyi hazırlanmamış küçük ila orta ölçekli kuruluşlar üzerinde çok büyük etkileri olabilir.

AI bilgisayar tabanlıdır, bu nedenle bilgisayar saldırılarına karşı savunmasızdır. İşte benim örnek AI tahrikli bir araba olurdu. Teknoloji neredeyse çalışmaya hazır. Ancak bir kötü amaçlı yazılımın, aracı yoldaki diğer insanlara saldırmaya çalıştığını düşünün. AI koduna doğrudan erişim olmadan bile, yan kanallardan saldırı yapılabilir . Örneğin, sinyal işaretlerini okumak için kamera kullanır. Ancak, makine öğrenmenin uygulanma şekli nedeniyle, AI genellikle bir sahneyi insanın yaptığı gibi analiz etmez. Araştırmacılar, normal bir insanın orijinal işareti görecek şekilde bir işareti değiştirmenin mümkün olduğunu, ancak AI'nın farklı bir tane göreceğini göstermiştir. Şimdi, işaretin yol önceliği levhası olduğunu hayal edin ...

Demek istediğim, AI'nın kötü niyetli bir amacı olmasa bile, kötü adamlar kötü davranmaya çalışabilir. Ve daha önemli aksiyonlara AI'ya (medecine, arabalar, uçaklar, bombalardan bahsetmemek) atanacak olan risk daha yüksek. Farklı bir şekilde söylendiği gibi AI'dan kendisi için gerçekten korkmuyorum ama insanlar tarafından kullanılabildiği için.


3

Bence en gerçek nedenlerden biri (yani mevcut mevcut AI'larla ilgili) risklerin, denetlenmeyen AI'lara iki nedenden ötürü kör bir şekilde bağlı olduğunu düşünüyorum.

1. AI sistemleri bozulabilir

AI sistemlerindeki fiziksel hata, test edilmediği bölgelerde çok hatalı sonuçlar vermeye başlayabilir çünkü fiziksel sistem yanlış değerler sağlamaya başlar. Bu bazen kendi kendini sınama ve fazlalıktan kurtarır, ancak yine de insan gözetimi gerektirir.

Kendi kendine öğrenen AI'lar aynı zamanda bir yazılım zayıflığına da sahiptir - ağırlık ağları veya istatistik gösterimleri, yanlış bir sonuçla sıkışıp kaldıkları yerlerde yerel minimaya yaklaşabilir.

2. AI sistemleri önyargılı

Bu neyse ki sıkça tartışılmaktadır, ancak bahsedilmeye değer: AI sistemlerinin girdilerin sınıflandırılması genellikle önyargılıdır çünkü eğitim / test veri seti de önyargılıdır. Bu, AI'ların, daha açık bir örnek için, belirli etnik kökene sahip insanları tanımamasına neden olur. Bununla birlikte, AI'nın belirli verileri tanımaması ve yanlışlıkla bir fabrikada yangına başlaması, ekipmanı kırması veya insanları incitmesi gibi bazı kötü kazalardan sonra keşfedilebilecek daha az belirgin durumlar vardır.


Bu güzel, çağdaş bir cevap. Yapay sinir ağları gibi "kara kutu" AI'nın mutlak bir şekilde test edilmesi imkansızdır, bu da onları% 100'den daha az tahmin edilebilir kılar - ve hatta genişletmek için% 100'den daha az güvenilir. Bir AI'nın belirli bir soruna ne zaman alternatif bir strateji geliştireceğini ve bu alternatif stratejinin bizi nasıl etkileyeceğini asla bilemeyiz ve araba kullanmak veya kaynakları yönetmek gibi önemli görevler için AI'ya güvenmek istiyorsak bu gerçekten çok büyük bir konudur.
laancelot

1

Bir robot insan-makine arayüzüne benziyorsa, cihaz uzaktan kumandalı bir arabadakiyle aynıdır. Kumanda kolunun arkasındaki operatörle görüşmek ve arzulu bir davranış hakkında pazarlık etmek mümkündür. Uzaktan kumandalı robotlar güvenli icatlardır, çünkü onların eylemleri insanlara kadar izlenebilir ve motivasyonları tahmin edilebilir. Günlük yaşamı iyileştirmek için kullanılabilirler ve onlarla oynamak eğlencelidir.

Buna karşılık, bazı robotlar oyun çubukları tarafından kontrol edilmiyor, ancak bir iç zar jeneratörü ile çalışıyor. Zar oyuncağı kumardaki sosyal rolünden bilinir ancak aynı zamanda mistik bir anlamı vardır. Genellikle, rastgele bir jeneratör, insanların etkisi dışındaki kara kuvvetler tarafından kontrol edilen kaotik davranışlarla güçlü bir şekilde bağlantılıdır. Bir robotun içine yerleştirilmiş ve öğrenme algoritmasıyla geliştirilmiş elektronik bir zar, insan makine arayüzünün tam tersidir, ancak rastgele kontrol edilen robot, beklenmeyen insanlarla oyun oynayacağı için potansiyel bir sorun yaratıcısıdır. Bir sonraki zar sayısını tahmin etmek mümkün değil, bu yüzden robot da aniden davranacak.

Rastgele kontrol edilen oyunlar ile olumsuz sosyal etki arasındaki bağlantı aşağıdaki cümleyle açıklanmıştır.

“Batılı olmayan birçok toplumda kumarbazlar, tanrılara başarı için dua edebilir ve ilahi irade açısından kazanım ve kayıpları açıklayabilir. “Binde, Per. "Kumar ve din: Concord ve çatışma tarihleri." Kumar Sorunları Dergisi 20 (2007): 145-165.


1

İnsanlar şu anda "düşünen şeyin" ekolojik-ekonomik bir alanında varlar.

AI aynı zamanda düşünen bir şeydir, bu yüzden ekolojik-ekonomik nişimizi istila edecektir. Hem ekoloji hem de ekonomi alanında, başka bir şeyin nişinizi işgal etmesi, sürekli hayatta kalmak için iyi bir plan değildir.

İnsan sağkalımının bununla tam olarak nasıl tehlikeye attığı, oldukça karmakarışık olacak. AI'nın bir tür olarak, hatta baskın bir yaşam formu olarak insan sağkalımını tehlikeye atabileceği bir çok akla yatkın yol olacak.


Bir insandan daha ucuz (bir "vücut" ya da dünyayı manipüle etme yolu dahil) ve bir insandan daha akıllı ya da daha zeki olarak üretilebilecek "süper etiği" olmayan güçlü bir AI olduğunu varsayalım.

Bu, kaynaklar için o AI ile rekabet etmeye başladığımız bir durumdur. Mikroekonomik ölçeklerde gerçekleşecek (bu sorunu çözmek için bir insan mı kiralıyoruz veya bir AI satın alıyor / inşa ediyor / kiralıyor / kiralıyor muyuz?). AI'ların insanlardan daha ucuz ve / veya daha zeki olma oranına bağlı olarak, bu yavaş (belki bir zamanda bir endüstri) veya çok hızlı olabilir.

Kapitalist bir yarışmada, daha ucuz AI'lara geçmeyenler rekabet dışı kalır.

Şimdi, kısa vadede, eğer AI'nın avantajları yalnızca marjinal ise, insanları üretkenlikten 20 yıl önce eğitmenin yüksek maliyeti bu süreci yavaşlatabilir. Bu durumda, bir AI yerine hastalığı teşhis etmek için açlık ücretlerinin üzerinde bir Doktor'a ödeme yapmak faydalı olabilir, ancak muhtemelen öğrenci kredilerini ödemeye değmez. Böylece yeni insan doktorları hızlı bir şekilde eğitilmekten vazgeçecek ve mevcut doktorlar yoksullaştırılacaktır. Daha sonra 20-30 yıl boyunca AI, teşhis amaçlı olarak Doktorların yerini tamamen alacaktır.

AI'nın avantajları büyükse, hızlı olur. Doktorlar, insan teşhisi için yoksulluk seviyesi ücretleri ödemeye bile değmezdi. Benzine dayalı tarım devralındığında kas bazlı tarımla böyle bir şey görebilirsiniz.

Geçmişteki sanayi devrimleri sırasında, düşünebilecek insanların olduğu gerçeği, fazla insan işçileri başka eylemlerde bulunmaları için yeniden işleme koyabileceğiniz anlamına gelir; üretim hatları, hizmet ekonomisi işleri, bilgisayar programlama vb. Ancak, bu modelde, AI bu tür bir işte insanlardan daha zeki ve zeki ya da daha akıllı ve zekidir.

Etanolün yol açtığı Arap baharında kanıtlandığı gibi, ürünler ve ekinleri hem makineleri hem de insanları beslemek için kullanılabilir. Makineler, ekim alanlarını faydalı bir işe dönüştürmek açısından daha verimli olduğunda, yiyecek fiyatlarının yükselmeye başladığını göreceksiniz. Bu genellikle isyanlara yol açar, çünkü insanlar açlıktan ölmek istemezler ve bunu önlemek için hükümeti devirmek için kendi hayatlarını riske atmaya isteklidirler.

Sübvanse edilmiş yiyecek ve benzerlerini sağlayarak insanları büyütebilirsiniz. Bu, ekonomik olarak sakatlanmadığı sürece (yani, eğer yeterince pahalıysa, bunu yapmayan diğer yerler tarafından rekabet edilmenize neden olabilir), bu sadece politik olarak dengesizdir.

Alternatif olarak, kısa vadede, giderek daha verimli çalışan AI ekonomisinden kâr elde eden mülkiyet kastı, söz konusu isyanları bastırmak için bir polis veya askeri kast için ödeme yapabilir. Bu, devam eden sadakat sağlamak için polis / askeri kastların yaşam standartlarında orta sınıftan daha düşük olmalarını gerektirir - isyancılara katılmalarını istemezsiniz.

Bu yüzden AI'yı yönlendirebileceğiniz kâr merkezlerinden biri AI bazlı askeri ve polisliktir. Görsel ve diğer veri beslemelerine dayanarak ölümcül ve ölümcül olmayan mühimmat sağlayan uçaklar, gıda fiyatlarının tetiklediği isyanları veya diğer istikrarsızlıkları azaltmak için gereken orta sınıf polis / askeri sayısını azaltabilir. Zaten zaten bahsettiğimiz üzere AI'ların biyolojik bir insandan daha ucuz bedenlere ve eğitime sahip olabileceğini, bu da harcanan dolar başına uygulayabileceğiniz güç miktarını artırabilir.

Bu noktada, açlıktan ölmek üzere olan insanların AI koşullandırma ekonomisini devirmelerini engellemek için kullanılan ve çoğu zaman kullanılmakta olan daha verimli kullanımdan elde edilen üretim araçlarını ele geçirmek için kullanılan çoğu AI çalışan polis ve ordunun varlığından bahsediyoruz.

Üstteki sisteme "sahip olan" kişi, zenginliklerini ve güçlerini optimize etmek için yerel olarak rasyonel kararlar veriyor. Uzun süre devam edebilir veya olmayabilir; Nispeten az miktarda kaynak tahliye ettikleri ve AI tarafından işletilen ekonomiyi bozmadıkları sürece, onlardan kurtulmak için çok fazla seçim baskısı olmayacaktır. Öte yandan, değerli hiçbir şeye katkıda bulunmadıkları için “üstte” konumlar politik olarak dengesizdir.

Bu süreç "güçlü" bir genel AI olarak kabul edildi. Daha dar AI'ler bunu parçalara ayırabilir. Örneğin, ucuz ve etkili bir teşhis bilgisayarı çoğu Doktorun şaşırtıcı derecede kısa bir sürede yoksulluğa düşmesine neden olabilir. Kendi kendine sürüş arabaları ekonominin% 5-10'unu yutabilir. Bilgi teknolojisi zaten perakende sektörünü mütevazı AI ile yutuyor.

Her teknolojik ilerlemenin insanlar için daha fazla ve daha iyi işlere yol açtığı söyleniyor. Ve bu son 300 yıldan beri geçerliydi.

Ancak 1900'den önce, her teknolojik ilerlemenin atlar için daha fazla ve daha iyi işlere yol açtığı da doğruydu. Sonra ICE ve otomobil geldi ve şimdi daha az sayıda çalışan at var; Kalan atlar temel olarak insan hizmetkârlarının eşdeğeridir: "vay, havalı, at" in yeniliği ve büyük bir hayvanı sürmenin ve kontrol etmenin eğlencesi için tutulur.


1

Daha önce verilmiş olan birçok cevaba ek olarak, imaj modelleri alanındaki olumsuz örnekler konusunu gündeme getireceğim .

Muhtemel örnekler, genellikle bir insan gözlemciye algılanamayan, ancak özel olarak tasarlanmış gürültüyle ilgili olan görüntülerdir, ancak bir modelin öngörüsünü kuvvetle değiştirir.

Örnekler şunları içerir:


0

Gerçek bir dünya sorununu çözmek için kullanılan AI, insanlık için bir risk oluşturabilir ve tam olarak bir duyarlılık gerektirmez, bu aynı zamanda bir derece insan salaklığı da gerektirir.

İnsanların aksine, bir AI duygu, etik ve hatta açgözlülük kısıtı olmadan en mantıklı cevabı bulur ... Sadece mantık. Bu AI'ya, insanların yarattığı bir sorunu (örneğin, İklim Değişikliği) nasıl çözeceğinizi sorun ve bunun çözümü, gezegeni korumak için insan ırkının bütününü ortadan kaldırmak olabilir. Açıkçası bu, AI'ya beni daha önceki noktama, insan salaklığına getiren sonuçlarına göre hareket etme yeteneği vermeyi gerektiriyor.


0

Yapay zeka bize (insanın) doğal zeka yöntemlerinden herhangi birinde zarar verebilir. Doğal ve yapay zeka arasındaki fark, insanlar kendilerini daha yakından büyütmeye başladığında yok olacaktır. Zeka artık kimliği karakterize edemez ve sınırsız bir mülkiyet haline gelir. Ortaya çıkan zarar, insanların gelişen kişisel kimliklerini korumak için katlanabilecekleri kadar olacaktır.


0

Çok az insan, küresel ekonomimizin bir AI olarak görülmesi gerektiğinin farkındadır: - Para işlemleri, sinir ağları üzerindeki sinyallerdir. Yapay sinir ağındaki düğümler farklı şirketler veya para ödeyen veya alan özel kişiler olacaktır. - İnsan yapımıdır, yapay olarak nitelendirilir.

Bu sinir ağı insanlardan sonra görevinde daha iyidir: Kapitalizm her zaman insanlar tarafından planlanan ekonomiye karşı kazanmıştır (plan-ekonomi).

Bu sinir ağı tehlikeli mi? CEO, şirket atıklarıyla kirlenmiş bir nehirdeki bir balıkçıya karşı büyük kazanıyorsanız, durum farklı olabilir.

Bu AI nasıl tehlikeli hale geldi? İnsan açgözlülüğü yüzünden cevap verebilirsin. Yaratıcılığımız kendimizi yansıtır. Başka bir deyişle: sinir ağımızı iyi davranması için eğitmedik. Sinir ağını tüm insanlar için yaşam kalitesini yükseltmek için eğitmek yerine, zengin kanatlıları daha zengin hale getirmek için eğitdik.

Artık bu AI'yi tehlikeli olmayacak şekilde eğitmek kolay olur mu? Belki değil, belki bir miktar AI hayattan daha büyüktür. Bu sadece en uygun olanın hayatta kalması.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.