Açıklanabilir AI'ya neden ihtiyacımız var?


56

AI'nın geliştirilmesinin asıl amacı, insanlara bazı görevlerde yardım etmekti ve bu amaç hala geçerliyse, neden açıklanabilirliğini önemsemeliyiz? Örneğin, derin öğrenmede, istihbarat bize yeteneklerinin en iyisini yapıp, kararlarına dikkatle ulaştığı sürece, neden istihbaratının nasıl çalıştığını bilmemiz gerekir?


15
AI size iyi bir cevap vermediğinde ne olur ? Sorunu nasıl buluyorsunuz? Sebepleri anlamadıysanız çözümü nasıl doğrularsınız? Hepimizin ataç olmadığından nasıl emin olabiliyorsun? :)
Luaan

8
Standartlara uymadığından şüphelendiğimden beri cevap olarak göndermemekle birlikte, AI'ya iklim sorunlarının nasıl çözüleceğini sorduğumuzu ve “okyanusları kirlettiğini” söylediğini varsayalım. Belki de doğrudur ve bazı şeyleri düzelten bir yol vardır. Belki bir geliştirici bir hata yaptı ve gerçek çıktı "okyanusları yaymak" olmalıydı. AI'nın akıl yürütmesinden çok fazla hoşlanmıyorsa, ikisi arasında nasıl ayrım yapmak niyetindesiniz?
Flater

5
Bu sorunun cevabını, rakip tekniklerin varlığının ortak bilgisinin ötesinde, gerçekten gerekli mi? Şu anda, çıktıda büyük ölçüde orantısız değişiklikler yaratan verileri girmek için küçük değişiklikler yapmak mümkün. Sonuçların gerçek bir zekaya göre kolayca kontrol edilebildiği nesnelerin görsel olarak tanınması gibi görevlerde, sonuçlar saçma ve delice görünür ve AI'nın "görmesinin" gördüğümüzden çok farklı bir şey olduğunu belirtir . Eğer AI bu gibi durumlarda kendisini açıklayamazsa, faydası keskin bir şekilde düşer.
Mason Wheeler

1
Sorunuz açıklanabilir AI'ya olan ihtiyacı temel alırken, aynı zamanda bu görüşe meydan okuyan bir okuma önermek istiyorum - Orada çok iyi noktalar olduğunu düşünüyorum. Diğer şeylerin yanı sıra, açıklanabilirlik ihtiyacının bir nedeni, çevremizdeki sistemleri açıklamak için insan ihtiyacımız ve daha sonra anlayamadığımız sistemlere duyduğumuz güven, bu sistemler bizim anlamadığımız diğerlerini daha iyi kullanmasa da, daha iyi olabilir. Umarım yansıması için bazı materyaller ekler - hackernoon.com/…
Elisio Quintino

2
Bu ilginç bir ek kaynak olabilir. İnsanlar Wolf'a göre bir Husky vs Husky oluşturmaya çalıştılar, daha sonra ağın hayvana odaklanmadığını, fakat arka planda kar olan tüm görüntüler kurt olduklarını fark ettiler. Başka bir deyişle, bir araba tespit ederseniz, bunun görüntünün yanındaki durma işareti nedeniyle değil, görüntüdeki araba nedeniyle olduğundan emin olmanız gerekir.
jaaq

Yanıtlar:


64

Tarafından tartışıldığı gibi Selvaraju et al. Tümünde, yorumlanabilirliğin faydalı olduğu üç AI evrim aşaması vardır.

  1. AI gelişiminin erken aşamalarında, AI insan performansından daha zayıf olduğunda, şeffaflık daha iyi modeller oluşturmamıza yardımcı olabilir . Bir modelin nasıl çalıştığını daha iyi anlayabilmekte ve birkaç kilit soruyu cevaplamamıza yardımcı olmaktadır. Örneğin, bir model neden bazı durumlarda çalışır, diğerleri de işe yaramaz, neden bazı örnekler modeli diğerlerinden daha fazla karıştırıyor, bu modellerin neden işe yarayıp ya da diğerlerinin böyle davranmıyor, vs.

  2. AI insan performansıyla aynı seviyeye geldiğinde ve ML modelleri birkaç sektörde konuşlandırılmaya başladığında, bu modeller için güven oluşturmaya yardımcı olabilir . Bu konuyu biraz sonra açıklayacağım, çünkü bunun en önemli sebep olduğunu düşünüyorum.

  3. AI insanlardan önemli ölçüde daha iyi performans gösterdiğinde (örneğin AI satranç oynamayı veya Go oynamayı), makinenin öğretilmesine yardımcı olabilir (örn. Makineden bu belirli görevdeki insan performansının nasıl geliştirileceğini öğrenmek).

Güven neden bu kadar önemli?

İlk önce, size güvenin en önemli olduğu birkaç sektör örneği vereyim :

  • Sağlık hizmetinde, belirli bir hastalık için tanı koyan Derin Sinir Ağı'nı hayal edin. Klasik bir kara kutu NN, sadece "evet" veya "hayır" diye bir ikili çıktı verebilir. İnsanları kesin öngörülebilirlikte geride bıraksa bile, pratikte tamamen yararsız olurdu. Doktor modelin değerlendirmesine katılmıyorsa, modelin neden bu tahminde bulunduğunu bilmemeli ; belki doktorun özlediği bir şey gördü. Ayrıca yanlış tanı koyduysa (örneğin hasta bir kişi sağlıklı olarak sınıflandırılmış ve uygun tedaviyi alamamışsa), kim sorumluluk üstlenecekti: modelin kullanıcısı? hastane? modeli tasarlayan şirket? Bunu çevreleyen yasal çerçeve biraz bulanık.

  • Başka bir örnek ise kendi kendine sürüş arabaları. Aynı sorular ortaya çıkıyor: bir arabada kaza olursa kimin suçu: sürücü? araba üreticisi? AI'yı tasarlayan şirket mi? Yasal hesap verebilirlik, bu endüstrinin gelişimi için anahtardır.

Aslında, bu güven eksikliği, birçok kişiye göre AI'nın birçok alanda benimsenmesini engellemiştir (kaynaklar: 1 , 2 , 3 ). Daha şeffaf, yorumlanabilir veya açıklanabilir sistemler ile kullanıcıların akıllı ajanları anlamak ve bu nedenle güvenmek için daha donanımlı olacağı konusunda bir hipotez olsa da (kaynaklar: 1 , 2 , 3 ).

Bazı gerçek dünya uygulamalarında "zamanın% 94'ünü işe yarıyor" diyemezsiniz. Ayrıca bir gerekçe sağlamanız gerekebilir ...

Hükümet düzenlemeleri

Birkaç hükümet yavaş yavaş AI'yı düzenlemek için ilerliyor ve şeffaflık tüm bunların merkezinde görünüyor.

Bu yönde hareket eden ilk ülke, AI'nın şeffaf olması gerektiğini belirten birkaç kılavuz belirleyen AB'dir (kaynaklar: 1 , 2 , 3 ). Örneğin GDPR, bir kişinin verisinin "otomatik karar verme" veya "profil" sistemlerine maruz kalması durumunda, erişim hakkına sahip olduğunu belirtir.

"ilgili mantık hakkında anlamlı bilgi"

( Madde 15, AB GSYİH )

Şimdi bu biraz bulanık, ancak açıkça bu sistemlerden bir tür açıklanabilirlik isteme niyeti var. AB'nin geçmeye çalıştığı genel fikir, “insanların yaşamlarını etkileyen otomatik bir karar verme sisteminiz varsa , belirli bir kararın neden verildiğini bilme hakları ” olmasıdır. Örneğin, bir bankanın kredi başvurularını kabul eden ve reddeden bir AI'sı vardır, ardından başvuru sahipleri başvurularının neden reddedildiğini bilme hakkına sahiptir .

Sonuç olarak...

Açıklanabilir AI'ler gereklidir, çünkü:

  • Bize daha iyi bir anlayış verir, bu da onları geliştirmemize yardımcı olur.
  • Bazı durumlarda AI'dan bazı görevlerde daha iyi kararların nasıl alınacağını öğrenebiliriz.
  • Kullanıcıların , AI'nın daha geniş bir şekilde benimsenmesine yol açan AI'ya güvenmesine yardımcı olur .
  • (Uzak olmayan) gelecekte konuşlandırılmış AI'ların daha "şeffaf" olması gerekebilir.

4
Bu tam olarak sorun (IMHO). Genelde bir kara kutuyu ayrıntılı bir şekilde test edemezsiniz ve sonra (yaşam kritik uygulamalarda bile) "yeterince iyi görünen" bir şeyi, bu durumda insan beynini kabul edersiniz ve hepimiz bununla iyiyiz. Bunu AI'ler için yapamazsak, düzenlememizdeki (sınırlamalar?) Yüzünden, “bir uçağı uçurmak için her şeyin matematiksel olarak kanıtlanması gerekir” çünkü (bugünlerde herhangi bir AI'sız bile değil). Elbette bir AI'yi test etme şekliniz, bir insan pilotunu test ettiğinizle aynı olamaz (kısmen çakışabilir olsalar bile).
Adriano Repetti

11
@ ZsoltSzilagy Hükümet düzenlemelerinin kötü bir şey olduğunu söylemiyorum. Sadece bazı endüstrilerde çalışıyorsanız, açıklanabilir AI geliştirmek için ciddi bir neden olduğunu söylüyorum.
Djib2011

8
Eklemek için bir diğer nokta risk konsantrasyonu. Uyuşturucu koklayan bir köpek önyargılı olabilir ve neden belli kararlar aldığını soramazsın. Ama bu binlerce kişiden sadece bir köpek. Tek bir AI modeli global olarak dağıtılacak, bu yüzden yanlışsa çok daha büyük bir etkiye sahip olacak.
Brendan Whiting,

19
@BrendanWhiting aslında bu ilginç bir durum. Uyuşturucu koklayan bir köpek ile uyuşturucu koklayan bir yapay zeka arasındaki fark nedir? Neden köpek AI yapmak zorunda değilken AI'nın bir açıklama yapmasını gerektirir .... Bence ilk durumda, köpek insanın (bu durumda DEA polisi) yapımında yardımcı olan bir araçtır. onun kararı. Nihayetinde sorumlu olan köpek değil. Benzer şekilde, karar destekleyici AI'lerde de sorun yoktur , sadece karar verenlerle ilgili bir sorun yoktur . Bu şekilde, birçok alandaki bu hesap verebilirlik olayının sonunda atlanacağını düşünüyorum.
Djib2011

6
Belki de bilinmeyen bilinmeyenlerin bir problemidir. Binlerce yıldır hayvanları eğittik ve bunun istikrarlı olduğuna eminiz. Dünyayı ele geçiren, toparlanma eğitimli hayvanların paketleri olacak olsaydı, muhtemelen şimdiye kadar olacaktı. (Her ne kadar çoğu köpeğin bir tür parazit olduğu teorisini sevsem de, onlar kendi yavrularımız yerine onlarla ilgileneceğimiz kadar sevimli olacaklardır.)
Brendan Whiting

15

Açıklanabilir AI'ya neden ihtiyacımız var? ... neden "istihbarat nasıl çalışır?"

Çünkü donanıma erişimi, yeteri kadar beceri ve zamanı olan herkes, sistemi beklenmeyen bir karar vermeye zorlayabilir. Ekipmanın sahibi veya 3. şahıslar, kararın neden doğru olduğuna dair bir açıklama yapmadan, dezavantajlı olacağını düşünüyor.

Örnekler - Birisi olabilir keşfetmek:

  • John Smith olarak adlandırılan ve kalp ameliyatı isteyen kişiler: Salı sabahları, Çarşamba öğleden sonraları veya tuhaf gün ve aylarda Cuma günleri hattın önüne geçme şansının% 90'ı var.

  • Erkeğin soyadı alfabenin ilk yarısında tek bir harfli olan ve eşi ile kredi başvurusu yapan çiftlerin, ilk ismi alfabenin başından itibaren bir harfle başlayan, eşinin kredi alması% 40 daha muhtemeldir. Kredi geçmişinde 5'ten az hatalı girdi.

  • vb.

Yukarıdaki örnekler bu Bildirimi değil gerektiğini soru varlık açısından belirleyici istedi, ancak bunu istismar (kendi ekipman veya algoritmasının bilgisiyle) bir düşman için mümkündür.

Kaynak raporlar :

  • " AdvHat: ArcFace Face ID sistemine gerçek dünyaya ağır saldırı " (23 Ağustos 2019), Stepan Komkov ve Aleksandr Petiushko tarafından

    • Bir çıkartma oluşturmak ve bunu şapkanıza koymak yüz tanıma sistemini aptallaştırır.
  • " Esnek Özellik Rejenerasyonu İle Olumsuz Saldırılara Karşı Savunma " (8 Haziran 2019), Tejas Borkar, Felix Heide ve Lina Karam

    • "Derin sinir ağı (DNN) tahminlerinin, özenle oluşturulmuş olumsuz tahrifatlara karşı savunmasız olduğu gösterilmiştir. Özel olarak, sözde evrensel ters tahrifatlar, herhangi bir görüntüye eklenebilen ve hedefli bir ağı hatalı tahminler yapmak için kandırabilecek görüntü-agnostik bozulmalardır. Görüntü alanında çalışan mevcut rakip savunma stratejilerinden yola çıkarak, DNN özellik alanında faaliyet gösteren ve bu tür evrensel ağır saldırılara karşı etkili bir şekilde savunan yeni bir savunma sunmaktayız. Gürültü ve bu DNN filtre aktivasyonlarını, görünmeyen olumsuz bozulmalara karşı koruyarak gürültüye dirençli özelliklere dönüştüren (yeniden canlandıran) savunma birimlerini dağıtır. ”

  • " Derin sinir ağlarını kandırmak için bir piksel saldırı " (3 Mayıs 2019), Jiawei Su, Danilo Vasconcellos Vargas ve Sakurai Kouichi

    • Bir pikselin değiştirilmesi bu hatalara neden olabilir:

    Şekil 1
    Şekil 1. CIFAR-10 veri kümesi üzerinde eğitilmiş üç tip DNN'yi başarıyla kandıran önerilen algoritma ile oluşturulan bir piksel saldırıları: Tüm evrişimli ağ (AllConv), Ağdaki ağ (NiN) ve VGG. Orijinal sınıf etiketleri siyah renkte olup, hedef sınıf etiketleri ve bunlara ilişkin güven aşağıda verilmiştir.

     

    şekil 2
    Şekil 2. Değiştirilen piksellerin kırmızı daireler ile vurgulandığı ImageNet veri kümesine bir piksel saldırıları. Orijinal sınıf etiketleri siyah renkte olup, hedef sınıf etiketleri ve bunlara ilişkin güvenleri aşağıda verilmiştir.

Bir kararın nasıl ve niçin alındığına dair bir açıklama yapılmadığı takdirde, kesinlikle güvenilmez.


1
Bir piksel saldırısının ve diğer benzer şeylerin bulguları, derin öğrenmenin hiçbir şey öğrenmediğini iddia etmemdir.
Joshua,

1
@Joshua Eh, insan öğrenmesinde olduğu gibi öğrenmiyor (akıl yürütmeyi anlıyor), ancak bu görüntüyü kategoriler halinde sınıflandırabilen çok boyutlu işlevi öğreniyor. Bunu, kaba kuvvet kullanarak en iyi çözüm için çözse bile, kendi başına yaptı. Bir metal demeti ve elektriğin sistematik bir şekilde akması için özenle düzenlenmiş kumdan bekleyecek çok şey var.
user14492

1
Örneklerinize WRT, korkak bir koşulu olan çiftlere verilen kredinin, bu tür bir şeyi yalnızca önemsemesi gereken model verilerini besleyerek azaltmadığını mı söylüyorsunuz? Adın hiçbir zaman AI'ya iletilmemesi gerektiği gibi, çünkü AI hiçbir zaman talep edenin ismine dayanarak tespitler yapmamalıdır. Anladığım kadarıyla, AI'nın gerçekten ihtiyaç duyduğu veri noktalarına karşı daha az tartışmalı örnekler olabilir. Bir piksel saldırıları süper ilginç
Cruncher

@Cruncher Daha az tartışmalı örnekler, bir noktaya dikkat çekerken, görüş açısı 20/20 olduğu kadar her zaman daha iyidir. Önceki reddedilen kredinin hem asal (7'den büyük) hem de asal ve 17 ile 43 arasında olmak üzere iki rakamı olsaydı, peki ya X için bir şey satacaklarını söyleyen birini bulursunuz. dolar, kredi almak ve diskalifiye edilmek için deneyin, bunu birkaç kez yapın, şimdi bir ev veya gemi için kredi alın -% 30 daha iyi şans ve daha önce reddedilen indirimler. Sebep arkasındaki açıklama olmadan daima kendi seçiminizi yapmak istersiniz.
Rob,

@Joshua Pekala, kesinlikle bir piksel saldırısını ve benzeri şeyleri nasıl bulabileceklerini öğrenebilirler. (Buraya bağlanan makale evrimsel bir yaklaşım kullandı, ancak GAN'ları kullanarak benzer sonuçlar gördüm.) Hiçbir sınıflandırma yöntemi mükemmel olamaz. İnsan görüşü, optik illüzyonlara karşı hassastır. Bu makine eşdeğeridir. Makine görme sistemleri için daha aşırı örnekler bulabiliriz, çünkü tahminleri insanlardan daha hızlı bir şekilde yapabilir ve kaydedebilirler, böylece belirli kriterleri karşılayan arıza durumlarını bulmak için başka bir sistemi etkili bir şekilde eğitebiliriz.
Ray,

8

İnsanların yaşamları üzerinde büyük etkisi olan eylemler hakkında karar vermek için tahmine dayalı analitik kullanan bir banka, hastane veya başka bir varlıksanız, sadece Degrade Boostlu ağaçların yapmasını söylediği için önemli kararlar vermezsiniz. Birincisi, çünkü riskli ve altta yatan model yanlış olabilir ve ikincisi, bazı durumlarda yasa dışı olduğu için - Açıklamaya bakınız .


5

Açıklanabilir AI genellikle istenir çünkü

  1. AI (özellikle yapay sinir ağları), felaketle amaçlanan işlerini yapamayabilir. Daha spesifik olarak, çeşitli örneklerle saldırıya uğrayabilir veya saldırıya uğrayabilir veya sonuçları yıkıcı olduğu beklenmeyen yanlış kararlar alabilir (örneğin, insanların ölümüne yol açabilir). Örneğin, hastanın koşullarına bağlı olarak bir hastaya verilmesi gereken bir ilacın dozajını belirlemekten bir AI'nın sorumlu olduğunu hayal edin. Eğer AI yanlış bir tahmin yaparsa ve bu hastanın ölümüne yol açarsa? Böyle bir eylemden kim sorumlu olacak? AI'nın dozaj tahminini kabul etmek için, doktorların güvenmeleri gerekirAI, ancak güven yalnızca bir açıklama gerektiren bir anlayışla gelir. Bu nedenle, bu tür olası arızalardan kaçınmak için AI'nın iç işleyişini anlamak esastır, böylece bu yanlış kararları tekrar vermez.

  2. AI'nın sıklıkla, canlı varlıklar olan (duygularımız var) ve çoğu zaman bir açıklama veya güvenceye (bazı konu veya olaylarla ilgili) ihtiyacı olan insanlarla etkileşime girmesi gerekir.

  3. Genel olarak, insanlar genellikle çevreleri ve dünya hakkında bir açıklama ve anlayış ararlar. Doğası gereği, meraklı ve keşif varlıklarıyız. Bir elma neden düşer?


4

Bunun cevabı inanılmaz derecede basit. Bir gün banka yöneticisi iseniz, mahkemede ayağa kalkmanız ve AI'nızın neden ayrımcılık karşıtı yasalarla korunan bir özelliği paylaşan tüm bu insanlar için ipotekleri reddettiğini açıklamanız gerekebilir. Soruyu algoritmalarla ilgili bir şeyi karıştırmazsanız elinizden alırsanız, yargıç mutlu olmayacaktır. Daha da kötüsü, neden bu araba / uçak çarptı ve bir dahaki sefere nasıl önleyeceksiniz.

Bu, birçok sektörde AI'nın daha yaygın olarak benimsenmesinin önündeki en büyük engelleyicidir.


1
"Cevap" davanızı abartıyor. "Bir cevap ..." derseniz çok hoşuma giderdi
John Coleman

3

Başka bir neden: Gelecekte, AI, insanlar tarafından anlaşılması mümkün olmayan işler için kullanılabilir, verilen AI algoritmasının bu problem üzerinde nasıl çalıştığını anlayarak verilen fenomenin doğasını anlayabiliriz.


2

Açıklanabilir AI'ları neden istediğimizin daha pratik nedenlerinden bahseden tüm bu cevaplara ek olarak, daha felsefi bir tane eklemek istiyorum.

Etrafımızdaki işlerin nasıl yürüdüğünü anlamak, eskiden beri bilimin ana itici güçlerinden biridir. İşlerin nasıl yürüdüğüne dair bir fikriniz yoksa, bu noktanın ötesine geçemezsiniz. Sadece “yerçekimi işe yarıyor”, nasıl çalıştığını anlamaya çalışmamıza engel olmadı. Bunun daha iyi anlaşılması, teknolojimizi geliştirmemize yardımcı olan birkaç önemli keşiflere yol açtı.

Aynı şekilde, "işe yarar" de durursak, iyileştirmeyi durduracağız.


Düzenle:

AI sadece “makinelerin düşünmesini” sağlamakla kalmadı, aynı zamanda insan beyninin nasıl çalıştığını anlamak için onlar aracılığıyla. AI ve sinirbilimi el ele gider .

AI'yı açıklayamadan bunların hepsi mümkün olmazdı.


0

AI'nın gelişiminin aslında insanlara yardım etme arzusu tarafından motive edildiği varsayılmamalıdır. Kanıtlanması veya ispatlanması gibi eşit derecede zor birçok makul açıklama vardır.

  • Fütüristik bir fikri başkalarının görmeden önce hayal ettiği bilinir.
  • Bazı hayal edilmiş düşmanların veya gelecekteki bazı potansiyellerin önünde güç kazanın
  • Çünkü mümkün olabilir
  • Eğlence için
  • Çünkü ABD Savunma Bakanlığı muhtemelen süresiz olarak fon sağlayacak
  • Bu iyi bir kariyer hamlesi
  • İnsan beyni hakkında özellikle mucizevi bir şey olmadığını kanıtlamak
  • İşe alındık ve biraz para aldık ve harcamak için iyi bir yol gibiydi.
  • İzlemeye karar verildi, ancak hiçbirimiz nedenini hatırlamıyoruz.

Bu soruda tanımlanmış bazı tanımlayıcı kelimeler de var, ancak bunların yerini alacak daha iyi kelimeler bulmak zor olabilir. Bunları nasıl resmileştiririz?

  • En iyi yeteneklerine (akıllı sistemler) --- Yetenekleri ne şekilde ölçebilir ve sonuçları onlarla karşılaştırırdık? Öğrenciye “Kendini uygulama değil” diyoruz, ancak bu bilimsel bir gözlem değil. Bu, üçüncü bir tarafın derecelendirme sistemine ve yerine getirilebilen diğer taraflarca uygulanmasına göre karşılanmayan bir başarı projeksiyonuna dayanan bir keyfi karardır.
  • Kararlara dikkatlice varmak --- Care kendileri objektif olan hedefleri ifade eder. Etik bir insanoğlunda olduğu gibi, özelikle gerçekçi bir anlam kazandığı gibi, durumların soyutlanmış bir farkındalığına uygulanan bir etik sistemini kodlayan gelişmiş bir bilgi işlem platformu henüz belgelemedik. Bir nand geçidinin bir nand fonksiyonunu güvenilir bir şekilde yerine getirdiği ya da belirli şartlar altında belirli bir veri seti büyüklüğüyle bir araya geldiği kanıtlanmış bir algoritmanın kanıtlandığı zaman, ne zaman dikkatli olduğumuzu tam olarak anlamlandırabiliriz.
  • Açıklanabilir --- Bu da belirsiz. Bir uçta, yapay bir ağın yakınsama sırasındaki bir dizi parametre değerinde yakınsama bir açıklamadır, ancak bireysel değerler açıklanmamıştır. Bunun tersine, bir hipotez, deneysel tasarım, bir dizi koşulun seçimi, analiz, sonuç ve sonuç raporunun tamamı ayrıntılı bir açıklama değildir. Böyle bir rapor, insan zekasının raporda belirtilen araştırmalara uygulanmasını açıklayan bilgilerin sadece% 1'ini içerebilir.

Yapay ağlar üzerindeki erken çalışmalar, 1990'ların başlarında AI dergilerinde izlenebilirlik temelinde açıklanamadığı için eleştirildi. Üretim (kural tabanlı) sistemler, uygulanan kuralların denetim izlerini ve önceki kuralların sonuçlarını izleyerek birisinin sonucun yazılı bir kanıtını oluşturmasını sağladı. Bu sınırlı bir yararı vardı.

Direksiyon simitleri araçlardan çıkarıldığında ve bazı bölgelerdeki bazı bölgelerde insan sürüşüne karşı yasamaya başladığında, bunun bir milyon senaryoda güvenlik kanıtlarının yazılmasından kaynaklanmayacaktır. Bunun nedeni, belirli bir araç tipinde kurulu bir AI sürücüsünden kaynaklanan, yeterince ikna edici bir zaman diliminde kaydedilen kaza sonucu ölümlerin, parçalanmaların ve mülk imhalarının, insan sürücüler için bu dağıtımlar üzerindeki güvenliğini göstermesidir. Sonunda bazı mahkeme salonunda ya da yasama meclislerinde birisi bunu ya da eşdeğerini söyleyecektir.

Tartışılan bölge için bu şartlar altında insan sürüşünü yasaklamıyorsak, yılda X sayıda erkek, kadın, çocuk ve yaşlı yaya ve yolcu sayısını erken bir ölüme mahkum ediyoruz.

Etki mekanizmalarını ve belirli durumlar için verilen kararları anlamak faydalıdır, ancak neden bu kadar faydalıdır ki, AI'nın neden uygulanabilir bir çalışma ve çalışma alanı haline geldiği kadar belirsizdir.

  • Rekabetçi AI sistemlerini ölçülebilir bir şekilde karşılaştırmak ilginç olacaktır.
  • İstihbarat hakkında daha fazla şey anlamak büyük bir akademik değere sahip olacaktır.
  • Daha iyi bir açıklama, iyi bir makale için yapar.
  • Bir gün karalıyordum ve kötü açıklanmış gibi görünen belli bir sistem sınıfını açıklayacak şekilde geldim.

AI sistemlerinin denetlenememesi yasal ve adli olayların zemininde görünse de, alınan kararların çoğu, istatistiksel değerlendirmelerin yayımlanma ve algılanma şekillerine dayanarak verilecektir. Sistemlerin açıklanabilecek şekilde işlemesi konusunda ısrar edenler, muhtemelen, bilinçli ya da bilinçaltı olarak, insanların baskınlığının tezahür kaderi olduğu algısına olan bir ilgiyle motive olacaklardır. Soğuk Savaş sırasındaki ABD ve SSCB çıkarlarına yardım edenlerin çoğunun şu anda her iki Soğuk Savaş hizipinin halefleri tarafından terörist lider olarak görülmesi, ironik olmaktan öte bir şey.

İlgili ve daha net bir şekilde cevaplanabilen soru, akıllı bir yardımcının süresiz olarak bir yardımcı olarak kalmasının beklenip beklenmediğidir. Sonsuza dek akıllı sonsuza dek yardım edenlerin soruşturması devam ediyor ve bilim kurgu yazarlarından ve senaryo yazarlarından askeri ortaklık düşünen tankerlere kadar herkes için olağanüstü ilgi görüyor.


-1

IMHO, açıklanabilir AI'ya en önemli ihtiyaç, zihinsel olarak tembel olmamızı önlemektir. Cevapların nasıl bulunduğunu anlamaya çalışmayı bırakırsak , oyunu makinelerimize aldık.


Pekala, cevapları nasıl yüksek düzeyde bulduklarını anlıyoruz: Gelecek vaat eden bir kalıp bulana kadar milyonlarca kez tahmin ediyorlar. Entelektüel görev, bu bildirilerin NEDEN NEDEN OLMADIĞINI anlamaktır - bir AI'nın daha az umursayacağı bir soru.
Zsolt Szilagy 11

Bazen bu doğru, ancak bazı AI türleri (örneğin, genetik algoritmalar) genellikle bundan daha iyisini yapar ve kalıplara neden olan iyi ipuçları sağlayacak şekilde yapılandırılabilir. Bazen "bu veri setinde bulunan modelin bu diğer veri setinde bulunan modele çok yakın olduğuna" dikkat çekerek çok bilgilendirici olabileceğini ve sebeplerin açıklanmasına yol açabileceğini işaret edin.
S. McGrew
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.