SHAP (Shapley Additive Explanation) ve LIME (Lokal Yorumlanabilir Model-Agnostik Açıklamalar) karşılaştırması


21

İki popüler post hoc model yorumlanabilirlik tekniğini okuyorum : LIME ve SHAP

Bu iki teknikteki temel farkı anlamakta güçlük çekiyorum.

To Scott Lundberg alıntı , shap arkasındaki beynin:

SHAP değerleri, LIME'nin kara kutu yerel tahmin avantajları ile birlikte gelir, ancak aynı zamanda oyun teorisinden tutarlılık ve yerel doğruluk hakkında teorik garantilerle gelir (diğer yöntemlerden gelen özellikler)

Bu ' oyun teorisinden tutarlılık ve yerel doğruluk hakkındaki teorik garantilerin ' ne olduğunu anlamakta güçlük çekiyorum . SHAP, LIME'den sonra geliştirildiğinden, LIME'nin ele almadığı bazı boşlukları doldurduğunu varsayıyorum. Onlar ne?

Christoph Molnar'ın Shapley Tahmini hakkındaki bir bölümdeki kitabı şöyle diyor:

Tahmin ve ortalama tahmin arasındaki fark, örneğin özellik değerleri - shapley verimlilik özelliği arasında oldukça dağılmıştır. Bu özellik Shapley değerini LIME gibi diğer yöntemlerden ayırır. LIME, efektlerin mükemmel bir şekilde dağılmasını garanti etmez. Tam bir açıklama yapmak için Shapley değerini tek yöntem yapabilir

Bunu okuduğumda, SHAP'ın yerel değil, veri noktasının küresel bir açıklaması olduğunu hissediyorum. Burada yanlış olabilir ve yukarıdaki alıntı ne anlama geldiğini biraz içgörü gerekir. Sorumu özetlemek gerekirse: LIME, Yerel açıklamalar üretir. SHAP'ın açıklamalarının LIME'den farkı nedir?


2
Güzel bir soru (+1), zaman aldığımda cevaplamaya çalışacağım ama fark edilmesi gereken bariz şey, SHAP'ın yaptığı sırada LIME'nin küresel olarak tutarlı bir açıklama sunmaması. Ayrıca, SHAP kesinlikle LIME'den önce geliştirilmiştir. SHAP, Strumbelj & Kononenko'nun latE 00'ların / 10'ların başlarındaki çalışmalarına ve ayrıca devredilebilir fayda kooperatif oyunlarında ekonomi üzerine çalışmaktadır (örn. Lipovetsky & Conklin (2001)). Ayrıca, duyarlılık analizi ölçümleri (Sobol Endeksleri) üzerinde de birçok çalışma bu şekilde devam etmektedir. Temel SHAP fikirleri genellikle NIPS 2017'den önce biliniyordu.
usεr11852, Reinstate Monic

2
(Sadece yukarıdaki yorumumun ikinci yarısıyla ilgili açık olmak gerekirse: NIPS 2017 belgesinin intihal ya da uzaktan böyle bir şey ürünü olduğunu önermiyorum. Çoğu zaman insanların bir önceki çalışma üzerinde çok fazla çalışma göz ardı ettiğini görüyorum. ve bir bilgi alanının diğer türlü organik evriminin yeni bir enine kesitini büyük bir metodolojik atılım olarak ele almak Bu özel durumda: Algoritmik oyun teorisi AI'nın bir parçası olarak onlarca yıldır varlığını sürdürdü, şimdi yarı soğudu . )
usεr11852 diyor Reinstate Monic

1
@ usεr11852 Cevabınızı bekliyorum. Lütfen bu konuda fikirlerinizi paylaşın.
user248884

2
Henüz yeterli zamanım olmadı; Yaklaşık 400 kelime yazdım ama bazı kağıtları tekrar okuyup metnimi sıkmam gerektiğinden en az 6-7 saatlik bir çalışmaya ihtiyaç duyuyorum - aşırı basitleştirmeler yapmadan SHAP'ı açıklamak biraz zor (en azından benim için). Muhtemelen Aralık ortasından önce yapacağım ... :)
usεr11852 diyor ki Reinstate Monic

1
@ usεr11852 Elbette.
Bekliyor

Yanıtlar:


8

LIME, birim etrafında yerel olarak anlamak istediğiniz tahmini bir vekil model oluşturur. Böylece doğal olarak yereldir. Şekilli değerler, her bir özelliğin katkısına nihai tahmini 'ayrıştırır' - bu, bazıları 'tutarlı' ile kastedilmektedir (değerler, gerçek modelin gerçek tahminine katkıda bulunur, bu LIME ile elde ettiğiniz bir şey değildir). Ancak aslında düzgün değerleri elde etmek için ne yapılacağı / 'dışarıda bırakılan' özelliklerin değerleriyle nasıl başa çıkılacağı konusunda alınması gereken bazı kararlar vardır, bu değerlere nasıl ulaşılır. Bu kararda yorumu değiştirebilecek bir seçenek var. Bir özelliği 'dışarıda bırakırsam' tüm olasılıkları ortalama mı? Biraz 'taban çizgisi' seçiyor musunuz?

Böylece Shapely aslında size ek bir şekilde puanınızı nasıl aldığınızı söyler, ancak 'başlangıç ​​noktası' hakkında bir seçenek vardır (yani atlanan özellikler hakkında karar).

LIME size yerel anlamda, ilgi konusu veri noktası etrafındaki en önemli özelliğin ne olduğunu söyler.


Her modelin puanlarını nasıl kazandığını da ekleyebilir misiniz (örn. Şekil puanı) - Bu puanları normalleştirmedikleri için oldukça can sıkıcı buldum ve ne anlama geldiğini anlamıyorum!
user4581
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.