Sinir ağlarının karar ağaçları gibi açıklanabilirliği var mı?


13

Karar Ağaçlarında, ağaç yapısının çıktısını anlayabiliriz ve Karar Ağacının nasıl karar verdiğini görselleştirebiliriz. Dolayısıyla karar ağaçlarının açıklanabilirliği vardır (çıktıları kolayca açıklanabilir.)

Sinir Ağlarında Karar Ağaçları gibi açıklanabilirlik var mı?


1
Yeni bir model agnostik çerçeve LIME modelidir .
Emre

Sinir ağlarını kullanan nesne tanıma / sınıflandırma alanında, ısı haritaları, heatmapping.org gibi bir kararı görselleştirmek / açıklamak için popülerdir . Öğreticiler ve etkileşimli demolar mevcuttur.
Nikolas Rieble

Yanıtlar:


9

Önceki cevaba ve iki nedenden ötürü öneriye katılmıyorum:

1) Karar ağaçları, birlikte daha karmaşık kararlar alabilen basit mantıksal kararlara dayanır. ANCAK girdiniz 1000 boyuta sahipse ve öğrenilen özellikler oldukça doğrusal değilse, sadece düğümlere bakarak okuyamayacağınız / anlayamayacağınız gerçekten büyük ve ağır bir karar ağacı elde edersiniz.

2) Sinir ağları, öğrendikleri işlevin ancak çok küçüklerse anlaşılabilir olması bakımından benzerdir. Büyüdüğünüzde, onları anlamak için başka numaralara ihtiyacınız var. @SmallChess'in önerdiği gibi, evrişimli sinir ağlarının özel durumunu, "bu resimdeki bir arabayı algılaması gibi ağırlıkları nasıl okuyabileceğinizi" açıklayan Konvolüsyon Ağlarını Görselleştirme ve Anlama adlı bu makaleyi okuyabilirsiniz. "değil, bileşenlerin geri kalanını değil.

Bu görselleştirmeler birçok araştırmacının sinir mimarilerindeki zayıflıkları anlamasına ve eğitim algoritmalarının geliştirilmesine yardımcı oldu.


:-) Kağıdın kendisini derin evrişim ağının kendisinden daha zor buldum. Çok matematiksel bir makale.
HelloWorld

1
Üzgünüm, yanlış makaleye atıfta bulundum :-) Sadece değiştirdim, bu daha grafiksel, konvektoları ters çevirme fikri, eğer konnetsetlerin nasıl çalıştığını biliyorsanız gerçekten zor değil. Aynı şekilde, Google derin rüyası, girdi alanındaki belirli bir çıktıyı yansıtmak için geri yayılımı kullanır.
Robin

Matt Zeiler'ın Deconconvolution network
Alex

7

Hayır. Sinir ağını anlamak genellikle zordur. Tahmin karmaşıklığını model karmaşıklığı için alıyorsunuz. NN ağırlıklarını grafik olarak görselleştirmek mümkün olsa da, size tam olarak nasıl bir karar verildiğini söylemezler. Derin bir ağı anlamaya çalışırken iyi şanslar.

NN'yi daha basit bir modelle yerel olarak modelleyebilen popüler bir Python paketi (ve bir kağıdı var) var. Bir göz atmak isteyebilirsiniz.

https://github.com/marcotcr/lime


1
haha. Neye benzediğini biliyorum. sarılmak : D
Dawny33

0

https://arxiv.org/abs/1704.02685 , NN'ye özgü yerel bir açıklama aracı sağlar: derinlemesine kaldırma. Açıklamak istediğiniz örnek ile bir referans örnek arasındaki etkinleştirme farkını yayarak çalışır. Referans almak biraz zordur, ancak araç genel olarak yorumlanabilir ve ölçeklenebilir görünmektedir. Tablo şeklinde verilerde kullanıyoruz.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.