İstatistiksel ve makine öğrenimi modelleri için çok sayıda yorumlanabilirlik vardır: 1) bir bütün olarak algoritma, 2) genel olarak algoritmanın bir kısmı 3) belirli girdiler için algoritmanın bir kısmı ve bu üç seviye iki bölüme ayrılır, Biri eğitim için, biri de işlev değerlendirmesi için Son iki kısım birinciden çok daha yakın. # 2 hakkında soruyorum, bu genellikle # 3'ün daha iyi anlaşılmasını sağlar. (bunlar 'yorumlanabilirlik' ne anlama gelmiyorsa, o zaman ne düşünmeliyim?)
Yorumlanabilirlik devam ettiği sürece, lojistik regresyon, yorumlanması en kolay olanlardan biridir. Bu örnek neden eşiği geçti? Çünkü bu örnek bu özel olumlu özelliğe sahipti ve modelde daha büyük bir katsayısı var. Çok açık!
Bir sinir ağı, yorumlanması zor olan modelin klasik bir örneğidir. Bütün bu katsayılar ne anlama geliyor ? Hepsi öyle karmaşık çılgın yollarla toplanıyorlar ki, belirli bir katsayının gerçekte ne yaptığını söylemek zor.
Ancak tüm derin sinir ağları ortaya çıkarken, işler daha da netleştiğini hissediyor. DL modelleri (örneğin görme), erken katmanlardaki kenarlar ya da oryantasyon gibi şeyleri yakalar gibi görünür ve daha sonraki katlarda bazı düğümler aslında anlamsaldır (atasözü 'büyükanne hücresi' gibi ). Örneğin:
( 'Derin Öğrenme Hakkında Öğrenme' )
Bu sunum için elle yaratılmış bir grafiktir ( pek çoğunun dışında ), bu yüzden çok şüpheliyim. Fakat birinin böyle çalıştığını düşündüğünün kanıtı .
Belki geçmişte, tanınabilir özellikleri bulmamız için yeterli katman yoktu; modeller başarılıydı, ancak post-hoc analizleri belirli olanları analiz etmek kolay değildi.
Ama belki grafik sadece arzulu bir düşüncedir. Belki de NN'ler gerçekten anlaşılmazdır.
Fakat düğümleri resimlerle etiketlenmiş birçok grafik de çok etkileyici.
DL düğümleri gerçekten özelliklere karşılık geliyor mu?