Kümeleme: Jensen-Shannon Diverjansını mı yoksa karesini mi kullanmalıyım?


Yanıtlar:


20

Bence bu nasıl kullanılacağına bağlı.

Sadece diğer okuyucular için referans için, eğer ve olasılık ölçümleri ise, Jensen-Shannon Diverjans burada orta nokta ölçüsüdür ve Kullback- Leibler ıraksama.PS

J(P,S)=12(D(P||R,)+D(S||R,))
R,=12(P+S)D(||)

Şimdi, bir metrik olduğu için Jensen-Shannon Diverjansının kare kökünü kullanmaya cazip geleceğim , yani bir mesafe ölçüsünün tüm "sezgisel" özelliklerini karşılar.

Bununla ilgili daha fazla ayrıntı için bkz.

Endres ve Schindelin, Olasılık dağılımları için yeni bir metrik , IEEE Trans. Bilgi. Senin. , cilt. 49, hayır. 3, Temmuz 2003, sayfa 1858-1860.

Tabii ki, bir anlamda, neye ihtiyacınız olduğuna bağlı. Bunun için kullandığınız tek şey bir çift ölçüyü değerlendirmekse, JSD'nin herhangi bir monotonik dönüşümü işe yarayacaktır. Eğer "kare mesafeye" en yakın bir şey arıyorsanız, JSD'nin kendisi benzer miktardır.

Bu arada, bu önceki soru ve ilgili cevaplar ve tartışmalarla da ilgilenebilirsiniz .


Harika, en kısa zamanda "olasılık dağılımı için yeni bir metrik" okuyacağım. Txh
ocram

Teşekkürler! JSD'nin zaten dist ** 2'ye benzediğini fark etmedim
AlcubierreDrive

Harika açıklama için teşekkürler! Kısa bir soru. J-Divergence'in simetrik olduğunu biliyorum J(P,Q) = J(Q,P). Ben JS sapma P ve Q Does bu ortalama simetrik olduğunu okumak JS(P,Q) = JS(Q,P)? Bunu soruyorum çünkü paket içindeki KLdivfonksiyonu kullanıyorum . İki dağılımım için KLdiv'in matris çıktısı simetrik değil. JS bunu düzeltmek için bekliyordum ama JS (KL kullanılarak hesaplanan) çıktı simetrik değil. flexmixR
Efsane

1
PS
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.