Diferansiyel Entropi


13

Gauss diferansiyel entropisi . Bu standart sapma olan bağlıdır .günlük2(σ2πe)σ

Eğer rasgele değişkeni birim varyansa sahip olacak şekilde normalleştirirsek, diferansiyel entropi düşer. Bana göre bu durum sezgisel çünkü normalleştirme sabitinin Kolmogorov karmaşıklığı entropideki azalmaya kıyasla çok küçük olmalı. Bu rastgele değişken tarafından üretilen herhangi bir veri kümesini kurtarmak için normalleştirme sabitiyle bölen / katlayan bir kodlayıcı kod çözücü basitçe tasarlanabilir.

Muhtemelen benim anlayışım kapalı. Lütfen kusurumu gösterebilir misiniz?

Yanıtlar:


17

Başımın biraz üstünde olmasına rağmen buna bir göz atacağım, bu yüzden tuz serpin ile tedavi edin ...

Tam olarak yanlış değilsin. Düşünce deneyinizin düştüğü yerde, diferansiyel entropinin sınırlayıcı entropi örneği olmadığını düşünüyorum. Bu nedenle, Kolmogorov karmaşıklığı ile arasındaki paralelliklerin kaybolduğunu tahmin ediyorum.

Diyelim ki ayrık bir rastgele değişken . Shannon entropisini olası tüm değerleri x i , H ( X ) = - i P ( X = x i ) günlüğü ( P ( X = x i ) ) toplayarak aşağıdaki gibi hesaplayabiliriz .Xxben

'H(X)=-ΣbenP(X=xben)günlük(P(X=xben)).

Şimdiye kadar sıkıcı. Şimdi sürekli rasgele bir değişkenin nicemlenmiş bir versiyonu olduğunu varsayalım - örneğin, gerçek sayılar kümesinden örnekler üreten yoğunluk fonksiyonuna p ( ) sahibiz ve bunu bir histograma dönüştürürüz. Yoğunluk fonksiyonunun aslında doğrusal olacağı kadar ince bir histogramımız olacak. Bu durumda, böyle bir entropiye sahip olacağız, H ( X ) - i p ( X = x i ) δ x günlüğü ( p ( X = x i ) δ xXp() buradaδxhistogram kutularımızın genişliği vexiher birinin orta noktasıdır. Bu logaritmanın içinde bir ürünümüz var - bunu ayıralım ve toplamın dışına taşımak için 1'e toplama olasılık dağılımlarının özelliğini kullanalım, bize H(X)-log ( δx ) -i p(X=xi)δxgünlüğü ( p(X=xi) ) .

'H(X)-Σbenp(X=xben)δxgünlük(p(X=xben)δx),
δxxben
'H(X)-günlük(δx)-Σbenp(X=xben)δxgünlük(p(X=xben)).

Sınırı alırsak, izin verir ve toplamı bir entegrasyona dönüştürürsek, yaklaşımımız tam olur ve aşağıdakileri elde ederiz, H ( X ) = - log ( d x ) - x p ( X = x ) log ( p ( X = x ) ) d x .δxdx

'H(X)=-günlük(dx)-xp(X=x)günlük(p(X=x))dx.

günlük(dx)

σ

δ

xp(X=x)günlük(p(X=x)q(X=x))dx
q(X)Xp(X)q(X)

Teşekkürler. Bu çok ilginç. Teoride böyle bir hile olduğunu bilmiyordum.
Çağdaş Özgenç

1
günlük(dx)p(x)-Σbenp(xben)δxgünlükp(xben)h(X)δx0nh(X)+n

1
günlük(dx)

@Cagdas - Buna hile söylesem bilmiyorum. Sadece farklı bir şeyi ölçüyor. Ve kardinalin işaret ettiği gibi, bazı kullanımları vardır. Binom dağılımına uygulandığında kırılıp kırılmayacağına gelince, onu nasıl uygulayacağınıza bağlıdır :). Emin değilseniz yeni bir konu başlatmaya değer.
Pat

Sahte rasgele sayı üreteçleri düşünüldüğünde entropinin Kolmogorov karmaşıklığından açıkça farklı olduğunu düşündüm.
James Bowery
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.