Başımın biraz üstünde olmasına rağmen buna bir göz atacağım, bu yüzden tuz serpin ile tedavi edin ...
Tam olarak yanlış değilsin. Düşünce deneyinizin düştüğü yerde, diferansiyel entropinin sınırlayıcı entropi örneği olmadığını düşünüyorum. Bu nedenle, Kolmogorov karmaşıklığı ile arasındaki paralelliklerin kaybolduğunu tahmin ediyorum.
Diyelim ki ayrık bir rastgele değişken . Shannon entropisini olası tüm değerleri x i ,
H ( X ) = - ∑ i P ( X = x i ) günlüğü ( P ( X = x i ) ) toplayarak aşağıdaki gibi hesaplayabiliriz .Xxben
'H( X) = - ∑benP( X= xben) günlüğü( P( X= xben) ) .
Şimdiye kadar sıkıcı. Şimdi sürekli rasgele bir değişkenin nicemlenmiş bir versiyonu olduğunu varsayalım - örneğin, gerçek sayılar kümesinden örnekler üreten yoğunluk fonksiyonuna p ( ) sahibiz ve bunu bir histograma dönüştürürüz. Yoğunluk fonksiyonunun aslında doğrusal olacağı kadar ince bir histogramımız olacak. Bu durumda, böyle bir entropiye sahip olacağız,
H ( X ) ≈ - ∑ i p ( X = x i ) δ x günlüğü ( p ( X = x i ) δ xXp ( )
buradaδxhistogram kutularımızın genişliği vexiher birinin orta noktasıdır. Bu logaritmanın içinde bir ürünümüz var - bunu ayıralım ve toplamın dışına taşımak için 1'e toplama olasılık dağılımlarının özelliğini kullanalım, bize
H(X)≈-log ( δx ) - ∑ i p(X=xi)δxgünlüğü ( p(X=xi) ) .
'H( X) ≈ - ∑benp ( X= xben) δx günlüğü( p(X= xben) δx ) ,
δxxben'H( X) ≈ - günlük( δx ) - ∑benp ( X= xben) δx günlüğü( p(X= xben) ) .
Sınırı alırsak, izin verir ve toplamı bir entegrasyona dönüştürürsek, yaklaşımımız tam olur ve aşağıdakileri elde ederiz,
H ( X ) = - log ( d x ) - ∫ x p ( X = x ) log ( p ( X = x ) ) d x .δx → dx
'H( X) = - günlük( dx ) - ∫xp ( X= x ) günlük( p(X= x ) ) dx .
günlük( dx )
σ
δ
∫xp ( X= x ) günlük( p ( X= x )q( X= x )) dx
q( X)Xp ( X)q( X)