Sezgisel olarak, maksimum entropi ile olasılık yoğunluğu işlevi, en az bilgi miktarına karşılık gelen değerine karşılık gelir , başka bir deyişle Üniforma dağılımı.{ x 1 , x 2 , . . , . x n }{ x1, x2, . . , . xn}{ x1, x2, . . , . xn}
Şimdi, daha resmi bir kanıt için aşağıdakileri göz önünde bulundurun:
A olasılık yoğunluk fonksiyonu negatif olmayan reel sayılar kümesidir 1. Entropi kadar ekleyin sürekli bir fonksiyonudur -tuples ve bu noktalar küçük bir alt kümesinde yatıyor , bu yüzden entropinin en üst düzeye çıkarıldığı bir tuple var . Bunun ve başka hiçbir yerde olmadığını göstermek istiyoruz .p 1 , . . . , P , n , n ( s 1 , . . . , S , n ) R, n- n ( 1 / n , . . . , 1 / n ){ x1, x2, . . , . xn}p1, . . . , pnn( p1, . . . , pn)R,nn( 1 / n , . . . , 1 / n )
Diyelim ki tamamen eşit değil, . (Açıkça ) Daha yüksek entropiye sahip yeni bir olasılık yoğunluğu bulacağız. Ardından, entropi bir tuple'da maksimize edildiğinden, bu entropi, tüm için ile tuple'da benzersiz bir şekilde maksimize edilir .p 1 < p 2 , n ≠ 1 , n , n s ı = 1 / n ipjp1< p2n ≠ 1nnpben= 1 / nben
beri küçük pozitif için . Entropisi eksi ait entropi eşittir ε p 1 + ε < p 2 - ε { p 1 + ε , s 2 - ε , s 3 , . . . , S , n } { p 1 , s 2 , s 3 , . . . , p n }p1< p2εp1+ ε < p2- ε{ p1+ ε , p2- ε , p3, . . . , pn}{ p1, p2, p3, . . . , pn}
ε-p1günlüğü(1+ε
- p1günlük( p1+ εp1) -εgünlük( p1+ ε ) - p2günlük( p2- εp2) +εlog( p2- ε )
tamamlamak için, bunun yeterince küçük için olumlu olduğunu göstermek istiyoruz . Yukarıdaki denklemi
ε- p1günlük(1+εp1)−ε(logp1+log(1+εp1))−p2log(1−εp2)+ε(logp2+log(1−εp2))
Küçük için hatırlatarak yukarıdaki denklem
, beri yeterince küçük olduğunda pozitif .x - ε - ε log p 1 + ε + ε log p 2 + O ( ε 2 ) = ε log ( p 2 / p 1 ) + O ( ε 2 ) ε p 1 < p 2log(1+x)=x+O(x2)x
- ε - ε günlükp1+ ε + ε günlükp2+ O ( ε2) = ε günlük( p2/ p1) + O ( ε2)
εp1< p2
Daha az titiz bir kanıt aşağıdaki gibidir:
İlk önce aşağıdaki Lemmayı düşünün:
Let ve bir aralık ile sürekli olasılık yoğunluk fonksiyonları olabilir
gerçek sayılar, ve ile . Her
iki integral varsa . Ayrıca, eğer tüm için ise ve varsa eşitlik vardır .q ( x ) I p ≥ 0 q > 0 I - ∫ I p günlüğü p d x ≤ - ∫ I p günlüğü q d x p ( x ) = q ( x ) xp ( x )q(x)Ip≥0q>0I
−∫Iplogpdx≤−∫Iplogqdx
p(x)=q(x)x
Şimdi, , ile üzerinde olasılık yoğunluğu fonksiyonu olsun . İzin vermek tüm ,
ki entropisidir . Bu nedenle bizim Lemma, der , eğer sadece aynı ise ve eşitse.{ x 1 , . . . , x n } p i = p ( x i ) q i = 1 / n i - n ∑ i = 1 p i log q i = n ∑ i = 1 p i log n = log n q h ( p ) ≤ h ( q )p{x1,...,xn}pi=p(xi)qi=1/ni
−∑i=1npilogqi=∑i=1npilogn=logn
qh(p)≤h(q)p
Ayrıca, wikipedia'da bu konuda kısa bir tartışma var: wiki