Olasılığı elemanı yana X bir f(x)dx, değişken değişim y=xσ+μ eşdeğerdir x=(y−μ)/σ, sevk edilen
f(x)dx=f(y−μσ)d(y−μσ)=1σf(y−μσ)dy
yoğunluğu izler Y olduğu
fY(y)=1σf(y−μσ).
Sonuç olarak entropi Y olduğu
H(Y)=−∫∞−∞log(1σf(y−μσ))1σf(y−μσ)dy
değişken, tekrar x=(y−μ)/σ, ,
'H( Y)= - ∫∞- ∞günlük( 1σf( x ) ) f( x ) d x= - ∫∞- ∞( log( 1σ) +günlük( f( x ) ) ) f( x ) d x= günlük( σ) ∫∞- ∞f( x ) d x - ∫∞- ∞günlük( f( x ) ) f( x ) d x= günlük( σ) + Hf.
Bu hesaplamalar, logaritmanın temel özelliklerini, entegrasyonun doğrusallığını ve f( x ) d x birliğe (Toplam Olasılık Kanunu ) entegre olduğu gerçeğini kullandı .
Sonuç şudur:
Entropisi Y=Xσ+μ entropisidir X artı log(σ).
Bir değişken (ölçekleme ederken bir deyişle, onun entropi değişmez rastgele değişkeni kayması, (biz ancak bu değerler ortaya nerede, olasılık yoğunluk değerlerine bağlı olarak olarak entropi düşünebilir), hangi için σ≥1 " uzanır "veya" bulaşır "entropisini log(σ). arttırır . Bu, yüksek entropi dağılımlarının düşük entropi dağılımlarından "daha fazla yayıldığı" sezgisini destekler.
Bu sonucun bir sonucu olarak, herhangi bir dağılımın entropisini hesaplarken uygun μ ve σ değerlerini seçmekte özgürüz . Örneğin, Normal (μ,σ) dağılımının entropisi μ=0 ve σ=1. ayarlanarak bulunabilir . Bu durumda yoğunluğun logaritması
log(f(x))=−12log(2π)−x2/2,
nereden
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
Sonuç olarak, Normal (μ,σ) dağılımının entropisi, basitçe bu sonuca logσ eklenerek elde edilir.
H=12log(2π)+12+log(σ)=12log(2πeσ2)
Wikipedia tarafından bildirildiği gibi .