1946'da, jeofizikçi ve Bayesci istatistikçi Harold Jeffreys bugün Kullback-Leibler sapması dediğimiz şeyi tanıttı ve "sonsuz derecede yakın" iki dağıtım için keşfetti (umarım Math SE adamları bunu görmez ;-) yazabiliriz katsayıları Fisher bilgi matrisinin elemanları tarafından verilen kuadratik bir form olarak Kullback-Leibler ayrışmaları. Bu kuadratik formu bir Riemann manifoldunun uzunluğu unsuru olarak yorumladı ve Fisher bilgileri Riemann metriğinin rolünü oynadı. İstatistiksel modelin bu geometrileşmesinden, Jeffrey'lerini önce Riemann metriğinin doğal olarak indüklediği ölçü olarak türetmiştir ve bu ölçü, genel olarak, sınırlı bir ölçü olmamasına rağmen, manifold üzerinde kendinden düzgün bir dağılım olarak yorumlanabilir.
Titiz bir kanıt yazmak için, tüm düzenlilik koşullarını tespit etmeniz ve Taylor genişlemelerindeki hata koşullarının sırasına dikkat etmeniz gerekir. İşte argümanın kısa bir taslağı.
ve iki yoğunluğu arasındaki simetrik Kullback-Leibler sapması şu şekilde tanımlanır:fg
D [ f, g] = ∫( f( x ) - g( x ) ) günlük( f( x )g( x )) dx.
Biz parametreli yoğunluğu ailesini varsa ardındanθ = ( θ1, … , Θk)
D [ p (⋅∣ θ ) , p (⋅∣ θ + Δ θ ) ] = ∫( p ( x , ∣ θ ) - p ( x ∣ θ + Δ θ ) ) günlüğü( p ( x ∣ θ )p ( x ∣ θ + Δ θ ))dx,
ki burada . notasyonuyla
bazı basit cebirler
Doğal logaritma için Taylor genişlemesini kullanarak,
Δ θ = ( Δ θ1, … , Δ θk)Δp(x∣θ)=p(x∣θ)−p(x∣θ+Δθ),
D[p(⋅∣θ),p(⋅∣θ+Δθ)]=∫Δp(x∣θ)p(x∣θ)log(1+Δp(x∣θ)p(x∣θ))p(x∣θ)dx.
log(1+Δp(x∣θ)p(x∣θ))≈Δp(x∣θ)p(x∣θ),
D [ p (
ve bu nedenle
Ancak
Bu nedenle
;
D[p(⋅∣θ),p(⋅∣θ+Δθ)]≈∫(Δp(x∣θ)p(x∣θ))2p(x∣θ)dx.
Δp(x∣θ)p(x∣θ)≈1p(x∣θ)∑i=1k∂p(x∣θ)∂θiΔθi=∑i=1k∂logp(x∣θ)∂θiΔθi.
D[p(⋅∣θ),p(⋅∣θ+Δθ)]≈∑i,j=1kgijΔθiΔθj,
gij=∫∂logp(x∣θ)∂θi∂logp(x∣θ)∂θjp(x∣θ)dx.
Bu orijinal kağıt:
Jeffreys, H. (1946). Tahmin problemlerinde önceki olasılık için değişmez bir form. Proc. Kraliyet Soc. Londra, Seri A, 186, 453-461.