Diğer cevaplara uymaya çalışmak ... Fisher bilgisi ne tür bir bilgidir? Log benzeri fonksiyonu ile Başlangıç
bir fonksiyonu olarak İçeride ISTV melerin RWMAIWi'nin için θ ∈ İçeride ISTV melerin RWMAIWi'nin , parametre alanı. Burada tartışmak değil bazı düzenlilik koşullarını varsayarak, elimizdeki
E ∂
ℓ ( θ ) = günlükf( x ; θ )
θθ ∈ Θ(parametreye göre türevleri burada nokta olarak yazacağız). Varyans, Fisher bilgisi
I(θ)=Eθ( ˙ ℓ (θ))2=-Eθ ¨ ℓ (θ)
mantıksallık işlevinin (negatif) eğriliği olduğunu gösteren son formül. Biri genellikle maksimum olasılık tahmincisini bulur (mle).
E∂∂θℓ ( θ ) = Eθℓ˙( θ ) = 0ben( θ ) = Eθ( ℓ˙( θ ) )2= - Eθℓ¨( θ )
olabilirlik denklemi çözerek
˙ ℓ ( θ ) = 0 puan varyansı olarak Fisher bilgisi
˙ ℓ ( İçeride ISTV melerin RWMAIWi'nin ) büyük olması durumunda, bu denkleme çözelti, verilere çok hassas olduğu en yüksek bir umut veren olacak mle'nin hassasiyeti. Bu, en azından asimptotik olarak doğrulanır, etin asimptotik varyansı, Fisher bilgilerinin tersidir.
θℓ˙( θ ) = 0ℓ˙( θ )
Bunu nasıl yorumlayabiliriz? örnekten θ parametresi ile ilgili olabilirlik bilgisidir . Bu gerçekten sadece göreceli olarak yorumlanabilir, örneğin iki farklı olası parametre değerinin olasılıklarını olasılık oran testi ℓ ( θ 0 ) - ℓ ( θ 1 ) ile karşılaştırmak için kullandığımız zaman . Mantıksallıktaki değişim oranı ˙ ℓ ( θ ) puanlama işlevidir , olasılığın ne kadar hızlı değiştiğini ve varyansını I ( θ ) gösterir.ℓ ( θ )θℓ ( θ0) - ℓ ( θ1)ℓ˙( θ )ben( θ )Bunun örneklemden numuneye ne kadar değiştiği belli bir paramiter değerinde dır . Denklem (ki gerçekten şaşırtıcı!)
I ( θ ) = - E θ ¨ ℓ ( θ )
, verilen parametre değeri için olasılıktaki (değişkenlik) değişkenlik arasında bir ilişki (eşitlik) olduğunu, θ 0 ve Bu parametre değeri için olabilirlik fonksiyonunun eğriliği. Bu, istic ℓ ( θ ) ∣ θ = θ 0 istatistiğinin değişkenliği (varyansı) arasında şaşırtıcı bir ilişkidir.θ0
ben( θ ) = - Eθℓ¨( θ )
θ0ℓ˙( θ ) ∣θ = θ0ve
parametresini
θ 0 civarında bir aralıkta değiştirdiğimizde benzerlikteki beklenen değişim (aynı veriler için). Bu gerçekten hem garip, hem şaşırtıcı hem de güçlü!
θθ0
Peki, olabilirlik işlevi nedir? Genellikle istatistiksel model düşünmek veriler için olasılık dağılımlarının bir aile olarak x parametresi tarafından dizine, θ parametre alanı içinde bir eleman İçeride ISTV melerin RWMAIWi'nin . Bazı değeri mevcut ise gerçek olarak bu modelin düşünüyorum θ 0 ∈ İçeride ISTV melerin RWMAIWi'nin tür veriler olduğunu x aslında var olasılık dağılımı f ( x ; θ 0 ){ f( x ; θ ) , θ ∈ Θ }xθΘθ0∈ Θxf( x ; θ0). Bu nedenle, olasılık verisi dağılım ailesinde gerçek veri oluşturucu olasılık dağılımını içine alarak istatistiksel bir model elde ediyoruz . Ancak, böyle bir gömme işleminin birçok farklı yoldan yapılabileceği açıktır ve bu tür yerleştirmelerin her birinin "gerçek" bir model olacağı ve farklı olasılık işlevleri vereceği açıktır. Ve böyle bir iç içe geçme olmadan, olasılık işlevi yoktur. Gerçekten de bir yardıma ihtiyacımız var gibi görünüyor, akıllıca bir göbek seçmek için bazı prensipler!f( x ; θ0)
Peki, bu ne anlama geliyor? Bu, olasılık fonksiyonunun seçilmesinin, gerçek biraz değiştiyse verinin nasıl değişeceğini bekleyeceğimizi ifade eder. Ancak, veriler gerçekten doğrulanamaz, çünkü veriler yalnızca seçilen gerçek model işlevi hakkında bilgi verir, seçilen modeldeki diğer tüm öğeler hakkında hiçbir şey ifade etmez. Bu şekilde olabilirlik seçiminin seçiminin Bayesian analizindeki bir öncekinin seçimine benzer olduğunu görüyor, analize veri dışı bilgi aktarıyor. Buna basit (biraz yapay) bir örnekte bakalım ve f ( x ; θ 0 ) içine gömme etkisine bakalım.f( x ; θ0)f( x ; θ0) farklı şekillerde bir modelde.
Bize Varsayalım ki olarak iid N ( μ = 10 , σ 2 = 1 ) . Yani, bu gerçek, veri üreten dağıtımdır. Şimdi, iki farklı şekilde, model A ve model B bir modelinde bu gömmek izin
A : X, 1 , ... , X , n IID N ( ^ ı , σ 2 = 1 ) , u ∈ RX1, … , XnN-( μ = 10 , σ2= 1 )
kontrol ki bu aynı hizaya gelmektedir μ = 10 .
A : X1, … , Xn kimliği N ( μ , σ2= 1 ) , μ ∈ RB : X1, … , Xn kimliği N ( μ , μ / 10 ) , μ > 0
μ = 10
Mantıksallık işlevleri
ℓbir( μ ) = - n2günlük( 2 π) - 12Σben( xben- μ )2ℓB( μ ) = - n2günlük( 2 π) - n2günlük( μ / 10 ) - 102Σben( xben- μ )2μ
Puan fonksiyonları: (loglikelihood türevleri):
ℓ˙bir( μ ) = n ( x¯- μ )ℓ˙B( μ ) = - n2 μ- 102Σben( xbenμ)2- 15 n
ℓ¨bir( μ ) = - nℓ¨B( μ ) = n2 μ2+ 102Σben2 x2benμ3
μ = 10benbir( μ = 10 ) = n ,benB( μ = 10 ) = n ⋅ ( 1200+ 20202000) > n
μ
Ayrıca, bu örnek, model aileleri nasıl inşa edeceğimiz konusunda bize yardımcı olmak için bir teoriye gerçekten ihtiyacımız olduğunu göstermektedir.