Gözlemlenen bilgi matrisi, beklenen bilgi matrisinin tutarlı bir tahmincisidir?


16

Zayıf tutarlı maksimum olabilirlik tahmin edicisinde (MLE) değerlendirilen gözlemlenen bilgi matrisinin, beklenen bilgi matrisinin zayıf tutarlı bir tahmincisi olduğunu kanıtlamaya çalışıyorum. Bu yaygın olarak alıntılanan bir sonuçtur ancak kimse bir referans veya kanıt vermez (Bence google sonuçlarının ve istatistiklerimin ders kitaplarının ilk 20 sayfasını bitirdim)!

Zayıf şekilde tutarlı bir MLE dizisi kullanarak büyük sayıların (WLLN) zayıf yasasını ve istediğim sonucu elde etmek için sürekli haritalama teoremini kullanabilirim. Ancak sürekli haritalama teoreminin kullanılamayacağına inanıyorum. Bunun yerine büyük sayıların (ULLN) tekdüzen yasasının kullanılması gerektiğini düşünüyorum. Bunun kanıtı olan bir referansı bilen var mı? ULLN'de bir teşebbüsüm var ama şimdilik kısalık için atladım.

Bu sorunun uzunluğu için özür dilerim ama gösterim sunulmalıdır. İşaretleme folow (kanıtım sonunda).

Rastgele değişkenlerin bir iid örnek sahip varsayalım yoğunlukları ile , (burada , örneğin herhangi bir üyesiyle aynı yoğunluğa sahip genel bir rastgele değişkendir). Vektör tüm numune vektörlerinin vektör tüm . Yoğunlukların gerçek parametre değeri ve nın zayıf tutarlı maksimum olasılık tahmin (MLE){Y1,,YN}f(Y~|θ)θΘRkY~Y=(Y1,,YN)TYiRni=1,,Nθ N- ( Y ) İçeride ISTV melerin RWMAIWi'nin 0θ0θ^N(Y)θ0. Düzenlilik koşullarına bağlı olarak Fisher Information matrisi şu şekilde yazılabilir:

I(θ)=Eθ[Hθ(logf(Y~|θ)]

burada Hessian matrisidir. Örnek eşdeğeriHθ

IN(θ)=i=1NIyi(θ),

burada . Gözlenen bilgi matrisi;Iyi=Eθ[Hθ(logf(Yi|θ)]

J(θ)=Hθ(logf(y|θ) ,

(bazı insanlar matrisin adresinde değerlendirilmesini bazıları istemez). Gözlemlenen örnek bilgi matrisi;θ^

JN(θ)=i=1NJyi(θ)

burada .Jyi(θ)=Hθ(logf(yi|θ)

I tahmincisi olasılığında yakınsama ispat için değil bölgesinin ile . İşte şimdiye kadarki kanıtım;ı ( θ ) N - 1 J , N ( θ K ( Y ) ) bir ( θ 0 )N1JN(θ)I(θ)N1JN(θ^N(Y))I(θ0)

Şimdi elementtir arasında , herhangi örnek IID, o olasılık olarak çok sayıda (WLLN), bu summands yakınsak ortalama zayıf hakları ile. . Böylece tüm için vb. Maalesef(JN(θ))rs=i=1N(Hθ(logf(Yi|θ))rs(r,s)JN(θ)r,s=1,,kEθ[(Hθ(logf(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rs r,s=1,,k NN1(JN(θ))rsP(I(θ))rsr,s=1,,kN - 1 J , N ( θ K ( Y ) ) p I ( θ 0 ) N - 1 J , N ( ) ı ( )N1JN(θ)PI(θ)N1JN(θ^N(Y))PI(θ0) , aynı işlev olmadığından sürekli eşleme teoremini kullanarak .N1JN()I()

Bu konuda herhangi bir yardım büyük mutluluk duyacağız.



Aşağıdaki cevabım sorunuza cevap veriyor mu?
Dapz

1
@Dapz Lütfen şimdiye kadar size cevap vermediğim için en içten özürlerimi kabul edin - kimsenin cevap vermeyeceğini varsaymakla hata yaptım. Aşağıdaki cevabınız için teşekkür ederim - En faydalı olduğunu görebildiğim için oyumu iptal ettim, ancak bunu düşünmek için biraz zaman harcamam gerekiyor. Zaman ayırdığınız için teşekkür ederiz, yakında yazınıza yanıt vereceğim.
dandar

Yanıtlar:


7

Sanırım doğrudan çok sayıda tek tip bir yasa oluşturmak olası bir yaklaşımdır.

İşte başka.

Biz göstermek istiyoruz .JN(θMLE)NPI(θ)

(Dediğiniz gibi, WLLN tarafından . Ama bu doğrudan bize yardımcı olmuyor.)JN(θ)NPI(θ)

Olası bir strateji

|I(θ)JN(θ)N|P0.

ve

|JN(θMLE)NJN(θ)N|P0

Her iki sonuç da doğruysa, bunları

|I(θ)JN(θMLE)N|P0,

tam olarak göstermek istediğimiz şey bu.

İlk denklem büyük sayıların zayıf yasasından kaynaklanmaktadır.

İkinci neredeyse Sürekli eşleme teoremden, ama ne yazık ki bizim işlevi biz değişikliklere CMT uygulamak istediğiniz : Bizim gerçekten . Bu yüzden CMT'yi kullanamayız.N g g N ( θ ) : = J N ( θ )g()NggN(θ):=JN(θ)N

(Yorum: CMT'nin kanıtını Wikipedia'da incelerseniz, bizim kanıtlarında tanımladıkları setinin şimdi de bağlı olduğuna dikkat edin. işlevlerimiz üzerinde esas olarak çeşit .) n θ g N ( θ )BδnθgN(θ)

Neyse ki, ailenin , da stokastik olarak eşittir , hemen , θ θ M L E P θ | g n ( θ M L E ) - g n ( θ ) | P 0.G={gN|N=1,2,}θθMLEPθ

|gn(θMLE)gn(θ)|P0.

( stokastik eşitlik tanımı ve yukarıdaki gerçeğin bir kanıtı için http://www.cs.berkeley.edu/~jordan/courses/210B-spring07/lectures/stat210b_lecture_12.pdf adresine bakın . )θ

Bu nedenle, nin at olduğu varsayılarak, istediğiniz sonuç doğrudur ve ampirik Fisher bilgisi, Fisher bilgisini topluluğa yakınlaştırır.θ Gθ

Şimdi, asıl soru şu ki, SE almak için a ne tür şartlar koymanız gerekiyor ? Bunu yapmanın bir yolu, işlevlerinin tüm sınıfında bir Lipshitz koşulu oluşturmaktır (buraya bakın: http://econ.duke.edu/uploads/media_items/uniform-convergence-and-stochastic -ekdisite.original.pdf ).GGG


1

Stokastik denklik kullanarak yukarıdaki cevap çok iyi çalışıyor, ama burada gözlemlenen bilgi matrisinin bilgi matrisinin güçlü bir şekilde tutarlı bir tahmincisi olduğunu göstermek için çok sayıda tekdüze bir yasa kullanarak kendi sorumu cevaplıyorum, yani güçlü bir şekilde tutarlı bir tahminci dizisi . Umarım tüm detaylarda doğrudur.N1JN(θ^N(Y))a.s.I(θ0)

Biz kullanacağız geçici notasyonu benimsenerek bir indeks kümesi olmak ve bize 'nın rastgele vektöre bağımlılığı hakkında açık olmak için . Ayrıca ve Bu tartışma için , . Fonksiyonu gerçek değerli dizisi üzerinde ve bunun Lebesgue olduğunu varsayalım edecektir her için ölçülebilirJ ( ˜ Y , θ ) : = J ( θ ) J ( θ ) ˜ Y ( J ( ˜ YIN={1,2,...,N}J(Y~,θ):=J(θ)J(θ)Y~ ( J N ( θ ) ) r s = N i = 1 ( J(J(Y~,θ))rs r , s = 1 , . . . , k ( J ( , θ ) ) r s R n × Θ θ Θ (JN(θ))rs=i=1N(J(Yi,θ))rsr,s=1,...,k(J(,θ))rsRn×ΘθΘ. Çok sayıda tek tip (güçlü) yasa, altında bir dizi koşul tanımlar.

supθΘ|N1(JN(θ))rsEθ[(J(Y1,θ))rs]|=supθΘ|N1i=1N(J(Yi,θ))rs(I(θ))rs|a.s0(1)

(1) 'in tutması için yerine getirilmesi gereken koşullar (a) kompakt bir ; (b) üzerinde 1 olasılığı olan sürekli bir işlevdir ; (c) her için , , yani ; ve (d) her için ; Bu koşullar Jennrich'ten gelir (1969, Teorem 2). ( J ( ~ Y , θ ) ) r, s İçeride ISTV melerin RWMAIWi'nin θ İçeride ISTV melerin RWMAIWi'nin ( J ( ~ Y , θ ) ) r s h ( ~ Y ) | ( J ( ˜ Y , θ ) ) r s | < h ( ˜ Y ) θ Θ E θ [Θ(J(Y~,θ))rsΘθΘ (J(Y~,θ))rsh(Y~)|(J(Y~,θ))rs|<h(Y~)θΘ Eθ[h(Y~)]<

Şimdi herhangi bir , ve için aşağıdaki eşitsizlik açıkça geçerlidir i I N θ S Θ yiRniINθSΘ

|N1i=1N(J(yi,θ))rs(I(θ))rs|supθS|N1i=1N(J(yi,θ))rs(I(θ))rs|.(2)

Varsayalım ki ilişkin tahmin kuvvetli bir şekilde tutarlı dizisidir , ve izin açık topu yarıçapı ile , olarak ve kompakt olduğunu varsayalım . O zamandan beri için yeterince büyük bir Elimizdeki yeterince büyük . (2) ile birlikte buθ 0 İçeride ISTV melerin RWMAIWi'nin K 1 = B δ K 1 ( θ 0 ) K İçeride ISTV melerin RWMAIWi'nin R k δ N 10 K 1∞ iken K θ N- ( Y ) İçeride ISTV melerin RWMAIWi'nin K 1 K P [ lim N- { θ N ( Y ){θ^N(Y)}θ0ΘN1=BδN1(θ0)KΘRkδN10N1Kθ^N(Y)ΘN1NP[limN{θ^N(Y)ΘN1}]=1N

P[limN{|N1i=1N(J(Yi,θ^N(Y)))rs(I(θ^N(Y)))rs|supθΘN1|N1i=1N(J(Yi,θ))rs(I(θ))rs|}]=1.(3)

Şimdi , Jennrich'in (1969, Teorem 2) (a) - (d) koşullarının . Böylece (1) ve (3)ΘN1ΘΘN1

P[limN{|N1i=1N(J(Yi,θ^N(Y)))rs(I(θ^N(Y)))rs|=0}]=1.(4)

Yana , sonra (4) anlamına gelir . (3) ancak küçük tutar Not , ve (4) ile sonuçlanmaktadır, böylece bir seçim bağımsızdır dışında seçilmelidir, böylece . Bu sonuç tüm vb. İçin geçerlidir Matrisler açısından .(I(θ^N(Y)))rsa.s.I(θ0)N1(JN(θ^N(Y)))rsa.s.(I(θ0))rsΘN1N1N1ΘN1Θr,s=1,...,kN1JN(θ^N(Y))a.s.I(θ0)

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.