Neden


18

ise, parametresi için tahmin dizisi asimptotik olarak normaldir . ( kaynak ) Daha sonra U n'nin asimptotik varyansına çağırıyoruz . Bu varyans Cramer-Rao bağına eşitse , kestirimcinin / dizinin asimptotik olarak etkili olduğunu söylüyoruz.Unθvn(Unθ)N(0,v)vUn

Soru: Neden kullandığımız yapmak n özellikle?

Örnek ortalama için V a r ( ˉ X ) = σ 2 olduğunu biliyorumVar(X¯)=σ2n ve böylece bu seçim onu ​​normalleştirir. Ama tanımlar Yukarıdaki örnek ortalamasından daha fazla uygulamak beri neden hala tarafından normalize seçerimn .


2
İyi bir tahmin için, Un , ortalama olmalıdır θ parametre tahmin edilmektedir ve varyans Un yakınsar gereken 0 olduğu dağılımı olduğu, Un bir tek bir atom ile dejenere dağılımına yakınsayan olmalıdır θ . Ancak bu yakınsamanın oluşmasının birçok farklı yolu vardır, örneğin UnU(θ1/n,θ+1/n) veya UnN(θ,v/n) vb Biz soubriquet uygulamak istediğinizasimptotik normal birikinci durumda, ama değil eski duruma.
Dilip Sarwate

1
Etkili tahmin ediciler asimptotik olarak normaldir. en.wikipedia.org/wiki/…
Khashaa

1
Bu soru "asimptotik verimlilik" yerine "asimtotik normallik" olarak daha iyi adlandırılabilir mi? Benim için "asimptotik normallik" ile karşılaşılan bağlamdan ziyade "verimliliğin" sorunun önemli bir yönü haline geldiği açık değildir.
Silverfish

MLE'nin asimptotik normalliklerinin bir kanıtı kontrol edilmelidir! Karekök n örnek bir ortalamaya uygulanabilir bir merkezi limit teoremini yapmaktır!
Megadeth

Yanıtlar:


15

Burada seçim yapamıyoruz . "Normalleştirici" faktör, özünde ifadenin sıfıra gitmemesi veya örnek boyutu sonsuza gittikçe sonsuzluğa gitmemesi, ancak sınırda bir dağılımın muhafaza edilmesi için "sonlu bir şeye varyans kararlılığı" faktörüdür.

Yani her durumda olması gereken her şey olmalı. Tabi ki birçok durumda o olduğunu ortaya ilginçtir sahiptir olmaya n . (ancak aşağıdaki @ whuber'ın yorumuna da bakınız).

Normalleştirici faktörün yerine olması gerektiği standart bir örnek nn bir modelimiz olduğunda

yt=βyt1+ut,y0=0,t=1,...,T

ile beyaz gürültü ve biz bilinmeyen tahmin p En Küçük Kareler tarafından.utβ

Böyle bir durumda katsayının gerçek değeri ise, OLS tahmincisi tutarlıdır ve her zamanki gibi yakınsar |β|<1 oranı. n

Ancak bunun yerine gerçek değer (yani, gerçekte saf rastgele bir yürüyüşümüz varsa), o zaman OLS tahmincisi tutarlıdır, ancak n hızında "daha hızlı" yakınsayacaktır (buna bazen "süper tutarlı " tahminci denir -tan beri , Sanırım, pek çok tahminci oranı yakınsama β=1n ). Bu durumda, esas olarak (normal olmayan) asimptotik dağılımı elde etmek için, bizsahipölçeğine( β -β)ilenbiz sadece ölçeklendirirseniz (n
(β^β)n ifade sıfıra gider). Hamilton ch 17detaylara sahip.n


2
Alecos, sen açıklamak olabilir neyi modeli tahmin ediliyor (sanırım nereye geliyordu y 0 = 0 ve gözlemler indis haline 1 , 2 , vs.). Model olarak o kadar y t = β y t - 1 + u t OLS tahmin β oranda yakınsak yt=yt1+ut,u0=0y0=01,2,yt=βyt1+utβ^ için| β| <1ancakβ=1yakınsamanhızındaolduğunda veyayt=βy t - 1 +utmodelindeyakınsama her zamannhızında olurmu? Kısacası, "veβ=1, yani saf rastgele bir yürüyüş" ifadesinin öneminedir? n|β|<1β=1nyt=βyt1+utnβ=1
Dilip Sarwate

@DilipSarwate Teşekkürler. Güncellenmiş. Şimdi açık olduğuna inanıyorum.
Alecos Papadopoulos

4
(+1) seçeneğinin belirtilmesi faydalı ve öğretici olabilir. (veyanveya uygun olan herhangi bir şey) benzersiz değildir. Onun yerinef(n)/ sınır değerinin olduğuherhangi birf(n)fonksiyonunukullanabilirsiniz.nnf(n) eşittir. Sadece bu daha geniş anlamdaf"olması gereken her şey olmalı"dır. f(n)/nf
whuber

1
@Khashaa OP asimptotik etkinliği sordu, ancak süreçte OP'nin "normalleştirme" faktörleri hakkında yanlış izlenime sahip olabileceği ortaya çıktı. Bu daha temel bir konudur, bu yüzden cevabımda bunu ele almayı seçtim. Verimlilik ile ilgili cevabımda hiçbir şey söylenmiyor.
Alecos Papadopoulos

2
Belki de, yanıtında bahsetmemiz ile ilgili durumda olduğu yerine n "süper tutarlı" olarak adlandırılır? Şu anda sitenin arama işlevinin alabileceği CV üzerinde "süper tutarlı" diğer tek sözAlecos tarafından bir başka! Bence Q'ları ve As'ı daha arama dostu yapmak iyi bir fikir. n
Silverfish

1

Örnek bir ortalama varyans sezgisi ile doğru yoldaydınız. Durumu yeniden düzenleyin:

(Un-θ) N ( 0 , v )

n(Unθ)N(0,v)
UnN(θ,v
(Unθ)N(0,v)n
UnN(θ,vn)

Son denklem gayri resmi . Ancak, bir şekilde daha sezgisel: Eğer sapma olduğunu söylemek dan İçeride ISTV melerin RWMAIWi'nin daha normal bir dağılım gibi oluyor n artar. Varyans azalıyor, ancak şekil normal dağılıma yaklaşıyor.Unθn

Matematikte, değişen sağ tarafa yakınsamayı tanımlamazlar ( değişkendir). Bu yüzden aynı fikir, verdiğiniz orijinal koşul olarak ifade edilir. İçinde sağ taraf sabittir ve sol taraf buna yaklaşır.n


"Yeniden düzenlemeleri" nasıl yaptığınızı açıklayabilirsiniz. Hangi özellikleri uyguladığınız gibi.
mavavilj
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.