Bir Gauss dağılımında MLE Varyansın önyargılı olduğunu nasıl anlayabilirim?


12

Bir Gauss varyansını belirlemek için maksimum olasılık kullanmada yanlılığın nasıl ortaya çıktığını gösteren PRML çizimi

PRML okuyorum ve resmi anlamıyorum. Resmi anlamak için bazı ipuçları verebilir misiniz ve bir Gauss dağılımındaki MLE varyansının neden taraflı olduğu?

formül 1.55: formül 1.56 σ 2 M L E =1

μMLE=1Nn=1Nxn
σMLE2=1Nn=1N(xnμMLE)2

Lütfen kendi kendine çalışma etiketini ekleyin.
StatsStudent

2
neden her grafik için sadece bir mavi veri noktası bana görünür? btw, bu yazıdaki iki abonenin taşmasını düzenlemeye çalışırken, sistem "en az 6 karakter" gerektiriyor ... utanç verici.
Zhanxiong

Gerçekten neyi anlamak istiyorsunuz, resim veya MLE varyans tahmininin neden taraflı olduğu? Birincisi çok kafa karıştırıcı ama ikincisini açıklayabilirim.
TrynnaDoStat

Evet, yeni sürümde buldum her grafikte iki mavi veri var, benim pdf eski
ningyuwhut

@TrynnaDoStat sorum için üzgünüm net değil. bilmek istediğim, MLE varyans tahmininin neden taraflı olduğu. ve bunun bu grafikte nasıl ifade edildiği
ningyuwhut

Yanıtlar:


25

Sezgi

Önyargı, "hiç bir teknik terimden değil", nin için önyargılı olduğu gerçeğidir . Doğal soru şudur: " nin için neden taraflı olduğu sezgisi nedir?" Sezgi olmayan bir kare örnek ortalamada, bazen gerçek değeri özledim ki yetersiz tahmin ederek bazen aşırı tahmin tarafından. Ancak, karesi olmadan, aşırı tahmin ve eksik tahmin eğilimi birbirini iptal edecektir. Ancak, karesini tahmin ettiğimizde , az tahmin etme eğilimi ( gerçek değerini kaçırmayın)μ 2 E [ ˉ x 2 ] μ 2 μ ˉ x μE[x¯2]μ2E[x¯2]μ2μx¯μnegatif bir sayı ile) de karelenir ve böylece pozitif olur. Bu nedenle, artık iptal edilmez ve aşırı tahmin etme eğilimi hafiftir.

Eğer için neden taraflı olduğu sezgisi hala belirsizse, Jensen eşitsizliğinin ( burada sezgisel iyi bir açıklama ) arkasındaki sezgiyi anlamaya çalışın ve bunu .μ 2 E [ x 2 ]x2μ2E[x2]

Bir iid örneği için MLE varyansının taraflı olduğunu kanıtlayalım. Sonra analitik olarak sezgimizi doğrulayacağız.

Kanıt

Let .σ^2=1Nn=1N(xnx¯)2

Biz göstermek istiyorum .E[σ^2]σ2

E[σ^2]=E[1Nn=1N(xnx¯)2]=1NE[n=1N(xn22xnx¯+x¯2)]=1NE[n=1Nxn2n=1N2xnx¯+n=1Nx¯2]

Gerçeğini kullanarak o ve ,n=1Nxn=Nx¯n=1Nx¯2=Nx¯2

1NE[n=1Nxn2n=1N2xnx¯+n=1Nx¯2]=1NE[n=1Nxn22Nx¯2+Nx¯2]=1NE[n=1Nxn2Nx¯2]=1NE[n=1Nxn2]E[x¯2]=1Nn=1NE[xn2]E[x¯2]=E[xn2]E[x¯2]

'nin aynı dağılımdan gelmesi nedeniyle boyunca eşit olması nedeniyle aşağıdaki son adımla .E[xn2]n

Şimdi, yazan varyans tanımını hatırlayın . Buradan aşağıdakileri alıyoruzσx2=E[x2]E[x]2

E[xn2]E[x¯2]=σx2+E[xn]2σx¯2E[xn]2=σx2σx¯2=σx2Var(x¯)=σx2Var(1Nn=1Nxn)=σx2(1N)2Var(n=1Nxn)

çıkarırken sabitini uygun şekilde kareye aldığımıza dikkat edin . Buna özellikle dikkat edin!1NVar()

σx2(1N)2Var(n=1Nxn)=σx2(1N)2Nσx2=σx21Nσx2=N1Nσx2

ki bu elbette eşit değildir .σx2

Sezgimizi Analitik Olarak Doğrulayın

değerini bildiğimizi ve yukarıdaki kanıtlara takarak sezgiyi doğrulayabiliriz . Artık bildiğimizden , artık tahmin etme ihtiyacımız yok ve bu yüzden bunu asla ile aşırı tahmin etmiyoruz . Bunun önyargıyı "kaldırdığını" görelim .μμμ2E[x¯2]σ^2

Let .σ^μ2=1Nn=1N(xnμ)2

Yukarıda ispat kaynaktan, en çekme kadar izin değiştirilmesi gerçek değeri ile .ˉ x μE[xn2]E[x¯2]x¯μ

E[xn2]E[μ2]=E[xn2]μ2=σx2+E[xn]2μ2=σx2

bu tarafsız!


3
+1 Gösterinizin Gauss dağılımına sahip olmasını gerektirmediğini belirtmekte var. (Ancak, diğer dağılımlar için örnek varyans varyans parametresi için MLE olmayabilir.)X
whuber

1
Açıklaman için teşekkürler. Anlamak için biraz zamana ihtiyacım var.Ayrıca, denklemlerde bir hata buldum. Doğrulayabilir misin? Teşekkürler!
ningyuwhut

@ whuber - "..demonstration, Gauss dağılımına sahip olmasını gerektirmediğinden emin değilsiniz ." Binom dağılımının her dağıtım için ML varyans çözümünden söz etmeyeceğiz. Dolayısıyla dolaylı olarak X dağılımının parametrelerden biri olarak varyans olduğunu varsayıyoruz. X
KGhatak
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.