İki rakip Kestirimciler varsa ve , olsun veya olmasın aldığınızı söyler isimli daha iyi tahmin edici tamamen "en iyi" tanımınıza bağlıdır. Örneğin, tarafsız tahmin edicileri karşılaştırırsanız ve "daha iyi" ile daha düşük bir varyansa sahipseniz, evet, bu \ hat \ theta_1'un daha iyi olduğu anlamına gelir . \ rm MSE En Küçük Kareler ve Gauss log-olasılık ile bağlantısı nedeniyle popüler bir kriterdir, ancak, birçok istatistiksel kriter gibi, bir \ rm MSE kullanarak uyarılmalıdır θ 2MSD( θ 1)<MSE( θ 2) İçeride ISTV melerin RWMAIWi'nin 1θ^1θ^2
MSE(θ^1)<MSE(θ^2)
θ^1MSDMGDθ^1MSEMSE körü körüne, uygulamaya dikkat etmeden tahmin edicinin kalitesinin bir ölçüsüdür.
yi en aza indirmek için bir tahminci seçmenin özellikle yapılması mantıklı bir şey olmayabileceği bazı durumlar vardır . İki senaryo akla geliyor:MSE
Bir veri kümesinde çok büyük aykırı değerler varsa, MSE'yi büyük ölçüde etkileyebilir ve dolayısıyla MSE'yi en aza indirgeyen tahminci bu aykırı değerlerden aşırı derecede etkilenebilir. Bu gibi durumlarda, bir tahmin edicinin MSE'yi en aza indirmesi gerçeği size çok fazla şey söylemez, çünkü aykırı değerleri kaldırırsanız çok farklı bir tahmin elde edebilirsiniz. Bu anlamda MSE, aykırı değerlere karşı "sağlam" değildir. Regresyon bağlamında, uzun kuyruklu hatalar olduğunda farklı bir kriter fonksiyonunu (kare hata ile mutlak hata arasındaki bir karışım) minimize eden Huber M-Tahmincisi'ni (bu cevapta tartıştığım) motive eden şey budur. .
Sınırlı bir parametre tahmin ediyorsanız, karşılaştırmak uygun olmayabilir, çünkü bu durumda fazla ve az tahmin cezalandırır. Örneğin, bir varyans tahmini yaptığınızı varsayalım, . O zaman, eğer bilinçli olarak hafife alırsanız en fazla , aşırı tahmin ise aşan bir , hatta belki de sınırsız bir miktarda üretebilir .σ 2 M S E σ 4 M S E σ 4MSEσ2MSEσ4MSEσ4
Bu dezavantajı daha açık hale getirmek için, bu sorunlar nedeniyle, tahmincisi kalitesinin uygun bir ölçüsü olmayabilir ne zaman somut bir örnek vereceğim .MSE
serbestlik derecesine sahip bir dağılımından örnek ve varyansı tahmin etmeye çalıştığımızı varsayalım , . İki rakip tahmin edicileri göz önünde bulundurun: ve Açıkça ve kullanılarak türetilebilirX1,...,Xntν>2ν/(ν−2)
θ^1:the unbiased sample variance
θ^2=0, regardless of the data
MSE(θ^2)=ν2(ν−2)2MSE(θ^1)={∞ν2(ν−2)2(2n−1+6n(ν−4))if ν≤4if ν>4.
aslında bu iplik tartışılan ve
özellikleri -Dağıtımt .
Böylece, saf tahmin edici , örnek boyutuna bakılmaksızın, ne olursa olsun , açısından daha iyi performans gösterirMSEν<4 . Ayrıca zaman geride , ancak bu çok küçük örnek boyutları için de uygundur. Yukarıdakiler, dağılımının küçük serbestlik dereceli uzun kuyruklu doğası nedeniyle olur , bu da nin çok büyük değerlere yatkın olmasını sağlar ve aşırı tahmin için ağır ceza verirken
(2n−1+6n(ν−4))>1tθ^2MSEθ^1 bu sorunu yaşamıyor.
Buradaki sonuç, bu senaryoda uygun bir ölçü tahmincisi performansı olmamasıdırMSE . Bu açıktır çünkü açısından egemen olan tahminler saçmadır (özellikle gözlemlenen verilerde herhangi bir değişkenlik olması durumunda doğru olma şansı olmadığından). Belki (Casella ve Berger tarafından sivri out gibi) daha uygun bir yaklaşım varyans tahmin edicisi, seçim olacaktır o en aza indirir Stein'ın Kaybı:MSEθ^
S(θ^)=θ^ν/(ν−2)−1−log(θ^ν/(ν−2))
bu da hafife almayı, fazla tahmin için eşit derecede cezalandırır. Ayrıca :) 'denS(θ^1)=∞