Bir meslekten olmayan kişi için tarafsız bir kestiricinin ne olduğunu nasıl açıklayabiliriz?


10

Diyelim ki için tarafsız bir tahmin . Sonra elbette, . θE[ θ |θ]=θθ^θE[θ^θ]=θ

Kişi bunu bir meslekten nasıl açıklar? Geçmişte, söylediğim şey , örnek boyutu büyüdükçe \ hat {\ theta} değerinin bir demet değerini ortalama θ^olarak alırsanız, \ theta'nın daha iyi bir yaklaşımını elde edersiniz θ.

Bana göre bu sorunlu. Aslında burada anlattığım şey , yalnızca tarafsız olmaktan ziyade, asimptotik olarak tarafsız olma olgusudur , yani \ lim_ {n \ to \ infty} \ mathbb {E} [\ hat {\ theta} \ mid \ theta ] = \ theta \ text {,}

limnE[θ^θ]=θ,
burada θ^ büyük olasılıkla n'ye bağlıdır n.

Peki, bir kişi için tarafsız bir tahmincinin ne olduğunu nasıl açıklayabiliriz?


2
Bu hemen hemen doğru olan bir tahmin yapmanın bir yoludur: genellikle tam olarak doğru değildir, ancak genel olarak, az tahminlerden daha fazla fazla tahmin üretmez. Bunun θ ortalamasından \ hat \ theta'nın medyanı gibi göründüğünü fark ettim θ^, ama bence önemli noktayı ele alıyor.
jwimberley

3
Bunun için "üç istatistik avcılık" şaka ( burada bir sürüm ) gibi ...
Ben Bolker

2
Açıklamanız Büyük Sayılar Yasasıdır, tarafsızlıkla ilgisi yoktur.
Xi'an

@ Xi'an: tahmincisi önyargılı ise, sınır olmaz . θ
user2357112 Monica

@ user2357112: Anladığım kadarıyla (ve şimdiye kadar cevapların gösterdiği gibi), örneklem büyüklüğü büyüdükçe , kadar büyüdükçe dikkate alındığında , yani gözlemine dayanan bir tahminci . Şimdi cümlenin farklı yorumlanabileceğini görüyorum. , n, nθ^nnn
Xi'an

Yanıtlar:


14

Teknik olarak, tahmin edicinizin örnek boyutu büyüdükçe gerçek değere yaklaştığını söylediğinizde tanımladığınız şey (diğerlerinin de belirttiği gibi) tutarlılık veya istatistiksel tahmincilerin yakınsamasıdır. Bu yakınsama ya diyor olasılıkta yakınsama olabilir her için , ya da hemen hemen yazan yakınsama . Limitin aslında içeride olduğuna dikkat edinε > 0 P ( lim n | İçeride ISTV melerin RWMAIWi'nin n - İçeride ISTV melerin RWMAIWi'nin | > ε ) = 0limnP(|θ^n-θ|>ε)=0ε>0P(limn|θ^n-θ|>ε)=0ikinci durumda olasılık. Bu ikinci yakınsama biçiminin diğerinden daha güçlü olduğu ortaya çıkıyor, ancak her ikisi de esasen aynı şey anlamına geliyor, bu da tahminin, daha fazla örnek toplarken tahmin ettiğimiz şeye yaklaşma ve daha yakınlaşma eğiliminde olduğu.

Bir ince nokta burada olduğunu bile , öyle ya olasılık ya da hemen hemen kesinlikle değil genel olarak bu doğru , dolayısıyla tutarlılık, önerdiğiniz gibi asimptotik tarafsızlık anlamına gelmez. Rastgele değişkenlerin dizileri (fonksiyonlar) arasında beklentilerin dizilerine (integraller) geçerken dikkatli olmalısınız.θ^nθlimnE(θ^n)=θ

Tarafsız olan tüm teknik şeyler, sadece . Yani birisine açıkladığınızda, deney aynı koşullar altında birçok kez tekrarlanırsa, tahminin ortalama değerinin gerçek değere yakın olacağını söyleyin.E(θ^n)=θ


5
Layperson hakkındaki görüşünüz oldukça takdire şayan. "Olasılıkta yakınsama" nı bilir, "yakınsama" olarak sınırlar ... Gelecekten gelen adam.
Aksakal

2
Bir katilin bu şeyleri bildiğini sanmıyorum, orijinal gönderideki bazı yanlış anlaşılmaları düzeltmeye çalışıyordum. İşleri bir meslekten nasıl açıklayacağına dair önerim son paragrafta.
dsaxton

bu son paragraf, muhtemelen OP'nin başlaması gereken kafa karışıklıklarından biri olan bir tahmin edicinin tutarlılığıyla önyargı kavramını karıştırmaktadır.
Aksakal

3
Nasıl yani? Bir deneyi aynı koşullar altında tekrarlamak, örneklem büyüklüğünün sabit olduğu anlamına gelir, bu yüzden açık bir şekilde tutarlılıktan bahsetmiyoruz.
dsaxton

1
Tamam, bu konuda haklısın, ama o zaman sık sık bir olasılık görüşü getiriyorsun
Aksakal

9

Tutarlılığı ve tarafsızlığı karıştırıp karıştırmadığınızdan emin değilim.

Tutarlılık: Örnek boyutu büyüdükçe, tahmin edicinin varyansı o kadar küçük olur.

  • Numune boyutuna bağlıdır

Tarafsızlık: Tahmin edicinin beklenen değeri parametrelerin gerçek değerine eşittir

  • Numune boyutuna bağlı değildir

Yani cezan

değerlerinin bir demetini ortalama olarak alırsanız , örnek boyutu büyüdükçe, daha iyi bir yaklaşımını elde edersiniz .θ^θ

Doğru değil. Örnek boyutu sonsuz olsa bile tarafsız bir tahminci tarafsız bir tahminci olarak kalacaktır, örneğin ortalamayı "ortalama +1" olarak tahmin ederseniz, örneğinize bir milyar gözlem ekleyebilirsiniz ve tahminciniz size gerçek değeri vermeyecektir.

Burada tutarlılık ve tarafsızlık arasındaki fark hakkında daha derin bir tartışma bulabilirsiniz.

Tutarlı bir tahminci ile tarafsız bir tahminci arasındaki fark nedir?


2
Aslında tutarlılık hakkında hiçbir şey bilmiyorum, ama yine de teşekkür ederim.
Klarnetçi

1
@Clarinetist Tutarlılık , bir tahmin edicinin belki de en önemli özelliğidir, yeterli veriyle keyfi olarak doğru cevaba yaklaşırsınız.
Matthew Gunn

7

@Ferdi, sorunuza zaten net bir cevap verdi, ancak biraz daha resmi hale getirelim .

Let dağıtım bağımsız aynen dağılma rastgele değişkenlerin sizin örnek olmak . tahmincisini fonksiyonu olarak kullanarak bilinmeyen ancak sabit miktar tahmini yapmak istiyorsunuz . Yana rastgele değişkenin bir fonksiyonu, bir tahminX1,...,XnFθg X 1 , , X n g gX1,...,Xng

θ^n=g(X1,...,Xn)

aynı zamanda rastgele bir değişkendir. Önyargı olarak tanımlarız

bbenbirs(θ^n)=Eθ(θ^n)-θ

tahmincisi olduğunda tarafsızdır .Eθ(θ^n)=θ

Düz İngilizce olarak söylemek gerekirse : rastgele değişkenlerle uğraşıyoruz , bu yüzden dejenere olmadıkça , farklı örnekler alırsak, farklı verileri ve çok farklı tahminleri gözlemlemeyi bekleyebiliriz. Bununla birlikte, tahmin edicinin tarafsız olması durumunda farklı örneklerde "ortalama" tahmini "doğru" olmasını . Yani her zaman doğru olmaz, ama "ortalama" doğru olur. Verilerle ilişkili rastgelelik nedeniyle her zaman "doğru" olamaz.θ^n

Diğerlerinin de belirttiği gibi, numuneniz büyüdükçe tahmininizin tahmini miktara "daha yakın" olması, yani olasılıkla yakınsamada

θ^nPθ

tahmincilerin tutarlılığı ile değil, tutarlılık ile ilgisi vardır . Tek başına tarafsızlık bize örneklem büyüklüğü ve elde edilen tahminlerle ilişkisi hakkında hiçbir şey söylemez. Dahası, tarafsız tahmin ediciler her zaman mevcut değildir ve yanlı olanlara göre her zaman tercih edilmez . Örneğin, sapma-varyans dengesini düşündükten sonra , daha büyük bir sapma, ancak daha küçük sapma ile tahmin ediciyi kullanmayı düşünmeye istekli olabilirsiniz - yani "ortalama" gerçek değerden daha uzak olacaktır, ancak daha sık (daha küçük sapma) tahminler gerçek değere daha yakın olun, sonra yansız tahmin edicinin olması durumunda.


(+1): nadiren tarafsız tahmin ediciler bulunduğunu ortaya koymanın çok iyi bir noktası. Ve önyargı / sapma muhalefetinden bahsediyoruz.
Xi'an

2

Öncelikle, yanlış anlama yanlılığını, özellikle sıradan bir insan için, istatistiksel önyargıdan ayırt etmelisiniz.

Nüfus ortalaması için tahminciniz olarak medyan, ortalama veya mod kullanma deyimi genellikle politik, dini veya bilim teorisi inanç önyargısını içerir. Tahmincinin en iyi ortalama şekli olduğu hesaplama, istatistiksel önyargıyı etkileyen aritmetikten farklı bir tiptedir.

Yöntem seçim yanlılığını aştıktan sonra, tahmin yöntemindeki potansiyel önyargıları ele alabilirsiniz. Öncelikle bir önyargıya sahip olabilecek bir yöntem ve bu önyargıya kolayca giden bir mekanizma seçmelisiniz.

Bir fethetme bakış açısını bölmek, örnek boyutu küçüldükçe, tahmin açıkça önyargılı hale geldikçe daha kolay olabilir. Örneğin, örnek yayılım tahmin edicilerdeki n-1 faktörü (vs 'n' faktörü), n'nin 3'ten 2'ye 1 düşmesi ile belirginleşir!

Her şey kişinin nasıl 'yattığı'na bağlıdır.


Korkarım ki, sorudakinin farklı önyargılarından bahsediyor olabilirsiniz. Önyargının ne olduğu konusunda daha spesifik olmayı deneyebilir misiniz? "Tahmin yöntemindeki potansiyel önyargılar" hakkında yazıyorsunuz ve bu önyargı tanımına karşılık gelmiyor gibi görünüyor (yukarıdaki soru ve cevaplarda verilmiştir). Sonunda, bu cevabınızı kafa karıştırıcı yapıyor ...
Tim

@ Zaman, ilk adım sadece insan önyargılarının ele alınmasını sağlamaktı. İkinci adım, meslekten olmayan kişinin öğretiminin zaten X yönteminin (tarafsız olan) seçileceğinden emin olmak için (ve 1. adımdaki konuları kısmen takip eder) olmuştur. Örneğin standart sapma 1 / n * toplamıdır ((x-ortalama) ^ 2), ancak bu (dikkatle) popülasyon ve örnek arasında ayrım yapmaz. Çoğu 'meslekten olmayan insanlara' bir örnek için düşünülmeyen 1 / (N-1) versiyonu öğretilir. Sadece bir yönteminiz varsa, sizin (meslekten olmayan kişi) yapmak için başka seçeneğiniz yoktur, bu yüzden tahminci yanlılığı bir sorun olamaz ... Bu Kruger-Dunning adımıdır.
Philip Oakley
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.