Önyargı önyükleme tahmini ne zaman geçerlidir?


31

Önyükleme işleminin tahmin edicideki önyargı tahminini sağlayabildiği sık sık iddia edilmektedir.

Eğer T bir istatistik için tahmini ve ~ t i önyükleme kopyaları vardır ile ( i { 1 , , N } ), daha sonra önyargı önyükleme tahminidir ki bu oldukça huzursuz görünüyor.t^t~ii{1,,N}

biast1Nit~it^

Zaten istatistiğin tarafsız bir tahmincisine sahip olmadan bunun nasıl mümkün olabileceğini kafamdan çıkaramıyorum. Örneğin, tahmin edicim gözlemlerden bağımsız bir sabit döndürürse, yukarıdaki önyargı tahmini açıkça geçersizdir.

Her ne kadar bu örnek patolojik olsa da, tahminci ve önyükleme tahmininin makul olduğunu garanti edecek dağıtımlarla ilgili makul varsayımların ne olduğunu göremiyorum.

Resmi referansları okumayı denedim, ancak istatistikçi ya da matematikçi değilim, bu yüzden hiçbir şey netleştirilmedi.

Tahminin ne zaman geçerli olması beklenebileceğinin üst düzey bir özetini kimse verebilir mi? Konuyla ilgili iyi referanslar biliyorsanız bu da harika olurdu.


Düzenle:

Tahmin edicinin pürüzsüzlüğü genellikle önyüklemenin çalışması için bir gereklilik olarak belirtilir. Birinin dönüşümün bir çeşit yerel tersine çevrilmesi de gerekebilir mi? Sabit harita açıkça bunu tatmin etmiyor.


2
Sabit bir tahminci, o sabitin yansız bir tahmincisidir, bu nedenle önyargılı önyükleme tahmincisinin sıfır olması doğaldır.
Xi'an

Yanıtlar:


4

Tanımladığınız sorun, geçerliliği olmayan bir yorum problemidir. Sabit tahminciniz için önyükleme yanlılığı tahmini geçersiz değil, aslında mükemmel.

Yanlılık önyükleme tahmini bir tahmin edici arasındadır θ = s ( x ) ve bir parametre θ = t ( F ) , burada F bilinmeyen bir dağılımıdır ve x bir örnek F . T ( F ) işlevi , eğer nüfusu elinizde tutarsanız, prensip olarak hesaplayabileceğiniz bir şeydir. Bazı kere almak s ( x ) = t ( E ) , eklenti tahmini t (θ^=s(x)θ=t(F),FxFt(F)s(x)=t(F^), ampirik dağılım kullanılarak F yerine F . Muhtemelen yukarıda tanımladığınız şey budur. Tüm durumlarda önyargı önyükleme tahmini b ı bir s F = E F [ s ( x * ) ] - t ( F ) , burada x * den önyükleme numunelerdir x .t(F)F^F

biasF^=EF^[s(x)]t(F^),
xx

Sabit mükemmel plug-in aynı sabiti tahmin olup:c nüfusu ve örnek ~ F yaklaşır, deneysel dağılımı, F . Eğer değerlendirmek olsaydı t ( F ) = c , sen alırdım c . Eğer plug-in tahmin hesaplamak zaman t ( E ) = C de elde c . Beklediğiniz gibi önyargı yok.FF^Ft(F)=cct(F^)=cc

Plug-in tahmin bir önyargı vardır iyi bilinen bir durum bu nedenle, tahmin varyans Bessel düzeltmedir. Aşağıda bunu gösteriyorum. Önyükleme önyargısı tahmini çok da kötü değil: t(F^)

library(plyr)

n <- 20
data <- rnorm(n, 0, 1)

variance <- sum((data - mean(data))^2)/n

boots <- raply(1000, {
  data_b <- sample(data, n, replace=T)
  sum((data_b - mean(data_b))^2)/n
})

# estimated bias
mean(boots) - variance 
#> [1] -0.06504726

# true bias:
((n-1)/n)*1 -1
#> [1] -0.05

Bunun yerine, nin popülasyon ortalaması ve s ( x ) = c olması , çoğu durumda açık bir önyargı olması gerektiği durumlarda olabilir: t(F)s(x)=c

library(plyr)

mu <- 3
a_constant <- 1

n <- 20
data <- rnorm(n, mu, 1)

boots <- raply(1000, {
  # not necessary as we will ignore the data, but let's do it on principle
  data_b <- sample(data, n, replace=T)

  a_constant
})

# estimated bias
mean(boots) - mean(data) 
#> [1] -1.964877

# true bias is clearly -2

Yine bootstrap tahmini çok da kötü değil.


Bu cevabı ekledim, çünkü diğer cevaplar önyargılı önyükleme tahmininin bir sabit olduğunda 0 olduğu bir problem olduğu için kabul edilmiş gibi görünüyor . Buna inanmıyorum. t
einar

Cevabınızı ve demonuzu beğeniyorum, ancak tanımınızın doğru olduğunu sanmıyorum "Önyargı önyükleme tahmini, örneğinizin bir işlevi ile popülasyonda değerlendirilen aynı işlev arasındaki önyargının bir tahminidir." Yazdıklarınız iyi tanımlanmış olsa da, eğer tanım buysa, popülasyon varyansı için bir tahmin edici olarak örnek varyansın önyargısını tahmin etmek için önyüklemeyi kullanmanın bir yolu olmazdı.
DavidR

@DavidR Haklısın, yorum yaptığın için teşekkür ederim. Cevabı güncelledim.
einar

Bu yazıyı çok beğendim! Tek soruma "önyargı önyükleme tahmini" ile ilgili. Yazdığınız şeyin tahmincinin gerçek önyargısı olduğunu düşünüyorum (ancak gerçek dağıtımdan ziyade ampirik dağılım için), çünkü önyükleme örnekleri üzerinde bir beklenti alıyorsunuz. Önyükleme tahmincisinin B önyükleme örnekleri üzerinden sınırlı bir toplam olacağını düşünüyorum?
DavidR

1
@DavidR Yaptığına sevindim! (Kullandığınız çünkü ne rapor teknik önyargı önyükleme tahminidir yerine İçeride ISTV melerin RWMAIWi'nin ve önyükleme beklenti s ( ) üzerindeki beklenti yerine F ). Ama en pratik uygulamalarda E F [ s ( x * ) ] inatçı ve dediğiniz gibi biz Monte Carlo bunu yaklaşır. t(F^)θs()FEF^[s(x)]
einar

3

Bir hata yaptınız ve belki de kafa karıştırıcı olmasının nedeni budur. Diyorsun:

Tahmin edicim basit bir şekilde gözlemlerden bağımsız bir sabit döndürürse, yukarıdaki önyargı tahmini açıkça geçersizdir

Önyükleme, yönteminizin ne kadar önyargılı olduğu ile ilgili değildir, ancak verilerinizin önyargılı olması durumunda, bazı işlevlerden elde edilen sonuçların ne kadarı olduğu.

Verilerinizi analiz etmek için uygun istatistiksel yöntemi seçerseniz ve bu yöntemin tüm varsayımları yerine getirilirse ve matematiğinizi doğru yaptınızsa, istatistiksel yönteminiz size verilerinizi kullanarak elde edilebilecek "en iyi" olası tahmini vermelidir .

Önyükleme fikri, verilerinizden, örneklerinizi popülasyondan örneklediğiniz gibi örneklemektir - bu da örneklemenizin bir nüshasıdır. Bu , değerinizin yaklaşık dağılımını (Efrons kelimelerini kullanarak) elde etmenize ve dolayısıyla tahmininizin önyargısını değerlendirmenize olanak sağlar .

Ancak benim iddia ettiğim şey, örneğinizin yanıltıcı olduğudur ve bu yüzden açılış önyüklemesini tartışmak için en iyi örnek değildir. Her iki tarafta da yanlış anlaşılmalar olduğu için, cevabımı güncellememe ve amacımı açıklamak için daha resmi bir şekilde yazmama izin verin.

İçin Eğilim θ gerçek değer arasında olmak tahmin İçeride ISTV melerin RWMAIWi'nin şu şekilde tanımlanır:θ^θ

bias(θ^n)=Eθ(θ^n)θ

nerede:

θ^n=g(x1,x2,...,xn)

burada tahmin edicidir.g()

Larry Wasserman'in "Tüm İstatistikler" adlı kitabında yazdığı gibi :

Bir tahminci için makul bir gereksinim, gittikçe daha fazla veri toplarken gerçek parametre değerine yaklaşması gerektiğidir. Bu gereklilik aşağıdaki tanım ile ölçülür:
6.7 Tanım. Bir nokta tahmin θ n bir parametre İçeride ISTV melerin RWMAIWi'nin olan tutarlı ise θ n p θ .θ^nθθ^nPθ

Sabit bir fonksiyonu olarak sabit tahmincisi, : g ( x ) = λ etmez olmayan verinin bağımsızdır ve gözlemler artan sayıda gerçek değeri yaklaşım haline getirmediği için bu gereği yerine İçeride ISTV melerin RWMAIWi'nin sürece saf şans veya çok sağlam olan ( önsel varsayımlar λ tam o λ = θ ).xg(X)=λθλλ=θ

Sabit tahmincisi makul tahmincisi olduğu için temel ihtiyacını karşılamak değildir ve dolayısıyla, bunun 's önyargı tahmin etmek imkansız çünkü θ n yaklaşım değildir θ bile n . Önyükleme ve başka bir yöntemle yapmak imkansız, bu yüzden önyükleme ile ilgili bir sorun değil.θ^nθn


5
Korkarım bu cevabın kafa karışıklığı yarattığı görülüyor. Sabit bir tahminci çoğu tanımlamaya göre bir tahmin edicidir - ve bazı durumlarda kabul edilebilir bir değerdir. Sorunuz, örnekleme önyargısını, neredeyse tüm okuyucuların kafasını karıştırmak zorunda olan tahmin önyargısıyla karıştırır. "Mümkün olan en iyi tahmin" ile ilgili paragrafınız güzeldir, ancak "en iyiyi" nasıl ölçeceğinizin temel sorusunu sorar. Önyargı, bunun yalnızca bir bileşenidir (eğer varsa).
whuber

OP'yi cevaplayacak kadar nitelikli olmasam da, korkarım Whuber'ın bir anlamı var. Ayrıca, nüfus ortalamalarını tahmin edici olarak adlandırmak geçerli midir? Son cümleyle ilgili olarak, boostrap'ın, örnekleme yönteminin değil analiz edilen tahmin edicinin önyargılarının tahminini sağladığını düşünüyorum.
mugen

Önyükleme işleminin sistematik hataları algılayamayacağını anlıyorum, ancak en azından bazı sınırlarda istatistiksel yanlılığı tespit etmesi gerekiyordu. Sanırım amacınız ikisini birbirinden ayırmada incelikle ilgili, ama bu hala bana açık değil. Tahmin ediciden değil verilerden - hiç duymadığım bir önyargı kavramı hakkında konuşuyor gibisiniz. Bu önyargı kavramının resmi tanımı nedir?
desteksiz

3
Kesinlikle bir yanlış anlaşılma var: Tim, "tahmin edici" veya "önyargı" yı bu soruda oluşturulan bağlam için geleneksel bir şekilde kullanmıyorsunuz, oysa Bootstrapped. Dahası, bootstrap'ın sistematik hataları saptayabildiğini ve tahmin bağlamında "yanlılığı" olanlara eşitlemede yanlış olduğunu düşünüyorsunuz. Cevapta da çeşitli hatalar var. Örneğin, sabit bir tahmincisi yanlılık (eşit, diyelim ki, bir parametre) İçeride ISTV melerin RWMAIWi'nin olan tanım ile X - θ . Lütfen referanslara bakınız . λθ λθ
whuber

8
Düzenlemenizdeki tutarlılık sorununu ortaya çıkarmanız ilginç. Ve belki de biraz-düşündürücü - - tahmincisi düşünmek Bunu eğlendiriyor bulabilir İçeride ISTV melerin RWMAIWi'nin eşittir 0 sağlanan n < 10 100 ve aksi takdirde maksimum olabilirlik tahmin edicisi olduğunu. Her ne kadar bu tutarlı olsa da, OP tarafından belirtilen sorundan muzdariptir. Bu konu, "önyükleme tahmininin tahmin edilmesinin makul olduğunu" garanti edecek koşulların tanımlanmasıyla ilgili olduğu için, bu örnekten, tutarlılığın bu koşullar arasında olmadığını, hatta İlgili kavram. θ^0n<10100
whuber

3

Bence formülün yanlış. Geçen şapka yerine bir yıldız olmalıdır: b i bir s t1t

biast1Nit~it

Tahminden ziyade ampirik dağılım üzerinde değerlendirilen gerçek istatistiği kullanmak istersiniz (bu, orijinal örnek sonlu bir küme olduğu için bu genellikle kolaydır). Bazı durumlarda, bunlar aynı olabilir (örneğin, deneysel ortalama, örnek ortalamanın aynısıdır), ancak genel olarak olmayacaklardır. Farklı oldukları bir durum verdiniz, ancak daha az patolojik bir örnek, varyans için normal tarafsız tahmin edicidir; bu, sınırlı bir dağılıma uygulandığında popülasyon varyansı ile aynı değildir.

t ampirik dağılımları anlamsızsa (örneğin sürekli bir dağılım varsa), vanilya açılışını kullanmamalısınız. Ampirik dağılımı bir çekirdek yoğunluğu tahminiyle (pürüzsüz önyükleme) değiştirebilirsiniz veya orijinal dağılımın belirli bir ailede bulunduğunu biliyorsanız, ampirik dağılımı o aileden en fazla tahmin edilen değerle değiştirebilirsiniz (parametrik önyükleme).

TL / DR: Önyükleme yöntemi büyülü değil. Önyargı hakkında tarafsız bir tahminde bulunmak için, ilgilenilen parametreyi tam olarak sınırlı bir dağılım üzerinde hesaplayabilmeniz gerekir.


1
Notunuzun anlamından emin değilim. Bu ders notlarına göre Pete Hall (UC Davis), bu ders notları Cosma Shalizi (CMU) ve bu sayfayı Efron en ve Tibshirani kitabı gösterir gibi görünmektedir ben yanlış değil, sadece tam olarak genel değil (yani ben ne fişi burada tahmin edicide kullanıyorum, ancak bu gerekli değil).
desteksiz

Efron ve Tibshirani, benimle aynı formülü farklı bir notasyonla veriyor. Pete Hall varsayım yapıyor gibi görünüyort*=t^: 11. sayfada, yerini aldı θ(F1) (bu benim dediğim şey t* ile θ^ without comment. Cosma Shalizi's discussion of pivots in section 2.2 also seems to implicitly assume that t^ is the actual value of t on the empirical distribution (t). I think all of your confusion is just caused by sloppiness in these lecture notes.
Evan Wright

Fair enough, but I don't think the notation resolves the issue or addresses the question. In particular, I know the constant estimator has to break down (bootstrap is not magical). The example of the variance works even if we make the assumption that t=t^ (i.e., the bootstrap bias estimate works). What about other estimators for other statistics? What are sufficient conditions for the bootstrap bias estimate to work? How does the constant estimator violate these conditions?
Bootstrapped

1
That's my point: this fixed version gives the right answer even for the constant estimator. Suppose you're trying to estimate the population mean, but you choose an estimator that just always guesses 0. Then t will be the actual mean of the sample, rather than 0. So as N, the bias estimate goes to minus the sample mean, which is reasonable and has expected value equal to the true bias.
Evan Wright

Then it seems I don't quite understand the definition of t. The definition in Efron and Tibshirani (in the page I link to above) seems to imply that it is the plug in estimate based on the empirical distribution, but the operational meaning of that escaped me. Say I have some high dimensional data that I want to fit to some non-linear function, and I want to know if my estimate of the non-linear function parameters is biased or not. What is t in this case? The definition of t~i seems clear to me, but t is nebulous.
Bootstrapped

0

I find it useful to think about the bootstrap procedures in terms of the functionals of the distributions they operate on -- I gave an example in this answer to a different bootstrap question.

The estimate you gave is what it is -- an estimate. Nobody says it does not suffer from problems that statistical estimates may have. It will give you a non-zero estimate of bias for the sample mean, for instance, which we all know is unbiased to begin with. One problem with this bias estimator is that it suffers from sampling variability when the bootstrap is implemented as Monte Carlo rather than a complete enumeration of all possible subsamples (and nobody that that theoretical bootstrap in practice, anyway).

As such, a Monte Carlo implementation of the bootstrap is unfixable, and you have to use a different bootstrap scheme. Davison et. al. (1986) demonstrated how to create a different bootstrap scheme that restricts the random draws to produce balanced samples: if you create B bootstrap replicates, then each of the original elements needs to be used exactly B times for the first-order balance. (The second order balance that works better for the second moments of the estimands, is further discussed by Graham et. al. (1990).)


7
I think Bootstrapped's original question is orthogonal to the issue of Monte Carlo variability. Even if we take the number of bootstrap replications to infinity, the formula in the question will give a zero estimate for the bias of a constant estimator, and will give a nonzero estimate for the bias of the usual unbiased estimate of variance.
Evan Wright
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.