Stein’in paradoksunun neden sadece boyutlarda geçerli olduğuna dair sezgi


46

Stein Örnek gösterir maksimum olabilirlik tahmini olduğu n araçlarla normal dağılım değişkenler μ1,,μn ve sapma 1 IFF (kare işlev kaybı altında) kabul edilemez n3 . Düzgün bir kanıt için, Büyük Ölçekli Çıkarım'ın ilk bölümüne bakın : Bradley Effron'un Tahmin, Test Etme ve Tahmini için Ampirik Bayes Yöntemleri .

xN(μ,1)Ex2μ2+n

Benim sorum şudur: n -boyutlu uzayın hangi özelliği ( n3 ) R2 , Stein'in örneğini kolaylaştıran eksiktir? Olası cevaplar n küresinin eğriliği veya tamamen farklı bir şey olabilir.

Başka bir deyişle, MLE neden \ mathbb {R} ^ 2'de kabul edilebilir R2?


Düzenleme 1: @mpiktas endişesine yanıt olarak 1.30'dan sonraki 1.31'e:

Eμ(zμ^2)=Eμ(S(N2S)2)=Eμ((N2)2S).

μi^=(1N2S)zi
böyleceBu nedenle biz var:
Eμ(μi^zi)=Eμ(1N2S+2zi2S2).

2i=1NEμ(μi^zi)=2N2Eμ(N(N2)S)+4Eμ((N2)S)=2NEμ2(N2)2S.

Düzenleme 2 : Bu yazıda Stein, MLE'nin için kabul edilebilir olduğunu kanıtlıyor .N=2


4
@mpiktas Göründüğü kadar uygun değildir. Bir yeterliliği azaltma uyguladıktan sonra durum ANOVA'ya benzer. Bu, grup ortalamasının normal ANOVA tahminlerinin kabul edilemez olduğunu, 3'ten fazla grubun (doğru olduğu ortaya çıktığını) tahmin etmeye çalışmamız şartıyla kabul edilemez olduğunu gösterir. MLE'nin için kabul edilebilir olduğuna dair kanıtlara bakmanızı ve sadece Stein'in tahmincisinin yapmayı iddia ettiği şeyi yaptığına dair kanıtlara bakmak yerine , uzanmaya çalışırken nerede başarısız olduklarını görmenizi öneririm. Aslında aklında tahminci var. N = 3N=1,2N=3
adam

2
... ve Stein'ın Lemma'sını kullanmayı biliyor. Galiba 6 dakika önce düşündüğümden biraz daha az ileride.
Erkek,

2
Katılıyorum. Bunun için iyi referanslarınız var mı (orijinal belgeden başka). Stein'in orijinal kağıdını aşırı hesaplamalı buldum ve birinin son elli yılda farklı bir yöntem geliştireceğini umuyordum.
Har

2
Bana öğretildiğinin kanıtı, 1950'lerin başından itibaren Blyth tarafından önerilen bir yöntem kullanan 1983'ten Brown ve Hwang'a aitti. Oldukça genel (Stein’ın üstel aile için işe yaraması sonucundan daha genel) ve Stein’dan oldukça farklı olduğuna inanıyorum. Ama önemsiz değil.
Adam,

2
@Har harika bir soru! (+1)
suncoolsu

Yanıtlar:


43

Bir -çok-değişkenli normal rastgele değişkenin ortalamasının kabul edilebilirliği için ve vakaları arasındaki ikilik kesinlikle şok .d 3 dd<3d3d

Olasılık ve istatistikte, ve vakaları arasında bir ikilik olduğu bir başka çok ünlü örnek var . Bu, kafesindeki basit rastgele yürüyüşün . Yani, -boyutlu basit rastgele yürüyüş 1 veya 2 boyutta tekrarlanır, ancak boyutlarında geçicidir . Sürekli zamanlı analog (Brownian hareketi şeklinde) de tutar.d<3d3Zddd3

İkisinin birbiriyle yakından ilişkili olduğu ortaya çıktı.

Larry Brown , iki sorunun esasen eşdeğer olduğunu kanıtladı. Yani, en iyi değişmez tahminci boyutlu çok değişkenli normal ortalama vektörün , yalnızca boyutlu Brownian hareketinin tekrarlayan olması durumunda kabul edilebilir .μ^μ^(X)=Xdd

Aslında, onun sonuçları çok daha ileri gidiyor . İçin herhangi bir makul (yani, genel Bayes) tahmin ile belirlenmiş (genelleştirilmiş) riski, bir açık olduğunu (!) 'E uygun boyutlu difüzyon şekilde tahmin edicisi , ancak karşılık gelen difüzyonu tekrarlayan ise kabul edilebilir.μ~μ~(X)L2dμ~

Bu difüzyon yerel ortalama yani, aslında iki Tahmincilerin arasındaki tutarsızlık olduğunu ve difüzyon kovaryans olduğunu . Bundan, MLE , Brownian hareketini (ölçeklendirilmiş) kurtardığımızı görmek kolaydır .μ~μ^2Iμ~=μ^=X

Dolayısıyla, bir anlamda, stokastik süreçlerin lensleri aracılığıyla kabul edilebilirlik sorununu görebilir ve istenen sonuçlara ulaşmak için iyi çalışılmış difüzyon özelliklerini kullanabiliriz.

Referanslar

  1. L. Brown (1971). Kabul edilebilir tahmin ediciler, tekrarlayan yayınımlar ve çözülmeyen sınır değer problemleri . Ann. Matematik. Stat. , vol. 42, hayır. 3, sayfa 855-903.
  2. RN Bhattacharya (1978). Çok boyutlu difüzyonlar için nüks ve değişmez önlemlerin varlığı için kriterler . Ann. Prob. , vol. 6, hayır. 4, 541-553.

2
Aslında, böyle bir şey umduğum şeydi. için kabul edilebilirliğin sadece bir şans olmadığını gösteren başka bir matematik alanına (diferansiyel geometri veya stokastik süreçler gibi) bir bağlantı. Mükemmel cevap! n=2
Har

Cevabınızdan ilham aldım, MO'da
Henry.L

21

@cardinal harika bir cevap verdi (+1), ancak ispatlara aşina olmadıkça, bütün mesele gizemli kalıyor (ve ben değilim). Bence bu soru , Stein'in paradoksunun ve görünmemesinin sezgisel bir sebebi olarak kalmaya devam ettiğini düşünüyorum .RR2

1990'da Stephen Stigler'de, Büzülme Tahmin Edicilere İlişkin Galtonca bir Bakış Açısı'nda sunulan bir gerileme perspektifini çok faydalı buluyorum . Her biri altta yatan (gözlemlenmemiş) ve örneklemelerini ölçen bağımsız ölçümler göz önünde bulundurun . Bir şekilde çiftlerinin bir dağılım grafiğini yapabiliriz :θ i N- ( θ i , 1 ) θ ı ( x i , θ i )XiθiN(θi,1)θi(Xi,θi)

Stein'in paradoksu: regresyon perspektifi

Çapraz çizgi , sıfır gürültüye ve mükemmel kestirime karşılık gelir; gerçekte gürültü sıfır değildir ve böylece noktalar çapraz çizgiden yatay yönde kaydırılır . Correspondinly, bir regresyon çizgisi olarak görülebilmektedir ile . Bununla birlikte, biz biliyoruz ve tahmin etmek istiyoruz , bu nedenle şekil üzerinde (kesikli çizgi) gösterildiği gibi yatay olarak eğimli, farklı bir eğimde olacak olan üzerindeki regresyon çizgisini göz önünde bulundurmalıyız .θ = X X θ X θ θ Xθ=Xθ=XXθXθθX

Stigler'ın makalesinden alıntı:

Stein paradoksuna dair bu Galton perspektifi neredeyse şeffaf hale getiriyor. "Sıradan" tahminciler , üzerindeki teorik regresyon çizgisinden türetilir . Amacımız tahmin etmek olsaydı, bu hat yararlı olacağını den , ama bizim sorunun yani tahmin etmek, tersidir gelen kare hataları toplamını kullanarak olarak bir kriter. Bu kriter için, optimum lineer tahmin ediciler , üzerindeki en küçük kareler regresyon çizgisi ile verilir.XθXθθXΣ(θi - θ i)2θXθ^i0=XiXθXθθX(θiθ^i)2θXve James-Stein ve Efron-Morris tahmin edicileri, bu optimum lineer tahmin edicilerin tahmin edicileridir. "Sıradan" tahmin ediciler yanlış regresyon çizgisinden, James-Stein ve Efron-Morris tahmin edicilerinden yaklaşımlardan doğru regresyon çizgisine elde edilir.

Ve şimdi çok önemli biti geliyor (vurgu eklendi):

Hatta neden görebilirsiniz gereklidir: Eğer ya da , en küçük kareler hattı ile noktaları üzerinden geçmesi gereken ve dolayısıyla için ya da , (iki regresyon çizgileri ile ve ile ) her birine uyumlu olmalıdır .k = 1 2 θ X ( X i , θ i ) k = 1 2 X θ θ X X ik3k=12θX(Xi,θi)k=12XθθXXi

Bence bu, ve ilgili neyin özel olduğunu açıkça ortaya koyuyor .k = 2k=1k=2

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.