Binom'un Fisher Bilgisinin ile ters orantılı olmasının sezgisel nedeni


12

Binomial'in orantılı bir varyansı olduğu kafamı karıştırıyor / darbeler . Aynı şekilde, Fisher bilgisi ile orantılıdır . Bunun nedeni nedir? Fisher Bilgisi neden değerinde minimize ? Yani, 0.5'de çıkarım neden daha zordur ?p(1p)1p(1p)p=0.5p=0.5

Bağlam:

Ben bir örnek boyutu hesap üzerinde çalışıyorum ve için formül , gerekli örnek boyutu, , türetme bir varyans tahmini sonucu artan bir faktördür .Np(1p)


3
Bir varyans Bernoulli parametre ile rastgele değişken olan ve rasgele değişken, toplamı olan bağımsız Bernoulli rastgele değişkenlerin, varyans sahip toplamıdır, varyans . İle ilgili olarak niçin , kitleler kütle merkezinin yaklaşık eylemsizlik an olarak değişimini dikkate ve at ve sırasıyla. p ( 1 - p ) N N p ( 1 - p ) Npp(1p)NNp(1p)N p 1 - p 1 0p(1p)p1p10
Dilip Sarwate

Evet, orantılı dedim , görmezden . İkinci bölümünüzü biraz açıklayabilir misiniz, ilginç bir bakış açısı gibi görünüyor. Np(1p)N
Cam.Davidson.Pilon

Yanıtlar:


13

Varyans maksimum bir halde bulunmasıdır ki sezgisel bir şekilde görmek için, alır, eşittir (sırasıyla. ). Daha sonra 'den bir örnek muhtemelen ' i (sırasıyla ') ve sadece birkaç ' ı (sırasıyla ') içerecektir . Orada çok fazla varyasyon yok.p 0.99 p = 0.01 X Bernoulli ( p ) 1 0 0 1p=0.5p0.99p=0.01XBernoulli(p)1001


Bu doğru. Belki de sormam gereken şey, Fisher Bilgisi neden minimize edilmiştir ? p=0.5, yani 0.5'de neden çıkarım en zordur ? Bunu yansıtmak için sorumu güncelleyeceğim. p=0.5
Cam.Davidson.Pilon

3
Yine çok sezgisel bir şekilde: daha fazla varyasyon, daha fazla bilgiye ihtiyacınız var.
ocram

9

Ortadaki ' için çıkarım "zor" dur, çünkü ortada olan bir örnek daha geniş bir aralığıyla tutarlıdır . Sonlara yakın, o kadar uzakta olamaz - çünkü uçlar ötesine geçemeyeceği "engeller" dir .s s spp^pp

Bununla birlikte, sezginin varyans açısından bakıldığında daha kolay olduğunu düşünüyorum.

Bir binomun ortada büyük ve uçlarda küçük olması ile ilgili sezgi oldukça basittir: uç noktaların yakınında verilerin "yayılması" için yer yoktur. küçükünü düşünün - ortalama 0'a yakın olduğu için, varyasyon büyük olamaz - ortalama veriler için sadece ortalamadan çok uzak olabilir.ppp

Bir dizi Bernoulli çalışmasında örnek oranın varyansını ele alalım. Burada . Bu nedenle sabit tutarken ve değiştirirseniz , 0'a yakın için varyasyon çok daha küçüktür :n- p sVar(p^)=p(1p)/nnpp

Binom örneklerinde örnek oranı - burada sadece rastgele birörnektir; mavi kasa ortalama 0.03, siyah ortalama 0.5 (bazı titreme eklendi, böylece noktalar çok fazla yığılmıyor ve ayrıntıyı kaybetmiyor) yresim açıklamasını buraya girin

Karşılık gelen olasılık fonksiyonları: resim açıklamasını buraya girin

Her durumda ortalamayı işaretleyen çizgilere dikkat edin. Ortalama çizgi bariyere karşı daha 'sıkışmış' hale geldikçe, ortalamanın altındaki noktalar sadece küçük bir yol alabilir.

Sonuç olarak, ortalamanın üzerindeki noktalar genellikle ortalamanın çok üzerine çıkamaz (aksi takdirde ortalama kayabilir!). Yakın bitiş noktaları gerçekten bir engel varken öyle aynı şekilde "yukarı itmek" yoktur.p=12

resim açıklamasını buraya girin

Aynı zamanda dağılımın neden uçlarda eğrilmesi gerektiğini görüyoruz; rasgele değişken ortalamanın üzerinde daha fazla olması için zamanın ortalamasının üzerinde olması için, ortalamanın olabildiğince aşağısında ezilmiş bir olasılık olması gerekir. 0'da görünen bu bariyer hem değişkenlik için bir sınır verir hem de çarpıklığa neden olur. pp^p

[Bu sezgi biçimi bize neden bu tam işlevsel formu aldığını söylemez, ancak varyansın neden uçlara yakın küçük olması gerektiğini ve gittiğiniz uçlara yaklaştıkça bunu açıklığa kavuşturur.]


Sonuç olarak, ortalamanın üzerindeki noktalar genellikle ortalamanın çok üzerine çıkamaz (aksi takdirde ortalama kayabilir!). P = 12 civarında bitiş noktaları gerçekten aynı şekilde "yukarı itmez". Çok mükemmel. Bu harika bir açıklama.
Cam.Davidson.Pilon

7

Fisher bilgisi skor fonksiyonunun varyansıdır. Ve entropi ile ilgilidir. Bernoulli denemesi için her deneme için bir bit elde ediyoruz. Yani bu Fisher Information, beklediğimiz gibi Shannon Entropisi ile benzer özelliklere sahip. Özellikle entropinin maksimum değeri 1/2 ve bilgilerin minimum değeri 1/2'dir.


Ah, başka bir harika bakış açısı. Bunu entropik bakış açısından düşünmemiştim!
Cam.Davidson.Pilon
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.