olduğunda ortalama için güven aralığının yaklaşık hatası


15

Let {Xi}i=1n değerleri alınarak Rasgele değişkenlerin bir ailesi [0,1] bir ortalama sahip olan, μ ve varyans σ2 . Ne zaman bilinirse kullanılarak ortalama için basit bir güven aralığı P ( | ˉ X - μ | > ε ) σ 2 ile verilir.σ

P(|X¯μ|>ε)σ2nε21nε2(1).

Ayrıca, çünkü asimptotik olarak standart bir normal rasgele değişken olarak dağıtılır, normal dağılım bazen yaklaşık bir güven aralığını "oluşturmak" için kullanılır.X¯μσ/n


Çoktan seçmeli cevap istatistik sınavlarında, n = 30 olduğunda yerine bu yaklaşımı kullanmak zorunda kaldım . Yaklaştırma hatası ölçülmediği için bu konuda (hayal edebileceğinizden daha fazla) her zaman çok rahatsız oldum.(1)n30


  • Neden yerine normal yaklaşımı kullanıyorsunuz ?(1)

  • Bir daha asla kuralını körü körüne uygulamak istemiyorum . Beni reddederek beni destekleyebilecek ve uygun alternatifler sunabilecek iyi referanslar var mı? ( ( 1 ) uygun bir alternatif olarak gördüğüm şeyin bir örneğidir.)n30(1)

Burada, ve E [ | X | 3 ] bilinmiyor, kolayca sınırlandırılıyor.σE[|X|3]

Sorumun özellikle güven aralıklarıyla ilgili bir referans isteği olduğunu ve bu nedenle burada ve burada kısmi kopyalar olarak önerilen sorulardan farklı olduğunu lütfen unutmayın . Orada cevaplanmadı.


2
Sen klasik kaynaklarda bulunabilir tahminini geliştirmek zorunda ve gerçeği istismar edebilecek içindedir ( 0 , 1 ) Fark olarak anlarda hakkında bilgi verir. Büyülü araç, inanıyorum ki, Berry-Esseen teoremi olacak! Xi(0,1)
Yves

1
bu sınırlarla, varyans 0.25'ten büyük olamaz, 1'den çok daha iyi değil mi?
carlo

Yanıtlar:


3

Neden normal yaklaşım kullanılır?

Daha az bilgiden daha fazla bilgi kullanmanın her zaman daha iyi olduğunu söylemek kadar basittir. Denklem (1) Chebyshev teoremini kullanır . Dağıtımınızın şekli hakkında herhangi bir bilgiyi nasıl kullanmadığını, yani belirli bir varyansı olan herhangi bir dağıtım için işe yaradığını unutmayın. Bu nedenle, dağıtımınızın şekli hakkında bazı bilgiler kullanırsanız, daha iyi bir yaklaşım elde etmelisiniz. Dağıtımınızın Gauss olduğunu biliyorsan, bu bilgiyi kullanarak daha iyi bir tahmin elde edersin.

Zaten merkezi limit teoremini uyguladığınızdan, neden sınırların Gauss yaklaşımını kullanmıyorsunuz? Aslında daha sıkı (veya daha keskin) olacaklar, çünkü bu tahminler ek bir bilgi parçası olan şekil bilgisine dayanıyor.

Başparmak 30 kuralı, onaylama yanlılığından yararlanan bir efsanedir . Sadece bir kitaptan diğerine kopyalanmaya devam ediyor. Bir keresinde 1950'lerde bir makalede bu kuralı öneren bir referans buldum. Hatırladığım gibi, bu hiçbir şekilde sağlam bir kanıt değildi. Bir çeşit ampirik çalışma idi. Temel olarak, kullanılmasının tek nedeni, bir çeşit çalışma olmasıdır. Sık sık ihlal edildiğini görmüyorsunuz.

GÜNCELLEME Zachary R. Smith ve Craig S. Wells " Merkezi Limit Teoremi ve Örnek Büyüklüğü " başlıklı makaleye bakınız . Farklı dağıtım türleri için CLT'ye yakınlaşma üzerine ampirik bir çalışma sunarlar. Sihirli sayı 30 elbette pek çok durumda işe yaramıyor.


+1 Mantıklı bir açıklama için. Ancak, doğru olmayan bilgileri kullanma riski yok mu? CLT, sabit bir n için dağılımı hakkında hiçbir şey söylemez . X¯n
Olivier

Doğru, CLT sonlu örneğin dağılımı hakkında hiçbir şey söylemez, ancak asimptotik denklemler söylemez. Ancak, inkar edilemez bir şekilde yararlı bilgilere sahipler, bu yüzden ilişkileri sınırlamak her yerde kullanılıyor. Chebyshev'in problemi, sınıfın dışında nadiren kullanıldığı kadar geniş olmasıdır. Örneğin, bir standart sapma için verdiği olasılık - pek pratik bilgi yok<1/k2=1
Aksakal

Henüz X de eşit olasılıkla 0 veya 1 değerlerini alan Chebyshev uygulamanız keskindir. ;) Sorun şu ki, numune ortalamasına uygulanan Chebyshev, büyüdükçe asla keskin kalmayacak . n
Olivier

Smith ve Wells'in makalesini bilmiyorum, R'de çoğaltmayı denedim ve sonuçlarını elde edemedim ...
Alex Nelson

9

Gerçek değer için bir aralık elde etmek için Chebyshev eşitsizliğini kullanmayla ilgili sorun, size olasılıkla daha düşük bir sınır vermesidir , bu da bazen önemsizdir veya önemsiz olmamak için çok geniş olabilir. güven aralığı. Sahibiz

P(|X¯μ|>ε)=1P(X¯εμX¯+ε)

P(X¯εμX¯+ε)11nε2

Örnek büyüklüğüne bağlı olarak, "çok fazla" azalırsak "olasılık sıfırdan büyük" önemsiz cevabı alacağımızı görüyoruz.ε

Bunun dışında ne bu yaklaşımdan elde formu "bir sonuçtur" olasılığı düşen [ ˉ X ± £ ] olduğu eşit veya daha büyük ..."μ[X¯±ε]

Ama diyelim ki bu konuda iyiyiz ve biz rahat edeceğiniz asgari olasılığı. Yani istiyoruzpmin

11nε2=pminε=1(1pmin)n

Küçük numune boyutları ve yüksek istenen minimum olasılıkla, bu tatmin edici olmayan şekilde geniş bir güven aralığı verebilir. Örneğin ve n = 100 elde ederiz s 0,316 çevrilmiş olarak OP tedavi değişken için, örneğin farklı olarak, [pmin=0.9n=100ε.316için yararlı olamayacak kadar büyük görünen.[0,1]

Ancak yaklaşım geçerli ve dağıtımdan bağımsızdır ve bu nedenle yararlı olabileceği durumlar olabilir.

Ayrıca, başka cevapta sözü Vysochanskij-Petunin eşitsizliğini , bu da sürekli unimodal dağılımları tutan ve Chebyshev eşitsizliğini geliştirir.


Chebychev ile ilgili bir problemin, olasılık için sadece daha düşük bir sınır verdiğini kabul etmiyorum. Dağıtımsız bir ortamda, bir alt sınır umabileceğimiz en iyisidir. Önemli sorular: Chebychev keskin mi? Chebychev CI'nin uzunluğu sabit bir seviyesi için sistematik olarak aşırı tahmin ediliyor mu? Bunu yazımda, belirli bir bakış açısıyla cevapladım. Ancak, yine de bir örnek ortalama için Chebychev'in her zaman keskin, daha güçlü bir anlamda başarısız olup olmayacağını anlamaya çalışıyorum. α
Olivier

CI'nin uzunluğu tahmin altında değildir, çünkü bilinmeyen tek bir uzunluk yoktur, bu yüzden burada "aşırı tahmin" kelimesini kullanarak ne demek istediğinizden emin değilim. Farklı yöntemler farklı CI'ler sağlar, bu da elbette bunları değerlendirmeye ve değerlendirmeye çalışabiliriz.
Alecos Papadopoulos

Aşırı tahmin, kelimelerin kötü bir seçimiydi, işaret ettiğiniz için teşekkürler. "Sistematik olarak aşırı tahmin edilen uzunluk" ile, bir CI elde etme yönteminin her zaman gerekenden daha büyük bir şey verdiğini kastediyorum.
Olivier

1
@Olivier Genel olarak konuşursak, Chebyshev Eşitsizliği gevşek bir eşitsizlik olarak bilinir ve bu yüzden daha çok uygulamalı çalışmalardan ziyade teorik türevlerde ve kanıtlarda bir araç olarak kullanılır.
Alecos Papadopoulos

2
@Olivier "Genel olarak konuşursak" yeterliliğinizi kapsıyor diyebilirim.
Alecos Papadopoulos

7

Kısa cevap, oldukça kötü gidebileceğidir, ancak sadece örnekleme dağılımının bir veya her iki kuyruğu gerçekten şişman ise .

Bu R kodu bir milyon 30 gama dağıtılmış değişken seti oluşturur ve ortalamalarını alır; ortalamanın örnekleme dağılımının neye benzediğini anlamak için kullanılabilir. Normal yaklaşım amaçlandığı şekilde çalışıyorsa, sonuçlar ortalama 1 ve varyans ile yaklaşık normal olmalıdır1/(30 * shape) .

f = function(shape){replicate(1E6, mean(rgamma(30, shape, shape)))}

Zaman shape1.0, gama dağılımı bir hale üstel dağılım hoş olmayan-normaldir. Bununla birlikte, Gauss olmayan kısımlar çoğunlukla ortalama ve bu yüzden Gauss yaklaşımı o kadar da kötü değil:

histogram & density plot

Açıkça bazı önyargılar var ve mümkün olduğunda bundan kaçınmak iyi olur. Ama dürüst olmak gerekirse, bu önyargı seviyesi muhtemelen tipik bir çalışmanın karşılaştığı en büyük sorun olmayacaktır.

Bununla birlikte, işler çok daha kötüye gidebilir. İle f(0.01)böyle histogram görünüyor,:

histogram

Ortalamadan önce 30 örneklenmiş veri noktasını günlük olarak dönüştürmek çok yardımcı olur:

histogram

Genel olarak, uzun kuyruklu dağılımlar (dağılımın bir ya da her iki tarafında) Gauss yaklaşımı güvenilir olmaya başlamadan önce çoğu örneği gerektirir. Gauss yaklaşımının çalışması için asla yeterli veri olmayacak patolojik vakalar bile vardır, ancak muhtemelen bu durumda daha ciddi sorunlarınız olacaktır (çünkü örnekleme dağılımının başlamak için iyi tanımlanmış bir ortalama veya varyansı yoktur) ile).


Deneyi çok ilgili ve ilginç buluyorum. Ancak sorunun cevabını ele almadığı için bunu cevap olarak almayacağım.
Olivier

1
önemli olan nedir?
David J. Harris

Cevabınız sağlam istatistiksel uygulamalar için titizlik sağlamıyor. Sadece örnekler veriyor. Ayrıca, düşündüğüm rastgele değişkenlerin sınırlı olduğunu ve mümkün olan en kötü durumun ne olduğunu büyük ölçüde değiştirdiğini unutmayın.
Olivier

@Glen_b: bu cevap, sorunun revize edilmiş versiyonu ile çok ilgili değil. Sadece burada mı bırakmalıyım yoksa başka bir şey tavsiye eder misiniz?
David J. Harris

3

Chebyshev güven aralığı ile ilgili sorun

σ214Var(X)μ(1μ)μ

P(|X¯μ|ε)14nε2.
nXi14, the worst possible case. The theorem implies that P(|X¯μ|ε2n)2SF(ε)+8n, where SF is the survival function of the standard normal distribution. In particular, with ε=16, we get SF(16)e58 (according to Scipy), so that essentially
P(|X¯μ|8n)8n+0,()
whereas the Chebyshev inequality implies
P(|X¯μ|8n)1256.
Note that I did not try to optimize the bound given in (), the result here is only of conceptual interest.

Comparing the lengths of the confidence intervals

Consider the (1α)-level confidence interval lengths Z(α,n) and C(α,n) obtained using the normal approximation (σ=12) and the Chebyshev inequality, repectively. It turns out that C(α,n) is a constant times bigger than Z(α,n), independently of n. Precisely, for all n,

C(α,n)=κ(α)Z(α,n),κ(α)=(ISF(α2)α)1,
where ISF is the inverse survival function of the standard normal distribution. I plot below the multiplicative constant.

enter image description here

In particular, the 95% level confidence interval obtained using the Chebyshev inequality is about 2.3 times bigger than the same level confidence interval obtained using the normal approximation.


Using Hoeffding's bound

Hoeffding's bound gives

P(|X¯μ|ε)2e2nε2.
Thus an (1α)-level confidence interval for μ is
(X¯ε,X¯+ε),ε=lnα22n,
of length H(α,n)=2ε. I plot below the lengths of the different confidence intervals (Chebyshev inequality: C; normal approximation (σ=1/2): Z; Hoeffding's inequality: H) for α=0.05.

enter image description here


Very interesting! I have though some corrections to suggest you toghether with a big puzzlement: first, you should take out absolute value from the Hoeffding's unequality definition, it's P(X¯με)e2nε2 or P(|X¯μ|ε)2e2nε2; the second correction is less important, α is generally taken to be 0.05 or lower, while 0.95 is addressed as 1α, it's a bit confusing to see them switched in your post.
carlo

Last and more important: I found your result incredible, so I tried to replicate it in R and I got a completely opposite result: normal approximation gives smaller confidence intervals to me! this is the code I used: curve(sqrt(-log(.025)/2/x), to= 100, col= 'red', xlab= 'n', ylab= 'half interval') #Hoeffding ; curve(qnorm(.975, 0, .5/sqrt(x)), to= 100, add= T, col= 'darkgreen') #normal approximation
carlo

0

let's start with the number 30: it's, as anyone will say, a rule of thumb. but how can we find a number that fits better to our data? It's actually mostly a matter of skewness: even the strangest distribution will fast converge to normal if they are simmetric and continuous, skewed data will be much slower. I remember learning that a binomial distribution can be properly approximated to normal when its variance is greater than 9; for this example it's to be considered that discrete distribution also have the problem that they need great numbers to simulate continuity, but think to this: a simmetric binomial distribution will reach that variance with n = 36, if p = 0.1 instead, n must go up to 100 (variabile trasformation, however, would help a lot)!

If you only want to use variance instead, dropping gaussian approximation, consider Vysochanskij–Petunin inequality over Chebichev's, it needs the assumption of unimodal distribution of the mean, but this is a very safe one with any sample size, I'd say, greater than 2.


Could you add a reference for " Vysochanskij–Petunin inequality "? Never heard of it!
kjetil b halvorsen

wikipedia docet
carlo

Can you express the rate of convergence in terms of the skewdness? Why is a sample size of, you'd say 2, enough for unimodality? How is the Vysochanskij–Petunin inequality an improvement over Chebychev if you need to double or triple the sample size for it to apply?
Olivier

I made a fast google search and I found out that binomial distribution is actually often used to explain different sample size need for skewed data, but I didn't find, and I guess there is no accepted "rate of convergence in terms of the skewdness".
carlo

Vysochanskij–Petunin inequality is more efficent than Chebychev's, so it doesn't need a greater sample at all, but it has some use constraints: first, you have to have a continuous distribution, than, it has to be unimodal (no local modes are allowed). It may seem strange to drop normality assumption to adopt another one, but if your data is not discrete, sample mean should eliminate local modes even with very small samples. Fact is that mean has much of a bell distribution and, also if it can be skewed or have fat tails, it quickly comes to only have one mode.
carlo
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.