Olasılıkta yakınlaşma - neredeyse kesin yakınsama


67

Bu iki yakınsama ölçüsü arasındaki farkı hiçbir zaman gerçekten anlamadım. (Ya da, aslında, farklı yakınsama türlerinden herhangi biri, ancak bu ikisinden özellikle Büyük Sayıların Zayıf ve Güçlü Yasaları nedeniyle bahsediyorum.)

Elbette, her birinin tanımını alıntılayabilirim ve farklı oldukları yere bir örnek verebilirim, ancak hala tam olarak anlamıyorum.

Farkı anlamanın iyi bir yolu nedir? Fark neden önemlidir? Farklı oldukları yerde özellikle unutulmaz bir örnek var mı?



Yanıtlar:


67

Benim bakış açıma göre farklılık önemlidir, ancak büyük ölçüde felsefi sebeplerden dolayı. Zamanla düzelen bir cihazınız olduğunu varsayalım. Bu nedenle, cihazı her kullanışınızda arıza olasılığı daha önce olduğundan daha azdır.

Olasılıkta yakınsama, kullanım sayısının sonsuzluğa giderken arızalanma şansının sıfıra gittiğini söylüyor. Bu nedenle, cihazı çok sayıda kullandıktan sonra, doğru şekilde çalıştığından çok emin olabilirsiniz, yine de başarısız olabilir, bu çok düşük bir ihtimal.

Yakınsama neredeyse kesinlikle biraz daha güçlü. Toplam arıza sayısının sınırlı olduğunu söylüyor . Yani, kullanımların sayısı sonsuzluğa giderken, başarısızlıkların sayısını sayarsanız, sınırlı bir sayı elde edersiniz. Bunun etkisi şu şekildedir: Cihazı daha fazla kullandıkça, bazı sınırlı kullanımlardan sonra tüm arızaları tüketeceksiniz. O andan itibaren cihaz mükemmel çalışacaktır .

Srikant'ın işaret ettiği gibi, aslında tüm arızaları ne zaman tükettiğinizi bilmiyorsunuz, bu yüzden tamamen pratik bir bakış açısıyla, iki yakınsama modu arasında fazla bir fark yoktur.

Bununla birlikte, şahsen, örneğin, zayıf sayının aksine, çok sayıda güçlü kanunun var olduğu için çok mutluyum. Çünkü şimdi, ışığın hızını elde etmek için yapılan bilimsel bir deney, ortalamaları almakta haklı. En azından teoride, yeterli veriyi elde ettikten sonra, keyfi olarak gerçek ışık hızına yaklaşabilirsiniz. Ortalama alma sürecinde herhangi bir başarısızlık olmaz (ancak mümkün değildir).

δ>0nX1,X2,,Xnμ

Sn=1nk=1nXk.
nSnn=1,2,Xn
P(|Snμ|>δ)0
n|Snμ|δI(|Snμ|>δ)|Snμ|>δ
n=1I(|Snμ|>δ)
Snn0|Snμ|<δn>n0n>n0

1
Teşekkürler, sonsuz seri görüş açısının yakınsamasını seviyorum!
raegtin

1
Sanırım sayılabilir demek istedin ve mutlaka sonlu değil, yanlış mıyım? Yoksa integrallerle karıştırıyorum.
Royi,

Daha kesin olmak gerekirse, meydana geldiği olaylar kümesi (değil) sıfır -> sıfır olasılığı ile ölçülür.
Royi

n0n0

33

Bu sorunun çoktan cevaplandığını biliyorum (ve benim görüşüme göre oldukça iyi), ancak burada @NRH'nin grafiksel açıklamadan bahseden bir yorumu olan ve resimleri oraya koymaktan ziyade daha uygun görünecek şekilde farklı bir soru vardı . onları buraya koy.

Yani, işte gidiyor. Bir R paketi kadar havalı değil. Ancak kendi kendine yeten ve JSTOR'a abone olmak gerektirmez.

Xi=±1

Snn=1ni=1nXi,n=1,2,.

Büyük Sayıların Güçlü Yasası

SLLN (neredeyse kesin olarak yakınsama) , sağa doğru uzanan bu eğrinin sonunda, sonlu bir zamanda, tamamen sonradan sonsuza dek (sağa doğru) bantların içine gireceğinden % 100 emin olabileceğimizi söylüyor .

Bu grafiği oluşturmak için kullanılan R kodu aşağıdadır (kısalık için atlanan etiketler).

n <- 1000;  m <- 50; e <- 0.05
s <- cumsum(2*(rbinom(n, size=1, prob=0.5) - 0.5))
plot(s/seq.int(n), type = "l", ylim = c(-0.4, 0.4))
abline(h = c(-e,e), lty = 2)

Zayıf Büyük Sayılar Yasası

n

Grafiğin R kodu aşağıdaki gibidir (tekrar etiket atlamak).

x <- matrix(2*(rbinom(n*m, size=1, prob=0.5) - 0.5), ncol = m)
y <- apply(x, 2, function(z) cumsum(z)/seq_along(z))
matplot(y, type = "l", ylim = c(-0.4,0.4))
abline(h = c(-e,e), lty = 2, lwd = 2)

6

Aşağıdaki gibi anlıyorum

Olasılıkta yakınsaklık

Rasgele değişkenler dizisinin hedef değere eşit olma olasılığı asimptotik olarak azalır ve 0'a yaklaşır, ancak gerçekte asla 0'a ulaşmaz.

Neredeyse emin yakınsama

Rastgele değişkenlerin sırası, hedef değeri asimptotik olarak eşitleyecektir, ancak hangi noktada olacağını tahmin edemezsiniz.

Wiki (prob içinde yakınsama bağlamında neredeyse emin yakınlaşma bağlamında hayır örnekte okçunun örneğe bakın özellikle) Yukarıdaki açıklığa kavuşmasına yardımcı olacaktır hem bazı örnekler vardır.

Pratik açıdan bakıldığında, olasılıkta yakınlaşma, çok olası olayları özellikle önemsemediğimiz için yeterlidir. Örnek olarak, bir tahmin edicinin tutarlılığı esas olarak olasılıkta yakınsaklıktır. Bu nedenle, tutarlı bir tahmin kullanırken, büyük örneklerde tahmininizin gerçek değerden çok düşük bir olasılık olduğu gerçeğini örtük olarak kabul ediyoruz. Tahmin edicinin gerçeklerden uzak olma olasılığının asimptotik olarak küçük olduğunu bildiğimiz için bu yakınsama hatası ile yaşarız.


Denenmiş Deneme Editör, bunun "Rastgele değişkenlerin dizisinin hedef değere eşit olmaması olasılığı ..." okumasını gerektiğini savunuyor .
gung - Reinstate Monica

"Rasgele değişkenler dizisinin hedef değere eşit olma olasılığı asimptotik olarak düşüyor ve 0'a yaklaşıyor, ancak hiçbir zaman 0'a ulaşmıyor." MAY olmamalı mı, aslında 0 alamaz mı?
Jyotish Robin

@gung Hedef değere eşit olma olasılığı 1'e yaklaşıyor veya hedef değerlere eşit olma olasılığı 0'a yaklaşıyor. Geçerli tanım yanlış.
Undertherainbow

5

Görsel açıklamalardan hoşlanıyorsanız , bu konuda Amerikan İstatistiği'nde (aşağıda alıntı yapılan) güzel bir 'Öğretmen Köşesi' makalesi vardı. Bir bonus olarak, yazarlar öğrenmeyi kolaylaştırmak için bir R paketi dahil etmişlerdir.

@article{lafaye09,
  title={Understanding Convergence Concepts: A Visual-Minded and Graphical Simulation-Based Approach},
  author={Lafaye de Micheaux, P. and Liquet, B.},
  journal={The American Statistician},
  volume={63},
  number={2},
  pages={173--178},
  year={2009},
  publisher={ASA}
}

1

Bu son adam çok iyi açıklar. Rastgele değişkenler dizisi alırsanız Xn = 1, olasılık 1 / n ve sıfır olabilir. Olasılıkta bunun sıfıra yakınsadığı, ancak neredeyse kesin bir şekilde birleşemediği için limit almak zor. Dediği gibi, olasılık yolda bir tane bulabileceğimizi umursamıyor. Neredeyse kesinlikle öyle.

Neredeyse kesinlikle olasılıkta yakınsama anlamına gelir, ancak diğer türlü bu değil mi?


5
Siteye hoş geldiniz @ Tim-Brown, burada soruları yanıtlarken yardım ettiğiniz için teşekkür ederiz. Unutulmaması gereken bir şey, cevabın kullanıcı adıyla diğer cevapları belirlemenin en iyisi olduğu, "bu son erkek" çok etkili olmayacağı. Örneğin, insanlar oy verirken liste zaman içinde yeniden sıralanacak. SSS bölümümüzü okumak isteyebilirsiniz .
gung - Reinstate Monica

0

Farkı kavramamda bana yardımcı olan bir şey, aşağıdaki denklik.

ϵ > 0P(limn|XnX|=0)=1⇐⇒limn(supm>=n|XmX|>ϵ)=0 ϵ>0

Karşılaştırma yaparken stokastik yakınsama:

ϵ > 0limnP(|XnX|>ϵ)=0 ϵ>0

Üst denklemin sağ tarafını stokastik yakınsama ile karşılaştırırken farkın daha netleştiğini düşünüyorum.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.