Dağılımda yakınsama ve olasılıkta yakınsamaların sezgisel açıklaması


26

Olasılıkta birleşen bir rassal değişken ile dağılımda birleşen bir rastgele değişken arasındaki sezgisel fark nedir ?

Çok sayıda tanım ve matematiksel denklem okudum, ancak bu gerçekten yardımcı olmuyor. (Lütfen aklınızda bulundurun, ekonometri okuyan bir lisans öğrencisiyim.)

Rasgele bir değişken nasıl tek bir sayıya, aynı zamanda bir dağılıma nasıl yakınlaşabilir?


1
"Nasıl olabilir bir rasgele değişken için yakınsama bir tek sayı değil aynı zamanda yakınsama bir dağıtım?" - Sanırım karışıklığınızın genel olarak RV'lerin tek bir sayıya mı yoksa bütün bir dağılıma mı dönüşebileceğini açıklamaktan faydalanacağınızı düşünüyorum. veya karışıklığınızın tek bir RV'nin bir yakınsama moduna göre bir sabite nasıl yaklaşabileceği, başka bir yakınsama moduna göre bir dağılıma nasıl yaklaşabileceğidir.
Silverfish

1
@CloseToC gibi Bir yandan nın "asimptotik olarak normal" olduğu söylenen regresyonlarla karşılaşıp yaşamadığınızı merak ediyorum , diğer yandan size gerçek yakınsadığı söyleniyor . p pβ^β
Silverfish

@ Silverfish, aslında ben yok!
nicefella

Yanıtlar:


25

Rasgele bir sayı sabite nasıl yakınlaşır?

Diyelim ki kutuda top var . Bunları birer birer seçebilirsiniz. Siz topları seçtikten sonra size şunu soruyorum: Kutuda topların ortalama ağırlığı nedir? En iyi cevabınız . rastgele değer olduğunun farkında ? Bu hangi bağlıdır öncelikle aldı topları.N k ˉ x k = 1N-kk k i = 1 xi ˉ x kkx¯k= 1kΣki = 1xbenx¯kk

Şimdi, topları çekmeye devam ederseniz, bir noktada kutuda hiç top kalmaz ve .ˉ x Nμx¯N-μ

Yani, sahip olduğumuz rastgele sıra; sabitine yaklaşır. . Dolayısıyla, sorununuzu olasılıkta yakınsama ile anlamanın anahtarı , belli bir şekilde inşa edilen bir dizi rastgele değişkenden bahsettiğimizin farkına varmaktır .ˉ x 1,, ˉ x k,, ˉ x N, ˉ x N, ˉ x N, ˉ x N=μ

x¯1, , X¯k, , X¯N-, x¯N-, x¯N-,
x¯N-= μ

Sonra, ve rasgele sayıların olduğu sayılarını . rasgele dizisine burada . tüm terimler rastgele değerlerdir çünkü rastgele bir değerdir. Ne olacağını ne olacağını tahmin . Ancak, olasılık dağılımlarının standart normal gibi daha fazla görüneceğini iddia edebileceğimiz ortaya çıktı . Dağılımlar böyle birleşiyor.e 1 , e 2 , e i[ 0 , 1 ] ξ 1 , ξ 2 , ξ k = 1e1, e2, eben[ 0 , 1 ]ξ1, ξ2, k12ki=1(ei-12 )ξkξkξkN(0,1)ξk= 1k12Σki = 1( eben- 12)ξkξkξkN-( 0 , 1 )


1
N'ye ulaştıktan sonra ilk örnekte rastgele değişkenlerin sırası nedir? Limit nasıl değerlendirilir?
ekvall

Bu sadece bir sezgi. Sonsuz kutuyu hayal edin, bu nedenle, tahminci , popülasyon ortalaması birleşir . ˉ xμx¯μ
Aksakal

21

Bu sorunun bir okuyucusunun rastgele değişkenlerden bağımsız olarak bir şeyin yakınsaması hakkında ne kadar sezgisi olabileceği açık değil, bu yüzden cevabı "çok az" gibi yazacağım. Yardımcı olabilecek bir şey: " rastgele bir değişkenin nasıl birleşebileceğini" düşünmektense, bir rastgele değişken dizisinin nasıl birleşebileceğini sorun. Başka bir deyişle, bu sadece tek bir değişken değil, (sonsuz uzun!) Değişkenlerin bir listesidir ve listedekiler daha sonra bir şeye yaklaşırlar. Belki tek bir numara, belki bütün bir dağıtım. Bir sezgi geliştirmek için, "daha yakın ve daha yakın" ın ne anlama geldiğini bulmamız gerekiyor. Rastgele değişkenler için bu kadar yakınsama modu olmasının nedeni , birkaç çeşit "olmasıdır.

İlk olarak, gerçek sayıların dizilerinin yakınsaklığını özetleyelim. In kullanabileceğimiz Öklit mesafesi ne kadar yakın olduğunu ölçmek için . Bir düşünün . Ardından başlar ve yaklaştığını iddia ediyorum . Açıkça oluyor yakın için , ama o kadar da doğru yaklaşırkenR | x - y | x y x n = n + 1R, | x-y|xyn =1+1n x1,xn= n + 1n= 1 + 1nx 2 ,x 3 , 2 , 3x1,x2,x3, 2 ,43 ,54 ,65 ,xn1xn1xn0.90.50.910.90.050.9x20=1.050.0510.0512 , 32, 43, 54, 65, xn1xn1xn0.9. Örneğin, üçüncü terimden itibaren, dizideki terimler , veya daha az bir mesafedir . Asıl mesele, keyfi olarak yaklaşmaları , ancak yaklaşmamaları . Dizideki hiçbir terim hiç arasında gelmez , bir sonraki terimler için bu kadar yakın kalsın. Karşıtlığı böyledir den ve daha sonraki tüm terimler içindedir arasında Aşağıda gösterildiği gibi,.0.50.910.90.050.9x20=1.050.0510.051

(N + 1) / n ila 1'in yakınsaklığı

Daha katı olabilirim ve talep terimleri içinde kalır ve kalır ve bu örnekte bunun ve sonrası terimler için doğru olduğunu bulurum . Üstelik ben seçebilirsiniz herhangi yakınlık sabit eşiği , nasıl sıkı olursa olsun (hariç , yani terim aslında varlık ) ve sonunda durum sembolik belirli bir dönem (ötesinde tüm terimler için memnun olacak: için değeri, kadar katı değeri bağlıdır0.001 1 N = 1000 s s = 0 1 | x n - x | < ϵ n > N N ϵ x n = 1 + sin ( n )0.0011N=1000ϵϵ=01|xnx|<ϵn>NNϵSeçtim). Daha sofistike örnekler için, şartın yerine getirilmesiyle ilk kez ilgilenmek zorunda olmadığımı unutmayın - bir sonraki terim koşula uymayabilir ve bu, sekans boyunca bir terim bulabildiğim sürece sorun değil. koşul yerine getirilir ve sonraki tüm terimler için geçerli kalır . Bunu, , aynı zamanda de yaklaşıyor , tekrar gölgeli.n 1ϵ=0,05xn=1+sin(n)n1ϵ=0.05

1 + sin (n) / n ile 1 arasında yakınsaklık

Şimdi ve rastgele değişkenlerin sırasını düşünün . Bu, , , ve benzeri bir RVs dizisidir . Bunun hangi anlamda kendisine yaklaştığını söyleyebiliriz ?X ~ U ( 0 , 1 ) X, N = ( 1 + 1XU(0,1)n )XX1=2XX2=3Xn=(1+1n)XX1=2X2 XX3=4X2=32X3 XXX3=43XX

Yana ve dağılımları, sadece tek sayılar değil, koşul vardır şimdi bir olay : sabit bir ve için bile bu olabilir veya olmayabilir . Onun karşılanma olasılığını göz önünde bulundurmak, olasılıkta yakınsamaya yol açar . İçin tamamlayıcı olasılık isteyen - sezgisel olasılığı (en azından göre biraz farklıdır için) - için yeterince büyük, keyfi olarak küçükX n X | X n - X | < ϵ n ϵ X n p X P ( | X n - X |ϵ ) X n ϵ X n ϵ P ( | X 1 - X |ϵ ) P ( | X 2 - X |ϵ ) P ( | XXnX|XnX|<ϵnϵXnpXP(|XnX|ϵ)XnϵXn . Sabit bir bu, bir dizi olasılık ortaya , , , , ve eğer bu olasılıklar dizisi sıfıra yaklaşırsa (bizim örneğimizde olduğu gibi) o zaman olasılıkta yaklaştığını söyleriz . Olasılık sınırlarının genellikle sabit olduğuna dikkat edin: örneğin, ekonometrikteki gerilemelerde, örnek boyutunu artırdıkça görüyoruz . Fakat buradaϵP(|X1X|ϵ)P(|X2X|ϵ)3 - X | ε ) ... x N x Plim ( β ) = β n Plim ( X , n ) = X ~ u ( 0 , 1 ) X, N x X , n X ε nP(|X3X|ϵ)XnXplim(β^)=βnplim(Xn)=XU(0,1). Değerine bağlı olarak olasılığının düşük olması olasılığı araçlarında yakınsama ve belirli gerçekleşme çok farklı olur - ve olasılığını yapabilirsiniz ve daha öteye olmak kadar uzun bir seçim, ben gibi ayrı küçük olarak yeterince büyük .XnXXnXϵn

yaklaştığı farklı bir anlam , dağılımlarının gittikçe birbirine benzemesidir. Bunu CDF'lerini karşılaştırarak ölçebilirim. Özellikle, bazı çekme hangi sürekli (bizim örneğimizde kendi CDF her yerde sürekli ve herhangi bir çok yapacak) ve değerlendirme dizisinin CDFs orada. Bu, başka bir olasılıklar dizisi üretir: , , , ve bu dizi yakınlaşır . CDF'ler değerlendirildiX, n, X, X F x ( X ) = P ( x x ) X ~ U ( 0 , 1 ) x X , n P ( x 1x ) P ( x 2X ) P ( x 3x ) ... P ( X x ) x X n X x xXnXxFX(x)=P(Xx)XU(0,1)xXnP(X1x)P(X2x)P(X3x)P(Xx)x her biri için keyfi yakın CDF haline değerlendirildi de . Bu sonuç hangi seçtiğimizden bağımsız olarak doğruysa , dağılımda yakınsar . Bunun burada gerçekleştiği ortaya çıkıyor ve ihtimalinde yakınsama, dağılımda yakınsama anlamına geldiğinden şaşırmamalıyız . Unutmayın ki , olasılıkta belirli bir dejenere olmayan dağılıma, fakat dağılımda bir sabite yakınsayana yakınsayabilir.XnXxxX n X X X X nXnX XXXn (Asıl sorudaki muhtemelen kafa karışma noktası hangisidir? Ancak daha sonra açıklamalara dikkat edin.)

Farklı bir örnek için, . Şimdi bir dizi RV var, , , , ve olasılık dağılımının bir çiviye dönüştüğü açıktır . Şimdi dejenere dağılımını düşünün, bunun anlamı . Herhangi bir , sıfıra, böylece in ' ye olasılıkla yakınsadığını görmek . Sonuç olarak,Y nU ( 1 , n + 1n )Y1U(1,2)Y2U(1,3)YnU(1,n+1n)Y1U(1,2)2 )Y,3~u(1,4Y2U(1,32)3 )...y=1, Y=1, P(Y=1)=1ε>0P(|Y, n-Y|ε)Y, n, Y, Y, n, YF, Y(Y), Y-Y=1yP(Y1y)P(Y2y)Y3U(1,43)y=1Y=1P(Y=1)=1ϵ>0P(|YnY|ϵ)YnYYnCDF'leri göz önünde bulundurarak onaylayabileceğimiz dağıtımda yakınsamalı . CDF yana arasında de kesintilidir o değerde değerlendirildi cdfs dikkate gerekmez, ancak başka herhangi bir değerlendirilen TDF için görebiliriz dizi , , , için yakınsak için sıfır ve için bir . Bu kez, RVs dizisi olasılıkta bir sabite yakınsadığı için dağılımda bir sabite de yakınsadı.YFY(y)Yy=1yP(Y1y)P(Y2y)P ( Y 3y ) ... P ( Y y ) y < 1 y > 1P(Y3y)P(Yy)y<1y>1

Bazı son açıklamalar:

  • Olasılıkta yakınsama dağılımda yakınsama anlamına gelse de, genel olarak konuşma yanlıştır. İki değişkenin aynı dağılıma sahip olması, birbirlerine yakın olmaları gerektiği anlamına gelmez. Önemsiz bir örnek için, ve . Daha sonra, ve her ikisi de aynı dağılıma sahiptir (her biri sıfır veya bir olma% 50 şansı) ve dizisi yani giden dizi, sırayla dağıtımda dönüşür ( Sekanstaki herhangi bir pozisyonda CDF, ) ' nin CDF'si ile aynıdır . Ama veX ~ Bernouilli ( 0.5 ) , Y = 1 - X X -Y X , n = x X , X , X , X , ... Y -Y , Y x P ( | X N - Y |0.5 ) = 1 X , n , YXBernouilli(0.5)Y=1XXYXn=XX,X,X,X,YYYXdaima birbirinden ayrıdır, bu nedenle böylece sıfıra meyilli olmaz, bu nedenle olasılıkla yaklaşmaz . Bununla birlikte, dağılımda bir sabite yakınsama varsa , o zaman bu sabite olan olasılıkta yakınsama anlamına gelir (sezgisel olarak, bu sıradan daha da sabit olma olasılığı düşük olacaktır).P(|XnY|0.5)=1XnY
  • Örneklerimin açıkça ifade ettiği gibi, olasılıktaki yakınlaşma bir sabit olabilir, ancak olması gerekmez; dağılımdaki yakınsama da sabit olabilir. Olasılıkta bir sabite yakınsama yapmak mümkün değildir, fakat dağılımda belirli bir dejenere olmayan dağılıma yakınsama yapmak veya tam tersi mümkün değildir.
  • Eğer, örneğin, bir diziyi söylendi bir örnek gördüm mümkün mü tümleşik başka diziyi ? Bunun bir dizi olduğunu farketmemiş olabilirsiniz, ancak teslim alma, bağlı bir dağıtım olsaydı da olur . Her iki dizinin bir sabite yakınsak olması (yani dejenere dağılım) olabilir. Sorunuz, belirli bir RV dizisinin hem sabit hem de dağılıma nasıl birleşebileceğini merak ediyor; Açıkladığınız senaryonun bu olup olmadığını merak ediyorum.X, n, Y, n, n-Xn Ynn
  • Mevcut açıklamam çok "sezgisel" değil - Sezgiyi grafiksel yapmak istiyordum, ancak RV'lere grafik eklemek için zamanım olmadı.

16

Aklımda, mevcut cevapların hepsi yararlı noktaları ifade ediyor, ancak iki yakınsama modu arasında önemli bir ayrım yapmıyorlar.

, ve rasgele değişkenler olmasına izin verin . Sezgi için, değerlerine, her için biraz değişen, sonsuz rastgele değişken dizisi veren ve başka bir rastgele deney tarafından atanan değerini aldığını varsayan, rastgele bir deney tarafından atandığını hayal edin .X, n , n = 1 , 2 , ... , Y X , n , n -YXnn=1,2,YXnnY

Eğer , tanım gereği, ve birbirinden keyfi bir şekilde küçük bir miktar tarafından farklı olma ihtimalinin, sizin kadar küçük bir miktar için sıfıra yaklaştığını biliyoruz. sevmek. Gevşekçe konuşursak, dizisinin çok dışında, ve birbirine çok yakın değerler alacağına eminiz .X n p Y Y X n n X n X n YXnpYYXnnXnXnY

Biz sadece olasılık yakınlaşma dağıtımında ve yakınlaşma varsa Öte yandan, o zaman büyük için biliyoruz , neredeyse aynıdır hemen hemen her için, . Bunun, ve değerlerinin birbirine ne kadar yakın olduğu hakkında bir şey söylemediğini unutmayın . Örneğin, eğer ve dolayısıyla de büyük için bu şekilde dağıtılmışsa , ve değerlerinin sezgisel olarak muhtemel göründüğün P ( X nx ) P ( Y x ) x X n Y Y N ( 0 , 10 10 ) X n n X n Y N ( 0 , 10 10 )nP(Xnx)P(Yx)xXnYYN(0,1010)XnnXnYHerhangi bir gözlemde oldukça farklılık gösterecektir. Sonuçta, dağıtımda yakınsama dışında herhangi bir kısıtlama yoksa, tüm pratik nedenlerden dolayı bağımsız değişkenleri olabilir.N(0,1010)

(Bazı durumlarda, ve karşılaştırmak bile mantıklı gelmeyebilir , belki de aynı olasılık alanı üzerinde tanımlanmadı bile. Bu, daha teknik bir not.)X, n, Y,XnY


1
(+1) değişmesine bile gerek yok - cevabımı buna biraz detay ekleyecektim ama buna dayanarak uzunluğa dayanarak karar verdim. Ama bence yapmaya değer bir nokta. X nXn
Silverfish

12

Anlamadığım şey, rastgele bir değişkenin tek bir sayıya nasıl birleşebildiğini, aynı zamanda bir dağılıma nasıl birleşebileceğini?

Ekonometri öğreniyorsanız, muhtemelen bunu bir regresyon modeli bağlamında merak ediyorsunuz. Bir dejenere dağılıma, bir sabite yaklaşır. Fakat başka bir şeyin dejenere olmayan sınırlayıcı bir dağılımı vardır.

Β nβN β nnPβ^n olasılık yakınsar gerekli varsayımlar karşılanırsa. Bunun anlamı, yeterince büyük bir örneklem büyüklüğü seçerek , tahmin edicinin gerçek parametreye istediğimiz kadar yakın olacağı ve olasılık istediğimizden daha küçük olabileceği anlamına gelir. Eğer histogram planlamakla düşünürsek çeşitli için , sonunda sadece bir başak merkezli olacak .βNβ^nnβ

hangi anlamda dağıtımda birleşir? Aynı zamanda bir sabite yakınsak. Normal dağılımlı rastgele değişkenlere değil. varyansını hesaplarsanız, küçüldüğünü görürsünüz . Bu yüzden nihayetinde yeterince cinsinden sıfıra gidecektir , bu nedenle tahmin edicinin bir sabittir. Normal dağılmış rastgele değişkene yakınsaklık nedirΒ n β n, n, nβ^nβ^nnn

N ( β N-β)nN(0,σ2) β nn(β^nβ) . Bunun farkını alırsanız, ile büzülmediğini (ya da büyüymediğini) göreceksiniz . Çok büyük numunelerde, standart varsayımlar altında bu yaklaşık . Daha sonra bu yaklaşımı , bu büyük örnekteki dağılımına yaklaşmak için kullanabiliriz .nN(0,σ2)β^n

Fakat haklısın ki in sınırlayıcı dağılımı da sabittir.β nβ^n


1
Buna " büyüteçle ", büyütme ile oranında artan bir büyüteçle bakın . ^ β n nβn^nnn
kjetil b halvorsen

7

Bazı çok basit örnekler kullanarak, çok kısa bir cevap vermeye çalışayım.

Dağılımda yakınsaklık

Let her n için, daha sonra yakınsak için dağıtım. Bununla birlikte, gerçekleştirilmesindeki rastgelelik zamanla değişmez. değerini tahmin etmek zorunda kalırsak, beklentisi zaman içinde değişmez.X, n ~ N ( 1n ,1)X,Nx~N(0,1)X,NxNXnN(1n,1)XnXN(0,1)XnXn

Olasılıkta yakınsaklık

Şimdi, olasılık değeri ve olan, değerini alan rastgele değişkenini . As sonsuza gider, biz daha emin olan eşit olacaktır . Dolayısıyla, biz demek için olasılık yakınsar . Bu da ima unutmayın dağılımda yakınlaşıyor .Y n 0 1 - 1Yn0n 1nYn0Yn0Yn011n1nYn

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.