Eğer


10

Sürekli bir rasgele değişken için , eğer sonlu dir, ?XE(|X|)limnnP(|X|>n)=0

Bu, internette bulduğum bir sorun, ancak tutup tutmadığından emin değilim.

Bunu biliyorum Markov eşitsizliği tarafından tutan, ama ben gibi 0'a gider gösterilemez sonsuza gider.nP(|X|>n)<E(|X|)n


8
(1) Süreklilik gerekli değildir. (2) Beklentiyi hayatta kalma fonksiyonunun bir bütünlüsü olarak ifade edin . (3) Tartışmayı düşünün: sıfır olmayan bir sınır beklentiyle ilgili ne ifade eder? Pr(|X|>n)
whuber

@whuber güzel egzersiz! Sanırım doğru bir cevabım var, ama bu böyle göründüğünden self-study, buraya yazmam gerektiğini sanmıyorum. Özel bir sohbet odası oluşturabilir ve size çözümümü gösterebilir miyim, böylece doğru olup olmadığını bana söyleyebilir misiniz?
DeltaIV

1
@Delta Bu, cevabınızı göndermenin bana iyi geldiği bir durum: OP'nin belirli bir alt sorusu var ve sadece ödev cevapları için trolling gibi görünmüyor.
whuber

@whuber bu bana doğal sayılar üzerinde tekdüze bir dağılımın olmadığını hatırlatıyor - bu, burada sürekliliğe ihtiyaç duyulmamakla birlikte, sayılabilir katkıların olduğu anlamına mı geliyor?
Bill Clark

Yanıtlar:


10

in yalnızca büyük değerlerini koruyarak tanımlanan rasgele değişkenlerin sırasına bakın. :Bu açık olduğunu , böylece Not olduğunu veher biri için . Böylece (1) 'in LHS'si hakim yakınsama ile sıfıra eğilimlidir .{Yn}|X|

Yn:=|X|I(|X|>n).
YnnI(|X|>n)
(1)E(Yn)nP(|X|>n).
Yn0|Yn||X|n

Sanırım son cümlede "RHS" demek istedin, yoksa iyi iş çıkardın!
jbowman

@jbowman, hakim yakınsama teoremiyle anlamına gelir ( sadece bu sonuca ulaşmak için yeterli olmadığını unutmayın ). Vikipedi'de EYn0Yn0
DCT'ye

@ P.Windridge - Yeterince dikkatle okumadım ve “So LHS” yi önceki cümle yerine 1 denklemiyle ilişkilendirdim. Benim hatam.
jbowman

rastgele bir değişken olduğunu unutmayın . ne anlamda ? YnYn0
YHH

@ YHH Yakınsama noktasaldır: Her , , . ωYn(ω)0n
grand_chat

3

Sürekli rastgele değişken için bir cevap verebilirim (kesinlikle daha genel bir cevap var). Let:Y=|X|

E[Y]=0yfY(y)dy=0nyfY(y)dy+nyfY(y)dy0nyfY(y)dy+nnfY(y)dy=+n(FY()FY(n))=+n(1FY(n))=0nyfY(y)dy+nP(Y>n)

Böylece

0nP(Y>n)(E[Y]0nyfY(y)dy)

Şimdi, hipotez sonlu olduğu için,E[Y]

limn(E[Y]0nyfY(y)dy)=E[Y]limn0nyfY(y)dy=E[Y]E[Y]=0

Sonra

limnnP(Y>n)=0

sandviç teoremi ile.


WWridge, hakim yakınsama teoremini kullanmamın da doğru olup olmadığını kontrol edebilir misiniz? Bir miktar sahip Bu şekilde, sınırlamasına 0 olan bir miktarda daha büyük olmayan, pozitif ve bir, benim uygulamada teoremi. TeşekkürlernP(Y>n)limnnP(Y>n)=0
DeltaIV

2
@ DeltaIV- önce, açıklığa kavuşturmak için, " ve ima " baskın yakınsama teoremi DEĞİLDİR (genellikle sandviç teoremi denir). anbncnan,cnlbnl
P.Windridge

1
@ DeltaIV- hayır, DCT'ye ihtiyacınız yok, MCT yeterlidir ( olasılığını içerir , ancak diyemezsiniz. !)EY=EYEY==0
P.Windridge

1
Sorun değil. Btw, varsayımıyla sonlu olduğunu biliyorum , sadece bu varsayımı nerede kullandığınızı açıklıyordum (MCT'nin kendisi, DCT'nin aksine, @grand_chat kullanılan ve umarım baktınız :)). E[Y]
P.Windridge

1
@ P.Windridge ah, tamam! MCT'nin varsayımı gerektirmediğini fark etmedim. DCT'ye bir göz attım, bu yüzden kanıtım için ona ihtiyacım olmadığını düşündüm :) Üniversitede Lebesgue entegrasyonu hakkında öğretilmemenin bedelini ödüyorum ... bu nedenle alışkınım ölçü hesabı yerine pdfs cinsinden olasılık hesabı yapar.
DeltaIV

0

E|X|<E|X|I|X|>n0 (eşit olarak entegre edilebilir)

E|X|=E|X|I|X|>n+E|X|I|X|n

E|X|I|X|>nE|X|<

E|X|I|X|>nnEI|X|>n=nP(|X|>n)

E|X|I|X|>n0nP(|X|>n)0P(|X|>n)0

ielimnP(|X|>n)=0

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.