İki rastgele değişken ve Y ile ilişkisiz ise, X ^ 2 ve Y'nin ilişkisiz olduğunu da bilebilir miyiz ? Hipotezim evet.
ilişkisiz olan anlamına gelir veya
Bu aynı zamanda aşağıdaki anlamına mı geliyor?
İki rastgele değişken ve Y ile ilişkisiz ise, X ^ 2 ve Y'nin ilişkisiz olduğunu da bilebilir miyiz ? Hipotezim evet.
ilişkisiz olan anlamına gelir veya
Bu aynı zamanda aşağıdaki anlamına mı geliyor?
Yanıtlar:
Hayır. Bir karşı örnek:
eşit şekilde , üzerine dağılmasına izin verin .[ - 1 , 1 ] , Y = X 2
Sonra ve ayrıca ( tek işlevlidir), bu nedenle birbiriyle ilişkili değildir.e [ X -Y ] = E [ x 3 ] = 0 x 3 x , Y,
Fakat
Son eşitsizlik, Jensen eşitsizliğinden kaynaklanıyor. Ayrıca, aslında aşağıdaki yana sabit değildir.X
Muhakemenizdeki sorun ya da tam tersine bağlı olabileceğidir , bu eşitliğiniz geçersizdir. y
Bile , sadece o mümkündür X 2 ve Y ilişkilidir, ancak onlar bile mükemmel olan, ilişkili olabilir Corr ( X 2 , Y ) = 1 :
> x <- c(-1,0,1); y <- c(1,0,1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] 1
Veya :
> x <- c(-1,0,1); y <- c(-1,0,-1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] -1
Eğer okuyamaz R kodu , birinci örnek, iki rasgele değişkenler göz önüne alınarak eşdeğerdir ve Y, öyle ki aa ortak dağılımı ile ( X , Y ) eşit ölçüde muhtemel olmaktır ( - 1 , 1 ) , ( 0 , 0 ) ve ( 1 , 1 ) . Mükemmel negatif korelasyonlu örnekte, ( X , Y ) , eşit olması muhtemeldir ( - 1 , - 1 , ( 0 , 0 ) veya ( 1 , - 1 ) .
Bununla birlikte, aynı zamanda gerçekleştirebilmesi ve Y, bu tür Corr ( x 2 , Y ) = 0 , tüm uç mümkündür, böylece:
> x <- c(-1,-1,0,1,1); y <- c(1,-1,0,1,-1)
> cor(x,y)
[1] 0
> cor(x^2,y)
[1] 0
Muhakemenizdeki hata, hakkında şunu yazmanızdır : E [ h ( X , Y ) ] = ∫ sa ( x , y ) f X ( x ) f Y ( y ) d x d Y ise genel olarak E [ h ( x , Y ) ] = ∫ h