Yorumlarda Procrastinator'ın bağlantısında (+1) olduğu gibi koşullu yoğunluğu kaba kuvvetle açıkça hesaplayarak kanıtlayabilirsiniz. Ancak, çok değişkenli normal dağılımın tüm koşullu dağılımlarının normal olduğunu söyleyen bir teorem var. Bu nedenle, geriye kalan tek şey ortalama vektör ve kovaryans matrisini hesaplamak. Bunu, üniversitedeki bir zaman serisi sınıfında üçüncü bir değişkeni zekice tanımlayarak ve sonucunu bağlantıdaki kaba kuvvet çözümünden daha basit bir şekilde türetmek için kullanarak (matris cebirinde rahat olduğunuz sürece) kullanarak türettiğimizi hatırlıyorum. Bellekten gidiyorum ama böyle bir şeydi:
Let olmak ilk bölüm ve ikinci. Şimdi tanımlayın burada . Şimdi yazabilirizx1x2z=x1+Ax2A=−Σ12Σ−122
cov(z,x2)=cov(x1,x2)+cov(Ax2,x2)=Σ12+Avar(x2)=Σ12−Σ12Σ−122Σ22=0
Bu nedenle, ve birbirleriyle ilişkili değildir ve ortak normal oldukları için bağımsızdırlar . Şimdi, açıkça , bu nedenle şunu izlerzx2E(z)=μ1+Aμ2
E(x1|x2)=E(z−Ax2|x2)=E(z|x2)−E(Ax2|x2)=E(z)−Ax2=μ1+A(μ2−x2)=μ1+Σ12Σ−122(x2−μ2)
hangi ilk bölümünü kanıtlıyor. Kovaryans matrisi için, not edin
var(x1|x2)=var(z−Ax2|x2)=var(z|x2)+var(Ax2|x2)−Acov(z,−x2)−cov(z,−x2)A′=var(z|x2)=var(z)
Şimdi neredeyse bitti:
var(x1|x2)=var(z)=var(x1+Ax2)=var(x1)+Avar(x2)A′+Acov(x1,x2)+cov(x2,x1)A′=Σ11+Σ12Σ−122Σ22Σ−122Σ21−2Σ12Σ−122Σ21=Σ11+Σ12Σ−122Σ21−2Σ12Σ−122Σ21=Σ11−Σ12Σ−122Σ21
bu ikinci kısmı kanıtlıyor.
Not: Burada kullanılan matris cebirine aşina olmayanlar için bu mükemmel bir kaynaktır .
Düzenleme: Burada kullanılan bir özellik bu matris yemek kitabında (iyi catch @FlyingPig) kovaryans matrisleri hakkında wikipedia sayfasındaki özellik 6'dır: ki bu iki rastgele vektör için budur , Elbette, skalerlerde, fakat vektörler için matrisler farklı şekilde düzenlendiği sürece farklıdırlar.x,y
var(x+y)=var(x)+var(y)+cov(x,y)+cov(y,x)
cov(X,Y)=cov(Y,X)