Neden kovaryans tahmincisinin paydası n-1 yerine n-2 olmasın?


36

(Tarafsız) varyans tahmincisi paydası olan n1 olduğu gibi n gözlemler ve sadece bir parametre tahmin ediliyor.

V(X)=i=1n(XiX¯)2n1

Aynı şekilde , iki parametre tahmin edilirken neden kovaryans paydasının olması gerektiğini merak ediyorum n2?

Cov(X,Y)=i=1n(XiX¯)(YiY¯)n1

15
Bunu yaparsanız, varyans için birbiriyle çelişen iki tanımınız olacaktır: biri ilk formül, diğeri ile uygulanan ikinci formül olacaktır Y=X.
whuber

3
İki değişkenli / çok değişkenli bir ortalama (beklenti) 2 parametre değil birdir.
ttnphns

14
@ Ttnphns Bu doğru değil: iki değişkenli ortalama açıkça iki parametredir çünkü onu ifade etmek için iki gerçek sayı gerektirir. (Gerçekten de, tek bir vektör parametresidir, ancak bunu söylemek sadece iki bileşene sahip olduğu gerçeğini gizler.) Bu, örneğin 2 değil çıkarıldığı havuz varyansı t-testleri için serbestlik derecelerinde açıkça gösterilir 1. Ne bu soru hakkında ilginç kılan, unrigorous ve potansiyel yanıltıcı biz çıkarma dair yaygın "açıklama" ne kadar belirsiz ortaya nasıl 1 den n bir parametre tahmin edilmiştir çünkü.
whuber

@whuber, Bu konuda haklısın. Sadece olsaydı (bağımsız gözlemler) hangi biz daha fazla harcama olmaz konularda df tek değişkenli olanlardan daha çok değişkenli testlerde. n
ttnphns

3
@whuber: Belki de "parametre" olarak sayılan şeyin duruma bağlı olduğunu gösterdiğini söyleyebilirim. Bu durumda n gözlemler üzerinden varyans hesaplanır ve böylece her bir gözlem - veya toplam ortalama - ttnphns'ın söylediği gibi çok değişkenli bir ortalama olsa bile bir parametre olarak görülebilir. Bununla birlikte, örneğin bir testin doğrusal boyut kombinasyonlarını göz önüne aldığı diğer durumlarda, her bir gözlemin her bir boyutu "bir parametre" haline gelir. Bu zor bir konudur haklısın.
amip diyor Reinstate Monica

Yanıtlar:


31

Kovaryanslar olan sapmaları.

Polarizasyon kimliğinden beri

Cov(X,Y)=Var(X+Y2)Var(XY2),

paydalar aynı olmalıdır.


20

Size bir sezgi vermek için özel bir durum; aşağıdakileri düşünün:

Cov^(X,X)=V^(X)

İkincisi dolayı mutlusunuz. Bessel düzeltmesi.i=1n(XiX¯)2n1

Ancak değiştirilmesi ile in önceki için verir , peki şimdi boşluğu doldurmanın en iyi yolu ne olabilir?X ^ C o v ( X , Y ) n i = 1 ( X i - ¯ X ) ( X i - ¯ X )YXCov^(X,Y)i=1n(XiX¯)(XiX¯)mystery denominator


1
TAMAM. Ancak OP neden "cov (X, X) ve cov (X, Y) 'nin bir mantık çizgisinde olduğunu düşünmek isteyebilir? Neden Y'yi X ile cov () yerine çeviriyorsunuz? Belki cov (X, Y) farklı bir durum mu? Buna cevap vermediniz, cevabınız (son derece vurgulu), benim izlenimime göre, :-)
ttnphns 20:16

7

Hızlı ve kirli bir cevap ... İlk olarak düşünelim ; Beklenen değeri olan gözleminiz varsa varyansı tahmin etmek için kullanırsınız.n- D ( x ) = 0 1var(X)n E(X)=01ni=1nXi2

Beklenen değer olan bilinmeyen, kendi dönüştürebilir içine gözlemleri alarak bilinen beklenen değerle gözlemler için . Payda olan bir formül alacaksınız - ancak bağımsız değil ve bunu gerekecek; sonunda normal formülü bulursunuz.nn1Ai=XiX1i=2,,nn1Ai

Şimdi kovaryans durumunda aynı fikri kullanabilirsiniz: beklenen değeri ise idi , bir olsaydı formülü. Çıkarılarak diğer tüm gözlenen değerlere elde edersiniz bilinen beklenen değerle gözlemleri ... ve formülde - bir kez daha, bu tanıtır bazı bağımlılık içine almak hesap.(X,Y)(0,0)1n(X1,Y1)n11n1

PS Bunu yapmanın temiz yolu, in ortonormal bir temelini seçmek , yani vektörleri öyle ki(1,,1)n1c1,,cn1Rn

  • jcij2=1 için tüm ,i
  • jcij=0 tüm ,i
  • jci1jci2j=0 tüm .i1i2

Daha sonra değişkenlerini tanımlayabilirsiniz ve . bağımsız değeri beklenen , ve orijinal değişken ile aynı varyans / kovaryans sahiptir.n1Ai=jcijXjBi=jcijYj(Ai,Bi)(0,0)

Mesele şu ki, bilinmeyen beklentiden kurtulmak istiyorsan, bir (ve sadece bir) gözlemi bırakman. Bu her iki durumda da aynı şekilde çalışır.


6

Burada, " paydaslı p-değişken örnek kovaryans tahmin edicisinin kovaryans matrisinin tarafsız bir tahmincisi olduğuna dair bir kanıt :1n1

x=(x1,...,xp) .

Σ=E((xμ)(xμ))

S=1n(xix¯)(xix¯)

Göstermek için:E(S)=n1nΣ

İspat:S=1nxixix¯x¯

Sonraki:

(1)E(xixi)=Σ+μμ

(2)E(x¯x¯)=1nΣ+μμ

Bu nedenle:E(S)=Σ+μμ(1nΣ+μμ)=n1nΣ

Ve böylece , son payda ile tarafsızdır. köşegen dışı elemanları sizin bireysel örnek kovaryanslarınızdır.Su=nn1S1n1Su

Ek açıklamalar:

  1. N çizer bağımsızdır. Bu, (2) 'de örnek ortalamanın kovaryansını hesaplamak için kullanılır.

  2. (1) ve (2)Cov(x)=E[xx]μμ

  3. Adım (2),Cov(x¯)=1nΣ


Zorluk 2. adımda olmak! :)
Elvis,

@Elvis Dağınık. Cov (X + Y, Z) = Cov (X, Z) + Cov (Y, Z) kuralını uygulamak ve farklı çizimlerin bağımsız olduğunu kabul etmek gerekir. O zaman temelde kovaryansı n kere özetliyor ve 1 / n²
değerine indiriyor

4

Sanırım 'n-1' kullanmanın ardında sezgiyi oluşturmanın bir yolu ve 'n-2' değil - eş değişkenliği hesaplamak için hem X hem de Y'yi de tanımlamak zorunda değiliz;


Hangi paydayı kullanacağı sorusu üzerinde bunun nasıl bir etkisi olduğunu açıklayabilir misiniz? Kanıttaki cebirsel ilişki, ortalamaların sıfıra oranla göreceli olarak kalan kalıntılarının başka bir deyişle hangi payda ile ilgili olduğu konusunda sessiz kalmasından kaynaklanmaktadır.
whuber

5
Buraya geldim çünkü OP ile aynı sorum vardı. Bence bu cevap, @whuber'ın işaret ettiği noktaya dayanıyor: başparmak kuralının df ~ = n - (tahmin edilen parametreler) "belirsiz, baş döndürücü ve potansiyel olarak yanıltıcı" olabileceği yönünde. Bu, iki parametre (xbar ve ybar) tahmin etmeniz gerekmesine rağmen, gerçekten sadece bir tane (xbar veya ybar) tahmin ettiğinize işaret ediyor. Df her iki durumda da aynı olması gerektiğinden, ikisinin de altı olmalıdır. Bence buradaki amaç.
mpettis

1

1) Başlat .df=2n

2) Örnek kovaryansı, . İki kaybetmek ; biri dan, biri dan , sonuçlanır .Σi=1n(XiX¯)(YiY¯)dfX¯Y¯df=2(n1)

3) Bununla birlikte, sadece içeren , ayrı terimler, her ürünün bir. İki sayı bir arada çarpıldığında, her bir ayrı sayıdaki bağımsız bilgi kaybolur.Σi=1n(XiX¯)(YiY¯)n

Bir örnek olarak, bunu göz önünde bulundurun

24=124=212=38=46=64=83=122=241 ,

ve bu, irrasyonel ve kesirleri içermez, örneğin , böylece iki sayı serisini birlikte çarptığımızda ve ürünlerini incelediğimizde, gördüğümüz tek şey Orijinal sayıların yarısını kaybettiğimiz için bir sayı serisinden, yani, bu iki sayının çift sayı grubundan bir sayıya (yani çarpma) geçmeden önce ne olduğu idi.24=2626df=n1

Başka bir deyişle, genelliği kaybetmeden yazabilir

(XiX¯)(YiY¯)=ziz¯ , bazı ve ,ziz¯

yani, ve, . Kaynaktan sonra açıkça sahip 's, , kovaryans formül olurzi=XiYiX¯YiXiY¯z¯=X¯Y¯zdf=n1

Σi=1nziz¯n1=

Σi=1n[(XiX¯)(YiY¯)]n1=

1n1Σi=1n(XiX¯)(YiY¯) .

Böylece, sorunun cevabı gruplama ile yarıya indirgenmiş olmasıdır.df


@ whuber Nasıl olur da aynı şeyi iki kez yayınlayıp bir kez sildim? Ne verir? Onlardan birinden kurtulabilir miyiz? İleride başvurmak üzere, bu tür kopyaları kalıcı olarak silmenin bir yolu var mı? Etrafta asılı birkaç tane var ve bu can sıkıcı.
Carl

Bildiğim kadarıyla söyleyebilirim, sen buraya kopyadan cevabınızı yeniden yayınladı. (Başka hiç kimsenin sizin adınıza cevap verme yetkisi yoktur.) Sistem, birden fazla konuya aynı cevapları göndermekten kesinlikle vazgeçmez, bu yüzden bunu gördüğümde, bu iki parçanın mükemmel kopyalar olduğuna ikna oldum ve onları "birleştirdim". Bu, kaynak diziden gelen tüm yorumları ve cevapları hedef diziye taşıyan bir prosedürdür. Daha sonra buradaki çift postanızı hedef dizinde sildim. Kalıcı olarak silinmeye devam eder, ancak sizin ve yeterince yüksek üne sahip kişilerin size görüneceği bir şey olacaktır.
whuber

@whuber Bir birleşmede ne olduğunu, bir birleşmenin gerçekleştiğini veya sürekli olarak bir şeyler aramasına rağmen kuralların çoğunun ne olduğunu bilmiyordum. Bu alarak düşünürdünüz ve ödeyecekleri olmak, hastayı öğrenmek zaman alır stats.stackexchange.com/questions/251700/... kapalı Hold?
Carl,
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.