Kısa cevap, varsayımınızın verilerde pozitif sınıf içi bir korelasyon olduğu zaman ve sadece olduğunda doğrudur . Ampirik olarak konuşursak, çoğu kümelenmiş veri kümesi çoğu zaman pozitif bir sınıf içi korelasyon gösterir, yani pratikte varsayımınız doğrudur. Fakat eğer sınıf içi korelasyon 0 ise, bahsettiğiniz iki vaka eşit derecede bilgilendiricidir. Ve eğer sınıf içi korelasyon negatifse , o zaman daha fazla konuda daha az ölçüm almak aslında daha az bilgilendiricidir ; aslında tüm ölçümlerimizi tek bir konu üzerinde almayı tercih ediyoruz (parametre tahmininin varyansını azaltmak söz konusu olduğunda).
İstatistiksel olarak, bunun hakkında düşünebileceğimiz iki perspektif var: Sorunuzda bahsettiğiniz rastgele etkiler (veya karışık ) bir model veya burada biraz daha bilgilendirici olan biten marjinal bir model .
Rasgele etkiler (karışık) model
Biz bir dizi var ki attık aldığınız konularda m ölçümleri her. Daha sonra basit bir rastgele etki modeli j th ölçüm i inci konu olabilir
y i j = β + u i + e i j , β , sabit mesafesidir u ı varyans ile rastgele konusu etkisi (bir σ 2 u ), e i j gözlem seviyesi hata terimidir ( σ 2 e varyansı ilenmji
yij=β+ui+eij,
βuiσ2ueijσ2e) ve son iki rasgele terim bağımsızdır.
Bu modelde popülasyon ortalamasını temsil eder ve dengeli bir veri kümesiyle (yani, her denekten eşit sayıda ölçüm), en iyi tahminimiz basitçe örneklem ortalamasıdır. Dolayısıyla, bu tahmin için daha küçük bir varyans anlamına gelmek üzere "daha fazla bilgi" alırsak, temel olarak örnek ortalamasının varyansının n ve m'ye bağlı olduğunu bilmek isteriz . Cebir ile biraz bunun üzerinde çalışabilir
Var ( 1βnm
Bu ifadeyi inceleyerek,ne zaman bir konu varyansı varsa(yani,σ2u>0), konu sayısını (n) arttırmanın bu terimin her ikisini de daha küçük yapacağını, konu başına ölçüm sayısını artıracağını görebiliriz (m) sadece ikinci terimi daha küçük hale getirecek. (Bunun, çok siteli çoğaltma projeleri tasarlamaya yönelik pratik bir uygulaması için,bir süre önce yazdığım bu blog gönderisinebakın.)
var ( 1n mΣbenΣjyben j)= var ( 1n mΣbenΣjβ+ uben+ eben j)= 1n2m2var ( ∑benΣjuben+ ∑benΣjeben j)= 1n2m2( m2Σbenvar ( uben) + ∑benΣjvar ( eben j) )= 1n2m2( N- m2σ2u+ n m σ2e)= σ2un+ σ2en m.
σ2u> 0nm
Şimdi toplam gözlem sayısını sabit tutarken veya n'yi arttırdığımızda veya azalttığımızda ne olacağını bilmek istediniz . Bu yüzden düşünün için n m , sabit olmak çok bütün varyans ifadesi gibi görünüyor
σ 2 umnn mn
mümkünolduğu kadar büyükolduğunda mümkün olduğu kadar küçük(en fazlan=nm'ye kadar, bu durumdam=1, yani her denekten tek bir ölçüm yapacağız).
σ2un+ sabit ,
nn = n mm = 1
Kısa cevabım sınıf içi korelasyona işaret ediyordu, peki bu neye uyuyor? Bu basit rastgele etkiler modelinde içi sınıf korelasyonu
(buradabir türev taslağı). Böylece yukarıdaki varyans denkleminivar(1olarak yazabiliriz).
ρ = σ2uσ2u+ σ2e
Bu, daha önce gördüğümüze gerçekten bir içgörü katmıyor, ama bizi meraklandırıyor: sınıf içi korelasyon bir iyi niyetli korelasyon katsayısı ve korelasyon katsayıları olduğu için negatif olabilir, eğer sınıf içi korelasyon negatif olsaydı ne olurdu (ve ne anlama gelirdi)?
var ( 1n mΣbenΣjyben j) = σ2un+ σ2en m= ( ρn+ 1 - ρn m) (σ2u+ σ2e)
Rastgele etkiler modeli bağlamında, negatif bir sınıf içi korelasyon gerçekten mantıklı gelmez, çünkü dengesindeki varyansın bir şekilde negatif olduğu anlamına gelir ( yukarıdaki ρ denkleminden görebileceğimiz gibi ve açıklandığı gibi). burada ve burada ) ... ama varyanslar negatif olamaz! Ancak bu , sınıf içi negatif bir ilişki kavramının bir anlam ifade etmediği anlamına gelmez ; bu sadece rastgele etki modelinin, kavramın değil, modelin başarısızlığı olan bu kavramı ifade etmenin bir yolunun olmadığı anlamına gelir. Bu kavramı yeterince ifade etmek için marjinal modeli göz önünde bulundurmamız gerekir.σ2uρ
Marjinal model
Bu aynı veri kümesi için biz bir sözde marjinal modelini düşünebiliriz ,
y i j = β + e * i j ,
temelde rastgele konu etkisi itti ettik u i hata terimi içine önce gelen e i j böylece sahip olduğumuz e * i j = u ı + e i j . Rastgele etki modelinde iki rasgele terimleri kabul u i ve e i j olmakyben j
yben j= β+ e*ben j,
ubeneben je*ben j= uben+ eben jubeneben jIID , fakat marjinal modelinde yerine dikkate
bir blok-köşegen kovaryans matrisi takip
C gibi
Cı- = σ 2 [ R 0 ⋯ 0 0 R ⋯ 0 ⋮ ⋮ ⋱ ⋮ 0 0 ⋯ R ] , R = [ 1 ρ ⋯ ρ ρ 1 ⋯ ρ ⋮ ⋮ ⋱ ⋮ ρ ρ ⋯ 1 ]e*ben jCC = σ2⎡⎣⎢⎢⎢⎢⎢R,0⋮00R,⋮0⋯⋯⋱⋯00⋮R,⎤⎦⎥⎥⎥⎥⎥, R = ⎡⎣⎢⎢⎢⎢⎢1ρ⋮ρρ1⋮ρ⋯⋯⋱⋯ρρ⋮1⎤⎦⎥⎥⎥⎥⎥
Yani bu araçlar marjinal model altında biz sadece düşünün
ikisi arasında beklenen ilişki olması
e * Aynı konudan s (biz denekler arasında korelasyon 0 olduğunu varsayalım).
Ρ pozitif olduğunda , aynı denekten çizilen iki gözlem, deneklerden dolayı kümelenmeyi göz ardı ederken, veri kümesinden rastgele alınan iki gözlemden ortalama olarak birbirine daha yakın olma eğilimindedir. Tüm
ρ olan
negatif , aynı konuda çekilen iki gözlem olma eğilimi
daha az tamamen rastgele çizilen iki gözlem göre ortalama (daha da ayrı) benzer. (
Burada bu yorumlama hakkında daha fazla bilgi
/ soru burada / cevaplarρe*ρρ.)
var ( 1n mΣbenΣjyben j)= var ( 1n mΣbenΣjβ+ e*ben j)= 1n2m2var ( ∑benΣje*ben j)= 1n2m2( n ( mσ2+ ( m2- m ) ρ σ2) )= σ2( 1+(m-1)ρ )n m= ( ρn+ 1 - ρn m) σ2,
rastgele etkiler modeli için yukarıda türettiğimiz aynı varyans ifadesidir, sadece
σ2e+ σ2u= σ2, yukarıdaki notumuzla uyumlu
e*ben j= uben+ eben j. Bu (istatistiksel olarak eşdeğer) bakış açısının avantajı, burada negatif bir konu varyansı gibi tuhaf kavramları çağırmaya gerek kalmadan negatif bir sınıf içi korelasyon düşünebilmemizdir. Negatif sınıf içi korelasyonlar bu çerçevede doğal olarak uyuyor.
(BTW, yukarıdaki türetme işleminin ikinci-son çizgisinin bizim olması gerektiği anlamına geldiğini belirtmek için kısa bir süre) ρ ≥ - 1 / ( m - 1 ), ya da tüm denklem negatif, ancak varyans olumsuz olamaz! Bu nedenle, küme başına kaç ölçüm yaptığımıza bağlı olan sınıf içi korelasyon üzerinde daha düşük bir sınır vardır. İçinm = 2 (yani, her konuyu iki kez ölçüyoruz), sınıf içi korelasyon tamamen aşağı inebilir ρ = - 1; içinm = 3 sadece aşağı gidebilir ρ = - 1 / 2; ve bunun gibi. Eğlenceli gerçek!)
Sonunda, toplam gözlem sayısını göz önüne alarak bir kez daha n m sabit olmak gerekirse, yukarıdaki türevin ikinci-son çizgisinin aynı gözüktüğünü görüyoruz.
( 1+(m-1)ρ ) ×pozitif sabit.
Öyleyse ne zaman
ρ > 0, sahip
mmümkün olduğu kadar küçük (böylece daha fazla konunun daha az ölçümünü alalım - sınırda her konunun 1 ölçümü), tahminin mümkün olduğunca küçük olmasını sağlar. Ama ne zaman
ρ < 0, aslında istiyoruz
mmümkün olduğu kadar
büyük olmak (böylece
n mvaryansı olabildiğince küçük yapmak için tek bir denekten alınan ölçümler). Ve ne zaman
ρ = 0, tahminin varyansı sadece bir sabittir, bu yüzden tahsisatımız
m ve
n önemli değil.