Karışık efekt modellerinin aynı sayıda serbestlik derecesi ile karşılaştırılması


15

Burada soyutlamaya çalışacağım bir deneyim var. Önünüzde üç beyaz taşı fırlattığımı ve onların konumları hakkında bir yargıya varmanızı istediğimi düşünün. Taşların çeşitli özelliklerini ve cevabınızı kaydediyorum. Bunu birkaç konu üzerinde yapıyorum. İki model üretiyorum. Birincisi, size en yakın taşın cevabınızı tahmin etmesi, diğeri ise taşların geometrik merkezinin cevabınızı öngörmesidir. Yani, RI'de lmer kullanmak yazabilirdi.

mNear   <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center  + (1|subject), REML = FALSE)

GÜNCELLEME VE DEĞİŞTİRME - birkaç yararlı yorumu içeren daha doğrudan sürüm

deneyebilirim

anova(mNear, mCenter)

Tabii ki yanlış, çünkü iç içe değiller ve onları gerçekten bu şekilde karşılaştıramıyorum. Anova.mer'den hata atmasını bekliyordum ama olmadı. Ama burada deneyebileceğim olası yuvalama doğal değil ve yine de beni daha az analitik ifadelerle bırakıyor. Modeller doğal olarak iç içe yerleştirildiklerinde (örneğin lineer olarak karesel) test sadece bir yoludur. Ancak bu durumda asimetrik bulgulara sahip olmak ne anlama gelir?

Örneğin, bir model üç yapabilirim:

mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)

Sonra anova yapabilirim.

anova(mCenter, mBoth)
anova(mNearest, mBoth)

Bunu yapmak adil ve şimdi merkezin en yakın etkiye (ikinci komut) eklediğini görüyorum, ancak BIC aslında merkeze en yakın eklendiğinde yükseliyor (alt parsimony için düzeltme). Bu şüphelenilenleri doğrular.

Ama bunu bulmak yeterli mi? Ve merkez ile en yakın arasındaki ilişki çok yüksek olduğunda bu adil midir?

Açıklayıcı değişkenler (serbestlik dereceleri) eklemek ve çıkarmakla ilgili olmadığında modelleri analitik olarak karşılaştırmanın daha iyi bir yolu var mı?


Modelleriniz iç içe değil, ikisi arasında LRT kullanmanın mantığı nedir?
chl

Yorumunuza göre şeyleri yeniden
John

Yanıtlar:


9

Yine de, sabit etkileriniz için güven aralıklarını hesaplayabilir ve AIC veya BIC'yi bildirebilirsiniz (bkz. Örneğin Cnann ve diğerleri , Stat Med 1997 16: 2349).

Şimdi, Wagenmakers ve ark.'nın parametrik bootstrap kullanarak Model taklitçiliğini değerlendirmeye bakmak isteyebilirsiniz . ki bu da iki rakip modelin kalitesini değerlendirme hakkındaki ilk sorunuza çok benziyor.

Aksi halde, aklıma gelen LMM'de açıklanan varyans ölçümleriyle ilgili iki makale:

  • Lloyd J. Edwards, Keith E. Muller, Russell D.Wolfinger, Bahjat F. Qaqish ve Oliver Schabenberger (2008). Doğrusal karma modelinde sabit etkiler için bir R2, istatistik , İstatistik Tıpta , 27 (29), 6137-6157.
  • Ronghui Xu (2003). Doğrusal karışık etkiler modellerinde açıklanan varyasyonun ölçülmesi , Tıpta İstatistikler , 22 (22), 3527-3541.

Ama belki daha iyi seçenekler var.


11

Ronaf'ın önerisini takip etmek, Vuong tarafından güvenilmeyen modellerle ilgili bir Olabilirlik Oranı Testi için daha yeni bir makaleye yol açar. KL mesafesini en aza indirmesi bakımından AIC'ye benzeyen KLIC'e (Kullback-Leibler Bilgi Kriteri) dayanmaktadır. Ancak hipotez için olasılıksal bir şartname belirler, böylece LRT'nin kullanımı daha ilkeli bir karşılaştırmaya yol açar. Cox ve Vuong testlerinin daha erişilebilir bir versiyonu Clarke ve ark. özellikle Vuong LRT testinin hesaplanması için algoritmayı sunan Şekil 3'e bakınız.

Diğer modellerde Vuong testinin R uygulamaları var gibi görünüyor, ancak lmer değil. Yine de, yukarıda belirtilen ana hat, bir taslağın uygulanması için yeterli olmalıdır. Hesaplama için gereken her veri noktasında lmer'den değerlendirilme olasılığını elde edebileceğinizi düşünmüyorum. Sig-ME ile ilgili bir notta, Douglas Bates'in yararlı olabilecek bazı işaretçileri var (özellikle bahsettiği skeç ).


Daha eski

Başka bir seçenek, tahmin doğruluğu testinde modellerden takılan değerleri dikkate almaktır. Williams-Kloot istatistiği burada uygun olabilir. Temel yaklaşım, iki modelden takılan değerlerin doğrusal bir kombinasyonuna karşı gerçek değerleri regrese etmek ve eğimi test etmektir:

İlk makale testi (ve diğerlerini) açıklarken, ikincisi bir ekonometrik panel modelinde bir uygulamaya sahiptir.


lmerAIC'leri kullanırken ve karşılaştırırken, işlevin varsayılan değeri REML yöntemini kullanmaktır (Kısıtlı Maksimum Olabilirlik). Bu, daha az önyargılı tahminler elde etmek için iyidir, ancak modelleri karşılaştırırken, REML=FALSEmontaj için Maksimum Olabilirlik yöntemini kullanan ile yeniden uymalısınız. Pinheiro / Bates kitabı 's OK AIC / REML veya ML biriyle Olasılığı karşılaştırmak için hangi altında bazı koşul söz eden ve bu çok iyi durumda geçerli olabilir. Bununla birlikte, genel öneri basitçe yeniden takmaktır. Örneğin, burada Douglas Bates'in gönderisine bakın:


REML = FALSE ile uyduğumu belirtmedim. Yine de biraz boğucuyum ... AIC bana rastgele etkiler de dahil olmak üzere tüm olasılığın bir ölçümünü veriyor. Bu büyük bir bileşen. Ve elbette, AIC'lerin tamamen aynı olması pek olası değildir. Bu nedenle, ne kadar büyük olduğunu söylemenin analitik bir yolu olmadan daha büyük değeri seçmek akıllıca değildir.
John

@John Bu ders, REML ve ML ve AIC (ve söylediklerinizi John) hakkında ilginç bir noktayı vurguluyor, j.mp/bhUVNt . Bolker'in GLMM incelemesine de göz atmaya değer: j.mp/cAepqA .
chl

4

bir kağıt olup drcox geçen ayrı [unnested] modeli test bu. karışık modellerin karmaşıklığına yol açmayan birkaç örneği dikkate alır. [R kodlu tesisim sınırlı olduğundan, modellerinizin ne olduğundan emin değilim.]

altho cox'un kağıdı sorununuzu doğrudan çözmeyebilir, iki olası yolla yardımcı olabilir.

  1. daha sonra bu tür sonuçların istediğiniz şeye yaklaşıp yaklaşmadığını görmek için google bursiyerinde makalesinde atıflar için arama yapabilirsiniz.

  2. analitik bir bükülme varsa, probleminize cox yöntemini uygulamayı deneyebilirsiniz. [belki hafif yürekli olanlar için değil.]

btw - cox, iki modeli daha büyük bir modelde birleştirmenin fikrini bulan srikanttan bahsettiğinden bahsediyor. o zaman hangi modelin daha iyi olduğuna nasıl karar vereceğini takip etmez, ancak her iki model de çok iyi olsa bile, birleşik modelin verilere yeterli bir uyum sağlayabileceğini belirtir. [sizin durumunuzda birleşik bir modelin mantıklı olacağı açık değildir.]


3

Kodunuzu ayrıştırmak için yeterince iyi R bilmiyorum ama işte bir fikir:

Hem merkez hem de yakın değişkenlere sahip olduğunuz bir modeli tahmin edin (bu mBoth olarak adlandırın). Daha sonra mCenter ve mNear, mBoth içine yerleştirilir ve mBoth ve mNear'ın göreceli performansını karşılaştırmak için bir karşılaştırma ölçütü olarak mBoth'u kullanabilirsiniz.


1
Bunun uygun olmayacağını düşünüyordum, çünkü ikisi aslında oldukça ilişkili olacaktı. Merkezi çok uzak olduğu gibi yakın olma eğiliminde olacak.
John

@John İyi bir nokta.

Sanýrým anlamýn da iyi ... Aslında önemli olduđundan emin deđilim. Yüksek olduğunu biliyorum ama 0.8'in altında ... hala analiz edilebilir.
John
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.