Karışık efekt modellerinin izin verilen karşılaştırmaları (öncelikle rastgele efektler)


20

R 'de lme4 paketini kullanarak karışık efektler modelleme bakıyordum. Öncelikle lmerkomutu kullanıyorum, bu yüzden bu sözdizimini kullanan kod aracılığıyla sorumu ortaya koyacağım . Genel olarak kolay bir soru olabilir lmer, aynı veri kümelerine dayalı olabilirlik oranlarını kullanarak oluşturulmuş herhangi iki modeli karşılaştırmak uygun mudur? Bunun cevabının "hayır" olması gerektiğine inanıyorum, ama yanlış olabilirim. Rastgele etkilerin aynı olup olmaması konusunda çelişkili bilgileri okudum ve rastgele etkilerin hangi bileşeni bununla kastedildi? Birkaç örnek sunacağım. Onları kelime uyarıcıları kullanarak tekrarlanan ölçüm verilerinden alacağım, belki de Baayen (2008) gibi bir şey yorumlamada yararlı olacaktır.

Diyelim ki iki sabit etki öngörücüsü olan bir modelim var, onlara A ve B diyeceğiz ve bazı rastgele efektler ... onları algılayan kelimeler ve konular. Aşağıdaki gibi bir model oluşturabilirim.

m <- lmer( y ~ A + B + (1|words) + (1|subjects) )

(kasıtlı olarak dışarıda data =kaldığımı ve her zaman REML = FALSEnetlik için kastettiğimi varsayalım )

Şimdi, aşağıdaki modellerden, yukarıdaki olasılık oranıyla karşılaştırmak için uygun olan ve olmayanlar hangileri?

m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )              
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )                 
m5 <- lmer( y ~ A * B + (1|subjects) )   

Bu farklılıkların bazılarının yorumlanmasının zor veya imkansız olabileceğini kabul ediyorum. Ama bir anlığına bir kenara bırakalım. Buradaki değişikliklerde karşılaştırma olasılığını engelleyen temel bir şey olup olmadığını bilmek istiyorum. LR'lerin iyi olup olmadığını ve AIC karşılaştırmalarını da bilmek istiyorum.



(Daha önce eklediğim [hipotez testi] etiketini kaldırdığınızı fark ettim. Size kalmış, ancak bunun uygun olduğunu düşünüyorum: olasılık oranı testi açıkça bir hipotez test prosedürü ve [karma model] + [hipotez testi ] IMHO bilgilendirici bir etiket kombinasyonudur, bkz. stats.stackexchange.com/questions/tagged/… )
amip,

LR'den "test" kaldırılacak şekilde düzenlendi. LR'ler test yapılmadan yorumlanabilir ve AIC'lere daha paralel hale gelir ve gerçek niyetimi daha iyi takip eder. Bunu işaret ettiğiniz için teşekkürler.
John

Yanıtlar:


13

Maksimum olasılık kullanılarak, bunlardan herhangi biri AIC ile karşılaştırılabilir; sabit etkiler aynıysa ( m1to m4), REML veya ML kullanmak iyidir, REML genellikle tercih edilir, ancak farklıysa, sadece ML kullanılabilir. Bununla birlikte, hem sabit etkiler hem de rastgele etkiler değiştiğinde yorum genellikle zordur, bu nedenle uygulamada çoğu, bir seferde yalnızca birini veya diğerini değiştirmenizi önerir.

Olasılık oranı testinin kullanılması mümkündür, ancak dağınıktır, çünkü bir varyans bileşeninin sıfır olup olmadığını test ederken olağan ki-kare yaklaşımı geçerli değildir. Ayrıntılar için Aniko'nun cevabına bakınız. (Soruyu benden daha dikkatli okuduğu ve bu cevabı kaçırdığını fark edecek kadar orijinal cevabımı okuduğu için Aniko'ya Kudos. Teşekkürler!)

Pinhiero / Bates klasik referanstır; nlmepaketi anlatıyor , ama teori aynı. Peki, çoğunlukla aynı; Doug Bates, bu kitabı yazdığından ve yeni önerilerin lme4pakete yansıtılmasından bu yana çıkarım konusundaki önerilerini değiştirdi . Ama bu buraya girmek istediğimden daha fazla. Daha okunabilir bir referans, Longitudinal Verileri Modelleme olan Weiss (2005) 'dir.


m2 ve m4 veya m1 ve m3 modelleri olabilirlik oranı testi ile karşılaştırılamadı. Yuvalanmış modeller değildirler.
Makro

Hata! Yakaladığınız için teşekkürler, @Macro! Bkz. Düzenleme.
Aaron - Monica'yı yeniden

Soru, modelleri birbiriyle değil, m modeliyle karşılaştırmaktı. Ama yine de, AIC karşılaştırmalarının iç içe olmasa bile yapılabileceğini mi söylüyorsunuz? Bu sorunun yanıtları bununla çelişiyor gibi görünüyor.
John

@John, bu cevapları okudum ama AIC'yi tartıştığı ve iç içe geçmediği yerleri kaçırdım. Eminim iyi, ama cevaplardaki o noktaya daha kesin bir işaretçi verebilir misiniz?
Aaron - Monica'yı eski

Yanıtı reddettim, çünkü olabilirlik oranı testinin uygulanabilirliği konusunda yanılıyorsunuz (veya en azından yanıltıcısınız).
Aniko

12

Bir varyans bileşeninin 0 ( mvs m- m4) olup olmadığını değerlendirirken, olasılık oranı testlerini kullanırken dikkatli olmalısınız , çünkü tipik ki-kare yaklaşımı geçerli değildir . Nedeni, sıfır hipotezinin olması ve parametre alanının sınırında olmasıdır, bu nedenle klasik sonuçlar geçerli değildir.σ2=0

Bu durumlarda LRT'nin dağılımı hakkında tam bir teori vardır (bakınız, örneğin, Self ve Liang, 1987 [1]), ancak hızla dağınık hale gelir. Sadece bir parametrenin sınıra (örneğin mvs m2) çarpması durumunda , olasılık oranı dağılımına sahiptir, bu da pratikte yarıya anlamına gelir. -değer tabanlı .12χ12+12χ02χ12

Bununla birlikte, @Aaron'un belirttiği gibi, birçok uzman böyle bir olasılık oranı testi yapılmasını önermez. Potansiyel alternatifler bilgi kriterleri (AIC, BIC, vb.) Veya LRT'nin önyüklenmesi.

[1] Self, SG & Liang, K. Maksimum olabilirlik tahmin edicilerinin asimptotik özellikleri ve standart olmayan koşullar altında olabilirlik oranı testleri J. Amer. Devletçi. Doç., 1987, 82, 605-610.


1
LR bilgisi için teşekkürler. Örnek için modeller yaparken LR sınır sorununu gerçekten düşünmemiştim. Önerilerinizin sadece farklı sabit etkileri olan modelleri karşılaştırmak gibi basit durumlar için geçerli olup olmadığını (yanıtın elbette ML olduğu) cevabınızda belirsiz olduğunu fark ettim.
John

Hayır, bu sorun yalnızca varyans bileşenlerini test ederken ortaya çıkar, sabit etkileri değil.
Aaron - Monica'yı
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.