Burada soyutlamaya çalışacağım bir deneyim var. Önünüzde üç beyaz taşı fırlattığımı ve onların konumları hakkında bir yargıya varmanızı istediğimi düşünün. Taşların çeşitli özelliklerini ve cevabınızı kaydediyorum. Bunu birkaç konu üzerinde yapıyorum. İki model üretiyorum. Birincisi, size en yakın taşın cevabınızı tahmin etmesi, diğeri ise taşların geometrik merkezinin cevabınızı öngörmesidir. Yani, RI'de lmer kullanmak yazabilirdi.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
GÜNCELLEME VE DEĞİŞTİRME - birkaç yararlı yorumu içeren daha doğrudan sürüm
deneyebilirim
anova(mNear, mCenter)
Tabii ki yanlış, çünkü iç içe değiller ve onları gerçekten bu şekilde karşılaştıramıyorum. Anova.mer'den hata atmasını bekliyordum ama olmadı. Ama burada deneyebileceğim olası yuvalama doğal değil ve yine de beni daha az analitik ifadelerle bırakıyor. Modeller doğal olarak iç içe yerleştirildiklerinde (örneğin lineer olarak karesel) test sadece bir yoludur. Ancak bu durumda asimetrik bulgulara sahip olmak ne anlama gelir?
Örneğin, bir model üç yapabilirim:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Sonra anova yapabilirim.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Bunu yapmak adil ve şimdi merkezin en yakın etkiye (ikinci komut) eklediğini görüyorum, ancak BIC aslında merkeze en yakın eklendiğinde yükseliyor (alt parsimony için düzeltme). Bu şüphelenilenleri doğrular.
Ama bunu bulmak yeterli mi? Ve merkez ile en yakın arasındaki ilişki çok yüksek olduğunda bu adil midir?
Açıklayıcı değişkenler (serbestlik dereceleri) eklemek ve çıkarmakla ilgili olmadığında modelleri analitik olarak karşılaştırmanın daha iyi bir yolu var mı?