Ben lme4::glmer()
ikili değil, ancak sıfır ile bir arasında sürekli bir değişken olan bir binom genelleştirilmiş karışık model (GLMM) sığdırmak için kullanmaya çalışıyorum . Bu değişken bir olasılık olarak düşünülebilir; aslında olan insan deneklerin (bir deney ben yardım analiz olarak) bildirilen olasılığı. Yani bu kadar değil bir "ayrık" fraksiyon, ancak sürekli bir değişken.
Çağrım glmer()
beklendiği gibi çalışmıyor (aşağıya bakın). Neden? Ne yapabilirim?
Daha sonra düzenleme: aşağıdaki cevabım bu sorunun orijinal versiyonundan daha genel, bu yüzden de soruyu daha genel olacak şekilde değiştirdim.
Daha fazla detay
Görünüşe göre lojistik regresyon sadece ikili DV için değil, aynı zamanda sıfır ve bir arasındaki sürekli DV için de kullanılabilir. Gerçekten, koştuğumda
glm(reportedProbability ~ a + b + c, myData, family="binomial")
Bir uyarı mesajı alıyorum
Warning message:
In eval(expr, envir, enclos) : non-integer #successes in a binomial glm!
ancak çok makul bir uyum (tüm faktörler kategoriktir, bu yüzden model tahminlerinin farklı konular-araçlara yakın olup olmadığını kolayca kontrol edebilirim ve bunlar).
Ancak, aslında kullanmak istediğim şey
glmer(reportedProbability ~ a + b + c + (1 | subject), myData, family="binomial")
Bana aynı uyarıyı verir, bir model döndürür, ancak bu model açıkça çok fazla kapalıdır; sabit etkilerin tahminleri, bunlardan çok ve glm()
özneler arası araçlardan çok uzaktır . (Ve ben eklemeniz gerekir glmerControl(optimizer="bobyqa")
içine glmer
aksi takdirde hiç olmuyorsa, çağrı.)
glmmadmb(reportedProbability ~ a + b + c + (1 | subject), myData, family="beta")
, doğru uyum ve makul güven aralıkları alıyorum, ancak bir yakınsama başarısız oldu uyarısı: - / Yineleme sayısını nasıl artıracağımı anlamaya çalışıyorum. Beta benim için işe yarayabilir çünkü DV = 0 veya DV = 1 vakalarım yok.
+ (1 | rowid)
ve bu, ağırlık seçimimden bağımsız olarak istikrarlı tahminler ve istikrarlı güven aralıkları sağlıyor (100 ve 500 denedim). Ayrıca logit (reportProbability) üzerinde lmer çalıştırmayı denedim ve neredeyse tamamen aynı şeyi alıyorum. Yani her iki çözüm de işe yarıyor! Glmmadmb içeren Beta MM de çok yakın sonuçlar verir, ancak bazı nedenlerden dolayı tamamen birleşemez ve çalışması sonsuza kadar sürer. Bu seçenekleri listeleyen ve biraz farklılıkları ve artıları / eksileri açıklayan bir cevap göndermeyi düşünün! (Bahsettiğim güven aralıkları tamamen Wald.)