Bir avuç sitelerden "kırık sopa" aylık vaka sayıları oluşan bir veri kümesi var. İki farklı teknikten tek bir özet tahmin almaya çalışıyorum:
Teknik 1: 0/1 gösterge değişkenli bir Poisson GLM ile ve zamandaki eğilimleri kontrol etmek için bir zaman ve zaman ^ 2 değişkeni kullanarak bir "kırık çubuk" takın. Bu 0/1 gösterge değişkeninin tahmini ve SE, anlar tekniğinin oldukça düz bir yukarı ve aşağı yöntemi kullanılarak veya bir "Bayesian" tahmini elde etmek için R'deki tlnise paketi kullanılarak toplanır. Bu, Peng ve Dominici'nin hava kirliliği verileriyle yaptıklarına benzer, ancak daha az sayıda alanla (~ bir düzine).
Teknik 2: Zaman içindeki eğilimler için sahaya özgü kontrollerden bazılarını terk edin ve doğrusal karışık bir model kullanın. Özellikle:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
Sorum bu tahminlerden çıkan standart hataları içeriyor. Teknik 1'in aslında aylık zaman yerine haftalık bir zaman kullanan ve bu nedenle daha hassas olması gereken standart hatası, Momentler Yöntemi yaklaşımı için ~ 0.206 ve ay için ~ 0.306 tahmininde standart bir hataya sahiptir.
Lmer yöntemi, ~ 0.09'luk standart bir hata verir. Etki tahminleri makul derecede yakındır, bu nedenle karışık model çok daha verimli olduğu sürece farklı özet tahminlerinde sadece sıfırlanıyor gibi görünmemektedir.
Bu beklenen bir şey mi? Öyleyse, karışık modeller neden bu kadar çok daha verimli? Bu genel bir fenomen mi, yoksa bu modelin spesifik bir sonucu mu?