Glmm'de R-yapısı G-yapısı nedir?


16

MCMCglmmSon zamanlarda paketi kullanıyorum . Belgelerde R-yapısı ve G-yapısı olarak anılan şeyle kafam karıştı. Bunlar rastgele etkilerle ilişkili gibi görünmektedir - özellikle de önceki dağıtım için parametreleri belirtmekle birlikte, belgelerdeki tartışma okuyucunun bu terimlerin ne olduğunu bildiğini varsaymaktadır. Örneğin:

3 olası öğeye sahip isteğe bağlı önceki özellikler listesi: R (R-yapısı) G (G-yapısı) ve B (sabit etkiler) ............ Varyans yapıları için öncelikler (R ve G ), ters Wishart için beklenen (ko) varyanslar (V) ve inanç derecesi parametresi (nu) olan listelerdir

... buradan alınır .

DÜZENLEME: Lütfen Stephane'nin yorumlarının ardından sorunun geri kalanını yeniden yazdığımı unutmayın.

Herkes, doğrusal öngörücünün ile ve u_ {0j} \ sim N (0, \ sigma_ {0u} ^ 2) e 0 i jN ( 0 , σ 2 0 e ) u 0 jN ( 0 , σ 2 0 u )

β0+e0benj+u0j
e0benj~N-(0,σ0e2)u0j~N-(0,σ0u2)

Birlikte gelen bazı verilerle aşağıdaki örneği yaptım MCMCglmm

> require(MCMCglmm)
> require(lme4)
> data(PlodiaRB)
> prior1 = list(R = list(V = 1, fix=1), G = list(G1 = list(V = 1, nu = 0.002)))
> m1 <- MCMCglmm(Pupated ~1, random = ~FSfamily, family = "categorical", 
+ data = PlodiaRB, prior = prior1, verbose = FALSE)
> summary(m1)


 G-structure:  ~FSfamily

         post.mean l-95% CI u-95% CI eff.samp
FSfamily    0.8529   0.2951    1.455      160

 R-structure:  ~units

      post.mean l-95% CI u-95% CI eff.samp
units         1        1        1        0

 Location effects: Pupated ~ 1 

            post.mean l-95% CI u-95% CI eff.samp  pMCMC    
(Intercept)   -1.1630  -1.4558  -0.8119    463.1 <0.001 ***
---

> prior2 = list(R = list(V = 1, nu = 0), G = list(G1 = list(V = 1, nu = 0.002)))
> m2 <- MCMCglmm(Pupated ~1, random = ~FSfamily, family = "categorical", 
+ data = PlodiaRB, prior = prior2, verbose = FALSE)
> summary(m2)


 G-structure:  ~FSfamily

         post.mean l-95% CI u-95% CI eff.samp
FSfamily    0.8325   0.3101    1.438    79.25

 R-structure:  ~units

      post.mean l-95% CI u-95% CI eff.samp
units    0.7212  0.04808    2.427    3.125

 Location effects: Pupated ~ 1 

            post.mean l-95% CI u-95% CI eff.samp  pMCMC    
(Intercept)   -1.1042  -1.5191  -0.7078    20.99 <0.001 ***
---

> m2 <- glmer(Pupated ~ 1+ (1|FSfamily), family="binomial",data=PlodiaRB)
> summary(m2)
Generalized linear mixed model fit by the Laplace approximation 
Formula: Pupated ~ 1 + (1 | FSfamily) 
   Data: PlodiaRB 
  AIC  BIC logLik deviance
 1020 1029   -508     1016
Random effects:
 Groups   Name        Variance Std.Dev.
 FSfamily (Intercept) 0.56023  0.74849 
Number of obs: 874, groups: FSfamily, 49

Fixed effects:
            Estimate Std. Error z value Pr(>|z|)    
(Intercept)  -0.9861     0.1344  -7.336  2.2e-13 ***

Stephane'nin yorumlarına dayanarak G yapısının σ0u2 . Ancak yorumlar ayrıca R yapısının σ0e2 ancak bunun lme4çıktıda görünmediğini söylüyor .

Sonuçların lme4/glmer(), MCMC'nin her iki örneğiyle de tutarlı olduğunu unutmayın MCMCglmm.

Peki, için R yapısı var ve neden görünmüyor ?σ0e2lme4/glmer()


1
SAS terminolojisi ile (ancak muhtemelen daha yaygın bir terminolojidir), G matrisi rastgele etkilerin varyans matrisidir ve R matrisi "hata terimlerinin" varyans matrisidir (sizin durumunuzda tahmini kalıntı variance ?)σ0e2
Stéphane Laurent

@ StéphaneLaurent teşekkür ederim. Tahmin edilebileceğini merak ettim ama genelleştirilmiş doğrusal modeli ilk öğrendiğimde tahmin hatırlıyorum - sadece "sapma" (olduğu gibi ) hesaplanıyor . Belki bir şey eksik? σ 2 0 eσ0e2σ0e2lme4
Joe King

1
dağıtım ailesi Gaussyan aile olmadığında, artık varyans duygusu açık değildir
Stéphane Laurent

1
@ Stéphane Laurent Evet! Lütfen bir dakika önce Michael'ın cevabına yaptığım yoruma bakın - ikili sonuç için, düzeltilmelidir (OP'mdeki modellerimde olduğu gibi)
Joe King

1
Bir ME / Çok seviyeli modeliniz olduğunda, birkaç fark vardır. En basit durumu düşünün: . kesişme ve hata teriminde sapma vardır . genellikle rastgele efektlerin var-covar matrisi için kullanılır (bu durumda bir skaler, ) & , sabit ve bu kümenin rasgele hesaplandıktan sonra kalan varyansların var-covar matrisi içindir. Etkileri. Genellikle 'nin köşegen matrisi olarak düşünülür . Ayrıca her iki dağıtımın da çok değişkenli normal w / ortalama = 0 olduğu düşünülmektedir. b i ε i G σ 2 b R i ε i σ 2Yben=β0+β1X+bben+εbenbbenεbenG,σb2R,benεbenσ2
gung - Monica'yı eski haline getirin

Yanıtlar:


8

Aşağıdaki yorumlarımı yorum olarak göndermeyi tercih ederim ama bu yeterli olmaz. Bunlar bir cevaptan ziyade sorulardır (@gung için konuyla ilgili yeterince güçlü hissetmiyorum).

Ben MCMCglmm bir "gerçek" Bayesian glmm uygulamadığı izlenimi altındayım. Gerçek Bayesci model, bu yazının 2. bölümünde açıklanmıştır . Frekansçı modele benzer şekilde, biri sahiptir ve sabit parametreler ve "G" varyansına ek olarak dağılım parametresinde önceden bir gereklilik vardır rastgele etkinin .ϕ 1 β ug(E(y|u))=Xβ+Zuφ1βu

Ancak bu MCMCglmm vinyetine göre, MCMCglmm'de uygulanan model ve dağılım parametresini . Klasik frekansçı modele benzemez.g(E(yu,e))=Xβ+Zu+eϕ1

Bu nedenle ile analogu olmadığına şaşırmam.σe

Lütfen bu kaba yorumlar için özür dilerim, bu konuya kısa bir göz attım.


Teşekkür ederim. Bu konunun zor olması gerekiyordu, çünkü oldukça zor buluyorum? Sanırım şimdi R ve G yapısının anlamından memnunum. Hala eksikliğinden karıştı ile ve senin yorumun çok merak ediyorum gerçekten Bayes değildir. Dürüst olmak gerekirse, bağlandığınız tüm kağıtları anladığımı söyleyemem ve aynı zamanda parçalarıyla mücadele ediyorum , ancak sadece örneğimin bakış açısından, dağılım parametresinin sabit olması gerektiğine inanıyorum ( örnek binomdur). Neyi kaçırıyorum ? σeglmerMCMCglmmMCMCglmmϕ1
Joe King

Üzgünüm, sözlerim tam olarak uygun değildi. MCMCglmm gerçekten Bayesci, ama klasik glmm'yi tam olarak uygulamıyor (sanırım). Buna ek olarak, sıklık çıkarımına yakın olan varyans bileşenleri üzerinde bir çıkarım sağlayan öncelikleri belirlemenin zor olduğunun farkında olmalısınız.
Stéphane Laurent

Tekrar teşekkürler. Çalışmamda MCMCglmm, çeşitli parametreleri kullanarak varyans bileşenleri için varsayılan ters wishart dağılımını kullanabileceğimi ve % 95 güvenilir aralıkların her zaman rastgele etkiler için varyans değerini içerdiğini glmerbuldum, bu yüzden bunun makul olduğunu hissettim , ancak MCMCglmmaralıkların önceki seçimine çok duyarlı olmadığı tipik olan bu durumu nasıl yorumlamalıyım ? Belki bu konuda yeni bir soru sormalıyım?
Joe King

Belki büyük bir örnek boyutu var? İlk sorunuzla ilgili olarak, en azından binomiyal durumda, glmer modelinin ile MCMCglmm modeline eşdeğer olduğu izlenimi . yüksek oranda ayarladıysanız ne olur ? σe=0σe0
Stéphane Laurent

Evet, oldukça büyük bir örneklem büyüklüğüm var: 225 kümede 50.000 gözlem (sorum kendi örneğim değil, kendi verilerim). üzerinde önceden çok yakın bir sıfıra yakın , V = 0.01 ve nu = 100'ü ayarlayarak için 0.25 (CI: 0.16, 0.29) ve için 0.53 (0.38, 0.73) elde . Önceden daha az bilgilendirici bir şey ayarladığımda, V = 10 ve nu = 0.01 ile sırasıyla 0.18 (0.12, 0.23) ve 0.49 (0.34, 0.63) elde ederim. Bu, 0,51 ile karşılaştırılır . Daha önce uygun olmayan bir daire denedim, bu da 0.10 (0.08, 0.13) ve 0.47 (0.25, 0.68) verdi. σeσeσuglmer
Joe King

11

Oyuna geç kaldım, ama birkaç nota. yapı kalıntı yapıdır. Sizin durumunuzda, "yapı" nın tek bir öğesi vardır (ancak durum böyle değildir). Gauss yanıt değişkeni için, kalan varyans, tipik olarak tahmin edilir. İkili sonuçlar için sabit tutulur. MCMCglmm'nin nasıl kurulduğundan dolayı, sıfıra sabitleyemezsiniz, ancak düzeltmek nispeten standarttır (bir probit modeli için de geçerlidir). Sayım verileri için (örneğin, bir poisson dağılımı ile), bunu düzeltmezsiniz ve bu otomatik olarak bir aşırı dağılım parametresini esas olarak tahmin eder.Rσe21

yapısı rastgele etkili bir yapıdır. Yine sizin durumunuzda, sadece rastgele bir engel, ancak birden fazla rastgele efektiniz varsa, bunlar bir varyans-kovaryans matrisi, .G,G,

Son bir not, artık varyans sıfıra sabitlenmediği için tahminler, bunlarla eşleşmeyecektir glmer. Onları yeniden ölçeklendirmeniz gerekiyor. İşte küçük bir örnek (rastgele efektler kullanmıyor, ancak genelliyor). R yapı varyansının 1 olarak nasıl sabitlendiğine dikkat edin.

# example showing how close the match is to ML without separation
m2 <- MCMCglmm(vs ~ mpg, data = mtcars, family = "categorical",
  prior = list(
    B = list(mu = c(0, 0), V = diag(2) * 1e10),
    R = list(V = 1, fix = 1)),
  nitt = 1e6, thin = 500, burnin = 10000)
summary(m2)

İşte binom ailesi için yeniden ölçeklendirme sabiti:

k <- ((16*sqrt(3))/(15*pi))^2

Şimdi çözümü ona bölün ve arka modları alın

posterior.mode(m2$Sol/(sqrt(1 + k)))

Hangisinden aldığımıza oldukça yakın olmalı glm

summary(glm(vs ~mpg, data = mtcars, family = binomial))

MCMCglmm'de birinci düzeydeki heteroskedastisitenin nasıl belirleneceğini biliyor musunuz? Bu R yapısı mı? Peki sözdizimi nedir?
Maxim.K

@Joshua, "binom ailesi için yeniden ölçeklendirme sabitini" açıklayabilir misiniz? PS: Tohum için 123, (düzeltme ile) m2değerlerden alıyorum -8.164ve 0.421; ve glmdeğerlerden -8.833ve 0.430.
Qaswed

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.