Bayes logit modeli - sezgisel açıklama?


11

İtiraf etmeliyim ki, daha önce herhangi bir derste, lisans veya yüksek lisans derslerinde bu terimi duymadım.

Lojistik regresyonun Bayesci olması ne anlama geliyor? Aşağıdaki gibi düzenli lojistik Bayesian lojistik geçiş ile bir açıklama arıyorum:

Bu doğrusal regresyon modelindeki denklemdir: .E(y)=β0+β1x1+...+βnxn

Bu, lojistik regresyon modelindeki denklemdir: . Bu, y kategorik olduğunda yapılır.ln(E(y)1E(y))=β0+β1x1+...+βnxn

Yaptığımız şey yi .E(y)ln(E(y)1E(y))

Peki Bayes lojistik regresyonundaki lojistik regresyon modeline ne yapıldı? Denklemle ilgili bir şey olmadığını tahmin ediyorum.

Bu kitap önizlemesi tanımlanmış gibi görünüyor, ama gerçekten anlamıyorum. Tüm bunlar daha önce olabilir mi? Nedir ? Birisi lütfen kitabın bir bölümünü veya Bayes logit modelini başka bir şekilde açıklayabilir mi?α

Not: Bu daha önce sorulmuştur ancak bence çok iyi yanıtlanmamıştır.


1
Bunu bir cevaba koymak istemiyorum çünkü bence @Tim'in çoğunun kapsamı var. Aksi halde bu büyük cevaptan eksik olan tek şey, Bayes lojistik regresyonunda ve Bayes genelleştirilmiş doğrusal modellerde (GLM'ler) daha genel olarak, önceki dağılımların sadece katsayılar üzerine değil, bu katsayıların varyansları ve kovaryansına da yerleştirilmesidir. Bu, bahsetmek inanılmaz derecede önemlidir, çünkü GLM'lere bir Bayes yaklaşımının en önemli avantajlarından biri, katsayıların kovaryansı için karmaşık modellerin belirlenmesinin daha büyük izlenebilirliğidir ve birçok durumda karmaşık modeller de takmaktır.
Küstah Denge

2
@BrashEquilibrium: Bir logit model için standart Bayesian modellemenin olası hiyerarşik bir uzantısından bahsediyorsunuz. Olarak bizim kitap , biz, örneğin kullanmak bir g önceki ilgili kovaryans matrisi eş değişkenler türetilmiştir sabit önce sitesindeki, . βX
Xi'an

1
Önceki g yeterince adil.
Küstah Denge

1
Yani, kovaryans üzerinde hala bir önceki var dedi !!!!!! Eğer bunu tartışmazsanız, lojistik regresyonun tamamen nasıl çalıştığını tanımlamıyorsunuz.
Küstah Denge

Yanıtlar:


19

Lojistik regresyon doğrusal bir kombinasyon olarak tanımlanabilir

η=β0+β1X1+...+βkXk

bağlantı fonksiyonundan geçirilir :g

g(E(Y))=η

Burada link işlevi bir logit işlevidir

E(Y|X,β)=p=logit1(η)

burada yalnızca içindeki değerleri alır ve ters logit fonksiyonları doğrusal kombinasyonu değerini bu aralığa dönüştürür. Klasik lojistik regresyonu burada sona eriyor.Y{0,1}η

Bunu hatırlamak Ancak eğer tek değerler alan değişkenler için , daha olarak düşünülebilir . Bu durumda, logit fonksiyon çıktısı koşullu "başarı" olasılığı, yani olarak düşünülebilir . Bernoulli dağılımı bazı ikili sonucu gözleme olasılığını açıklayan bir dağıtım biz tarif böylece, parametre olarakE(Y)=P(Y=1){0,1}E(Y|X,β)P(Y=1|X,β)P(Y=1|X,β)pY

yiBernoulli(p)

Bu nedenle lojistik regresyon ile, bağımsız değişkenlere sahip ile doğrusal bir kombinasyon oluşturan bazı parametreler arıyoruz . Klasik regresyonda (bağlantı işlevinin kimlik işlevi olduğunu varsayarız), ancak içindeki değerleri alan modeline sığdırmak için dönüştürmemiz gerekir. içerisinde aralığında.βXηE(Y|X,β)=ηY{0,1}η[0,1]

Şimdi, bazı sabıkası pick up Bayes şekilde lojistik regresyon tahmin etmek lineer regresyon gibi parametreler (bkz Kruschke vd 2012 sonra doğrusal kombinasyonu dönüştürmek için logit işlevini kullanın) yüzden a olarak çıkış kullanmak, değişkeninizi tanımlayan Bernoulli dağılımının parametresi . Yani, evet, aslında denklemi ve logit link işlevini frekansçı durumdakiyle aynı şekilde kullanırsınız ve geri kalanı (örneğin, öncelikleri seçmek) Bayes yolunun lineer regresyonunu tahmin etmek gibi çalışır.βiηpY

Öncelikleri seçmek için basit yaklaşım, 'ler için ve parametreleri ile önceden ayarlanmış veya alınan Normal dağılımları (ancak - veya Laplace dağılımını daha sağlam model için de kullanabilirsiniz ) dan hiyerarşik priors . Şimdi, model tanımına sahip olarak, modeli tahmin etmeniz için Markov Chain Monte Carlo simülasyonunu gerçekleştirmek için JAGS gibi yazılımları kullanabilirsiniz . Aşağıda basit lojistik modeli için JAGS kodunu gönderiyorum ( daha fazla örnek için buraya bakın).tβiμiσi2

model {
   # setting up priors
   a ~ dnorm(0, .0001)
   b ~ dnorm(0, .0001)

   for (i in 1:N) {
      # passing the linear combination through logit function
      logit(p[i]) <- a + b * x[i]

      # likelihood function
      y[i] ~ dbern(p[i])
   }
}

Gördüğünüz gibi, kod doğrudan model tanımına dönüşür. Ne yazılım yapar için normal priors gelen bazı değerleri çizer olduğunu ave bo zaman tahmin etmek bu değerleri kullanır pve son olarak, veri bu parametreleri verilmektedir nasıl olasılıkla değerlendirmek için olabilirlik fonksiyonunu kullanır (bu Bayes teoremi kullandığınızda, bkz olduğunu burada için daha ayrıntılı açıklama).

Temel lojistik regresyon modeli, hiyerarşik bir model ( hiperpriorlar dahil ) kullanarak öngörücüler arasındaki bağımlılığı modellemek için genişletilebilir . Bu durumda çizebilirsinizβi bağımsız değişkenler arasında kovaryans hakkında bilgi sağlayan Çok Değişkenli Normal dağılımından 'lerΣ

(β0β1βk)MVN([μ0μ1μk],[σ02σ0,1σ0,kσ1,0σ12σ1,kσk,0σk,1σk2])

... ama bu ayrıntılara giriyor, o yüzden burada duralım.

Buradaki "Bayesci" kısım, Bayes teoremini kullanarak öncelikleri seçmek ve olasılık açısından terimleri tanımlamaktır. "Bayesci model" tanımı için buraya ve Bayesci yaklaşım hakkındaki bazı genel sezgi için buraya bakın . Ayrıca fark edebileceğiniz, modelleri tanımlamanın bu yaklaşımla oldukça basit ve esnek olmasıdır.


Kruschke, JK, Aguinis, H. ve Joo, H. (2012). Zamanı geldi: Örgütsel bilimlerde veri analizi için Bayesci yöntemler. Örgütsel Araştırma Yöntemleri, 15 (4), 722-752.

Gelman, A., Jakulin, A., Pittau, GM ve Su, Y.-S. (2008). Lojistik ve diğer regresyon modelleri için zayıf bilgilendirici bir varsayılan ön dağıtım. Yıllıklar Uygulamalı İstatistik, 2 (4), 1360-1383.


1
Sadece katsayılar için değil, varyanslar için kanıtlara ihtiyacınız vardır.
Küstah Denge

3
@BCLC no, lojistik regresyon logit için bağlantı fonksiyonu olarak kullanılırken , doğrusal bir kombinasyon , örn. Doğrusal regresyon için kimlik fonksiyonudur, bu nedenle , bu sadece GLM'nin standart bir özelliğidir . gηη=β0+β1X1gE(Y)=η
Tim

1
@BCLC cevabımdaki bağlantıları kontrol eder, genel olarak Bayes istatistiklerine bir giriş sağlar. Bu, ilk sorunuzda bahsedilen konudan çok daha geniş bir konudur, ancak cevabımda verdiğim referanslarda hoş bir giriş bulabilirsiniz.
Tim

1
@Zaman orada bir yazım hatası yaptım. İspatların öncelikleri okuması gerekiyor. Temel olarak, katsayılar bilinmeyen tek parametre değildir. Çok terimli dağılım da bir varyans kovaryans matrisine sahiptir ve tipik olarak bilindiği varsayılmaz.
Brash Equilibrium

3
"Buradaki" Bayesci "kısmı, Bayes teoremini kullanarak ve olasılıksal olarak modeli tanımlayarak öncelikleri seçmektir." Burada iyi bir referans Gelman ve ark. LOJİSTİK VE DİĞER REGRESYON MODELLERİ İÇİN ZAYIF BİLGİLENDİRİCİ BİR ÖNCEKİ DAĞILIM stat.columbia.edu/~gelman/research/published/priors11.pdf
Dalton

6

Tüm bunlar daha önce olabilir mi?

Bayes yapan budur. Veriler için üretken model aynıdır; fark, Bayes analizinin ilgili parametreler için önceden bir miktar dağılım seçmesi ve tüm çıkarımın dayandığı bir arka dağılımı hesaplaması veya yaklaşık olarak hesaplamasıdır . Bayes kuralı ikisini ilişkilendirir: Posterior önceki olasılık süreleriyle orantılıdır.

Sezgisel olarak, bu önceki bir analistin konu uzmanlığını veya önceden var olan bulguları ifade etmesini matematiksel olarak sağlar. Örneğin, başvurduğunuz metin için çok değişkenli bir normal olduğunu not eder. Belki de önceki çalışmalar, belirli normal parametrelerle ifade edilebilecek belirli bir parametre aralığını önermektedir. (Esneklik sorumluluğu beraberinde getirir: Şüpheci bir izleyici kitlesinden önce onların haklı çıkması gerekir.) Daha ayrıntılı modellerde, belirli gizli parametreleri ayarlamak için alan uzmanlığı kullanılabilir. Örneğin, bu cevapta atıfta bulunulan karaciğer örneğine bakın .β

Bazı frekanslı modeller, belirli bir önceliğe sahip bir Bayesian muadili ile ilişkili olabilir, ancak bu durumda hangisine karşılık geldiğinden emin değilim.


SeanEaster, 'önceki' sözcüğü varsayılan dağıtım için mi kullanılıyor? Örneğin biz X'ler veya farz 'ın (demek istiyorsan olduğu gibi , bunun yerine demek do , , ..., ? I do not 's dağılımları olduğunu düşünüyorum ...?) normal ama sonra onları başka bir dağıtım sığdırmak için çalışıyoruz? 'Yaklaşmalar' ile tam olarak ne demek istiyorsun? Ben 'uyuyor' ile aynı değil bir his varβββ1,β2,...,βnX1X2Xnβ
BCLC

1
@BCLC Bunlara cevap vermek için, Bayesci çıkarımın çıplak süreciyle başlayacağım ve terimleri benim gibi tanımlayacağım: Bayesyalılar tüm ilgi parametrelerini rastgele değişkenler olarak ele alıp bu parametreler hakkındaki inançlarını veri ışığında güncelleyeceğim. Önsel dağılım verileri analiz etmeden önce parametreleri hakkında kendi inancını ifade eder; * posterior dağılımı * - önceliğin ve olasılığın normalize edilmiş ürünü Bayes kuralı ile - öncekiler ve veriler ışığında parametreler hakkındaki belirsiz inancı özetler. Posteriorun hesaplanması fitingin gerçekleştiği yerdir.
Sean Easter

1
@BCLC Bu yüzden parametrelerinin bir dağılımı var. Diğer - genellikle basit - Bayesci modellerde, posterior dağılımlar kapalı formda bir ifadeye sahip olabilir. (Beta önceden ilgili bir Bernoulli rastgele değişken olarak , arka ., Örneğin bir beta dağılımı,) Ancak posteriors analitik olarak ifade edilemez, biz yaklaşık genel MCMC yöntemler kullanılarak, bunların. βpp
Sean Easter

Tamam, sanırım Şans Doktrininde bir Problem Çözme makalesini okuduktan sonra seni daha iyi anlıyorum . Teşekkür SeanEster
BCLC

1
Evet. Birçok durumda, bu nin analitik olarak hesaplanması imkansızdır. P(B)
Sean Easter
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.