Lojistik bir regresyonda kalanlar ne anlama geliyor?


62

Cevaplarken bu soruyu John Christie lojistik regresyon modellerinin uyum artığı değerlendirerek değerlendirilmesi gerektiğini öne sürdü. OLS'deki artıkları nasıl yorumlayacağımı biliyorum, bunlar DV ile aynı ölçekte ve model tarafından öngörülen y ve y arasındaki farkları açıkça görüyorlar. Bununla birlikte, lojistik regresyon için, geçmişte tipik olarak AIC modelinin uygunluk tahminlerini inceledim, çünkü bir kalıntının bir lojistik regresyon için ne anlama geleceğinden emin değildim. R'nin yardım dosyalarına baktıktan sonra , R'de beş çeşit glm kalıntısı olduğunu görüyorum c("deviance", "pearson", "working","response", "partial"). Yardım dosyası şunları belirtir:

Bunun bir kopyası yok. Bu türlerin her birinin nasıl yorumlanacağını açıklamanın kısa bir yolu var mı? Lojistik bağlamda kare artıkların toplamı anlamlı bir model uyumu ölçüsü sağlayacak mı, yoksa bir Bilgi Kriteri ile daha mı iyi sonuçlanacak?


2
Bu soruya cevapsız kalan unsurlar var, örneğin "pearson", "çalışıyor", "yanıt" ve "kısmi" kalıntıların niteliği, ama şimdilik Thylacoleo'nun cevabını kabul edeceğim.
russellpierce

Ben bulmak binnedplotR paket içinde fonksiyon kolunun artıkların bir çok yararlı arsa verir. Gelman ve Hill 2007’nin s.97-101’inde güzel bir şekilde anlatılmıştır .
conjugateprior

1
Model uyumunu kontrol etmenin gerçekten kolay bir yolu, öngörülen oranlara göre gözlenenlerin bir grafiğidir. Ancak bernoulli regresyonunuz varsa (yani tüm gözlemleriniz bağımsız değişkenlerin benzersiz kombinasyonlarına , ), bu işe , çünkü sadece bir sıfır ve sıra çizgisi göreceksiniz. ni=1
Olasılık

Evet - ne yazık ki genellikle Bernoulli DV kullanıyorum.
russellpierce

Yanıtlar:


32

Anlaması en kolay olan artıklar, bu toplamları log olasılığının -2 katına kadar olan sapma artıklarıdır. En basit anlamıyla lojistik regresyon, bilinen için , toplam sapmayı en aza indirecek şekilde yerleştirilmesi anlamında anlaşılabilir. Tüm veri noktalarının kare sapma kalıntıları.Xp=logit1(Xβ)X

Her veri noktasının (kare) sapması, öngörülen olasılığı ile gerçek değerinin tamamlayıcısı (1 arasındaki farkın logaritmasına eşittir (-2 kez). bir kontrol için bir durum için 0) mutlak terimlerle. Bir noktaya mükemmel uyum (asla gerçekleşmez), log (1) sıfır olduğu için sıfıra sapma verir. Zayıf bir bağlantı noktası, çok küçük bir değerin kütüğünün -2 katı olduğundan büyük bir artık sapmaya sahiptir.logit1(Xβ)

Lojistik regresyon yapmak, kare sapma artıklarının en aza indirileceği şekilde bir beta değeri bulmaya benzer.

Bu bir komplo ile gösterilebilir, ancak nasıl yükleneceğini bilmiyorum.


1
Kayıtlı görüntüler: Ücretsiz resim barındırma sitelerinden birini kullanın (google'da arama yapın), arsa o siteye yükleyin ve buraya bağlayın.

Orijinal cevabımdaki bir hatayı düzelttim. İlk önce p = logit (X beta) yazdım . Aslında, öngörülen olasılık, doğrusal kombinasyonun ters logit, p = inv-logit (X beta). R'de bu, p = exp (X beta) / (1 + exp (X * beta)) olan p <-plogit (X beta) olarak hesaplanır .
Thylacoleo

1
Hangi R paketi plogit? Onu burada tanımlayıp tanımlayamadığınız veya başka bir yerden aldığınız belli değildi.
Amyunimus

1
@Amyunimus plogitR (istatistik) içinde, paket gerekli (en azından artık değil)
russellpierce

7

Pearsons artıklarında,

Pearson kalıntısı, gözlenen ve tahmin edilen olasılıklar arasındaki fark olup, tahmin edilen ihtimalin binom standart sapmasına bölünür. Bu nedenle artıkları standardize etmek. Büyük numuneler için standardize edilmiş artıklar normal dağılıma sahip olmalıdır.

Menard'dan, Scott (2002). Uygulamalı lojistik regresyon analizi, 2. Baskı. Bin Oaks, CA: Adaçayı Yayınları. Seri: Sosyal Bilimlerde Nicel Uygulamalar, No. 106. İlk baskı, 1995. Bkz. Bölüm 4.4.


8
Bu büyük numuneler için tamamen doğru değildir. Daha ziyade, büyük binom hücre sayıları ya da aynı şeyin ne olduğu, çok değişkenli çoğaltma çoğaltması gerektiriyor. Pearson kalıntıları normalde olduğu herhangi bir gözlem için dağıtılmaktan uzaktır . , n ı < 5nini<5
Olasılıksal

5

Çalışan artıklar, yinelenen ağırlıklı en küçük kareler yönteminin son yinelemesindeki artıklardır . Sanırım bu, model çalıştırmamızın son tekrarı olduğunu düşündüğümüzde artıklar anlamına geliyor. Bu, model çalıştırmanın yinelemeli bir egzersiz olduğu tartışmasına yol açabilir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.