Pearson VS Deviance Lojistik regresyonda artıklar


16

Standart Pearson Kalıntılarının geleneksel olasılıklarla elde edildiğini biliyorum:

ri=yiπiπi(1πi)

ve Sapma Kalıntıları daha istatistiksel bir yolla elde edilir (her noktanın olasılığa katkısı):

di=si2[yilogπi^+(1yi)log(1πi)]

burada ise 1 = 1 = ise = -1 = 0.siyisiyi

Bana, sezgisel olarak, sapma kalıntıları için formülü nasıl yorumlayacağınızı açıklayabilir misiniz?

Dahası, birini seçmek istersem, hangisi daha uygundur ve neden?

BTW, bazı referanslar sapma kalıntılarını terime dayanarak elde ettiğimizi iddia ediyor

12ri2

burada yukarıda belirtilmiştir.ri


Herhangi bir düşünce takdir edilecektir
Jack Shi

1
"Bazı referanslar" dediğinizde ... hangi referansları ve nasıl yapıyorlar?
Glen_b

Yanıtlar:


10

Lojistik regresyon, günlük olabilirlik işlevini en üst düzeye çıkarmaya çalışır

LL=kln(Pi)+rln(1Pi)

burada durumda i olduğu tahmin olasılığıdır , Y = 1 ; k , Y = 1 olarak gözlenen vaka sayısı ve r , Y = 0 olarak gözlenen (geri kalan) vaka sayısıdır .PiY^=1kY=1rY=0

Bu ifade şuna eşittir:

LL=(kdi2+rdi2)/2

çünkü bir davanın sapma kalıntısı şöyle tanımlanır:

di={2ln(Pi)if Yi=12ln(1Pi)if Yi=0

Bu nedenle, ikili lojistik regresyon, doğrudan kare sapma artıklarının toplamını en aza indirmeye çalışır. Regresyonun ML algoritmasında ima edilen sapma kalıntılarıdır.

2(LLfull modelLLreduced model)

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.