Lojistik regresyon ve t-testinin gücü nasıl karşılaştırılır?


18

Lojistik regresyonun gücü ve t testi eşdeğeri midir? Eğer öyleyse, "veri yoğunluğu eşdeğeri" olmalıdır, bu da demek oluyor ki aynı sayıda temel gözlem, .05 sabit alfa verildiğinde aynı gücü verir. İki durumu düşünün:

  1. [Parametrik t-testi]: Binom gözleminden 30 çekim yapılır ve elde edilen değerlerin ortalaması alınır. Bu A grubu için (kez .70'lik bir binom Pr'a sahip olan) 30 kez ve B grubu için (meydana gelen .75'lik bir binomik Pr'a sahip) 30 kez yapılır. Bu, binom dağılımından 1.800 çekilişin bir özetini temsil eden grup başına 30 ortalama verir. Ortalamaları karşılaştırmak için 58df t-testi yapılır.
  2. [Lojistik regresyon]: Grup üyeliğini temsil eden kukla kodlanmış bir eğim ve 1.800 çekilişin her biri ile lojistik regresyon gerçekleştirilir.

Sorumun iki bölümü var:

  1. .05'lik bir set alfa verildiğinde, bu metodolojilerin gücü aynı mı yoksa farklı mı olacak? Neden? Bunu nasıl kanıtlayabilirim?
  2. 1. soruya verilen cevap t-testine giren örnek boyutlarına, t-testindeki her grubun örnek büyüklüğüne, altta yatan binom olasılıklarına veya başka bir faktöre duyarlı mı? Eğer öyleyse, gücün gerçekten farklı olduğunu (simülasyon olmadan) nasıl bilebilirim ve ne tür değişiklikler iktidarda ne gibi değişiklikler yaratır? Alternatif olarak, simülasyon kullanarak sorunu çözen, çalışılmış R kodunu sağlayın.

Yanıtlar:


19

Eğer doğru hesaplamışsam, lojistik regresyon asemptotik olarak t-testi ile aynı güce sahiptir. Bunu görmek için, günlük olasılığını not edin ve Hessian'ın küresel maksimum beklentisini hesaplayın (negatif, ML çözeltisinin varyans-kovaryans matrisini tahmin eder). Her zamanki lojistik parametreleştirme ile uğraşmayın: sadece söz konusu iki olasılıkla parametreleştirmek daha kolaydır. Ayrıntılar, tam olarak bir lojistik regresyon katsayısının önemini nasıl test ettiğinize bağlı olacaktır (birkaç yöntem vardır).

Bu testlerin benzer güçlere sahip olması çok şaşırtıcı olmamalıdır, çünkü ML tahminleri için ki-kare teorisi log olasılığına normal bir yaklaşıma dayanır ve t-testi oranların dağılımına normal bir yaklaşıma dayanır. İşin özü, her iki yöntemin de iki oranın aynı tahminlerini yapması ve her iki tahminin de aynı standart hatalara sahip olmasıdır.


Gerçek bir analiz daha inandırıcı olabilir. Belirli bir gruptaki (A veya B) değerler için genel bir terminoloji kullanalım:

  • , 1 olasılığıdır.p
  • her bir çekiş setinin boyutudur.n
  • , çekiliş setlerinin sayısıdır.m
  • veri miktarıdır.N=mn
  • (e eşit 0 ya da 1 ) değeridir j inci netice i inci çizer grubu.kij01jthith
  • içinde olanların toplam sayısıdır i inci çizer kümesi.kiith
  • toplam olan sayısıdır.k

Lojistik regresyon aslında ML tahmincisidir . Logaritması tarafından verilirp

log(L)=klog(p)+(Nk)log(1p).

Parametresi ile ilgili olarak onun türevleri olanp

log(L)p=kpNk1p and

2log(L)p2=kp2+Nk(1p)2.

İlk sıfır verim ML tahmin ayarlama p = K / K ve ikinci ifade karşılıklı olarak varyans sonuçlandığı takıp p ( 1 - p ) / K , standart hatanın kare.p^=k/Np^(1p^)/N

T istatistik çizer setler göre gruplandırılmış verilere dayanarak tahmin edicileri elde edilecektir; yani, araçların farkı (biri A grubundan diğeri B grubundan) bu farkın, standart sapmalardan elde edilen standart hataya bölünmesiyle elde edilir. O zaman belirli bir grup için ortalama ve standart sapmaya bakalım. Ortalama eşittir ML tahmin ile aynıdır, p . Söz konusu standart sapma, çekme araçlarının standart sapmasıdır; yani, k i / n kümesinin standart sapmasıdır . İşte meselenin özü bu yüzden bazı olasılıkları keşfedelim.k/Np^ki/n

  1. Varsayalım verileri tüm çizer halinde gruplanmamış: olduğu, ve m = N . K i beraberlik araçlardır. Bunların örnek varyans eşittir N / ( N - 1 ) katı p ( 1 - p ) . Bundan, standart hatanın standard faktörü dışında ML standart hata ile aynı olduğu anlaşılmaktadır.n=1m=NkiN/(N1)p^(1p^) , buN=1800olduğundaesasen1'dir. Bu nedenle - bu küçük farkın dışında - lojistik regresyona dayalı herhangi bir test t-testi ile aynı olacak ve esasen aynı güce ulaşacağız.N/(N1)1N=1800

  2. Veri gruplandığında, (gerçek) varyans eşittir p ( 1 - p ) / n istatistikleri için k i toplamını temsil eder , n , Bernoulli ( s varyans, her biri) değişken p ( 1 - p ) . Bu nedenle beklendiği ortalamanın standart hatası m bu değerlerin kareköküdür p ( 1 - p ) / n / m =ki/np(1p)/nkinpp(1p)m , daha önce olduğu gibi.p(1p)/n/m=p(1p)/N

2 numara, testin gücünün, çekilişlerin nasıl paylaştırıldığına ( ve n'nin m n = N'ye göre nasıl değiştiği ile ), belki de numunedeki ayardan oldukça küçük bir etki dışında önemli ölçüde değişmemesi gerektiğini gösterir. varyans (her grupta çok az sayıda beraberlik kullanacak kadar aptal olmadıkça).mnmn=N

M = 900 , n = 1 (esasen lojistik regresyon) içeren ila p = 0.74'ü (10.000 yineleme ile) karşılaştırmak için sınırlı simülasyonlar ; m = n = 30 ; ve m = 2 , n = 450 (örnek varyans ayarını en üst düzeye çıkarır) bunu taşır: güç ( α = 0.05'dep=0.70p=0.74m=900,n=1m=n=30m=2,n=450α=0.05, tek taraflı) ilk iki durumda 0,59 iken, ayarlama faktörünün önemli bir değişiklik yaptığı (şimdi 1798 veya 58 yerine sadece iki serbestlik derecesi vardır) üçüncü sırada 0,36'ya düşer. ile p = 0.52'yi karşılaştıran başka bir test , sırasıyla 0.22, 0.21 ve 0.15 güçlerini verir: yine, çekilişlere gruplanmadan (= lojistik regresyon) 30 gruba gruplamaya ve önemli bir düşüşe kadar sadece hafif bir düşüş gözlemliyoruz sadece iki gruba.p=0.50p=0.52

Bu analizin ahlakı :

  1. veri değerlerinizi göreceli olarak küçük "çekme" gruplarından oluşan çok sayıda m'ye böldüğünüzde fazla kaybetmezsiniz .Nm
  2. Az sayıda grup kullanarak kayda değer gücü kaybedebilirsiniz ( küçüktür, n - grup başına veri miktarı - büyüktür).mn
  3. En iyi şekilde veri değerlerinizi "çekilişler" olarak gruplamamanız gerekir . Bunları olduğu gibi analiz edin (lojistik regresyon ve t-testi dahil herhangi bir makul testi kullanarak).N

1
@suncoolsu Güncellemeye oy veremeyeceğimiz bir utanç ...
chl

2
@chl .. Kabul ediyorum, (+2) :-) vermek isterdim, aslında bu güncellemeye kadar bu soru hakkında bu kadar derin düşünmemiştim.
suncoolsu

Her zamanki gibi Bill Huber'den bir tur gücü. II, t testi için gücün lojistik regresyon ile nasıl karşılaştırılacağı konusundaki şaşkın soruya bakıyorum. Ancak ortaklığın her iki yöntemi de oranların test edilmesi görevine
koyduğu görülüyor

8

İşte R 'de whuber'ın cevabının simülasyonunu gösteren kod . R kodumu geliştirmeyle ilgili geri bildirim hoş geldiniz.

N <- 900            # Total number data points
m <- 30;            # Size of draw per set
n <- 30;            # No of sets

p_null <- 0.70;     # Null hypothesis
p_alternate <- 0.74 # Alternate hypothesis
tot_iter <- 10000;

set.seed(1);        # Initialize random seed
null_rejected <- 0; # Set counter to 0
for (iter in 1:tot_iter)
{
    draws1 <- matrix(0,m,n);
    draws2 <- matrix(0,m,n);
    means1 <- matrix(0,m);
    means2 <- matrix(0,m);

    for (obs in 1:m)
    {
        draws1[obs,] <- rbinom(n,1,p_null);
        draws2[obs,] <- rbinom(n,1,p_alternate);

        means1[obs,] <- mean(draws1[obs,]);
        means2[obs,] <- mean(draws2[obs,]);
    }
    if (t.test(means1,means2,alternative="l")$p.value <= 0.05)
    {
        null_rejected <- null_rejected + 1; 
    }
}
power <- null_rejected / tot_iter

1
Bunu paylaştığın için teşekkürler! (Tüm parametre değişkenlerini yapma ve bunları açıkça yorumlama tarzınızı seviyorum.) Bugün oylarımın dışındayım :-( bu yüzden oy vermek için beklemek zorundayım.
whuber

2
replicate()rbinom() k{*}apply()

@chl Teşekkürler. Bu soruları R öğrenmek için kullanıyorum! Sizinki gibi geri bildirim değerlidir.

@Skrikant LOL Sadece ekliyorum: "BTW R öğrenme şeklini seviyorum!"
chl

Kafam karıştı; bu sadece t.test'in gücünü vermiyor mu?
russellpierce
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.