GLM'lerde aşırı dağılım testleri gerçekten * faydalı mıdır?


15

Bir GLM'deki 'aşırı dağılım' olgusu, yanıt değişkeninin varyansını kısıtlayan bir model kullandığımızda ortaya çıkar ve veriler model kısıtlamasının izin verdiğinden daha fazla varyans gösterir. Bu, sayı verilerini bir Poisson GLM kullanarak modellerken yaygın olarak ortaya çıkar ve iyi bilinen testlerle teşhis edilebilir. Testler, aşırı dağılımın istatistiksel olarak önemli bir kanıtı olduğunu gösteriyorsa, modeli genellikle orijinal model altında meydana gelen kısıtlamadan sapma parametresini serbest bırakan daha geniş bir dağılım ailesi kullanarak genelleştiririz. Bir Poisson GLM durumunda, bir negatif-binomiyal veya yarı-Poisson GLM'ye genelleme yapmak yaygındır.

Bu durum bariz bir itirazla hamile. Neden Poisson GLM ile başlayalım? Doğrudan (nispeten) serbest varyans parametresine sahip olan ve varyans parametresinin verilere uymasını sağlayarak aşırı dağılım testlerini tamamen göz ardı ederek daha geniş dağıtım formlarıyla doğrudan başlanabilir. Veri analizi yaparken diğer durumlarda neredeyse her zaman en azından ilk iki anın özgürlüğüne izin veren dağıtım formlarını kullanırız, neden burada bir istisna yapalım?

Benim sorum: Varyansı sabitleyen bir dağılımla başlamak için iyi bir neden var mı (örneğin, Poisson dağılımı) ve daha sonra bir aşırı dağılım testi yapmak? Bu prosedür, bu egzersizi tamamen atlamak ve doğrudan daha genel modellere (örn. Negatif binomiyal, yarı-Poisson, vb.) Gitmekle nasıl karşılaştırılır? Başka bir deyişle, neden her zaman serbest varyans parametresiyle bir dağıtım kullanmıyorsunuz?


1
benim tahminim, eğer altta yatan gerçekten poisson ise, o zaman glm sonucunuz tahminler gibi iyi bilinen iyi özellikleri göstermeyecektir, tahminlerin varyansının olması gerekenden daha büyük olması, modeli kullanılmıştır. Tahminler muhtemelen tarafsız veya MLE'ler bile değildir. Ama bu sadece sezgim ve yanlış olabilirim. İyi bir cevabın ne olduğunu merak ederdim.
mlofton

3
Deneyimlerime göre, aşırı dağılım için test (paradoksal olarak) esas olarak aşırı dağılımın mevcut olamayacağını bildiğinizde (veri oluşturma süreci bilgisinden) kullanılır. Bu bağlamda, aşırı dağılım testi, lineer modelin verilerdeki tüm sinyali alıp almadığını gösterir. Değilse, modele daha fazla ortak değişken eklenmesi düşünülmelidir. Eğer öyleyse, daha fazla ortak değişken yardımcı olamaz.
Gordon Smyth

@GordonSmyth: Bence bu iyi bir cevap. Eğer bunu kendi cevabına çevirmek istemiyorsanız, benimkine katlayacağım.
Cliff AB

1
@GordonSmyth, uyum testi iyiliği olarak sapkınlık analizi beni her zaman rahatsız eden bir şeye ulaşır: eksik eş değişkenler aşırı dağılım ile karıştırılır. Materyalin sıklıkla nasıl öğretildiği ile ilgili bazı problemler olduğunu gösterir. Kategorik bir sınıfa ders veriyorum ve ders kitapları bu noktayı çok güçlü bir şekilde ifade etmiyor.
guy

1
@guy Evet, bu doğru ve insanlar kalan sapmanın her zaman chisquare dağıtımı olduğunu varsayarlar, ki bu genellikle değildir. Son zamanlarda yaptığımız doi.org/10.1007/978-1-4419-0118-7 ders kitabımızda bu noktalardan daha iyi bir iş çıkarmaya çalıştık, ancak alan sınırları dahilindeki her şeyi kapsamak zor.
Gordon Smyth

Yanıtlar:


14

Prensip olarak, aslında% 99'unun sadece daha esnek modeli kullanmanın daha iyi olduğunu kabul ediyorum. Bununla birlikte, neden olmasın diye iki buçuk argüman var.

(1) Daha az esneklik, daha verimli tahminler anlamına gelir. Varyans parametrelerinin ortalama parametrelerden daha az kararlı olduğu göz önüne alındığında, sabit ortalama varyans ilişkisi varsayımınız standart hataları daha fazla stabilize edebilir .

(2) Model kontrolü. Teorik fizik nedeniyle Poisson dağılımları ile çeşitli ölçümlerin tanımlanabileceğine inanan fizikçilerle çalıştım. Ortalama = varyans anlamına gelen hipotezi reddedersek, Poisson dağılım hipotezine karşı kanıtımız olur. @GordonSmyth tarafından yapılan bir yorumda belirtildiği gibi, belirli bir ölçümün bir Poisson dağılımını izlemesi gerektiğine inanmanız için bir nedeniniz varsa, aşırı dağılım olduğuna dair kanıtınız varsa, önemli faktörleri kaçırdığınızı gösteren kanıtlarınız vardır.

Vbirr[y]=αE[y]α1


2.5'te: Tabii ki bu sınırlamaya sahip olmayan rastgele etkileri olan negatif binom ve GLMM var.
Björn

@ Björn: işte bu yüzden bu sadece yarım argüman; yalnızca Yarı Olabilirlik yöntemleri için geçerlidir. Gibi bildiğim kadarıyla, hiçbir olabilirlik temelli yöntemler vardır altında bu Yarı-Olabilirlik modeli ile analiz edilebilir olsa bile, dağılma.
Cliff AB

1
Ayrıca 2.5'te: Anladığım kadarıyla, istenen ilişkiyi karşılayan üstel dağılım ailesi yoktur . Yani, yarı skor gerçek bir puana karşılık gelmez. Yani orada anlamına gelmez hiçbir istenen ilişkiyi yerine sayım verileri için dağılımların aileleri; böyle birçok aile olmalı.
guy

2
@CliffAB, dağınık sayım verileri için, birkaç R paketinde uygulanan Conway-Maxwell-Poisson modeli vardır: en.m.wikipedia.org/wiki/… .
Dimitris Rizopoulos

Model tahmin için kullanılacaksa, daha basit modeli tercih etmenin bir başka nedeni, eğer her şey eşitse, daha basit modelin daha iyi tahmin özelliklerine sahip olacağıdır. Genel olarak AIC, BIC ve PAC'yi düşünüyorum.
meh

11

Bu benim kendi sorum olmasına rağmen, kendi iki sentimi de cevap olarak yayınlayacağım, böylece bu soruya bakış açılarını ekleyelim. Buradaki sorun, başlangıçta verilere tek parametreli bir dağıtımın takılmasının anlamlı olup olmadığıdır. Tek parametreli bir dağıtım (Poisson GLM veya sabit deneme parametresine sahip bir binom GLM gibi) kullandığınızda, varyans serbest bir parametre değildir ve bunun yerine ortalamanın bir işlevi olarak kısıtlanır. Bu, varyansın bu dağılımın yapısını izlediğinden kesinlikle emin olmadığınız her durumda verilere tek parametreli bir dağıtımın takılmasının tavsiye edilmediği anlamına gelir.


Verilere tek parametreli dağılımların yerleştirilmesi neredeyse her zaman kötü bir fikirdir: Veriler genellikle önerilen modellerin gösterdiklerinden daha karışıktır ve belirli bir tek parametreli modelin elde edebileceğine inanmak için teorik nedenler olsa bile, veriler genellikle aslında bu tek parametreli dağılımın bir dizi parametre değeriyle bir karışımından gelir. Bu genellikle varyans için daha fazla özgürlük sağlayan iki parametreli bir dağıtım gibi daha geniş bir modele eşdeğerdir. Aşağıda tartışıldığı gibi, bu sayı verileri söz konusu olduğunda Poisson GLM için geçerlidir.

Soruda belirtildiği gibi, çoğu istatistik uygulamasında, en azından ilk iki anın serbestçe değişmesine izin veren dağıtım formlarını kullanmak standart uygulamadır. Bu, takılan modelin, bunları model tarafından yapay olarak kısıtlanmak yerine, çıkarılan ortalama ve varyansı dikte etmesine izin verir. Bu ikinci parametreye sahip olmak, modelde sadece bir serbestlik derecesini kaybeder, bu da varyansın verilerden tahmin edilmesinin yararına kıyasla küçük bir kayıptır. Elbette bu akıl yürütme genişletilebilir ve çarpıklığın takılmasına izin vermek için üçüncü bir parametre, basıklık takılmasına izin vermek için dördüncü bir parametre eklenebilir.


Son derece küçük istisnalar dışında, bir Poisson GLM kötü bir modeldir: Benim tecrübelerime göre, verileri saymak için bir Poisson dağılımı yerleştirmek neredeyse her zaman kötü bir fikirdir. Sayım verileri için, verilerdeki varyansın Poisson dağılımına göre 'aşırı dağılması' oldukça yaygındır. Teorinin bir Poisson dağılımına işaret ettiği durumlarda bile, genellikle en iyi model, varyansın serbest bir parametre haline geldiği Poisson dağılımlarının bir karışımıdır . Aslında, sayım verisi durumunda negatif-binomiyal dağılım, rate parametresi için gama dağılımlı bir Poisson karışımıdırbu nedenle, sayıların bir Poisson dağılımı sürecine göre geldiğini düşünmek için teorik nedenler olsa bile, genellikle 'aşırı dağılım' olduğu ve negatif-binomiyal dağılımın çok daha iyi uyduğu durumdur.

Verileri saymak için bir Poisson GLM takma ve daha sonra 'aşırı dağılım' ı kontrol etmek için istatistiksel bir test yapma uygulaması bir anakronizmdir ve neredeyse hiç iyi bir uygulamadır. Diğer istatistiksel analiz formlarında, iki parametreli bir dağıtımla başlamayız, keyfi olarak bir varyans kısıtlaması seçeriz ve daha sonra bir parametreyi dağıtımdan çıkarmaya çalışmak için bu kısıtlamayı test ederiz. İşleri bu şekilde yaparak, aslında model seçimi için kullanılan bir ilk hipotez testinden ve daha sonra gerçek modelden (Poisson veya daha geniş bir dağıtım) oluşan garip bir hibrit prosedürü yaratırız. Birçok bağlamda, bir başlangıç ​​model seçim testinden hibrid modeller yaratmanın bu tür uygulamalarının kötü genel modellere yol açtığı gösterilmiştir.

Benzer bir hibrit yöntemin kullanıldığı benzer bir durum, ortalama farkın T testlerinde bulunmaktadır. Eskiden istatistik derslerinin ilk önce iki popülasyon arasındaki varyansların eşitliğini kontrol etmek için Levene testini (ya da sadece daha crappier "başparmak kuralları") kullanmanızı ve daha sonra veriler bu testi "geçerse" eşit varyans olduğunu varsayan Öğrenci T-testini kullanın ve veriler testi "başarısız" yaparsa, bunun yerine Welch'in T-testini kullanırsınız. Bu aslında çok kötü bir prosedür (bkz. Örneğin burada ve burada)). Ön hipotez testini sıkıştıran ve daha sonra bunu modeli seçmek için kullanan garip bir bileşik testi oluşturmak yerine, varyans üzerinde hiçbir varsayım yapmayan ikinci testi kullanmak daha iyidir.

Sayım verileri için, genellikle negatif-binomiyal veya yarı-Poisson modeli gibi iki parametreli bir model takarak iyi başlangıç ​​sonuçları elde edersiniz. (İkincisinin gerçek bir dağılım olmadığını, ancak yine de makul bir iki parametreli model verdiğini unutmayın.) Daha fazla genelleme gerekiyorsa, genellikle aşırı sayıda sıfırın olduğu sıfır enflasyonun eklenmesi anlamına gelir. veri. Bir Poisson GLM ile sınırlamak yapay ve anlamsız bir model seçimidir ve aşırı dağılım testi yapılarak bu daha iyi değildir.


Tamam, şimdi küçük istisnalar var: Yukarıdakilerin tek gerçek istisnası iki durumdur:

(1) Son derece güçlüsün Bir parametre dağılımı için varsayımların karşılandığına inanmak için bir teori nedeniniz var ve analizin bir kısmı bu teorik modeli verilere karşı test etmektir; veya

(2) Başka (garip) bir nedenden ötürü, analizinizin amacı verilerin varyansı üzerinde bir hipotez testi yapmaktır ve bu nedenle bu varyasyonu bu hipotez kısıtlamasıyla sınırlamak ve daha sonra bu hipotezi test etmek istersiniz.

Bu durumlar çok nadirdir. Sadece veri üreten mekanizma hakkında güçlü bir önsel teorik bilgi olduğunda ortaya çıkma eğilimindedirler ve analizin amacı bu temel teoriyi test etmektir. Bu, verilerin sıkı kontrol edilen koşullar altında (örneğin, fizikte) üretildiği son derece sınırlı bir uygulama aralığında olabilir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.