Neden bilgi kriteri (ayarlanmadı)


9

ARMA-GARCH gibi zaman serisi modellerinde, modelin uygun gecikmesini veya sırasını seçmek için AIC, BIC, SIC vb. Gibi farklı bilgi kriteri kullanılır.

Sorum çok basit, neden kullanmıyoruz ayarlanmış R2uygun modeli seçmek için? Ayarlanmış daha yüksek değere yol açan modeli seçebilirizR2. Çünkü ikisi de ayarlandıR2 ve modeldeki ek regresörler için bilgi kriteri cezalandırılır. R2 ve daha sonra olabilirlik değerini cezalandırır.


Cevaplarda bir şey eksik olabilir (aşağıda), ancak R-kareleri ve Düzeltilmiş R-kareleri, OLS tahmini modellerinin nispeten sınırlı sınıfı için uygundur, oysa AIC'ler, BIC'ler vb. Daha geniş genelleştirilmiş doğrusal sınıf için uygundur. modeller, belki ML veya bir varyant ile tahmin edilmiştir.
Mike Hunter

Yanıtlar:


12

En azından doğrusal modelleri tartışırken (AR modelleri gibi), R2 ve AIC o kadar farklı değil.

Olup olmadığını sorun. X2 dahil edilmelidir

y=X1(n×K1)β1+X2(n×K2)β2+ϵ
Bu, modelleri karşılaştırmaya eşdeğerdir
M1:y=X1β1+uM2:y=X1β1+X2β2+u,
nerede E(u|X1,X2)=0. Diyoruz kiM2ise gerçek bir model iseβ20. Dikkat edinM1M2. Bu nedenle modeller yuvalanmıştır . Bir model seçim prosedürüM^ birkaç modelden en mantıklısı seçen verilere bağlı bir kuraldır.

Diyoruz M^ise tutarlı ise

limnP(M^=M1|M1)=1limnP(M^=M2|M2)=1

Düzeltilmiş düşünün . Yani, ise . Şöyle monoton bir şekilde azalmaktadır , bu prosedür, en aza indirmek için eşdeğerdir . Buna karşılık, bu değerini en aza indirmeye eşdeğerdir . Yeterince büyük , ikincisi neredeR2M1R¯12>R¯22R¯2s2s2log(s2)n

log(s2)=log(σ^2nnK)=log(σ^2)+log(1+KnK)log(σ^2)+KnKlog(σ^2)+Kn,
σ^2hata varyansının ML tahmincisidir. temelli model seçimi asimptotik olarak en küçük olan modeli seçmeye eşdeğerdir . Bu prosedür tutarsız.R¯2log(σ^2)+K/n

Önerme :

limnP(R¯12>R¯22|M1)<1

İspat : ; buradaki istatistik, bir asimptotik izleyen doğrusal regresyon durumunda LR istatistiği olduğu için 2.-son satırın ardından gelir. boş dağıtım. QED

P(R¯12>R¯22|M1)P(log(s12)<log(s22)|M1)=P(nlog(s12)<nlog(s22)|M1)P(nlog(σ^12)+K1<nlog(σ^22)+K1+K2|M1)=P(n[log(σ^12)log(σ^22)]<K2|M1)P(χK22<K2)<1,
χK22

Şimdi Akaike kriterlerini, düşünün. Böylece, AIC ayrıca ek gerileyenlerin uyguladığı SSR'nin "ceza süresi" , "ki bu zıt yönü gösterir. Böylece, seçim eğer , başka seçmek .

AIC=log(σ^2)+2Kn
M1AIC1<AIC2M2

yukarıdaki 3. ile devam ederek de tutarsız olduğu görülebilir. . Ayarlanan ve , gerçek model olsa bile, pozitif olasılıkla "büyük" model seçer .AICP(nlog(σ^12)+2K1<nlog(σ^22)+2(K1+K2)|M1)R2AICM2M1

AIC'deki karmaşıklık cezası, düzeltilmiş biraz daha büyük olduğundan , aşırı seçime daha az eğilimli olabilir. Ve yazımda ele alınmayan diğer güzel özelliklere (bu, dikkate alınan modeller kümesinde değilse gerçek modele KL sapmasını en aza indirmek) sahiptir.R2


1
Harika cevap: çok ağır değil ama yine de kesin! Eğer dün orada olsaydı, benimkini göndermezdim.
Richard Hardy

ARMA-GARCH davası ne olacak? MA ve GARCH terimleri arasında seçim yapmakta ne yapardı ? Radj2
Zachary Blumenfeld

Söylemeye cesaret edemem. Açıkladığınız gibi, R2'nin böyle bir modelin uyumu için ne anlama geldiği bile net değil.
Christoph Hanck

5

içindeki ceza , AIC veya BIC tarafından ortaya konulduğu üzere model seçimi açısından hoş özellikler vermez. içindeki ceza , regülatörlerin hiçbiri gerçekten modele ait olmadığında popülasyonunun tarafsız bir tahmincisi yapmak için yeterlidir (Dave Giles'in blog gönderilerine göre "In What Sense "Düzeltilmiş" R-Kare Kenarsız mı? " ve " Düzeltilmiş "Belirleme Katsayısı" nın Özellikleri Hakkında Daha Fazla Bilgi ); ancak, uygun bir model seçici değildir.Radj2Radj2Radj2R2Radj2

(Çelişki bir kanıtı olabilir: AIC uygun bir anlamda olup BIC başka uygun ise ve bunlardan birine denk olmayan, daha sonra ya da optimal değildir bu iki duyunun.)Radj2Radj2


önce kaç GARCH parametresi eklemem gerekir ? :) .... İlişkili hataların varsayımı için benzer bir argümanın yapılabileceğine inanıyorum (MA modelinde olduğu gibi), bir GLS modeli, sıradan en küçük kareler üzerindeki kare kalıntıların toplamını azaltmaz. Hem MA hem de GARCH'da, modele parametreler ( için ayarlanan açıklayıcı değişkenler değil ) eklenir. MA ve GARCH parametreleri azaltmak için eklenmez , bunun yerine , iid hata terimlerinin eksikliğini yansıtmak üzere, kare şeklindeki artıkların ağırlıklı toplamını azaltır . R2R2adjSSR
Zachary Blumenfeld

Bu gerçekten orijinal gönderiyi mi yoksa cevabımı mı ele alıyor? Her durumda, puanlarınıza katılıyorum.
Richard Hardy

Ne işaret etmeye çalışıyordu olduğunu gerçekten kesir dayalı olduğu (ve muhtemelen MA bileşenlerinin) GARCH bileşenlerine üzerine seçmek için kullanılamaz üzerinde tahmincileri önyargılı edilir hata terimleri iid olmadığında değişkenlik. (bu sadece konuştuğunuz yerdeki önyargıların özel bir örneğidir). ARMA-GARCH durumunda, verilerde stokastik uçuculuk olsa bile asla GARCH bileşenlerine sahip bir model seçemezsiniz, çünkü arttırmaz . Temel olarak, belirli örnekler vermeye çalışarak sizinle aynı fikirdeyim. Radj2SSTSSRSSTR2
Zachary Blumenfeld
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.