Model karmaşıklığının ölçüleri


19

İki modelin karmaşıklığını aynı sayıda parametreyle nasıl karşılaştırabiliriz?

Edit 09/19 : Açıklığa kavuşturmak için, model karmaşıklığı sınırlı verilerden öğrenmenin ne kadar zor olduğunun bir ölçüsüdür. İki model mevcut verilere eşit derecede uyduğunda, daha düşük karmaşıklığa sahip bir model gelecekteki verilerde daha düşük hata verecektir. Yaklaşımlar kullanıldığında, bu teknik olarak her zaman doğru olmayabilir, ancak pratikte doğru olma eğilimi varsa sorun olmaz. Çeşitli yaklaşımlar farklı karmaşıklık ölçüleri verir


modeller hakkında hangi özelliklerin mevcut olduğu hakkında daha fazla bilgi verebilir misiniz?
shabbychef

Bu açık bir soru, bu yüzden sorum şu olurdu - karmaşıklığı ölçebilmek için ne tür özelliklere ihtiyacım var? En temel düzeyde, bir olasılık modeli olasılık dağılımları kümesidir, ve ben en iyi uydurma üyesini seçerek verilere modele uyan
Yaroslav Bulatov

3
"Karmaşıklık" tam olarak nedir? (Bu kibirli bir soru değil!) Resmi bir tanımın yokluğunda, bir şeyin geçerli karşılaştırmasını yapmayı ümit edemeyiz.
whuber

Temelde sorduğum şey bu
Yaroslav Bulatov

2
Ama en azından bize "karmaşıklık" kelimesinde bir modelin hangi yönünü yakalamaya çalıştığınıza dair bir ipucu veremez misiniz? Bu olmadan, bu soru makul bir cevabı kabul etmek için belirsizdir.
whuber

Yanıtlar:


12

Minimum Açıklama Uzunluğunun çeşitli ölçümlerinin yanı sıra (örneğin, normalize edilmiş maksimum olasılık, Fisher Bilgisi yaklaşımı), belirtilmesi gereken iki yöntem daha vardır:

  1. Parametrik Önyükleme . Uygulanması, zorlu MDL önlemlerinden çok daha kolaydır. Wagenmaker ve meslektaşları güzel bir makale:
    Wagenmakers, E.-J., Ratcliff, R., Gomez, P. ve Iverson, GJ (2004). Parametrik önyükleme kullanarak model taklidini değerlendirme . Matematiksel Psikoloji Dergisi , 48, 28-50.
    Soyut:

    Bir modelin, rakip bir model tarafından üretilen verileri hesaba katma yeteneği olarak tanımlanan model taklitini ölçmek için genel bir örnekleme prosedürü sunuyoruz. Parametrik bootstrap çapraz montaj yöntemi (PBCM; cf. Williams (JR Statist. Soc. B 32 (1970) 350; Biometrics 26 (1970) 23)) olarak adlandırılan bu örnekleme prosedürü, uyum iyiliğindeki farklılıkların dağılımlarını üretir rakip modellerin her biri altında olması bekleniyor. PBCM'nin veri bilgili versiyonunda, üreten modeller, söz konusu deneysel verilerin yerleştirilmesiyle elde edilen spesifik parametre değerlerine sahiptir. Veri ile bilgilendirilmiş fark dağılımları, model yeterliliğinin bir miktarının ölçülmesini sağlamak için, uyum iyiliğindeki gözlenen fark ile karşılaştırılabilir. PBCM'nin bilgilendirilmemiş veri sürümünde, üreten modeller önceki bilgilere dayanarak nispeten geniş bir parametre değerleri aralığına sahiptir. Hem bilgilendirilen verilerin hem de bilgisiz PBCM'nin uygulanması birkaç örnekle gösterilmiştir.

    Güncelleme: Model taklidini düz İngilizce olarak değerlendirme. İki rakip modelden birini alırsınız ve bu model için rastgele bir dizi parametre seçersiniz (ya veri bilgilendirilir ya da verilmez). Ardından, seçilen parametre seti ile bu modelden veri üretirsiniz. Daha sonra, her iki modelin üretilen verilere uymasına izin verin ve iki aday modelden hangisinin daha iyi uyduğunu kontrol edin. Her iki model de eşit derecede esnek veya karmaşıksa, verileri ürettiğiniz model daha iyi bir uyum sağlamalıdır. Ancak, diğer model daha karmaşıksa, veriler diğer modelden üretilmesine rağmen, daha iyi bir uyum sağlayabilir. Bunu her iki modelle birkaç kez tekrarlıyorsunuz (yani, her iki modelin veri üretmesine izin verin ve ikisinden hangisinin daha iyi uyduğuna bakın). Diğer model tarafından üretilen verilere "fazla uyan" model daha karmaşıktır.

  2. Çapraz Doğrulama : Uygulanması da oldukça kolaydır. Bu sorunun cevaplarına bakın . Bununla birlikte, bununla ilgili sorunun, örnek kesme kuralı (bir kereye mahsus bırakma, K-katlama, vb.)


Gerçekten "model taklidi" anlamıyorum, ancak çapraz doğrulama sadece karmaşıklığı değerlendirme görevini erteliyor gibi görünüyor. Parametrelerinizi ve modelinizi çapraz doğrulamada olduğu gibi seçmek için veri kullanırsanız , ilgili soru bu "meta" -fitter'ın iyi performans göstermesi için gereken veri miktarının nasıl tahmin edileceği haline gelir
Yaroslav Bulatov

@Yaroslaw: Çapraz doğrulama ile ilgili sorununuzu gerçekten anlamıyorum, ama dürüst olmak gerekirse orada uzman değilim. Ancak, model taklidini ölçmek için gerçekten bir noktaya değinmek istiyorum. Bu nedenle, güncellenmiş cevabıma bakın.
Henrik

4

Bence gerçek model uydurma prosedürüne bağlı. Genel olarak uygulanabilir bir önlem için, 1998'de açıklanan Genelleştirilmiş Serbestlik Derecelerini düşünebilirsiniz - esasen model tahminlerindeki değişimin gözlemlerin bozulmasına duyarlılığı - model karmaşıklığının bir ölçüsü olarak iyi çalışır.


Hm ... kağıt tamamen gerileme ile ilgili, bunun ayrı olasılık tahmini için kullanılıp kullanılamayacağını merak ediyorum. Ayrıca, bunun için verdiği motivasyonu gerçekten anlamıyorum - gdf, parametrelerin verilerdeki küçük değişikliklere duyarlılık derecesidir, ancak neden önemlidir? Orijinal parametrelendirmedeki parametrelerde küçük değişikliklerin yeni parametrelendirmedeki büyük değişikliklere karşılık geldiği farklı bir parametre seçebilirim, bu yüzden verilere daha duyarlı görünecektir, ancak aynı model
Yaroslav Bulatov

Yaroslav:> * Orijinal parametreleştirmedeki parametrelerde küçük değişikliklerin yeni parametreleştirmedeki büyük değişikliklere karşılık geldiği farklı bir parametreleme seçebilirim, bu nedenle verilere daha duyarlı görünecektir * bir örnek verebilir misiniz (bir afin eşdeğer tahmincisi dahil)? Teşekkürler,
user603 18:10

1
Doğrusal regresyondaki DoF, şapka matrisinin izi veya duyarlılıkların toplamı üzerinde çalışır - bu nedenle motivasyon / konsept o kadar da uzak değildir. Tibshirani & Knight, duyarlılıklar yerine model tahminlerinin kovaryanslarına bakan Kovaryans Enflasyon Kriteri'ni önerdi. GDF, araba ve dalgacık eşiği (Ye'nin adaptif model seçimiyle ilgili makalesinde daha fazla ayrıntıya sahiptir) gibi bir dizi model prosedüründe ve karmaşıklığı kontrol etmek için topluluk yöntemlerinde uygulanmış gibi görünüyor, ancak herhangi bir ayrık tahmin vakası bilmiyorum. Denemeye değer olabilir ...
ARS

"Afin eşdeğer tahmin edicileri" bilmiyorum, ama bunun yerine maksimum olabilirlik tahmin edicisine güvendiğimizi varsayalım. Bırakın q = f (p), burada f bir miktar bijection olur. P0, q0 karşılık gelen parametrelendirmede MLE tahminini temsil etsin. p0, q0 farklı asimtotik varyanslara sahip olacak, ancak veri modelleme açısından eşdeğerdir. Öyleyse soru şudur - beklenen parametreyi temsil eden parametrelerin hassasiyeti hangi parametrelendirmedir?
Yaroslav Bulatov

4

Minimum Açıklama Uzunluğu (MDL) ve Minimum Mesaj Uzunluğu (MML) kesinlikle kontrol edilmeye değer.

MDL ile ilgili olarak, Normalize Edilmiş Maksimum Olabilirlik (NML) prosedürünü ve asimptotik yaklaşıklamayı gösteren basit bir makale:

S. de Rooij ve P. Grünwald. Sonsuz parametrik karmaşıklığa sahip minimum tanımlama uzunluğu model seçimi üzerine ampirik bir çalışma. Matematiksel Psikoloji Dergisi, 2006, 50, 180-192

Burada, Geometrik ve Poisson dağılımının model karmaşıklığına bakarlar. MDL hakkında mükemmel (ücretsiz) bir öğretici burada bulunabilir .

Alternatif olarak, hem MML hem de MDL ile incelenen üstel dağılımın karmaşıklığı üzerine bir makale burada bulunabilir . Ne yazık ki, MML hakkında güncel bir eğitim yoktur, ancak kitap mükemmel bir referanstır ve şiddetle tavsiye edilir.


1
Bu makaleyi okudum ve Stokastik Karmaşıklık, aynı boyutlardaki modelleri ayırt edememe sorununu çözüyor gibi görünüyor, ancak bazen farklı boyutlardaki modelleri ayırt edememe sorununu getiriyor. Geometrik dağılıma sonsuz karmaşıklık verilir, elbette böyle basit bir model için beklediğimiz gibi değil!
Yaroslav Bulatov

Sonsuz stokastik karmaşıklık (SC) hakkında çok iyi bir nokta. Sonsuz SC sorununa çözümler var, ancak çok zarif değiller; Rissanen'in renormalizasyonu doğrusal modellerde iyi çalışır, ancak Poisson / Geometrik problem için kolay değildir. Poisson / Geometrik verilerin MML (veya SMML) kodlaması gayet iyi.
emakalic


2

"Model karmaşıklığı" ile kişi genellikle model alanının zenginliği anlamına gelir. Bu tanımın verilere bağlı olmadığını unutmayın. Doğrusal modeller için, model uzayının zenginliği, alanın azalmasıyla önemsiz bir şekilde ölçülür. Bazı yazarlar buna "özgürlük dereceleri" demektedir (tarihsel olarak, serbestlik dereceleri model alanı ile örnek alanı arasındaki fark için ayrılmıştır). Doğrusal olmayan modeller için, alanın zenginliğini ölçmek daha az önemsizdir. Genelleştirilmiş Serbestlik Dereceleri (bkz. Ars cevabı) böyle bir önlemdir. Gerçekten çok geneldir ve ağaçlar, KNN ve benzerleri gibi herhangi bir "garip" model alanı için kullanılabilir. VC boyutu bir ölçüsüdür.

Yukarıda belirtildiği gibi, bu "karmaşıklık" tanımı verilerden bağımsızdır. Dolayısıyla, aynı sayıda parametreye sahip iki model tipik olarak aynı "karmaşıklığa" sahip olacaktır.


1

Yaroslav'ın yorumlarından Henrik'in cevabına:

ancak çapraz doğrulama sadece karmaşıklığı değerlendirme görevini erteliyor gibi görünmektedir. Verilerinizi parametrelerinizi ve modelinizi çapraz doğrulamadaki gibi seçmek için kullanırsanız, ilgili soru bu "meta" vericinin iyi performans göstermesi için gereken veri miktarının nasıl tahmin edileceği haline gelir

kkkCV(k)kk

Prosedürün sonucu doğrudan örnek tahmini dışı hatadaki fark (birimler) cinsinden olduğu için buna bir 'önem' aroması bile verebilirsiniz.


1
Çapraz Doğrulamanın model karmaşıklığını ölçme sorununu çözdüğüne katılıyorum. Belki de yanlış soruyu soruyorum çünkü pratik bir soru, takma prosedürünün örnek karmaşıklığıdır. Çapraz doğrulanmış öğrenci farklı modelleri dener ve en düşük çapraz doğrulama hatasına sahip olanı seçer. Şimdi soru şu: Bu öğrenicinin, tek bir modele en fazla uygun olandan daha fazla uydurma olasılığı daha yüksek mi?
Yaroslav Bulatov

Yaroslav Bulatov:> evet ama ML'yi sadece iç içe modelleri karşılaştırmak için kullanabilirsiniz. Belirttiğiniz (sorunuzda) aynı sayıda parametreye sahip modelleri belirttiğiniz sürece, o zaman iç içe olamazlar.
user603

Başka bir sorun, çapraz doğrulamanın model karmaşıklığı anlayışımıza katkıda bulunmamasıdır. AIC / BIC gibi önlemler, birçok parametrenin aşırı takmayı teşvik ettiğini açıkça ortaya koymaktadır. Şimdi soru şu - boyutun yanı sıra modelin hangi yönleri fazla yerleştirme kapasitesini artırıyor?
Yaroslav Bulatov

Yaroslav:> Yine, çok iyi bir nokta.
user603

Aşırı takma, bir model uydurma prosedürünün sinyale ek olarak gürültüye uyma eğilimi ise, bu tür eğilimlerin nerede ortaya çıkabileceğini görmek için belirli bir prosedüre bakabiliriz. Belki de hayal gücü veya bilgi eksikliğinden dolayı, birkaç farklı prosedürü göz önünde bulundururken, bunu "parametre sayısı" (veya "etkili parametre sayısı") olarak yeniden ifade edilemeyen bir şeye indiremedim. Bunu kafasına çevirip sorabiliriz: her şey eşit, verilerimize gürültü getirdiğimizde ne olur? Sonra Ye'nin GDF'si gibi önlemlere ulaşıyoruz.
ars

0

Model karşılaştırması için bilgi kriteri ne olacak? Bkz. Örneğin http://en.wikipedia.org/wiki/Akaike_information_criterion

Model karmaşıklığı burada modelin parametre sayısıdır.


AIC, model karmaşıklığının bir ölçüsü değildir.
Sven Hohenstein

@SvenHohenstein, son cümlesinden itibaren, AIC'nin kendisinin , model karmaşıklığının bir ölçüsü olduğunu önermediğini topluyorum . Brause42, sorunun özellikle aynı sayıda parametreye sahip modeller hakkında sorduğunu unutmayın. Böylece, AIC SSE veya sapmaya ya da her neyse azalacaktır.
gung - Monica'yı eski durumuna döndürün
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.