Model seçimi için en iyi yaklaşım Bayesian veya çapraz doğrulama?


22

Çeşitli modeller veya eklenecek özelliklerin arasında seçim yapmaya çalışırken, iki yaklaşım düşünebileceğimi tahmin ediyorum.

  1. Verileri eğitim ve test setlerine ayırın. Daha da iyisi, önyükleme ya da k-kat çapraz doğrulama kullanın. Her seferinde egzersiz setini eğitin ve test setindeki hatayı hesaplayın. Plot test hatası - parametre sayısı. Genellikle, böyle bir şey olsun:görüntü tanımını buraya girin
  2. Parametre değerleri üzerine entegre ederek modelin olasılığını hesaplayın. yani, hesaplayın ve bunu parametre sayısına göre çizin. Sonra böyle bir şey alırız:θP(D|θ)P(θ)dθgörüntü tanımını buraya girin

Yani benim sorularım:

  1. Bu yaklaşımlar bu problemi çözmek için uygun mudur (modelinize kaç tane parametre dahil edeceğinize karar vermek ya da birkaç model arasından seçim yapmak)?
  2. Eşdeğer mi? Muhtemelen değil. Belirli varsayımlar altında veya pratikte aynı optimal modeli verecekler mi?
  3. Bayes mankenlerinde vs. önceki bilgileri belirtmenin olağan felsefi farkı dışında, her bir yaklaşımın artıları ve eksileri nelerdir? Hangisini seçtin?

Güncelleme: AIC ve BIC karşılaştırmasıyla ilgili soruyu da buldum . Benim yöntem 1'in AIC ile asimptotik olarak eşdeğer olduğu ve yöntem 2'nin BIC ile asimptotik olarak ilişkili olduğu görülmektedir. Ama aynı zamanda orada BIC’nin Leave-One-Out CV’ye eşdeğer olduğunu da okudum. Bu, asgari eğitim hatasının ve Bayesian Olabilirlik maksimumunun, LOO CV'nin K-kat CV'ye eşdeğer olduğu durumlarda eşdeğer olduğu anlamına gelir. Jun Shao'nun belki de çok ilginç bir makalesi " Doğrusal model seçimi için asimptotik bir teori " bu konularla ilgilidir.


Gerçekten tam bir cevabım yok, fakat genellikle "özellik sayısını seçmek" için herhangi bir metot kullanmayı düşünmeyeceğimi söyleyeceğim. Genel olarak, Makine Öğrenimi ve Bayes İstatistikleri'ni sadece tüm özellikleri içerecek şekilde yorumlarım, çünkü hepsinin bir miktar minimum düzeyde etkisi vardır. Ancak, göreceli model karmaşıklığı sorununun hala uygun olduğunu düşünüyorum. Ayrıca, aslında hiç hoşunuza gittiğiniz Bayesian çıkarımı yapmadığımı da söyleyeceğim; K-fold veya bootstrapping sadeliği ile karşılaştırıldığında pratikte fazla dağınık görünüyor.
Shea Parkes,

Shao kağıdının yalnızca doğrusal modeller için çalıştığını unutmayın; Aslında, sadece basit yapıları, karmaşıklık ölçüsü olarak kullanılabilir özelliklerin sayısını arttırır ve böylece tüm bu bilgi kriterlerini güçlendirir.

1
AIC ( BIC değil! ), Zayıf varsayımlar altında bir kez dışarıya bırakılan çapraz onaylamaya asimptotik olarak eşdeğerdir ( Taş "Çapraz doğrulama ve Akaike kriterine göre model seçiminin asimptotik bir denkliği" (1977) nedeniyle ). Bahsettiğiniz sorudaki kaynak yanlıştı ve Rob Hyndman tarafından bir yorumda düzeltildi. Yanlış fikri yaymayı bırakmanın da burada düzeltmenin iyi bir fikir olacağını düşündüm.
Richard Hardy

Yanıtlar:


13
  1. Bu yaklaşımlar bu problemi çözmek için uygun mudur (modelinize kaç tane parametre dahil edeceğinize karar vermek ya da birkaç model arasından seçim yapmak)?

İkisinden biri olabilir, evet. En iyisini öngören bir model edinmekle ilgileniyorsanız, düşündüğünüz model listesinden ayrılma / çapraz doğrulama yaklaşımı bunu iyi yapabilir. Hangi modellerden hangisinin (olası modeller listenizde) gerçekte verilerinizi ürettiği ile ilgileniyorsanız, ikinci yaklaşım (modellerin arka olasılığını değerlendiren) istediğiniz şeydir.

  1. Eşdeğer mi? Muhtemelen değil. Belirli varsayımlar altında veya pratikte aynı optimal modeli verecekler mi?

Hayır, genel olarak eşdeğer değildir. Örneğin , 'en iyi' modeli seçmek için AIC (Akaike tarafından bir Bilgi Kriteri) kullanılması, yaklaşık olarak çapraz doğrulamaya karşılık gelir. Kullanımı BIC (Bayes Bilgi Kriteri) tekrar yaklaşık posterior olasılıklar kullanılarak karşılık gelir. Bunlar aynı kriter değil, bu nedenle genel olarak farklı seçimler yapmalarını beklemek gerekiyor. Onlar olabilir aynı cevapları vermek - en iyi de tahmin modeli gerçeği olur her - en uygun aslında olduğunu ancak birçok durumda modeli bir o overfits, hangi yaklaşımlar arasındaki anlaşmazlık yol açar.

Uygulamada katılıyorlar mı? Bu sizin 'uygulamanızın neler içerdiğine bağlıdır. Her iki şekilde de dene ve öğren.

  1. Bayes mankenlerinde vs. önceki bilgileri belirtmenin olağan felsefi farkı dışında, her bir yaklaşımın artıları ve eksileri nelerdir? Hangisini seçerdin?
  • Posterior olasılıkları hesaplamak yerine çapraz doğrulama için hesaplamaları yapmak genellikle daha kolaydır.
  • 'Gerçek' modelin seçtiğiniz listenin arasında olduğuna inandırıcı bir durum çıkarmak genellikle zordur. Bu, arka olasılık kullanımında bir problemdir, ancak çapraz doğrulama değildir
  • Her iki yöntem de oldukça keyfi sabitlerin kullanılmasını içerir; Değişkenlerin sayıları açısından ekstra bir tahmin biriminin değeri nedir? Her modelin, bir priori'nin ne kadarına inanıyoruz ?
    • Muhtemelen çapraz doğrulama seçerdim. Ancak taahhütte bulunmadan önce, bu model seçiminin neden yapıldığı, yani seçilen modelin ne için kullanıldığı hakkında çok şey bilmek isterdim. Nedensel çıkarım gerekliyse, hiçbir model seçim şekli uygun olmayabilir.

16

Optimizasyon istatistiklerde tüm kötülüklerin köküdür! ;O)

Sonlu bir veri örneğinde değerlendirilen bir kritere dayalı bir model seçmeye çalıştığınızda, model seçim kriterine aşırı uyma riskini ortaya çıkarır ve başladığınızdan daha kötü bir modelle sonuçlanırsınız. Hem çapraz doğrulama hem de marjinal olabilirlik mantıklı bir model seçim kriteridir, ancak her ikisi de sınırlı bir veri örneğine bağlıdır (AIC ve BIC gibi - karmaşıklık cezası yardımcı olabilir ancak bu sorunu çözmez). Bunu makine öğreniminde önemli bir sorun olarak buldum.

GC Cawley ve NLC Talbot, Model seçiminde aşırı uydurma ve performans değerlendirmesinde sonraki seçim önyargısı, Makine Öğrenimi Araştırma Dergisi, 2010. Research, vol. 11, sayfa 2079-2107, Temmuz 2010. ( www )

Bir Bayesian bakış açısından, tüm model seçimleri ve parametrelerine entegre etmek daha iyidir. Optimize etmiyorsanız veya bir şey seçmiyorsanız, aşırı sığması zorlaşır. Dezavantajı, çoğu zaman MCMC ile çözülmesi gereken zor integrallerle bitiyor olmanız. En iyi prediktif performans istiyorsanız, tam bir Bayesian yaklaşımı öneririm; Verileri anlamak istiyorsanız, o zaman en iyi modeli seçmek genellikle yararlı olur. Ancak, verileri yeniden örneklendirirseniz ve her seferinde farklı bir modelle karşılaşırsanız, bu uygunluk prosedürünün dengesiz olduğu ve verilerin hiçbirinin verileri anlama konusunda güvenilir olmadığı anlamına gelir.

Çapraz doğrulama ile kanıt arasındaki önemli bir farkın, marjinal ihtimalin değerinin, modelin yanlış tanımlanmadığını varsaydığı (esas olarak modelin temel şekli uygun olduğu) olduğunu ve varsa yanıltıcı sonuçlar verebileceğini unutmayın. Çapraz doğrulama, böyle bir varsayımda bulunmaz; bu, biraz daha sağlam olabileceği anlamına gelir.


Bayesian entegrasyonu güçlü bir yaklaşımdır. Ancak, her zaman model seçiminin bunun için doğru yol olup olmadığını sorgulayın. Motivasyon nedir? Neden esnek ve tam olarak tam bir model seçmiyorsunuz?
Frank Harrell,

@ FrankHarrell birçok esnek model, normalizasyon terimlerini ve diğer hiper parametrelerini içerir ve bunların ayarlanması, aynı zamanda model seçimidir ve aynı seçim kriterinin aşırı uydurulması sorunlarına da maruz kalır. Uydurma, aşırı uydurma riski yaratır ve bu her seviyede geçerlidir. Ancak, modelin yapısı hakkında önceden bilgi sahibi iseniz, o zaman bu uzman bilgisi kullanılmalıdır.
Dikran Marsupial

1
Ayar gerektirmeyen bir yöntem aramak en iyisidir, ancak bu her zaman mümkün değildir. Benim temel noktam, model spesifikasyonunun model seçiminden daha iyi çalıştığı ve özellik seçiminin asil bir amaç olduğunu varsaymadığıdır.
Frank Harrell

@ FrankHarrell özellik seçimi çok nadiren yardımcı olur. Mümkünse optimizasyondan kaçınılmalıdır, ki bu da sınırlı bir veri örneğine dayanarak herhangi bir model seçimini / ayarını yapmayı içerir (elbette örnek ne kadar büyükse, risk o kadar düşük olur).
Dikran Marsupial
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.