Neden bir çapraz doğrulama prosedürü bir modele aşırı uyum sağlama problemini aşmaktadır?
Neden bir çapraz doğrulama prosedürü bir modele aşırı uyum sağlama problemini aşmaktadır?
Yanıtlar:
Şu anda yeterince açık bir açıklama düşünemiyorum, bu yüzden bunu başkasına bırakacağım; Bununla birlikte, çapraz doğrulama, model seçiminde aşırı uydurma sorununun tamamen üstesinden gelmez, sadece azaltır. Çapraz doğrulama hatası, özellikle veri kümesinin boyutu küçükse, ihmal edilebilir bir varyansa sahip değildir; Başka bir deyişle, kullandığınız veri örneğine bağlı olarak biraz farklı bir değer elde edersiniz. Bu, model seçiminde çok fazla serbestlik dereceniz varsa (örneğin, küçük bir alt kümeyi seçmek için birçok özellik, ayarlamak için birçok hiper-parametre, seçim için pek çok model) çapraz onaylama kriterine aşırı uyum sağlayabileceğiniz anlamına gelir. Model, performansı gerçekten geliştiren yöntemlerden ziyade, bu rasgele değişime uğrayan şekillerde ayarlandığı için, ve kötü performans gösteren bir model ile bitebilir. Bunun hakkında bir tartışma için bkz.Cawley ve Talbot "Model Seçiminde Aşırı Uygunluk ve Performans Değerlendirmede Sonraki Seçim Yanlılığı", JMLR, vol. 11, s. 2079-2107, 2010
Maalesef çapraz doğrulama, küçük bir veri kümeniz olduğunda sizi hayal kırıklığına uğratma olasılığı yüksektir, bu tam olarak en çok çapraz doğrulamaya ihtiyacınız olduğunda olur. K-kat çapraz onaylamanın genellikle daha düşük bir varyansa sahip olduğu için bir kez dışarı çapraz çapraz onaylamaya göre daha güvenilir olduğunu, ancak bazı modeller için hesaplanması daha pahalı olabileceğine dikkat edin (bu nedenle LOOCV bazen model seçimi için kullanılır, yüksek bir varyansa sahip olmasına rağmen).
Cevabım çok daha sezgisel, ama belki yardımcı olabilir ...
Anladığım kadarıyla, fazla esneklik aynı verileri kullanarak eğitim ve testlere dayanan model seçiminin sonucudur, burada esnek bir fitting mekanizmasına sahip olursunuz: veri örneğinize o kadar sıkı uyursunuz ki, gürültü, aykırı değerler ve diğerleri diğer varyans.
Verileri bir eğitim ve test setine bölmek, bunu yapmanıza engel olur. Ancak statik bir bölünme verilerinizi verimli kullanmıyor ve bölünmenizin kendisi de bir sorun olabilir. Çapraz doğrulama, eğitim testi bölümünün eğitim verisine tam olarak uymayan bir yararı olurken, elinizdeki verileri mümkün olduğu kadar verimli bir şekilde kullanıyor (örneğin, verilerinizin tümü kullanılır) eğitim ve test verileri olarak, sadece aynı çalışmada değil).
Esnek bir montaj mekanizmasına sahipseniz, model seçiminizi “mükemmel” değil de karmaşık bir şekilde uyması için kısıtlamanız gerekir. Doğrudan AIC, BIC veya doğrudan uygunluk karmaşıklığını cezalandıran diğer bazı ceza yöntemleriyle yapabilir veya CV ile yapabilirsiniz. (Ya da çok esnek olmayan, doğrusal modellerin iyi olmasının bir nedeni olan bir montaj yöntemi kullanarak yapabilirsiniz.)
Buna bakmanın bir başka yolu da öğrenmenin genelleştirme ile ilgili olduğu ve çok dar bir uyumun bir anlamda genelleme olmadığıdır. Öğrendiklerinizi ve test ettiklerinizi değiştirerek, yalnızca belirli bir soru grubunun cevaplarını öğrendiğinizden daha iyi genellersiniz.
Bayesian perspektifinden bakıldığında, çapraz onaylamanın "uygun" bir Bayesian analizinin modelleri karşılaştırmak için yapmadığı bir şey yaptığından emin değilim. Fakat bunun% 100 kesin olduğundan emin değilim.
Önceden tahmine dayalı dağılım olarak adlandırılan . Temel olarak, modelin gerçekte gözlemlenen verileri ne kadar iyi tahmin ettiğini, bu da tam olarak çapraz doğrulamanın yapıldığını, "önceden" takılan "eğitim" modeliyle değiştirildiğini ve "verilerin" "test" ile değiştirildiğini belirttiğini söylüyor. veri. Eğer B modeli verileri A modelinden daha iyi tahmin ederse, arka olasılığı A modeline göre artar. Bundan Bayes teoreminin aslında bir alt kümeden ziyade tüm verileri kullanarak çapraz doğrulama yapacağını görüyoruz. Ancak, bu konuda tam olarak ikna olmadım - hiç bir şey için bir şey elde etmiyoruz gibi görünüyor.
Bu yöntemin bir başka temiz özelliği de, her model için önceki dağılımların normalizasyon sabitlerinin oranıyla verilen, yerleşik bir "occam's ustura" 'ya sahip olmasıdır.
Bununla birlikte, çapraz onaylama, korkmuş eski "başka bir şey" veya bazen "model yanlış tanımlaması" olarak adlandırılan şey için değerli görünmektedir. Bu “başka bir şeyin” önemli olup olmadığına sürekli olarak çarpılıyorum, çünkü önemi olması gerektiği gibi görünüyor - ancak görünüşte önemli olduğu zaman sizi hiçbir çözüm olmadan felç ediyor. Sadece size bir baş ağrısı verecek bir şey, ama bu konuda yapabileceğiniz hiçbir şey - “başka bir şeyin” ne olabileceğini düşünmek ve onu modelinizde denemek dışında (artık “başka bir şeyin” bir parçası olmayacak şekilde) .
Ve ayrıca, çapraz doğrulama, yukarıdaki integraller gülünç zor olduğunda, aslında bir Bayesian analizini yapmanın bir yoludur. Ve çapraz doğrulama hemen hemen herkes için “mantıklı” olur - “matematiksel” değil “mekanik” tir. Bu yüzden neler olduğunu anlamak kolaydır. Ve ayrıca kafanızı modellerin önemli kısımlarına odaklanmasını sağlıyor - iyi tahminler yapıyor.