«cross-validation» etiketlenmiş sorular

Gizli veri alt kümelerindeki model performansını ölçmek için, model uydurma sırasında verilerin alt kümelerini sürekli olarak saklamak.


6
K-katlama çapraz doğrulama işleminden sonra öngörülü bir model nasıl seçilir?
K-kat çapraz doğrulama yaptıktan sonra prediktif bir model seçmeyi merak ediyorum. Bu garip bir şekilde ifade edilebilir, bu yüzden daha ayrıntılı olarak açıklamama izin verin: K-kat çapraz onaylamayı her çalıştırdığımda, eğitim verilerinin K altkümelerini kullanıyorum ve K farklı modellerle bitirdim. K modellerinden birini nasıl seçeceğimi bilmek istiyorum, böylece onu birisine …


4
K-kat çapraz onaylamada K seçimi
Bazı öğrenme algoritmalarının performansını değerlendirmek için birkaç kez -katlı çapraz doğrulama kullanıyorum , ancak değerini nasıl seçmem gerektiği konusunda hep şaşırdım .KKKKKK Sık sık değerini gördüm ve kullandım , ancak bu benim için tamamen keyfi görünüyor ve şimdi düşünmek yerine sadece alışkanlık kullanıyorum. Bana göre değerini arttırdıkça daha iyi bir …


3
Model seçimi için iç içe çapraz doğrulama
Model seçimi için iç içe çapraz doğrulama nasıl kullanılır ? Çevrimiçi okuduklarımdan, iç içe geçmiş CV şu şekilde çalışır: Şebeke araştırması yapabildiğimiz iç CV döngüsü vardır (örneğin, mevcut her model için K-katını çalıştırma, örneğin hiperparametrelerin / özelliklerin kombinasyonu) İç katmanda kazanılan modelin performansını ayrı bir dış kat üzerinde ölçtüğümüz dış …

7
Bire bir çıkışta yanlılık ve varyans vs K-kat çapraz doğrulama
Farklı çapraz doğrulama yöntemleri, model varyansı ve önyargı açısından nasıl karşılaştırılır? Sorumu kısmen bu konuya göre motive ediyor: katlı çapraz onaylamada en uygun kıvrım sayısı : bir kez dışarıda bırakılan CV her zaman en iyi seçenek midir? KKK. Buradaki cevap, bir kez dışarı bırakılan çapraz doğrulama ile öğrenilen modellerin normal …


3
Özellik seçimi ve çapraz doğrulama
Son zamanlarda bu sitede (@Aniko, @Dikran Marsupial, @Erik) ve başka yerlerde çapraz onaylama ile ortaya çıkan aşırı teçhizat sorunu hakkında çok fazla şey okudum - (Smialowski ve diğerleri 2010 Bioinformatics, Hastie, istatistiksel öğrenmenin unsurları). Öneri, çapraz doğrulama (veya önyükleme gibi başka bir model tahmin metodu) kullanılarak yapılan model performans tahmininin …

6
Makine öğrenmesinde çapraz doğrulama yapılırken “son” model için özellik seçimi
Özellik seçimi ve makine öğrenmesi konusunda kafam biraz karıştı ve bana yardım edip edemeyeceğinizi merak ediyordum. İki gruba ayrılan ve 1000’lik özelliklere sahip bir mikro dizi veri setine sahibim. Amacım, teorik olarak bu örnekleri en iyi şekilde sınıflandırmak için diğer veri setlerine uygulayabileceğim bir imzayla az sayıda gen (özelliklerim) (10-20) …


1
Çapraz doğrulama, öğrenme eğrisi ve son değerlendirme için veri setinin nasıl bölüneceği?
Veri kümesini bölmek için uygun bir strateji nedir? Ben şu yaklaşıma ilgili görüşlerinizi (değil gibi bireysel parametrelere test_sizeveya n_iterama kullanılırsa X, y, X_train, y_train, X_test, ve y_testuygun bir şekilde ve sıra mantıklı ise): ( bu örneği scikit-learn belgelerinden uzatarak) 1. Veri kümesini yükleyin from sklearn.datasets import load_digits digits = load_digits() …


8
Test verilerinin eğitim verisine sızmadığından nasıl emin olabilirim?
Tahmin edici bir model inşa eden birisine sahip olduğumuzu varsayalım, ancak birinin uygun istatistiksel ya da makine öğrenmesi ilkeleri konusunda tam olarak bilgili olmadığını varsayalım. Belki o kişiye öğrenirken yardımcı oluyoruz veya belki de bu kişi kullanımı en az bilgiyi gerektiren bir çeşit yazılım paketi kullanıyor. Şimdi bu kişi, gerçek …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.