K-fold cross-validation (CV) verilerinizi rastgele K bölümlerine böler ve sırayla bu K bölümlerinden birini test durumu olarak tutar ve diğer K-1 bölümlerini egzersiz verileriniz olarak toplarsınız. Bir Çıkmayı Bırakın (LOO) N veri öğenizi alıp N-katlı CV yaptığınız özel durumdur. Bir anlamda, Beklet, K katlarından birini test olarak seçtiğin ve tüm K katlarından geçmediğin başka bir özel durum.
Bildiğim kadarıyla, 10-kat CV, veriminizi verimli bir şekilde kullandığı ve aynı zamanda şanssız bölüm seçimlerinden kaçınmaya yardımcı olduğu için oldukça zorlayıcıdır. Bekletme verilerinizi verimli kullanmaz ve LOO o kadar sağlam değildir (veya buna benzer bir şey), ancak 10'luk katlama doğru.
Verilerinizin birden fazla kategori içerdiğini ve bir veya daha fazla kategorinin diğerlerinden çok daha küçük olduğunu biliyorsanız, K rastgele bölümlerinizden bazıları kötü olabilecek küçük kategorilerden hiçbirini içermeyebilir. Her bölümün makul düzeyde temsili olduğundan emin olmak için, tabakalaşmayı kullanırsınız: verilerinizi kategorilere ayırın ve ardından her kategoriden rasgele ve orantılı olarak seçerek rasgele bölümler oluşturun.
K-fold CV'deki tüm bu varyasyonlar, verilerinizi değiştirmeden seçin. Önyükleme verileri değiştirmeyle seçer, böylece aynı veriler birden çok kez eklenebilir ve bazı veriler hiç eklenmeyebilir. (Her "bölüm", ayrıca her bölümün N / K öğelerine sahip olduğu K-katlamanın aksine, N öğelerine de sahip olacaktır.)
(Önyükleme işleminin CV'de tam olarak nasıl kullanılacağını tam olarak bilmediğimi itiraf etmeliyim. Test ve CV ilkesi, üzerinde çalıştığınız verileri test etmediğinizden emin olmaktır. Teknik + katsayılarınızın gerçek dünyada nasıl işleyebileceği konusunda daha gerçekçi bir fikir.)
EDIT: "Bekletme etkin değil" yerine "Bekletme verilerinizi verimli kullanmıyor" ifadesiyle, yorumlara göre netleştirmek için.