Tabakalaşma, her katlamanın verilerin tüm katmanlarını temsil etmesini sağlamayı amaçlar. Genel olarak bu, sınıflandırma için denetimli bir şekilde yapılır ve her sınıfın (yaklaşık olarak) her test katında eşit şekilde temsil edilmesini sağlamayı amaçlar (elbette eğitim katlamaları oluşturmak için tamamlayıcı bir şekilde birleştirilir).
Bunun arkasındaki sezgi, çoğu sınıflandırma algoritmasının önyargısıyla ilgilidir. Her örneği eşit olarak ağırlıklandırma eğilimindedirler, bu da aşırı temsil edilen sınıfların çok fazla ağırlık alması anlamına gelir (örneğin, F-ölçüsü, Doğruluk veya tamamlayıcı bir hata biçimi). Tabakalaşma, her bir sınıfı eşit ağırlıkta bir algoritma için (ör. Kappa, Bilgilendirme veya ROC AUC'yi optimize etme) veya bir maliyet matrisine göre (örneğin, her sınıfa doğru ağırlıklandırılmış ve / veya her bir yol için bir maliyet veren) çok önemli değildir. misclassifying). Bakınız, örneğin, DMW Powers (2014), F-ölçüsünün ölçemediği şeyler: Özellikler, Kusurlar, Hatalar ve Düzeltmeler. http://arxiv.org/pdf/1503.06410
Tarafsız veya dengeli algoritmalar arasında bile önemli olan belirli bir konu, hiç bir şekilde bir katlama ile temsil edilmeyen bir sınıfı öğreneme ya da test etme eğiliminde olmadıkları ve ayrıca bir sınıfın yalnızca birinin olduğu durumda bile olmalarıdır. Bir katlamada gösterilen genellemenin cevap vermesine izin vermez. değerlendirdi. Bununla birlikte, bu değerlendirme evrensel değildir ve örneğin, tek bir sınıf için neyin normal olduğunu belirlemeye çalışan ve aykırı olanları farklı bir sınıf olarak etkili bir şekilde tanımlayan tek sınıflı bir öğrenmeye uygulanmaz. belirli bir sınıflandırıcı oluşturmayan istatistikleri belirlemekle ilgilidir.
Öte yandan, denetlenen sınıflandırma, test verilerinin etiketlerinin eğitimi etkilememesi gerektiği için değerlendirmenin teknik saflığından ödün vermez, ancak sınıflandırmada eğitim örneklerinin seçiminde kullanılır. Denetimsiz sınıflandırma da, gerçek veriyi değil, sadece veri özniteliklerine bakarak benzer verileri yaymaya dayanarak mümkündür. Örneğin, bkz.
Http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.469.8855
NA Diamantidis, D. Karlis, EA Giakoumakis (1997), Kesinlik doğrulaması için çapraz onaylamanın denetimsiz olarak sınıflandırılması.
Tabakalaşma, sınıflandırma yerine regresyona da uygulanabilir; bu durumda denetlenmeyen tabakalaşma gibi, kimlik yerine benzerlik kullanılır, ancak denetlenen versiyon bilinen gerçek fonksiyon değerini kullanır.
Diğer komplikasyonlar nadir sınıflar ve çoklu sınıflandırmadır; sınıflandırmalar çoklu (bağımsız) boyutlarda yapılır. Burada, tüm boyutlardaki doğru etiketlerin tupları, çapraz doğrulama amacıyla sınıflar olarak ele alınabilir. Ancak, tüm kombinasyonların mutlaka gerçekleşmesi gerekmez ve bazı kombinasyonlar nadir olabilir. Nadir sınıflar ve nadir kombinasyonlar, K testinden en az bir kez fakat K zamandan daha az (K-CV'de) oluşan bir sınıf / kombinasyonun tüm test katlarında temsil edilememesi nedeniyle bir problemdir. Bu gibi durumlarda, bunun yerine bir tabakalanmış destek çıkarma şekli göz önünde bulundurulabilir (beklenen tekrarlamalarla tam boyutta bir eğitim katmanı oluşturmak için değiştirme ile numune alma ve beklenen ve test katlaması için başlangıçta seçilen her sınıfın bir örneği seçildiğinde, test için seçilmemiş% 36.8) .
Çok tabakalı tabakalaşmaya diğer bir yaklaşım, temsili kombinasyon seçimini sağlama arayışı içinde kalmadan her sınıf boyutunu ayrı ayrı tabakalaştırmaya veya önyüklemeye çalışmaktır. L etiketleri ve N örnekleri ve l etiketi için k sınıfı Kkl örnekleri ile, karşılık gelen Dkl etiketli örnek kümesinden (N / LKkl örnekleri) rasgele seçim yapabiliriz (değiştirilmeden). Bu, optimal dengeyi sağlamaz, ancak dengeyi sezgisel olarak arar. Bu, bir seçenek olmadıkça (bazı kombinasyonlar ortaya çıkmadığı ya da ender olmadığı için) etiket seçimini kotaya veya üstüne koyacak şekilde iyileştirilebilir. Sorunlar ya çok az veri olduğu ya da boyutların bağımsız olmadığı anlamına gelir.