Bunun bir yorum ya da cevap olarak nitelendirildiğini bilmiyorum. Buraya koyuyorum çünkü bir cevap gibi geliyor.
K-kat çapraz doğrulamasında verilerinizi k gruplarına ayırıyorsunuz. Eğer "temelleri" bile kapsıyorsanız, k kutularının her biri için eşit olarak rastgele üyeler seçersiniz.
Verilerden bahsettiğimde, her satırı bir örnek olarak ve her sütunu bir boyut olarak düşünüyorum. Değişken önemi, sütun önemini belirlemek için çeşitli yöntemler kullanmaya alışkınım.
Bir düşünce alıştırması olarak, rastgele "ders kitabı" üniformasından ayrıldınız ve hangi satırların önemli olduğunu belirlediyseniz? Belki bir anda tek bir değişkeni bilgilendirirler, ama belki daha fazla bilgi verirler. Diğerlerinden daha az önemli olan bazı satırlar var mı? Belki noktaların çoğu bilgilendirici, belki de çok az.
Değişkenin önemini bilerek, belki de önemlerine göre onları depolayabilirsiniz. Belki de en önemli örnekleri içeren tek bir çöp kutusu yapabilirsiniz. Bu, "k" boyutunuzu belirleyebilir. Bu şekilde, "en bilgilendirici" kth kovasını belirleyip başkalarıyla ve en az bilgilendirici kovayla karşılaştırırsınız.
Bu size model parametrelerinizin maksimum değişimi hakkında bir fikir verebilir. Sadece bir form.
Kth kovalarını bölmenin ikinci bir yolu, etkinin büyüklüğü ve yönüdür. Böylece, bir parametreyi veya parametreleri bir yönde sallayan örnekleri bir kovaya koyabilir ve aynı parametreyi veya parametreleri ters yönde sallayan örnekleri farklı bir kovaya koyabilirsiniz.
Bu formdaki parametre varyasyonu, bilgi yoğunluğuna değil, bilgi cinsine bağlı olarak değişkenlere daha geniş bir tarama sağlayabilir.
İyi şanslar.