Anladığım kadarıyla çapraz doğrulama ve model seçimi ile iki şeyi ele almaya çalışıyoruz:
P1 . Örneğimizle antrenman yaparken popülasyonda beklenen zararı tahmin et
P2 . Bu tahmin konusundaki belirsizliğimizi ölçün ve rapor edin (varyans, güven aralıkları, önyargı vb.)
Standart uygulama, tekrarlayan çapraz doğrulama yapmak gibi görünmektedir, çünkü bu tahmin edicimizin varyansını azaltır.
Ancak, raporlama ve analiz konusunda, benim anladığım kadarıyla iç doğrulamanın dış doğrulamanın daha iyi olduğudur, çünkü:
Rapor etmek daha iyidir:
- Tahmin edicimizin istatistikleri, örneğin tam numune üzerindeki güven aralığı, varyans, ortalama vb. (Bu durumda CV örneği).
bildirmekten daha:
Tahmin edicimizin orijinal örneğin bir tutma alt kümesinde kaybı, çünkü:
(i) Bu tek bir ölçüm olacaktır ( tahmin edicimizi CV ile seçsek bile )
(ii) Bu tekli ölçüm için tahmin edicimiz, başlangıç setine göre daha küçük olan bir sette (örn. CV setinde) eğitilmiş olacaktı çünkü tutma setine yer açmak zorunda kaldık. Bir de bu sonuçları daha önyargılı içinde (kötümser) tahmini P1 .
Bu doğru mu? Değilse neden?
Arka fon:
Örneğinizi iki gruba ayırmanızı öneren ders kitaplarını bulmak kolaydır:
- CV sonradan tekrar tekrar ayrılır seti, tren ve doğrulama setleri.
- Pivot sadece sonunda kullanılır (test) seti, tahmincisi performansını bildirmek
Benim sorum, bu yazının başlangıcındaki amacımız P1 ve P2 ile ilgili sorunları gerçekten ele almak olduğu düşünüldüğünde, bu ders kitabı yaklaşımının yararlarını ve avantajlarını anlama girişimidir . CV örneğinin analizi daha bilgilendirici olduğundan, tutma testi setine ilişkin raporlamanın kötü bir uygulama olduğunu düşünüyorum.
İç içe geçmiş K katlama vs yinelenen K katlama:
Bir kutu prensip olarak yuvalanmış K-katlama elde etmek için tutma kısmını normal K-katlama ile birleştirir . Bu, tahmin edicimizin değişkenliğini ölçmemize izin verir, ancak bana göre, aynı sayıda toplam model için (toplam kat sayısı) tekrarlanan K-katının, iç içe geçirilmiş K'dan daha az önyargılı ve daha kesin olan tahmin edicilere neden olacağını düşünüyorum. kat. Bunu görmek için:
- Tekrarlanan K-katlama, toplam K örneğimizin aynı K için yuvalanmış K-katlamadan daha büyük bir kısmını kullanır (yani daha düşük yanlılığa yol açar)
- 100 yineleme, tahmin edicimizin iç içe geçmiş K-katında (K = 10) sadece 10 ölçümünü verirken, K-katında 100 ölçüm yapar (daha fazla ölçüm P2'de daha düşük varyansa neden olur )
Bu akıl yürütmenin nesi yanlış?