François Chollet'in Python ile Derin Öğrenmesi'nde şöyle diyor:
Sonuç olarak, modelin yapılandırmasını doğrulama setindeki performansına göre ayarlamak, modeliniz hiçbir zaman doğrudan doğrudan eğitilmemiş olsa bile, doğrulama setine aşırı takılmasına neden olabilir.
Bu fenomenin merkezinde bilgi sızıntısı kavramı vardır. Modelinizin doğrulama parametresindeki performansına göre bir hiperparametreyi her ayarladığınızda, doğrulama verileri hakkında bazı bilgiler modele sızar . Bunu yalnızca bir kez yaparsanız, bir parametre için, çok az bilgi biti sızar ve doğrulama setiniz modeli değerlendirmek için güvenilir kalır. Ancak bunu birçok kez tekrarlarsanız - bir deneme yapmak, doğrulama kümesini değerlendirmek ve sonuç olarak modelinizi değiştirmek - modelde ayarlanan doğrulama hakkında giderek artan miktarda bilgi sızdırırsınız.
Hiperparametreleri ayarlarken doğrulama verileri üzerindeki model performansını değerlendirirsem doğrulama verileriyle ilgili bilgiler neden sızdırılıyor?