Scikit Learn'ün Model Seçimi sayfasındaki iç içe çapraz doğrulamanın kullanıldığından bahsedilir:
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
İki çapraz doğrulama döngüsü paralel olarak gerçekleştirilir: biri GridSearchCV tahmincisi tarafından gama ayarlamak için, diğeri cross_val_score tarafından tahmincinin tahmin performansını ölçmek için. Elde edilen puanlar, yeni verilerdeki tahmin puanının tarafsız tahminleridir.
Anladığım kadarıyla, clf.fit
en iyi gama belirlemek için yerel olarak çapraz doğrulamayı kullanacaktır. Bu durumda, neden yukarıda belirtildiği gibi iç içe cv kullanmamız gerekir? Not, iç içe geçmiş cv'nin tahmin skorunun "tarafsız tahminlerini" ürettiğinden bahseder. Bu da böyle değil clf.fit
mi?
Ayrıca, cross_validation.cross_val_score(clf, X_digits, y_digits)
prosedürden clf en iyi tahminleri alamadım . Bunun nasıl yapılabileceğini tavsiye eder misiniz?