[düzenlendi 21.7.15 08:31 CEST]
Sanırım sınıflandırma için RF kullandınız. Çünkü bu durumda, algoritma sadece bir hedef sınıfın saf terminal düğümlerine sahip tamamen büyümüş ağaçlar üretir.
predict(model, data=X_train)
Bu kodlama dizisi kendi kuyruğunu kovalayan bir köpek gibidir. Herhangi bir eğitim örneğinin tahmini, eğitim örneğinin kendisidir. Regresyon için, düğümde 5 veya daha az örnek varsa veya düğüm safsa RF durur. Burada tahmin hatası küçük olacak, ancak% 0 olmayacak.
Makine öğreniminde genellikle büyük hipotez uzaylarıyla çalışırız. Bu, eğitim setimizin veri yapısına her zaman henüz tahrif edilmemiş birçok hipotez / açıklama / model olacağı anlamına gelir. Klasik istatistiklerde hipotez alanı genellikle küçüktür ve bu nedenle doğrudan model uyumu bazı varsayılan olasılık teorisine göre bilgilendiricidir. Makine öğreniminde doğrudan uyum eksikliği önyargı ile ilgilidir modelin . Önyargı, modelin "esnek olmayanlığı" dır. O değilher halükarda genelleme gücünün (yeni olayları tahmin edebilme) yaklaşık olarak sağlanmasını sağlar. Algoritmik modeller için çapraz validasyon, hiçbir teori formüle edilmediğinden genelleme gücüne yaklaşmak için en iyi araçtır. Bununla birlikte, bağımsız örneklemenin model varsayımları başarısız olursa, başka türlü önerilmiş iyi bir çapraz geçerlilik doğrulaması olsa bile model bir şekilde işe yaramayabilir. Sonunda, en güçlü kanıt, çeşitli kökenlere sahip bir dizi harici test setini tatmin edici bir şekilde tahmin etmektir.
CV'ye geri dön: Torbalı çanta genellikle kabul edilen bir CV türüdür. Şahsen OOB-CV'nin 5-kat-CV ile benzer sonuçlar verdiğini düşünüyorum, ancak bu çok küçük bir sıkıntı. Karşılaştırma yapmak gerekirse RF'yi SVM ile diyelim, OOB-CV normalde SVM'yi torbalamaktan kaçınacağımız için yararlı değildir. Bunun yerine, hem SVM hem de RF, aynı çapraz validasyon şemasına gömülebilir, örneğin her bir tekrar için eşleşen bölümlerle 10 kat 10 tekrar. Herhangi bir özellik mühendisliği adımının sıklıkla çapraz doğrulanması da gerekecektir. İşleri temiz tutmak için tüm veri hattı CV'ye gömülebilir.
Modelinizi test setinizle (veya çapraz doğrulamayla) ayarlarsanız tekrar hipotez alanınızı şişirirsiniz ve onaylanmış tahmin performansı muhtemelen aşırı iyimserdir. Bunun yerine, ayarlamak için bir kalibrasyon setine (veya kalibrasyon CV-döngüsüne) ve son optimal modelinizi değerlendirmek için bir test doğrulama kümesine (veya doğrulama CV-döngüsüne) ihtiyacınız olacaktır.
Aşırı anlamda, doğrulama puanınız yalnızca bu sonuç üzerinde asla hareket etmediğinizde, gördüğünüzde tarafsız olacaktır. Doğrulama paradoksudur, çünkü neden sadece üzerinde hareket etmezseniz doğru olan bir bilgi edinelim. Uygulamada topluluk, rasgele aşırı iyimser bir geçerliliğe sahip araştırmacıların yayınlanma olasılığının aşırı kötümser bir geçerliliğe sahip olanlardan daha fazla olduğu bazı yayın yanlılıklarını isteyerek kabul eder. Bu yüzden bazen neden başka modeller üretemiyoruz.