«overfitting» etiketlenmiş sorular

Değişkenler arasında tekrarlanabilir ve bilgilendirici ilişkiler yerine modelleme hatası (özellikle örnekleme hatası), model uyum istatistiklerini geliştirir, ancak parsimony'i azaltır ve açıklayıcı ve öngörücü geçerliliği kötüleştirir.


6
Sırt regresyonu yüksek boyutlarda işe yaramaz mı (
İle iyi eski regresyon problemi düşünün belirleyicileri ve örnek büyüklüğü . Her zamanki bilgelik, OLS tahmincisinin fazladan donacağı ve genel olarak ridge regresyon tahmincisi tarafından daha iyi şekillendirileceğidir:Optimal düzenlileştirme parametresi bulmak için çapraz doğrulama kullanmak standarttır . Burada 10 kat CV kullanıyorum. Açıklama güncellemesi: olduğunda "OLS tahmincisi" tarafından tarafından verilen …

6
Rastgele Orman - Donanımın üstesinden nasıl gelinir?
Bilgisayar bilimi geçmişim var ama internette problem çözerek kendime veri bilimini öğretmeye çalışıyorum. Son birkaç haftadır bu problem üzerinde çalışıyorum (yaklaşık 900 satır ve 10 özellik). Başlangıçta lojistik regresyon kullanıyordum ama şimdi rastgele ormanlara geçtim. Rasgele orman modelimi eğitim verilerimde çalıştırdığımda auc için gerçekten yüksek değerler elde ediyorum (>% 99). …

4
Science dergisi, Forking Pathes Analizleri Bahçesini onayladı mı?
Uyarlanabilir veri analizi fikri, daha fazla bilgi edindikçe verileri analiz etme planınızı değiştirdiğinizdir. Açıklayıcı veri analizi (EDA) söz konusu olduğunda, bu genellikle iyi bir fikirdir (genellikle verilerde öngörülemeyen kalıplar ararsınız), ancak doğrulayıcı bir çalışma için bu, çok hatalı bir analiz yöntemi olarak kabul edilir (hepsi hariç) adımlar açıkça tanımlanmış ve …


4
Doğrulama kaybının artması, doğrulama doğruluğunun da artması nasıl mümkün olabilir?
CIFAR10 veri setinde basit bir sinir ağı eğitimi alıyorum. Bir süre sonra doğrulama kaybı artmaya başlarken doğrulama doğruluğu da artmaktadır. Test kaybı ve test doğruluğu gelişmeye devam ediyor. Bu nasıl mümkün olabilir? Validasyon kaybının artması durumunda doğruluğun azalması gerektiği görülmektedir. Not: Birkaç benzer soru var, ama kimse orada neler olduğunu …

6
Neden daha küçük ağırlıklar düzenli modellemede daha basit modellerle sonuçlanır?
Andrew Ng'nin Makine Öğrenimi kursunu bir yıl kadar önce tamamladım ve şimdi Lise Matematik araştırmamı Lojistik Regresyon çalışmalarına ve performansı optimize etmek için kullandığım tekniklere yazıyorum. Bu tekniklerden biri elbette düzenlileşmedir. Düzenlemenin amacı, maliyet fonksiyonunu model basitliği hedefini içerecek şekilde genişleterek fazladan takmayı önlemektir. Bunu, bazı düzenlileştirme paramaterleriyle çarpılan her …

2
Bayesian yöntemlerinin fazla giyinmediği doğru mu?
Bayesian yöntemlerinin fazla giyinmediği doğru mu? (Bu iddiayı yapan bazı makaleleri ve dersleri gördüm) Örneğin, MNIST'e bir Gauss Süreci uygularsak (el yazısı basamaklı sınıflandırma), ancak yalnızca tek bir örnek gösterirsek, bu tek örneklemden farklı, ancak küçük olan fark için herhangi bir girdi için önceki dağıtıma geri dönecek mi?

5
Donanımlı bir model mutlaka işe yaramaz mı?
Bir modelin eğitim verilerinde% 100, ancak test verilerinde% 70 kesinliğe sahip olduğunu varsayalım. Aşağıdaki model bu model hakkında doğru mu? Bunun çok şık bir model olduğu açıktır. Test doğruluğu, aşırı takmayı azaltarak arttırılabilir. Ancak, bu model test verileri için kabul edilebilir bir doğruluğa sahip olduğundan hala faydalı bir model olabilir.

2
PCA ve LDA'yı birleştirmek mantıklı mı?
Örneğin bir Bayes sınıflandırıcısı aracılığıyla denetimli bir istatistiksel sınıflandırma görevi için bir veri setine sahip olduğumu varsayalım. Bu veri seti 20 özellikten oluşuyor ve Temel Bileşen Analizi (PCA) ve / veya Doğrusal Ayrımcı Analizi (LDA) gibi boyutsallık azaltma teknikleri ile onu 2 özelliğe çıkarmak istiyorum. Her iki teknik de verileri …

4
“Yarı denetimli öğrenme” - bu çok mu fazla?
Bir Kaggle yarışmasının ( Malware Classification ) kazanan çözümünün raporunu okuyordum . Rapor bu forum gönderisinde bulunabilir . Sorun, tren setinde 10000 element, test setinde 10000 element olan bir sınıflandırma problemiydi (dokuz sınıf, metrik logaritmik kayıptı). Yarışma sırasında, modeller test setinin% 30'una karşı değerlendirildi. Bir diğer önemli unsur, modellerin çok …

9
Fazla takma ve takma
Aşırı takma ve yetersiz takma hakkında biraz araştırma yaptım ve tam olarak ne olduklarını anladım, ama nedenlerini bulamıyorum. Aşırı takma ve yetersiz takmanın başlıca nedenleri nelerdir? Bir model eğitiminde neden bu iki sorunla karşı karşıyayız?

1
Xgboost'ta overfit hakkında tartışma
Kurulumum şu şekildedir: "Uygulamalı Öngörücü Modelleme" kılavuz ilkelerini takip ediyorum. Böylece ilişkili özellikleri filtreledim ve aşağıdakilerle sonuçlandım: Eğitim setinde 4900 veri noktası ve test setinde 1600 veri noktası. 26 özelliğim var ve hedef sürekli bir değişken. caretPaketi kullanarak modelleri eğitmek için 5 kat çapraz geçerlilik uygularım . Bir MARS modeli …


2
Destekleme: öğrenme oranına neden bir düzenleme parametresi denir?
Öğrenme oranı parametresi ( ) Gradyan küçülür -typically her yeni baz model seri olarak bağlanır sığ tree katkısını Arttırılması de. Daha küçük adımlarda olduğu gibi anlaşılabilir olan test seti doğruluğunu önemli ölçüde arttırdığı gösterilmiştir, kayıp fonksiyonunun minimumuna daha hassas bir şekilde ulaşılabilir. ν∈ [ 0 , 1 ]ν∈[0,1]\nu \in [0,1] …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.