«bagging» etiketlenmiş sorular

Torbalama veya önyükleme toplama, model ortalamasının özel bir durumudur. Standart bir eğitim seti verildiğinde, torbalama , önyükleme yoluyla yeni eğitim seti üretir ve daha sonra, üretilen veri setlerinde bazı eğitim yöntemlerini kullanmanın sonuçlarının ortalaması alınır. Torbalama, ağaçlar gibi bazı dengesiz yöntemlerin sonuçlarını stabilize edebilir. mm


5
Rastgele orman bir yükseltme algoritması mıdır?
Kısa tanım artırılması : Bir grup zayıf öğrenci tek bir güçlü öğrenci yaratabilir mi? Zayıf bir öğrenci, gerçek sınıflandırma ile sadece hafifçe ilişkili olan bir sınıflayıcı olarak tanımlanır (örnekleri rastgele tahmin etmekten daha iyi etiketleyebilir). Rastgele Ormanın Kısa Tanımı : Rastgele Ormanlarda birçok sınıflandırma ağacı bulunur. Bir giriş vektöründen yeni …

2
Bu sanat regresyon metodolojisi mi?
Kaggle yarışmalarını uzun zamandır takip ediyorum ve birçok kazanma stratejisinin "büyük üçler" den en az birini kullanmayı içerdiğini fark ettim: torbalama, güçlendirme ve istifleme. Regresyonlar için, mümkün olan en iyi regresyon modelini oluşturmak yerine, (Genelleştirilmiş) doğrusal regresyon, rasgele orman, KNN, NN ve SVM regresyon modelleri gibi çoklu regresyon modelleri oluşturmak …


3
Ne zaman bir topluluk sınıflandırıcısı kullanmamalıyım?
Genel olarak, amaç doğru dışı numune tahmin etmek sınıfı üyelik olan bir sınıflandırma problemi, içinde ne zaman gerektiğini değil bir topluluk sınıflandırıcı kullanılır? Bu soru neden Topluluk öğrenmeyi her zaman kullanmıyorsunuz? . Bu soru neden hep toplulukları kullanmadığımızı soruyor. Toplulukların, topluluk dışı bir eşdeğere göre daha kötü (sadece "daha iyi …

1
Torbalamanın teorik garantileri nelerdir?
Şunu duydum (yaklaşık olarak): torbalama, bir kestirimci / kestirimci / öğrenme algoritmasının varyansını azaltmak için bir tekniktir. Ancak, bu ifadenin resmi matematiksel kanıtını hiç görmedim. Bunun neden matematiksel olarak doğru olduğunu bilen var mı? Bu kadar yaygın kabul gören / bilinen bir gerçek gibi görünüyor, buna doğrudan bir referans bekliyorum. …

1
Ağaçların Artırılması ve Torbalanması (XGBoost, LightGBM)
Ağaçları torbalama veya artırma fikirleri hakkında birçok blog yazısı, YouTube videosu vb. Var . Genel anlayışım, her biri için sözde kod: torbalama: Örneklerin% x'i ve özelliklerin% y'i N rasgele örneği alın Modelinizi (örn. Karar ağacı) N Her bir N ile tahmin edin Nihai tahmini almak için tahminleri ortalayın Arttırılması: Modelinizi …

1
Bir lmer modeli için hangi çoklu karşılaştırma yöntemi kullanılır: lsmeans veya glht?
Bir veri setini bir sabit efekt (durum) ve iki rastgele efekt (katılımcı konu tasarımı ve çifti nedeniyle katılımcı) ile karışık efektler modeli kullanarak analiz ediyorum. Model ile oluşturulan lme4paket: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Sonra, bu modelin sabit etki (durum) olmadan modele karşı bir olasılık oranı testi yaptım ve önemli bir farkım var. Veri …

2
Scikit-öğrenme önyükleme işlevi neden test kümesini yeniden örnekliyor?
Model değerlendirmesi için bootstrapping kullanırken, her zaman kullanıma hazır örneklerin doğrudan bir test seti olarak kullanıldığını düşündüm. Ancak, bunun için durum olmadığı görülüyor kaldırılan scikit-öğrenmeBootstrap dışı torba veri alt kümeden değiştirme ile çizim test kümesi oluşturmak gibi görünüyor yaklaşımı,. Bunun arkasındaki istatistiksel mantık nedir? Bu tekniğin sadece torba dışı örnek …

1
Hangi torbalama algoritmaları Random Forest'ın ardıllarına layık?
Algoritmaları artırmak için, oldukça iyi geliştiklerini söyleyebilirim. 1995'in başlarında AdaBoost tanıtıldı, bir süre sonra Gradient Boosting Machine (GBM) oldu. Son zamanlarda, doğru, aşırı uyumu ele alan ve birden fazla Kaggle yarışmasının galibi haline gelen XGBoost 2015 civarında piyasaya sürüldü. 2017 yılında LightGBM Microsoft tarafından tanıtıldı, XGBoost'a kıyasla önemli ölçüde daha …

5
Rasgele Orman ve Karar Ağacı Algoritması
Rastgele bir orman, torbalama kavramını takip eden karar ağaçlarının bir koleksiyonudur. Bir karar ağacından bir sonraki karar ağacına geçtiğimizde, son karar ağacı tarafından öğrenilen bilgiler bir sonrakine nasıl ilerler? Çünkü, anlayışım gereği, her karar ağacı için oluşturulan ve bir sonraki karar ağacı yanlış sınıflandırılmış hatadan öğrenmeye başlamadan önce yüklenen eğitimli …

3
Rasgele Orman ve Yükseltme parametrik mi yoksa parametrik değil mi?
Mükemmel İstatistiksel modellemeyi okuyarak : İki kültür (Breiman 2001) , geleneksel istatistiksel modeller (örneğin, doğrusal regresyon) ve makine öğrenme algoritmaları (örneğin, Torbalama, Rastgele Orman, Artırılmış ağaçlar ...) arasındaki tüm farkı ele geçirebiliriz. Breiman, veri modellerini (parametrik) eleştirir, çünkü gözlemlerin, İstatistikçi tarafından reçete edilen, Doğayı zayıf bir şekilde taklit edebilecek bilinen, …

1
Neden her zaman topluluk öğrenmesini kullanmıyorsunuz?
Bana öyle geliyor ki, topluluk öğrenimi her zaman tek bir öğrenme hipotezinden daha iyi tahmin performansı verecek. Peki, neden onları sürekli kullanmıyoruz? Benim tahminim belki hesaplama sınırlamaları yüzünden mi? (o zaman bile zayıf tahmin ediciler kullanıyoruz, bu yüzden bilmiyorum).

2
Torbalı bir ağaç / rastgele orman ağacı neden tek bir karar ağacından daha yüksek yanlılığa sahiptir?
Tam olarak yetiştirilmiş bir karar ağacı (yani budanmamış bir karar ağacı) düşünürsek, yüksek varyans ve düşük önyargıya sahiptir. Torbalama ve Rastgele Ormanlar bu yüksek varyanslı modelleri kullanır ve varyansı azaltmak ve böylece tahmin doğruluğunu arttırmak için bunları birleştirir. Hem Torbalama hem de Rastgele Ormanlar Bootstrap örneklemesi kullanır ve "İstatistiksel Öğrenme …

1
Rasgele Orman Olasılık Tahminine karşı çoğunluk oyu
Scikit öğrenmesi , neden olduğu hakkında bir açıklama yapmadan model toplama tekniği için çoğunluk oyu yerine olasılıksal öngörü kullanıyor gibi görünmektedir (1.9.2.1. Rastgele Ormanlar). Nedeninin açık bir açıklaması var mı? Ayrıca Rastgele Orman torbalaması için kullanılabilecek çeşitli model toplama teknikleri için iyi bir makale veya inceleme makalesi var mı? Teşekkürler!

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.