«random-forest» etiketlenmiş sorular

Rastgele orman, birçok karar ağacının çıktılarını birleştirmeye dayanan bir makine öğrenme yöntemidir.

2
Rastgele Ormanlar tahmin yanlılığı gösterir mi?
Bence bu basit bir soru, ancak neden ya da neden olmasın ardındaki mantık olmayabilir. Sormamın nedeni, yakın zamanda bir RF uygulamamı yazdım ve iyi performans göstermesine rağmen beklediğim kadar iyi performans göstermiyor ( Kaggle Fotoğraf Kalitesi Tahmin yarışması veri setine, kazanan puanlara ve bazılarına dayanarak) hangi tekniklerin kullanıldığı hakkında mevcut …

3
Eğitim verilerinden daha yüksek tahmin edilmeyen rastgele orman regresyonu
Rastgele orman regresyon modelleri oluştururken, en azından Rtahmin edilen değerin, eğitim verilerinde görülen hedef değişkenin maksimum değerini asla aşmadığını fark ettim . Örnek olarak, aşağıdaki koda bakın. Verilere mpgdayanarak tahmin etmek için bir regresyon modeli oluşturuyorum mtcars. OLS ve rastgele orman modelleri üretiyorum ve onları mpgçok iyi yakıt ekonomisine sahip …
12 r  random-forest 

2
CNN'ler neden FC katmanları ile sonuçlandırılır?
Anladığım kadarıyla CNN'ler iki bölümden oluşuyor. Özellik çıkarmayı yapan ilk bölüm (döngü / havuz katmanları) ve özelliklerden sınıflandırma yapan ikinci bölüm (fc katmanları). Tam bağlı sinir ağları en iyi sınıflandırıcılar olmadığından (yani çoğu zaman SVM'ler ve RF'ler tarafından daha iyi performans gösterirler), CNN'ler neden bir SVM veya RF diyelim, FC …


1
RandomForest ve sınıf ağırlıkları
Bir cümlede soru: Birisi rastgele bir orman için iyi sınıf ağırlıklarının nasıl belirleneceğini biliyor mu? Açıklama: Dengesiz veri kümeleriyle oynuyorum. RPaketi randomForest, çok az pozitif örnek ve çok sayıda negatif örnekle çok çarpık bir veri kümesi üzerinde bir model eğitmek için kullanmak istiyorum . Biliyorum, başka yöntemler var ve sonunda …
11 r  random-forest 

1
Neden geniş bir K seçeneği çapraz doğrulama puanımı düşürüyor?
İle oynamak Boston Konut Verisetinin ve RandomForestRegressor(w / varsayılan parametreleri) Garip bir şey fark, scikit-öğrenme: ortalama çapraz doğrulama puanı azaldı My çapraz doğrulama stratejisi olarak oldu şu 10 öteye kıvrımları sayısını artırdı olarak: cv_met = ShuffleSplit(n_splits=k, test_size=1/k) scores = cross_val_score(est, X, y, cv=cv_met) ... neredeydi num_cvs. Ben set test_sizeiçin 1/num_cvsk …

2
R randomForest'te değiştirilmiş örnekleme
RandomForest uygulaması, değiştirme ile örnekleme yaparken bile gözlem sayısının ötesinde örneklemeye izin vermez. Bu neden? İyi çalışıyor: rf <- randomForest(Species ~ ., iris, sampsize=c(1, 1, 1), replace=TRUE) rf <- randomForest(Species ~ ., iris, sampsize=3, replace=TRUE) Yapmak istediğim şey: rf <- randomForest(Species ~ ., iris, sampsize=c(51, 1, 1), replace=TRUE) Error in …

2
Karar ağacı alanı ile rastgele orman arasındaki MCMC örneklemesi
Bir rasgele orman topluluğudur karar ağaçları rastgele (ve bazen eğitim verileri torbalama) ile her ağaç oluşturmak için yalnızca belirli özelliklerini seçerek kurdu. Görünüşe göre iyi öğreniyor ve genelleştiriyorlar. Karar ağacı alanından MCMC örneklemesi yapan veya bunları rastgele ormanlarla karşılaştıran var mı? MCMC'yi çalıştırmanın ve tüm örneklenmiş ağaçları kaydetmenin hesaplama açısından …

1
Sıralanmamış kategorik öngörücü değişkenin düzeylerinin azaltılması
Bir sınıflandırıcı, SVM veya rastgele orman veya başka bir sınıflandırıcı eğitmek istiyorum. Veri kümesindeki özelliklerden biri 1000 seviyeli kategorik bir değişkendir. Bu değişkenteki seviye sayısını azaltmanın en iyi yolu nedir? R'de combine.levels(), Hmisc paketinde nadir seviyeleri birleştiren bir fonksiyon var , ancak başka öneriler arıyordum.

2
Rasgele bir orman modelinden bir tahmin açıklamanın bir yolu var mı?
Diyelim ki rastgele bir ormana dayalı bir öngörme sınıflandırma modelim var (R'deki randomForest paketini kullanarak). Son kullanıcıların tahmin oluşturmak için bir öğe belirleyebilmesi ve bir sınıflandırma olasılığı ortaya çıkması için ayarlamak istiyorum. Şimdiye kadar, sorun değil. Ancak, değişken önem grafiği gibi bir şeyin çıktısını alabilmek yararlı olabilir, ancak tahmin edilen …

2
Torbalı bir ağaç / rastgele orman ağacı neden tek bir karar ağacından daha yüksek yanlılığa sahiptir?
Tam olarak yetiştirilmiş bir karar ağacı (yani budanmamış bir karar ağacı) düşünürsek, yüksek varyans ve düşük önyargıya sahiptir. Torbalama ve Rastgele Ormanlar bu yüksek varyanslı modelleri kullanır ve varyansı azaltmak ve böylece tahmin doğruluğunu arttırmak için bunları birleştirir. Hem Torbalama hem de Rastgele Ormanlar Bootstrap örneklemesi kullanır ve "İstatistiksel Öğrenme …

1
Rasgele orman vs Adaboost
Rastgele Ormanlar (Breiman, 1999) makalesinin 7. bölümünde yazar şu varsayımı belirtmektedir: "Adaboost Rastgele Bir Orman". Bunu kanıtlayan veya çürüten oldu mu? Bu yazıyı ispatlamak veya çürütmek için neler yapıldı?

1
Rasgele orman algoritması adımlarının ardındaki motivasyon
Rasgele bir orman inşa etmek için bildiğim yöntem şöyledir: ( http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm ) Ormanda bir ağaç inşa etmek için: Bootstrap N boyutunda bir örnek, burada N egzersiz setimizin boyutudur. Bu önyüklemeli örneği bu ağaç için eğitim seti olarak kullanın. Ağacın her bir düğümünde M özelliklerimizden rastgele m seçin. Bölünecek bu m …

1
R'deki her tahmin için regresyondaki güven puanlarını (rastgele ormanlarla / XGBoost ile) nasıl hesaplayabilirim?
Rastgele Ormanlar veya Aşırı Gradient Boosting (XGBoost) gibi algoritmaları kullanırken, tahmin edilen her değer için bir güven puanı almanın bir yolu var mı (buna güven değeri veya olasılığı da diyebiliriz)? Diyelim ki bu güven puanı 0 ile 1 arasında değişiyor ve belirli bir tahminden ne kadar emin olduğumu gösteriyor . …

1
Rastgele Orman regresörü veya sınıflandırıcı seçmeli miyim?
Ben rastgele orman tarafından bir ikili hedef sınıf ile bir veri kümesi sığdırmak. Python'da bunu randomforestclassifier veya randomforestregressor ile yapabilirim. Sınıflandırmayı doğrudan randomforestclassifier'dan alabilirim veya önce randomforestregressor'u çalıştırabilir ve bir dizi tahmini puan geri alabilirim (sürekli değer). Sonra tahmin sınıfları puan kümesinden türetmek için bir kesme değeri bulabilirim. Her iki …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.