«random-forest» etiketlenmiş sorular

Rasgele orman, her ağaç için değişkenlerin rasgele alt kümelerini seçmeye ve genel sınıflandırma olarak en sık ağaç çıktısını kullanmaya dayalı bir makine öğrenimi sınıflandırıcısıdır.

6
karar ağacı / rastgele ormandaki özellikler olarak karakter dizileri
Karar ağacı / rastgele orman uygulamasında bazı problemler yaşıyorum. Sayı gibi karakter dizileri (ülke adı gibi) özellikli bir soruna uymaya çalışıyorum. Şimdi, kütüphane, scikit-learn sadece sayı olarak parametre alır, fakat önemli miktarda bilgi taşıdıkları gibi dizeleri de enjekte etmek istiyorum. Böyle bir senaryoyu nasıl idare ederim? Python'da karma gibi bazı …

7
ValueError: Girdi, NaN, sonsuzluk veya dtype için çok büyük bir değer içeriyor ('float32')
RandomForest modelini kullanarak test verilerini tahmin ederken ValueError aldım. Benim kod: clf = RandomForestClassifier(n_estimators=10, max_depth=6, n_jobs=1, verbose=2) clf.fit(X_fit, y_fit) df_test.fillna(df_test.mean()) X_test = df_test.values y_pred = clf.predict(X_test) Hata: ValueError: Input contains NaN, infinity or a value too large for dtype('float32'). Test veri setinde hatalı değerleri nasıl bulabilirim? Ayrıca, bu kayıtları bırakmak …

1
Xgboost neden GradientBoostingClassifier'ı sklearn'den çok daha hızlı?
100 sayısal özellikli 50k örneklerin üzerinde bir degrade yükseltme modeli yetiştirmeye çalışıyorum. XGBClassifieriken benim makinede 43 saniye içinde kolları 500 ağaçları, GradientBoostingClassifierkolları sadece 10 ağaç (!) 1 dakika ve 2 saniye :( Ben rahatsız etmedi o saat sürer olarak 500 ağaç büyümeye çalışan. Aynı kullanıyorum learning_rateve max_depthayarları , aşağıya bakınız. …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

4
Rastgele Orman ne zaman SVM ve ne zaman kullanılır?
Tüm bir kullanmak Random Forestüzerinde SVMtam tersi ve yardımcısı? Bunu anlıyorum cross-validationve model karşılaştırması, bir model seçmenin önemli bir yönüdür, ancak burada iki yöntemin genel kuralları ve sezgisel özellikleri hakkında daha fazla bilgi edinmek istiyorum. Birisi lütfen sınıflandırıcıların inceliklerini, güçlü yönlerini ve zayıflıklarını, ayrıca her birine en uygun olan sorunları …

3
MultiOutputClassifier'dan predict_proba'yı anlama
Bu örneği , Random Forest modeli ile çoklu işlem sınıflandırma yapmak için, scikit-learn web sitesinde takip ediyorum . from sklearn.datasets import make_classification from sklearn.multioutput import MultiOutputClassifier from sklearn.ensemble import RandomForestClassifier from sklearn.utils import shuffle import numpy as np X, y1 = make_classification(n_samples=5, n_features=5, n_informative=2, n_classes=2, random_state=1) y2 = shuffle(y1, random_state=1) …

3
Neden XGBoost ve Random Forest'a ihtiyacımız var?
Birkaç kavram konusunda net değildim: XGBoost, zayıf öğrencileri güçlü öğrencilere dönüştürür. Bunu yapmanın avantajı nedir? Tek bir ağacı kullanmak yerine birçok zayıf öğrenciyi birleştirmek mi? Rastgele Orman bir ağaç oluşturmak için ağaçtan çeşitli örnekler kullanır. Sadece tekil bir ağaç kullanmak yerine bu yöntemin avantajı nedir?

4
Rastgele Orman kıyafeti kullanıyor mu?
Rastgele Ormanlar hakkında okuyordum ama fazla uydurma sorunu hakkında kesin bir cevap bulamıyorum. Orijinal Breiman gazetesine göre, ormandaki ağaç sayısını arttırırken fazladan giydirilmemeli, ancak bu konuda bir fikir birliği olmadığı görülüyor. Bu konuda bana biraz kafa karışıklığı yaratıyor. Belki benden daha uzman biri bana daha somut bir cevap verebilir veya …

3
Rastgele Ormanlarla modelleme çapraz doğrulama gerektiriyor mu?
Gördüğüm kadarıyla, bu konuda görüşler farklılaşıyor. En iyi uygulama, kesinlikle çapraz doğrulama kullanarak (özellikle de RF'leri aynı veri setindeki diğer algoritmalarla karşılaştırıyorsanız) kullanmaya zorlayacaktır. Öte yandan, orijinal kaynak OOB hatasının model eğitimi sırasında hesaplanmasının test set performansının bir göstergesi için yeterli olduğunu belirtmektedir. Trevor Hastie bile, nispeten yakın tarihli bir …

2
Sınıflandırıcıların doğruluğu nasıl artırılır?
Rasgele ağaçlar ve diğer sınıflandırıcılar üzerinde denemek için OpenCV letter_recog.cpp örneği kullanıyorum. Bu örnekte altı sınıflandırıcı - rastgele ağaçlar, artırma, MLP, kNN, naif Bayes ve SVM uygulamaları vardır. Eğitim ve test için ikiye böldüğüm 20000 örnek ve 16 özelliğe sahip UCI harf tanıma veri kümesi kullanılır. SVM ile ilgili deneyimim …

5
İkili sınıflandırma algoritmasını seçin
Bir ikili sınıflandırma sorunum var: Eğitim setinde yaklaşık 1000 numune İkili, sayısal ve kategorik olmak üzere 10 özellik Bu tür bir problem için hangi algoritma en iyi seçimdir? Varsayılan olarak, nispeten temiz ve gürültülü olmayan veriler için en iyi olduğu düşünülen SVM (nominal özellik değerlerine ikili özelliklere dönüştürülmüş ön) sahip …

5
deniz dibi ısı haritasını büyüt
corr()Orijinal bir df dışında bir df oluşturun . corr()Df 70 X 70 çıktı ve ısı haritası görselleştirmek mümkün değildir ... sns.heatmap(df). Göstermeye çalışırsam corr = df.corr(), tablo ekrana sığmaz ve tüm korelasyonları görebilirim. Boyutundan dfbağımsız olarak tümünü yazdırmanın veya ısı haritasının boyutunu kontrol etmenin bir yolu var mı ?
17 visualization  pandas  plotting  machine-learning  neural-network  svm  decision-trees  svm  efficiency  python  linear-regression  machine-learning  nlp  topic-model  lda  named-entity-recognition  naive-bayes-classifier  association-rules  fuzzy-logic  kaggle  deep-learning  tensorflow  inception  classification  feature-selection  feature-engineering  machine-learning  scikit-learn  tensorflow  keras  encoding  nlp  text-mining  nlp  rnn  python  neural-network  feature-extraction  machine-learning  predictive-modeling  python  r  linear-regression  clustering  r  ggplot2  neural-network  neural-network  training  python  neural-network  deep-learning  rnn  predictive-modeling  databases  sql  programming  distribution  dataset  cross-validation  neural-network  deep-learning  rnn  machine-learning  machine-learning  python  deep-learning  data-mining  tensorflow  visualization  tools  sql  embeddings  orange  feature-extraction  unsupervised-learning  gan  machine-learning  python  data-mining  pandas  machine-learning  data-mining  bigdata  apache-spark  apache-hadoop  deep-learning  python  convnet  keras  aggregation  clustering  k-means  r  random-forest  decision-trees  reference-request  visualization  data  pandas  plotting  neural-network  keras  rnn  theano  deep-learning  tensorflow  inception  predictive-modeling  deep-learning  regression  sentiment-analysis  nlp  encoding  deep-learning  python  scikit-learn  lda  convnet  keras  predictive-modeling  regression  overfitting  regression  svm  prediction  machine-learning  similarity  word2vec  information-retrieval  word-embeddings  neural-network  deep-learning  rnn 

1
RandomForestClassifier OOB puanlama yöntemi
Scikit-learn'daki rastgele orman uygulaması, torba dışı örneklerle genelleme hatasını tahmin etmek için puanlama yöntemi olarak ortalama doğruluk kullanıyor mu? Belgelerde bu belirtilmemiştir, ancak score () yöntemi ortalama doğruluğu rapor eder. Dengesiz bir veri kümem var ve ızgara aramasında puanlama ölçütüm olarak AUC of ROC kullanıyorum. Sınıflandırıcıya OOB örnekleri üzerinde de …

1
Tabakalı örnekleme gerekli mi (rastgele orman, Python)?
Dengesiz veri kümemde rastgele bir orman modeli çalıştırmak için Python kullanıyorum (hedef değişken ikili bir sınıftı). Eğitim ve test veri kümesini böldüğümde, katmanlı örnekleme (gösterilen kod gibi) kullanıp kullanmama konusunda mücadele ettim. Şimdiye kadar, projemde tabakalı vakanın daha yüksek bir model performansına yol açacağını gözlemledim. Ancak, modelimi, hedef sınıfın mevcut …

1
Rastgele Ormanları kullanarak örnekleme yapmak için kaç özellik
Vikipedi sayfası tırnak "İstatistiksel Öğrenme Unsurları" diyor: Genellikle, özelliklerine ilişkin bir sınıflandırma sorunu için her özellikleri kullanılır.ppp⌊p–√⌋⌊p⌋\lfloor \sqrt{p}\rfloor Bunun oldukça iyi eğitimli bir tahmin olduğunu ve muhtemelen ampirik kanıtlarla doğrulandığını anlıyorum, ancak birinin kare kökü seçmesinin başka nedenleri var mı? Orada meydana gelen istatistiksel bir olay var mı? Bu bir …

5
Scikit-learn ile özellik önemi Rastgele Orman çok yüksek Standart Sapma gösterir
Ben kullanıyorum Rastgele Orman Sınıflandırıcı scikit-öğrenme ve böyle olduğu gibi özellik önem çizmek istiyorum bu örnekte . Ancak benim sonucum tamamen farklıdır, çünkü özellik önemi standart sapmanın neredeyse her zaman özellik öneminden daha büyüktür (bkz. Ekli resim). Böyle bir davranışa sahip olmak mümkün mü, ya da onu çizerken bazı hatalar …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.