«classification» etiketlenmiş sorular

Yeni bir veri kümesi örneğinin ait olduğu kategoriyi veya kategorileri tanımlayan denetimli öğrenme örneği.





1
Xgboost neden GradientBoostingClassifier'ı sklearn'den çok daha hızlı?
100 sayısal özellikli 50k örneklerin üzerinde bir degrade yükseltme modeli yetiştirmeye çalışıyorum. XGBClassifieriken benim makinede 43 saniye içinde kolları 500 ağaçları, GradientBoostingClassifierkolları sadece 10 ağaç (!) 1 dakika ve 2 saniye :( Ben rahatsız etmedi o saat sürer olarak 500 ağaç büyümeye çalışan. Aynı kullanıyorum learning_rateve max_depthayarları , aşağıya bakınız. …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

4
Yüksek derecede dengesiz veri setlerinin eğitimi için hızlı rehber
Eğitim setinde yaklaşık 1000 pozitif ve 10000 negatif örnek ile bir sınıflandırma problemim var. Yani bu veri seti oldukça dengesiz. Düz rastgele ormanlar sadece tüm test örneklerini çoğunluk sınıfı olarak işaretlemeye çalışıyor. Alt örnekleme ve ağırlıklı rastgele ormanlarla ilgili bazı iyi cevaplar burada verilmiştir: Çok taraflı veri kümeleriyle bir Ağaç …

4
Rastgele Orman ne zaman SVM ve ne zaman kullanılır?
Tüm bir kullanmak Random Forestüzerinde SVMtam tersi ve yardımcısı? Bunu anlıyorum cross-validationve model karşılaştırması, bir model seçmenin önemli bir yönüdür, ancak burada iki yöntemin genel kuralları ve sezgisel özellikleri hakkında daha fazla bilgi edinmek istiyorum. Birisi lütfen sınıflandırıcıların inceliklerini, güçlü yönlerini ve zayıflıklarını, ayrıca her birine en uygun olan sorunları …

4
Özgeçmiş verilerine dayanarak iş sınıflandırmasını yapmak için hangi algoritmaları kullanmalıyım?
Not: R'de her şeyi yapıyorum. Sorun şöyle devam ediyor: Temel olarak, özgeçmişlerin bir listesi (CV) var. Bazı adaylar daha önce iş tecrübesine sahip olacak, bazıları ise işe yaramayacak. Buradaki amaç: Özgeçmişlerindeki metinlere dayanarak, onları farklı iş sektörlerine göre sınıflandırmak istiyorum. Özellikle adayların herhangi bir deneyime sahip olmadığı / öğrenci olmadığı …

4
Bir keras modeli için doğruluk, F1, hassasiyet ve hatırlama nasıl elde edilir?
İkili KerasClassifier modelim için kesinlik, hatırlama ve F1 puanını hesaplamak istiyorum, ancak herhangi bir çözüm bulamıyorum. İşte benim gerçek kod: # Split dataset in train and test data X_train, X_test, Y_train, Y_test = train_test_split(normalized_X, Y, test_size=0.3, random_state=seed) # Build the model model = Sequential() model.add(Dense(23, input_dim=45, kernel_initializer='normal', activation='relu')) model.add(Dense(1, kernel_initializer='normal', …

5
Karar ağacı algoritmaları doğrusal mı yoksa doğrusal değil mi?
Son zamanlarda bir arkadaşımdan bir röportajda karar ağacı algoritmalarının doğrusal mı yoksa doğrusal olmayan algoritma mı olduğu soruldu. Bu sorunun cevabını aramaya çalıştım ama tatmin edici bir açıklama bulamadım. Herkes bu sorunun çözümünü cevaplayabilir ve açıklayabilir mi? Ayrıca, doğrusal olmayan makine öğrenme algoritmalarına başka örnekler nelerdir?



2
Metin kategorizasyonu: farklı türdeki özellikleri birleştirme
Ele aldığım sorun kısa metinleri birden çok sınıfa ayırmak. Şu anki yaklaşımım tf-idf ağırlıklı terim frekanslarını kullanmak ve basit bir lineer sınıflandırıcıyı (lojistik regresyon) öğrenmek. Bu gayet iyi çalışıyor (test setinde yaklaşık% 90 makro F-1, eğitim setinde yaklaşık% 100). Büyük bir sorun görünmeyen kelimeler / n-gramdır. Diğer özellikleri, örneğin dağıtım …

4
Manhattan mesafesini Öklid mesafesinin tersi olarak ne zaman kullanırsınız?
Bir neden kullanacağınızı iyi bir argüman aramaya çalışıyorum Manhattan mesafe üzerinde Öklit mesafesi Machine Learning'de. Şimdiye kadar iyi bir argümana bulduğum en yakın şey bu MIT dersinde . 36: 15'te slaytlarda aşağıdaki ifadeyi görebilirsiniz: "Genellikle Öklid metriği kullanın; farklı boyutlar karşılaştırılamazsa Manhattan uygun olabilir. " Profesör, sürüngen bacaklarının sayısının 0 …

2
Sınıflandırıcıların doğruluğu nasıl artırılır?
Rasgele ağaçlar ve diğer sınıflandırıcılar üzerinde denemek için OpenCV letter_recog.cpp örneği kullanıyorum. Bu örnekte altı sınıflandırıcı - rastgele ağaçlar, artırma, MLP, kNN, naif Bayes ve SVM uygulamaları vardır. Eğitim ve test için ikiye böldüğüm 20000 örnek ve 16 özelliğe sahip UCI harf tanıma veri kümesi kullanılır. SVM ile ilgili deneyimim …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.