«train» etiketlenmiş sorular

istatistiksel modellerin veya algoritmaların eğitimi (veya tahmin edilmesi).

5
Sinir ağını eğitmek için toplu iş hacmi ve yineleme sayısı
Bir sinir ağını eğitirken, ne tür bir fark yaratabilir? parti büyüklüğü ve yineleme sayısıaaabbb parti büyüklüğünü ve ile yineleme sayısınıcccddd nerede ?ab=cdab=cd ab = cd Aksi taktirde, sinir ağını aynı miktarda eğitim örneğiyle eğittiğimizi varsayarak, optimum parti büyüklüğünü ve yinelemenin sayısını nasıl ayarlayacağız? (parti büyüklüğü * yineleme sayısı = sinir …

1
Sınıflandırmada eğitim verilerinin üretilmesi için tabakalı ve rastgele örneklemenin faydaları
Orijinal veri kümesini sınıflandırma için eğitim ve test setine bölerken rastgele örnekleme yerine tabakalı örnekleme kullanmanın herhangi bir / bazı avantajları olup olmadığını bilmek istiyorum. Ayrıca, tabakalı örnekleme sınıflandırıcıya rastgele örneklemeden daha fazla yanlılık getirir mi? Veri hazırlama için tabakalı örnekleme kullanmak istediğim uygulama, orijinal veri kümesinin üzerinde eğitilmiş bir …


2
CalibratedClassifierCV ile sınıflandırıcıları kalibre etmenin doğru yolu
Scikit, modellerimizi belirli bir X, y çiftinde kalibre etmemizi sağlayan CalibratedClassifierCV'ye sahiptir . Ayrıca açıkça belirtiyor kidata for fitting the classifier and for calibrating it must be disjoint. Ayrılmaları gerekiyorsa, sınıflandırıcıyı aşağıdakilerle eğitmek meşru mudur? model = CalibratedClassifierCV(my_classifier) model.fit(X_train, y_train) Aynı eğitim setini kullanarak disjoint datakuralı ihlal ettiğimden korkuyorum . …

4
Degrade artırıcı makine doğruluğu, yineleme sayısı arttıkça azalır
Gradyan arttırıcı makine algoritmasını caretR'deki paket üzerinden deniyorum. Küçük bir kolej veri kümesi kullanarak, aşağıdaki kodu koştu: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl <- trainControl(method = …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

2
Caret ve basic randomForest paketi aracılığıyla randomForest'ten farklı sonuçlar
Biraz kafam karıştı: Eğitimli bir modelin şapka ile sonuçları orijinal paketteki modelden nasıl farklı olabilir? Caret paketi ile RandomForest FinalModel kullanarak tahmin öncesi önişlemenin gerekli olup olmadığını okudum ? ama burada herhangi bir ön işleme kullanmıyorum. Caret paketini kullanarak ve farklı mtry değerleri için ayarlayarak farklı Rastgele Ormanlar yetiştirdim. > …

3
Hayatta kalma analizi probleminde eğitim, test, validasyon
Burada çeşitli konulara göz atıyorum, ancak tam sorumun cevaplandığını sanmıyorum. Yaklaşık 50.000 öğrenciden oluşan bir veri setim ve ayrılma zamanlarım var. Çok sayıda potansiyel ortak değişkenle orantılı tehlike regresyonu yapacağım. Ayrıca okuldan ayrılmak / kalmak için lojistik regresyon yapacağım. Ana hedef, yeni öğrenci grupları için tahmin olacaktır, ancak geçen yılki …


4
Uygulamalı makine öğrenimi hakkında iyi örnekler / kitaplar / kaynaklar (sadece ML'nin kendisi değil)
Daha önce bir ML kursu aldım, ancak şimdi ML ML ile ilgili projelerle işimde çalıştığım için, aslında uygulamak için biraz uğraşıyorum. Eminim yaptığım şeyler daha önce araştırılmış / ele alınmıştır, ancak belirli konuları bulamıyorum. Çevrimiçi bulduğum tüm makine öğrenimi örnekleri çok basittir (örneğin Python'da bir KMeans modelinin nasıl kullanılacağı ve …

3
Büyük veri kümelerinden öğrenirken yaklaşımlar?
Temel olarak, büyük veri kümelerine karşı öğrenmenin iki yaygın yolu vardır (zaman / alan kısıtlamaları ile karşılaştığınızda): Hile :) - eğitim için sadece bir "yönetilebilir" alt kümesini kullanın. Doğruluk kaybı, azalan getiriler yasası nedeniyle ihmal edilebilir - modelin tahmini performansı, tüm eğitim verileri buna dahil edilmeden çok önce düzleşir. Paralel …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.