«machine-learning» etiketlenmiş sorular

Makine öğrenimi algoritmaları eğitim verilerinin bir modelini oluşturur. "Makine öğrenimi" terimi belirsiz bir şekilde tanımlanmıştır; istatistiksel öğrenme, takviye öğrenme, gözetimsiz öğrenme vb. olarak da adlandırılır. DAİMA DAHA ÖZEL BİR ETİKET EKLE.


2
Bir sınıf SVM ile örnek SVM karşılaştırması
Bir sınıf SVM'lerin (OSVM'ler), akılda olumsuz veriler olmadan önerildiğini ve menşei, olumlu bir seti ve bir miktar negatif bağlantı noktasını ayıran karar sınırları bulmaya çalıştıklarını anlıyorum. 2011'deki bir çalışma, OSVM'lerden farklı olduğunu iddia eden "kategori başına tek bir sınıflandırıcıyı" eğiten Örnek SVM'ler (ESVM'ler) önermektedir ; hesaplanmış". Bunun ne anlama geldiğini …


3
K-kat çapraz doğrulamasında ızgara araması
10 kat çapraz doğrulama ayarında 120 örnek veri kümesi var. Şu anda, ilk yayının eğitim verilerini seçiyorum ve ızgara aramasıyla gama ve C değerlerini seçmek için 5 kat çapraz doğrulama yapıyorum. RBF çekirdeği ile SVM kullanıyorum. Kesinlik, hatırlama bildirmek için on 10 çapraz doğrulama yaptığım için, her kılavuzun eğitim verilerinde …

2
GBM sınıflandırması dengesiz sınıf boyutlarından muzdarip mi?
Denetimli bir ikili sınıflandırma sorunuyla ilgileniyorum. GBM paketini bireyleri virüs bulaşmamış / virüs bulaşmış olarak sınıflandırmak için kullanmak istiyorum. Enfekte olmuş bireylerden 15 kat daha fazla enfekte olmuşum var. Dengesiz sınıf boyutlarında GBM modellerinin acı çekip çekmediğini merak ediyordum. Bu soruyu cevaplayan bir referans bulamadım. Enfekte olmamış kişilere 1, enfekte …


6
En hızlı SVM uygulaması
Genel bir soru daha. Tahmini modelleme için bir rbf SVM kullanıyorum. Mevcut programımın kesinlikle biraz hızlanması gerektiğini düşünüyorum. Scikit öğrenmeyi kaba-ince arama + çapraz doğrulamayla kullanıyorum. Her SVM çalışması yaklaşık bir dakika sürer, ancak tüm iterasyonlarla, hala çok yavaş buluyorum. Sonunda çapraz doğrulama parçasını çoklu çekirdekler üzerinde çoklu olarak işlediğimi …

1
Olasılık yoğunluğu fonksiyonundaki değişkenlerin değişiminin türetilmesi?
Kitap örüntü tanıma ve makine öğrenmesinde (formül 1.27), py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | burada,değişkenin değişmesine görekarşılık gelen.p x ( x ) p y ( y )x=g(y)x=g(y)x=g(y)px(x)px(x)p_x(x)py(y)py(y)p_y(y) Kitaplar bunun nedeni, aralığına düşen gözlemlerin , küçük değerleri için aralığa dönüştürüleceğini söylüyor .δ x ( y , …

1
Stokastik degrade iniş, standart degrade inişe kıyasla zamandan nasıl tasarruf edebilir?
Standart Degrade İniş, tüm eğitim veri kümesi için degradeyi hesaplar. for i in range(nb_epochs): params_grad = evaluate_gradient(loss_function, data, params) params = params - learning_rate * params_grad Önceden tanımlanmış bir dönem sayısı için, ilk olarak parametre vektör parametrelerimizle tüm veri kümesi için kayıp fonksiyonunun gradient vektörü ağırlıkları_gradını hesaplıyoruz. Stokastik Degrade İniş, …

1
İstatistiksel öğrenme teorisinde, bir test setine aşırı uyum sağlama sorunu yok mu?
MNIST veri kümesini sınıflandırmayla ilgili sorunu ele alalım. Göre Yann LeCun en MNIST bir Web 'Ciresan ve diğ.' Evrimsel Sinir Ağı kullanılarak MNIST test setinde% 0.23 hata oranı elde edildi. olarak ayarlanmış MNIST eğitimini DtrainDtrainD_{train}, olarak ayarlanmış MNIST testini DtestDtestD_{test}, h 1DtrainDtrainD_{train} olarak kullanarak elde ettikleri son hipotezi ve h_ …

1
Sıfır hipotezi altında değiştirilebilir örneklerin ardındaki sezgi nedir?
Permütasyon testleri (randomizasyon testi, yeniden randomizasyon testi veya kesin test olarak da adlandırılır) çok faydalıdır ve örneğin normal dağıtım varsayımı t-testkarşılanmadığında ve değerlerin parametrik olmayan test Mann-Whitney-U-test, daha fazla bilginin kaybolmasına neden olur. Bununla birlikte, bu tür bir test kullanılırken bir ve sadece bir varsayım göz ardı edilmemelidir, örneklerin sıfır …
16 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

3
Online ve batch Learning arasındaki fark nedir?
Şu anda John Duchi ve Yoram Singer'ın Forward-Backward Splitting'i kullanarak Efficient Online ve Batch Learning makalesini okudum . 'Çevrimiçi' ve 'Toplu' terimlerinin kullanımıyla ilgili çok kafam karıştı. 'Çevrimiçi' ifadesinin, eğitim verilerinin bir birimini işledikten sonra ağırlık parametrelerini güncellediğimizi düşündüm. Ardından egzersiz verilerinin bir sonraki birimini işlemek için yeni ağırlık parametrelerini …

5
Eğitim verilerinin arttırılmasının genel sistem doğruluğu üzerinde nasıl bir etkisi vardır?
Birisi benim için olası örneklerle özetleyebilir mi, hangi durumlarda eğitim verilerinin arttırılması genel sistemi iyileştirir? Daha fazla eğitim verisi eklemenin, muhtemelen verilerin üzerine sığabileceğini ve test verileri üzerinde iyi doğruluk sağlayamayacağını ne zaman tespit ederiz? Bu çok spesifik olmayan bir sorudur, ancak belirli bir duruma özgü olarak cevaplamak istiyorsanız, lütfen …


2
Rastgele Ormanlar için hangi eğitim hatası rapor edilir?
Şu anda randomForestR'de paketi kullanarak bir sınıflandırma sorunu için rastgele ormanlar uyuyorum ve bu modeller için eğitim hatasını nasıl bildireceğinden emin değilim . Komutla aldığım tahminleri kullanarak hesapladığımda eğitim hatam% 0'a yakın: predict(model, data=X_train) X_traineğitim verileri nerede . İlgili bir soruya yanıt olarak, rastgele ormanlar için eğitim hatası metriği olarak …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.