«svm» etiketlenmiş sorular

Destek Vektör Makinesi, "sınıflandırma ve regresyon analizi için kullanılan verileri analiz eden ve örüntüleri tanıyan bir dizi ilgili denetimli öğrenme yöntemini" ifade eder.


3
Radyal temel fonksiyonunun bir çekirdek olduğunu nasıl ispatlayabilirim?
Radyal temel işlevinin bir çekirdek olduğunu nasıl ispatlayabilirim ? Anladığım kadarıyla, bunu kanıtlamak için aşağıdakilerden birini kanıtlamamız gerekiyor:k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2}) Herhangi bir vektör kümesi için, matrisi = pozitif yarı-sonludur.x1,x2,...,xnx1,x2,...,xnx_1, x_2, ..., x_nK(x1,x2,...,xn)K(x1,x2,...,xn)K(x_1, x_2, ..., x_n)(k(xi,xj))n×n(k(xi,xj))n×n(k(x_i, x_j))_{n \times n} Bir eşleme ΦΦ\Phi , k(x,y)k(x,y)k(x, y) = ⟨ Φ ( x …
35 svm  kernel-trick 

3
'Zayıf öğrenen' ile ne kastedilmektedir?
Biri bana 'zayıf öğrenen' ifadesinin ne anlama geldiğini söyleyebilir mi? Zayıf bir hipotez olması mı gerekiyor? Zayıf bir öğrenici ile zayıf bir sınıflandırıcı arasındaki ilişki konusunda kafam karıştı. İkisi de aynı mı yoksa bir fark var mı? Adaboost algoritmasında T=10,. Bununla ne kastedilmektedir? Neden seçiyoruz T=10?

3
(Derin) sinir ağlarının açıkça başka yöntemlerden daha iyi performans gösteremediği denetimli öğrenme sorunu var mı?
İnsanların SVM ve Çekirdekler üzerine çok çaba sarf ettiğini ve Makine Öğreniminde bir başlangıç ​​olarak oldukça ilginç göründüğünü gördüm. Ancak, (her zaman) (Yapay Sinir Ağı) açısından neredeyse her zaman daha iyi bir çözüm bulmamızı beklersek, bu dönemde başka yöntemler denemenin anlamı nedir? İşte bu konudaki kısıtlarım. Sadece Denetimli Öğrenmeyi düşünüyoruz; …

5
SVM, her seferinde bir örnek öğrenme akışını yapabilir mi?
Bir akış veri setim var, örnekler birer birer hazır. Onlar üzerinde çok sınıflandırma yapmam gerekiyor. Öğrenme sürecine bir eğitim örneği beslediğimde, örneği atmam gerekiyor. Aynı zamanda, etiketlenmemiş veriler üzerinde öngörüde bulunmak için en son modeli kullanıyorum. Bildiğim kadarıyla bir sinir ağı, örnekleri birer birer besleyerek ve örnek üzerinde ileriye doğru …

3
Çekirdek lojistik regresyon vs SVM
Herkesin bildiği gibi, SVM çekirdek noktaları kullanarak veri noktalarını daha yüksek boşluklara yansıtır, böylece noktalar doğrusal bir boşlukla ayrılabilir. Ancak, çekirdek sınırında bu sınırı seçmek için lojistik regresyon kullanabiliriz, bu nedenle SVM'nin avantajları nelerdir? SVM, yalnızca bu destek vektörlerinin öngörme sırasında katkı sağladığı seyrek bir model kullandığından, bu durum SVM'yi …
32 svm 


2
SVM optimal C ve gama parametrelerini belirlemek için hangi arama aralığı?
Sınıflandırma için SVM kullanıyorum ve doğrusal ve RBF çekirdekleri için en uygun parametreleri belirlemeye çalışıyorum. Doğrusal çekirdek için C'yi belirlemek için çapraz doğrulanmış parametre seçimini, RBF çekirdeği için ise C ve gama belirlemek için ızgara aramasını kullanın. 20 (sayısal) özellik ve 7 sınıfa ayrılması gereken 70 eğitim örneğim var. C …

2
libsvm veri formatı [kapalı]
Destek vektör sınıflandırması için libsvm ( http://www.csie.ntu.edu.tw/~cjlin/libsvm/ ) aracını kullanıyorum . Ancak, girdi verilerinin formatı hakkında kafam karıştı. README'den: Eğitim ve test veri dosyasının formatı şudur: <label> <index1>:<value1> <index2>:<value2> ... . . . Her satır bir örnek içerir ve '\ n' karakteriyle sonlanır. Sınıflandırma için, <label>sınıf etiketini gösteren bir tamsayıdır …

3
R, metin sınıflandırma görevlerine ne kadar iyi ölçeklenir? [kapalı]
R ile hız kazanmaya çalışıyorum. Sonunda metin sınıflandırma yapmak için R kütüphanelerini kullanmak istiyorum. Metin sınıflandırma söz konusu olduğunda, insanların R'nin ölçeklenebilirliği ile ilgili deneyimlerinin neler olduğunu merak ediyordum. Büyük boyutlu verilerle karşılaşmam muhtemel (~ 300k boyutları). Özellikle sınıflandırma algoritmaları olarak SVM ve Random Forest kullanmaya bakıyorum. R kütüphaneleri sorun …

3
SVM ve bir algılayıcı arasındaki fark
Bir SVM ve bir algılayıcı arasındaki fark ile biraz kafam karıştı. Anlayışımı burada özetlemeye çalışmama izin verin, lütfen yanlış olduğum yeri düzeltmek ve kaçırdıklarımı doldurmaktan çekinmeyin. Perceptron, "uzaklık" mesafesini optimize etmeye çalışmaz. İki takımı birbirinden ayıran bir hiper uçağı bulduğu sürece, iyidir. Öte yandan SVM, "destek vektörünü", yani en yakın …


3
R: Veri setinde NaN bulunmamasına rağmen “yabancı işlev çağrısı” na NaN / Inf atma Rastgele Orman [kapalı]
Bir veri kümesi üzerinde çapraz doğrulanmış rasgele bir orman çalıştırmak için şapka kullanıyorum. Y değişkeni bir faktördür. Veri setimde hiç NaN, Inf veya NA yok. Ancak rastgele orman çalıştırırken, alıyorum Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use …

2
SVM algoritmasının arkasındaki istatistiksel model nedir?
Modele dayalı bir yaklaşım kullanarak veriyle uğraşırken ilk adımın veri prosedürünü istatistiksel bir model olarak modellemek olduğunu öğrendim. Ardından bir sonraki adım bu istatistiksel modele dayanan verimli / hızlı çıkarım / öğrenme algoritması geliştirmektir. Bu yüzden hangi istatistiksel modelin destek vektör makinesi (SVM) algoritmasının arkasında olduğunu sormak istiyorum.

1
Bir lmer modelden etkilerin tekrarlanabilirliğinin hesaplanması
Bu yazıda , karışık etki modellemesi ile bir ölçümün tekrarlanabilirliğini (diğer bir deyişle güvenilirlik, sınıf içi korelasyon) nasıl hesaplayacağımı anladım . R kodu şöyle olurdu: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.