«machine-learning» etiketlenmiş sorular

Makine öğrenimi algoritmaları eğitim verilerinin bir modelini oluşturur. "Makine öğrenimi" terimi belirsiz bir şekilde tanımlanmıştır; istatistiksel öğrenme, takviye öğrenme, gözetimsiz öğrenme vb. olarak da adlandırılır. DAİMA DAHA ÖZEL BİR ETİKET EKLE.

2
İç içe çapraz doğrulama - eğitim setindeki kfold CV ile model seçiminden farkı nedir?
Sıklıkla 5x2 çapraz doğrulamadan bahseden insanların iç içe çapraz doğrulamanın özel bir örneği olduğunu görüyorum . İlk sayının (burada: 5) iç döngüdeki kat sayısını ve ikinci sayı (burada: 2) dış döngüdeki kat sayısını ifade ettiğini varsayıyorum? Peki, bunun "geleneksel" model seçim ve değerlendirme yaklaşımından farkı nedir? "Geleneksel" derken veri kümesini …

3
Python ile Zaman Serisi Anomali Tespiti
Birkaç zaman serisi veri kümesinde anomali tespiti uygulamam gerekiyor. Bunu daha önce hiç yapmadım ve tavsiye almayı umuyordum. Ben python ile çok rahat, bu yüzden çözüm uygulanmasını tercih ederdim (benim kod çoğu işimin diğer bölümleri için python olduğunu). Verilerin açıklaması: Son 2 yılda toplanmaya başlanan aylık zaman serisi verileri (yani …

3
İnsanlar neden pürüzsüz verileri sever?
Gauss Süreci Regresyonu için Kareli Üstel çekirdek (SE) kullanacağım. Bu çekirdeğin avantajları: 1) basit: sadece 3 hiperparametre; 2) pürüzsüz: bu çekirdek Gauss'tur. İnsanlar neden 'pürüzsüzlüğü' çok seviyor? Gauss çekirdeğinin sınırsız biçimde ayırt edilebilir olduğunu biliyorum, ama bu çok önemli mi? (SE çekirdeğinin bu kadar popüler olmasının başka nedenleri varsa lütfen …

4
KNN neden “model tabanlı” değil?
ESL bölüm 2.4, lineer regresyonu "model tabanlı" olarak sınıflandırmaktadır, çünküf( x ) ≈ x ⋅ βf(x)≈x⋅βf(x) \approx x\cdot\betabuna karşılık, k yakın komşuları için benzer bir yaklaşım belirtilmemiştir. Ancak her iki yöntem def( x )f(x)f(x)? Daha sonra 2.4'te şöyle diyor: En küçük kareler varsayılır f( x )f(x)f(x) küresel olarak doğrusal bir …

1
Rastgele Ormanlar MNIST'teki% 2.8'lik test hatasından daha iyisini yapabilir mi?
Ben onları denemek düşündüm bu yüzden vb MNIST, cifar, STL-10, Rastgele Ormanları uygulanması ile ilgili herhangi literatürü bulamadı permütasyon değişmeyen MNIST kendim. İçinde R , I güvenilir: randomForest(train$x, factor(train$y), test$x, factor(test$y), ntree=500) Bu 2 saat sürdü ve% 2.8 test hatası aldı. Ben de denedim scikit-öğrenme ile, RandomForestClassifier(n_estimators=2000, max_features="auto", max_depth=None) 70 …

2
Sadece bir sınıf için sınıflandırıcı
Basit bir sınıflandırmada iki sınıfımız vardır: sınıf-0 ve sınıf-1. Bazı verilerde yalnızca sınıf-1 için değerler var, bu nedenle sınıf-0 için hiçbiri yok. Şimdi sınıf-1'in verilerini modellemek için bir model yapmayı düşünüyorum. Dolayısıyla, yeni veriler geldiğinde, bu model yeni verilere uygulanır ve yeni verilerin bu modele ne kadar uygun olduğunu belirten …

1
Çekirdek yöntemlerinin sınırlamaları nelerdir ve çekirdek yöntemlerinin ne zaman kullanılması gerekir?
Çekirdek yöntemleri birçok denetimli sınıflandırma görevinde çok etkilidir. Peki, çekirdek yöntemlerinin sınırlamaları nelerdir ve çekirdek yöntemlerinin ne zaman kullanılması gerekir? Özellikle büyük ölçekli veri döneminde, çekirdek yöntemlerinin ilerlemeleri nelerdir? Çekirdek yöntemleri ile çoklu örnek öğrenme arasındaki fark nedir? Veri ise 500x10000, 500numunelerin sayısı ve 10000biz çekirdek yöntemlerini kullanabilirsiniz, bu durum …

3
LDA ve algılayıcı
LDA'nın diğer denetimli öğrenme tekniklerine nasıl uyduğuna dair bir fikir edinmeye çalışıyorum. LDA hakkındaki bazı LDA esque yayınlarını zaten okudum. Algılayıcıya zaten aşinayım, ama şimdi sadece LDA öğreniyorum. LDA denetimli öğrenme algoritmaları ailesine nasıl 'uyum sağlar'? Diğer yöntemlere karşı dezavantajları neler olabilir ve ne için daha iyi kullanılabilir? Örneğin, örneğin …


3
Sıralama için makine öğrenme algoritması
özelliğine göre tanımlayabileceğim bir dizi elementim var . Böylece:XXXnnn xben: {cben 1,cben 2, … ,cben n} ∣xben∈ Xxben:{cben1,cben2,...,cbenn}|xben∈Xx_i: \{c_{i1}, c_{i2}, \ldots, c_{in}\} \mid x_i \in X buradaki cben jcbenjc_{ij} , j özelliklerine göre eleman i için (sayısal) değerlendirmedir . Böylece öğelerim n boyut uzayında noktalar olarak görülebilir .benbenijjjnnn Okumalarıma göre, …

2
Yüksek boyutlu veri setleri için Gauss Süreci regresyonu
Sadece yüksek boyutlu veri kümelerine Gauss süreç regresyonu (GPR) uygulayan herhangi bir deneyim olup olmadığını görmek istedim. İdeal özellik seçimi parametre seçim sürecinin bir parçası olduğu yüksek boyutlu veri kümeleri için ne işe yarayacağını görmek için çeşitli seyrek GPR yöntemleri (örneğin seyrek sözde girişler GPR) içine bakıyorum. Kağıtlar / kod …

1
R doğrusal regresyon kategorik değişkeni “gizli” değer
Bu sadece birkaç kez karşılaştığım bir örnektir, bu yüzden örnek verilerim yok. R'de doğrusal regresyon modeli çalıştırmak: a.lm = lm(Y ~ x1 + x2) x1sürekli bir değişkendir. x2kategoriktir ve üç değeri vardır, örneğin "Düşük", "Orta" ve "Yüksek". Bununla birlikte, R tarafından verilen çıktı aşağıdaki gibi olacaktır: summary(a.lm) Estimate Std. Error …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 


1
Sinir ağım Öklid mesafesini bile öğrenemiyor
Bu yüzden kendime sinir ağlarını öğretmeye çalışıyorum (regresyon uygulamaları için, kedilerin resimlerini sınıflandırmak değil). İlk deneylerim, bir FIR filtresi ve Ayrık Fourier Dönüşümü ("önce" ve "sonra" sinyalleri üzerinde eğitim) uygulamak için bir ağı eğitiyordu, çünkü bunların ikisi de etkinleştirme işlevi olmayan tek bir katman tarafından uygulanabilen doğrusal işlemlerdir. Her ikisi …

3
Makine öğrenimi ile birkaç dönemin öngörülmesi
Son zamanlarda Time Series bilgimi tekrar topladım ve makine öğrenmesinin çoğunlukla yalnızca bir adım önde tahminler verdiğini fark ettim. Bir adım önde tahminlerle kastediyorum, örneğin saatlik verilerimiz varsa, sabah 11'den 11'e ve sabah 12'den 11'e tahmin etmek için verileri kullanın. Makine öğrenim yöntemleri bir adım önde tahminler üretebilir mi? H-ileriye …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.