«naive-bayes» etiketlenmiş sorular

Saf bir Bayes sınıflandırıcısı, Bayes teoreminin güçlü bağımsızlık varsayımlarıyla uygulanmasına dayanan basit bir olasılıksal sınıflandırıcıdır. Temel olasılık modeli için daha açıklayıcı bir terim "bağımsız özellik modeli" olacaktır.

3
Bir örnek: ikili sonuç için glmnet kullanarak LASSO regresyonu
Ben kullanımı ile serpmek başlıyorum glmnetile LASSO Regresyon ilgi benim sonuç dikotom olduğunu. Aşağıda küçük bir sahte veri çerçevesi oluşturdum: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
Naif Bayes'i Anlamak
Gönderen StatSoft, Inc. (2013), Elektronik İstatistik Kitabı , "Naif Bayes Sınıflandırıcı" : Naif Bayes Sınıflandırması kavramını göstermek için, yukarıdaki şekilde gösterilen örneği düşünün. Belirtildiği gibi, nesneler YEŞİL veya KIRMIZI olarak sınıflandırılabilir. Benim görevim yeni davaları ulaştıklarında sınıflandırmak, yani şu anda mevcut olan nesnelere dayanarak hangi sınıf etiketine ait olduklarına karar …

3
Saf Bayesian sınıflandırıcıları neden bu kadar iyi performans gösteriyor?
Naive Bayes sınıflandırıcıları sınıflandırma problemleri için popüler bir seçimdir. Bunun da dahil birçok nedeni var: "Zeitgeist" - yaklaşık on yıl önce spam filtrelerinin başarısından sonra yaygın bir farkındalık Yazması kolay Sınıflandırıcı model kurmak hızlı Model, yeni bir eğitim verisi ile modeli yeniden oluşturmak zorunda kalmadan değiştirilebilir Ancak, bunlar 'naif' - …

3
Naive Bayes Doğrusal Sınıflandırıcı Nasıl?
Diğer konuyu burada gördüm ama cevabın asıl soruyu tatmin ettiğini sanmıyorum. Sürekli okuduğum, Naive Bayes'ın log odds gösterimini kullanarak doğrusal bir sınıflandırıcı (örneğin: burada ) (doğrusal bir karar sınırı çizecek şekilde) olduğu. Ancak, iki Gauss bulutunu simüle ettim ve bir karar sınırı taktım ve sonuçları aldım (n. Kitaplık e1071, naiveBayes …

2
Saf Bayes ve multinomial saf Bayes arasındaki fark
Daha önce Naive Bayes sınıflandırıcı ile çalıştım . Son zamanlarda Multinomial Naive Bayes hakkında okudum . Ayrıca Posterior Olasılık = (Önceki * Olabilirlik) / (Kanıt) . Naive Bayes ve Multinomial Naive Bayes arasında bulduğum tek önemli fark (bu sınıflandırıcıları programlarken) Multinominal Naif Bayes olasılık olarak hesaplar bir kelime / jeton …

7
Naive Bayes'te test setinde bilinmeyen kelimeler varken neden Laplace yumuşatma ile uğraşıyorsunuz?
Bugün Naive Bayes Sınıflandırması'nı okuyordum. Parametre Tahmini başlığı altında, 1 yumuşatma ile birlikte okudum : yapalımccc (örneğin, pozitif veya negatif olarak) bir sınıfını ifade ve izin www bir belirteç ya da kelime bakın. İçin maksimum olabilirlik tahmin P(w|c)P(w|c)P(w|c) olduğucount(w,c)count(c)=counts w in class ccounts of words in class c.count(w,c)count(c)=counts w in …

3
Sınıf Olasılıklarını Tahmin Etmek İçin Makine Öğrenmesi
Örneklerin iki sınıftan birine ait olma olasılıklarını ortaya çıkaran sınıflandırıcılar arıyorum. Lojistik regresyon ve saf Bayes'i biliyorum, ama bana benzer şekilde çalışan diğerlerinden bahseder misiniz? Yani, örneklerin ait olduğu sınıfları değil, örneklerin belirli bir sınıfa uyma olasılığını tahmin eden sınıflandırıcılar? Bu farklı sınıflandırıcıların (lojistik regresyon ve naif Bayes dahil) avantajları …

1
Naive Bayes ne zaman SVM'den daha iyi performans gösterir?
Baktığım küçük bir metin sınıflandırma probleminde, Naive Bayes bir SVM'ye benzer veya daha yüksek bir performans sergiliyordu ve çok kafam karıştı. Bir algoritmanın diğerine karşı zaferine hangi faktörlerin karar verdiğini merak ediyordum. SVM'ler üzerinde Naive Bayes kullanmanın bir anlamı olmadığı durumlar var mı? Birisi buna ışık tutabilir mi?

3
SVM dışında hangi algoritmaların özellik ölçeklendirmesi gerekir?
Birçok algoritma ile çalışıyorum: RandomForest, DecisionTrees, NaiveBayes, SVM (çekirdek = doğrusal ve rbf), KNN, LDA ve XGBoost. SVM dışında hepsi oldukça hızlıydı. O zaman daha hızlı çalışmak için özellik ölçeklendirmesi gerektiğini bilmeliyim. Sonra aynı şeyi diğer algoritmalar için de yapmam gerekip gerekmediğini merak etmeye başladım.

3
Kneser-Ney yumuşatmada görünmeyen kelimeler nasıl ele alınır?
Gördüğüm kadarıyla, (ikinci dereceden) Kneser-Ney yumuşatma formülü şu ya da bu şekilde P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} normalize faktörü ile λ(wn−1)λ(wn−1)\lambda(w_{n-1}) olarak verilmiştir λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} \lambda(w_{n-1}) &= \frac{D}{\sum_{w'} C\left(w_{n-1}, w'\right)} \times N_{1+}\left(w_{n-1}\bullet\right) \end{align} ve devam olasılığı Pcont(wn)Pcont(wn)P_{cont}(w_n) …

3
Neden kimse Bayes multinomial Naive Bayes sınıflandırıcısını kullanmıyor?
Yani (denetimsiz) metin modellemesinde, Latent Dirichlet Ataması (LDA) Olasılıksal Gizli Semantik Analiz'in (PLSA) Bayesli bir versiyonudur. Esasen, LDA = PLSA + Dirichlet parametrelerine göre önceden. Anladığım kadarıyla LDA artık referans algoritması ve çeşitli paketlerde uygulanmakta, PLSA artık kullanılmamalıdır. Ancak (denetlenen) metin kategorizasyonunda, çok şeyi aynı Naif Bayes sınıflandırıcısı için aynı …

2
Artan özellik sayısı doğruluk düşüşüne neden olur, ancak ön / geri çağırma artar
Makine Öğreniminde yeniyim. Şu anda 3 sınıftaki küçük metinleri NLTK ve python kullanarak pozitif, negatif veya nötr olarak sınıflandırmak için Naive Bayes (NB) sınıflandırıcısı kullanıyorum. Bazı testler yaptıktan sonra, 300.000 örnekten oluşan bir veri kümesiyle (16.924 pozitif 7.477 negatif ve 275.599 nötr), özellik sayısını artırdığımda doğruluk azalır, ancak pozitif ve …

5
Bir sınıf metin sınıflandırması nasıl yapılır?
Bir metin sınıflandırma problemiyle uğraşmak zorundayım. Bir web tarayıcısı, belirli bir alanın web sayfalarını tarar ve yalnızca bir belirli sınıfa ait olup olmadığını öğrenmek istediğim her web sayfası için. Yani, bu sınıfı Pozitif olarak adlandırırsam , taranan her web sayfası Pozitif sınıfına veya Pozitif Olmayan sınıfına aittir . Pozitif sınıfı …

2
Naive Bayes sürekli değişkenlerle nasıl çalışır?
Benim (çok temel) anlayışım için, Naive Bayes olasılıkları eğitim verilerindeki her özelliğin sınıf frekanslarına göre tahmin ediyor. Fakat sürekli değişkenlerin sıklığını nasıl hesaplar? Tahmin yaparken, eğitim setinde herhangi bir gözlemin aynı değerlerine sahip olmayabilecek yeni bir gözlem nasıl sınıflandırılır? Bir tür mesafe ölçüsü kullanıyor mu veya 1NN'yi mi buluyor?


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.