Naive Bayes sürekli değişkenlerle nasıl çalışır?


14

Benim (çok temel) anlayışım için, Naive Bayes olasılıkları eğitim verilerindeki her özelliğin sınıf frekanslarına göre tahmin ediyor. Fakat sürekli değişkenlerin sıklığını nasıl hesaplar? Tahmin yaparken, eğitim setinde herhangi bir gözlemin aynı değerlerine sahip olmayabilecek yeni bir gözlem nasıl sınıflandırılır? Bir tür mesafe ölçüsü kullanıyor mu veya 1NN'yi mi buluyor?


İşte ayrık ve sürekli Naive Bayes arasında yan yana karşılaştırma: datascience.stackexchange.com/a/47031/67328
Esmailian

Yanıtlar:


10

Saf Bayes sınıflandırması (NBC) yapmanın birçok yolu vardır. NBC'de yaygın bir teknik, özellik (değişken) değerlerini çeyreklere yeniden kodlamaktır, böylece 25. yüzdelik dilimden daha düşük değerlere 1, 25 ila 50. Böylece tek bir nesne, Q1, Q2, Q3 veya Q4 bölmelerine bir sayım bırakacaktır. Hesaplamalar sadece bu kategorik kutular üzerinde yapılır. Kutu sayıları (olasılıklar) daha sonra değişken değerleri belirli bir kutu içerisine düşen örneklerin sayısına dayanır. Örneğin, bir nesne kümesi X1 özelliği için çok yüksek değerlere sahipse, bu X1'in Q4 için bölmesinde çok sayıda bölme sayısıyla sonuçlanır. Öte yandan, başka bir nesne kümesi X1 özelliği için düşük değerlere sahipse, bu nesneler X1 özelliğinin Q1 öğesi için bölmeye çok sayıda sayı yayar.

Aslında gerçekten akıllı bir hesaplama değil, sürekli değerleri ayrık ve daha sonra sömürüye ayırmanın bir yolu. Gini indeksi ve bilgi kazancı, hangi özelliklerin en bilgilendirici, yani maks (Gini) olduğunu belirlemek için ayrıklaştırmadan sonra kolayca hesaplanabilir.

Bununla birlikte, NBC yapmanın birçok yolu olduğu ve birçoğunun birbirinden oldukça farklı olduğu unutulmamalıdır. Yani sadece bir konuşmada veya gazetede hangisini uyguladığınızı belirtmeniz gerekir.


2

Naive Bayes'in kalbi kahramanlık koşullu varsayımdır:

P(xX,C)=P(xC)

Hiçbir şekilde ayrık olmamalıdır . Örneğin, Gauss Naive Bayes , her kategorisinin farklı bir ortalamaya ve varyansa sahip olduğunu varsayar : yoğunluk .xCp(xC=i)=ϕ(μi,σi2)

Parametreleri tahmin etmenin farklı yolları vardır, ancak tipik olarak biri:

  • Etiketli verilerle maksimum olasılığı kullanın. (Normal dağılım durumunda, ortalama ve varyansın maksimum olabilirlik tahminleri temel olarak örnek ortalaması ve örnek varyansıdır.)
  • Etiketlenmemiş verilerle EM Algoritması gibi bir şey.
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.