Saf Bayes sınıflandırması (NBC) yapmanın birçok yolu vardır. NBC'de yaygın bir teknik, özellik (değişken) değerlerini çeyreklere yeniden kodlamaktır, böylece 25. yüzdelik dilimden daha düşük değerlere 1, 25 ila 50. Böylece tek bir nesne, Q1, Q2, Q3 veya Q4 bölmelerine bir sayım bırakacaktır. Hesaplamalar sadece bu kategorik kutular üzerinde yapılır. Kutu sayıları (olasılıklar) daha sonra değişken değerleri belirli bir kutu içerisine düşen örneklerin sayısına dayanır. Örneğin, bir nesne kümesi X1 özelliği için çok yüksek değerlere sahipse, bu X1'in Q4 için bölmesinde çok sayıda bölme sayısıyla sonuçlanır. Öte yandan, başka bir nesne kümesi X1 özelliği için düşük değerlere sahipse, bu nesneler X1 özelliğinin Q1 öğesi için bölmeye çok sayıda sayı yayar.
Aslında gerçekten akıllı bir hesaplama değil, sürekli değerleri ayrık ve daha sonra sömürüye ayırmanın bir yolu. Gini indeksi ve bilgi kazancı, hangi özelliklerin en bilgilendirici, yani maks (Gini) olduğunu belirlemek için ayrıklaştırmadan sonra kolayca hesaplanabilir.
Bununla birlikte, NBC yapmanın birçok yolu olduğu ve birçoğunun birbirinden oldukça farklı olduğu unutulmamalıdır. Yani sadece bir konuşmada veya gazetede hangisini uyguladığınızı belirtmeniz gerekir.