Aslında bu oldukça basit: Bayes sınıflandırıcısı, posteriori meydana gelme olasılığı en yüksek olan sınıfı seçer ( maksimum posteriori tahmini olarak adlandırılır ). 0-1 kayıp fonksiyonu ceza verir Hatalı sınıflandırma, doğru sınıflandırmaların büyük numarası vardır çözümüne en küçük kaybı atar yani. Yani her iki durumda da tahmin etme modundan bahsediyoruz . Modun veri kümesindeki en yaygın değer veya en olası değer olduğunu hatırlayın , bu nedenle hem posterior olasılığı en üst düzeye çıkarmak hem de 0-1 kaybını en aza indirmek modu tahmin etmeye yol açar.
Resmi bir kanıta ihtiyacınız varsa, bu kanıt Angela J. Yu tarafından Bayesçi Karar Teorisine Giriş belgesinde verilmiştir :
0-1 ikili kayıp işlevi aşağıdaki forma sahiptir:
lx(s^,s∗)=1−δs^s∗={10ifs^≠s∗otherwise
nerede Kronecker Delta işlevidir. (...) beklenen zarar:δ
Lx(s^)=∑s∗lx(s^,s∗)P(s=s∗∣x)=∑s∗(1−δs^s∗)P(s=s∗∣x)=∑s∗P(s=s∗∣x)ds∗−∑s∗δs^s∗P(s=s∗∣x)=1−P(s=s∗∣x)
Bu, genel olarak maksimum posteriori tahmin için geçerlidir. Yani eğer bilirseniz geçmişteki dağılımı daha sonra 0-1 kaybını varsayarak en optimal sınıflandırma kuralı arka dağılımının modu almaktır, bir diyoruz optimum Bayes sınıflandırıcı . Gerçek hayatta genellikle posterior dağılımı bilmiyoruz, aksine tahmin ediyoruz. Naive Bayes sınıflandırıcısı ampirik dağılıma bakarak ve öngörücülerin bağımsızlığını varsayarak optimal sınıflandırıcıya yaklaşır. Bu yüzden saf Bayes sınıflandırıcısının kendisi optimal değildir, ancak en uygun çözüme yaklaşır. Sorunuzda bu iki şeyi karıştırıyorsunuz.