Bir SVM'de iki şey ararsınız: en büyük minimum kenar boşluğuna sahip bir hiper düzlem ve mümkün olduğunca çok sayıda örneği doğru şekilde ayıran bir hiper düzlem. Sorun şu ki, her iki şeyi de her zaman elde edemeyeceksiniz. C parametresi, ikincisi için arzunuzun ne kadar büyük olduğunu belirler. Bunu göstermek için aşağıya küçük bir örnek çizdim. Sola doğru düşük bir c elde edersiniz, bu size oldukça büyük bir minimum marj (mor) verir. Ancak bu, doğru şekilde sınıflandırmada başarısız olduğumuzu açıklayan mavi daireyi ihmal etmemizi gerektirir. Sağ tarafta yüksek bir c var. Şimdi dışlayıcıyı ihmal etmeyeceksiniz ve bu nedenle daha küçük bir farkla sonuçlanacak.
Peki bu sınıflandırıcılardan hangisi en iyisidir? Bu, tahmin edeceğiniz gelecekteki verilerin neye benzeyeceğine bağlıdır ve çoğu zaman elbette ki bunu bilmiyorsunuzdur. Gelecekteki veriler şöyle görünürse:
daha sonra sınıflandırıcı büyük bir c değeri kullanarak öğrendi en iyisidir.
Öte yandan, gelecekteki veriler şöyle gözüküyorsa:
o zaman sınıflandırıcı düşük bir c değeri kullanarak öğrendi, en iyisidir.
Veri kümenize bağlı olarak, c'yi değiştirmek farklı bir hiper düzlem üretebilir veya üretmeyebilir. O takdirde yapar farklı altdüzlem üretmek, bu senin sınıflandırıcı çıkış farklı sınıflar belirli veriler için size sınıflandırmak için kullanmış olduğu anlamına gelmez. Weka, verileri görselleştirmek ve bir SVM için farklı ayarlarla oynamak için iyi bir araçtır. Verilerinizin nasıl göründüğü ve c değerini değiştirmenin neden sınıflandırma hatasını değiştirmediği hakkında daha iyi bir fikir edinmenize yardımcı olabilir. Genel olarak, az sayıda eğitim örneğine ve birçok özelliğe sahip olmak, verilerin doğrusal olarak ayrılmasını kolaylaştırır. Ayrıca, eğitim verilerinizi değerlendiriyorsunuz ve yeni görünmeyen veriler değil, ayrımı kolaylaştırıyor.
Bir modelden ne tür veriler öğrenmeye çalışıyorsunuz? Ne kadar veri? Görebilir miyiz?