shabbychef model karmaşıklığı açısından çok net bir açıklama yaptı. Herkese yardımcı olması durumunda bu sorunu başka bir açıdan anlamaya çalışacağım.
Temel olarak SVC'deki marjı en üst düzeye çıkarmak istiyoruz. Bu, SVR'de aynıdır, ancak daha iyi genelleme için öngörülen bir kesinlikte tahmin hatasını en üst düzeye çıkarmak istiyoruz . Burada, maksimize etmek yerine tahmin hatasını en aza indirirsek, bilinmeyen verilerdeki tahmin sonucunun fazla yerleştirilmesi daha olasıdır. Tek boyutlu bir durumda "tahmin hatasını en üst düzeye çıkar" konusunu düşünelim.e
Tek boyutlu durumda amacımız, bütün noktalardan mesafeleri maksimize etmektir eğim çizgisi için içinde . Biz hassas kısıtlamayla ayarlamanız Not biz böylece en üst düzeye çıkarmak , mesafeyi değil minimize . O zaman bir noktadan bir çizgiye olan mesafenin çok basit denklemine bir göz atalım.y = ω x + b e e(xi,yi)y=ωx+bee
|ωxi−yi+b|ω2+1−−−−−√
Şu anda pay ile sınırlıdır . Mesafeyi en üst düzeye çıkarmak için yapmaya çalıştığımız şey en aza indirmektir .ωeω
Mesafe denklemi her zaman Öklid mesafesi olacağından herkes tek boyutlu durumu N boyutlu duruma genişletebilir .
Ayrıca, karşılaştırma için SVR'deki optimizasyon problemini de gözden geçirebiliriz [1].
s. t. { y i - < ω , x i > - b ≤ e < ω , x i > + b - y i ≥ e
min12||ω||2
s.t.{yi−<ω,xi>−b≤e<ω,xi>+b−yi≥e
Teşekkürler.
[1] Smola, A. ve B. Schölkopf. Destek vektör regresyonu hakkında bir eğitim. İstatistik ve Hesaplama, Vol. 3, Ağustos 2004, sayfa 199-222.