Genellikle bir kayıp fonksiyonuna karşılık gelen bir model yazabilirsiniz (burada SVM sınıflandırmasından ziyade SVM regresyonu hakkında konuşacağım; özellikle basit)
Örneğin, doğrusal bir modelde, eğer kayıp fonksiyonunuz ise, bunu en aza indirgemek için maksimum olabilir. . (Burada doğrusal bir çekirdeğim var)f α exp ( - birΣbeng( εben) = ∑beng( yben- x'benβ)= exp ( - af∝ exp( - ag( ε ) ) =exp(−ag(y−x′β))
Doğru hatırlıyorsam, SVM regresyonunun şu şekilde bir kayıp işlevi vardır:
Bu, üstel kuyruklarla ortada tekdüze bir yoğunluğa tekabül eder (negatifini ya da negatifinin bir kısmını katlayarak gördüğümüz gibi).
Bunlardan 3 parametre ailesi vardır: köşe konumu (bağıl duyarsızlık eşiği) artı konum ve ölçek.
Bu ilginç bir yoğunluk; birkaç yıl önce bu belirli dağılıma bakmaktan hemen bahsettiğimde, bunun yeri için iyi bir tahminci, köşelerin olduğu yere karşılık gelen simetrik olarak yerleştirilmiş iki kuantinin ortalamasıdır (örneğin, orta kısım , belirli bir süre için MLE'ye iyi bir yaklaşım verecektir. SVM kaybında sabitin seçimi); scale parametresi için benzer bir tahmin edici, farklılıklarına göre olacaktır; üçüncü parametre ise temelde hangi yüzdelerin bulunduğunu hesaplamaya tekabül eder (bu, genellikle SVM için olduğu gibi tahmin edilmek yerine seçilebilir).
Dolayısıyla, en azından SVM regresyonu için oldukça basit görünüyor, en azından tahmin edicileri maksimum olasılıkla almayı seçiyorsak.
(Sormak üzeresiniz ... SVM ile olan bu özel bağlantı için bir referansım yok: Ben şimdi çalışmıştım. O kadar basit ki, onlarca kişi benden önce bunu çözmüş olacak, bu yüzden şüphesiz bunun için referanslar var - sadece hiç görmedim.)