SVM'de genelleme sınırları


11

Destek Vektör Makinelerinin genelleme kabiliyeti için teorik sonuçlarla ilgileniyorum, örneğin sınıflandırma hatasının olasılığı ve bu makinelerin Vapnik-Chervonenkis (VC) boyutu ile ilgili sınırlar. Bununla birlikte, literatürde okumak, benzer tekrar eden bazı sonuçların, özellikle de belirli bir sınırın tutulması için gerekli teknik koşullar ile ilgili olarak yazardan yazara biraz farklılık gösterdiği izlenimini edindim.

Aşağıda, SVM sorununun yapısını ve tekrar tekrar bir şekilde bulduğum ana genelleme sonuçlarının 3. durumunu hatırlayacağım fuar boyunca 3 ana referans veriyorum.

Sorun ayarı :

Biz (IID) birbirinden bağımsız ve özdeş dağıtılmış çift veri örneği olduğunu varsayalım tüm , ve . , ve tanımlanan ayırma köprüsü arasında minimum kenar boşluğunu en üst düzeye çıkaran bir destek vektör makinesi (SVM) oluşturuyoruz ve ve tanımlanan iki sınıfı ayırmak için arasındaki en yakın nokta . SVM'nin gevşek değişkenler ekleyerek yumuşak bir marj ile bazı hataları kabul etmesine izin veriyoruz(xi,yi)1inixiRpyi{1,1}m{x:wx+b=0}wRpbRx1,,xny=1y=1 -ξ1,,ξn ancak gösterimsel basitlik için çekirdek olasılığını göz ardı ediyoruz. ve çözüm parametreleri aşağıdaki dışbükey kuadratik optimizasyon programı çözülerek elde edilir:b wb

minw,b,ξ1,,ξn12w2+Ci=1nξis.t.:yi(wxi+b)1ξi,i{1,,n}ξi0,i{1,,n}

Bu makinenin genelleme kabiliyeti ile ilgileniyoruz.

Vapnik-Chervonenkis boyut VC :

İlk sonuç, ayrı bir hiper düzlemin VC boyutunu sınırladığı (Vapnik, 2000), teorem 5.1. İzin vermek, sahibiz:R=maxxixi

VCmin((Rm)2,p)+1

Bu sonuç yine (Burges, 1998), teorem 6'da bulunabilir. Ancak, Burges teoremi, boşluk toleranslı sınıflandırıcılar olarak bilinen özel bir sınıflandırıcılar kategorisi tanımlaması gerektiğinden, Vapnik'in aynı sonucundan daha kısıtlayıcı görünmektedir. SVM'nin ait olduğu , teoremi belirtmek için.-

Hata olasılığı sınırları :

(Vapnik, 2000) 'de, sayfa 139'daki teorem 5.2, SVM genelleme yeteneği üzerinde aşağıdaki sınırı vermektedir:

E[Perror]1nE[min(p,nSV,(Rw)2)]

burada , destek vektörlerinin sayısıdır. Bu sonuçlar tekrar (Burges, 1998), denklemler (86) ve (93) 'te tekrar bulunmuştur. Fakat yine Burges, Vapnik'ten farklı teoremlerde minimum fonksiyon içindeki bileşenleri farklı koşullarla ayırdığı için farklı görünüyor.nSV

(Vapnik, 2000), s.133'te ortaya çıkan bir diğer sonuç şudur. Tüm , ve ve izin vererek , şu şekilde tanımlarız :x i 2R 2 sa V C ϵ [ 0 , 1 ] ζixi2R2hVCϵ[0,1]ζ

ζ=4h(ln2nh+1)lnϵ4n

Ayrıca SVM tarafından yanlış sınıflandırılmış eğitim örneği sayısı olarak tanımladık . Daha sonra olasılıkla bir test örneği tarafından doğru ayrılamayacaktır olasılığı olduğunu öne sürülebilir -margin hiper yani, SVM ile kenar : bağlandığı 1 - ϵ m - m -nerror1ϵmm

Perrornerrorn+ζ2(1+1+4nerrornζ)

Bununla birlikte, (Hastie, Tibshirani ve Friedman, 2009), s.438'de, çok benzer bir sonuç bulunmuştur:

ErrorTestζ

Sonuç :

Bana öyle geliyor ki, bu sonuçlar arasında belli bir çatışma var. Öte yandan, bu referanslardan ikisi SVM literatüründe kanonik olmasına rağmen, özellikle doksanların ortasında SVM algoritması ile ilgili araştırmanın başladığını düşünürsek, biraz eski olmaya başlar (1998 ve 2000).

Sorularım:

  • Bu sonuçlar bugün hala geçerli mi yoksa yanlış oldukları kanıtlandı mı?
  • O zamandan beri nispeten gevşek koşullara sahip daha sıkı sınırlar elde edildi mi? Öyleyse, bunları kim tarafından ve nerede bulabilirim?
  • Son olarak, SVM hakkındaki ana genelleme sonuçlarını sentezleyen herhangi bir referans materyali var mı?

Kaynaklar :

Burges, JC (1998). "Örüntü Tanıma için Destek Vektör Makinelerine İlişkin Bir Eğitim", Veri Madenciliği ve Bilgi Keşfi , 2: 121-167

Hastie, T., Tibshirani, R. ve Friedman, J. (2009). İstatistiksel Öğrenmenin Unsurları , 2. baskı, Springer

Vapnik, VN (1998). İstatistiksel Öğrenme Teorisi , 1. baskı, John Wiley & Sons

Vapnik, VN (1999). "İstatistiksel Öğrenme Teorisine Genel Bakış", Yapay Sinir Ağlarında IEEE İşlemleri , 10 (5): 988-999

Vapnik, VN (2000). İstatistiksel Öğrenme Teorisinin Doğası , 2. baskı, Springer


SVM'ler için son teknoloji (2008 itibariyle) risk sınırlarını özetleyen bir referans: "Destek Vektör Makineleri" (Ingo Steinwart, Andreas Christmann, Springer 2008) .
kayıt

Yanıtlar:


3

Bahsettiğiniz literatürü ayrıntılı olarak bilmiyorum, ancak güncel olması gereken genelleme sınırlarının kapsamlı bir özetini Boucheron ve ark. (2004) (Bağlantı: https://www.researchgate.net/profile/Olivier_Bousquet/publication/238718428_Advanced_Lectures_on_Machine_Learning_ML_Summer_Schools_2003_Canberra_Australia_February_2-14_2003_Tubingen_Germany_August_4-16_2003_Revised_Lectures/links/02e7e52c5870850311000000/Advanced-Lectures-on-Machine-Learning-ML-Summer-Schools-2003- Canberra-Avustralya-Şubat-2-14-2003-Tuebingen-Almanya-Ağustos-4-16-2003-Gözden Geçirilmiş-Dersler.pdf # sayfa = 176 )

SVM'nin bir kısmını, aşağıda ayrıntıları ve kanıtları dışarıda bırakarak çizeceğim.

Özellikle SVM sınırı hakkında ayrıntılı bir açıklama yapmadan önce, genelleme sınırlarının neyi başarmaya çalıştığını anlamamız gerekir.

Öncelikle gerçek olasılık bilindiğini varsayalım, o zaman mümkün olan en iyi sınıflandırıcı bayes sınıflandırıcısı olacaktır, yani g = { + 1 i f P ( Y = 1 | X = x ) > 0,5 - 1 o t h e r w i s eP(Y=+1|X=x)

g={+1  ifP(Y=1|X=x)>0.51  otherwise

İstatistiksel öğrenme teorisinin amacı şimdi sınıfı bir sınıflandırıcı (ör. SVM) ve bayes sınıflandırıcısı, yani Not olduğu olan beklenen zarar verilen veriler ve model sınıf olarak mümkün olan en iyi sınıflandırıcı . Vadeli o yaklaşım hatasının (diğer terim) göre çok daha kolay sınırlanmış olabilir çünkü tahmin hatası ve genellikle odak denir. Ayrıca burada yaklaşık hata hatasını da atlayacağım.C

g^n=argmingCLn(g)
L(g^n)L(g)=L(g^n)L(gc)+L(gc)L(g).
L(g)=El(g(X),Y)gcCZ=:L(g)L(g^n)

Tahmin hatası ayrıca ile ayrıştırılabilir Şimdi bu iki adımla sınırlandırılabilir:Z

Z=ZEZ+EZ.
  1. McDiarmid eşitsizliğini kullanarak ilişkiliZEZ

  2. Bağlanmış Rademacher karmaşıklığı ileEZRn(C)=EsupgC|1/ni=1nl(g(Xi),Yi)|

McDiarmids eşitsizliğini kullanarak, kayıp fonksiyonu fazla olmayan bir aralıkta değişiyorsa, birinci adımın ; burada güven düzeyidir. İkinci adımda Eğer ayrı bir kayıp fonksiyonunuz varsa, yani 0-1 gibi Lipschitz olmayanları gösterebiliriz -loss, Rademacher Karmaşıklığı daha da sınırlamak için VC-Boyutuna ihtiyacınız olacaktır. Ancak, Menteşe kaybı gibi L-lipschitz fonksiyonları için bu sınırlandırılabilir buradaB

ZEZ2Bln(1/δ)2n,
δ
EZ2Rn(C),
Rn(C)λLR/n,

λ"Düzenleyici" terimi düzenleyiciyi belirtir. Menteşe Kaybı ve (Gauchy-Schwartz eşitsizliği ile kanıtla) için bu daha da basitleşir. Sonunda tüm sonuçları bir araya getirerek L=1B=1+λR
L(g^n)L(gc)2(1+λR)ln(1/δ)2n+4λLR/n
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.