Uygulamada, SVM'lerin, nitelik sayısının gözlem sayısından fazla olduğu durumlarda bile, aşırı uyuma karşı dirençli olma eğiliminin nedeni, düzenlileştirme kullanmasıdır. Aşırı uyumdan kaçınmanın anahtarı, normalleştirme parametresinin ( ) dikkatli bir şekilde ayarlanmasında ve doğrusal olmayan SVM'lerde, çekirdeklerin dikkatli seçilmesinde ve çekirdek parametrelerinin ayarlanmasında yatmaktadır.C
SVM, marjına bağlı olan (esas olarak karar sınırından her sınıfa en yakın kalıba olan mesafeye kadar) genelleme hatasına bağlı bir sınırlamanın yaklaşık bir uygulamasıdır, ancak bu nedenle özellik alanının boyutluluğundan bağımsızdır (bu yüzden Verileri çok yüksek boyutlu bir alana haritalamak için çekirdek numarası kullanmak, göründüğü kadar kötü bir fikir değildir). Bu nedenle , ilke olarak, SVM'lerin aşırı uydurmaya karşı oldukça dayanıklı olması gerekir, ancak pratikte bu, ve çekirdek parametrelerinin dikkatli seçimine bağlıdır . Ne yazık ki, aşırı araştırma aynı zamanda ana araştırma alanım olan hiper parametrelerini de ayarlarken oldukça kolay bir şekilde gerçekleşebilir.C
GC Cawley ve NLC Talbot, Hiper parametrelerin Bayesian düzenlenmesi yoluyla model seçiminde aşırı uyumu önleme, Makine Öğrenimi Araştırma Dergisi, cilt 8, sayfa 841-861, Nisan 2007. ( www )
ve
GC Cawley ve NLC Talbot, Model seçiminde aşırı uydurma ve performans değerlendirmesinde sonraki seçim önyargısı, Makine Öğrenimi Araştırma Dergisi, 2010. Research, vol. 11, sayfa 2079-2107, Temmuz 2010. ( www )
Bu makalelerin her ikisi de SVM yerine çekirdek sırt regresyonu kullanmaktadır, ancak aynı problem SVM'lerle de aynı şekilde ortaya çıkmaktadır (aynı sınırlar KRR için de geçerlidir, bu nedenle pratikte aralarında seçim yapmak için fazla bir şey yoktur). Dolayısıyla bir anlamda SVM'ler aşırı uydurma sorununu gerçekten çözmüyor, sorunu sadece model uydurmadan model seçimine kaydırıyorlar.
Öncelikle bir çeşit özellik seçimi yaparak, SVM için hayatı biraz daha kolaylaştırmak bir cazibedir. Bu, genel olarak, SVM'den farklı olarak, özellik seçim algoritmalarının, niteliklerin sayısı arttıkça daha fazla uyuşma sergileme eğiliminde olduğu için işleri daha da kötüleştirir. Bilgilendirici niteliklerin hangileri olduğunu bilmek istemiyorsanız, özellik seçimi adımını atlamak ve verilerin aşırı sığdırılmasını önlemek için sadece düzenlemeyi kullanmak daha iyidir.
Kısacası, 120 gözlem ve niteliklerin bin ile ilgili bir sorun ile (örneğin, sırt regresyon Lars Lasso, esnek ağ gibi veya diğer düzgünleştirilmiş modeli) bir SVM ile hiçbir içsel problem yoktur parametrelerinin uygun ayarlanmış düzenlileştirme sağlanır .