İkili formülasyonun sayısal optimizasyon açısından çekici olmasının bir nedeni. Ayrıntıları aşağıdaki makalede bulabilirsiniz :
Hsieh, C.-J., Chang, K.-W., Lin, C.-J., Keerthi, SS, ve Sundararajan, S., “İki boyutlu bir koordinat iniş ölçeği doğrusal SVM yöntemi”, Bildiriler 25. Uluslararası Makine Öğrenimi Konferansı, Helsinki, 2008.
İkili formülasyon, tek bir afin eşitlik kısıtını ve n bağlı kısıtlamaları içerir.
1. Afin eşitliği kısıtı ikili formülasyondan "elimine edilebilir".
Bu, her bir veri noktasına tek bir "1" koordinat eklenmesinden kaynaklanan R ^ (d + 1) 'de R ^ d'nin gömülmesiyle basitçe R ^ (d + 1) içindeki verilerinize bakarak yapılabilir. d ----> R ^ (d + 1): (a1, ..., reklam) | ---> (a1, ..., reklam, 1).
Eğitim setindeki tüm noktalar için bunu yapmak, R ^ (d + 1) 'deki lineer ayrılabilirlik problemini ortadan kaldırır ve w0 sabit terimini sınıflandırıcınızdan kaldırır, bu da afin eşitliği kısıtlamasını ikiliden ortadan kaldırır.
2. Nokta 1'e göre, ikili, kısıtları sadece sınırlı kısıtlamalar olan dışbükey bir ikinci dereceden optimizasyon problemi olarak kolayca kullanılabilir.
3. İkili problem şimdi etkin bir şekilde çözülebilir, yani O'da bir epsilon-optimal çözüm üreten çift koordinatlı bir iniş algoritması ile (log (1 / epsilon)).
Bu, biri hariç tüm alfaların sabitlenmesinin kapalı formlu bir çözüm getirdiğine dikkat çekerek yapılır. Daha sonra tüm alfalar arasında birer birer geçiş yapabilirsiniz (örneğin, bir tanesini rastgele seçerek, tüm diğer alfaları sabitleyerek, kapalı form çözümünü hesaplayarak). Bu sayede, "oldukça hızlı" bir şekilde en uygun çözeltiyi elde edebileceğinizi gösterebilir (yukarıda bahsedilen makalede Teorem 1'e bakınız).
İkili problemin bir optimizasyon bakış açısından çekici olmasının birçok nedeni vardır; bunlardan bazıları, yalnızca birinin eşitlik kısıtlamasına sahip olduğu gerçeğinden yararlanırken (geri kalan kısıtlamaların tümü sınırlı sınırlamalardır), diğerleri ise çözümdeki gözlemden yararlanır İkili problemin "çoğu zaman çoğu alfa" sı sıfırdır (destek vektörlerine karşılık gelen sıfır olmayan alfalar).
Stephen Wright'ın Hesaplamalı Öğrenme Atölyesi'ndeki (2009) sunumu ile SVM'ler için sayısal optimizasyonla ilgili iyi bir genel bakış elde edebilirsiniz .
PS: Ben burada yeniyim. Bu web sitesinde matematiksel gösterimi kullanmakta iyi olmadığım için özür dilerim.