Yaklaşıklık oranının ( MIN hedefleri ile ilgili problemler için ), A - bazı algoritma A ve OPT tarafından döndürülen değer - optimum değer olduğu standart bir yaklaşım teorisi vardır . Ve başka bir teori, yaklaşıklık oranının \ inf \ frac {\ Omega-A} {\ Omega-OPT} , \ Omega - verilen örnek için uygulanabilir bir çözümün en kötü değeri olduğu diferansiyel yaklaşımdır . Yazarlar klasik birinin üzerine bazı kesin avantajları vardır bu teori iddia. Örneğin: MINA O P T Ω
- aynı problemin sadece farklı gerçekleşmeleri olarak bilinen Minimum tepe noktası örtüsü ve Maksimum bağımsız küme gibi problemler için aynı yaklaşım oranını verir;
- aynı sorunun maksimum ve minimum sürümleri için aynı oranı verir. Aynı zamanda standart teoride MIN TSP ve MAX TSP'nin çok farklı oranları olduğunu biliyoruz.
- Sadece optimum değil, aynı zamanda pessimum \ Omega'ya olan mesafeyi de ölçer . Vertex Cover söz konusu olduğunda standart yaklaşım teorisi en iyi üst sınır olduğunu söylüyor . Ancak esasen , pesimum ile optimum arasındaki maksimum orandır. Bu nedenle, bu algoritmanın, çözeltinin en kötü değere sahip çıkacağı garanti edilmektedir.
Pro argümanım: asimtotik analizde sabitleri ve düşük dereceli terimleri dikkate almıyoruz (burada Avi Widgerson'ın alıntısını hatırladım: "Başarılıyız çünkü doğru soyutlama seviyesini kullandığımız.") Ve bu algoritmanın kaynak kullanımını karşılaştırmak için soyutlama düzeyi. Ancak, yaklaşımı incelediğimizde, bir sebepten kaçınabileceğimiz yerlerdeki farkı ortaya koyarız.
Sorum şu
neden diferansiyel yaklaşım teorisi bu kadar zayıf incelenmiştir Yoksa ilgili argümanlar yeterince güçlü değil mi?