LDA'nın arka sınıf üyelik olasılığının Bayes tahmini, lojistik bir eğriyi de takip ediyor.
[Efron, B. Normal regriminant analizine göre lojistik regresyonun etkinliği, J Am Stat Assoc, 70, 892-898 (1975).]
Bu makale, LDA'nın varsayımlarının karşılanması durumunda LDA'nın göreceli verimliliğinin LR'den daha üstün olduğunu gösterse de, uygulamadaki İstatistiksel Öğrenme Öğelerine göre, uygulamada hemen hemen hiçbir fark yoktur.
[Hastie, T. ve Tibshirani, R. ve Friedman, J. İstatistiksel Öğrenmenin Öğeleri; Veri madenciliği, Çıkarım ve Öngörü Springer Verlag, New York, 2009]
LDA'nın göreceli olarak artmış göreceli verimliliğinin artması, mutlak hatanın zaten zaten göz ardı edilebildiği asemptotik durumlarda ortaya çıkar.
[Harrell, FE & Lee, KL Çok değişkenli normallik altında ayırt edici analiz ve lojistik regresyon ayrımcılığının karşılaştırılması, Biyoistatistik: Biyomedikal, Halk Sağlığı ve Çevre Bilimleri İstatistikleri, 333-343 (1985).]
Uygulamada LDA'nın üstün göründüğü yüksek boyutlu küçük örneklem büyüklüğü durumlarıyla karşılaşmış olmama rağmen (hem çok değişkenli normalliğe hem de eşit kovaryans matris varsayımlarının gözle görülür şekilde karşılanmamasına rağmen).
[ Beleites, C.; Geiger, K .; Kirsch, M .; Sobottka, SB; Schackert, G. & Salzer, R. Raman, astrositoma dokularının spektroskopik derecelendirmesini: yumuşak referans bilgileri kullanarak., Anal Bioanal Chem, 400, 2801-2816 (2011). DOI: 10.1007 / s00216-011-4985-4 ]
Ancak, makalemizde LR'nin muhtemelen (yakın) mükemmel ayrılmaya ilişkin yönelimlerin bulunabileceği sorunuyla mücadele ettiğini unutmayın. Öte yandan LDA, daha az ciddi şekilde daha fazla donanıma sahip olabilir.
LDA'nın ünlü varsayımlarına yalnızca iyimserliği kanıtlamak için ihtiyaç duyulmaktadır. Eğer karşılanmazlarsa, prosedür hala iyi bir sezgisel olabilir.
Uygulamada benim için önemli olan bir fark, çünkü üzerinde çalıştığım sınıflandırma problemleri bazen / sık sık ortaya çıkıyor, aslında açıkça sınıflandırma problemleri olmadı: LR, referansın orta sınıf üyeliği seviyelerine sahip olduğu verilerle kolayca yapılabilir. Sonuçta, bu bir regresyon tekniğidir.
[yukarıda bağlantılı kağıda bakın]
LR'nin sınıf sınırına yakın örneklere LDA'dan daha fazla yoğunlaştığını ve dağılımların “arka tarafındaki” vakaları temelden aldırdığını söyleyebilirsiniz.
Bu ayrıca neden LDA'ya göre aykırı değerlere (yani arka taraftakilere) daha az duyarlı olduğunu da açıklar.
(destek vektör makineleri, bu yöne en sonuna kadar giden bir sınıflandırıcı olacaktır: burada her şey dışında ancak sınırdaki durumlar dikkate alınmaz)