AdamO'nun yukarıdaki yorumda belirttiği gibi, LDA'yı diğer doğrusal sınıflandırma yöntemleri ile karşılaştıran, birçok örnek veren ve aynı zamanda kullanımı tartışan İstatistiksel Öğrenme Unsurları (HTF olarak adlandıracağım) Bölüm 4'ü okumaktan daha iyisini yapamazsınız. PCA'nın damarında, ttnphns'ın işaret ettiği gibi, oldukça popüler olan bir boyut küçültme tekniği olarak LDA'nın.
Sınıflandırma açısından bence en önemli fark bu. İki sınıfınız olduğunu ve bunları ayırmak istediğinizi düşünün. Her sınıfın bir olasılık yoğunluk fonksiyonu vardır. Mümkün olan en iyi durum bu yoğunluk işlevlerini bilseydiniz olurdu, çünkü o zaman o noktadaki sınıfa özgü yoğunlukları değerlendirerek bir noktanın hangi sınıfa ait olacağını tahmin edebilirsiniz.
Bazı tür sınıflandırıcılar, sınıfların yoğunluk fonksiyonlarına bir yaklaşım bularak çalışır. LDA bunlardan biri; yoğunlukların aynı kovaryans matrisi ile çok değişkenli normal olduğu varsayımını yapar. Bu güçlü bir varsayımdır, ancak yaklaşık olarak doğruysa, iyi bir sınıflandırıcı elde edersiniz. Diğer birçok sınıflandırıcı da bu tür bir yaklaşımı benimser, ancak normalliği kabul etmekten daha esnek olmaya çalışır. Örneğin, HTF'nin 108. sayfasına bakın.
Öte yandan HTF, şu sayfada uyarıyor:
Sınıflandırma nihai hedefse, ayrı sınıf yoğunluklarını iyi öğrenmek gereksiz olabilir ve aslında yanıltıcı olabilir.
Başka bir yaklaşım, algılayıcının yaptığı gibi, iki sınıf arasında bir sınır aramaktır. Bunun daha sofistike bir versiyonu destek vektör makinesidir. Bu yöntemler, çekirdekleme adı verilen bir teknik kullanılarak verilere özellikler eklenmesi ile de birleştirilebilir. Bu, LDA ile çalışmaz, çünkü normalliği korumaz, ancak sadece ayırıcı bir hiper düzlem arayan bir sınıflandırıcı için sorun yoktur.
LDA ile ayırıcı bir hiper düzlem arayan klasifikatör arasındaki fark, t-testi ile sıradan istatistiklerde bazı parametrik olmayan alternatifler arasındaki farka benzer. İkincisi daha sağlamdır (örneğin aykırı olanlar için), ancak varsayımları karşılanırsa, ilk seçenek en uygunudur.
Bir başka açıklama: bazı insanların LDA veya lojistik regresyon gibi ANOVA tablolarını, hipotez testlerini ve bunun gibi şeyleri güvence altına alabilecek yöntemleri kullanmak için kültürel nedenleri olabileceğini belirtmek gerekir. LDA, Fisher tarafından icat edildi; algı, başlangıçta bir insan veya hayvan nöronu için bir modeldi ve istatistiklerle bir bağlantısı yoktu. Aynı zamanda başka şekilde de çalışır; bazı insanlar destek vektör makineleri gibi yöntemleri tercih edebilirler çünkü yirminci yüzyıl yöntemlerinin eşleşemeyeceği son teknoloji ürünü bir hipster kredisi vardır. Bu daha iyi oldukları anlamına gelmez. (Bunun doğru bir şekilde hatırlarsam Hacker'lar için Machine Learning'de bunun iyi bir örneği tartışılır .)