LDA'daki sınıflandırma aşağıdaki gibidir (Bayes kuralı yaklaşımı). [Ayrımcıların çıkarılmasıyla ilgili olarak buraya bakabilirsiniz .]
Bayes teoremine göre, aranan için olasılık sınıfı ile bizler uğraşan o halen noktasını gözlemlerken x olan P ( k | x ) = P ( k ) * P ( x | k ) / P ( x ) ,kxP(k|x)=P(k)∗P(x|k)/P(x)
- k sınıfı koşulsuz (arka plan) olasılığı; P ( x ) - x noktasının koşulsuz (arka plan) olasılığı; P ( x | k ) - nokta varlığı olasılığı x sınıfı içinde k , sınıf ile uğraşanlarda ediliyor eğer olduğunu k .P(k)kP(x)xP(x|k)xkk
"Şu anda noktasını gözlemlemek " temel durumdur, P ( x ) = 1 ve böylece payda atlanabilir. Böylece, P ( k | x ) = P ( k ) ∗ P ( x | k ) .xP(x)=1P(k|x)=P(k)∗P(x|k)
bir önceki (pre-analitik) olasılığı olduğu için doğal sınıf x isimli k ; P ( k ) kullanıcı tarafından belirtilir. Genellikle tüm sınıflar eşit olarak P ( k ) = 1 / number_of_classes alır. Hesaplama için P ( k | x ) , için doğal sınıf olduğunu yani arka (post-analitik) olasılık x is k , tek bilmelidir P ( x | k ) .P(k)xkP(k)P( k )P( k | x )xkP( x | k)
-kendi başınaolasılık- bulunamaz, ayrımcılar için, LDA'nın ana konusu, sürekli değil, değişkenlerdir. Bu durumda P ( x | k ) ifade edenve onunla orantılımiktarolasılık yoğunluğudur(PDF fonksiyonu). Bu vesile ile biz nokta için hesaplamak PDF gereken x sınıfı içinde k , p D F ( x | k ) içinde, s değerleri oluşturduğu boyutlu normal dağılıma pP( x | k)P( x | k )xkPD F( x | k)ppayırıcılar. [Vikipedi'ye bakın Çok değişkenli normal dağılım]
PD F( x | k ) = e- d/ 2( 2 π)s / 2| S |---√)
burada - kare Mahalanobis uzaklığı [Bkz. Wikipedia Mahalanobis uzaklığı] ayrımcıların x noktasından sınıf centroidine kadar olan boşluğunda ; Bu sınıfta gözlemlenen ayrımcılar arasındaki S - kovaryans matrisi .dxS
Her sınıf için bu şekilde hesaplayın . P ( k ) * P D F ( x | k ) noktası için x ve sınıf k aranan için ekspres P ( k ) * P ( x | k ) bizim için. Ancak yukarıdaki rezervin PDF'nin kendi başına olasılık olmadığını, sadece onunla orantılı olduğunu, P ( k ) ∗ P D'yi normalleştirmeliyiz.PD F( x | k )P( k ) ∗ PD F( x | k )xkP( k ) ∗ P( x | k ) ,tüm sınıflar üzerinden P ( k ) ∗ P D F ( x | k ) toplamlarına bölünür. Örneğin, toplamda 3 sınıf varsa, k , l , m , o zamanP( k ) ∗ PD F( x | k )P( k ) ∗ PD F( x | k )klm
P(k|x)=P(k)∗PDF(x|k)/[P(k)∗PDF(x|k)+P(l)∗PDF(x|l)+P(m)∗PDF(x|m)]
noktası LDA tarafından P ( k | x ) ' nin en yüksek olduğu sınıfa atanır .xP(k|x)
Not. Genel yaklaşım buydu. Birçok LDA programı varsayılan olarak yukarıdaki PDF formülündeki tüm sınıflar için sınıf içi S matrisi matlarını kullanır . Bu durumda, örneğin, çünkü formül büyük ölçüde kolaylaştırır S LDA kimlik matrisi (alt bakınız dipnot olup burada dolayısıyla) ve | S | = 1 ve d , kareli öklid mesafesine dönüşür (hatırlatma: bahsettiğimiz S sınıfı içinde toplanmış havuzlar , matris genellikle S w olarak adlandırılan giriş değişkenleri arasında değil, ayrımcılar arasındaki kovaryanslardır .SS|S|=1dSSw
Ek . Yukarıdaki Bayes kural sınıflandırması LDA'ya getirilmeden önce, LDA öncüsü Fisher, LDA'daki noktaları sınıflandırmak için şu anda Fisher'ın doğrusal sınıflandırma işlevlerini hesaplamayı önerdi . Nokta için, k sınıfına ait fonksiyon puanı b k v 1 V 1 x + b k v 2 V 2 x + doğrusal kombinasyonudur . . . + Cı O , n s t k , burada V 1 ,xkbkv1V1x+bkv2V2x+...+Constk , analizdeki belirleyici değişkenlerdir.V1,V2,...Vp
G katsayısı , g sınıf sayısıdır ve s v w , p V değişkenlerinin toplanmış sınıf içi dağılım matrisinin elemanıdır .bkv=(n−g)∑pwsvwV¯kwgsvwp V
.Constk=log(P(k))−(∑pvbkvV¯kv)/2
noktası , puanı en yüksek olduğu sınıfa atanır. (Atlar, bu Fisher yöntemi ile elde edilen sınıflandırma sonuçları ekstre metodu yalnızca Diskriminatları kompleks eigendecomposition yapan) Bayes ile elde edilen aynı toplanmış Diskriminatları göre yöntemi içinde sınıf kovaryans matrisi Bayes kullanılır ( 'açıklama' yukarıda) ve tüm ayrımcılar sınıflandırmada kullanılmaktadır. Bayes yöntemi daha geneldir çünkü ayrı sınıf içi matrislerin kullanılmasına izin verir .x