Doğrusal ayrımcılık analizi ve Bayes kuralı: sınıflandırma


12

Doğrusal diskriminant analizi ile Bayes kuralı arasındaki ilişki nedir? LDA'nın grup içi varyans ve grup varyansı arasındaki oranı en aza indirmeye çalışarak sınıflandırmada kullanıldığını anlıyorum, ancak Bayes'in kural kullanımını nasıl kullandığını bilmiyorum.


Diskriminant fonksiyonlar, gruplar arası varyasyon ile grup içi varyasyon oranını en üst düzeye çıkarmak için çıkarılır. LDA'nın ikinci ve bağımsız aşaması olan sınıflandırma ile ilgisi yoktur.
ttnphns

Yanıtlar:


16

LDA'daki sınıflandırma aşağıdaki gibidir (Bayes kuralı yaklaşımı). [Ayrımcıların çıkarılmasıyla ilgili olarak buraya bakabilirsiniz .]

Bayes teoremine göre, aranan için olasılık sınıfı ile bizler uğraşan o halen noktasını gözlemlerken x olan P ( k | x ) = P ( k ) * P ( x | k ) / P ( x ) ,kxP(k|x)=P(k)P(x|k)/P(x)

- k sınıfı koşulsuz (arka plan) olasılığı; P ( x ) - x noktasının koşulsuz (arka plan) olasılığı; P ( x | k ) - nokta varlığı olasılığı x sınıfı içinde k , sınıf ile uğraşanlarda ediliyor eğer olduğunu k .P(k)kP(x)xP(x|k)xkk

"Şu anda noktasını gözlemlemek " temel durumdur, P ( x ) = 1 ve böylece payda atlanabilir. Böylece, P ( k | x ) = P ( k ) P ( x | k ) .xP(x)=1P(k|x)=P(k)P(x|k)

bir önceki (pre-analitik) olasılığı olduğu için doğal sınıf x isimli k ; P ( k ) kullanıcı tarafından belirtilir. Genellikle tüm sınıflar eşit olarak P ( k ) = 1 / number_of_classes alır. Hesaplama için P ( k | x ) , için doğal sınıf olduğunu yani arka (post-analitik) olasılık x is k , tek bilmelidir P ( x | k ) .P(k)xkP(k)P(k)P(k|x)xkP(x|k)

-kendi başınaolasılık- bulunamaz, ayrımcılar için, LDA'nın ana konusu, sürekli değil, değişkenlerdir. Bu durumda P ( x | k ) ifade edenve onunla orantılımiktarolasılık yoğunluğudur(PDF fonksiyonu). Bu vesile ile biz nokta için hesaplamak PDF gereken x sınıfı içinde k , p D F ( x | k ) içinde, s değerleri oluşturduğu boyutlu normal dağılıma pP(x|k)P(x|k)xkPDF(x|k)ppayırıcılar. [Vikipedi'ye bakın Çok değişkenli normal dağılım]

PDF(x|k)=ed/2(2π)p/2|S|)

burada - kare Mahalanobis uzaklığı [Bkz. Wikipedia Mahalanobis uzaklığı] ayrımcıların x noktasından sınıf centroidine kadar olan boşluğunda ; Bu sınıfta gözlemlenen ayrımcılar arasındaki S - kovaryans matrisi .dxS

Her sınıf için bu şekilde hesaplayın . P ( k ) * P D F ( x | k ) noktası için x ve sınıf k aranan için ekspres P ( k ) * P ( x | k ) bizim için. Ancak yukarıdaki rezervin PDF'nin kendi başına olasılık olmadığını, sadece onunla orantılı olduğunu, P ( k ) P D'yi normalleştirmeliyiz.PDF(x|k)P(k)*PDF(x|k)xkP(k)*P(x|k) ,tüm sınıflar üzerinden P ( k ) P D F ( x | k ) toplamlarına bölünür. Örneğin, toplamda 3 sınıf varsa, k , l , m , o zamanP(k)*PDF(x|k)P(k)*PDF(x|k)klm

P(k|x)=P(k)PDF(x|k)/[P(k)PDF(x|k)+P(l)PDF(x|l)+P(m)PDF(x|m)]

noktası LDA tarafından P ( k | x ) ' nin en yüksek olduğu sınıfa atanır .xP(k|x)

Not. Genel yaklaşım buydu. Birçok LDA programı varsayılan olarak yukarıdaki PDF formülündeki tüm sınıflar için sınıf içi S matrisi matlarını kullanır . Bu durumda, örneğin, çünkü formül büyük ölçüde kolaylaştırır S LDA kimlik matrisi (alt bakınız dipnot olup burada dolayısıyla) ve | S | = 1 ve d , kareli öklid mesafesine dönüşür (hatırlatma: bahsettiğimiz S sınıfı içinde toplanmış havuzlar , matris genellikle S w olarak adlandırılan giriş değişkenleri arasında değil, ayrımcılar arasındaki kovaryanslardır .SS|S|=1dSSw

Ek . Yukarıdaki Bayes kural sınıflandırması LDA'ya getirilmeden önce, LDA öncüsü Fisher, LDA'daki noktaları sınıflandırmak için şu anda Fisher'ın doğrusal sınıflandırma işlevlerini hesaplamayı önerdi . Nokta için, k sınıfına ait fonksiyon puanı b k v 1 V 1 x + b k v 2 V 2 x + doğrusal kombinasyonudur . . . + O , n s t k , burada V 1 ,xkbkv1V1x+bkv2V2x+...+Constk , analizdeki belirleyici değişkenlerdir.V1,V2,...Vp

G katsayısı , g sınıf sayısıdır ve s v w , p V değişkenlerinin toplanmış sınıf içi dağılım matrisinin elemanıdır .bkv=(ng)wpsvwV¯kwgsvwp V

.Constk=log(P(k))(vpbkvV¯kv)/2

noktası , puanı en yüksek olduğu sınıfa atanır. (Atlar, bu Fisher yöntemi ile elde edilen sınıflandırma sonuçları ekstre metodu yalnızca Diskriminatları kompleks eigendecomposition yapan) Bayes ile elde edilen aynı toplanmış Diskriminatları göre yöntemi içinde sınıf kovaryans matrisi Bayes kullanılır ( 'açıklama' yukarıda) ve tüm ayrımcılar sınıflandırmada kullanılmaktadır. Bayes yöntemi daha geneldir çünkü ayrı sınıf içi matrislerin kullanılmasına izin verir .x


Bu Bayesci yaklaşım değil mi? Fisher'in buna yaklaşımı nedir?
zca0

1
İsteğiniz üzerine cevaba eklendi
ttnphns

Bayes ve Fisher'ın LDA yaklaşımı arasında ayrım yapmak için +1. LDA'da yeni gelen biriyim ve okuduğum kitaplar bana Bayes yaklaşımında LDA'yı öğretiyor, bu da en yüksek p ( K | X ) ile K sınıfı olarak sınıflandırıyor , bu yüzden tüm p ( K | X ) her K sınıfı için , değil mi? Fisher'ın yaklaşımına göre, sadece ayrımcıları ve onların karşılık gelen resimlerini anlamaya ihtiyacım var ve her sınıf için posterioru hesaplamaya gerek yok, değil mi? XKp(K|X)p(K|X)K
avokado

Bence Bayes'in yaklaşımı daha anlaşılır ve neden Fisher'ın yaklaşımını kullanmamız gerekiyor?
avokado

İhtiyacımız yok. Sadece tarihsel meseleler için.
ttnphns

1

İki sınıflı bir problemde iki hata türü için eşit ağırlıklar olduğunu varsayalım. İki sınıfın sınıflandırma değişkenlerinin çok değişkenli bir sınıf koşullu yoğunluğuna sahip olduğunu varsayalım. Daha sonra herhangi bir gözlenen vektör için ve sınıf koşullu yoğunluklar f 1 ( x ) ve f 2 ( x ) Bayes kuralı olacak sınıflandırmak X grubu halinde 1 ait olarak f 1 ( x ) f 2 ( x ) gibi sınıf 2 aksi. Bayes kuralı, eğer f 1 ve f ise doğrusal bir ayırıcı sınıflayıcıdır.xf1(x)f2(x)xf1(x)f2(x)f1 ikisi de aynı kovaryans matrisi ile çok değişkenli normal yoğunluklardır. Tabii ki, ayrımcılığı yararlı bir şekilde ayırt edebilmek için, ortalama vektörlerin farklı olması gerekir. Bunun güzel bir sunumu Duda ve Hart PatternClassification and Scene Analysis1973'te bulunabilir (kitap yakın zamanda revize edilmiştir, ancak özellikle orijinal baskıdaki sunumu seviyorum).f2

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.