Regresyon ve doğrusal diskriminant analizi (LDA) arasındaki ilişki nedir?


24

Regresyon ve lineer diskriminant analizi (LDA) arasında bir ilişki var mı? Benzerlikleri ve farklılıkları nelerdir? İki sınıf veya ikiden fazla sınıf olması herhangi bir fark yaratır mı?


3
Okuyucu için bir not: soru belirsizdir, lojistik regresyon veya doğrusal regresyon hakkında soru soran olarak anlaşılabilir . OP her iki açıdan da ilgilenmişe benziyor (yorumlara bakınız). Kabul edilen cevap doğrusal regresyonla ilgilidir, ancak diğer bazı cevaplar bunun yerine lojistik regresyona odaklanır.
amip diyor Reinstate Monica

Yanıtlar:


20

Sorunun LDA ve doğrusal (lojistik değil) regresyonla ilgili olduğunu düşünüyorum.

Doğrusal regresyon ile doğrusal diskriminant analizi arasında kayda değer ve anlamlı bir ilişki vardır . Bağımlı değişkenin (DV) sadece 2 gruptan oluşması durumunda iki analiz aslında aynıdır. Bu hesaplamaların farklı olmasına ve sonuçlar - regresyon ve ayırıcı katsayılar - aynı olmasa da, bunlar birbirleriyle tam olarak orantılıdır .

Şimdi ikiden fazla grup durumu için. Öncelikle, eğer gruplama DV'yi bir kukla değişken kümesine dönüştürürseniz (bunlardan biri fazla bırakılmışsa) ve kanonik yaparsanız, LDA'nın (sınıflandırma aşaması değil) çıkarmasının kanonik korelasyon analizine eşdeğer (doğrusal olarak ilişkili sonuçlar) olduğunu söyleyelim. "IV'ler" ve "aptallar" kümelerinin analizi. Kanonik almanızı "IV enzimlerini" setinin tarafında dağılımı özellikleri vardır LDA "diskriminant fonksiyonları" ya da "ayırıcılar" dediği.

Peki kanonik analiz lineer regresyon ile nasıl ilişkilidir? Kanonik analiz özünde gizli bir yapıya derinleştirilmiş bir MANOVA ("Çok Değişkenli Çoklu Doğrusal Regresyon" veya "Çok Değişkenli Genel Doğrusal Model") anlamındadır.DV'ler ve IV'ler arasındaki ilişkilerin Bu iki varyasyon, ara ilişkilerde gizli "kanonik değişkenlere" ayrıştırılır. En basit örneği ele alalım, Y vs X1 X2 X3. İki taraf arasındaki korelasyonun maksimize edilmesi lineer regresyondur (eğer Y'yi Xs ile öngörüyorsanız) veya - aynı şey - MANOVA (eğer X’i Y ile tahmin ederseniz). Korelasyon tek boyutludur (büyüklüğü R ^ 2 = Pillai'nin iziyle) çünkü daha küçük küme, Y, sadece bir değişkenden oluşur. Şimdi bu iki seti alalım: Y1 Y2 - X1 x2 x3. Burada maksimize edilen korelasyon 2 boyutludur çünkü daha küçük set 2 değişken içerir. Korelasyonun ilk ve daha güçlü gizli boyutu, 1. kanonik korelasyon olarak adlandırılır ve kalan kısım, buna dik, 2. kanonik korelasyon olarak adlandırılır. Yani, MANOVA (veya lineer regresyon), kümelerin bütün 2 boyutlu korelasyonunda değişkenlerin kısmi rollerinin (katsayıları) ne olduğunu soruyor; kanonik analiz sadece 1. korelasyon boyutunda ve 2.'de değişkenlerin kısmi rollerinin ne olduğunu sormak için aşağıya iner.

Dolayısıyla, kanonik korelasyon analizi, DV'ler ve IV'ler arasındaki ilişkinin gizli yapısına derinleştirilmiş çok değişkenli doğrusal regresyondur. Diskriminant analizi, kanonik korelasyon analizi için özel bir durumdur ( tam olarak nasıl yapılır ). Yani, burada ikiden fazla gruptan oluşan genel bir durumda LDA'nın doğrusal regresyonla ilişkisine dair cevap buydu.

Cevabımın LDA'yı sınıflandırma tekniği olarak görmediğini unutmayın. LDA'yı yalnızca gizli kaynak çıkarma tekniği olarak tartışıyordum. Sınıflandırma, LDA'nın ikinci ve tek başına aşamasıdır ( burada açıkladım ). @Michael Chernick cevaplarında buna odaklanmıştı.


Neden "kanonik korelasyon analizine" ihtiyacım var ve burada ne yapıyor? Teşekkürler.
zca0

1
+1 (uzun zaman önce). MANOVA / CCA / X arasındaki regresyon ve grup mankenleri Y ve LDA matrisi arasındaki bu bağlantıyı tartışan herhangi bir referans biliyor musunuz (ikiden fazla grubun genel durumu için)? Şimdi bu konuyu çalışıyorum ve sanırım zaten daha az ya da çoktan çözdüğümü düşünüyorum, ancak aradığımda regression formulation of LDAşaşırtıcı bir şekilde zor bir şey buldum - 2000'den sonra yayınlanan ve böyle bir formülasyonun olmadığını söyleyen çok sayıda araştırma makalesi var. bir tane önermeye çalışıyorum. Belki iyi bir eski referans var mı?
amip diyor Reinstate Monica

3
Mmm .. Hızlıca aklınıza gelen birkaç kağıt Harry Clahn. Canonical Correlation and Its Relationship to Discriminant Analysis and Multiple Regression. W. Stuetzle. Connections between Canonical Correlation Analysis, Linear Discriminant Analysis, and Optimal Scaling. Olcay Kursun et al. Canonical correlation analysis using within-class coupling. Onları internette bulamazsanız size gönderebilirim. Daha fazla ve daha iyi kaynaklar bulursanız - lütfen bize bildirin.
ttnphns

1
Geçişim, eldeki sadece regresyon (MANOVA) sonuçlarına sahip olan CCA katsayılarını elde edebileceğiniz anlamına gelmedi. MANOVA'nın "yüzey" olduğunu ve CCA'nın aynı analitik girişimin daha "derin" katmanları olduğunu söyledim. Onların eşanlamlı olduklarını ya da birinin diğerinin sade bir olayı olduğunu söylemedim.
ttnphns

1
Anlıyorum. Buraya başka bir cevap göndermeye karar verdim, LDA / regresyon denkliğinin matematiksel detaylarını verdim.
amip diyor Reinstate Monica

11

İşte Efron'un makalelerinden birine referans: 1975'teki Normal Ayrımcı Analizine Göre Lojistik Regresyonun Etkinliği .

İlgili bir diğer makale ise Ng & Jordan, 2001, On Discriminative vs Generative sınıflandırıcıları: Lojistik regresyon ve saf Bayes karşılaştırması . Ve işte, O'Neill'ın doktora tezi ile ilgili makalelerinde bahsettiği Xue ve Titterington , 2008 hakkındaki bir yorumunun özeti :

Üretken ve ayırt edici sınıflandırıcıların karşılaştırılması sürekli bir konudur. Bu konuya önemli bir katkı olarak, saf Bayes sınıflandırıcısı ve doğrusal lojistik regresyon arasındaki teorik ve ampirik karşılaştırmalarına dayanarak, Ng ve Jordan (NIPS 841 --- 848, 2001), üretici arasında iki farklı performans rejimi olduğunu iddia etti. ve eğitim seti büyüklüğüne göre ayrımcı sınıflandırıcılar. Bu yazıda, çalışmalarının bir tamamlayıcısı olarak deneysel ve simülasyon çalışmalarımız, iki farklı rejimin varlığının o kadar güvenilir olamayacağını öne sürüyor. Ek olarak, gerçek dünya veri setleri için, şu ana kadar bir gözlemin sınıflandırılmasında ayrımcı ve üretici yaklaşımlar arasında seçim yapmak için teorik olarak doğru, genel bir kriter yoktur.x sınıfınay ; seçim,p(y|x) veya p ( x , y ) özelliklerinin doğruluğu konusunda sahip olduğumuz nispi güvene bağlıdır.p(x,y) veri için. Bu, bir dereceye kadar Efron'un neden (J Am Stat Assoc 70 (352): 892 --- 898, 1975) ve O'Neill'in (J Am Stat Assoc 75 (369): 154 --- 160, 1980) bir kanıtı olabilir. ) model yanlış belirtimi olmadığında normal-temelli lineer diskriminant analizini (LDA) tercih eder, ancak diğer deneysel çalışmalar bunun yerine lineer lojistik regresyon tercih edebilir. Ayrıca, ortak bir köşegen kovaryans matrisi (LDA) veya naif Bayes sınıflandırıcısı varsayarak LDA'nın eşleştirilmesinin ve lineer lojistik regresyonun mükemmel olamayacağını ve bu nedenle LDA arasındaki karşılaştırmadan türetilen herhangi bir iddia için güvenilir olmayabileceğini öneriyoruz. veya saf Bayes sınıflandırıcı ve bütün üretici ve ayırt edici sınıflandırıcılara genellenecek doğrusal lojistik regresyon.

Bu konuda çevrimiçi bulabileceğiniz birçok referans var.


LDA'ya karşı lojistik regresyonun (şimdi OP tarafından açıklığa kavuşturulmuş) konusundaki iyi yerleştirilmiş referansları için +1.
Makro

1
İşte Yaroslav Bulatov'un Quora'daki
Pardis

Ayrıca ilgili bir konu, stats.stackexchange.com/q/95247/3277
ttnphns

7

Bu cevabın amacı doğrusal diskriminant analizi (LDA) ve çok değişkenli doğrusal regresyon (MLR) arasındaki tam matematiksel ilişkiyi açıklamaktır. Doğru çerçevenin azalan rank gerilemesi (RRR) ile sağlandığı ortaya çıkacaktır .

LDA'nın , veri matrisindeki beyazlatılmış sınıf gösterge matrisinin RRR'sine eşdeğer olduğunu göstereceğiz .


Gösterim

Let olması , n x d veri noktaları matris ile x i sütun satır ve değişkenlere. Her nokta, k sınıflarından birine veya gruplara aittir . Nokta x i sınıf numarası ait gr ( i ) .Xn×dxikxig(i)

Let olabilir , n x k gösterge aşağıdaki şekilde matrisi kodlaması grubu üyelik: G i j = 1 ise X i sınıf ait j ve G i j = 0 , aksi. Vardır , n j sınıfı veri noktaları j ; Tabii ait Σ n j = n .Gn×kGij=1xijGij=0njjnj=n

Verilerin ortalandığını ve dolayısıyla genel ortalamanın sıfıra eşit olduğunu varsayıyoruz, . Μ j , j sınıfının ortalaması olsun .μ=0μjj

LDA

Toplam dağılım matrisi aşağıdaki gibi tanımlanmıştır sınıf-ile içi saçılım matrisleri toplamı ayrılacak olabilir: Cı- BC=XX Bir olduğunu doğrulayabilir=b+Cw. LDA, maksimum grup arası varyansa ve projeksiyonun minimum grup içi varyansa sahip diskriminant eksenlerini arar. Spesifik olarak, ilk ayırma eksen birim vektörağırlıkmaksimizeağırlıkbağırlık/(wC aağırlık

Cb=jnjμjμjCw=(xiμg(i))(xiμg(i)).
C=Cb+Cww , ve birinci s bir matris halinde bir araya istiflenmiş diskriminant eksenleri W iz en üst düzeye çıkarmak gerekir L L D bir = tr ( B b W ( W w W ) - 1 ) .wCbw/(wCww)pW
LLDA=tr(WCbW(WCwW)1).

Varsayılarak tam seviye olan, LDA çözeltisi B L D A özvektörleri matristir C - 1 ağırlık b (azalan sıra ile öz-değerlerle sıralanmıştır).CwWLDACw1Cb

Bu olağan bir hikayeydi. Şimdi iki önemli gözlem yapalım.

b/wb/(b+w)C1Cb

İkincisi, sınıflar arası dağılım matrisi, yukarıda tanımlanan grup üyeliği matrisi ile ifade edilebilir. Nitekim, = XGXnjGG(GG)1GXCb

Cb=XG(GG)1GX.
njmXGGX/m

Normalleştirilmiş gösterge matrisi tanımlayabiliriz.G~ Gsahiptir1. Sonra, hem dengeli hem de dengesiz veri kümeleri için, ifade basitçeCb=X ˜ G ˜ G1/njG1Cb=XG~G~XG~G~=G(GG)1/2

gerileme

Basit olması için, dengeli bir veri kümesi ile başlayacağız.

X üzerinde doğrusal regresyonunu düşünün . Bu bulur B minimize G -GXBGXB2BpBB=DFDFp

DWLDA

DFF=(DXXD)1DXG

GXD(DXXD)1DXG2,
A2=tr(AA)
tr(DXGGXD(DXXD)1),
=tr(DCbD(DCD)1)/mLLDA.

GG~

Benzer şekilde, azaltılmış dereceli regresyona sırt düzenlenmesi eklemenin, düzenli LDA'ya eşdeğer olduğunu gösterebilir.

LDA, CCA ve RRR arasındaki ilişki

XGYXYX

Kaynakça

Yukarıda sunulanların kredisini kimin hak ettiğini söylemek zor.

Cai ve ark. (2013) Düşük Sıralı Regresyonların Eşdeğeri ve Yukarıdaki ile tamamen aynı kanıtı sunan ancak bu yaklaşımı icat ettikleri izlenimini yaratan Doğrusal Ayrımcılık Analizi Temelli Regresyonlar Üzerine . Bu kesinlikle söz konusu değildir. Torre, ortak doğrusal çok değişkenli yöntemlerin çoğunun azalan rank regresyonu olarak nasıl görülebileceğinin ayrıntılı bir tedavisini yazdı, bkz . Bileşen Analizi için En Küçük Kareler Çerçevesi , 2009 ve daha sonra kitap bölümünde Bileşen analiz yöntemlerinin birleştirilmesi , 2013; aynı argümanı sunar ancak referans da vermez. Bu materyal aynı zamanda Modern Çok Değişkenli İstatistik Teknikleri ders kitabında da ele alınmıştır. (2008), 1975 yılında RRR'yi geri getiren İzenman tarafından.

LDA ve CCA arasındaki ilişki görünüşe göre Bart38, 1938, Çoklu regresyon teorisinin diğer yönleri - genellikle karşılaştığım referans (ancak doğrulamadı). CCA ve RRR arasındaki ilişki, Çok Değişkenli Doğrusal Model için İz75, 1975, Azaltılmış Sıralı Regresyon'da tanımlanmıştır . Yani tüm bu düşünceler bir süredir var.


Detaylar için benden +1 ve cevabımı kastetmek için ve burada RRR'yi tanıtmak için (önceden tahmin ediyorum, çünkü tüm o muhteşem / zorlu cebirleri yırtmak için oturmadan önce bilinmeyen bir zaman geçecek!).
ttnphns 11

0

Doğrusal regresyon ve doğrusal diskriminant analizi çok farklıdır. Doğrusal regresyon, bağımlı değişkenleri, bir dizi bağımsız tahmin değişkenleri ile ilişkilendirir. Fikir, verilere en uygun parametrelerde doğrusal bir işlev bulmaktır. Değişkenlerde doğrusal bile olması gerekmez. Öte yandan, doğrusal diskriminant analizi, nesneleri kategorilere ayırmak için bir prosedürdür. İki sınıf problem için, grupları iki kategoriye ayırmak için en iyi ayrıştırıcı hiper düzlemi bulmaya çalışır. Burada en iyisi, hata oranlarının doğrusal bir birleşimi olan bir kayıp işlevini en aza indirdiği anlamına gelir. Üç veya daha fazla grup için en iyi hiper düzlem kümesini bulur (k sınıfı problem için k-1). Diskriminant analizinde hipoer düzlemler özellik değişkenlerinde doğrusaldır.

İkisi arasındaki temel benzerlik, başlıklardaki lineer terimdir.


Üzgünüm, yanlış yazdım. Regresyon ve LDA olmalı. Doğrusal ayrımcılarla ilgili bazı regresyonlarla ilgili makaleler gördüm, ama nasıl çalıştığını bilmiyorum. İki sınıf için LDA ve lojistik regresyonun bazı ilişkileri olduğunu düşünüyorum ama onların ne olduğunu net bir şekilde söyleyemem. İkiden fazla sınıf için, ilişki olup olmadığını bilmiyorum.
zca0

1
Evet, lojistik regresyon ile lineer diskriminant analizi arasında bir ilişki var. Efron ve öğrencisi Terry O'Neilll 1970'lerin sonunda bu konuda yazdı. Bir referans için bir link bulmaya çalışacağım.
Michael R. Chernick

2
İşte CV ile ilgili bir soru ve cevaplar. stats.stackexchange.com/questions/14697/…
Michael R. Chernick

-1 çünkü aslında @ tnnn ve ben de cevaplarımızda açıkladığımız gibi, LDA ile regresyon arasında derin bir ilişki var.
amip Reinstate Monica diyor
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.