«discriminant-analysis» etiketlenmiş sorular

Doğrusal Diskriminant Analizi (LDA) boyutsallık azaltma ve sınıflandırma yöntemidir. En güçlü sınıf ayrımı ile düşük boyutlu altuzayı bulur ve sınıflandırma yapmak için kullanır. Bu etiketi ikinci dereceden DA (QDA) için de kullanın.

2
İki sınıflı sınıflandırıcı olarak LDA'ya göre lojistik regresyon
Kafamı Lineer diskriminant analizi ve Lojistik regresyon arasındaki istatistiksel farkın etrafına sarmaya çalışıyorum . Anladığım kadarıyla, bir iki sınıflandırma problemi için, LDA kesiştikleri yerde lineer bir sınır oluşturan iki normal yoğunluk fonksiyonunu (her bir sınıf için bir tane) tahmin eder, oysa lojistik regresyon sadece iki sınıf arasındaki tek günlük fonksiyonu …

2
Python'un bilim-kurgu LDA'sı neden doğru çalışmıyor ve LDA'yı SVD üzerinden nasıl hesaplıyor?
scikit-learnMakine öğrenim kütüphanesinden (Python) Doğrusal Ayrımcılık Analizi'ni (LDA) boyutsallığın azaltılması için kullanıyordum ve sonuçları biraz merak ediyordum. Şimdi, LDA'nın ne scikit-learnyaptığını merak ediyorum , böylece sonuçlar R'de yapılan bir manuel yaklaşımdan veya LDA'dan farklı görünecek şekilde farklı görünebilir. Biri bana burada bazı bilgiler verebilirse harika olur. Temel olarak en çok …

2
Diskriminant analizinin üç versiyonu: farklılıklar ve nasıl kullanılacağı
Herhangi biri farklılıkları açıklayabilir ve bu üç analizin nasıl kullanılacağına özel örnekler verebilir mi? LDA - Doğrusal Ayrımcı Analizi FDA - Fisher'in Diskriminant Analizi QDA - Kuadratik Diskriminant Analizi Her yeri aradım, ancak bu analizlerin nasıl kullanıldığını ve verilerin nasıl hesaplandığını görmek için gerçek değerlere sahip gerçek örnekler bulamadım, gerçek …

1
PCA, LDA, CCA ve PLS
PCA, LDA, CCA ve PLS arasında nasıl bir ilişki var? Hepsi "spektral" ve lineer cebirsel ve çok iyi anlaşılmış görünüyorlar (çevrelerinde inşa edilmiş 50+ yıl teorisi). Çok farklı şeyler için kullanılırlar (boyutsallığın azaltılması için PCA, sınıflandırma için LDA, regresyon için PLS) ama yine de çok yakın bir ilişki içinde olduklarını …

2
PCA ve LDA'yı birleştirmek mantıklı mı?
Örneğin bir Bayes sınıflandırıcısı aracılığıyla denetimli bir istatistiksel sınıflandırma görevi için bir veri setine sahip olduğumu varsayalım. Bu veri seti 20 özellikten oluşuyor ve Temel Bileşen Analizi (PCA) ve / veya Doğrusal Ayrımcı Analizi (LDA) gibi boyutsallık azaltma teknikleri ile onu 2 özelliğe çıkarmak istiyorum. Her iki teknik de verileri …


1
Bir sınıflandırma tekniği olan LDA'nın PCA gibi boyutsallık azaltma tekniği olarak nasıl işlev gördüğü
Bu makalede , yazar doğrusal diskriminant analizini (LDA) temel bileşen analizine (PCA) bağlar. Sınırlı bilgimle, LDA'nın PCA'ya nasıl benzediğini takip edemiyorum. Her zaman LDA'nın lojistik regresyona benzer bir sınıflandırma algoritması olduğunu düşündüm. LDA'nın PCA'ya nasıl benzediğini anlamada bazı yardımları takdir edeceğim, yani boyutsallık azaltma tekniği nasıl.

1
LDA karar sınırını hesaplayın ve grafiğini çizin
İstatistiksel Öğrenmenin Unsurları'nın karar sınırları olan bir LDA (doğrusal ayrımcı analiz) planı gördüm : Verilerin daha düşük boyutlu bir alt uzaya yansıtıldığını anlıyorum. Bununla birlikte, karar sınırlarını daha düşük boyutlu bir alt uzaya yansıtabilmem için orijinal boyuttaki karar sınırlarını nasıl aldığımızı bilmek istiyorum (yukarıdaki resimde siyah çizgileri sever). Orijinal (yüksek) …

1
MANOVA LDA ile nasıl ilişkilidir?
Birçok yerde, MANOVA'nın ANOVA artı lineer diskriminant analizi (LDA) gibi olduğunu iddia ettim, ancak her zaman elle sallanan bir şekilde yapıldı. Tam olarak ne anlama geldiğini bilmek istiyorum . MANOVA hesaplamalarının tüm ayrıntılarını açıklayan çeşitli ders kitapları buldum, ancak istatistikçi olmayan birisinin erişebileceği iyi genel tartışmaları (yalnız resimler ) bulmak …

2
Doğrusal diskriminant analizi boyutları nasıl azaltır?
"İstatistiksel Öğrenmenin Unsurları" sayfa 91'den kelimeler var: P-boyutlu giriş uzayındaki K sentroidleri çoğu K-1 boyutlu alt uzayda uzanır ve p, K'den çok daha büyükse, bu boyutta önemli bir düşüş olacaktır. İki sorum var: Neden p-boyutlu girdi uzayındaki K sentroidleri en çok K-1 boyutlu altuzada yayılır? K sentroidleri nasıl bulunur? Kitapta …



3
Lojistik regresyona karşı diskriminant analizi
Bazı ayrımcı analiz uzmanları buldum ve onlar hakkında sorularım var. Yani: Sınıflar iyi ayrıldığında, lojistik regresyon için parametre tahminleri şaşırtıcı bir şekilde kararsızdır. Katsayılar sonsuza gidebilir. LDA bu sorundan muzdarip değildir. Özelliklerin sayısı azsa ve yordayıcılarının dağılımı XXXsınıfların her birinde yaklaşık olarak normalse, doğrusal ayırıcı model yine lojistik regresyon modelinden …


1
Toplam (sınıf içinde + sınıf arasında) dağılım matrisinin türetilmesi
PCA ve LDA yöntemleri ile uğraşıyordum ve bir noktada takılı kaldım, göremediğim kadar basit bir his var. İçinde sınıfının ( ) arasında sınıfının ( S B ) dağılım matrisleri gibi tanımlanır:SWSWS_WSBSBS_B SW= ∑i = 1CΣt = 1N-( xbent- μben) ( xbent- μben)TSW=∑i=1C∑t=1N(xti−μi)(xti−μi)T S_W = \sum_{i=1}^C\sum_{t=1}^N(x_t^i - \mu_i)(x_t^i - \mu_i)^T SB= …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.