«discriminant-analysis» etiketlenmiş sorular

Doğrusal Diskriminant Analizi (LDA) boyutsallık azaltma ve sınıflandırma yöntemidir. En güçlü sınıf ayrımı ile düşük boyutlu altuzayı bulur ve sınıflandırma yapmak için kullanır. Bu etiketi ikinci dereceden DA (QDA) için de kullanın.

1
Denetimli boyut azalması
15K etiketli örneklerden (10 gruptan) oluşan bir veri setim var. Boyutların azaltılmasını etiketlerin bilgisini dikkate alan 2 boyuta uygulamak istiyorum. PCA gibi "standart" denetimsiz boyutsallık azaltma tekniklerini kullandığımda, saçılma grafiğinin bilinen etiketlerle ilgisi yok gibi görünüyor. Aradığım şeyin bir adı var mı? Bazı çözüm referanslarını okumak istiyorum.

2
Grupları ayıran PCA bileşenlerini seçme
Sıklıkla PCA (yüzbinlerce değişken ve düzinelerce veya yüzlerce örnek içeren omics verileri) kullanarak çok değişkenli verilerimi teşhis etmek için kullanılırdım. Veriler genellikle bazı grupları tanımlayan birkaç kategorik bağımsız değişkenle yapılan deneylerden gelir ve ilgilenen gruplar arasında bir ayrım gösterenleri bulabilmek için genellikle birkaç bileşenden geçmem gerekir. Bu tür ayrımcı bileşenleri …

1
LDA Cebiri. Bir değişkenin Fisher ayrım gücü ve Doğrusal Ayırım Analizi
Görünüşe göre, Fisher analizi, sınıf içi dağılımı en aza indirirken aynı zamanda sınıflar arası ayrımı en üst düzeye çıkarmayı amaçlamaktadır. Bu nedenle, bir değişkenin ayrımcılık gücünün yararlı bir ölçüsü, diyagonal miktar ile verilir: .Bii/WiiBii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html p x p( B ) ve Sınıf İçi ( W ) Arasındaki matrislerin boyutunun ( …


2
Fisher kriter ağırlıkları nasıl hesaplanır?
Örüntü tanıma ve makine öğrenimi üzerine çalışıyorum ve aşağıdaki soru ile karşılaştım. Eşit önceki sınıf olasılığına sahip iki sınıflı bir sınıflandırma problemi düşününP(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} ve verilen her sınıftaki örneklerin dağılımı p(x|D1)=N([00],[2001]),p(x|D1)=N([00],[2001]), p(x|D_1)= {\cal N} \left( \begin{bmatrix} 0 \\0 \end{bmatrix}, \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \right), p(x|D2)=N([44],[1001]).p(x|D2)=N([44],[1001]). …


2
Sınıflandırma problemlerinde sınıf ayrılabilirliğinin ölçüleri
Doğrusal ayrımcı öğrenicilerde sınıf ayrılığının iyi bir ölçüsünün bir örneği Fisher'in doğrusal ayrımcı oranıdır. Özellik kümelerinin hedef değişkenler arasında iyi bir sınıf ayrımı sağlayıp sağlamadığını belirlemek için başka yararlı metrikler var mı? Özellikle, hedef sınıfı ayırmayı en üst düzeye çıkarmak için iyi çok değişkenli girdi öznitelikleri bulmakla ilgileniyorum ve iyi …

3
Doğrusal bir diskriminant analizindeki (LDA) ölçeklendirme değerleri, doğrusal diskriminantlar üzerindeki açıklayıcı değişkenleri çizmek için kullanılabilir mi?
Temel bileşen analizi ile elde edilen değerlerin bir biplotunu kullanarak, her bir temel bileşeni oluşturan açıklayıcı değişkenleri incelemek mümkündür. Bu Doğrusal Ayırım Analiziyle de mümkün müdür? Sağlanan örneklerde veriler "Edgar Anderson'ın İris Verileri" dir ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). İşte iris verileri : id SLength SWidth PLength PWidth species 1 5.1 3.5 …

3
Sınıflandırmada ne zaman LDA yerine PCA kullanırsınız?
İlke Bileşen Analizi ve Çoklu Diskriminant Analizi (Doğrusal Diskriminant Analizi) arasındaki fark üzerine bu makaleyi okuyorum ve neden MDA / LDA yerine PCA kullanacağınızı anlamaya çalışıyorum. Açıklama aşağıdaki gibi özetlenmiştir: kabaca PCA'da verinin en fazla yayıldığı maksimum varyanslı eksenleri bulmaya çalışıyoruz (bir sınıf içinde, PCA tüm veri setini bir sınıf …

1
Bayesian ve Fisher'ın lineer diskriminant analizine yaklaşımları
LDA yapmak için 2 yaklaşım, Bayesci yaklaşım ve Fisher yaklaşımı biliyorum . Verilerin olduğunu varsayalım , burada , boyutlu tahmin edicidir ve , sınıflarının bağımlı değişkenidir .(x,y)(x,y)(x,y)xxxpppyyyKKK Tarafından Bayes yaklaşım , posterior hesaplamak , ve benzeri gibi Kitaplarda, olduğunu varsayalım , şimdi sınıfı için ayırıcı işlevimiz var , doğrusal olduğunu …

1
Kurtosis tarafından üretilen aykırı değerlerin tedavisi
Birisi bana Kurtosis hakkında bilgi konusunda yardım edip edemeyeceğini merak ediyordum (yani verilerinizi azaltmak için dönüştürmenin herhangi bir yolu var mı?) Çok sayıda vaka ve değişken içeren bir anket veri setim var. Değişkenlerimden birkaçı için veriler, katılımcıların çoğunun değişken için tam olarak aynı puanı verdiği gerçeğinden türetilen oldukça yüksek basıklık …

1
Küme Analizi ve ardından Ayırım Analizi
Literatürde zaman zaman gördüğüm gibi (esas olarak zihinsel bozuklukların klinik alt tiplendirmesinde) k-ortalamaları gibi bir kümeleme algoritmasının sonuçlarında Diskriminant Analizini (DA) kullanmanın mantığı nedir? Genellikle, sınıflar arası (sınıf içinde sırasıyla) ataletin maksimizasyonunu (sırasıyla minimizasyon) destekledikleri için, küme yapımı sırasında kullanılan değişkenler üzerindeki grup farklılıklarının test edilmesi önerilmez. Bu nedenle, bireyleri …

1
Kaynakların doğrusal, karesel ve Fisher'ın ayrımcı analizi üzerindeki anlaşmazlığı
Ayrımcı analiz çalışıyorum, ancak birkaç farklı açıklamayı uzlaştırmakta zorlanıyorum. Bir şeyleri kaçırmam gerektiğine inanıyorum, çünkü daha önce bu (görünüşte) tutarsızlıkla karşılaşmadım. Bununla birlikte, bu web sitesinde ayrımcı analiz ile ilgili soruların sayısı, karmaşıklığının bir kanıtı gibi görünmektedir. Çeşitli sınıflar için LDA ve QDA Ana ders kitabım Johnson & Wichern Uygulamalı …

3
LDA ve algılayıcı
LDA'nın diğer denetimli öğrenme tekniklerine nasıl uyduğuna dair bir fikir edinmeye çalışıyorum. LDA hakkındaki bazı LDA esque yayınlarını zaten okudum. Algılayıcıya zaten aşinayım, ama şimdi sadece LDA öğreniyorum. LDA denetimli öğrenme algoritmaları ailesine nasıl 'uyum sağlar'? Diğer yöntemlere karşı dezavantajları neler olabilir ve ne için daha iyi kullanılabilir? Örneğin, örneğin …

1
LDA'yı ön işleme adımı olarak kullanırken özellikleri standartlaştırma
Boyutsallık azalması (veya PCA yoluyla boyutsallık azalmasından sonra dönüşüm) için çok sınıflı bir Lineer Diskriminant Analizi (veya bazen Birden Çok Diskriminant Analizi de okurum) kullanılıyorsa, genel olarak bir "Z skoru normalizasyonu" (veya standardizasyonu) özellikler tamamen farklı ölçeklerde ölçülseler bile gerekli değil mi? LDA, halihazırda normalleştirilmiş Öklid mesafelerini ima eden Mahalanobis …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.