Doğrusal bir diskriminant analizindeki (LDA) ölçeklendirme değerleri, doğrusal diskriminantlar üzerindeki açıklayıcı değişkenleri çizmek için kullanılabilir mi?


11

Temel bileşen analizi ile elde edilen değerlerin bir biplotunu kullanarak, her bir temel bileşeni oluşturan açıklayıcı değişkenleri incelemek mümkündür. Bu Doğrusal Ayırım Analiziyle de mümkün müdür?

Sağlanan örneklerde veriler "Edgar Anderson'ın İris Verileri" dir ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). İşte iris verileri :

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

R'deki iris veri kümesini kullanan örnek PCA biplotu (aşağıdaki kod):

resim açıklamasını buraya girin

Bu şekil, Petal uzunluğu ve Petal genişliğinin PC1 skorunun belirlenmesinde ve Türler grupları arasında ayrım yapılmasında önemli olduğunu göstermektedir. setosa daha küçük yaprakları ve daha geniş sepalsları vardır.

Görünüşe göre, LDA grafiğinin ne sunacağından emin olmadığım halde, bu nedenle doğrusal ayrımcı analiz sonuçları çizmekten benzer sonuçlar çıkarılabilir. Eksen ilk iki lineer ayırıcıdır (LD1% 99 ve LD2% 1 iz). Kırmızı vektörlerin koordinatları, "ölçekleme" olarak da tanımlanan "lineer diskriminantların katsayıları" dır (lda.fit $ ölçeklendirme: gözlemleri, grup içi kovaryans matrisi küresel olacak şekilde normalize edilmiş, ayırt edici işlevlere dönüştüren bir matris). "ölçekleme" olarak hesaplanır diag(1/f1, , p)ve f1 is sqrt(diag(var(x - group.means[g, ]))). Veriler doğrusal ayırıcılara (predict.lda kullanılarak) yansıtılabilir (aşağıdaki kod, gösterildiği gibi https://stackoverflow.com/a/17240647/742447). Veriler ve prediktör değişkenleri, hangi türlerin prediktör değişkenlerinin görülebileceği bir artışla tanımlandığı şekilde birlikte çizilir (normal PCA biploları ve yukarıdaki PCA biplotu için yapıldığı gibi) .:

R'deki iris veri kümesini kullanan örnek LDA biplotu

Bu çizimden, Sepal genişlik, Petal Genişliği ve Petal Uzunluk LD1 ile benzer bir seviyeye katkıda bulunur. Beklendiği gibi, setosa daha küçük yapraklara ve daha geniş sepallere benziyor.

R'de LDA'dan bu tür diplomatlar çizmenin yerleşik bir yolu yok ve bu çevrimiçi hakkında birkaç tartışma var, bu da beni bu yaklaşıma karşı uyarıyor.

Bu LDA grafiği (aşağıdaki koda bakınız), öngörücü değişken ölçeklendirme puanlarının istatistiksel olarak geçerli bir yorumunu sağlıyor mu?

PCA için kod:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

LDA kodu

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

LDA sonuçları aşağıdaki gibidir

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088

Kodunuzu takip edemiyorum (R kullanıcısı değilim ve açıklanamayan resimler ve açıklanamayan kod yerine gerçek verileri ve sonuç değerlerini görmeyi tercih ederim ), üzgünüm. Arsalarınız ne çiziyor? Kırmızı vektörlerin koordinatları nelerdir - latentlerin veya değişkenlerin regresyon ağırlıkları? Veri paralarını da ne için çizdiniz? Nedir discriminant predictor variable scaling scores? - terim bana ortak ve garip değil gibi geliyor.
ttnphns

@ttnphns: soruya yansıtılan soru geliştirmelerini önerdiğiniz için teşekkür ederiz.
Etienne Low-Décarie

Hala ne olduğunu bilmiyorum predictor variable scaling scores. Belki "ayırt edici puanlar"? Her neyse, ilginizi çekebilecek bir cevap ekledim.
ttnphns

Yanıtlar:


7

Temel bileşenler analizi ve Doğrusal ayırıcı analiz çıktıları ; iris verisi .

Biplots çizmeyeceğim çünkü biplots çeşitli normalizasyonlarla çizilebilir ve bu nedenle farklı görünebilir. Ben Rkullanıcı olmadığımdan , arazilerinizi nasıl ürettiğinizi takip etmekte zorluk çekiyorum. Bunun yerine, PCA ve LDA yapmak ve benzer bir şekilde sonuçlarını gösterecektir bu (okumak isteyebilirsiniz). Her iki analiz de SPSS'de yapıldı.

Temel bileşenler arasında iris veri :

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

Yorumlamak gerekirse, tipik olarak temel bileşenleri (veya faktör analizindeki faktörleri) yorumladığımız özvektörler değil , yükler olduğunu vurgulamak önemlidir . Yükler, standartlaştırılmış bileşenlerle değişkenlerin modellenmesinin regresyonel katsayılarıdır . Aynı zamanda, bileşenler birbiriyle ilişkili olmadığından, bu bileşenler ve değişkenler arasındaki kovaryanslardır . Korelasyonlar gibi standartlaştırılmış (yeniden ölçeklendirilmiş) yüklemeler 1'i aşamaz ve değişkenlerin eşit olmayan varyanslarının etkisi kaldırıldığı için yorumlanması daha kullanışlıdır.

Bileşen skorlarıyla yan yana bir biplotta görüntülenen özvektörler değil yüklerdir ; ikincisi genellikle sütun normalleştirilmiş olarak görüntülenir.


Doğrusal ayırıcılar arasında iris verileri :

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

LDA'da ayrımcıların çıkarılmasıyla ilgili hesaplamalar için lütfen buraya bakın . Ayrımcıları genellikle ayrımcı katsayılar veya standartlaştırılmış ayrımcı katsayılar ile yorumlarız (ikincisi daha kullanışlıdır, çünkü değişkenlerdeki diferansiyel varyans çıkarılır). PCA'daki gibi. Ancak, not: buradaki katsayılar , PCA'da olduğu gibi, ayrımcıların değişkenlere göre modellenmesinin regresyonel katsayılarıdır . Değişkenler birbiriyle ilişkili olmadığı için, katsayılar değişkenler ve ayrımcılar arasında kovaryans olarak görülemez.

Yine de, bunun yerine, ayrımcıların ve değişkenler arasındaki grup içi korelasyonların ayrımcıların yorumlanmasına alternatif bir kaynak işlevi görebilecek başka bir matrisimiz var. Diskriminantlar PC'ler gibi ilişkisiz olduğundan, bu matris bir anlamda PCA'nın standartlaştırılmış yüklemelerine benzer.

Toplamda, PCA'da latentleri yorumlamaya yardımcı olmak için tek matriks - yüklemeler - varken, LDA'da bunun için iki alternatif matrisimiz var. Eğer çizmeniz gerekiyorsa (biplot ya da her neyse), katsayıları mı yoksa korelasyonları mı çizeceğinize karar vermelisiniz.

Ve elbette, PCA'da iris verilerinin bileşenlerin 3 sınıf olduğunu "bilmediğini" hatırlatmaya gerek yoktur; sınıfları ayırt etmeleri beklenemez . Ayrımcılar sınıfları “bilir” ve ayrımcılık yapmak onların doğal işidir.


Dolayısıyla, keyfi ölçeklemeden sonra, sonuçları iki farklı şekilde yorumlamak için "Standartlaştırılmış ayrımcı katsayıları" veya "Değişkenler ve ayrımcılar arasındaki havuzlanmış grup içi korelasyonları" aynı eksen üzerinde çizebilir miyim? Sorumda, "Standartlaştırılmamış ayrımcı katsayıları", "Diskriminant skorları" ile aynı eksen üzerinde çizmiştim.
Etienne Low-Décarie

1
@Etienne İstediğiniz ayrıntıları bu yanıt istatistiklerinin altına ekledim . Stackexchange.com/a/48859/3277 . Cömertliğiniz için teşekkür ederim.
ttnphns

1
@TLJ, değişkenler ve standart bileşenler arasında olmalıdır . Kelimeyi ekledim. Lütfen bakınız burada : Loadings are the coefficients to predict...yanı sıra burada : [Footnote: The components' values...]. Yükler, bunlar ile yükler arasındaki kovaryanslar nedeniyle, standartlaştırılmış ve dikey bileşenlerdeki değişkenleri hesaplamak için katsayılardır.
ttnphns

1
@TLJ, "bunlar ve bunlar" = değişkenler ve bileşenler. Ham bileşen puanlarını hesapladığınızı söylediniz. Her bileşeni varyans = 1 olacak şekilde standartlaştırın. Değişkenler ve bileşenler arasındaki kovaryansları hesaplar. Bu yüklemeler olurdu. "Standartlaştırılmış" veya "yeniden ölçeklendirilmiş" yükleme, yükleme işleminin st. ilgili değişkenin sapması.
ttnphns

1
Yükleme karesi , değişkenin bileşen tarafından muhasebeleştirilen varyansının payıdır.
ttnphns

4

Anladığım kadarıyla doğrusal diskriminant analizlerinin diplomaları yapılabilir, aslında R paketleri ggbiplot ve ggord'da uygulanır ve bunu yapmak için başka bir işlev bu StackOverflow iş parçacığında yayınlanır .

Ayrıca M. Greenacre'in "Uygulamada Biplots" kitabının üzerinde bir bölüm (bölüm 11, pdf'ye bakınız ) vardır ve Şekil 11.5'te iris veri kümesinin doğrusal bir ayrımcı analizinin bir biplotunu gösterir: resim açıklamasını buraya girin


Aslında, kitabın tamamına çevrimiçi olarak (bölüm başına bir pdf) buradan ulaşabilirsiniz multivariatestatistics.org/biplots.html .
amip

Aha tehlikeli web sitelerine bile gerek yok, bunun için teşekkürler!
Tom Wenseleers

2

Bunun bir yıl önce sorulduğunu biliyorum ve ttnphns mükemmel ve derinlemesine bir cevap verdi, ancak ekolojik açıdan yararlı olması için PCA ve LDA ile ilgilenenler için (benim gibi) birkaç yorum ekleyeceğimi düşündüm. ancak istatistiki geçmişi sınırlı (istatistikçi değil).

PCA'daki PC'ler, çok boyutlu veri kümesindeki toplam varyansı sırayla maksimum olarak açıklayan orijinal değişkenlerin doğrusal kombinasyonlarıdır. Orijinal değişkenler kadar PC'niz olacak. PC'lerin açıkladığı varyansın yüzdesi, kullanılan benzerlik matrisinin özdeğerleriyle verilir ve her yeni PC'deki her orijinal değişken için katsayı özvektörler tarafından verilir. PCA'nın gruplar hakkında varsayımları yoktur. PCA, birden fazla değişkenin verilerinizdeki değerinde nasıl değiştiğini görmek için çok iyidir (örneğin bir biplotta). Bir PCA'yı yorumlamak büyük ölçüde biplota dayanır.

LDA çok önemli bir nedenden ötürü farklıdır - gruplar arasındaki varyansı en üst düzeye çıkararak yeni değişkenler (LD'ler) oluşturur. Bunlar hala orijinal değişkenlerin doğrusal kombinasyonlarıdır, ancak her bir ardışık LD ile mümkün olduğunca çok varyansı açıklamak yerine, bu yeni değişken boyunca gruplar arasındaki FARKI en üst düzeye çıkarmak için çizilirler. Benzerlik matrisinden ziyade, LDA (ve MANOVA) gruplar ve kareler arasındaki toplam kareler ve çapraz ürünler karşılaştırma matrisini kullanır. Bu matrisin özvektörleri - OP'nin başlangıçta ilgilendiği katsayılar - orijinal değişkenlerin yeni LD'lerin oluşumuna ne kadar katkıda bulunduğunu açıklar.

Bu nedenlerden ötürü, PCA'nın özvektörleri, bir değişkenin veri bulutunuzdaki değerinin nasıl değiştiği ve veri kümenizdeki toplam varyansın LDA'dan ne kadar önemli olduğu hakkında daha iyi bir fikir verecektir. Bununla birlikte, LDA, özellikle bir MANOVA ile kombinasyon halinde, size gruplarınızın çok değişkenli sentroidlerinde istatistiksel bir fark testi ve puanların ilgili gruplarına tahsisinde bir hata tahmini verecektir (bir anlamda, çok değişkenli etki büyüklüğü). Bir LDA'da, bir değişken gruplar arasında doğrusal olarak (ve önemli ölçüde) değişse bile, bir LD üzerindeki katsayısı bu etkinin "ölçeğini" göstermeyebilir ve tamamen analize dahil edilen diğer değişkenlere bağlı olabilir.

Umarım bu açıktı. Zaman ayırdığınız için teşekkürler. Aşağıdaki resme bakın ...

PC'ler ve LD'ler farklı şekilde oluşturulur ve bir LD için katsayılar, veri kümenizdeki orijinal değişkenlerin nasıl değiştiğine dair bir fikir vermeyebilir


Bu doğru ve benden +1, ancak cevabınızın orijinal soruyu nasıl ele aldığından emin değilim, bu da özellikle bir LDA biplotunun nasıl çizileceği ile ilgiliydi.
amip

Sanırım haklısın - buna yanıt veriyordum, çoğunlukla "Temel bileşen analizi ile elde edilen değerlerin bir biplotunu kullanarak, her bir temel bileşeni oluşturan açıklayıcı değişkenleri keşfetmek mümkündür. Bu, Doğrusal Diskriminant Analizi ile de mümkün mü? " - ve cevap, evet, ama yukarıda açıklandığı gibi anlamı çok farklı ... Yorum ve +1 için teşekkürler!
danno
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.