Les valeurs d'échelle dans une analyse discriminante linéaire (LDA) peuvent-elles être utilisées pour tracer des variables explicatives sur les discriminants linéaires?


11

En utilisant un biplot de valeurs obtenues par l'analyse des composantes principales, il est possible d'explorer les variables explicatives qui composent chaque composante principale. Est-ce également possible avec l'analyse discriminante linéaire?

Les exemples fournis utilisent les données suivantes: "Les données de l'iris d'Edgar Anderson" ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Voici les données de l' iris :

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

Exemple de biplot PCA utilisant l'ensemble de données iris dans R (code ci-dessous):

entrez la description de l'image ici

Cette figure indique que la longueur et la largeur des pétales sont importantes pour déterminer le score PC1 et pour distinguer les groupes d'espèces. setosa a des pétales plus petits et des sépales plus larges.

Apparemment, des conclusions similaires peuvent être tirées du traçage des résultats d'analyse discriminante linéaire, bien que je ne sois pas certain de ce que présente le tracé LDA, d'où la question. L'axe sont les deux premiers discriminants linéaires (LD1 99% et LD2 1% de trace). Les coordonnées des vecteurs rouges sont des "Coefficients de discriminants linéaires" également appelés "scaling" (lda.fit $ scaling: une matrice qui transforme les observations en fonctions discriminantes, normalisées de telle sorte qu'au sein des groupes la matrice de covariance soit sphérique). "mise à l'échelle" est calculé comme diag(1/f1, , p)et f1 is sqrt(diag(var(x - group.means[g, ]))). Les données peuvent être projetées sur les discriminants linéaires (en utilisant predict.lda) (code ci-dessous, comme démontré https://stackoverflow.com/a/17240647/742447). Les données et les variables prédictives sont tracées ensemble afin que les espèces soient définies par une augmentation du nombre de variables prédictives visibles (comme cela est fait pour les biplots PCA habituels et le biplot PCA ci-dessus).

Exemple de biplot LDA utilisant l'ensemble de données iris dans R

À partir de cette parcelle, la largeur du sépale, la largeur du pétale et la longueur du pétale contribuent toutes à un niveau similaire à LD1. Comme prévu, la setosa apparaît avec des pétales plus petits et des sépales plus larges.

Il n'y a aucun moyen intégré de tracer de tels biplots de LDA dans R et peu de discussions sur ce site en ligne, ce qui me rend méfiant de cette approche.

Ce graphique LDA (voir le code ci-dessous) fournit-il une interprétation statistiquement valide des scores de mise à l'échelle des variables prédictives?

Code pour PCA:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

Code pour LDA

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

Les résultats de la LDA sont les suivants

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088

Je ne peux pas suivre votre code (je ne suis pas un utilisateur R et je préférerais voir les données réelles et les valeurs des résultats plutôt que des images inexpliquées et du code inexpliqué), désolé. Que tracent vos parcelles? Quelles sont les coordonnées des vecteurs rouges - poids de régression des latentes ou des variables? Pourquoi avez-vous également tracé des poins de données? Qu'est-ce que c'est discriminant predictor variable scaling scores? - le terme me semble peu commun et étrange.
ttnphns

@ttnphns: merci d'avoir suggéré des améliorations de question qui sont maintenant reflétées dans la question.
Etienne Low-Décarie

Je ne sais toujours pas ce que c'est predictor variable scaling scores. Peut-être des "scores discriminants"? Quoi qu'il en soit, j'ai ajouté une réponse qui pourrait vous intéresser.
ttnphns

Réponses:


7

Analyses des composants principaux et sorties d'analyse discriminante linéaire ; données d'iris .

Je ne dessinerai pas de biplots car les biplots peuvent être dessinés avec différentes normalisations et peuvent donc avoir un aspect différent. Comme je ne suis pas Rutilisateur, j'ai du mal à retrouver comment vous avez produit vos tracés, à les répéter. Au lieu de cela, je ferai PCA et LDA et afficherai les résultats, d'une manière similaire à cela (vous voudrez peut-être lire). Les deux analyses effectuées dans SPSS.

Composantes principales des données sur l'iris :

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

Il est important de souligner que ce sont les charges, et non les vecteurs propres, par lesquels nous interprétons généralement les principaux composants (ou facteurs dans l'analyse factorielle) - si nous devons interpréter. Les charges sont les coefficients de régression des variables de modélisation par des composants normalisés . En même temps, comme les composants ne sont pas intercorrélés, ce sont les covariances entre ces composants et les variables. Les charges normalisées (rééchelonnées), comme les corrélations, ne peuvent pas dépasser 1 et sont plus pratiques à interpréter car l'effet des variances inégales des variables est supprimé.

Ce sont les chargements, et non les vecteurs propres, qui sont généralement affichés sur un biplot côte à côte avec les scores des composants; ces derniers sont souvent affichés normalisés en colonne.


Discriminants linéaires des données de l' iris :

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

À propos des calculs lors de l'extraction des discriminants dans LDA, veuillez consulter ici . Nous interprétons les discriminants généralement par des coefficients discriminants ou des coefficients discriminants standardisés (ces derniers sont plus pratiques car la variance différentielle des variables est supprimée). C'est comme dans PCA. Mais, notez: les coefficients sont ici les coefficients de régression de la modélisation des discriminants par variables , et non l'inverse, comme c'était le cas dans l'ACP. Les variables n'étant pas non corrélées, les coefficients ne peuvent pas être considérés comme des covariances entre variables et discriminants.

Pourtant, nous avons à la place une autre matrice qui peut servir de source alternative d'interprétation des discriminants - des corrélations regroupées au sein du groupe entre les discriminants et les variables. Parce que les discriminants ne sont pas corrélés, comme les PC, cette matrice est dans un sens analogue aux chargements standardisés de PCA.

En tout, alors que dans PCA nous avons la seule matrice - les chargements - pour aider à interpréter les latentes, dans LDA nous avons deux matrices alternatives pour cela. Si vous devez tracer (biplot ou autre), vous devez décider de tracer des coefficients ou des corrélations.

Et, bien sûr, inutile de rappeler que dans l'ACP des données d'iris, les composants ne "savent" pas qu'il existe 3 classes; on ne peut pas s'attendre à ce qu'ils discriminent les classes. Les discriminants "savent" qu'il y a des classes et c'est leur travail naturel qui est de discriminer.


Je peux donc tracer, après une mise à l'échelle arbitraire, soit des «coefficients discriminants standardisés» soit des «corrélations regroupées à l'intérieur des groupes entre variables et discriminants» sur le même axe que les «scores discriminants» pour interpréter les résultats de deux manières différentes? Dans ma question, j'avais tracé les «coefficients discriminants non normalisés» sur le même axe que les «scores discriminants».
Etienne Low-Décarie

1
@Etienne J'ai ajouté les détails que vous avez demandés au bas de cette réponse stats.stackexchange.com/a/48859/3277 . Merci pour votre générosité.
ttnphns

1
@TLJ, devrait être: entre les variables et les composants standardisés . J'ai inséré le mot. Voir s'il vous plaît ici : Loadings are the coefficients to predict...aussi bien que ici : [Footnote: The components' values...]. Les chargements sont des coefficients pour calculer des variables à partir de composants normalisés et orthogonaux, en vertu de quels chargements sont les covariances entre celles-ci et celles-ci.
ttnphns

1
@TLJ, "these and those" = variables et composants. Vous avez dit avoir calculé les scores des composants bruts. Normaliser chaque composant pour une variance = 1. Calculez les covariances entre les variables et les composants. Ce seraient les chargements. Le chargement «normalisé» ou «redimensionné» est le chargement divisé par la m. écart de la variable respective.
ttnphns

1
Le chargement au carré est la part de la variance de la variable qui est prise en compte par la composante.
ttnphns

4

Ma compréhension est que des biplots d'analyses discriminantes linéaires peuvent être effectués, ils sont en fait implémentés dans les packages R ggbiplot et ggord et une autre fonction pour le faire est publiée dans ce thread StackOverflow .

Le livre "Biplots in practice" de M. Greenacre comporte également un chapitre (chapitre 11, voir pdf ) et à la figure 11.5, il montre un biplot d'une analyse discriminante linéaire de l'ensemble de données iris: entrez la description de l'image ici


En fait, l'intégralité du livre est disponible gratuitement en ligne (un pdf par chapitre) ici multivariatestatistics.org/biplots.html .
amoeba

Aha pas besoin de sites Web douteux même, merci pour ça!
Tom Wenseleers

2

Je sais que cela a été demandé il y a plus d'un an, et ttnphns a donné une excellente et approfondie réponse, mais j'ai pensé ajouter quelques commentaires pour ceux (comme moi) qui sont intéressés par PCA et LDA pour leur utilité en matière écologique. sciences, mais ont une formation statistique limitée (pas des statisticiens).

Les PC dans PCA sont des combinaisons linéaires de variables originales qui expliquent de manière séquentielle au maximum la variance totale dans l'ensemble de données multidimensionnel. Vous aurez autant de PC que de variables d'origine. Le pourcentage de la variance expliquée par les PC est donné par les valeurs propres de la matrice de similitude utilisée, et le coefficient pour chaque variable d'origine sur chaque nouveau PC est donné par les vecteurs propres. L'APC n'a aucune hypothèse sur les groupes. PCA est très bon pour voir comment plusieurs variables changent de valeur dans vos données (dans un biplot, par exemple). L'interprétation d'une PCA repose fortement sur le biplot.

LDA est différent pour une raison très importante - il crée de nouvelles variables (LD) en maximisant la variance entre les groupes. Ce sont toujours des combinaisons linéaires de variables d'origine, mais plutôt que d'expliquer autant de variance que possible avec chaque LD séquentiel, elles sont plutôt dessinées pour maximiser la DIFFÉRENCE entre les groupes le long de cette nouvelle variable. Plutôt qu'une matrice de similarité, LDA (et MANOVA) utilise une matrice de comparaison entre et au sein des groupes somme des carrés et des produits croisés. Les vecteurs propres de cette matrice - les coefficients qui étaient initialement concernés par le PO - décrivent dans quelle mesure les variables d'origine contribuent à la formation des nouveaux LD.

Pour ces raisons, les vecteurs propres de la PCA vous donneront une meilleure idée de la façon dont une variable change de valeur dans votre nuage de données et de l'importance de la variance totale de votre ensemble de données que la LDA. Cependant, le LDA, en particulier en combinaison avec une MANOVA, vous donnera un test statistique de différence dans les centroïdes multivariés de vos groupes, et une estimation de l'erreur dans l'allocation des points à leurs groupes respectifs (dans un sens, la taille de l'effet multivarié). Dans une LDA, même si une variable change de façon linéaire (et significative) d'un groupe à l'autre, son coefficient sur une LD peut ne pas indiquer l '"échelle" de cet effet et dépend entièrement des autres variables incluses dans l'analyse.

J'espère que c'était clair. Merci pour votre temps. Voir une image ci-dessous ...

Les PC et les LD sont construits différemment, et les coefficients d'un LD peuvent ne pas vous donner une idée de la façon dont les variables d'origine varient dans votre ensemble de données


Tout cela est correct et +1 de ma part, mais je ne sais pas comment votre réponse répond à la question d'origine, qui était très précisément sur la façon de dessiner un biplot LDA.
amoeba

Je suppose que vous avez raison - je répondais à cela, principalement "En utilisant un biplot de valeurs obtenues par l'analyse des composantes principales, il est possible d'explorer les variables explicatives qui composent chaque composante principale. Est-ce également possible avec l'analyse discriminante linéaire? " - et la réponse est oui, mais le sens est très différent, comme décrit ci-dessus ... Merci pour le commentaire et +1!
danno
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.