Comment le «théorème fondamental de l'analyse factorielle» s'applique-t-il à l'ACP, ou comment les charges de l'ACP sont-elles définies?


14

Je passe actuellement par un jeu de diapositives que j'ai pour "l'analyse factorielle" (PCA pour autant que je sache).

On y dérive le "théorème fondamental de l'analyse factorielle" qui prétend que la matrice de corrélation des données entrant dans l'analyse ( ) peut être récupérée en utilisant la matrice des chargements factoriels ( ):RUNE

R=UNEUNE

Cela m'embrouille cependant. Dans l'ACP, la matrice des «facteurs de charge» est donnée par la matrice des vecteurs propres de la matrice de covariance / corrélation des données (puisque nous supposons que les données ont été normalisées, elles sont les mêmes), chaque vecteur propre étant mis à l'échelle pour avoir longueur un. Cette matrice est orthogonal, donc qui est en général égale à ne pas .UNEUNE=jeR


En plus de la réponse de @ amoeba , regardez dans ma réponse concernant l'ambiguïté terminologique. Je ne recommande pas d'appeler la matrice des vecteurs propres A(qui sont des chargements), pour des raisons de clarté. La matrice de vecteur propre (côté droit) est généralement étiquetée V(car R=USV'par svd), non A. Un autre nom équivalent (provenant de la terminologie du biplot) pour les vecteurs propres est "coordonnées standard", et pour les chargements est "coordonnées principales".
ttnphns

("coordonnées standard" - parce que l'inertie, ou l'échelle des valeurs propres, est la grandeur unitaire lors de leur dotation; "coordonnées principales" - parce que c'est la pleine grandeur d'origine lors de leur dotation.)
ttnphns

Réponses:


17

Il s'agit d'une question raisonnable (+1) qui découle de l'ambiguïté et de la confusion terminologiques.

Dans le contexte de l'ACP, les gens appellent souvent les axes principaux (vecteurs propres de la matrice de covariance / corrélation) "chargements". C'est une terminologie bâclée. Ce qui devrait plutôt être appelé "chargements" dans l'ACP, sont les axes principaux mis à l'échelle par les racines carrées des valeurs propres respectives. Ensuite, le théorème auquel vous faites référence tiendra.

En effet, si la décomposition propre de la matrice de corrélation est où sont des vecteurs propres (axes principaux) et est une matrice diagonale de valeurs propres, et si nous définissons les chargements comme alors on peut facilement voir queDe plus, la meilleure approximation de rang à la matrice de corrélation est donnée par les premiers chargements PCA:

R=VSV
VS
UNE=VS1/2,
R=UNEUNE.
rr
RUNErUNEr.

Veuillez consulter ma réponse ici pour en savoir plus sur la reconstruction de matrices de covariance avec l'analyse factorielle et les chargements PCA.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.