Le chargement dans l'analyse factorielle ou dans l'ACP ( voir 1 , voir 2 , voir 3 ) est le coefficient de régression, le poids dans une combinaison linéaire prédisant des variables (éléments) par des facteurs / composants normalisés (variance unitaire).
1
Raison 1: matrice de covariance analysée.
Si les variables analysées étaient normalisées, c'est-à-dire que l'analyse était basée sur une matrice de corrélation , puis après extraction ou après rotation orthogonale (comme varimax) - lorsque les facteurs / composants restent non corrélés - les charges sont également les coefficients de corrélation. C'est la propriété de l'équation de régression linéaire: avec des prédicteurs orthogonaux standardisés, les paramètres sont égaux aux corrélations de Pearson. Ainsi, dans un tel cas, le chargement ne peut pas dépasser [-1, 1].
Mais si l'analyse n'était que des variables centrées, c'est-à-dire que l'analyse était basée sur une matrice de covariance , alors les chargements ne doivent pas être limités à [-1, 1] parce que les coefficients de régression est qu'un tel modèle n'a pas besoin d'être égal aux coefficients de corrélation. Ce sont en fait des covariances. Notez qu'il s'agissait de chargements bruts. Il existe des chargements "redimensionnés" ou "standardisés" (décrits dans les liens que j'ai donnés au 1er paragraphe) qui sont redimensionnés pour ne pas quitter la bande [-1, 1].
Raison 2: rotation oblique. Après une rotation oblique telle que promax ou oblimin, nous avons deux types de charges: la matrice de modèle (coefficients de régression ou charges en soi) et la matrice de structure (coefficients de corrélation). Ils ne sont pas égaux entre eux pour la raison donnée ci-dessus: les coefficients de régression des prédicteurs corrélés sont différents des corrélations de Pearson. Ainsi, un chargement de motif peut facilement dépasser [-1, 1]. Notez que cela est vrai même lorsque la matrice de corrélation était la matrice analysée. Ainsi, c'est ainsi que lorsque les facteurs / composants sont obliques.
Raison 3 (rare): affaire Heywood. Le cas de Heywood ( pt 6 ) est une difficulté dans les algorithmes d'analyse factorielle lorsque, lors des itérations, le chargement dépasse la magnitude théoriquement autorisée - il se produit lorsque la communauté dépasse la variance. Le cas de Heywood est une situation rare et se rencontre généralement sur certains ensembles de données lorsqu'il y a trop peu de variables pour prendre en charge le nombre de facteurs requis. Les programmes informent qu'il y a une erreur de cas Heywood et arrêtent ou essaient de la résoudre.