J'ai effectué une analyse en composantes principales de six variables A
Je suis juste curieux - y a-t-il un moyen de faire ça "à l'envers"? Disons que je choisis une combinaison linéaire de ces variables - par exemple A + 2 B + 5 C
J'ai effectué une analyse en composantes principales de six variables A
Je suis juste curieux - y a-t-il un moyen de faire ça "à l'envers"? Disons que je choisis une combinaison linéaire de ces variables - par exemple A + 2 B + 5 C
Réponses:
Si nous partons du principe que toutes les variables ont été centrées (pratique standard en ACP), alors la variance totale dans les données n'est que la somme des carrés:
T = ∑ i ( A 2 i + B 2 i + C 2 i + D 2 i + E 2 i + F 2 i )
Ceci est égal à la trace de la matrice de covariance des variables, qui est égale à la somme des valeurs propres de la matrice de covariance. C'est la même quantité dont PCA parle en termes d '«explication des données» - c'est-à-dire que vous voulez que vos PC expliquent la plus grande proportion des éléments diagonaux de la matrice de covariance. Maintenant, si nous en faisons une fonction objective pour un ensemble de valeurs prédites comme ceci:
S = Σ i ( [ A i - A i ] 2 + ⋯ + [ F i - F i ] 2 )
Ensuite , les premiers composants principaux Minimise S
Z i = 1√30 Ai+2√30 Bi+5√30 Ci
Ensuite, nous multiplions les scores par le vecteur de poids pour obtenir notre prédiction de rang 1.
( A i B i C i D i E i F i ) = Z i × ( 1√30 2√30 5√30 000)
Then we plug these estimates into S
||O||22−||O−E||22||O||22
Where ||.||2
Let's say I choose some linear combination of these variables -- e.g. A+2B+5C
A+2B+5C , could I work out how much variance in the data this describes?
This question can be understood in two different ways, leading to two different answers.
A linear combination corresponds to a vector, which in your example is [1,2,5,0,0,0]
Let X
This might not be immediately obvious, because e.g. @probabilityislogic suggests to consider the reconstruction Xww⊤
Okay. Now consider a following example: X
The total variance is T=2
On the other hand, the two variables have 0.99
It is a matter of straightforward algebra to use regression solution for v
Note that if (and only if) w
PS. See my answer here for an application of the derived formula to the special case of w
Finding v
Next, the R2
Plugging now the equation for v
The denominator is equal to ‖X‖2=tr(Σ)
Let the total variance, T, in a data set of vectors be the sum of squared errors (SSE) between the vectors in the data set and the mean vector of the data set, T=∑i(xi−ˉx)⋅(xi−ˉx)
Now let the predictor of xi, f(xi), be the projection of vector xi onto a unit vector c.
fc(xi)=(c⋅xi)c
Then the SSE for a given c is SSEc=∑i(xi−fc(xi))⋅(xi−fc(xi))
I think that if you choose c to minimize SSEc, then c is the first principal component.
If instead you choose c to be the normalized version of the vector (1,2,5,...), then T−SSEc is the variance in the data described by using c as a predictor.