Sans essayer de donner un aperçu complet de la PCA, du point de vue de l'optimisation, l' objectif principal est le quotient de Rayleigh . La matrice qui figure dans le quotient est (un multiple de) l'exemple de matrice de covariance
,
où chaque est un vecteur de fonctions et est la matrice de telle sorte que la ième ligne est .xipxix T i
S=1n∑i=1nxixTi=XTX/n
xipXixTi
PCA cherche à résoudre une série de problèmes d'optimisation. Le premier de la séquence est le problème sans contrainte
maximizeuTSuuTu,u∈Rp.
Depuis, le problème ci-dessus non contraint est équivalent au problème contraint
uTu=∥u∥22=∥u∥∥u∥
maximizesubject touTSuuTu=1.
C’est ici que l’algèbre matricielle entre en jeu. Puisque est une matrice semi-définie positive symétrique (par construction!), Il possède une décomposition en valeurs propres de la forme
où est un matrice orthogonale (donc ) et est une matrice diagonale avec des entrées non négatives telles que .S
S=QΛQT,
QQQT=IΛλiλ1≥λ2≥⋯≥λp≥0
Par conséquent, . Puisque est contraint dans le problème à avoir une norme de un, alors il en est de même de puisque , en vertu de étant orthogonal.uTSu=uTQΛQTu=wTΛw=∑pi=1λiw2iuw∥w∥2=∥QTu∥2=∥u∥2=1Q
Mais, si nous voulons maximiser la quantité sous les contraintes que , le mieux que nous puissions faire est de définissez , c’est-à-dire et pour .∑pi=1λiw2i∑pi=1w2i=1w=e1w1=1wi=0i>1
Maintenant, en annulant le correspondant , ce que nous recherchions en premier lieu, nous obtenons que
où désigne la première colonne de , soit le vecteur propre correspondant à la plus grande valeur propre de . La valeur de la fonction objectif apparaît alors facilement comme étant .u
u⋆=Qe1=q1
q1QSλ1
Les vecteurs de composantes principales restants sont ensuite trouvés en résolvant la séquence (indexée par ) des problèmes d'optimisation
Le problème est donc le même, sauf que nous ajoutons la contrainte supplémentaire selon laquelle la solution doit être orthogonale à toutes les solutions précédentes de la séquence. Il est difficile de ne pas étendre l'argument ci - dessus pour montrer que inductivement la solution du e problème est, en effet, , le ème vecteur propre de .i
maximizesubject touTiSuiuTiui=1uTiuj=0∀1≤j<i.
iqiiS
La solution PCA est également souvent exprimée en termes de décomposition en valeurs singulières de . Pour voir pourquoi, laissez . Alors et ainsi de suite (à proprement parler, jusqu’à signer se retourne) et .XX=UDVTnS=XTX=VD2VTV=QΛ=D2/n
Les composants principaux sont trouvés en projetant sur les vecteurs des composants principaux. Dans la formulation SVD que nous venons de donner, il est facile de voir que
X
XQ=XV=UDVTV=UD.
La simplicité de la représentation des vecteurs de la composante principale et des composantes principales elles-mêmes en termes de SVD de la matrice de caractéristiques est l'une des raisons pour lesquelles la SVD est si bien en évidence dans certains traitements de PCA.