Dans la classe actuelle de reconnaissance des formes, mon professeur a parlé de PCA, de vecteurs propres et de valeurs propres. J'ai compris les mathématiques de celui-ci. Si on me demande de trouver des valeurs propres, etc., je le ferai correctement comme une machine. Mais je n'ai pas compris . …
J'ai étudié la signification de la propriété semi-définie positive des matrices de corrélation ou de covariance. Je cherche des informations sur Définition de semi-définitif positif; Ses propriétés importantes, ses implications pratiques; Conséquence d'avoir un déterminant négatif, impact sur l'analyse multivariée, les résultats de simulation, etc.
J'ai eu une question étrange lorsque je testais des optimisations convexes. La question est: Supposons que je génère aléatoirement (par exemple, une distribution normale standard) une matrice symétrique ((par exemple, je génère une matrice triangulaire supérieure et je remplis la moitié inférieure pour s'assurer qu'elle est symétrique), quelle est la …
Quelle différence le centrage (ou la dé-signification) de vos données fait-il pour l'ACP? J'ai entendu dire que cela rend les calculs plus faciles ou qu'elle empêche le premier PC d'être dominé par les moyens des variables, mais j'ai l'impression que je n'ai pas encore pu saisir fermement le concept. Par …
J'étudie PCA du cours Coursera d'Andrew Ng et d'autres matériaux. Dans le premier devoir de Stanford NLP cs224n , et dans la vidéo de conférence d'Andrew Ng , ils font une décomposition en valeurs singulières au lieu de la décomposition en vecteur propre de la matrice de covariance, et Ng …
En PCA, lorsque le nombre de dimensions est supérieur (voire égal) au nombre d'échantillons , pourquoi avez-vous au plus vecteurs propres non nuls? En d'autres termes, le rang de la matrice de covariance parmi les dimensions est .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Exemple: Vos échantillons sont des images vectorisées, qui sont de dimension …
En regardant les vecteurs propres de la matrice de covariance, nous obtenons les directions de variance maximale (le premier vecteur propre est la direction dans laquelle les données varient le plus, etc.); c'est ce qu'on appelle l'analyse en composantes principales (ACP). Je me demandais ce que cela signifierait de regarder …
Ma question concerne une technique de calcul exploitée dans geoR:::.negloglik.GRFou geoR:::solve.geoR. Dans une configuration de modèle mixte linéaire: où et sont respectivement les effets fixes et aléatoires. En outre,Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e b Σ = cov ( Y )ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Lors de l'estimation des effets, il est nécessaire de calculer qui peut normalement …
J'essaie de décomposer une matrice de covariance basée sur un ensemble de données clairsemé / gappy. Je remarque que la somme de lambda (variance expliquée), telle que calculée avec svd, est amplifiée avec des données de plus en plus pertinentes. Sans lacunes, svdet eigenobtenez les mêmes résultats. Cela ne semble …
Je parle ici de matrices de corrélations de Pearson. J'ai souvent entendu dire que toutes les matrices de corrélation doivent être semi-définies positives. Ma compréhension est que les matrices définies positives doivent avoir des valeurs propres , tandis que les matrices semi-définies positives doivent avoir des valeurs propres . Cela …
De nombreux manuels de statistiques fournissent une illustration intuitive de ce que sont les vecteurs propres d'une matrice de covariance: Les vecteurs u et z forment les vecteurs propres (enfin les axes propres). C'est logique. Mais la seule chose qui me déroute, c'est que nous extrayons des vecteurs propres de …
Je fais une analyse Matlab sur des données d'IRM où j'ai effectué l'ACP sur une matrice de taille 10304x236 où 10304 est le nombre de voxels (pensez-y comme pixels) et 236 est le nombre de points temporels. L'ACP me donne 236 valeurs propres et leurs coefficients associés. Tout va bien. …
Christopher Bishop écrit dans son livre Pattern Recognition and Machine Learning une preuve, que chaque composant principal consécutif maximise la variance de la projection à une dimension, après que les données ont été projetées dans l'espace orthogonal aux composants précédemment sélectionnés. D'autres montrent des preuves similaires. Cependant, cela prouve seulement …
si est observé matrice de données et est variable latente alorsXXXYYY X=WY+μ+ϵX=WY+μ+ϵX=WY+\mu+\epsilon Où est la moyenne des données observées, et est l'erreur / bruit gaussien dans les données, et est appelé sous-espace principal.μμ\muϵϵ\epsilonWWW Ma question est quand une PCA normale est utilisée, nous obtiendrions un ensemble de vecteurs propres orthonormés …
J'essaie de faire SVD à la main: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Mais la dernière ligne ne revient pas m. Pourquoi? Cela semble avoir quelque chose à voir avec les signes de ces vecteurs propres ... Ou ai-je mal compris la procédure?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.