Questions marquées «eigenvalues»

Pour les questions impliquant le calcul ou l'interprétation de valeurs propres ou de vecteurs propres.


3
Pourquoi la matrice de corrélation doit-elle être positive semi-définie et que signifie-t-elle être ou ne pas être positive semi-définie?
J'ai étudié la signification de la propriété semi-définie positive des matrices de corrélation ou de covariance. Je cherche des informations sur Définition de semi-définitif positif; Ses propriétés importantes, ses implications pratiques; Conséquence d'avoir un déterminant négatif, impact sur l'analyse multivariée, les résultats de simulation, etc.

1
Si je génère une matrice symétrique aléatoire, quelle est la chance qu'elle soit positive définie?
J'ai eu une question étrange lorsque je testais des optimisations convexes. La question est: Supposons que je génère aléatoirement (par exemple, une distribution normale standard) une matrice symétrique ((par exemple, je génère une matrice triangulaire supérieure et je remplis la moitié inférieure pour s'assurer qu'elle est symétrique), quelle est la …



1
Pourquoi n'y a-t-il que
En PCA, lorsque le nombre de dimensions est supérieur (voire égal) au nombre d'échantillons , pourquoi avez-vous au plus vecteurs propres non nuls? En d'autres termes, le rang de la matrice de covariance parmi les dimensions est .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Exemple: Vos échantillons sont des images vectorisées, qui sont de dimension …


1
Expliquez comment `eigen` aide à inverser une matrice
Ma question concerne une technique de calcul exploitée dans geoR:::.negloglik.GRFou geoR:::solve.geoR. Dans une configuration de modèle mixte linéaire: où et sont respectivement les effets fixes et aléatoires. En outre,Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e b Σ = cov ( Y )ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Lors de l'estimation des effets, il est nécessaire de calculer qui peut normalement …

1
Pourquoi les décompositions propres et svd d'une matrice de covariance basées sur des données clairsemées donnent-elles des résultats différents?
J'essaie de décomposer une matrice de covariance basée sur un ensemble de données clairsemé / gappy. Je remarque que la somme de lambda (variance expliquée), telle que calculée avec svd, est amplifiée avec des données de plus en plus pertinentes. Sans lacunes, svdet eigenobtenez les mêmes résultats. Cela ne semble …
12 r  svd  eigenvalues 


1
Confus au sujet de l'explication visuelle des vecteurs propres: comment des ensembles de données visuellement différents peuvent-ils avoir les mêmes vecteurs propres?
De nombreux manuels de statistiques fournissent une illustration intuitive de ce que sont les vecteurs propres d'une matrice de covariance: Les vecteurs u et z forment les vecteurs propres (enfin les axes propres). C'est logique. Mais la seule chose qui me déroute, c'est que nous extrayons des vecteurs propres de …


2
Pourquoi l'ACP maximise-t-elle la variance totale de la projection?
Christopher Bishop écrit dans son livre Pattern Recognition and Machine Learning une preuve, que chaque composant principal consécutif maximise la variance de la projection à une dimension, après que les données ont été projetées dans l'espace orthogonal aux composants précédemment sélectionnés. D'autres montrent des preuves similaires. Cependant, cela prouve seulement …

1
Qu'est-ce que le sous-espace principal dans l'ACP probabiliste?
si est observé matrice de données et est variable latente alorsXXXYYY X=WY+μ+ϵX=WY+μ+ϵX=WY+\mu+\epsilon Où est la moyenne des données observées, et est l'erreur / bruit gaussien dans les données, et est appelé sous-espace principal.μμ\muϵϵ\epsilonWWW Ma question est quand une PCA normale est utilisée, nous obtiendrions un ensemble de vecteurs propres orthonormés …

2
Pourquoi ne puis-je pas obtenir un SVD valide de X via la décomposition de valeurs propres de XX 'et X'X?
J'essaie de faire SVD à la main: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Mais la dernière ligne ne revient pas m. Pourquoi? Cela semble avoir quelque chose à voir avec les signes de ces vecteurs propres ... Ou ai-je mal compris la procédure?
9 r  svd  eigenvalues 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.