Décomposition en valeurs singulières (SVD) d'une matrice UNE est donné par A =U S V⊤ où U et V sont des matrices orthogonales et S est une matrice diagonale.
L'analyse en composantes principales (ACP) est généralement expliquée via une décomposition propre de la matrice de covariance. Toutefois, cela peut également être effectué via une décomposition en valeurs singulières (SVD) de la matrice de donnéesXX\mathbf X . Comment ça marche? Quel est le lien entre ces deux approches? Quelle est …
L'analyse en composantes principales (ACP) peut être utilisée pour la réduction de la dimensionnalité. Une fois cette réduction de dimension effectuée, comment peut-on reconstruire approximativement les variables / entités d'origine à partir d'un petit nombre de composants principaux? Sinon, comment peut-on supprimer ou écarter plusieurs composants principaux des données? En …
Je commence à me familiariser avec l’utilisation de glmnetavec LASSO Regression, où mon résultat d’intérêt est dichotomique. J'ai créé un petit cadre de données fictif ci-dessous: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
J'ai lu sur la décomposition en valeurs singulières (SVD). Dans presque tous les manuels, il est mentionné que la matrice est divisée en trois matrices avec une spécification donnée. Mais quelle est l'intuition derrière la division de la matrice sous une telle forme? La PCA et d’autres algorithmes de réduction …
Biplot est souvent utilisé pour afficher les résultats de l' analyse en composantes principales (et des techniques associées). Il s’agit d’un diagramme de dispersion double ou superposé montrant les charges et les scores des composants simultanément. Aujourd'hui, @amoeba m'a informé qu'il avait donné une réponse partant de mon commentaire pour …
Quelqu'un peut-il recommander une bonne exposition de la théorie de la régression des moindres carrés partiels (disponible en ligne) pour quelqu'un qui comprend la SVD et la PCA? J'ai regardé de nombreuses sources en ligne et je n'ai rien trouvé qui avait la bonne combinaison de rigueur et d'accessibilité. J'ai …
/ edit: Plus de suivi maintenant vous pouvez utiliser irlba :: prcomp_irlba / edit: suivi de mon propre post. irlbaa maintenant des arguments "center" et "scale", qui vous permettent de calculer les principaux composants, par exemple: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v J'ai un grand nombre Matrixde …
Quelle différence le centrage (ou la dé-signification) de vos données fait-il pour l'ACP? J'ai entendu dire que cela rend les calculs plus faciles ou qu'elle empêche le premier PC d'être dominé par les moyens des variables, mais j'ai l'impression que je n'ai pas encore pu saisir fermement le concept. Par …
Je suis un peu confus avec la façon dont le SVD est utilisé dans le filtrage collaboratif. Supposons que j'ai un graphique social et que je construise une matrice d'adjacence à partir des bords, puis je prends un SVD (oublions la régularisation, les taux d'apprentissage, les optimisations de rareté, etc.), …
J'essaie simplement de reproduire une affirmation faite dans l'article suivant, Finding Correlated Biclusters from Gene Expression Data , qui est: Proposition 4. Si . ensuite nous avons:XIJ=RICTJXIJ=RICJTX_{IJ}=R_{I}C^{T}_{J} je. Si est un bicluster parfait avec un modèle additif, alors est un bicluster parfait avec une corrélation sur les colonnes; ii. Si …
J'étudie PCA du cours Coursera d'Andrew Ng et d'autres matériaux. Dans le premier devoir de Stanford NLP cs224n , et dans la vidéo de conférence d'Andrew Ng , ils font une décomposition en valeurs singulières au lieu de la décomposition en vecteur propre de la matrice de covariance, et Ng …
J'utilisais l'analyse linéaire discriminante (LDA) de la scikit-learnbibliothèque d'apprentissage automatique (Python) pour réduire la dimensionnalité et j'étais un peu curieux des résultats. Je me demande maintenant ce que fait la LDA scikit-learnpour que les résultats soient différents, par exemple, d'une approche manuelle ou d'une LDA effectuée en R. Ce serait …
Étant donné une approximation PCA (ou SVD) de la matrice avec une matrice , nous savons que est la meilleure approximation de de bas rang .X X XXXXX^X^\hat XX^X^\hat XXXX Est-ce conforme à la norme induite∥ ⋅ ∥2∥⋅∥2\parallel \cdot \parallel_2 ∥ ⋅ ∥ F (c'est-à-dire la plus grande norme de …
Quelle est la meilleure façon de calculer la décomposition en valeurs singulières (SVD) d'une très grande matrice positive (65M x 3,4M) où les données sont extrêmement rares? Moins de 0,1% de la matrice n'est pas nul. J'ai besoin d'un moyen qui: s'inscrira dans la mémoire (je sais qu'il existe des …
J'ai une matrice de corrélation des retours de titres dont le déterminant est zéro. (Cela est un peu surprenant car la matrice de corrélation d'échantillon et la matrice de covariance correspondante devraient théoriquement être définies positives.) Mon hypothèse est qu'au moins un titre dépend linéairement d'autres titres. Y a-t-il une …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.