La décomposition matricielle fait référence au processus de factorisation d'une matrice en un produit de matrices plus petites. En décomposant une grande matrice, on peut exécuter efficacement de nombreux algorithmes matriciels.
/ edit: Plus de suivi maintenant vous pouvez utiliser irlba :: prcomp_irlba / edit: suivi de mon propre post. irlbaa maintenant des arguments "center" et "scale", qui vous permettent de calculer les principaux composants, par exemple: pc <- M %*% irlba(M, nv=5, nu=0, center=colMeans(M), right_only=TRUE)$v J'ai un grand nombre Matrixde …
Étant donné une approximation PCA (ou SVD) de la matrice avec une matrice , nous savons que est la meilleure approximation de de bas rang .X X XXXXX^X^\hat XX^X^\hat XXXX Est-ce conforme à la norme induite∥ ⋅ ∥2∥⋅∥2\parallel \cdot \parallel_2 ∥ ⋅ ∥ F (c'est-à-dire la plus grande norme de …
Cette question concerne un moyen efficace de calculer les principaux composants. De nombreux textes sur l'ACP linéaire préconisent l'utilisation de la décomposition en valeurs singulières des données casewise . Autrement dit, si nous avons des données et que nous voulons remplacer les variables (ses colonnes ) par des composants principaux, …
J'ai besoin de calculer l'inverse de la matrice et j'ai utilisé la solvefonction. Bien qu'il fonctionne bien sur les petites matrices, il a solvetendance à être très lent sur les grandes matrices. Je me demandais s'il existe une autre fonction ou combinaison de fonctions (via SVD, QR, LU ou d'autres …
J'ai récemment lu le livre de Skillicorn sur les décompositions matricielles et j'ai été un peu déçu, car il était destiné à un public de premier cycle. Je voudrais compiler (pour moi et pour les autres) une courte bibliographie des articles essentiels (enquêtes, mais aussi des articles révolutionnaires) sur les …
Supposons que j'ai une matrice dense de taille , avec décomposition SVDDans Je peux calculer la SVD comme suit: .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Si une nouvelle -ème ligne est ajoutée à , peut-on calculer la nouvelle décomposition SVD sur la base de l'ancienne (c'est-à-dire en utilisant , et ), sans …
Considérons une simple série chronologique: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 nous pouvons calculer une matrice d'adjacence pour cette série temporelle représentant les liens temporels entre les échantillons. Dans le calcul de cette matrice, nous ajoutons un site imaginaire …
Fermé. Cette question est hors sujet . Il n'accepte pas actuellement les réponses. Voulez-vous améliorer cette question? Mettez à jour la question afin qu'elle soit sur le sujet pour la validation croisée. Fermé il y a 2 ans . Quelqu'un pourrait-il trouver du code R pour tracer une ellipse à …
Étant donné une matrice Vm×nVm×n\mathbf V^{m \times n} , la factorisation matricielle non négative (NMF) trouve deux matrices non négatives Wm×kWm×k\mathbf W^{m \times k} et Hk×nHk×n\mathbf H^{k \times n} (c'est-à-dire avec tous les éléments ≥0≥0\ge 0 ) pour représenter la matrice décomposée comme: V≈WH,V≈WH,\mathbf V \approx \mathbf W\mathbf H, WW\mathbf …
Je travaille sur un projet de filtrage collaboratif (CF), c'est-à-dire compléter une matrice partiellement observée ou plus généralement tenseur. Je suis un débutant dans le domaine, et pour ce projet, je dois finalement comparer notre méthode à d'autres méthodes bien connues qui, de nos jours, comparent les méthodes proposées, à …
Ma question concerne une technique de calcul exploitée dans geoR:::.negloglik.GRFou geoR:::solve.geoR. Dans une configuration de modèle mixte linéaire: où et sont respectivement les effets fixes et aléatoires. En outre,Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e b Σ = cov ( Y )ββ\betabbbΣ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) Lors de l'estimation des effets, il est nécessaire de calculer qui peut normalement …
Le mgcvpackage pour Ra deux fonctions pour ajuster les interactions des produits tensoriels: te()et ti(). Je comprends la division de base du travail entre les deux (ajustement d'une interaction non linéaire vs décomposition de cette interaction en effets principaux et interaction). Ce que je ne comprends pas, c'est pourquoi te(x1, …
Dans tous les systèmes de recommandation modernes que j'ai vus qui reposent sur la factorisation matricielle, une factorisation matricielle non négative est effectuée sur la matrice utilisateur-film. Je peux comprendre pourquoi la non-négativité est importante pour l'interprétabilité et / ou si vous voulez des facteurs clairsemés. Mais si vous ne …
Les systèmes d'équations linéaires sont omniprésents dans les statistiques de calcul. Un système spécial que j'ai rencontré (par exemple, dans l'analyse factorielle) est le système Ax=bAx=bAx=b où A=D+BΩBTA=D+BΩBTA=D+ B \Omega B^T Ici DDD est une matrice diagonale n×nn×nn\times n avec une diagonale strictement positive, ΩΩ\Omega est une matrice semi-définie positive …
Envisagez un problème de filtrage collaboratif. Nous avons une matrice de taille #users * #items. si l'utilisateur i aime l'article j, si l'utilisateur i n'aime pas l'article j ets'il n'y a pas de données sur la paire (i, j). Nous voulons prédire pour les futurs utilisateurs, paires d'articles.MMMMi , j= …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.