Questions marquées «svd»

Décomposition en valeurs singulières (SVD) d'une matrice UNE est donné par UNE=USVU et V sont des matrices orthogonales et S est une matrice diagonale.

3
Cholesky versus eigendecomposition pour le prélèvement d'échantillons à partir d'une distribution normale multivariée
Je voudrais dessiner un échantillon . Wikipedia suggère d'utiliser soit une composition de Cholesky soit une composition Eigend , c'est-à-dire Σ = D 1 D T 1 ou Σ = Q Λ Q Tx∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right)Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T Et donc l'échantillon peut être …

2
Quand combinons-nous la réduction de dimensionnalité avec le clustering?
J'essaie d'effectuer un clustering au niveau du document. J'ai construit la matrice de fréquence terme-document et j'essaie de regrouper ces vecteurs de haute dimension en utilisant k-means. Au lieu de regrouper directement, ce que j'ai fait, j'ai d'abord appliqué la décomposition vectorielle singulière de LSA (Latent Semantic Analysis) pour obtenir …




3
Quels algorithmes rapides existent pour calculer la SVD tronquée?
Peut-être hors sujet ici, mais il existe déjà plusieurs ( une , deux ) questions liées. En fouillant dans la littérature (ou une recherche google pour les algorithmes SVD tronqués), on trouve beaucoup d'articles qui utilisent les SVD tronqués de diverses manières et prétendent (frustrant, souvent sans citation) qu'il existe …


1
Pourquoi les décompositions propres et svd d'une matrice de covariance basées sur des données clairsemées donnent-elles des résultats différents?
J'essaie de décomposer une matrice de covariance basée sur un ensemble de données clairsemé / gappy. Je remarque que la somme de lambda (variance expliquée), telle que calculée avec svd, est amplifiée avec des données de plus en plus pertinentes. Sans lacunes, svdet eigenobtenez les mêmes résultats. Cela ne semble …
12 r  svd  eigenvalues 

3
SVD d'une matrice avec des valeurs manquantes
Supposons que j'ai une matrice de recommandations de style Netflix et que je souhaite créer un modèle qui prédit les futures classifications de films potentielles pour un utilisateur donné. En utilisant l'approche de Simon Funk, on utiliserait la descente de gradient stochastique pour minimiser la norme Frobenius entre la matrice …


1
Comment dessiner un tracé éboulis en python? [fermé]
Fermé. Cette question est hors sujet . Il n'accepte pas actuellement les réponses. Voulez-vous améliorer cette question? Mettez à jour la question afin qu'elle soit sur le sujet pour la validation croisée. Fermé l'année dernière . J'utilise la décomposition vectorielle singulière sur une matrice et j'obtiens les matrices U, S …

1
Pourquoi la non-négativité est-elle importante pour les systèmes de filtrage / recommandation collaboratifs?
Dans tous les systèmes de recommandation modernes que j'ai vus qui reposent sur la factorisation matricielle, une factorisation matricielle non négative est effectuée sur la matrice utilisateur-film. Je peux comprendre pourquoi la non-négativité est importante pour l'interprétabilité et / ou si vous voulez des facteurs clairsemés. Mais si vous ne …

1
Quels sont les avantages et les inconvénients de l'application d'informations mutuelles ponctuelles sur une matrice de cooccurrence de mots avant la SVD?
Une façon de générer des incorporations de mots est la suivante ( miroir ): Obtenez un corpus, par exemple: "J'aime voler. J'aime la PNL. J'aime le deep learning." Construisez le mot matrice de cooccurrence à partir de lui: Effectuez SVD sur XXX et conservez les kkk premières colonnes de U. …


1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.