Questions marquées «svd»

Décomposition en valeurs singulières (SVD) d'une matrice UNE est donné par UNE=USVU et V sont des matrices orthogonales et S est une matrice diagonale.

2
Pourquoi ne puis-je pas obtenir un SVD valide de X via la décomposition de valeurs propres de XX 'et X'X?
J'essaie de faire SVD à la main: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Mais la dernière ligne ne revient pas m. Pourquoi? Cela semble avoir quelque chose à voir avec les signes de ces vecteurs propres ... Ou ai-je mal compris la procédure?
9 r  svd  eigenvalues 

1
Comprendre la décomposition en valeurs singulières dans le contexte de LSI
Ma question porte généralement sur la décomposition en valeurs singulières (SVD), et en particulier sur l'indexation sémantique latente (LSI). Dis, j'ai qui contient des fréquences de 5 mots pour 7 documents.Aword×documentAword×document A_{word \times document} A = matrix(data=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), ncol=7, byrow=TRUE) rownames(A) <- c('doctor','car','nurse','hospital','wheel') J'obtenir la matrice factorisation …

1
Un parallèle entre LSA et pLSA
Dans l'article original de pLSA, l'auteur, Thomas Hoffman, établit un parallèle entre les structures de données pLSA et LSA dont je voudrais discuter avec vous. Contexte: S'inspirant de la recherche d'informations, nous supposons que nous avons une collection de documents et un vocabulaire de termesNNND={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., …


1
Comment interpréter les résultats de la réduction de dimensionnalité / mise à l'échelle multidimensionnelle?
J'ai effectué à la fois une décomposition SVD et une mise à l'échelle multidimensionnelle d'une matrice de données à 6 dimensions, afin de mieux comprendre la structure des données. Malheureusement, toutes les valeurs singulières sont du même ordre, ce qui implique que la dimensionnalité des données est bien de 6. …


3
Comment effectuer une SVD pour imputer des valeurs manquantes, un exemple concret
J'ai lu les excellents commentaires sur la façon de traiter les valeurs manquantes avant d'appliquer SVD, mais j'aimerais savoir comment cela fonctionne avec un exemple simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Étant donné la matrice …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
SVD d'une matrice de données (PCA) après lissage
Disons que j'ai une matrice de données centrée avec SVD .n×mn×mn \times mAAAA=UΣVTA=UΣVTA = U \Sigma V^{T} Par exemple, colonnes (mesures) qui sont des spectres avec n = 100 fréquences différentes. La matrice est centrée de sorte que les lignes de la matrice ont leur moyenne soustraite. C'est pour interpréter …
8 pca  smoothing  svd 
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.