Questions marquées «linear-algebra»

Un domaine des mathématiques concerné par l'étude des espaces vectoriels de dimension finie, y compris les matrices et leur manipulation, qui sont importantes en statistique.


1
Mise à jour de la décomposition SVD après l'ajout d'une nouvelle ligne à la matrice
Supposons que j'ai une matrice dense de taille , avec décomposition SVDDans Je peux calculer la SVD comme suit: .AA \textbf{A}m×nm×nm \times nA=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.Rsvd(A) Si une nouvelle -ème ligne est ajoutée à , peut-on calculer la nouvelle décomposition SVD sur la base de l'ancienne (c'est-à-dire en utilisant , et ), sans …


1
Que signifient les flèches dans un biplot PCA?
Considérez le biplot PCA suivant: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Il y a un tas de flèches rouges tracées, que signifient-elles? Je savais que la première flèche étiquetée "Var1" devrait pointer dans la direction la plus variable …
14 r  pca  linear-algebra  biplot 


1
Package GBM vs Caret utilisant GBM
J'ai ajusté le modèle à l'aide caret, mais j'ai ensuite réexécuté le modèle à l'aide du gbmpackage. Je crois comprendre que le caretpackage utilise gbmet que la sortie doit être la même. Cependant, un simple test rapide utilisant data(iris)montre une différence dans le modèle d'environ 5% en utilisant RMSE et …



4
La «projection aléatoire» n'est-elle pas à proprement parler une projection?
Les implémentations actuelles de l'algorithme de projection aléatoire réduisent la dimensionnalité des échantillons de données en les mappant de à utilisant une matrice de projection dont les entrées proviennent d'une distribution appropriée (par exemple de ):RdRd\mathbb R^dRkRk\mathbb R^kd×kd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Idéalement, il existe des preuves théoriques …


1
Comment obtenir des «valeurs propres» (pourcentages de variance expliquée) de vecteurs qui ne sont pas des vecteurs propres de l'ACP?
Je voudrais comprendre comment je peux obtenir le pourcentage de variance d'un ensemble de données, non pas dans l'espace de coordonnées fourni par PCA, mais contre un ensemble légèrement différent de vecteurs (tournés). set.seed(1234) xx <- rnorm(1000) yy <- xx * 0.5 + rnorm(1000, sd = 0.6) vecs <- cbind(xx, …

2
Mesure appropriée pour trouver la plus petite matrice de covariance
Dans le manuel que je lis, ils utilisent le caractère définitif positif (caractère semi-positif) pour comparer deux matrices de covariance. L'idée étant que si est pd alors est plus petite que . Mais j'ai du mal à avoir l'intuition de cette relation?A−BA−BA-BBBBAAA Il y a un fil similaire ici: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices …

1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
Comment la similitude du cosinus change-t-elle après une transformation linéaire?
Existe-t-il une relation mathématique entre: la similitude cosinus de deux vecteurs et , etsim(A,B)sim⁡(A,B)\operatorname{sim}(A, B)AAABBB la similitude cosinus de et , mis à l'échelle de manière non uniforme via une matrice donnée ? Ici est une matrice diagonale donnée avec des éléments inégaux sur la diagonale.sim(MA,MB)sim⁡(MA,MB)\operatorname{sim}(MA, MB)AAABBBMMMMMM J'ai essayé de …

1
invariance de corrélation à la transformation linéaire:
C'est en fait l'un des problèmes de la 4ème édition de Gujarati Basic Econometrics (Q3.11) et dit que le coefficient de corrélation est invariant par rapport au changement d'origine et d'échelle, c'est-à-dire où , , , sont des constantes arbitraires.corr(aX+b,cY+d)=corr(X,Y)corr(aX+b,cY+d)=corr(X,Y)\text{corr}(aX+b, cY+d) = \text{corr}(X,Y)aaabbbcccddd Mais ma principale question est la suivante: …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.