Questions marquées «pca»

L'analyse en composantes principales (ACP) est une technique de réduction de dimensionnalité linéaire. Il réduit un ensemble de données multivarié à un plus petit ensemble de variables construites en préservant autant d'informations (autant de variance) que possible. Ces variables, appelées composantes principales, sont des combinaisons linéaires des variables d'entrée.

1
Pourquoi Anova () et drop1 () ont-ils fourni des réponses différentes pour les GLMM?
J'ai un GLMM du formulaire: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Lorsque j'utilise drop1(model, test="Chi"), j'obtiens des résultats différents de ceux que j'utilise à Anova(model, type="III")partir du package de voiture ou summary(model). Ces deux derniers donnent les mêmes réponses. En utilisant un …
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 




2
Différence entre l'ACP et le clustering spectral pour un petit ensemble d'échantillons de fonctionnalités booléennes
J'ai un ensemble de données de 50 échantillons. Chaque échantillon est composé de 11 entités booléennes (éventuellement corrélées). J'aimerais savoir comment visualiser ces échantillons sur un tracé 2D et examiner s'il y a des grappes / groupements parmi les 50 échantillons. J'ai essayé les deux approches suivantes: (a) Exécutez PCA …

2
Pourquoi l'ACP maximise-t-elle la variance totale de la projection?
Christopher Bishop écrit dans son livre Pattern Recognition and Machine Learning une preuve, que chaque composant principal consécutif maximise la variance de la projection à une dimension, après que les données ont été projetées dans l'espace orthogonal aux composants précédemment sélectionnés. D'autres montrent des preuves similaires. Cependant, cela prouve seulement …

4
Modèle d'historique d'événement à temps discret (survie) dans R
J'essaie d'adapter un modèle à temps discret dans R, mais je ne sais pas comment le faire. J'ai lu que vous pouvez organiser la variable dépendante dans différentes lignes, une pour chaque observation de temps, et utiliser la glmfonction avec un lien logit ou cloglog. En ce sens, j'ai trois …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 


1
Qu'est-ce que le sous-espace principal dans l'ACP probabiliste?
si est observé matrice de données et est variable latente alorsXXXYYY X=WY+μ+ϵX=WY+μ+ϵX=WY+\mu+\epsilon Où est la moyenne des données observées, et est l'erreur / bruit gaussien dans les données, et est appelé sous-espace principal.μμ\muϵϵ\epsilonWWW Ma question est quand une PCA normale est utilisée, nous obtiendrions un ensemble de vecteurs propres orthonormés …

2
Bons exemples d'ACP pour l'enseignement
J'enseigne l'algèbre linéaire à une classe d'ingénieurs, de sociologues et de programmeurs informatiques. Nous venons de faire une décomposition en valeurs singulières, et nous avons un jour supplémentaire, alors j'ai pensé parler de la relation entre la décomposition en valeurs singulières et l'analyse en composantes principales. J'ai bien écrit la …
10 pca  dataset  teaching 

2
Comment trouver la matrice de covariance d'un polygone?
Imaginez que vous ayez un polygone défini par un ensemble de coordonnées et son centre de masse est à . Vous pouvez traiter le polygone comme une distribution uniforme avec une limite polygonale. (x1,y1)...(xn,yn)(x1,y1)...(xn,yn)(x_1,y_1)...(x_n,y_n)(0,0)(0,0)(0,0) Je recherche une méthode qui trouvera la matrice de covariance d'un polygone . Je soupçonne que …

1
Comment les enfants parviennent-ils à rassembler leurs parents dans une projection PCA d'un ensemble de données GWAS?
Prenez 20 points aléatoires dans un espace de 10 000 dimensions avec chaque coordonnée iid de . Répartissez-les en 10 paires («couples») et ajoutez la moyenne de chaque paire («un enfant») à l'ensemble de données. Ensuite, faites PCA sur les 30 points résultants et tracez PC1 vs PC2.N(0,1)N(0,1)\mathcal N(0,1) Une …




En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.