Questions marquées «dimensionality-reduction»

Fait référence aux techniques permettant de réduire un grand nombre de variables ou de dimensions réparties par les données à un plus petit nombre de dimensions tout en préservant autant d'informations sur les données que possible. Les principales méthodes comprennent PCA, MDS, Isomap, etc. Les deux principales sous-classes de techniques: l'extraction et la sélection d'entités.


2
Pourquoi l'ACP maximise-t-elle la variance totale de la projection?
Christopher Bishop écrit dans son livre Pattern Recognition and Machine Learning une preuve, que chaque composant principal consécutif maximise la variance de la projection à une dimension, après que les données ont été projetées dans l'espace orthogonal aux composants précédemment sélectionnés. D'autres montrent des preuves similaires. Cependant, cela prouve seulement …

1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 



1
Quelle est la différence entre un apprentissage multiple et une réduction de dimensionnalité non linéaire?
Quelle est la différence entre un apprentissage multiple et une réduction de dimensionnalité non linéaire ? J'ai vu ces deux termes être utilisés de manière interchangeable. Par exemple: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : L'apprentissage multiple (souvent également appelé réduction de dimensionnalité non linéaire) poursuit l'objectif d'incorporer des données qui se trouvent à l'origine …



1
Impossible de faire fonctionner correctement ce réseau d'auto-encodeur (avec les couches convolutionnelles et maxpool)
Les réseaux de codage automatique semblent être beaucoup plus délicats que les réseaux MLP classificateurs normaux. Après plusieurs tentatives d'utilisation de la lasagne, tout ce que j'obtiens dans la sortie reconstruite ressemble à son mieux à une moyenne floue de toutes les images de la base de données MNIST sans …


3
L'ICA doit-il d'abord exécuter PCA?
J'ai passé en revue un article basé sur l'application disant que l'application de l'APC avant d'appliquer l'ICA (en utilisant le package fastICA). Ma question est la suivante: ICA (fastICA) nécessite-t-il que PCA soit exécuté en premier? Ce document mentionne que ... il est également soutenu que la pré-application de l'ACP …

4
Technique non orthogonale analogue à l'ACP
Supposons que j'ai un jeu de données ponctuelles 2D et que je veuille détecter les directions de tous les maxima locaux de variance dans les données, par exemple: L'ACP n'aide pas dans cette situation car il s'agit d'une décomposition orthogonale et ne peut donc pas détecter les deux lignes que …



1
Comment interpréter les résultats de la réduction de dimensionnalité / mise à l'échelle multidimensionnelle?
J'ai effectué à la fois une décomposition SVD et une mise à l'échelle multidimensionnelle d'une matrice de données à 6 dimensions, afin de mieux comprendre la structure des données. Malheureusement, toutes les valeurs singulières sont du même ordre, ce qui implique que la dimensionnalité des données est bien de 6. …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.