Questions marquées «dimensionality-reduction»

Fait référence aux techniques permettant de réduire un grand nombre de variables ou de dimensions réparties par les données à un plus petit nombre de dimensions tout en préservant autant d'informations sur les données que possible. Les principales méthodes comprennent PCA, MDS, Isomap, etc. Les deux principales sous-classes de techniques: l'extraction et la sélection d'entités.


1
Comment inverser la PCA et reconstruire les variables originales à partir de plusieurs composantes principales?
L'analyse en composantes principales (ACP) peut être utilisée pour la réduction de la dimensionnalité. Une fois cette réduction de dimension effectuée, comment peut-on reconstruire approximativement les variables / entités d'origine à partir d'un petit nombre de composants principaux? Sinon, comment peut-on supprimer ou écarter plusieurs composants principaux des données? En …


4
PCA et proportion de variance expliquée
En général, que veut dire que la fraction de la variance dans une analyse comme ACP est expliquée par la première composante principale? Est-ce que quelqu'un peut expliquer cela intuitivement, mais aussi donner une définition mathématique précise de ce que "variance expliquée" signifie en termes d'analyse en composantes principales (ACP)?Xxx …

2
Quelle est la différence entre le blanchiment ZCA et le blanchiment PCA?
Je suis confus quant au blanchiment ZCA et au blanchiment normal (obtenu en divisant les composants principaux par les racines carrées des valeurs propres de la PCA). Pour autant que je sache, xZCAwhite=UxPCAwhite,xZCAwhite=UxPCAwhite,\mathbf x_\mathrm{ZCAwhite} = \mathbf U \mathbf x_\mathrm{PCAwhite}, où sont les vecteurs propres de la PCA.UU\mathbf U Quelles sont …

6
Manière raisonnée de regrouper des variables catégoriques à plusieurs niveaux?
Quelles techniques sont disponibles pour regrouper (ou regrouper) plusieurs catégories en un petit nombre, dans le but de les utiliser comme entrée (prédicteur) dans un modèle statistique? Considérons une variable comme étudiant majeur (discipline choisie par un étudiant de premier cycle). Il est non ordonné et catégorique, mais il peut …

3
PCA fonctionnerait-il pour les types de données booléens (binaires)?
Je souhaite réduire la dimensionnalité des systèmes d'ordre supérieur et capturer l'essentiel de la covariance sur un champ de préférence à 2 dimensions ou à 1 dimension. Je comprends que cela peut être fait via l’analyse en composantes principales et j’ai utilisé PCA dans de nombreux scénarios. Cependant, je ne …

2
Quand le t-SNE est-il trompeur?
Citant l'un des auteurs: L'intégration de voisins stochastiques t-distribués (t-SNE) est une technique ( primée ) de réduction de dimensionnalité particulièrement bien adaptée à la visualisation de jeux de données de grande dimension. Cela semble donc très bien, mais c'est l'auteur qui parle. Une autre citation de l'auteur (concernant le …

3
Pourquoi le t-SNE n'est-il pas utilisé comme technique de réduction de la dimensionnalité pour la classification ou le regroupement?
Lors d'une récente mission, il nous a été dit d'utiliser PCA sur les chiffres du MNIST pour réduire les dimensions de 64 (8 x 8 images) à 2. Nous avons ensuite dû regrouper les chiffres à l'aide d'un modèle de mélange gaussien. La PCA n'utilisant que 2 composantes principales ne …

1
Quelle est la raison intuitive derrière les rotations dans l'analyse factorielle / ACP et comment sélectionner la rotation appropriée?
Mes questions Quelle est la raison intuitive derrière la rotation des facteurs dans l'analyse factorielle (ou des composants de la PCA)? D'après ce que je comprends, si les variables sont presque également chargées dans les principaux composants (ou facteurs), il est évidemment difficile de différencier les composants. Donc, dans ce …



5
Comment gérer les données hiérarchiques / imbriquées dans l'apprentissage automatique
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


2
Pourquoi le LDA scikit-learn de Python ne fonctionne-t-il pas correctement et comment calcule-t-il le LDA via SVD?
J'utilisais l'analyse linéaire discriminante (LDA) de la scikit-learnbibliothèque d'apprentissage automatique (Python) pour réduire la dimensionnalité et j'étais un peu curieux des résultats. Je me demande maintenant ce que fait la LDA scikit-learnpour que les résultats soient différents, par exemple, d'une approche manuelle ou d'une LDA effectuée en R. Ce serait …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.