Questions marquées «dimensionality-reduction»

Fait référence aux techniques permettant de réduire un grand nombre de variables ou de dimensions réparties par les données à un plus petit nombre de dimensions tout en préservant autant d'informations sur les données que possible. Les principales méthodes comprennent PCA, MDS, Isomap, etc. Les deux principales sous-classes de techniques: l'extraction et la sélection d'entités.





3
Y a-t-il une valeur dans la réduction de dimensionnalité d'un ensemble de données où toutes les variables sont approximativement orthogonales?
Supposons que j'ai un ensemble de données à dimensions où les N dimensions sont à peu près orthogonales (ont une corrélation nulle).NNNNNN Existe-t-il une utilité en termes de: Visualisation Représentation (pour l'efficacité du classificateur) Ou d'autres critères effectuer une réduction de dimensionnalité sur les données?



2
Quel est l'avantage de réduire la dimensionnalité des prédicteurs à des fins de régression?
Quels sont les applications ou les avantages des techniques de régression par réduction de dimension (DRR) ou de réduction de dimensionnalité supervisée (SDR) par rapport aux techniques de régression traditionnelles (sans réduction de dimensionnalité)? Ces classes de techniques trouvent une représentation de faible dimension de l'ensemble des caractéristiques du problème …



3
Le premier composant principal ne sépare pas les classes, contrairement aux autres PC; comment est-ce possible?
J'ai exécuté PCA sur 17 variables quantitatives afin d'obtenir un plus petit ensemble de variables, c'est-à-dire les principaux composants, à utiliser dans l'apprentissage automatique supervisé pour classer les instances en deux classes. Après PCA, PC1 représente 31% de la variance des données, PC2 17%, PC3 10%, PC4 8%, PC5 7% …

1
Questions sur PCA: quand les PC sont-ils indépendants? pourquoi PCA est-il sensible à la mise à l'échelle? pourquoi les PC sont-ils contraints d'être orthogonaux?
J'essaie de comprendre certaines descriptions de l'ACP (les deux premières proviennent de Wikipedia), emphase ajoutée: Les composants principaux ne sont garantis indépendants que si l'ensemble de données est distribué normalement conjointement . L'indépendance des principaux composants est-elle très importante? Comment puis-je comprendre cette description? L'ACP est sensible à la mise …

4
La «projection aléatoire» n'est-elle pas à proprement parler une projection?
Les implémentations actuelles de l'algorithme de projection aléatoire réduisent la dimensionnalité des échantillons de données en les mappant de à utilisant une matrice de projection dont les entrées proviennent d'une distribution appropriée (par exemple de ):RdRd\mathbb R^dRkRk\mathbb R^kd×kd×kd\times kRRRN(0,1)N(0,1)\mathcal N(0,1) x′=1k√xRx′=1kxRx^\prime = \frac{1}{\sqrt k}xR Idéalement, il existe des preuves théoriques …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.