Dans un cours de machine learning, j'ai appris qu'une utilisation courante de PCA ( Principal Component Analysis ) est d'accélérer d'autres algorithmes de machine learning. Par exemple, imaginez que vous entraînez un modèle de régression logistique. Si vous avez un ensemble d'apprentissage pour i de 1 à n et qu'il s'avère que la dimension de votre vecteur x est très grande (disons une dimension), vous peut utiliser PCA pour obtenir une dimension plus petite (disons k dimensions) vecteur de fonctionnalité z. Ensuite, vous pouvez entraîner votre modèle de régression logistique sur l'ensemble d'apprentissage pour i de 1 à n. La formation de ce modèle sera plus rapide car votre vecteur d'entités a moins de dimensions.( z ( i ) , y ( i ) )
Cependant, je ne comprends pas pourquoi vous ne pouvez pas simplement réduire la dimension de votre vecteur d'entités à k dimensions en choisissant simplement k de vos entités au hasard et en éliminant le reste.
Les vecteurs z sont des combinaisons linéaires de vos vecteurs de caractéristiques a. Étant donné que les vecteurs z sont limités à une surface de dimension k, vous pouvez écrire les ak valeurs d'élément supprimées en tant que fonction linéaire des k valeurs d'entité restantes, et ainsi tous les z peuvent être formés par des combinaisons linéaires de vos k entités. Un modèle formé sur un ensemble d'entraînement avec des fonctionnalités éliminées ne devrait-il pas avoir la même puissance qu'un modèle formé sur un ensemble d'entraînement dont la dimension a été réduite par l'ACP? Cela dépend-il uniquement du type de modèle et s'il s'appuie sur une sorte de combinaison linéaire?