Quels sont les applications ou les avantages des techniques de régression par réduction de dimension (DRR) ou de réduction de dimensionnalité supervisée (SDR) par rapport aux techniques de régression traditionnelles (sans réduction de dimensionnalité)? Ces classes de techniques trouvent une représentation de faible dimension de l'ensemble des caractéristiques du problème de régression. Des exemples de telles techniques comprennent la régression inverse en tranches, les directions de la Hesse principale, l'estimation de la variance moyenne en tranches, la régression inverse en tranches du noyau, la régression des composantes principales, etc.
En termes de RMSE à validation croisée, si un algorithme fonctionnait mieux sur une tâche de régression sans aucune réduction de dimensionnalité, alors quelle est l'utilité réelle de la réduction de dimensionnalité pour la régression? Je ne comprends pas l'intérêt de ces techniques.
Ces techniques sont-elles utilisées par hasard pour réduire la complexité de l'espace et du temps pour la régression? Si tel est le principal avantage, certaines ressources sur la réduction de la complexité des ensembles de données de grande dimension lorsque ces techniques sont mises en œuvre seraient utiles. J'en débat avec le fait que l'exécution d'une technique DRR ou SDR elle-même nécessite un certain temps et de l'espace. Cette régression SDR / DRR + sur un ensemble de données à faible dim. Est-elle plus rapide que la régression uniquement sur un ensemble de données à faible dim?
Ce cadre a-t-il été étudié uniquement par intérêt abstrait et n'a-t-il pas une bonne application pratique?
Comme une pensée secondaire: il existe parfois des hypothèses selon lesquelles la distribution conjointe des caractéristiques et de la réponse repose sur une variété. Il est logique d'apprendre la variété de l'échantillon observé dans ce contexte pour résoudre un problème de régression.Y