L'apprentissage automatique (ML) utilise fortement les techniques de régression linéaire et logistique. Elle repose également sur des techniques d'ingénierie (fonction feature transform
, kernel
etc.).
Pourquoi rien au sujet variable transformation
(par exemple power transformation
) mentionné dans ML? (Par exemple, je n'ai jamais entendu parler de la prise de racine ou du journal des fonctionnalités, ils utilisent généralement des polynômes ou des RBF.) De même, pourquoi les experts ML ne se soucient-ils pas des transformations de fonctionnalités pour la variable dépendante? (Par exemple, je n'entends jamais parler de la transformation logarithmique de y; ils ne transforment tout simplement pas y.)
Modifications: Peut-être que la question n'est pas définitivement, ma vraie question est "la transformation de puissance en variables n'est-elle pas importante en ML?"