Ouije= β0+ β1Xje+ β2zje+ ϵje
i = 1 , … , n. Maintenant, si vous dites, centrez et redimensionnez les prédicteurs pour obtenir
X∗je= ( xje- x¯) / sd ( x )z∗je= ( zje- z¯) / sd ( z)
et plutôt ajuster le modèle (en utilisant les moindres carrés ordinaires)
Ouije= β∗0+ β∗1X∗je+ β∗2z∗je+ ϵje
Ensuite, les paramètres ajustés (bêtas) changeront, mais ils changent d'une manière que vous pouvez calculer par simple algèbre à partir de la transformation appliquée. Donc, si nous appelons les bêtas estimés du modèle en utilisant des prédicteurs transformés pourβ∗1 , 2 et dénotent les bêtas du modèle non transformé avec β^1 , 2, nous pouvons calculer un ensemble de bêtas à partir de l'autre, en connaissant les moyennes et les écarts-types des prédicteurs. La relation entre les paramètres transformés et non transformés est la même qu'entre leurs estimations, lorsqu'elles sont basées sur OLS. Une algèbre donnera la relation
β0= β∗0−β∗1x¯sd(x)−β∗2z¯sd(z),β1=β∗1sd(x),β2=β∗2sd(z)
So standardization is not a necessary part of modelling. (It might still be done for other reasons, which we do not cover here). This answer depends also upon us using ordinary least squares. For some other fitting methods, such as ridge or lasso, standardization is important, because we loose this invariance we have with least squares. This is easy to see: both lasso and ridge do regularization based on the size of the betas, so any transformation which change the relative sizes of the betas will change the result!
And this discussion for the case of linear regression tells you what you should look after in other cases: Is there invariance, or is it not? Generally, methods which depends on distance measures among the predictors will not show invariance, so standardization is important. Another example will be clustering.