Pourquoi pas une régression robuste à chaque fois?


12

Des exemples de cette page montrent que la régression simple est nettement affectée par les valeurs aberrantes et cela peut être surmonté par des techniques de régression robuste: http://www.alastairsanderson.com/R/tutorials/robust-regression-in-R/ . Je pense que lmrob et ltsReg sont d'autres techniques de régression robustes.

Pourquoi ne devrait-on pas effectuer une régression robuste (comme rlm ou rq) à chaque fois plutôt que d'effectuer une régression simple (lm)? Y a-t-il des inconvénients à ces techniques de régression robustes? Merci pour votre perspicacité.


2
Cela pourrait être utile.
conjugateprior

Réponses:


6

Le théorème de Gauss-Markov :

Dans un modèle linéaire avec des erreurs sphériques (qui inclut en cours de route une hypothèse d'absence de valeurs aberrantes, via une variance d'erreur finie), l'OLS est efficace dans une classe d'estimateurs linéaires sans biais - il existe des conditions (restrictives, bien sûr) dans lesquelles " vous ne pouvez pas faire mieux que OLS ".


Donc, s'il n'y a pas de valeurs aberrantes, la régression linéaire serait la meilleure. Mais s'il y en a, ou si d'autres hypothèses sont violées, alors une seule devrait effectuer des régressions robustes. Est-ce exact?
rnso

2
S'il y a des valeurs aberrantes, d'autres techniques sont meilleures, oui. Je ne sauterais pas à la conclusion que "si d'autres hypothèses sont violées, alors [...] il faut effectuer des régressions robustes" - ce n'est pas un remède universel à toutes les violations. Fx, lorsque les erreurs sont corrélées avec des régresseurs et que vous recherchez des effets causaux, des techniques de variables instrumentales sont nécessaires.
Christoph Hanck
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.