Lorsque vous voulez estimer un modèle simple comme
et au lieu du vrai Y i vous ne l'observez qu'avec une erreur ˜ Y i = Y i + ν i qui est tel qu'il n'est pas corrélé avec X et ϵ , si vous régressez
˜ Y i = α + β X
Ouije= α + βXje+ ϵje
OuijeOui˜je= Yje+ νjeXϵ
votre estimation
β est
βOui˜je= α + βXje+ ϵje
β
car la covariance entre une variable aléatoire et une constante (
α) est nulle ainsi que les covariances entre
Xiβˆ= Co v ( Y˜je, Xje)Va r ( Xje)= Co v ( Yje+ νje, Xje)Va r ( Xje)= Co v ( α + βXje+ ϵje+ νje, Xje)Va r ( Xje)= Co v ( α , Xje)Va r ( Xje)+ βCo v ( Xje, Xje)Va r ( Xje)+ Co v ( ϵje, Xje)Va r ( Xje)+ Co v ( νje, Xje)Va r ( Xje)= βVuner ( Xje)Va r (Xje)= β
αXje et
ϵje, νje puisque nous avons supposé qu'elles n'étaient pas corrélées.
Vous voyez donc que votre coefficient est systématiquement estimé. La seule inquiétude est que vous donne un terme supplémentaire dans l'erreur qui réduit la puissance de vos tests statistiques. Dans de très mauvais cas d'une telle erreur de mesure dans la variable dépendante, il se peut que vous ne trouviez pas d'effet significatif même s'il peut être présent en réalité. Généralement, les variables instrumentales ne vous aideront pas dans ce cas car elles ont tendance à être encore plus imprécises que l'OLS et elles ne peuvent aider qu'avec l'erreur de mesure dans la variable explicative.Oui˜je= Yje+ νje= α + βXje+ ϵje+νje