Nous pouvons modéliser l'expérience comme
xi=x∗i+u~i
yi=y∗i+v~i
u~i=u¯+vi
v~i=v¯+ui
où
x∗i,y∗i dénoter les vraies valeurs,
u~i,v~i sont des erreurs de mesure,
u¯,v¯ leurs composants "fixes" sont-ils indépendants de l'observation (qui pourraient résulter d'un mauvais étalonnage des capteurs) et
u,v varient d'une observation à l'autre et correspondent à de nombreux facteurs possibles que nous considérons comme aléatoires.
Une régression linéaire simple est
y∗i=α+βx∗i+ei
et l'estimation OLS de la pente est
β^=Cov(x∗,y∗)Var(x∗)
Ce que nous obtenons est cependant
β~=Cov(x,y)Var(x)=Cov(x∗+u,y∗+v)Var(x∗+u)=Cov(x∗,y∗)+Cov(x∗,v)+Cov(y∗,u)+Cov(u,v)Var(x∗)+Var(u)+2Cov(x,u)
Supposons maintenant que v,u ne sont pas corrélés avec x∗,y∗et mutuellement (une hypothèse assez forte qui peut être améliorée si nous avons plus d'inférences sur la nature des erreurs). Alors notre estimation est
β~=βσ2x∗σ2x∗+σ2u≈βσ^2x−σ^2uσ^2x=βλ^
On peut estimer
σ^2x comme variation d'échantillon de
xi. Nous devons également estimer
σ2u. Si nous avons une expérience quand nous pouvons observer
x∗i plusieurs fois, alors une approche simple consiste à estimer
σ2u=E[σ2x|x∗i].
Maintenant, nous pouvons utiliser notre σ^2β~ calculé avec, par exemple, la méthode bootstrap, et le corriger pour β^=β~/λ^ pour que
σ^2β^=σ^2β~λ^2
.