Le titre "erreurs dans les variables" et le contenu de la question semblent différents, car il demande pourquoi nous ne prenons pas en compte la variation de X lors de la modélisation de la réponse conditionnelle, c'est-à-dire par inférence pour les paramètres de régression. Ces deux préoccupations me semblent orthogonales, donc ici je réponds au contenu.
J'ai déjà répondu à une question similaire: quelle différence y a-t-il entre le conditionnement sur les régresseurs et le fait de les traiter comme fixes? , ici je vais copier une partie de ma réponse là-bas:
J'essaierai d'étoffer un argument pour conditionner les régresseurs un peu plus formellement. Que (Y,X) un vecteur aléatoire, et l' intérêt est en régression Y sur X , où la régression , on entend l'espérance conditionnelle de Y sur X . Sous des hypothèses multinormales, ce sera une fonction linéaire, mais nos arguments ne dépendent pas de cela. Nous commençons par factoriser la densité conjointe de la manière habituelle
f(y,x)=f(y∣x)f(x)
mais ces fonctions ne sont pas connues, nous utilisons donc un modèle paramétré
f(y,x;θ,ψ)=fθ(y∣x)fψ(x)
oùθ paramétrise la distribution conditionnelle etψ la distribution marginale deX . Dans le modèle linéaire normal, nous pouvons avoirθ=(β,σ2) mais cela n'est pas supposé. L'espace complet des paramètres de(θ,ψ) estΘ×Ψ , un produit cartésien, et les deux paramètres n'ont pas de partie commune.
Cela peut être interprété comme une factorisation de l'expérience statistique, (ou du processus de génération de données, DGP), le premier X est généré selon fψ(x) , et comme deuxième étape, Y est généré selon la densité conditionnelle fθ(y∣X=x) . Notez que la première étape n'utilise aucune connaissance sur θ , qui n'entre que dans la deuxième étape. La statistique X est accessoire pour θ , voir https://en.wikipedia.org/wiki/Ancillary_statistic .
Mais, selon les résultats de la première étape, la deuxième étape pourrait être plus ou moins informative sur θ . Si la distribution donnée par fψ(x) présente une très faible variance, disons que les x observés seront concentrés dans une petite région, il sera donc plus difficile d'estimer θ . Ainsi, la première partie de cette expérience en deux étapes détermine la précision avec laquelle θ peut être estimée. Il est donc naturel de conditionner X=x par inférence sur les paramètres de régression. C'est l'argument de la conditionnalité, et le schéma ci-dessus montre clairement ses hypothèses.
Dans les expériences conçues, son hypothèse se maintiendra principalement, souvent avec des données d'observation non. Voici quelques exemples de problèmes: régression avec des réponses retardées comme prédicteurs. Le conditionnement sur les prédicteurs dans ce cas conditionnera également la réponse! (J'ajouterai plus d'exemples).
§4.3 L'état actuel de la théorie de la décision et la Théorie de Neyman-Pearson .
θXθXθ
Cet argument de séparation est également utile car il pointe vers les cas où il ne peut pas être utilisé, par exemple la régression avec des réponses retardées comme prédicteurs.