Ici, je suis sur de la glace mince, mais laissez-moi essayer: j'ai le sentiment (veuillez commenter!) Que la principale différence entre les statistiques et l'économétrie est qu'en statistiques, nous avons tendance à considérer les régresseurs comme fixes, d'où la matrice de conception terminologique qui provient évidemment de conception d'expériences, où l'on suppose que nous choisissons d' abord puis fixons les variables explicatives.
Mais pour la plupart des ensembles de données, la plupart des situations, c'est un mauvais ajustement. Nous observons vraiment les variables explicatives et, en ce sens, elles se situent sur le même pied que les variables de réponse, elles sont toutes deux déterminées par un processus aléatoire hors de notre contrôle. En considérant les comme «fixes», nous décidons de ne pas considérer beaucoup de problèmes que cela pourrait causer. x
En considérant les régresseurs comme stochastiques, en revanche, comme les économétriciens ont tendance à le faire, nous ouvrons la possibilité d'une modélisation qui tente de considérer de tels problèmes. Une courte liste de problèmes que nous pourrions alors considérer et intégrer dans la modélisation est la suivante:
- erreurs de mesure dans les régresseurs
- corrélations entre les régresseurs et les termes d'erreur
- réponse retardée en tant que régresseur
- ...
Probablement, cela devrait être fait beaucoup plus fréquemment que cela se fait aujourd'hui?
EDIT
J'essaierai d'étoffer un argument pour conditionner les régresseurs de manière un peu plus formelle. Que un vecteur aléatoire, et l' intérêt est en régression sur , où la régression , on entend l'espérance conditionnelle de sur . Sous des hypothèses multinormales, ce sera une fonction linéaire, mais nos arguments ne dépendent pas de cela. Nous commençons par factoriser la densité conjointe de la manière habituelle
mais ces fonctions ne sont pas connues, nous utilisons donc un modèle paramétré
où paramètre la distribution conditionnelle et(Y,X)YXYXf(y,x)=f(y∣x)f(x)
f(y,x;θ,ψ)=fθ(y∣x)fψ(x)
θψla distribution marginale de . Dans le modèle linéaire normal, nous pouvons avoir mais cela n'est pas supposé. L'espace de paramètres complet de est , un produit cartésien, et les deux paramètres n'ont aucune partie en commun.Xθ=(β,σ2)(θ,ψ)Θ×Ψ
Cela peut être interprété comme une factorisation de l'expérience statistique, (ou du processus de génération de données, DGP), le premier est généré selon , et comme deuxième étape, est généré selon la densité conditionnelle . Notez que la première étape n'utilise aucune connaissance sur , qui n'entre que dans la deuxième étape. La statistique est accessoire pour , voir https://en.wikipedia.org/wiki/Ancillary_statistic .Xfψ(x)Yfθ(y∣X=x)θXθ
Mais, selon les résultats de la première étape, la deuxième étape pourrait être plus ou moins informative sur . Si la distribution donnée par a une très faible variance, disons que les observés seront concentrés dans une petite région, il sera donc plus difficile d'estimer . Ainsi, la première partie de cette expérience en deux étapes détermine la précision avec laquelle peut être estimée. Il est donc naturel de conditionner par inférence sur les paramètres de régression. C'est l'argument de la conditionnalité, et le schéma ci-dessus montre clairement ses hypothèses.θfψ(x)xθθX=x
Dans les expériences conçues, son hypothèse se maintiendra principalement, souvent avec des données d'observation non. Voici quelques exemples de problèmes: régression avec des réponses retardées comme prédicteurs. Le conditionnement sur les prédicteurs dans ce cas conditionnera également la réponse! (J'ajouterai plus d'exemples).
Un livre qui traite de ces problèmes de manière très détaillée est Information et familles exponentielles: en théorie statistique par O. E Barndorff-Nielsen. Voir en particulier le chapitre 4. L'auteur dit que la logique de séparation dans cette situation est cependant rarement expliquée mais donne les références suivantes: RA Fisher (1956) Statistical Methods and Scientific Inference et Sverdrup (1966) L'état actuel de la théorie de la décision et la théorie de Neyman-Pearson .§4.3