Soit y1,…,yn les données observées qui sont supposées être une réalisation d'une séquence de iid variables aléatoires Y1,…,Yn avec une fonction de densité de probabilité commune pe définie par rapport à une mesure sigma finie ν . La densité pe est appelée densité DGP (Data Generating Process).
Dans le modèle de probabilité du chercheur
M≡{p(y;θ):θ∈Θ} est une collection de fonctions de densité de probabilité qui sont indexées par un vecteur de paramètre
θ . Supposons que chaque densité dans M est définie par rapport à une mesure sigma-finie commune ν (par exemple, chaque densité pourrait être une fonction de masse de probabilité avec le même espace d'échantillon S ).
Il est important de garder la densité pe qui a réellement généré les données conceptuellement distincte du modèle de probabilité des données. Dans les traitements statistiques classiques, une séparation soigneuse de ces concepts est soit ignorée, pas faite, ou on suppose dès le début que le modèle de probabilité est correctement spécifié.
Un modèle M correctement spécifié par rapport à pe est défini comme un modèle où pe∈M ν presque partout. Lorsque
M est mal spécifié par rapport à pe cela correspond au cas où le modèle de probabilité n'est pas correctement spécifié.
Si le modèle de probabilité est correctement spécifié, alors il existe un θ∗ dans l'espace des paramètres Θ tel que
pe(y)=p(y;θ∗) ν presque partout. Un tel vecteur de paramètres est appelé "vrai vecteur de paramètres". Si le modèle de probabilité est mal spécifié, alors le vrai vecteur de paramètre n'existe pas.
Au sein de modèle cadre de White l'erreur de spécification du but est de trouver l'estimation des paramètres θ n qui minimise
ℓ n ( θ ) ≡ ( 1 / n ) Σ n i = 1 log p (θ^nℓ^n(θ)≡(1/n)∑ni=1logp(yi;θ) sur un espace de paramètres compactΘ . On suppose qu'un minimiseur global unique stricte,θ∗ , de la valeur attendue de ℓ n sur Θ est situé à l'intérieur de Θℓ^nΘΘ. Dans le cas chanceux où le modèle de probabilité est correctement spécifié, θ∗ peut être interprété comme la "vraie valeur du paramètre".
Dans le cas particulier où le modèle de probabilité est correctement spécifié, alors θ n est familier estimation de vraisemblance maximale. Si nous ne savons pas avoir une connaissance absolue que le modèle de probabilité est correctement spécifié, θ n est appelé une estimation de probabilité quasi-maximale et l'objectif est d'estimer θ * . Si nous avons de la chance et que le modèle de probabilité est correctement spécifié, alors l'estimation de vraisemblance quasi-maximale se réduit comme un cas spécial à l'estimation de vraisemblance maximale familière et
θ ∗ devient la vraie valeur du paramètre.θ^nθ^nθ∗θ∗
La cohérence dans le cadre de White (1982) correspond à la convergence vers θ∗ sans exiger que θ∗ soit nécessairement le véritable vecteur de paramètres. Dans le cadre de White, nous ne pourrions jamais estimer la probabilité de l'événement que les ensembles produits par δ incluent la distribution VRAIE P *. Au lieu de cela, nous estimerions toujours la distribution de probabilité P ** qui est la probabilité de l'événement que les ensembles produits par δ incluent la distribution spécifiée par la densité
p(y;θ∗) .
Enfin, quelques commentaires sur les erreurs de spécification du modèle. Il est facile de trouver des exemples où un modèle mal spécifié est extrêmement utile et très prédictif. Par exemple, considérons un modèle de régression non linéaire (ou même linéaire) avec un terme d'erreur résiduelle gaussienne dont la variance est extrêmement faible, mais l'erreur résiduelle réelle dans l'environnement n'est pas gaussienne.
Il est également facile de trouver des exemples où un modèle correctement spécifié n'est pas utile et non prédictif. Par exemple, considérons un modèle de marche aléatoire pour prédire les cours des actions qui prédit le cours de clôture de demain est une somme pondérée du cours de clôture d'aujourd'hui et du bruit gaussien avec une très grande variance.
L'objectif du cadre de spécification erronée du modèle n'est pas d'assurer la validité du modèle mais plutôt d'assurer la fiabilité. Autrement dit, assurez-vous que l'erreur d'échantillonnage associée à vos estimations de paramètres, intervalles de confiance, tests d'hypothèse, etc., est correctement estimée malgré la présence d'une petite ou d'une grande quantité de spécification erronée du modèle. Les estimations de vraisemblance quasi-maximales sont asymptotiquement normales centrées à θ∗ avec un estimateur à matrice de covariance qui dépend à la fois des première et deuxième dérivées de la fonction log-vraisemblance négative. Dans le cas particulier où vous avez de la chance et que le modèle est correct, toutes les formules se réduisent au cadre statistique classique familier où le but est d'estimer les "vraies" valeurs des paramètres.