Je suis moi-même aux prises avec cette question en ce moment. Voici un résultat qui peut être utile. Considérons le modèle linéaire
y=Xβ+ϵ,ϵ∼N(0,σ2)
où et β et σ 2 sont les paramètres d'intérêt. La probabilité conjointe esty∈Rn,β∈Rp,βσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Optimiser les rendements de vraisemblance conjointe
β^=X+y
σ^2=1n||r||2
où est la pseudo -inverse de X et r = y - X β est le vecteur en forme résiduelle. Notez que dans σ 2 nous avons 1 / n au lieu des degrés de liberté familiers corrigée rapport 1 / ( n - p )X+Xr=y−Xβ^σ^21/n1/(n−p) . Cet estimateur est connu pour être biaisé dans le cas de l'échantillon fini.
Now suppose instead of optimizing over both β and σ2, we integrate β out and estimate σ2 from the resulting integrated likelihood:
σ^2=maxσ2∫RpL(β,σ2)dβ
Using elementary linear algebra and the Gaussian integral formula, you can show that
σ^2=1n−p||r||2
This has the degrees-of-freedom correction which makes it unbiased and generally favored over the joint ML estimate.
D'après ce résultat, on pourrait se demander s'il y a quelque chose de fondamentalement avantageux dans la probabilité intégrée, mais je ne connais aucun résultat général qui réponde à cette question. Le consensus semble être que le BC intégré est plus efficace pour rendre compte de l'incertitude dans la plupart des problèmes d'estimation. En particulier, si vous estimez une quantité qui dépend d'autres estimations de paramètres (même implicitement), l'intégration sur les autres paramètres rendra mieux compte de leurs incertitudes.