La forme fermée n'existe pas pour T, mais une approche très intuitive et stable se fait via l'algorithme EM. Maintenant que l'élève est un mélange d'échelle de normales, vous pouvez écrire votre modèle comme
yi=μ+ei
où et w i ∼ G a ( νei|σ,wi∼N(0,σ2w−1i). Cela signifie que conditionnellement surwile mle ne sont que la moyenne pondérée et l'écart type. Ceci est l'étape "M"wi∼Ga(ν2,ν2)wi
σ 2=Σiwi(yi - μ )2
μ^=∑iwiyi∑iwi
σ^2=∑iwi(yi−μ^)2n
Maintenant, l'étape "E" remplace par son attente compte tenu de toutes les données. Ceci est donné comme:wi
w^je= ( ν+ 1 ) σ2νσ2+ ( yje- μ )2
il vous suffit donc d'itérer les deux étapes ci-dessus, en remplaçant le "côté droit" de chaque équation par les estimations des paramètres actuels.
Cela montre très facilement les propriétés de robustesse de la distribution t car les observations avec de grands résidus reçoivent moins de poids dans le calcul pour l'emplacement , et une influence limitée dans le calcul de σ 2 . Par "influence bornée", je veux dire que la contribution à l'estimation pour σ 2 de la ième observation ne peut pas dépasser un seuil donné (c'est ( ν + 1 ) σ 2 o l d dans l'algorithme EM). De plus, ν est un paramètre de «robustesse» en ce que l'augmentation (la diminution) de ν entraînera plus (moins) de poids uniformes et donc plus (moins) de sensibilité aux valeurs aberrantes.μσ2σ2(ν+1)σ2oldνν
Une chose à noter est que la fonction de vraisemblance logarithmique peut avoir plus d'un point stationnaire, donc l'algorithme EM peut converger vers un mode local au lieu d'un mode global. Les modes locaux sont susceptibles d'être trouvés lorsque le paramètre d'emplacement est démarré trop près d'une valeur aberrante. Donc, commencer par la médiane est un bon moyen d'éviter cela.