Considérons un modèle mixte linéaire simple, par exemple un modèle d'interception aléatoire où nous estimons la dépendance de sur chez différents sujets, et supposons que chaque sujet a sa propre interception aléatoire:Ici, les interceptions sont modélisées comme provenant d'une distribution gaussienne c_i \ sim \ mathcal N (0, \ tau ^ 2) et le bruit aléatoire est également gaussien \ epsilon \ sim \ mathcal N (0, \ sigma ^ 2). Dans la syntaxe, ce modèle serait écrit comme .x y = a + b x + c i + ϵ . c i c i ∼ N ( 0 , τ 2 ) ϵ ∼ N ( 0 , σ 2 ) .yX
y= a + b x + cje+ ϵ .
cjecje∼ N( 0 , τ2)
ϵ ∼ N( 0 , σ2) .
lme4
y ~ x + (1|subject)
Il est instructif de réécrire ce qui précède comme suit:
y∣ c ∼ N( a + b x + c , σ2)c ∼ N( 0 , τ2)
Il s'agit d'une manière plus formelle de spécifier le même modèle probabiliste. De cette formulation, nous pouvons voir directement que les effets aléatoires ne sont pas des "paramètres": ce sont des variables aléatoires non observées. Alors, comment pouvons-nous estimer les paramètres de variance sans connaître les valeurs de ? ccjec
Notez que la première équation ci-dessus décrit la distribution conditionnelle de étant donné . Si nous connaissons la distribution de et de , alors nous pouvons déterminer la distribution inconditionnelle de en intégrant sur . Vous la connaissez peut-être comme la loi de la probabilité totale . Si les deux distributions sont gaussiennes, alors la distribution inconditionnelle résultante est également gaussienne.c cyccy cy∣ cyc
Dans ce cas, la distribution inconditionnelle est simplement , mais nos observations ne sont pas des échantillons de celle-ci car il existe plusieurs mesures par sujet. Pour continuer, nous devons considérer la distribution de l'ensemble du vecteur à dimensions de toutes les observations: où est une matrice bloc-diagonale composée de et . Vous avez demandé de l'intuition donc je veux éviter les maths. Le point important est que cette équation n'a pasn y y ∼ N ( a + b x , Σ ) Σ = σ 2 I n + τ 2 I N ⊗ 1 M σ 2 τ 2 c c iN( a + b x , σ2+ τ2)ny
y ∼ N( a + b x , Σ )
Σ = σ2jen+τ2IN⊗1Mσ2τ2cplus!
C'est ce que l'on adapte réellement aux données observées, et c'est pourquoi on dit que ne sont pas les paramètres du modèle.
cje
Lorsque les paramètres , , et sont ajustés, on peut déterminer la distribution conditionnelle de pour chaque . Ce que vous voyez dans la sortie du modèle mixte sont les modes de ces distributions, alias les modes conditionnels.b τ 2 σ 2 c i iunebτ2σ2cjeje