Une propriété fondamentale de la régression à effets aléatoires est que les estimations d'interception aléatoire sont "rétrécies" vers la moyenne globale de la réponse en fonction de la variance relative de chaque estimation.
C'est également le cas des modèles mixtes linéaires généralisés (GLMM) tels que la régression logistique.
En quoi ce retrait est-il meilleur que / différent de la régression logistique à effets fixes avec un codage à chaud des variables ID et un retrait via la régularisation L2?
Dans un modèle à effets fixes, je peux contrôler la quantité de retrait en modifiant ma pénalité, , de régularisation L2 tandis que dans un modèle à effets aléatoires, je n'ai aucun contrôle sur la quantité de retrait. Serait-il exact de dire "utiliser le modèle à effets aléatoires si l'objectif est l'inférence mais utiliser le modèle à effets fixes si l'objectif est la prédiction"?