Modèle à plusieurs niveaux vs modèles séparés pour chaque niveau


10

Quels sont les avantages et les inconvénients de l'exécution de modèles distincts par rapport à la modélisation à plusieurs niveaux?

Plus particulièrement, supposons qu'une étude examine les patients nichés dans les cabinets de médecins nichés dans les pays. Quels sont les avantages / inconvénients de l'exécution de modèles distincts pour chaque pays par rapport à un modèle imbriqué à trois niveaux?


2
Techniquement, vous avez besoin d'un peu d'unités de niveau 3 si vous souhaitez obtenir des estimations de paramètres non biaisées dans un modèle à 3 niveaux (en général, la taille de l'échantillon dans tout modèle à plusieurs niveaux est particulièrement importante au plus haut niveau), donc à moins que vous n'ayez un grand échantillon aléatoire de pays (50+ peut-être), vous devriez probablement envisager d'exécuter des modèles séparés à 2 niveaux, ou si vous avez peu de pays, vous pourriez envisager de traiter le pays comme un prédicteur catégorique de niveau 2 dans un modèle à 2 niveaux
Patrick Coulombe

Salut @gung j'étais absent, je vais les regarder maintenant.
Peter Flom - Réintègre Monica

Réponses:


6

La question est datée mais je pense qu'elle est très importante. La meilleure réponse que je puisse obtenir est tirée du livre de Joop J Hox (2010) "Techniques et applications d'analyse à plusieurs niveaux, deuxième édition".

pq

Un modèle de régression à un niveau ordinaire pour les mêmes données estimerait uniquement les pentes d'interception, de variance d'erreur et de régression p + q. La supériorité du modèle de régression multiniveaux est claire si l'on considère que les données sont regroupées en groupes. Si nous avons 100 groupes, l'estimation d'un modèle de régression multiple ordinaire dans chaque groupe séparément nécessite l'estimation de 100 × (1 interception de régression + 1 variance résiduelle + p pentes de régression) plus les interactions possibles avec les q variables au niveau du groupe. La régression à plusieurs niveaux remplace l'estimation de 100 interceptions en estimant une interception moyenne plus sa variance résiduelle entre les groupes, en supposant une distribution normale pour ces résidus. Donc, L'analyse de régression à plusieurs niveaux remplace l'estimation de 100 intersections distinctes en estimant deux paramètres (la moyenne et la variance des intersections), plus une hypothèse de normalité. La même simplification est utilisée pour les pentes de régression. Au lieu d'estimer 100 pentes pour la variable explicative sexe des élèves, nous estimons la pente moyenne ainsi que sa variance entre les groupes et supposons que la distribution des pentes est normale. Néanmoins, même avec un nombre modeste de variables explicatives, l'analyse de régression à plusieurs niveaux implique un modèle compliqué. Généralement, nous ne voulons pas estimer le modèle complet, d'abord parce que cela risque de nous entraîner dans des problèmes de calcul, mais aussi parce qu'il est très difficile d'interpréter un modèle aussi complexe.

C'est pour la description. Maintenant, les pages 29-30 répondront plus précisément à votre question.

Les interceptions et les pentes prévues pour les 100 classes ne sont pas identiques aux valeurs que nous obtiendrions si nous effectuions 100 analyses de régression ordinaire distinctes dans chacune des 100 classes, en utilisant les techniques standard des moindres carrés ordinaires (OLS). Si nous comparions les résultats de 100 analyses de régression OLS distinctes aux valeurs obtenues à partir d'une analyse de régression multiniveau, nous constaterions que les résultats des analyses distinctes sont plus variables. En effet, les estimations multiniveaux des coefficients de régression des 100 classes sont pondérées. Il s'agit de ce que l'on appelle les Empirical Bayes (EB) ou estimations de retrait: une moyenne pondérée de l'estimation spécifique de l'OLS dans chaque classe et du coefficient de régression global, estimé pour toutes les classes similaires.

Par conséquent, les coefficients de régression sont rétrécis vers le coefficient moyen pour l'ensemble des données. Le poids de retrait dépend de la fiabilité du coefficient estimé. Les coefficients qui sont estimés avec une faible précision rétrécissent plus que les coefficients estimés de façon très précise. La précision de l'estimation dépend de deux facteurs: la taille de l'échantillon du groupe et la distance entre l'estimation basée sur le groupe et l'estimation globale. Les estimations pour les petits groupes sont moins fiables et rétrécissent davantage que les estimations pour les grands groupes. Toutes choses étant égales par ailleurs, les estimations très éloignées de l'estimation globale sont supposées moins fiables et elles rétrécissent davantage que les estimations proches de la moyenne globale. La méthode statistique utilisée est appelée estimation bayésienne empirique. En raison de cet effet de retrait, les estimateurs empiriques bayésiens sont biaisés. Cependant, ils sont généralement plus précis, une propriété qui est souvent plus utile que non biaisée (voir Kendall, 1959).

J'espère que c'est satisfaisant.


2

La spécification d'un effet aléatoire implique de supposer que les moyennes de ces niveaux sont des échantillons d'une distribution normale. Mieux vaut les spécifier comme effets fixes, variables factices AKA si cette hypothèse ne correspond pas à vos données. De cette façon, vous contrôlez l'hétérogénéité par groupe dans la moyenne (à ce niveau), mais vous ne permettez PAS l'hétérogénéité dans les réponses à vos variables de niveau inférieur.

Si vous vous attendez à une hétérogénéité en réponse à vos variables explicatives de niveau inférieur, des modèles séparés ont du sens, à moins que vous ne souhaitiez exécuter une sorte de modèle de coefficient aléatoire (ce qui implique à nouveau l'hypothèse que les coefficients sont normalement distribués).

(Je crois qu'il existe des méthodes pour des effets aléatoires non normaux, mais rien d'aussi largement utilisé ou accessible que lme)


1

Avantage: La capacité de tester explicitement les différences de paramètres par grappe (c.-à-d. Les différences de signification ne signifient pas des différences significatives).


2
Cette réponse est beaucoup trop courte. Plus un commentaire qu'une réponse.
Eric Peterson
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.