Sans modélisation à plusieurs niveaux, comment gérer la réplication intra-étude dans une méta-analyse, où l'étude est l'unité de réplication?


13

Description de l'étude:

J'ai observé une erreur courante parmi les méta-analyses, en ce qui concerne le traitement de la réplication intra-étude. Il n'est pas clair pour moi si l'erreur invalide les études lorsque des hypothèses sont énoncées. Cependant, si je comprends bien, ces hypothèses violent une prémisse de base des statistiques.

À titre d'exemple, une étude teste les effets des produits chimiques sur la réponse Y .XOui

L'analyse est effectuée sur le rapport de réponse logarithmique: le rapport du traitement (en présence de X ) au témoin Y 0 (pas X ):Oui+XXOui0X

R=ln(Oui+XOui0)

Certaines des études incluses dans la méta-analyse contiennent des traitements multiples, par exemple différents niveaux ou formes chimiques de . Pour chaque traitement, il existe une valeur différente de R , bien que R utilise toujours la même valeur de Y 0 .XRROui0

Les méthodes indiquent:

X

Des questions:

  • N'est-ce pas cette pseudoréplication?
  • Est-ce inapproprié même si la violation de l'indépendance est mentionnée dans les méthodes?
  • Quel serait un moyen facile (par exemple dans la capacité d'un simple logiciel de méta-analyse) de gérer la réplication de l'étude?

Pensées initiales:

  • Résumer les résultats de chaque étude, par exemple en prenant la réponse moyenne
  • Sélectionnez un seul traitement dans chaque étude en fonction de critères a priori (par exemple, dose la plus élevée, première mesure)?

Y a-t-il d'autres solutions?


Ceci est juste une supposition rapide, mais vous voudrez peut-être vérifier Kim / Becker 2010: Le degré de dépendance entre les tailles d'effet de traitement multiple ; Je n'ai pas lu l'article mais il pourrait être lié à votre question.
Bernd Weiss

La méta-analyse fait-elle vraiment la moyenne de toutes ces valeurs de différence de R? Cela semble plutôt étrange, par exemple en tentant une méta-régression - auquel cas les différences entre R à différents niveaux de X pourraient être ce que vous souhaitez combiner entre les études.
invité le

@ invité oui, ils le sont vraiment; il serait intéressant de voir comment différents niveaux de X affectent R, mais la question est simplement posée "y a-t-il un effet de X"? Il peut y avoir un pouvoir limité pour tester l'effet de X sur R, dans ce contexte (réponse de l'écosystème à l'ajout de nutriments), en raison de la variété des méthodes et des conditions d'étude.
David LeBauer

1
Tu as raison, c'est un problème. Pas tellement avec les estimations ponctuelles, mais les mesures de précision (c.-à-d. Les erreurs standard) seront trop petites; il ignore l'utilisation multiple des données du groupe de contrôle. Cela ne devrait cependant pas être une nouvelle pour quiconque en méta-analyse. L'article de Kim / Becker ci-dessus est essentiellement une nouvelle déclaration - avec reconnaissance - de Gleser & Olkin (1994). Tailles d'effet dépendant stochastiquement. Dans Cooper & Hedges (Eds), Le manuel de synthèse de la recherche (pp. 339–355). Ce livre est un texte standard dans le domaine, je crois maintenant dans une deuxième édition.
invité le

Réponses:


3

Oui, c'est un problème car il y a une dépendance d'échantillonnage dans les réponses qui devait être prise en compte (bien que parfois l'effet puisse être négligeable et nous violons l'hypothèse tout le temps lorsque nous effectuons des analyses statistiques). Il existe des méthodes pour y remédier, une approche consiste à inclure les covariances entre les expériences connexes (blocs hors diagonale) dans la matrice de variance-covariance des erreurs (voir par exemple Hedges et al., 2010). Heureusement avec les rapports de log c'est assez facile. Vous pouvez obtenir des covariances approximatives entre les expériences car la variance (var) de log R est (si Yx et Y0 sont des groupes indépendants): log Yx - log Y0, pour suivre la notation de la question, Yx se référant au groupe expérimental et Y0 le groupe de contrôle. La covariance (cov) entre deux valeurs (par exemple traitement 1 ou traitement 2) pour log R est cov (loge Yx_1 - log Y0, log Yx_2 - log Y0), qui est égal à var (log Y0), et est calculé comme SD_Y0 / (n_Y0 * Y0), où SD_Y0 est l'écart type de Y0, n_Y0 est la taille de l'échantillon dans le traitement de contrôle et Y0 est la valeur du traitement témoin. Nous pouvons maintenant brancher toute la matrice variance-covariance dans notre modèle au lieu d'utiliser uniquement les variances (ei), qui est la manière classique d'effectuer une méta-analyse. Un exemple de ceci peut être trouvé dansLimpens et al. 2011 en utilisant le package metahdep dans R (sur le bioconducteur), ou Stevens et Taylor 2009 pour Hedge's D.

Si vous voulez rester très simple, je serais tenté d'ignorer le problème et d'essayer d'évaluer l'effet de la dépendance à l'échantillonnage (par exemple, combien de traitements y a-t-il dans les études? Comment les résultats changent-ils si je n'utilise qu'un seul traitement? Etc.) .


2

Oui, c'est un problème.

Oui, c'est inapproprié même si au moins il est transparent sur ce qu'il fait (il obtient des points pour la transparence, mais n'est toujours pas satisfaisant).

Je doute qu'il existe un "moyen facile" de résoudre ce problème. Je ne connais pas grand-chose aux approches adoptées pour la méta-analyse, mais s'il existe un logiciel de méta-analyse spécifique et que des recherches comme celle-ci sont produites à l'aide de celui-ci et publiées, cela pourrait bien être l'approche courante. L'une ou l'autre de vos réponses proposées perd une certaine granularité des informations de chaque étude (c'est-à-dire le problème opposé de ce que les éditeurs ont fait).

La solution évidente est un modèle à effets mixtes (c'est-à-dire à plusieurs niveaux) avec étude comme facteur aléatoire. Je suggérerais d'utiliser un logiciel statistique spécialisé pour cela si un logiciel de méta-analyse ne peut pas le faire. Vous pouvez toujours utiliser le logiciel de méta-analyse pour le stockage et le traitement des données, et simplement exporter les données vers R, Stata ou SAS pour l'analyse.


J'avais pensé à des essais cliniques et je me demandais si ça allait dans le cas où une courbe dose-réponse était le résultat, car alors cela pourrait être de comparer les fonctions de la courbe. Est-ce une possibilité?
Michelle

Je ne pense pas que cela fasse beaucoup de différence pour le problème que plusieurs résultats d'une étude seront en quelque sorte corrélés et donc pas de "nouvelles" informations. Mais une méta-analyse des fonctions des courbes serait certainement possible, à condition que vous contrôliez d'une manière ou d'une autre la corrélation entre les différentes estimations de ces courbes. S'ils sont tous de la même forme et qu'il s'agit simplement d'estimer des paramètres, cela devrait être possible.
Peter Ellis

@Michelle Je suis d'accord avec Peter: si vous résumez les paramètres de la courbe, vous obtenez une estimation de paramètre à partir de chaque courbe, et cela devrait être bien.
Abe
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.