La transformation de r en Fisher z profite-t-elle d'une méta-analyse?


11

Habituellement, est transformé en Fisher pour tester la différence entre deux valeurs . Mais, lorsqu'une méta-analyse doit être effectuée, pourquoi devrions-nous prendre une telle mesure? Corrige-t-il l'erreur de mesure ou l'erreur non due à l'échantillonnage et pourquoi devrions-nous supposer que est une estimation imparfaite de la corrélation de la population?z r rrzrr


1
La dernière partie de votre question ("Pourquoi devrions-nous supposer que r est une estimation imparfaite de la corrélation de la population?") Est quelque peu sans rapport avec la partie précédente. Et qu'entendez-vous par «imparfait»? Voulez-vous dire partial?
Wolfgang

@subhash: Pouvez-vous indiquer plus précisément ce que vous entendez par «corriger l'erreur de mesure ou l'erreur non due à l'échantillonnage»? Répondre à votre question pourrait être plus facile si vous pouviez définir ces termes sans ambiguïté, comme les exprimer en termes de choses telles que des variables aléatoires, des distributions, des paramètres ou des estimateurs.
Adam Hafdahl,

Réponses:


24

Il y a en fait pas mal de débat dans la littérature pour savoir si l'on doit effectuer une méta-analyse avec les coefficients de corrélation bruts ou avec les valeurs transformées de r à z. Cependant, en laissant de côté cette discussion, il y a vraiment deux raisons pour lesquelles la transformation est appliquée:

  1. De nombreuses méthodes méta-analytiques supposent que la distribution d'échantillonnage des résultats observés est (au moins approximativement) normale. Lorsque (la vraie corrélation) dans une étude particulière est loin de 0 et que la taille de l'échantillon est petite, la distribution d'échantillonnage de la corrélation (brute) devient très asymétrique et n'est pas du tout bien approchée par une distribution normale. La transformation r-to-z de Fisher s'avère être une transformation de normalisation plutôt efficace (même si ce n'est pas le but principal de la transformation - voir ci-dessous).ρ

  2. De nombreuses méthodes méta-analytiques supposent que les variances d'échantillonnage des résultats observés sont (au moins approximativement) connues. Par exemple, pour le coefficient de corrélation brut, la variance d'échantillonnage est approximativement égale à:

Var[r]=(1ρ2)2n1

Afin de calculer réellement , nous devons faire quelque chose à propos de cette valeur inconnue de dans cette équation. Par exemple, nous pourrions simplement brancher la corrélation observée (c.-à-d. ) dans l'équation. Cela nous donnera une estimation de la variance d'échantillonnage, mais il se trouve que c'est une estimation plutôt inexacte (en particulier dans les échantillons plus petits). En revanche, la variance d'échantillonnage d'une corrélation transformée de r à z est approximativement égale à:ρ rVar[r]ρr

Var[z]=1n3

Notez que cela ne dépend plus de quantités inconnues. Il s'agit en fait de la propriété de stabilisation de la variance de la transformation r-to-z (qui est le but réel de la transformation).


4
+1, c'est vraiment informatif et pertinent. J'aimerais pouvoir voter plus d'une fois.
gung - Rétablir Monica

@Wolfgang Assez intéressant. Peut-être mieux, si le contexte méta-analytique était pris. r est une estimation non biaisée (Hedges et Olkin, 1985). Faut-il le convertir en z de Fisher pour une méta-analyse des corrélations d'échantillons? veuillez expliquer sous cet angle.
Subhash C. Davar

1
Oui, je sais que le biais est généralement négligeable (et en pratique n'est jamais corrigé), mais il n'est pas correct de dire que est non biaisé. En outre, les formules ne corrigent pas l' erreur d'échantillonnage. Ils sont simplement utilisés pour calculer la variance d'échantillonnage, qui est ensuite utilisée pour calculer une moyenne pondérée soit du brut des corrélations transformées. L'erreur de mesure est un autre problème. En utilisant la correction d'atténuation , nous pouvons également corriger une corrélation pour l'erreur de mesure. r
Wolfgang

1
@subhash: Pouvez-vous préciser ce que vous entendez par «r est sans biais (pour une erreur de mesure)»? Faites-vous référence à une notion tirée de la théorie des tests classiques, peut-être telle qu'elle est utilisée par F. Schmidt, J. Hunter et plusieurs de leurs collègues et autres auteurs dans les techniques méta-analytiques de généralisation de la validité? Comme vous le savez peut-être, leurs méthodes mettent l'accent sur l'estimation de la moyenne et de la variance entre les études des corrélations «vraies» qui ont été «corrigées» pour les «artefacts» (p. Ex., Manque de fiabilité, restriction de plage, dichotomisation).
Adam Hafdahl

1
Si nous prenons une vue à effets aléatoires de la méta-analyse, où varie de façon aléatoire (par exemple, parmi les études), nous pourrions également déterminer si ou son homologue Fisher-z satisfait mieux toutes les hypothèses méta-analytiques sur le paramètre de taille d'effet. Par exemple, il est souvent difficile de savoir si ou est plus susceptible d'être distribué normalement, ce que certaines procédures supposent (par exemple, certains estimateurs de vraisemblance maximale et "crédibilité" ou intervalles de prédiction). ρ ζ = tanh - 1 ρ ρ ζρρζ=tanh1ρρζ
Adam Hafdahl
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.