Je parle en particulier du coefficient de corrélation produit-moment de Pearson.
Je parle en particulier du coefficient de corrélation produit-moment de Pearson.
Réponses:
Quelle est la différence entre la corrélation entre et et une régression linéaire prédisant partir de ?Y Y X
Tout d'abord, quelques similitudes :
Deuxièmement, quelques différences :
lm
et cor.test
dans R
, donnera des valeurs p identiques.
Voici une réponse que j'ai postée sur le site Web graphpad.com :
La corrélation et la régression linéaire ne sont pas identiques. Considérez ces différences:
Dans le seul prédicteur de régression linéaire, la pente normalisée a la même valeur que le coefficient de corrélation. L'avantage de la régression linéaire est que la relation peut être décrite de manière à ce que vous puissiez prédire (en fonction de la relation entre les deux variables) le score de la variable prédite en fonction d'une valeur particulière de la variable prédictive. Une régression linéaire, en particulier, fournit une information indiquant qu'une corrélation n'est pas l'interception, la valeur de la variable prédite lorsque le prédicteur est 0.
En bref, ils produisent des résultats identiques sur le plan du calcul, mais il existe davantage d'éléments susceptibles d'interprétation dans la régression linéaire simple. Si vous souhaitez simplement décrire l'ampleur de la relation entre deux variables, utilisez la corrélation - si vous souhaitez prédire ou expliquer vos résultats en termes de valeurs particulières, vous souhaitez probablement une régression.
L'analyse de corrélation ne quantifie que la relation entre deux variables en ignorant la variable dépendante et la variable indépendante. Mais avant d'appliquer la régression, vous devez calrifier l'impact de la variable que vous souhaitez vérifier sur l'autre variable.
Toutes les réponses fournies jusqu'à présent fournissent des informations importantes, mais il ne faut pas oublier que vous pouvez transformer les paramètres de l'un en l'autre:
Ainsi, vous pouvez transformer les deux l'un en l'autre en mettant à l'échelle et en décalant leurs paramètres.
Un exemple dans R:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
Citant Altman, DG, "Statistiques pratiques pour la recherche médicale", Chapman & Hall, 1991, page 321: "La corrélation réduit un ensemble de données à un nombre unique qui n'a aucun rapport direct avec les données réelles. La régression est une méthode beaucoup plus utile, avec des résultats clairement liés à la mesure obtenue. L'intensité de la relation est explicite et l'incertitude est clairement visible à partir des intervalles de confiance ou des intervalles de prévision "
L'analyse de régression est une technique permettant d'étudier la cause de l'effet d'une relation entre deux variables. alors que, L’analyse de corrélation est une technique pour étudier la quantification de la relation entre deux variables.
La corrélation est un indice (un seul nombre) de la force d'une relation. La régression est une analyse (estimation des paramètres d'un modèle et test statistique de leur importance) de l'adéquation d'une relation fonctionnelle particulière. La taille de la corrélation est liée à la précision des prévisions de la régression.
La corrélation est un terme dans une statistique qui détermine s'il existe ou non une relation entre deux, puis le degré de relation. Sa plage est de -1 à +1. Tandis que la régression signifie un retour vers la moyenne. À partir de la régression, nous prédisons la valeur en gardant une variable dépendante et une autre indépendante, mais il convient de préciser la valeur de la variable à prédire.