Covariance vs autocorrélation


12

J'essaie de comprendre s'il existe une relation directe entre ces concepts. Strictement à partir des définitions, ils semblent être différents concepts en général. Cependant, plus j'y pense, plus je pense qu'ils sont très similaires.

Soit X,Oui des vecteurs aléatoires WSS. La covariance, CXOui , est donnée par

CXOui=E[(X-μX)(Oui-μy)H]
où représente l'hermitien du vecteur.H

Soit un vecteur aléatoire WSS. La fonction d'autocorrélation, , est donnée parZRXX

RZZ(τ)=E[(Z(n)-μz)(Z(n+τ)-μz)H]

Modifier la note Il y a une correction à cette définition appliquée au traitement du signal, voir la réponse de Matt ci-dessous.

La covariance n'implique pas un concept de temps, elle suppose que chaque élément du vecteur aléatoire est une réalisation différente d'un générateur aléatoire. L'autocorrélation suppose qu'un vecteur aléatoire est l'évolution temporelle d'un générateur aléatoire initial. Pourtant, en fin de compte, ils sont tous deux la même entité mathématique, une séquence de nombres. Si vous laissez , alors il apparaît Y a-t-il quelque chose de plus subtil qui me manque?X=Oui=Z

CXOui=RZZ


La définition de l'AutoCorrélation est incorrectement énoncée dans la question comme l'a souligné MattRZZ(τ)
ijuneja

Réponses:


12

Selon votre définition de l'autocorrélation, l'autocorrélation est simplement la covariance des deux variables aléatoires et Z ( n + τ ) . Cette fonction est également appelée autocovariance .Z(n)Z(n+τ)

Soit dit en passant, dans le traitement du signal, l'autocorrélation est généralement définie comme

RXX(t1,t2)=E{X(t1)X(t2)}

c'est-à-dire, sans soustraire la moyenne. L'autocovariance est donnée par

CXX(t1,t2)=E{[X(t1)-μX(t1)][X(t2)-μX(t2)]}

Ces deux fonctions sont liées par

CXX(t1,t2)=RXX(t1,t2)-μX(t1)μX(t2)

Si vous regardez comme une variable, alors l'autocorrélation devient une fonction de cet "intervalle de temps" qui peut fournir des informations très intéressantes sur l'ensemble de données. Examinez la relation entre l'autocorrélation, les transformées de Fourier discrètes et le théorème de Wiener – Khinchin. τ
PhilMacKay

@PhilMacKay: Bien sûr, mais cela ne fonctionne que pour les processus WSS. J'ai donné les définitions du cas général, où les processus ne sont pas nécessairement stationnaires.
Matt L.

Oui, en effet, les processus non stationnaires peuvent être ennuyeux pour l'analyse des données, c'est pourquoi j'essaie toujours de dé-tendance des données avant d'utiliser mes outils statistiques bien-aimés! Ce n'est pas toujours possible, cependant ...
PhilMacKay

0

Remarquez comment votre définition de l'autocorrélation inclut un terme supplémentaire , qui spécifie un décalage par rapport aux deux séquences de nombre Z ( n ) et Z ( n + τ ) . En fait, la notation suggère que R Z Z ( τ ) est une fonction continue définie pour tout τ R + , tandis que C X Y est un scalaire.τZ(n)Z(n+τ)RZZ(τ)τR+CXOui

X=Oui=Zτ=0RZZ(τ)

Dans mon expérience personnelle (astrophysique, traitement de divers capteurs), la covariance a été utilisée comme coefficient pour vérifier la similitude de deux ensembles de données, tandis que l'autocorrélation a été utilisée pour caractériser la distance de corrélation, c'est-à-dire la rapidité avec laquelle une donnée évolue pour devenir une autre donnée entièrement.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.