La fonction d'autocorrélation décrit-elle complètement un processus stochastique?


31

Un processus stochastique est-il complètement décrit par sa fonction d'autocorrélation?

Sinon, quelles propriétés supplémentaires seraient nécessaires?

Réponses:


44

Qu'entend-on par description complète d'un processus stochastique? Eh bien, mathématiquement, un processus stochastique est une collection {X(t):tT} de variables aléatoires, une pour chaque instant t dans un ensemble d'index T , où généralement T est la ligne réelle entière ou la ligne réelle positive, et une description complète signifie que pour chaque entier n1 et n instants de temps t1,t2,,tnT, nous connaissons les distributions (conjointes) des n variables aléatoires X(t1) , X(t2) , ,X(tn) . Il s'agit d'une énorme quantité d'informations: nous devons connaître le CDF de X(t) pour chaque instant t , le CDF ( bidimensionnel) commun de X(t1) et X(t2) pour tous les choix de temps instants t1 ett2 , les CDF (tridimensionnels) deX(t1) ,X(t2) etX(t3) , etc. etc. etc.

Alors, naturellement, les gens ont cherché des descriptions plus simples et des modèles plus restrictifs. Une simplification se produit lorsque le processus est invariant à une modification de l'origine temporelle. Cela signifie que

  • Toutes les variables aléatoires du processus ont des CDF identiques: FX(t1)(x)=FX(t2)(x) pour tout t1,t2 .
  • Deux variables aléatoires séparées par une certaine durée spécifiée ont le même CDF commun que toute autre paire de variables aléatoires séparées par la même durée. Par exemple, les variables aléatoires X(t1) et X(t1+τ) sont séparées par τ secondes, tout comme les variables aléatoires X(t2) et X(t2+τ) , et donc FX(t1),X(t1+τ)(x,y)=FX(t2),X(t2+τ)(x,y)
  • Tous les trois variables aléatoires X(t1) , X(t1+τ1) , X(t1+τ1+τ2) espacées τ1 et τ2 ont à part le même CDF joint en X(t2) , X(t2+τ1) , X(t2+τ1+τ2), qui sont également espacésτ1 etτ2
  • et ainsi de suite pour tous les CDF multidimensionnels. Voir, par exemple, la réponse de Peter K. pour plus de détails sur le cas multidimensionnel.

En effet, les descriptions probabilistes du processus aléatoire ne dépendent pas de ce que nous choisissons d'appeler l'origine sur l'axe du temps: décalage de tous les instants temporels t1,t2,,tn d'une certaine quantité fixe τ à t1+τ,t2+τ,,tn+τ donne la même description probabiliste des variables aléatoires. Cette propriété est appelée stationnarité au sens strict et un processus aléatoire qui bénéficie de cette propriété est appelé un processus aléatoire strictement stationnaire ou, plus simplement, un processus aléatoire stationnaire.

Notez qu'une stationnarité stricte en soi ne nécessite aucune forme particulière de CDF. Par exemple, il ne dit pas que toutes les variables sont gaussiennes.

L'adjectif suggère strictement qu'il est possible de définir une forme plus lâche de stationnarité. Si l' articulation CDN du Nth ordre de X(t1),X(t2),,X(tN) est la même que l' articulation CDF du Nth ordre de X(t1+τ),X(t2+τ),,X(tN+τ) pour tous les choix det1,t2,,tN etτ , alors le processus aléatoire est dit stationnaire dans l'ordreN et est appeléprocessus aléatoire stationnaire deNth ordre. Notez qu'un processus aléatoire stationnaire deNth ordre est également stationnaire à l'ordren pour chaquen<N positif. (En effetlanth -order CDF joint est la limite de laNth -order CDF commeNn de l'approche des arguments : une généralisation de FX(x)=limyFX,Y(x,y) ). Un processus aléatoire strictement stationnaire est alors un processus aléatoire qui est fixe à toutescommandesN .

Si un processus aléatoire est stationnaire à (au moins) l'ordre 1 , alors tous les X(t) ont la même distribution et donc, en supposant que la moyenne existe, E[X(t)]=μ est le même pour tout t . De même, E[(X(t))2] est le même pour tous les t et est appelé la puissance du processus. Tous les processus physiques ont une puissance finie et il est donc courant de supposer que E[(X(t))2]< auquel cas, et en particulier dans la littérature d'ingénierie plus ancienne, le processus est appelé processus desecond ordre. Le choix du nom est malheureux car il invite à la confusion avec lastationnarité dusecond ordre (cf.ma réponse sur stats.SE), et donc ici nous appellerons un processus pour lequelE[(X(t))2] est fini pour toutt (avec ou sansE[(X(t))2] est une constante) en tant queprocessus àpuissance finieet évite cette confusion. Mais notez encore que

un processus stationnaire de premier ordre n'est pas nécessairement un processus à puissance finie.

Considérons un processus aléatoire stationnaire à l'ordre 2 . Maintenant, puisque la distribution conjointe de X(t1) et X(t1+τ) est la même que la fonction de distribution conjointe de X(t2) et X(t2+τ) , E[X(t1)X(t1+τ)]=E[X(t2)X(t2+τ)] et la valeur ne dépend que deτ . Ces attentes sont finies pour un processus de puissance finie et leur valeur est appelée fonction d'autocorrélation du processus:RX(τ)=E[X(t)X(t+τ)] est une fonction deτ , la séparation temporelle des variables aléatoiresX(t) etX(t+τ) , et ne dépend pas du tout det . Notez également que

E[X(t)X(t+τ)]=E[X(t+τ)X(t)]=E[X(t+τ)X(t+ττ)]=RX(τ),
et donc la fonction d'autocorrélation est une fonction paire de son argument.

Un processus aléatoire stationnaire de second ordre de puissance finie a les propriétés suivantes:

  1. Sa moyenne E[X(t)] est une constante
  2. Sa fonction d'autocorrélation RX(τ)=E[X(t)X(t+τ)] est fonction de τ , la séparation temporelle des variables aléatoires X(t) et X(t+τ) , et ne fait pas dépendent de t du tout.

L'hypothèse de stationnarité simplifie dans une certaine mesure la description d'un processus aléatoire mais, pour les ingénieurs et les statisticiens intéressés par la construction de modèles à partir de données expérimentales, l'estimation de tous ces CDF n'est pas une tâche triviale, en particulier lorsqu'il n'y a qu'un segment d'un chemin d'échantillon (ou réalisation) x(t) sur laquelle des mesures peuvent être effectuées. Deux mesures relativement faciles à effectuer (car l'ingénieur a déjà les instruments nécessaires sur son établi (ou des programmes dans MATLAB / Python / Octave / C ++ dans sa bibliothèque de logiciels) sont la valeur DC 1T0Tx(t)dt dex(t) et la fonction d'autocorrélationRx(τ)=1T0Tx(t)x(t+τ)dt (ou sa transformée de Fourier, le spectre de puissance dex(t) ). Prendre ces mesures comme estimations de la moyenne et de la fonction d'autocorrélation d'un processus de puissance finie conduit à un modèle très utile que nous discutons ensuite.


Un processus aléatoire de puissance finie est appelé un processus stationnaire au sens large (WSS) (également un processus aléatoire faiblement stationnaire qui a heureusement aussi le même initialisme WSS) s'il a une moyenne constante et sa fonction d'autocorrélation RX(t1,t2)=E[X(t1)X(t2)] ne dépend que de la différence de temps t1t2 (ou t2t1 ).

Notez que la définition ne dit rien sur les CDF des variables aléatoires composant le processus; c'est entièrement une contrainte sur les moments de premier et de second ordre des variables aléatoires. Bien sûr, un processus aléatoire stationnaire de second ordre de puissance finie (ou stationnaire de rangNth (pour N>2 ) ou strictement stationnaire) est un processus WSS, mais l'inverse n'est pas nécessairement vrai.

Un processus WSS n'a pas besoin d'être stationnaire à n'importe quelle commande.

Considérons, par exemple, le processus aléatoire {X(t):X(t)=cos(t+Θ),<t<}Θ prend quatre valeurs également probables 0,π/2,π et 3π/2 . (N'ayez pas peur: les quatre chemins d'échantillonnage possibles de ce processus aléatoire ne sont que les quatre formes d'onde de signal d'un signal QPSK). Notez que chaque X(t) est unevariable aléatoirediscrètequi, en général, prend quatre valeurs également probablescos(t),cos(t+π/2)=sin(t),cos(t+π)=cos(t) etcos(t+3π/2)=sin(t), Il est facile de voir qu'en général X(t) et X(s) ont des distributions différentes, et donc le processus n'est même pas stationnaire de premier ordre. En revanche,

E[X(t)]=14cos(t)+14(sin(t))+14(cos(t))+14sin(t)=0
pour chaquettandis que
E[X(t)X(s)]=14[cos(t)cos(s)+(cos(t))(cos(s))+sin(t)sin(s)+(sin(t))(sin(s))]=12[cos(t)cos(s)+sin(t)sin(s)]=12cos(ts).
En bref, le processus a une moyenne nulle et sa fonction d'autocorrélation ne dépend que de la différence de tempsts, et donc le processusest àsens large stationnaire. Mais il n'est pas stationnaire de premier ordre et ne peut donc pas être stationnaire à des ordres supérieurs non plus.

Même pour les processus WSS qui sont des processus aléatoires stationnaires (ou strictement stationnaires) du second ordre, peu de choses peuvent être dites sur les formes spécifiques des distributions des variables aléatoires. En bref,

Un processus WSS n'est pas nécessairement stationnaire (dans n'importe quel ordre), et la fonction moyenne et d'autocorrélation d'un processus WSS n'est pas suffisante pour donner une description statistique complète du processus.

Enfin, supposons qu'un processus stochastique soit supposé être un processus gaussien («prouver» cela avec un degré de confiance raisonnable n'est pas une tâche triviale). Cela signifie que pour chaque t , X(t) est une variable aléatoire gaussienne et pour tous les entiers positifs n2 et choix de n instants de temps t1 , t2 , ,tn , les N variables aléatoires X(t1) , X(t2) ,,X(tn) sontdes variables aléatoiresgaussiennes conjointes. Maintenant, une fonction de densité gaussienne commune estcomplètementdéterminée par les moyennes, les variances et les covariances des variables aléatoires, et dans ce cas, connaissant la fonction moyenneμX(t)=E[X(t)] (il n'est pas nécessaire que ce soit un constante requise pour la stationnarité au sens large) et la fonction d'autocorrélationRX(t1,t2)=E[X(t1)X(t2)] pour toutt1,t2 (il ne doit pas dépendre uniquement det1t2 comme cela est requis pour la stationnarité au sens large) est suffisant pour déterminer les statistiques de la complètement.

Si le processus gaussien est un processus WSS, il s'agit également d'un processus gaussien strictement stationnaire . Heureusement pour les ingénieurs et les processeurs de signaux, de nombreux processus de bruit physique peuvent être bien modélisés comme des processus gaussiens WSS (et donc des processus strictement stationnaires), de sorte que l'observation expérimentale de la fonction d'autocorrélation fournit facilement toutes les distributions conjointes. De plus, puisque les processus gaussiens conservent leur caractère gaussien lorsqu'ils traversent des systèmes linéaires, et la fonction d'autocorrélation de sortie est liée à la fonction d'autocorrélation d'entrée comme

Ry=hh~RX
afin que les statistiques de sortie puissent également être facilement déterminées, le processus WSS en général et les processus gaussiens WSS en particulier sont d'une grande importance dans les applications d'ingénierie.


Pourriez-vous, s'il vous plaît, commenter "White Noise" dans ce sens? Par définition, l'autocorrélation à est la variance des variables aléatoires. Cela signifie-t-il que l'AWGN (bruit blanc gaussien additif) a une variance infinie? Je demande parce qu'habituellement les gens écrivent n ( t ) N ( 0 , N 0 / 2 ) , est faux? Faut - il écrit n ( t ) N ( 0 , δ ( 0 ) N 0 / 2 ) ? Merci. τ=0n(t) N(0,N0/2)n(t) N(0,δ(0)N0/2)
Royi

1
@Drazick Veuillez poser une question distincte.
Dilip Sarwate

1
Il s'agit d'un mini-cours fantastique sur la définition des processus stationnaires. Je n'ai jamais rien vu de tel - présenté de manière aussi méthodique et claire. Wiki de la communauté?
abalter

@Dilip Sarwate Excusez-moi de mon ignorance. Dans l'exemple. Pourquoi E [X (t)] = 0 pour tout t? Avez-vous supposé l'ergodicité? Comment avez-vous dérivé la fonction de densité de probabilité de X (t) de la fonction de densité de probabilité de thêta pour calculer la valeur attendue? E [X (t) X (s)] = E [cos (t + thêta) * cos (s + thêta)] non? Quelles mesures avez-vous prises pour simplifier cette expression et arriver à ce que vous avez écrit? Merci
VMMF

1
@VMMF Il n'y a AUCUNE ergodicité utilisée. est une variable aléatoire discrète car Θ est une variable aléatoire discrète et prend des valeurs ± cos ( t ) et ± sin ( t ) avec une probabilité égale 1X(t)=cos(t+Θ)Θ±cos(t)±sin(t) . Ergo,E[X(t)]=014E[X(t)]=0 . prend des valeurs cos ( t ) cos ( s ) , ( - cos ( t ) ) ( - cos ( s ) ) = cos ( t ) cos ( s ) , sin ( t )X(t)X(s)cos(t)cos(s)(cos(t))(cos(s))=cos(t)cos(s) et ( - sin ( t ) ) ( - sin ( s ) ) = sin ( t ) sin ( s ) avec une probabilité égale 1sin(t)sin(s)(sin(t))(sin(s))=sin(t)sin(s) . Par conséquent,E[X(t)(X(s)]=114. Par conséquent,E[X(t)(X(s)]=12(cos(t)cos(s)+sin(t)sin(s))=12cos(ts)
Dilip Sarwate
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.