Pour donner des définitions précises, soit des variables aléatoires à valeur réelle.X1, … , Xn
La stationnarité n'est généralement définie que si l'on considère l'indice des variables comme le temps . Dans ce cas, la séquence de variables aléatoires est stationnaire de a la même distribution que . Cela implique, en particulier, que pour ont tous la même distribution marginale et donc la même moyenne marginale et la même variance (étant donné qu'ils ont un second moment fini).X1, … , Xn - 1X2, … , XnXjei = 1 , … , n
La signification de l' hétéroscédasticité peut dépendre du contexte. Si les variances marginales des changent avec (même si la moyenne est constante) les variables aléatoires sont dites hétéroscédastiques dans le sens où elles ne sont pas homoscédastiques.Xjeje
Dans l'analyse de régression, nous considérons généralement la variance de la réponse conditionnellement sur les régresseurs, et nous définissons l'hétéroscédasticité comme une variance conditionnelle non constante.
Dans l'analyse de séries chronologiques, où la terminologie hétéroscédasticité conditionnelle est courante, l'intérêt est généralement dans la variance de conditionnellement sur . Si cette variance conditionnelle n'est pas constante, nous avons une hétéroscédasticité conditionnelle. Le modèle ARCH (hétéroscédasticité conditionnelle autorégressive) est l'exemple le plus célèbre d'un modèle de série chronologique stationnaire avec variance conditionnelle non constante.XkXk - 1, … , X1
L'hétéroscédasticité (hétéroscédasticité conditionnelle en particulier) n'implique pas la non-stationnarité en général.
La stationnarité est importante pour plusieurs raisons. Une conséquence statistique simple est que la moyenne
est alors un estimateur sans biais de l'espérance (et en supposant l' ergodicité , qui est légèrement plus que la stationnarité et souvent supposée implicitement, la moyenne est un estimateur cohérent de l'espérance pour ).
1n∑i = 1nF( Xje)
EF( X1)n → ∞
L'importance de l'hétéroscédasticité (ou homoscédasticité) est, d'un point de vue statistique, liée à l'évaluation de l'incertitude statistique, par exemple le calcul des intervalles de confiance. Si les calculs sont effectués sous l'hypothèse d'homoscédasticité alors que les données montrent effectivement une hétéroscédasticité, les intervalles de confiance qui en résultent peuvent être trompeurs.