Si une série chronologique est stationnaire du second ordre, cela signifie-t-il qu'elle est strictement stationnaire?


11

Un processus est strictement stationnaire si la distribution conjointe de est la même que la distribution conjointe de pour tout , pour tout et pour tout .X t 1 , X t 2 , . . . , X t m X t 1 + k , X t 2 + k , . . . , X t m + k m k t 1 , t 2 , . . . , t mXtXt1,Xt2,...,XtmXt1+k,Xt2+k,...,Xtm+kmkt1,t2,...,tm

Un processus est stationnaire du second ordre si sa moyenne est constante et sa fonction d'autocovariance ne dépend que du décalage.

Par conséquent, le deuxième ordre stationnaire implique-t-il un stationnaire strict?

Toujours sous le deuxième ordre stationnaire, il est dit qu'aucune hypothèse n'est faite sur les moments supérieurs à ceux du premier et du second ordre. Le premier moment correspond à la moyenne, le deuxième moment correspond-il à l'autocovariance?


Voir également ce post pour une discussion connexe.
javlacalle

1
Ce que vous appelez (ou vos appels de cours) du deuxième ordre stationnaire est souvent appelé faiblement stationnaire ou stationnaire au sens large (WSS) ou stationnaire au sens large. Les processus WSS ne sont pas nécessairement strictement stationnaires car la moyenne et l'autocovariance ne sont pas, en général, suffisantes pour déterminer la distribution. Bien entendu, un processus WSS gaussien ou normal (ce qui signifie que tous les sont des variables aléatoires normales) est strictement stationnaire car la moyenne et la matrice de covariance déterminent la distribution conjointe. Xt
Dilip Sarwate

Voir aussi Exemple d'un processus stationnaire de 2ème ordre mais pas strictement stationnaire . Les deux sont très proches d'être des doublons. Cette question demande également si le deuxième moment se réfère à l'autocovariance, mais c'est vraiment une sous-question et est en tout cas gérée sur le thread Qu'est-ce qu'un processus stationnaire de second ordre?
Silverfish

Réponses:


8

La stationnarité de second ordre est plus faible que la stationnarité stricte. La stationnarité du second ordre nécessite que les moments du premier et du second ordre (moyenne, variance et covariances) soient constants dans le temps et, par conséquent, ne dépendent pas du moment auquel le processus est observé. En particulier, comme vous le dites, la covariance ne dépend que de l'ordre de décalage, , mais pas du moment où elle est mesurée, C o v ( x t , x t - k ) = C o v ( x t + h , x t + h - k ) pour touskCov(Xt,Xt-k)=Cov(Xt+h,Xt+h-k) .t

Dans un processus de stationnarité stricte, les moments de toutes les commandes restent constantes au fil du temps, à savoir, comme vous le dites, la distribution conjointe de est la même que la distribution conjointe de X t 1 + k + X t 2 + k + . . . + X t m + k pour tout t 1 , t 2 , . . .Xt1,Xt2,...,XtmXt1+k+Xt2+k+...+Xtm+k et k .t1,t2,...,tmk

Par conséquent, une stationnarité stricte implique une stationnarité de second ordre mais l'inverse n'est pas vrai.

Modifier (modifié en réponse au commentaire de @ whuber)

La déclaration précédente est la compréhension générale de la stationnarité faible et forte. Bien que l'idée que la stationnarité au sens faible n'implique pas la stationnarité au sens fort puisse être en accord avec l'intuition, elle peut ne pas être aussi simple à prouver, comme le souligne whuber dans le commentaire ci-dessous. Il peut être utile d'illustrer l'idée telle que suggérée dans ce commentaire.

Comment définir un processus stationnaire du second ordre (moyenne, variance et covariance constante dans le temps) mais non stationnaire au sens strict (les moments d'ordre supérieur dépendent du temps)?

Comme suggéré par @whuber (si j'ai bien compris), nous pouvons concaténer des lots d'observations provenant de différentes distributions. Nous devons juste faire attention à ce que ces distributions aient la même moyenne et la même variance (à ce stade, considérons qu'elles sont échantillonnées indépendamment les unes des autres). D'une part, nous pouvons par exemple générer des observations à partir de la distribution Student avec 5 degrés de liberté. La moyenne est égale à zéro et la variance est 5 / ( 5 - deux ) = 5 / 3 . D'un autre côté, nous pouvons prendre la distribution gaussienne avec moyenne nulle et variance 5 / 3 .t55/(5-2)=5/35/3

Les deux distributions partagent la même moyenne (zéro) et la variance ( ). Ainsi, la concaténation des valeurs aléatoires de ces distributions sera, au moins, stationnaire de second ordre. Cependant, le kurtosis aux points régis par la distribution gaussienne sera 3 , tandis qu'aux moments où les données proviennent de la distribution t de Student, il sera 3 + 6 / ( 5 - 4 ) = 9 . Par conséquent, les données ainsi générées ne sont pas stationnaires au sens strict car les moments de quatrième ordre ne sont pas constants.5/33t3+6/(5-4)=9

Les covariances sont également constantes et égales à zéro, car nous avons considéré des observations indépendantes. Cela peut sembler trivial, nous pouvons donc créer une certaine dépendance entre les observations selon le modèle autorégressif suivant.

avec ε t ~ { N ( 0 , σ 2 = cinq / 3 )

yt=ϕyt-1+ϵt,|ϕ|<1,t=1,2,...,120
ϵt{N(0,σ2=5/3)sit[0,20],[41,60],[81,100]t5sit[21,40],[61,80],[101,120].

garantit que la stationnarité de second ordre est satisfaite.|ϕ|<1

Nous pouvons simuler certaines de ces séries dans le logiciel R et vérifier si la moyenne, la variance, la covariance et le kurtosis de l'échantillon restent constants sur des lots de observations (le code ci-dessous utilise ϕ = 0,8 et la taille de l'échantillon n = 240 , la figure affiche une des séries simulées):20ϕ=0,8n=240

# this function is required below
kurtosis <- function(x)
{
  n <- length(x)
  m1 <- sum(x)/n
  m2 <- sum((x - m1)^2)/n
  m3 <- sum((x - m1)^3)/n
  m4 <- sum((x - m1)^4)/n
  b1 <- (m3/m2^(3/2))^2
  (m4/m2^2)
}
# begin simulation
set.seed(123)
n <- 240
Mmeans <- Mvars <- Mcovs <- Mkurts <- matrix(nrow = 1000, ncol = n/20)
for (i in seq(nrow(Mmeans)))
{
  eps1 <- rnorm(n = n/2, sd = sqrt(5/3))
  eps2 <- rt(n = n/2, df = 5)
  eps <- c(eps1[1:20], eps2[1:20], eps1[21:40], eps2[21:40], eps1[41:60], eps2[41:60], 
    eps1[61:80], eps2[61:80], eps1[81:100], eps2[81:100], eps1[101:120], eps2[101:120])
  y <- arima.sim(n = n, model = list(order = c(1,0,0), ar = 0.8), innov = eps)

  ly <- split(y, gl(n/20, 20))
  Mmeans[i,] <- unlist(lapply(ly, mean))
  Mvars[i,] <- unlist(lapply(ly, var))
  Mcovs[i,] <- unlist(lapply(ly, function(x) 
    acf(x, lag.max = 1, type = "cov", plot = FALSE)$acf[2,,1]))
  Mkurts[i,] <- unlist(lapply(ly, kurtosis))
}

série simulée

Les résultats ne sont pas ceux que j'attendais:

round(colMeans(Mmeans), 4)
#  [1]  0.0549 -0.0102 -0.0077 -0.0624 -0.0355 -0.0120  0.0191  0.0094 -0.0384
# [10]  0.0390 -0.0056 -0.0236
round(colMeans(Mvars), 4)
#  [1] 3.0430 3.0769 3.1963 3.1102 3.1551 3.2853 3.1344 3.2351 3.2053 3.1714
# [11] 3.1115 3.2148
round(colMeans(Mcovs), 4)
#  [1] 1.8417 1.8675 1.9571 1.8940 1.9175 2.0123 1.8905 1.9863 1.9653 1.9313
# [11] 1.8820 1.9491
round(colMeans(Mkurts), 4)
#  [1] 2.4603 2.5800 2.4576 2.5927 2.5048 2.6269 2.5251 2.5340 2.4762 2.5731
# [11] 2.5001 2.6279

t20


3
Bien que vous ayez raison, vous n'avez pas suffisamment démontré la conclusion finale. (Vous semblez présumer que les moments supérieurs d'un processus stationnaire de second ordre peuvent être prescrits indépendamment de ses deux premiers moments, mais cela - bien que partiellement vrai - n'est pas évident.) La façon la plus efficace de démontrer votre conclusion serait pour montrer un processus qui est stationnaire de second ordre mais pas stationnaire. Bien que cela soit facile à faire avec une séquence appropriée de variables aléatoires indépendantes, il serait intéressant de fournir un exemple avec des corrélations qui ne disparaissent pas à tous les décalages.
whuber

@whuber j'ai modifié ma réponse. Je pensais avoir compris votre point mais ma tentative de suivre votre idée n'était pas pleinement satisfaisante.
javlacalle

2
Uje,je=0,1p1/21-p(Xje)jeZOuije=U[je]-p[je]+Xje[je]=0je[je]=1Rn <- 300; p <- 1/4; x <- rnorm(n, (rbinom(2,1,c(p,1-p))-c(p,1-p)), 1/8)

2
Je n'ordonnerais pas une stationarty stricte et une covariance-stationnarité (bien que l'utilisation du terme "faible" également pour ce dernier indique malheureusement un tel ordre). La raison en est que la stationnarité stricte n'implique pas la covariance-stationnarité: le processus peut être strictement stationnaire mais les moments de distribution peuvent ne pas exister ou être infinis, auquel cas ce processus strictement stationnaire n'est pas stationnaire de covariance.
Alecos Papadopoulos du

2
Nous ne pouvons pas simuler directement la non-existence de moments . Créez un processus strictement stationnaire de Cauchy, pour prendre l'exemple trivial. Le graphique sera parfaitement "stationnaire", car le comportement du processus est répétitif, un comportement qui ne dépend des moments que lorsqu'ils existent . S'ils n'existent pas, le comportement est décrit et dépend d'autres caractéristiques de la distribution.
Alecos Papadopoulos

1

Puisque je ne peux pas commenter, et j'ai une mise en garde valable à la réponse de @javlacalle , je suis obligé d'inclure ceci est une réponse distincte:

@javlacalle a écrit que

la stationnarité stricte implique une stationnarité de second ordre mais l'inverse n'est pas vrai.

Cependant, une stationnarité forte n'implique pas une stationnarité faible. La raison en est qu'une forte stationnarité ne signifie pas que le processus a nécessairement un second moment fini. Par exemple, un processus iid avec une distribution de Cauchy standard est strictement stationnaire mais n'a pas de second moment fini. En effet, avoir un second moment fini est une condition nécessaire et suffisante pour la faible stationnarité d'un processus fortement stationnaire.

Référence: Myers, DE, 1989. Être ou ne pas être. . . Stationnaire? Telle est la question. Math. Geol. 21, 347–362.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.