Une idée sous-jacente à l’apprentissage statistique est que vous pouvez apprendre en répétant une expérience. Par exemple, nous pouvons continuer à feuilleter une punaise pour connaître la probabilité qu'une punaise se pose sur sa tête.
Dans le contexte des séries chronologiques, nous observons une seule exécution d'un processus stochastique plutôt que des exécutions répétées du processus stochastique. Nous observons 1 longue expérience plutôt que de multiples expériences indépendantes.
Nous avons besoin de stationnarité et d'ergodicité pour que l'observation d'une longue séquence d'un processus stochastique s'apparente à l'observation de nombreuses exécutions indépendantes d'un processus stochastique.
Quelques définitions (imprécises)
Soit Ω un espace échantillon. Un processus stochastique { Yt} est une fonction du temps t ∈ { 1 , 2 , 3 , … } et le résultat co ∈ Ohm .
- Pour tout instant t , Yt est une variable aléatoire (c'est-à-dire une fonction de Ω vers un espace tel que l'espace des nombres réels).
- Pour tout résultat ω nous avons X( ω ) est une série déterministe { Y1( ω ) , Y2( ω ) , Y3( ω ) , … }
Une question fondamentale dans les séries chronologiques
Dans Statistiques 101, nous apprenons une série de variables indépendantes et identiquement distribuées X1 , X2 , X3 etc. Nous observons plusieurs expériences identiques i = 1 , … , n où un est choisi au hasard et cela nous permet d' en apprendre davantage sur la variable aléatoire . Selon la loi des grands nombres , nous avons convergeant presque sûrement vers .ωje∈ ΩX11nΣni = 1XjeE[ X]
Une différence fondamentale dans le réglage de la série temporelle est que nous observons plusieurs observations sur une période plutôt que plusieurs dessins de .tΩ
Dans le cas général, ne peut pas converger vers quoi que ce soit!1TΣTt = 1Yt
Pour que plusieurs observations au fil du temps puissent accomplir une tâche similaire lorsque plusieurs prélèvements sont effectués dans l'espace échantillon , nous avons besoin de stationnarité et d' ergodicité .
Si une moyenne inconditionnelle existe et que les conditions du théorème ergodique sont remplies, la série temporelle, la moyenne de l'échantillon convergeront à la moyenne inconditionnelle .E[ Y]1TΣTt = 1YtE[ Y]
Exemple 1: défaillance de la stationnarité
Soit le processus dégénéré . Nous pouvons voir que n'est pas une stationnaire (la distribution jointe n'est pas invariante dans le temps).{ Yt}Yt= t{ Yt}
Soit St= 1tΣti = 1Yjeêtre l'échantillonsérie de temps, et il est évident queStne converge pas quoi que ce soitt → ∞:S1= 1 , S2= 32, S3= 2 , … , St= t + 12 . La moyenne deYtn'existe pas etStne converge pas à quoi que ce soitt → ∞.
Exemple: échec de l'ergodicité
XYt=Xt{Yt}=(0,0,0,0,0,0,0,…){Yt}=(1,1,1,1,1,1,1,…
E[ Yt] = 12St= 1tΣti = 1YjeYt