Peut-on tirer des conclusions sur la cointégration de étant donné la statistique du test de cointégration de ?


8

On peut montrer que, en général, la statistique de test de cointégration de . Je crois que cela est vrai pour tous les tests de cointégration, donc le test particulier utilisé n'est peut-être pas pertinent.A,BB,A

Cependant, j'ai trouvé que les deux statistiques de test sont généralement "proches": les deux statistiques de test seront dans le même niveau de confiance.

Notez que dans mon travail, la méthode courante pour tester la cointégration est de tester une racine unitaire dans la combinaison linéaire des deux séries (AKA résiduelle). Généralement, je le ferai en utilisant le test ADF et en comparant la statistique de test résultante aux niveaux de confiance requis pour rejeter l'hypothèse nulle.

Mes questions:

  1. Y a-t-il des choses formelles à dire sur la comparaison de à ?coint(A,B)coint(B,A)
  2. Y a-t-il une raison technique impérieuse de préférer une orientation variable à l'autre?
  3. Les réponses à 1 ou 2 particulières au test de cointégration sont-elles utilisées? Dans l'affirmative, y a-t-il quelque chose de particulièrement pertinent pour la méthodologie de test de cointégration que j'ai décrite ci-dessus?

Merci.

ÉDITER:

Voici un exemple, comme demandé. J'utilise Python pour la plupart de mes travaux statistiques.

Exemple de cointégration 1

La statistique de test ADF pour la première combinaison linéaire (série résiduelle AKA) est -35.9199966497et -35.7190914946pour la deuxième combinaison linéaire.

C'est évidemment un exemple assez extrême, mais il y en a beaucoup d'autres.

Ordre des tracés dans le graphique:

  1. Série résiduelle 1
  2. Nuage de points avec ligne de meilleur ajustement, orientation (x, y).
  3. Série résiduelle 2
  4. Nuage de points avec ligne de meilleur ajustement, orientation (y, x).
  5. Graphique des deux courbes brutes.

Espérons que cela clarifie les choses.


1
De quel test de cointégration parlez-vous? Il y a beaucoup d'entre eux.
Richard Hardy

@RichardHardy J'ai le plus d'expérience avec l'ADF, mais ma compréhension est qu'aucun test de cointégration n'est commutatif.
d0rmLife

L'ADF n'est pas un test de cointégration, bien qu'il constitue la deuxième étape du test de cointégration Engle-Granger. Voulez-vous dire celui-là?
Richard Hardy

2
Mon expérience de ce qui est ou n'est pas impliqué dans le contexte de la cointégration est très différente, et donc être explicite ne peut que m'aider. Votre élaboration est encore incomplète; rappelez-vous que les valeurs critiques utilisées dans le test ADF sont généralement différentes des valeurs critiques utilisées dans le test Engle-Granger, si je ne me trompe pas. Il vaut donc mieux le préciser. Pourquoi est-ce pertinent pour la question? Parce que vous dites que j'ai trouvé que les deux statistiques de test sont généralement "proches" sans préciser de quelles statistiques de test vous parlez. C'est pourquoi j'ai demandé.
Richard Hardy

2
Pouvez-vous s'il vous plaît montrer un exemple où les résultats diffèrent lors de l'échange (A, B)?
Glen_b -Reinstate Monica

Réponses:


3

Pour que deux séries temporelles et soient cointégrées, deux conditions sont remplies:XtYt

  1. Xt et doivent être des processus , c'est-à-dire et doivent être des processus stationnaires (au sens faible, c'est-à-dire une covariance stationnaire).YtI(1)ΔXtΔYt

  2. Il existe un ensemble de coefficients tels que la série temporelle est un processus stationnaire. Le vecteur est appelé vecteur de cointégration.α,βRZt=αXt+βYt(α,β)

Étant donné que la stationnarité est invariante pour se déplacer et évoluer, il s'ensuit immédiatement que les coefficients et ne sont pas définis de manière unique, à savoir qu'ils sont uniques jusqu'à la constante multiplicative.αβ

Les tests de cointégration existent en deux variétés:

  1. Tests sur les résidus de régression de sur .YtXt

  2. Tests sur le rang de la matrice dans une représentation de correction d'erreur vectorielle de .(Yt,Xt)

Les deux variétés s'appuient sur certains résultats théoriques, à savoir:

  1. L'OLS de sur donne une estimation cohérente du vecteur de cointégrationYtXt

  2. Théorème de représentation de Granger.

La question OP concerne la première variété de tests. Dans ces tests, nous avons le choix: estimer la régression ou sur . Naturellement, ces deux régressions donneront deux vecteurs de cointégration différents: et . Mais en raison du résultat théorique mentionné ci-dessus, les limites de probabilité de et doivent être les mêmes, car le vecteur de cointégration est unique jusqu'à une constante.Yt=a1+b1Xt+utXt=a2+b2Yt+vtYt(b^1,1)(1,b^2)b^11/b^2

En raison des propriétés algébriques d'OLS, les séries résiduelles et ne sont pas identiques, bien que d'un point de vue théorique, elles devraient toutes deux être égales à et respectivement, c'est-à-dire qu'elles doivent être identiques à la constante multiplicative. Si les séries et sont cointégrées, alors est une série stationnaire, donc puisque et approximativement nous pouvons tester si elles sont stationnaires.u^tv^t1βZt1αZtXtYtZtu^tv^tZt

C'est ainsi que sont effectués les premiers tests de cointégration. Naturellement, puisque les et sont différents, tous les tests sur eux seront également différents. Mais d'un point de vue théorique, toute différence est simplement un biais d'échantillon fini, qui devrait disparaître asymptotiquement. u^tv^t

Si la différence entre les tests de stationnarité des séries et est statistiquement significative, cela indique que les séries ne sont pas cointégrées ou que les hypothèses des tests de stationnarité ne sont pas remplies.u^tv^t

Si nous prenons le test ADF comme test de stationnarité pour les résidus, je pense qu'il serait possible de dériver une distribution asymptotique de la différence entre les statistiques ADF sur et . Je ne sais pas si cela aurait une valeur pratique.u^tv^t

Donc, pour résumer les réponses aux trois questions sont les suivantes:

  1. Voir au dessus.

  2. Non.

  3. La distribution asymptotique de la différence des tests dépendrait du test. Votre méthodologie est bonne. Si les séries chronologiques sont cointégrées, les deux statistiques devraient l'indiquer. En cas d'absence de cointégration, les deux statistiques rejetteront la stationnarité ou l'une d'entre elles le fera. Dans les deux cas, vous devez rejeter l'hypothèse nulle de cointégration. Comme dans le test de racine unitaire, vous devez vous protéger contre les tendances temporelles, les points de changement et toutes les autres choses qui rendent la procédure de test de racine unitaire assez difficile.


Si la différence entre les tests de stationnarité sur la série et est statistiquement significative, cela indique que les séries ne sont pas cointégréesu^tv^t : voulez-vous dire qu'il existe une relation directe entre la différence (empirique) de stationnarité de et et présence / absence de cointégration? (Je ne le vois pas.) Ce que je pense, c'est que si je peux rejeter la valeur nulle de non-cointégration en utilisant mais pas alors: (1) si je suis conservateur, je ne rejetterai pas "pas de cointégration"; (2) si je suis agressif, je rejetterai "pas de cointégration". u^tv^tu^tv^t
Richard Hardy

Non, je ne pense pas. Comme je l'ai dit, il serait possible de dériver la distribution asymptotique de la différence entre les statistiques, ou d'examiner généralement quelles sont les propriétés théoriques d'une telle différence. Je parierais que les deux tests de stationnarité rejettent la stationnarité ou les deux l'acceptent. Ce que j'essayais de dire, c'est que si vous voyez quelque chose de contre-intuitif, c'est-à-dire des conclusions différentes des tests de stationnarité alors qu'en théorie ils devraient être les mêmes, c'est une indication de quelque chose qui ne va pas, c'est-à-dire que je préconisais l'approche conservatrice.
mpiktas

D'accord, je suis d'accord avec tout cela - sauf que vous avez suggéré de rejeter l'hypothèse nulle, qui je pense est plus agressive que conservatrice.
Richard Hardy

0

La réponse statistique la plus populaire est donc apparemment correcte pour cette question: "ça dépend".

Une bonne supposition peut être faite sur la similitude des statistiques des tests de cointégration des ordres uniques de variables d'entrée, étant donné que les vecteurs de séries chronologiques ont des variances faibles et similaires.

Ceci est impliqué par le calcul de la statistique du test de cointégration: lorsque les variances des vecteurs de séries chronologiques d'entrée sont faibles et similaires, les coefficients de cointégration seront similaires (c'est-à-dire approximativement des multiples scalaires les uns des autres), ce qui entraîne le résiduel les séries étant des multiples approximativement scalaires les unes des autres. Des séries résiduelles similaires impliquent des statistiques de test de cointégration similaires. Cependant, lorsque les variances sont importantes ou différentes, il n'y a aucune garantie implicite que la série résiduelle sera même approximativement des multiples scalaires les unes des autres, ce qui rend à son tour variable les statistiques du test de cointégration.

Officiellement:

Prenons le modèle de régression simple, utilisé pour trouver le coefficient de cointégration pour les cas bivariés.

Régression de x sur y:

β^xy=Cov[x,y]σx2

Régression de y sur x:

β^yx=Cov[y,x]σy2

Clairement .Cov[x,y]=Cov[y,x]

Mais, généralement, .σx2σy2

Ainsi, n'est pas un multiple scalaire de .β^xyβ^yx

Ainsi, les combinaisons linéaires (séries résiduelles AKA) utilisées pour tester une racine unitaire afin de déterminer la probabilité de cointégration ne sont pas des multiples scalaires les unes des autres:

xtγ1yt=ϵt1
ytγ2xt=ϵt2

Notez que, par conséquent, , donc généralement pour certains scalaires .γ=β^γ1aγ2a

Cela montre deux faits sur la cointégration:

  1. L'ordre variable des tests de cointégration est important en raison de la variance des vecteurs de séries chronologiques individuels. Cela affecte la relation entre les coefficients de cointégration des différentes orientations variables en raison de la façon dont le coefficient de cointégration est calculé.
  2. Les séries résiduelles peuvent ou non être "similaires" les unes aux autres: la similitude dépend des variances des vecteurs de séries chronologiques individuels.

Ces faits impliquent que les séries résiduelles formées par des ordres variables uniques ne sont pas seulement différentes, mais elles ne sont probablement pas des multiples scalaires les unes des autres.

Alors quelle commande choisir? Cela dépend de l'application.

Pourquoi certaines séries résiduelles générées à partir des mêmes séries de données, mais des ordres différents semblent similaires alors que d'autres semblent si différentes? C'est à cause de la variance des vecteurs de séries chronologiques individuels. Lorsque les vecteurs de séries chronologiques ont une variance similaire (comme cela est certainement possible lors de la comparaison de données de séries temporelles similaires), les séries résiduelles peuvent ressembler à multiples les uns des autres, étant une valeur scalaire. C'est le cas lorsque la variance des vecteurs de séries chronologiques est à la fois faible et similaire, ce qui entraîne des termes d'erreur similaires dans les combinaisons linéaires.1αα

Donc, enfin, si les vecteurs de séries temporelles dont la cointégration est testée ont des variances faibles et similaires, alors on peut correctement supposer que la statistique du test de cointégration sera d'un niveau de confiance similaire. En général, il est probablement préférable de tester les deux orientations, ou du moins de considérer les variances des vecteurs de séries chronologiques, à moins qu'il n'y ait une raison dominante de favoriser une orientation.


Savez-vous que le concept de cointégration s'applique à plusieurs séries chronologiques et n'est pas limité à seulement deux? Savez-vous également que la norme de facto pour les tests de cointégration est la procédure Johansen, qui ne présente pas de problèmes d'asymétrie?
mpiktas

Étant donné que la définition de la cointégration ne permet pas l'asymétrie, toute procédure de test qui donne des résultats différents est par défaut erronée. Dans votre cas (qui est appelé par la procédure Engle-Granger et qui n'est pas le seul test de cointégration disponible!) Si vous obtenez des résultats contradictoires sur la base de la commande, cela signifie que votre série ne satisfait pas aux hypothèses du test.
mpiktas

1
@mpiktas 1) Oui, je le sais, c'est pourquoi j'ai dit "... pour les cas bivariés". 2) Je ne suis pas d'accord avec votre revendication d'uniformité. Dans certaines industries, EG 2 étapes avec ADF est très populaire. De plus, Johansen a des problèmes avec les petits ensembles de données, ce n'est donc certainement pas une norme dans tous les cas, mais il est en effet très populaire pour les cas multivariés. 3) Pouvez-vous indiquer où et pourquoi la cointégration ne permet pas l'asymétrie?
d0rmLife

Dans les petits ensembles de données, vous auriez également un problème avec l'ADF. De quelle taille parlons-nous? Concernant l'asymétrie, la définition de la cointégration ne le permet pas. Deux séries sont cointégrées si elles sont 1) I (1) 2) leur combinaison linéaire est I (0). Donc, si une série est co-intégrée à une autre, par définition, cette série est co-intégrée à la première. Il n'y a pas de place pour l'asymétrie.
mpiktas

1
@mpiktas envisageriez-vous de donner une réponse?
Glen_b -Reinstate Monica
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.