Estimation de marche aléatoire avec AR (1)


10

Lorsque j'estime une marche aléatoire avec un AR (1), le coefficient est très proche de 1 mais toujours inférieur.

Quelle est la raison mathématique pour laquelle le coefficient n'est pas supérieur à un?


J'ai essayé avec la boîte à outils Matlab et aussi avec mon script sur arima (où le coefficient est limité à [-10,10] et le résultat est le même). J'essaye avec un simple OLS et le résultat est le même.
Marco

L'estimation est biaisée à la baisse, nous devons lire l'article de Dickey et Fuller.
Marco

Réponses:


12

Nous estimons par OLS le modèle

Xt=ρXt-1+ut,E(ut{Xt-1,Xt-2,...})=0,X0=0

Pour un échantillon de taille T, l'estimateur est

ρ^=t=1TXtXt-1t=1TXt-12=ρ+t=1TutXt-1t=1TXt-12

Si le véritable mécanisme de génération de données est une marche aléatoire pure, alors , etρ=1

Xt=Xt-1+utXt=je=1tuje

La distribution d'échantillonnage de l'estimateur OLS, ou de manière équivalente, la distribution d'échantillonnage de , n'est pas symétrique autour de zéro, mais est plutôt biaisée à gauche de zéro, avec % des valeurs obtenues (c'est-à-dire masse de probabilité ) étant négative, et donc nous obtenons le plus souvent . Voici une distribution de fréquence relative68 ρ <1ρ^-168ρ^<1

entrez la description de l'image ici

Signifier:-0,0017773Médian:-0,00085984Le minimum: -0,042875Maximum: 0,0052173Écart-type: 0,0031625Asymétrie: -2,2568Ex. kurtosis: 8.3017

On l'appelle parfois la distribution "Dickey-Fuller", car elle est la base des valeurs critiques utilisées pour effectuer les tests Unit-Root du même nom.

Je ne me souviens pas avoir vu une tentative de fournir une intuition pour la forme de la distribution d'échantillonnage. Nous examinons la distribution d'échantillonnage de la variable aléatoire

ρ^-1=(t=1TutXt-1)(1t=1TXt-12)

Si est Standard Normal, alors la première composante de est la somme des distributions Product-Normal non indépendantes (ou "Normal-Product"). La deuxième composante de est l'inverse de la somme des distributions Gamma non indépendantes (khi-deux à l'échelle d'un degré de liberté, en fait). utρ^-1ρ^-1

Nous n'avons pas non plus de résultats analytiques, alors simulons (pour un échantillon de ). T=5

Si nous additionnons des normales de produit indépendantes, nous obtenons une distribution qui reste symétrique autour de zéro. Par exemple:

entrez la description de l'image ici

Mais si nous additionnons les normales de produit non indépendantes comme dans notre cas, nous obtenons

entrez la description de l'image ici

qui est asymétrique vers la droite mais avec plus de masse de probabilité attribuée aux valeurs négatives. Et la masse semble être poussée encore plus vers la gauche si nous augmentons la taille de l'échantillon et ajoutons plus d'éléments corrélés à la somme.

L'inverse de la somme des Gammas non indépendants est une variable aléatoire non négative avec un biais positif.

Ensuite, nous pouvons imaginer que, si nous prenons le produit de ces deux variables aléatoires, la masse de probabilité relativement plus grande dans l'orthant négatif de la première, combinée avec les valeurs positives uniquement qui se produisent dans la seconde (et l'asymétrie positive qui peut ajouter un tiret de valeurs négatives plus grandes), créez le biais négatif qui caractérise la distribution de . ρ^-1


Wow, belle analyse! Pourriez-vous indiquer laquelle des hypothèses OLS standard est violée ici?
Richard Hardy

@RichardHardy Merci. Je reviendrai plus tard pour répondre à votre commentaire.
Alecos Papadopoulos

Je suis toujours curieux des hypothèses OLS ... Merci d'avance!
Richard Hardy

Xt+1=αXt+ϵXt+1-Xt

ρ^<1ρ^-1

6

Ce n'est pas vraiment une réponse mais trop long pour un commentaire, donc je poste ça quand même.

J'ai pu obtenir un coefficient supérieur à 1 deux fois sur cent pour un échantillon de 100 (en utilisant "R"):

N=100                   # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~y[-T])    # regress y on its own first lag, with intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

Les réalisations 84 et 95 ont un coefficient supérieur à 1, il n'est donc pas toujours inférieur à un. Cependant, la tendance est clairement d'avoir une estimation biaisée à la baisse. Les questions demeurent, pourquoi ?

Edit: les régressions ci-dessus incluaient un terme d'interception qui ne semble pas appartenir au modèle. Une fois l'interception supprimée, j'obtiens beaucoup plus d'estimations au-dessus de 1 (3158 sur 10000) - mais cela reste clairement inférieur à 50% de tous les cas:

N=10000                 # number of trials
T=100                   # length of time series
coef=c()
for(i in 1:N){
 set.seed(i)
 x=rnorm(T)             # generate T realizations of a standard normal variable
 y=cumsum(x)            # cumulative sum of x produces a random walk y
 lm1=lm(y[-1]~-1+y[-T]) # regress y on its own first lag, without intercept
 coef[i]=as.numeric(lm1$coef[1])
}
length(which(coef<1))/N # the proportion of estimated coefficients below 1

exactement, pas "toujours" mineur mais dans la majorité des cas. C'est évidemment un résultat fallacieux. pourquoi la raison?
Marco

2
XtXt-1
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.