Programmation dynamique stochastique: dérivation de l'état d'équilibre d'une loterie


1

Je travaille sur les exemples de base des modèles RBC stochastiques dans le livre de McCandless (2008): L'ABC des RBC, p. 71 - 75

Un problème de programmation dynamique stochastique standard

Voici la formulation d’un modèle de programmation dynamique stochastique de base:

yt=Atf(kt)

At={A1 with probability pA2 with probability (1p)

kt+1=Atf(kt)+(1δ)ktct

Avec un agent de maximiser la fonction d'utilité attendue:

Ettβtu(ct)

V(kt,At)=maxkt+1[u(Atf(kt)+(1δ)ktkt+1)+βEtV(kt+1,At+1)]

kt+1kt

Une version augmentée de loterie

st

lt+1=lt+st

ltAt

At={A1 with probability pA2lt with probability (1 - p)

t

yt=pA1f(kt)+(1p)A2ltf(kt)

l

PS Si quelqu'un pouvait me montrer un document avec un exemple de modèle, qui est très proche de celui que j'ai décrit, ce serait génial.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.