Questions marquées «dynamic-programming»


1
Résoudre l'équation Hamilton-Jacobi-Bellman; nécessaire et suffisant pour l'optimalité?
Considérons l'équation différentielle suivante où est l'état et la variable de contrôle. La solution est donnée par où est l'état initial donné.x˙(t)=f(x(t),u(t))x˙(t)=f(x(t),u(t))\begin{align} \dot x(t)=f(x(t),u(t)) \end{align}xxxuuux(t)=x0+∫t0f(x(s),u(s))ds.x(t)=x0+∫0tf(x(s),u(s))ds.\begin{align} x(t)=x_0 + \int^t_0f(x(s),u(s))ds. \end{align}x0:=x(0)x0:=x(0)x_0:=x(0) Considérons maintenant le programme suivant où \ rho> 0 indique la préférence temporelle, V (\ cdot) est la valeur et F …


1
Devinez et vérifiez
En programmation dynamique, la méthode des coefficients indéterminés est parfois appelée «deviner et vérifier». J'ai périodiquement entendu qu'il y avait des suppositions canoniques à faire. En particulier, j'ai vu V( k ) = A + B ln( k )V(k)=UNE+Bln⁡(k)V(k) = A + B\ln(k) V( k ) =Bk1 - σ1 - …


0
Programmation dynamique stochastique: dérivation de l'état d'équilibre d'une loterie
Je travaille sur les exemples de base des modèles RBC stochastiques dans le livre de McCandless (2008): L'ABC des RBC, p. 71 - 75 Un problème de programmation dynamique stochastique standard Voici la formulation d’un modèle de programmation dynamique stochastique de base: yt= UntF( kt)yt=Atf(kt)\begin{equation} y_t = A^t f(k_t) \end{equation} …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.