Questions marquées «markov-process»

Un processus stochastique avec la propriété que le futur est conditionnellement indépendant du passé, étant donné le présent.

3
Estimation des probabilités de transition de Markov à partir des données de séquence
J'ai un ensemble complet de séquences (432 observations pour être précis) de 4 états A−DA−DA-D : par ex. Y=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AA−⋮BC−⋮A⎞⎠⎟⎟⎟⎟Y=(ACDDBACBAACA−−⋮⋮⋮⋮⋮⋮⋮BCADABA)Y=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&- &-\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A & B & A\\ \end{array}\right) …


2
Échantillonnage à partir d'une distribution incorrecte (en utilisant MCMC et autrement)
Ma question de base est: comment échantillonner à partir d'une distribution incorrecte? Est-il même judicieux d'échantillonner à partir d'une distribution incorrecte? Le commentaire de Xi'an ici répond en quelque sorte à la question, mais je cherchais plus de détails à ce sujet. Plus spécifique à MCMC: En parlant de MCMC …


3
Pourquoi y a-t-il toujours au moins une politique meilleure ou égale à toutes les autres politiques?
Apprentissage par renforcement: une introduction. Deuxième édition, en cours ., Richard S. Sutton et Andrew G. Barto (c) 2012, pp. 67-68. Résoudre une tâche d'apprentissage par renforcement signifie, en gros, trouver une politique qui obtient beaucoup de récompenses à long terme. Pour les MDP finis, nous pouvons définir précisément une …

4
Un exemple pratique pour MCMC
Je passais par quelques conférences liées à MCMC. Cependant, je ne trouve pas un bon exemple de la façon dont il est utilisé. Quelqu'un peut-il me donner un exemple concret? Tout ce que je peux voir, c'est qu'ils dirigent une chaîne de Markov et disent que sa distribution stationnaire est …



2
Un MCMC remplissant un équilibre détaillé donne-t-il une distribution stationnaire?
Je suppose que je comprends l'équation de la condition d'équilibre détaillé, qui stipule que pour la probabilité de transition et la distribution stationnaire , une chaîne de Markov satisfait à l'équilibre détaillé siqqqππ\piq(x|y)π(y)=q(y|x)π(x),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), cela a plus de sens pour moi si je le reformule comme: q(x|y)q(y|x)=π(x)π(y).q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. Fondamentalement, la probabilité …


3
Modélisation mathématique des réseaux de neurones en tant que modèles graphiques
J'ai du mal à faire le lien mathématique entre un réseau de neurones et un modèle graphique. Dans les modèles graphiques, l'idée est simple: la distribution de probabilité factorise en fonction des cliques du graphique, les potentiels étant généralement de la famille exponentielle. Existe-t-il un raisonnement équivalent pour un réseau …





En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.