J'ai lu que les HMM, les filtres à particules et les filtres de Kalman sont des cas particuliers de réseaux Bayes dynamiques. Cependant, je ne connais que les HMM et je ne vois pas la différence avec les réseaux Bayes dynamiques.
Quelqu'un pourrait-il expliquer?
Ce serait bien si votre réponse pouvait être similaire à la suivante, mais pour Bayes Networks:
Modèles de Markov cachés
Un modèle de Markov caché (HMM) est un 5 × tuple :
- : un ensemble d'états (par exemple "début du phonème", "milieu du phonème", "fin du phonème")
- : un ensemble d'observations possibles (signaux audio)
- : Une matrice stochastique qui donne des probabilités pour passer de l'état à l'état .
- : Une matrice stochastique qui donne des probabilités pour obtenir dans l'état l'observation .
- : Distribution initiale pour commencer dans l'un des états.
Il est généralement affiché sous forme de graphe orienté, où chaque nœud correspond à un état et les probabilités de transition sont indiquées sur les bords.
Les modèles de Markov cachés sont appelés "cachés", car l'état actuel est masqué. Les algorithmes doivent le deviner à partir des observations et du modèle lui-même. Ils sont appelés "Markov", car pour l'état suivant, seul l'état actuel compte.
Pour les HMM, vous donnez une topologie fixe (nombre d'états, arêtes possibles). Ensuite, il y a 3 tâches possibles
- Évaluation : étant donné un HMM , quelle est la probabilité d'obtenir des observations (algorithme Forward)
- Décodage : étant donné un HMM et une observation , quelle est la séquence d'états la plus probable (algorithme de Viterbi)
- Apprentissage : apprendre : algorithme de Baum-Welch , qui est un cas particulier de maximisation des attentes.
Réseaux Bayes
Les réseaux bayésiens sont des graphes acycliques dirigés (DAG) . Les nœuds représentent des variables aléatoires . Pour chaque , il existe une distribution de probabilité qui est conditionnée aux parents de :
Il semble y avoir (veuillez préciser) deux tâches:
- Inférence : Étant donné certaines variables, obtenez les valeurs les plus probables des autres variables. L'inférence exacte est NP-difficile. Vous pouvez approximativement utiliser MCMC.
Apprentissage : La façon dont vous apprenez ces distributions dépend du problème exact ( source ):
- structure connue, entièrement observable: estimation du maximum de vraisemblance (MLE)
- structure connue, partiellement observable: maximisation des attentes (EM) ou chaîne de Markov Monte Carlo (MCMC)
- structure inconnue, entièrement observable: recherche dans l'espace modèle
- structure inconnue, partiellement observable: recherche EM + dans l'espace modèle
Réseaux Bayes dynamiques
Je suppose que les réseaux dynamiques Bayes (DBN) sont également des modèles graphiques probabilistes dirigés. La variabilité semble provenir de l'évolution du réseau au fil du temps. Cependant, il me semble que cela équivaut à ne copier que le même réseau et à connecter chaque nœud à l'instant avec chaque nœud correspondant à l'instant . Est-ce le cas?