Dans cette question populaire , une réponse très positive fait que MLE et Baum Welch sont séparés dans le montage HMM.
Pour les problèmes de formation, nous pouvons utiliser les 3 algorithmes suivants: MLE (estimation de vraisemblance maximale), formation Viterbi (NE PAS confondre avec le décodage Viterbi), Baum Welch = algorithme avant-arrière
MAIS dans Wikipedia , il est dit
L'algorithme Baum – Welch utilise l'algorithme EM bien connu pour trouver l'estimation du maximum de vraisemblance des paramètres
Alors, quelle est la relation entre MLE et l'algorithme Baum – Welch?
Ma tentative: l'objectif de l'algorithme de Baum – Welch est de maximiser la vraisemblance, mais il utilise un algorithme spécialisé (EM) pour résoudre l'optimisation. Nous pouvons encore maximiser la probabilité en utilisant d'autres méthodes telles que le gradient décent. C'est pourquoi la réponse sépare deux algorithmes.
Ai-je raison et quelqu'un peut-il m'aider à clarifier?