Je lis actuellement des articles sur le regroupement de chaînes de Markov et je ne vois pas la différence entre une chaîne de Markov et un graphique pondéré simple.
Par exemple, dans l'article Optimisation de l'espace d'état dans les chaînes de Markov, ils fournissent la définition suivante d'une CTMC (chaîne de Markov à temps continu):
Nous considérons un CTMC fini avec un espace d'états par une matrice de taux de transition .S = { x 1 , x 2 , … , x n } Q : S × S → R +
Ils ne mentionnent pas du tout la propriété Markov, et, en fait, si le poids sur les bords représente une probabilité, je crois que la propriété Markov tient trivialement car la probabilité ne dépend que de l'état actuel de la chaîne et non du chemin qui mène à elle.
Dans un autre article sur les propriétés relationnelles de la lumpabilité, les chaînes de Markov sont définies de la même manière:
Une chaîne de Markov sera représentée comme un triplet où est l'ensemble fini d'états de , la matrice de probabilité de transition indiquant la probabilité de passer d'un état à un autre, et est le distribution de probabilité initiale représentant la probabilité que le système démarre dans un certain état.
Encore une fois, aucune mention du passé ou du futur ou de l'indépendance.
Il y a un troisième papier Simple O (m logn) Time Markov Chain Lumping où non seulement ils ne déclarent jamais que les poids sur les bords sont des probabilités, mais ils disent même:
Dans de nombreuses applications, les valeurs sont non négatives. Nous ne faisons pas cette hypothèse, cependant, car il existe également des applications où est délibérément choisi comme , ce qui le rend généralement négatif.W ( s , s ) - W ( s , S ∖ { s } )
De plus, il est indiqué que le regroupement devrait être un moyen de réduire le nombre d'états tout en maintenant la propriété Markov (en agrégeant l'état "équivalent" dans un état plus grand). Pourtant, pour moi, il semble que ce soit simplement la somme des probabilités et cela ne devrait même pas garantir que les probabilités résultantes des transitions vers / depuis les états agrégés sont dans la plage . Qu'est-ce que le grumelage conserve alors?
Donc, je vois deux possibilités:
- Je n'ai pas compris ce qu'est une chaîne de Markov, ou
- L'utilisation du terme chaîne de Markov dans ces articles est fausse
Quelqu'un pourrait-il clarifier la situation?
Il semble vraiment que différentes communautés utilisent ce terme et qu'elles signifient des choses très différentes. D'après ces 3 articles que je considère, il semble que la propriété Markov soit triviale ou inutile, tout en regardant un autre type de documents, elle semble fondamentale.