Quelle est la différence entre les chaînes de Markov et les processus de Markov?
Je lis des informations contradictoires: parfois la définition est basée sur si l'espace d'état est discret ou continu, et parfois elle est basée sur si le temps est discret ou continu.
Diapositive 20 de ce document :
Un processus de Markov est appelé chaîne de Markov si l'espace d'état est discret, c'est-à-dire est fini ou l'espace dénombrable est discret, c'est-à-dire qu'il est fini ou dénombrable.
http://www.win.tue.nl/~iadan/que/h3.pdf :
Un processus de Markov est la version à temps continu d'une chaîne de Markov.
Ou on peut utiliser la chaîne de Markov et le processus de Markov de manière synonyme, en précisant si le paramètre de temps est continu ou discret ainsi que si l'espace d'état est continu ou discret.
Mise à jour du 04/03/2017: la même question a été posée sur https://www.quora.com/Can-I-use-the-words-Markov-process-and-Markov-chain-interchangeably