Il n'est pas vrai que MCMC remplissant l'équilibre détaillé donne toujours la distribution stationnaire. Vous avez également besoin que le processus soit ergodique . Voyons pourquoi:
Considérez comme un état de l'ensemble de tous les états possibles et identifiez-le par l'indice . Dans un processus de Markov, une distribution évolue selonxipt(i)
pt(i)=∑jΩj→ipt−1(j)
où est la matrice désignant les probabilités de transition (votre ).Ωj→iq(x|y)
Donc, nous avons ça
pt(i)=∑j(Ωj→i)tp0(j)
Le fait que soit une probabilité de transition implique que ses valeurs propres doivent appartenir à l'intervalle [0,1].Ωj→i
Afin de garantir que toute distribution initiale converge vers celle asymptotique, vous devez vous assurer quep0(j)
- 1 Il n'y a qu'une seule valeur propre de avec la valeur 1 et il a un vecteur propre différent de zéro.Ω
Pour vous assurer que est la distribution asymptotique, vous devez vous assurer queπ
- 2 Le vecteur propre associé à la valeur propre 1 est .π
L'ergodicité implique 1., l'équilibre détaillé implique 2., et c'est pourquoi les deux forment une condition nécessaire et suffisante de convergence asymptotique.
Pourquoi un équilibre détaillé implique 2:
Commençant par
p(i)Ωij=Ωjip(j)
et en sommant deux côtés, on obtientj
p(i)=∑jΩjip(j)
parce que , puisque vous transitez toujours quelque part.∑jΩij=1
L'équation ci-dessus est la définition de la valeur propre 1, (plus facile à voir si vous l'écrivez sous forme vectorielle :)
1.v=Ω⋅v