Comment voyez-vous qu'une chaîne de Markov est irréductible?


12

J'ai du mal à comprendre la propriété de la chaîne de Markov irréductible .

Irréductible signifie que le processus stochastique peut "passer de n'importe quel état à n'importe quel état".

Mais qu'est-ce qui définit s'il peut passer de l'état à l'état , ou non?jij


La page wikipedia donne la formalisation:

L'état est accessible (écrit ) à partir de l'état , s'il existe un entier st i j i n i j > 0 P ( X n i j = j | X 0 = i ) = p ( n i j ) i j > 0jijinij>0

P(Xnij=j | X0=i)=pij(nij)>0

alors communiquer est si et .j iijji

De ces irréductibilité découle en quelque sorte.


Quelle est l'intuition de «l'accessibilité»? Je ne comprends pas pourquoi avoir une probabilité conditionnelle rend quelque chose "accessible"?
mavavilj

Vous pouvez regarder du point d' inaccessibilité . On dit que l'état est inaccessible à partir de s'il n'y a aucune chance d'y arriver à partir de , c'est-à-dire pour un nombre quelconque d'étapes la probabilité de cet événement reste . Pour faire la définition de l'accessibilité, il faut changer les quanteurs, c'est-à-dire à exist et à (ce qui est le même que , car la probabilité est positive). i i n 0 = 0 0 > 0jiin0=00>0
nmerci

Réponses:


12

Voici trois exemples de matrices de transition, les deux premiers pour le cas réductible, le dernier pour le cas irréductible.

PourP1, lorsque vous êtes dans l'état 3 ou 4, vous y resterez, et de même pour les états 1 et 2. Il n'y a aucun moyen pour passer de l'état 1 à l'état 3 ou 4, par exemple.

P1=(0.50.5000.90.100000.20.8000.70.3)P2=(0.10.10.40.40.50.10.10.30.20.40.20.20001)
P1

Pour , vous pouvez accéder à n'importe quel état des états 1 à 3, mais une fois dans l'état 4, vous y resterez. P 3 = ( 0,5 0,5 0 0 0 0 0,9 0 0 0 0 0,1 0 0 0 0,8 0 0,2 0,7 0 0,1 0 0,2 0 0 0 0 0,1 0,9 0 0,9 0 0 0 0,1 0 )P2

P3=(0.50.500000.900000.10000.800.20.700.100.200000.10.900.90000.10)
Pour cet exemple, vous pouvez commencer dans n'importe quel état et atteindre tout autre état, mais pas nécessairement en une seule étape.

5

L'état est dit être accessible à partir d' un état i (généralement notée i j ) s'il existe un n 0 tel que: p n i j = P ( X n = j | X 0 = i ) > 0 Ce est, on peut passer de l'état i à l'état j en n étapes avec la probabilité p n i j .jiijn0

pijn=P(Xn=jX0=i)>0
ijnpijn

ijjiijij


npijn

P=(pij)pijnijPnn

2

ijijji

ijjim>0pij(m)>0

jin>0pji(n)>0

ijjiijijm>0,n>0pij(m)>0pji(n)>0

Si tous les états de la chaîne de Markov appartiennent à une classe communicante fermée , alors la chaîne est appelée une chaîne de Markov irréductible . L'irréductibilité est une propriété de la chaîne.

Dans une chaîne de Markov irréductible, le processus peut passer de n'importe quel état à n'importe quel état , quel que soit le nombre d'étapes qu'il nécessite.


1

Certaines des réponses existantes me semblent incorrectes.

Comme cité dans Stochastic Processes de J. Medhi (page 79, édition 4), une chaîne de Markov est irréductible si elle ne contient aucun sous-ensemble «fermé» approprié autre que l'espace d'état.

Donc, si dans votre matrice de probabilité de transition, il existe un sous-ensemble d'états tels que vous ne pouvez pas «atteindre» (ou accéder) à d'autres états en dehors de ces états, alors la chaîne de Markov est réductible. Sinon, la chaîne de Markov est irréductible.


-1

D'abord un mot d'avertissement: ne regardez jamais une matrice à moins que vous n'ayez une raison sérieuse de le faire: la seule à laquelle je peux penser est de vérifier les chiffres tapés par erreur ou de lire dans un manuel.

Pexp(P)PPnn

L'irréductibilité signifie: vous pouvez passer de n'importe quel état à n'importe quel autre état en un nombre fini d'étapes.

P3


1
ij

1
Vous devez vraiment demander à votre professeur. Il ne va pas te manger, tu sais.
titus

ePij

Je fais référence à la matrice exponentielle
Titus
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.