Étant donné deux chaînes de Markov absorbantes, quelle est la probabilité que l'une se termine avant l'autre?


9

J'ai deux chaînes de Markov différentes, chacune avec un état absorbant et une position de départ connue. Je veux déterminer la probabilité que la chaîne 1 atteigne un état d'absorption en moins d'étapes que la chaîne 2.

Je pense que je peux calculer la probabilité d'atteindre un état absorbant dans une chaîne particulière après n étapes: étant donné une matrice de transition la probabilité d'être absorbé après étapes est où est l'état de départ et est le état absorbant.n P n i j i jPnPijnij

Je ne sais pas où aller à partir d'ici cependant. Les problèmes analogues que j'ai vus impliquent des dés (par exemple, rouler une somme de 7 avant une somme de 8), mais cela est plus facile à résoudre car la probabilité de rouler une somme particulière est constante et indépendante du nombre de pas effectués jusqu'à présent.

Réponses:


13

Exécutez les chaînes en parallèle. Définissez trois états d'absorption dans la chaîne de produits résultante:

  1. La première chaîne atteint un état absorbant mais pas la seconde.

  2. La deuxième chaîne atteint un état absorbant mais pas la première.

  3. Les deux chaînes atteignent simultanément un état absorbant.

Les probabilités limitatives de ces trois états dans la chaîne de produits donnent des chances d'intérêt.


Cette solution implique quelques constructions (simples). Comme dans la question, que une matrice de transition pour une chaîne P . Lorsque la chaîne est dans l'état i , P i j donne la probabilité d'une transition vers l'état j . Un état absorbant se transforme en lui-même avec la probabilité 1 .P=Pij,1i,jnPiPijj1

  1. Tout état peut être rendu absorbant en remplaçant la ligne P i = ( P i j , j = 1 , 2 , , n ) par un vecteur indicateur ( 0 , 0 , , 0 , 1 , 0 , , 0 ) avec un 1 en position i .iPi=(Pij,j=1,2,,n)(0,0,,0,1,0,,0)1i
  2. Tout ensemble d'états absorbants peut être fusionné en créant une nouvelle chaîne P / A dont les états sont { iAP/A . La matrice de transition est donnée par{i|iA}{A}

    (P/A)ij={PijiA,jAkAPikiA,j=A0i=A,jA1i=j=A.

    Cela revient à additionner les colonnes de correspondant à A et à remplacer les lignes correspondent à A par une seule ligne qui effectue une transition vers elle-même.PAA

  3. Le produit de deux chaînes sur les états S P et Q sur les états S Q , avec les matrices de transition P et Q , respectivement, est une chaîne de Markov sur les états S P × S Q = { ( p , q )PSPQSQPQ avec matrice de transitionSP×SQ={(p,q)|pSP,qSQ}

    (PQ)(i,j),(k,l)=PikQjl.

    En effet, la chaîne de produits exécute les deux chaînes en parallèle, suivant séparément où elles se trouvent et effectuant des transitions indépendamment.


Un exemple simple peut clarifier ces constructions. Supposons que Polly lance une pièce avec une chance d'atterrir. Elle prévoit de le faire jusqu'à observer une tête. Les états du processus de retournement des pièces sont S P = { T , H } représentant les résultats du dernier retournement: T pour les queues, H pour les têtes. En prévoyant de s'arrêter aux têtes, Polly appliquera la première construction en faisant de H un état absorbant. La matrice de transition résultante estpSP={T,H}THH

P=(1pp01).

Il commence dans un état aléatoire donné par le premier lancer.(1p,p)

Avec Polly, Quincy lancera une bonne pièce. Il prévoit de s'arrêter une fois qu'il verra deux têtes d'affilée. Sa chaîne Markov doit donc suivre le résultat précédent ainsi que le résultat actuel. Il existe quatre de ces combinaisons de deux têtes et de deux queues, que je vais abréger en " ", par exemple, où la première lettre est le résultat précédent et la deuxième lettre est le résultat actuel . Quincy applique la construction (1) pour faire de HH un état absorbant. Après cela, il se rend compte qu'il n'a pas vraiment besoin de quatre états: il peut simplifier sa chaîne en trois états: T signifie que le résultat actuel est pile, H signifie que le résultat actuel est têtes, et XTHHHTHXsignifie que les deux derniers résultats étaient les deux têtes - c'est l'état absorbant. La matrice de transition est

Q=(1212012012001).

La chaîne de produits fonctionne sur six états: . La matrice de transition est un produit tensoriel de P et Q et se calcule tout aussi facilement. Par exemple, ( PQ ) ( T ,(T,T),(T,H),(T,X);(H,T),(H,H),(H,X)PQ est la probabilité que Polly effectue une transition deTàTet, en même temps (et indépendamment), Quincy effectue une transition deTàH. Le premier a une chance de1-pet celuici une chance de1 / 2. Parce que les chaînes sont gérées indépendamment, ces chances se multiplient, donnant(1-p) / 2. La matrice de transition complète est(PQ)(T,T),(T,H)TTTH1p1/2(1p)/2

PQ=(1p21p20p2p201p201p2p20p2001p00p0001212000012012000001).

Il se présente sous forme de matrice de blocs avec des blocs correspondant à la deuxième matrice :Q

PQ=(P11QP12QP21QP22Q)=((1p)QpQ0Q).

(H,*)*X(T,X)(H,X)(H,T)(H,H)(T,T),(T,H),(T,X),{(H,T),(H,H)},(H,X)

R=(1p21p20p01p201p2p2p2001000001000001).

(T,T),(T,H),(T,X),{(H,T),(H,H)},(H,X)μ=((1p)/2,(1p)/2,0,p,0)

n

μRn11+4pp2(0,0,(1p)2,p(5p),p(1p)).

(T,X),{(H,T),(H,H)},(H,X)(1p)2:p(5p):p(1p)

Figure

p


1
Exemple très soigné, merci pour cela. Je travaille toujours sur les détails pour les voir par moi-même. Juste une question: ici, nous avons supposé que les deux événements (lancers Polly et Quincy) se produisaient simultanément, quelle différence cela ferait-il si nous les rendions séquentiels, ou même choisissions au hasard à chaque fois qui lancerait ensuite?
user929304

1
@ user929304 Vous obtiendriez des réponses différentes, peut-être substantiellement. Par exemple, supposons que P et Q exécutent une chaîne dans laquelle les états sont partitionnés en sous-ensembles A et B où toutes les transitions de A vont à B et toutes de B vont à A. Soit P et Q commencent tous deux aux états de A. Dans la chaîne de produits alternent simultanément entre A et B, mais les chaînes séquentielles et à choix aléatoire rompent ce modèle invariant.
whuber
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.