Cadena de Màrkov de temps continu

De la Viquipèdia, l'enciclopèdia lliure
Gràfic de transició amb probabilitats de transició, exemplar per als estats 1, 5, 6 i 8. Hi ha un passatge secret bidireccional entre els estats 2 i 8.

Una cadena de Màrkov de temps continu (CTMC) és un procés estocàstic continu en el qual, per a cada estat, el procés canviarà d'estat segons una variable aleatòria exponencial i després passarà a un estat diferent segons l'especifiquen les probabilitats d'una matriu estocàstica. Una formulació equivalent descriu el procés com un estat canviant segons el valor mínim d'un conjunt de variables aleatòries exponencials, una per cada estat possible al qual es pot moure, amb els paràmetres determinats per l'estat actual.[1][2]

Un exemple de CTMC amb tres estats és el següent: el procés fa una transició després de la quantitat de temps especificada pel temps de retenció : una variable aleatòria exponencial , on i és el seu estat actual. Cada variable aleatòria és independent i tal que , i . Quan s'ha de fer una transició, el procés es mou segons la cadena de salt, una cadena de Màrkov de temps discret amb matriu estocàstica:[3]

De manera equivalent, per la propietat d'exponencials competidors, aquest CTMC canvia d'estat des de l'estat i segons el mínim de dues variables aleatòries, que són independents i de manera que per on els paràmetres estan donats per la matriu Q

Cada entrada no diagonal es pot calcular com la probabilitat que la cadena de salt es mogui de l'estat i a l'estat j, dividida pel temps de retenció esperat de l'estat i. Les entrades diagonals es trien de manera que cada fila sumi 0.

Un CTMC satisfà la propietat de Màrkov, que el seu comportament depèn només del seu estat actual i no del seu comportament passat, a causa de la manca de memòria de la distribució exponencial i de les cadenes de Màrkov de temps discret.[4]

Referències[modifica]

  1. Ross, S.M.. Introduction to Probability Models. 10. Elsevier, 2010. ISBN 978-0-12-375686-2. 
  2. «16.15: Introduction to Continuous-Time Markov Chains» (en anglès). https://stats.libretexts.org,+05-05-2020.+[Consulta: 15 abril 2023].
  3. «Continuous Time Markov Chains» (en anglès). https://inst.eecs.berkeley.edu.+[Consulta: 15 abril 2023].
  4. «Lecture 4: Continuous-time Markov Chains» (en anglès). https://cims.nyu.edu.+[Consulta: 15 abril 2023].