Cadenas de Markov

1
Cadenas de Markov En esencia, una cadena es un proceso en tiempo discreto en el que una variable aleatoria X n va cambiando en el transcurso del tiempo. Las cadenas de Markov tienen la propiedad de que la probabilidad de que X n sólo depende del estado inmediatamente anterior del sistema X n1 . En una cadena homogénea finita con m estados posibles E 1 ,E 2 ,…,E m se puede introducir la notación: p ij =P (X n =jX n1 =i) Donde i,j=1,2 ,…,m. Si p ij >0 entonces se dice que el estado E i puede comunicar con el estado E j . La comunicación puede ser mutua si también p ji >0 . Para cada i, la serie de valores {p ij } es una distribución de probabilidad, ya que en cualquier paso puede ocurrir alguno de los sucesos E 1 ,E 2 ,…,E m y son mutuamente excluyentes. Los valores p ji se denominan probabilidades de transición que satisfacen las condiciones p ji 0 j=1 m p ji =1

description

cadenas

Transcript of Cadenas de Markov

Page 1: Cadenas de Markov

Cadenas de Markov

En esencia, una cadena es un proceso en tiempo discreto en el que una variable aleatoria X n va cambiando en el transcurso del tiempo. Las cadenas de Markov tienen la propiedad de que la probabilidad de que X n sólo depende del estado inmediatamente anterior del sistema X n−1.

En una cadena homogénea finita conm estados posibles E1 , E2 ,… ,Em se puede introducir la notación:

pij=P(Xn= j∨Xn−1=i)

Donde i , j=1,2 ,…,m. Si pij>0 entonces se dice que el estado Ei puede comunicar con el estado E j. La comunicación puede ser mutua si también p ji>0.

Para cada i, la serie de valores {pij } es una distribución de probabilidad, ya que en cualquier paso puede ocurrir alguno de los sucesos E1 , E2 ,… ,Em y son mutuamente excluyentes. Los valores p ji se denominan probabilidades de transición que satisfacen las condiciones

p ji≥0

∑j=1

m

p ji=1