Usmp Markov

22
ADOLFO JORGE PRADO VENTOCILLA Análisis Markov

description

Ejemplos

Transcript of Usmp Markov

Page 1: Usmp Markov

ADOLFO JORGE PRADO VENTOCILLA

Análisis Markov

Page 2: Usmp Markov

2

Objetivos Unidad de Aprendizaje

Determinar los estados o condiciones futuras mediante el uso de análisis de Markov

Calcular condiciones de largo plazo o de estado estable utilizando la matriz de probabilidades de transición

Comprender el uso de análisis de estado absorbente para predecir condiciones futuras

Page 3: Usmp Markov

3

Fuente de Consulta

Render Barry Métodos Cuantitativos para los Negocios 9na edicion 2006 MexicoPearson Prentice Hall

Anderson David Métodos Cuantitativos para los Negocios 11a edicion 2011 Mexico Cengage Learning

Page 4: Usmp Markov

4

Agenda

IntroducciónEstados y probabilidades de estadoMatriz de probabilidades de transición

Pronostico de participación en el mercadoCondiciones de estabilidad

Operaciones de Maquinaria Estados absorbentes y la matriz fundamental

Cuentas por cobrar

Page 5: Usmp Markov

5

El Análisis de Markov

es una técnica que maneja probabilidades de ocurrencia futura mediante el análisis de las probabilidades conocidas en el presente.

Andrei Andreyevich Markov

Page 6: Usmp Markov

6

Cadenas Markov con probabilidades de transición estacionarios

Supuestos 1) Existe un numero limitado o finito de estados

posibles.2) La probabilidad de que los estados cambien

permanece igual a lo largo del tiempo.3) Se puede predecir cualquier estado futuro a partir

del estado anterior y de la matriz de probabilidades de transición.

4) El tamaño y constitución del sistema no cambia durante el análisis.

Page 7: Usmp Markov

7

Estados y Probabilidades de estado

Estados se utilizan para identificar todas las condiciones posibles de un proceso o de un sistema Colectivamente exhaustivo Mutuamente excluyente

Page 8: Usmp Markov

8

Caso 1 : Participación de Mercado

Un total de 100,000 personas que van de compras a 3 Supermercado de los cuales compran 40,000 en Metro, 30,000 en Totus y 30,000 en Plaza Vea.

Estados• Estado 1 : Metro 40%= 40000/100000• Estado 2 :Totus 30%• Estado 3 : Plaza Vea 30%

• Vector de probabilidades de estado i en el Periodo n=1

π (1) = (0.4, 0.3, 0.3)

Probabilidad = Participación de mercado(π 1(1), π 2(1), π 3(1))

Page 9: Usmp Markov

9

Matriz de Probabilidades de Transición

Metro

Totus

Plaza Vea

Metro

Totus

Plaza Vea

Metro

Totus

Plaza Vea

Metro

Totus

Plaza Vea

0.8

0.10.1

0.1

0.7

0.2

0.2

0.2

0.6

Diagrama de Arbol para periodo 2

0.8 0.1 0.1 P = 0.1 0.7 0.2 0.2 0.2 0.6

Pij = Probabilidad condicional de encontrarseen el estado j si se encuentra en el estado i

“Permite pasar de estado actual aun estado futuro”

0.32

UltimaCompra

Periodo 0

0.4

0.3

0.3

Page 10: Usmp Markov

10

Probabilidades de transición

Las CM están completamente caracterizadas por las probabilidades de transición en una etapa,

TtSjiiXjXP

t

t

,,,1

Sólo trabajaremos con CM homogéneas en el tiempo, que son aquellas en las que

ijt

t piXjXPTtSji

1,,

donde pij se llama probabilidad de transición en una etapa desde el estado i hasta el estado j

Page 11: Usmp Markov

11

Matriz de transición

Los qij se agrupan en la denominada matriz de transición de la CM:

Sjiijpppp

ppp

ppp

P

,

222120

121110

020100

............

...

...

...

Page 12: Usmp Markov

12

Propiedades de la matriz de transición

Por ser los qij probabilidades,

1,0,, ijpSji

Por ser 1 la probabilidad del suceso seguro, cada fila ha de sumar 1, es decir,

1, Sj

ijpSi

Una matriz que cumpla estas dos propiedades se llama matriz estocástica

Page 13: Usmp Markov

13

Pronóstico con Análisis de Markov

Para el periodo 1: π (1) = π (0) P

Para el periodo n+1: π (n+1) = π (n) P

Para el periodo 2: π (2) = π (0) P 2

Para el periodo n: π (n) = π (0) P n

Caso 1: Calcular el pronostico para el periodo sgte.

0.8 0.1 0.1 P = 0.1 0.7 0.2 0.2 0.2 0.6

π (1) = (0.41, 0.31, 0.28)

π (0) = (0.4, 0.3, 0.3)0.41=0.4*0.8+0.3*0.1+0.3*.0.2

0.31=0.4*0.1+0.3*0.7+0.3*.0.2

0.28=0.4*0.2+0.3*0.2+0.3*.0.6

Page 14: Usmp Markov

14

Condición de EstabilidadProbabilidad de estado estacionario

Probabilidades a las que nos aproximamos después de un gran numero de transiciones.Es independiente de su estado inicial

π = π P

Page 15: Usmp Markov

15

Caso 2 : Mantenimiento de Equipos

Juan Perez ha registrado la operación de su maquina fresadora durante varios años: En los últimos años 80% del tiempo funcionó correctamente durante el mes actual si había funcionado bien el mes anterior. Esta secuencia también significa que solo el 20% del tiempo no funcionó de manera apropiada durante un mes determinado cuando funcionaba bien el mes anterior. Además se ha observado que 90% del tiempo la máquina permaneció ajustada de forma incorrecta durante un mes determinado si no estaba bien ajustada el mes anterior. Solo el 10% del tiempo operó de forma correcta en un mes determinado cuando no operó correctamente durante el mes anterior

Page 16: Usmp Markov

16

Caso 2 : Mantenimiento de Equipos

0.8 0.2P = 0.1 0.9P11 : probabilidad de que la maquina funcione correctamente el mes actual

considerando que funcionó correctamente el mes anterior

P12 : probabilidad de que la maquina no funcione correctamente el mes actual considerando que funcionó correctamente el mes anterior

P21 : probabilidad de que la maquina funcione correctamente el mes actual considerando que no funcionó correctamente el mes anterior

P21 : probabilidad de que la maquina no funcione correctamente el mes actual considerando que no funcionó correctamente el mes anterior

¿Cuál es la probabilidad que funcione en 1 mes, 2 meses, etc.?

Page 17: Usmp Markov

17

Caso 2 : Mantenimiento de Equipos

Periodo Estado 1

Estado 2

Periodo Estado 1

Estado 2

1 1 0 9 0.371765 0.628234

2 0.8 0.2 10 0.360235 .0639754

3 0.66 0.34 11 0.352165 0.647834

4 0.562 0.438 12 0.346515 0.653484

5 0.4934 0.5066 13 0.342560 0.657439

6 0.44538 0.55462 14 0.339792 0.660207

7 0.411766 0.588234 15 0.337854 0.666145

8 0.388236 0.611763 n 0.333333 0.666666

π (n+1) = π (n) P

π (n) = π (n) P en equilibrio

Page 18: Usmp Markov

18

Caso 2 : Mantenimiento de Equipos

Calculo de condición de equilibro π = π P (x1, x2) = (x1, x2) (0.8 0.2) 0.1 0.9 x1= x1* 0.8 + x2 * 0.1 (ec.1) x2= x1* 0.2 + x2 * 0.9 (ec.2) x1 + x2 = 1 (ec.3) ¿por qué? 3 ecuaciones 2 incógnitas -> 1 ecuación redundante Para resolver escoger 2 ecuaciones, eliminar 1 ecuación Por ejemplo Sustituir x1 =1-x2 en ec,1 1-x2= (1-x2)*.8+x2*.1 1-0.8=(1-0.8+0.1)x2 x2= 0.2/0.3 = 2/3 = > 11 = 1/3 x1=1-2/3 = 1/3

! Verificar !

Page 19: Usmp Markov

19

Estados Absorbentes

Al alcanzar estado determinado y permaneciendo siempre en ese estado. Es decir si se encuentra es un estado absorbente no se puede pasar a otro estado

Page 20: Usmp Markov

20

Caso 3 : Cuentas por Cobrar

Estado 1 (π1) : pagado, todas las facturasEstado 2 (π2) : deudas incobrables, vencido mas de

3 mesesEstado 3 (π3) : vencido menos de 1 mesEstado 4 (π4) : vencido entre uno y tres meses

Este mes

Próximo Mes

Pagado Deuda Incobrable

Menos de 1 mes

De 1 a 3 meses

Pagado 1 0 0 0

Deuda Incobrable

0 1 0 0

Menos de 1 mes

0.6 0 0.2 0.2

De 1 a 3 meses 0.4 0.1 0.3 0.2

Page 21: Usmp Markov

21

Caso 3 : Cuentas por Cobrar

I O 1 0 0 0P = 0 1 0 0 0.6 0 0.2 0.2 0.4 0.1 0.3 0.2 A B

I Matriz Identidad

0 Matriz Cero

Matriz Fundamental

F = (I-B)-1

FA Probabilidad de que una cantidad en alguno de los no estados absorvente termine en alguno de los estados absorbentes

Page 22: Usmp Markov

22

Caso 3 : Cuentas por Cobrar

Probabilidad de que una cantidad termine en un estado absorbente

FA= 1.38 0.34 0.6 0 0.52 1.38 0.4 0.1FA=0.97 0.03 0.86 0.14Matriz M Dinero en los

estados absorbentesM= (2000, 5000)MFA = (6240, 760)

Matriz Fundamental

F = (I –B) -1

F = 1 0 0.2 0.2 -1

0 1 0.3 0.2F= 0.8 -0.2 -1 -0.2 0.8 F= 1.38 0.34 0.52 1.38

-