I. O. 2

48
UNIDAD 1.- Programación dinámica 1.1 Características de los problemas de programación dinámica: etapas, estados, fórmula recursiva, programación en avance y en retroceso 1.2 Algunos ejemplos de modelos de P.D. 1.3 Programación dinámica determinística. 1.4 Programación dinámica probabilística. 1.5 Problema de dimensionalidad en P. D. 1.6 Uso de programas de computación UNIDAD 2.- Teoría de Colas 2.1 Introducción y casos de aplicación. Las líneas de espera generan malestar, ineficiencia, retraso y otros problemas, lo que origina un coste de tiempo y económico. Es muy importante evaluar el balance entre el aumento del nivel de servicio y el tamaño de las colas de espera. Por tanto, es necesario entender la relación entre el número de servidores en un sistema (o eficacia de los mismos) y la cantidad de tiempo gastado en la cola (o cantidad de clientes en la misma). En sistemas de colas sencillos dichas relaciones se pueden encontrar analíticamente. En sistemas más complejos se pueden analizar mediante simulación. Elementos más importantes en un sistema de colas: clientes y servicio. Los clientes se caracterizan por los intervalos de tiempo que separan sus llegadas. El servicio se caracteriza por el tipo y tiempo de servicio, además de por el número de servidores. El tipo de servicio o disciplina representa el orden en el que los clientes se seleccionan de la cola. Las llegadas de clientes pueden ser deterministas o aleatorios (en este caso se modelan mediante una distribución estadística). Los tiempos de servicio también pueden ser deterministas o aleatorios (distribución estadística).

Transcript of I. O. 2

Page 1: I. O. 2

UNIDAD 1.- Programación dinámica 1.1 Características de los problemas de programación dinámica: etapas, estados, fórmula recursiva, programación en avance y en retroceso1.2 Algunos ejemplos de modelos de P.D.1.3 Programación dinámica determinística.1.4 Programación dinámica probabilística.1.5 Problema de dimensionalidad en P. D.1.6 Uso de programas de computación

UNIDAD 2.- Teoría de Colas2.1 Introducción y casos de aplicación.

Las líneas de espera generan malestar, ineficiencia, retraso y otros problemas, lo que origina un coste de tiempo y económico. Es muy importante evaluar el balance entre el aumento del nivel de servicio y el tamaño de las colas de espera. Por tanto, es necesario entender la relación entre el número de servidores en un sistema (o eficacia de los mismos) y la cantidad de tiempo gastado en la cola (o cantidad de clientes en la misma).En sistemas de colas sencillos dichas relaciones se pueden encontrar analíticamente. En sistemas más complejos se pueden analizar mediante simulación.Elementos más importantes en un sistema de colas: clientes y servicio.Los clientes se caracterizan por los intervalos de tiempo que separan sus llegadas.El servicio se caracteriza por el tipo y tiempo de servicio, además de por el número de servidores. El tipo de servicio o disciplina representa el orden en el que los clientes se seleccionan de la cola.Las llegadas de clientes pueden ser deterministas o aleatorios (en este caso se modelan mediante una distribución estadística).Los tiempos de servicio también pueden ser deterministas o aleatorios (distribución estadística).

Teoría de Colas: Parte de la Investigación Operativa que estudia el comportamiento de sistemas cuyos elementos incluyen líneas de espera (colas).

Page 2: I. O. 2

Teoría de Colas: ejemplos• Personas esperando por un servicio (bibliotecas, bancos, gasolineras, urgencias en hospital, . . . ),• Máquinas esperando por una reparación, piezas de un producto esperando a ser ensambladas,• Programas de ordenador esperando a ser ejecutados por un procesador,• Información de Internet esperando en un nodo para ser transferida a su destino,• Aviones esperando a despegar o aterrizar,

Teoría de Colas: historiaSe inicio con A. K. Erlang, en la compañía telefónica estatal de Dinamarca (principios del siglo XX).Se analizaron los tiempos de espera de llamadas a centralitas automáticas (congestión de tráfico).• Objetivo: satisfacer la demanda incierta en el sistema telefónico con el menor coste para la compañía.

Aplicaciones de Teoría de ColasSe pueden usar los resultados de Teor´ıa de Colas para la toma de decisiones: ¿Cuántos servidores emplear en el sistema? ¿Es mejor usar un único servidor rápido o muchos servidores más lentos? ¿Es mejor usar servidores idénticos o servidores específicos?Objetivo: minimizar el coste total = coste de servicio + coste de espera.• Coste de servicio: coste al aumentar la capacidad de servicio.La capacidad del servicio se puede aumentar añadiendo más servidores, s, o haciendo servidores más eficientes, µ , etc.Habitualmente, la función de coste de servicio viene dada por Css, donde Cs representa el coste por unidad de tiempo y servidor. También se utiliza Cµµ, donde Cµ representa el coste por unidad de tiempo y unidad de tasa de servicio.• Coste de espera: coste asociado a la espera de los clientes. La espera de clientes genera tiempo perdido, pérdida de los mismos, etc. Habitualmente, la función de coste de espera viene dada por ClL(s),

Page 3: I. O. 2

donde Cl denota el coste de espera por unidad de tiempo y cliente y L(s) es el valor esperado del número de clientes en el sistema para s servidores. También se utiliza CwW(µ), donde Cw denota el coste de espera por unidad de tiempo y cliente y W(µ) es el valor esperado del tiempo medio de espera en el sistema para una tasa de servicio de µ unidades.

Ejemplo: ¿cu´antos servidores utilizar?Un banco dispone de 3 ventanillas de atenci ´on. Los clientes llegan al banco a una tasa de 40 por hora. El tiempo de servicio es de 3 minutos por persona. El banco se plantea si le conviene aumentar el n´umero de ventanillas para satisfacer mejor a los clientes.El coste que le supone abrir una nueva ventanilla es de 6 euros la hora. El coste de espera se ha estimado en 18 euros la hora.• Datos: λ = 40 (tasa de llegadas), µ = 60/3 = 20 (tasa de servicio), s = 3 (número de servidores), Cs = 6, Cl = 18.

Ejemplo: ¿un servidor rápido o muchos lentos?En un servidor de Internet existen 5 nodos que atienden peticiones a razón de 50 por minuto. El tiempo medio de servicio de cada nodo es de 3 segundos por petición. En el servidor se plantean la posibilidad de instalar un único nodo con tiempo de servicio de 1 segundo por petición.

Page 4: I. O. 2

¿Es conveniente esta opción para reducir el tiempo medio de espera en el sistema?• Datos: λ = 50 (tasa de llegadas), µ = 20 (tasa de servicio) con s = 3 (número de servidores), y µ = 60 con s = 1.

Page 5: I. O. 2

2.2 Definiciones, características y suposiciones.

Page 6: I. O. 2

Elementos de un sistema: LlegadasPueden existir una o varias fuentes. Se suele asumir independencia entre llegadas. Intervalos entre llegadas: deterministas o aleatorios. Tasa de llegadas: λ ≡ n´umero medio de clientes que acceden al sistema por unidad de tiempo. Tiempo medio entre llegadas: 1 λ.Fuente de entradaPuede ser infinita o finita (sistemas abiertos o cerrados, respectivamente). Ejemplo de sistema abierto: un banco, ya que es pr´acticamente imposible que todos los posibles clientes coincidan en su llegada. Ejemplo de sistema cerrado: un servidor de Internet con un número relativamente pequeño de usuarios autorizados (es posible que en un momento determinado se conecten todos los usuarios al servidor).Si la fuente es finita, entonces el número de clientes en la cola afecta al número de clientes fuera del sistema. La llegada puede ser en bloque o de forma unitaria. Frecuentemente el bloque se trata como un solo cliente.

ClientesPueden ser impacientes. Por tanto, los clientes se pueden perder, bien porque no entran en el sistema, bien porque abandonan tras un tiempo en el sistema. También, los clientes pueden percibir un ritmo mas acelerado en una cola distinta y por tanto decidir cambiarse.

Cola o canal de esperaPuede ser de uno o varios canales. Puede existir interferencia entre canales. Puede ser de capacidad limitada.

Disciplina de la cola: orden de selección en el servicio (FIFO, LIFO, aleatorio, orden de prioridad, etc.).

ServicioPueden existir uno o varios servidores. Se suele asumir independencia entre tiempos de servicio. Duración de los servicios: deterministas o aleatorios.Tasa de servicio: µ ≡ número medio de clientes que son atendidos por unidad de tiempo.Tiempo medio de servicio: 1 µ.Análisis de sistemas de colasUna vez caracterizado el sistema, se pueden contestar a las siguientes preguntas:¿Qué proporción de tiempo están los servidores desocupados?¿Cuál es el tiempo medio de espera para un cliente?, ¿es este un tiempo razonable?, ¿se pierden clientes por tiempos de espera largos?

Page 7: I. O. 2

¿Es conveniente añadir más servidores para reducir el tiempo medio de espera?¿Cuál es el número medio de clientes en cola? ¿Cual es la probabilidad de que la espera sea mayor que una determinada longitud en un tiempo determinado?Notación de Kendall: las características del sistema se especifican por lossímbolos:A/B/s/k/t/d/Donde A y B denotan las distribuciones de los tiempos entre llegadas y de servicio, respectivamente. s denota el número de servidores en paralelo o canales, k denota la capacidad del sistema, t denota el tamaño de la fuente de entrada, y d es la disciplina de la cola.La distribución puede ser M Exponencial D Constante o determinista Ek Erlang de parámetro k G Gen´ erica e independiente• La disciplina puede ser FCFS First come, first served LCFS Last come, first servedSIRO Service in random orderGD General disciplinePor ejemplo, un sistema que se describe como M/M/1/∞/∞/FCFS denota un sistema abierto que contiene un único servidor con tiempos de llegada y servicios exponenciales, capacidad infinita y disciplina primero que entra, primero que se sirve.Solo un número pequeño de sistemas se puede resolver analíticamente.Modelos sencillos: M/M/1/, M/M/s/, M/M/1/k.

DistribucionesEn los sistemas de colas normalmente se asume que tanto las llegadas de clientes como los tiempos de servicio son aleatorios. Es usual suponer que los tiempos entre llegadas y los de servicio se distribuyan de forma exponencial. En este caso, la probabilidad instantánea de ocurrencia de un suceso en la siguiente t unidades de tiempo es:

f(t) = λe−λt para t ≥ 0,Donde λ denota la tasa de llegadas.Esta distribución es útil ya que tiene la propiedad de falta de memoria y estacionariedad (el sistema se comporta, transcurrido un plazo, de forma estable e independientemente de las condiciones iniciales).Una distribución exponencial de los tiempos entre llegadas implica una distribución de Poisson para las llegadas, es decir, el número de llegadas en el intervalo (0, t] es una Poisson. Una distribución de Poisson describe la probabilidad de que lleguen n clientes en las siguientes t unidades de tiempo:P(Xt = n) = e−λt(λt)nn!para n = 0, 1, . . .

Page 8: I. O. 2

En la práctica, se habla de llegadas Poisson y tiempos de servicio exponencial. En general se supone que el sistema se encuentra en estado estacionario (estabilidad independiente del tiempo).

Notación universal• Objetivo: dados los siguientes parámetros (se suelen estimar estadísticamente)λ ≡ tasa de llegadas.µ ≡ tasa de servicio.s ≡ n´umero de servidores.se calcula ρ = λsµ ≡ factor de utilización del sistema o intensidad de tráfico (proporción de tiempo esperado en el que los servidores están ocupados). Si ρ < 1 entonces el sistema se estabiliza. En otro caso el número de clientes en el sistema se incrementa sin límite.L ≡ valor esperado del número de clientes en el sistema (la variable se denota por N).Lq ≡ valor esperado del número de clientes en cola (la variable se denota por Nq). yW ≡ tiempo medio de espera en el sistema (la variable se denota por T).Wq ≡ tiempo medio de espera en la cola (la variable se denota por Tq).pn ≡ probabilidad de que n clientes estén en el sistema (en estado estacionario).¯c ≡ número medio de clientes en servicio.

Relaciones básicas: Modelo general• Fórmula de Little: L = λW y Lq = λWq.Además, W = Wq + 1 µ.De estas tres fórmulas se deduce: L = Lq + λ µ.Se dice que el sistema se encuentra en el estado n si existe exactamente n clientes en el mismo.• Ecuaciones de balance de flujo (la tasa esperada de llegada al estado n es igual a la tasa esperada de salida del estado n en estado estacionario):p0λ1 = p1µ1p0λ0 + p2µ2 = p1λ1 + p1µ1p1λ1 + p3µ3 = p2λ2 + p2µ2· · · = · · ·pn−1λn−1 + pn+1µn+1 = pnλn + pnµn· · · = · · ·Si resolvemos las ecuaciones anteriores para pi se obtiene

Page 9: I. O. 2

Para calcular p0 (prob. de que el sistema esté vacío), se utiliza:

.Modelo M/M/1

Page 10: I. O. 2

Modelo M/M/1: EjemploLa tasa de llegadas de estudiantes al mostrador de una biblioteca es de 10 por hora. En el mostrador existe una sola persona y atiende con una tasa de 5 minutos por persona. ¿Cuáles son las medidas de comportamiento del sistema?• Datos: λ = 10 (tasa de llegadas), µ = 60/5 = 12 (tasa de servicio), s = 1 (número de servidores). Se suponen distribuciones exponenciales.• Resultados:

Modelo M/M/s

Page 11: I. O. 2

Modelo M/M/s: EjemploUn banco dispone de 3 ventanillas de atención. Los clientes llegan al banco con tasa de 1 por minuto. El tiempo de servicio es de 2 minutos por persona.• Datos: λ = 60 (tasa de llegadas), µ = 60/2 = 30 (tasa de servicio), s = 3(número de servidores).• Resultados:

Modelo M/M/1/kEn este caso, si el sistema está lleno (la capacidad es k) no se permite la entrada de nuevos clientes al sistema. Por tanto, la tasa de llegada efectiva no es constante y varía con el tiempo (en función de si el sistema está lleno o no):

Page 12: I. O. 2

Limitaciones de los sistemas de colas• La resolución analítica de los sistemas se complica a medida que los sistemas se hacen más complejos. De hecho, para muchos sistemas no existe resolución analítica.• Ejemplo: un sistema de servidores en paralelo y en serie con múltiples canales y distribuciones generales.• En sistemas de colas complejos conviene utilizar simulaciones para estudiar su comportamiento.

Llegadas.       Consiste en la entrada al sistema que se supone es aleatoria. No tienen horario, es impredicible en que momento llegarán . El modelo también supone que las llegadas vienen de una población infinita y llegan una a la vez .   Cola.     En este modelo se considera que el tamaño de la cola es infinito. La disciplina de la cola es primero en llegar, primero en ser servido sin prioridades especiales. También se supone que las llegadas no pueden cambiar lugares en la línea (cola) o dejar la cola antes de ser servidas.   Instalación de Servicio.

Page 13: I. O. 2

    Se supone que un solo servidor proporciona el servicio que varía aleatoriamente.   Salidas.     No se permite que las unidades que salgan entren inmediatamente al servicio.   Características de operación .

Un servidor y una cola. Llegada Poisson. Cola infinita, primero en llegar primero en ser servido. Tiempos de servicio exponenciales.

  Cola :

Longitud promedio de la línea : 

Tiempo de espera promedio : Sistema:

Longitud promedio de la línea : 

Tiempo de espera promedio : 

Utilización de la instalación : 

Probabilidad de que la línea exceda a n :  A = tasa promedio de llegada. S = tasa promedio de servicio.

2.3 Terminología y notación.2.4 Proceso de nacimiento y muerte. Modelos Poisson.2.5 Un servidor, fuente finita, cola finita.

Page 14: I. O. 2

2.6 Un servidor, cola infinita, fuente infinita.

Este modelo es igual que el anterior, excepto que se supone que el tiempo de servicio es exactamente el mismo en cada llegada en lugar de ser aleatorio. Todavía se tiene una sola línea, tamaño de la cola infinito, disciplina de la cola como primero en llegar primero en ser servido y llegadas Poisson.

      Las aplicaciones típicas de este modelo pueden incluir un auto lavado automático, una estación de trabajo en una pequeña fábrica o una estación de diagnóstico de mantenimiento preventivo. En general, el servicio lo proporciona una máquina.

Las características de operación están dadas por 4 :

 

      En donde A = tasa promedio de llegadas (llegadas por unidad de tiempo) y S = tasa constante de servicio (llegadas por unidad de tiempo).

  Ejemplo:

    Supóngase un lavado automático de autos con una línea de remolque, de manera que los autos se mueven a través de la instalación de lavado como en una línea de ensamble. Una instalación de este tipo tiene dos tiempos de servicio diferentes : el tiempo entre autos y el tiempo para completar un auto. Desde el punto de vista de teoría de colas, el tiempo entre autos establece el tiempo de servicio del sistema. Un auto cada cinco minutos da una tasa de 12 autos por hora. Sin embargo, el tiempo para procesar un auto es el tiempo que se debe esperar para entregar un auto limpio. La teoría de colas no considera este tiempo.

    Supóngase que el lavado de autos puede aceptar un auto cada cinco minutos y que la tasa promedio de llegadas es de nueve autos por hora ( con distribución Poisson). Sustituyendo :

Page 15: I. O. 2

 

2.7 Servidores múltiples, cola infinita, fuente infinita

Supóngase que las llegadas son Poisson, los tiempos de servicio son exponenciales, hay una sola línea, varios servidores y una cola infinita que opera con la disciplina de primero en llegar primero en ser servido. Las ecuaciones para las características de operación se vuelven un poco más complicadas. Sea:

 

N = número de servidores.

A = tasa promedio de llegadas (llegadas por unidad de tiempo).

S = tasa promedio de servicio por cada servidor (llegadas por unidad de tiempo).

  Entonces :

Page 16: I. O. 2

 

La cantidad P0 es la probabilidad de que no haya llegadas en una unidad de tiempo, lo cual no lo hace más fácil de calcular. Para dos o tres servidores pueden combinarse y simplificar las dos ecuaciones para obtener, para N=2

 

  Nótese que para N = 1 este modelo se reduce al modelo de un servidor.     Ejemplo:  

    |Considérese la biblioteca de una universidad cuyo personal está tratando de decidir cuántas copiadoras debe de instalar para uso de los estudiantes. Se ha escogido un equipo particular que puede hacer hasta 10 copias por minuto. No se sabe cuál es el costo de espera para un estudiante, pero se piensa que no deben tener que esperar más de ods minutos en promedio. Si el número promedio de

Page 17: I. O. 2

copias que se hacen por ususario es cinco, ¿ cuántas copiadoras se deben instalar ? .

 

    Se usa prueba y error para resolver este tipo de problemas, no se encuentra una solución general como se hizo para el modelo de un servidor. Se tratará primero con dos copiadoras, después con tres, y así hasta que se satisfaga el criterio del tiempo de espera.

 

    ¿Cuál es la tasa de servicio? Si el número promedio de copias es cinco y la copiadora puede hacer hasta 10 copias por minuto, entonces pueden servirse en promedio hasta dos estudiantes por minuto. Pero, en esto no se toma en cuenta el tiempo para insertar la moneda, cambiar originales, para que un estudiante desocupe y otro comience a copiar. Supóngase que se permite un 70 % del tiempo para estas actividades. Entonces la tasa de servicio neta baja a 0.6 estudiantes por minuto. Además se supone que los periodos pico de copiado tienen una tasa de llegada de 60 estudiantes por hora, o 1 por minuto.

   

    Se comenzará con dos copiadoras, ya que una no sería suficiente.

 

A = 1 por minuto. S = 0.6 por minuto. N = 2

    Esto excede el criterio del máximo de 2 minutos de espera para el estudiante promedio. Se tratarán tres copiadoras.

Page 18: I. O. 2

Se necesitan tres copiadoras. La utilización de cada una será :

 

2.8 Servidores múltiples, cola finita, fuente infinita2.9 Uso de programas de computación

UNIDAD 3.- Teoría de Decisión 3.1 Características generales de la teoría de decisiones3.2 Criterios de decisión Deterministicos y Probabilísticas3.3 Valor de la información perfecta3.4 Árboles de decisión3.5 Teoría de utilidad3.6 Decisiones secuénciales.3.7 Análisis de sensibilidad3.8 Uso de programas de computación

UNIDAD 4.- Cadenas de Markov41. Introducción.

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Una cadena de Markov es un caso especial de los procesos de Markov. Se utiliza para estudiar el comportamiento a corto y largo plazo de ciertos sistemas estocásticos.

    En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Page 19: I. O. 2

    El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.

    La tarea más difícil es reconocer cuándo puede aplicarse. La caracteristica más importante que hay que buscar en la memoria de un evento a otro.

4.2 Formulación de las cadenas de Markov.

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.       En la figura 4.1.1 se muestra el proceso para formular una cadena de Markov. El generador de Markov produce uno de n eventos posibles, E j , donde j = 1, 2, . . . , n, a intervalos discretos de tiempo (que no tiene que ser iguales ). Las probabilidades de ocurrencia para cada uno de estos eventos depende del estado del generador. Este estado se describe por el último evento generado. En la figura 4.1.1, el último evento generado fue Ej , de manera que el generador se encuentra en el estado Mj .

    La probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional : P ( Ek / Mj ). Esto se llama probabilidad de transición del estado Mj al estado Ek. Para describir completamente una cadena de Markov es necesario saber el estado actual y todas las probabilidades de transición.   Probabilidades de transición.

Page 20: I. O. 2

La probabilidad de transición Pxn-1,xn = P tn = Xn tn-1 = Xn – 1 se llama probabilidad de transición. Representa la probabilidad condicional del sistema que está en xn en tn, dado que estuvo en Xn – 1 en tn – 1. Esta probabilidad también se denomina transición de un paso porque describe el sistema entre tn – 1 y tn . De esta forma, una probabilidad de transición de m pasos se define por:

Pxn, xn + m = P tn + m = xn + m tn = xn       Una forma de describir una cadena de Markov es con un diagrama de estados, como el que se muestra en la figura 4.1.2. En ésta se ilustra un sistema de Markov con cuatro estados posibles : M1, M2 , M3 y M4 . La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama

    Otro método para exhibir las probabilidades de transición es usar una matriz de transición. . La matriz de transición para el ejemplo del diagrama de estados se muestra en la tabla 4.1.1 .

Otro método para exhibir las probabilidades de transición es usar una matriz de transición. . Para n = 0, 1, 2, ....

Page 21: I. O. 2

  El superíndice n no se escribe cuando n = 1.

Defina Pi j = P tn = j tn – 1 = I

como la probabilidad de transición de un paso de ir del estado i en tn – 1 al estado j en tn – 1 al estado j en tn, y supongamos que estas probabilidades son estacionarias a través del tiempo. Las probabilidades de transición del estado Ei al estado Ej se arreglan de manera más conveniente en forma matricial como sigue:

P =

La matriz P se llama transición homogénea o matriz estocástica porque todas las probabilidades de transición pi j son fijas e independientes del tiempo. Las probabilidades pi j deben satisfacer las condiciones

pi j = 1, para toda i j

pi j 0, para toda i y j

Ahora se define la cadena de Markov . Una matriz de transición P junto con las probabilidades iniciales aj

(0) asociadas con los estados EJ definen completamente una cadena de Markov. Generalmente pensamos que una cadena de Markov describe el comportamiento de transición de un sistema en intervalos iguales. Existen situaciones donde la longitud del intervalo depende de las características del sistema y, por tanto, puede tal vez no ser igual. Este caso se denomina cadenas de Markov encajadas.

Clasificación de estados en cadenas de Markov. Estas definiciones serán útiles en el estudio del comportamiento del sistema a largo plazo.

Page 22: I. O. 2

Cadena de Markov irreducible. Se dice que una cadena de Markov es irreducible si cada estado Ej se puede alcanzar desde cualquier otro estado EJ después de un número finito de transiciones, es decir, para i j,

PI J(n) > 0, para 1 n <

En este caso todos los estados de la cadena se comunican.Estados de conjunto cerrado y absorbentes. En una cadena de Markov, se dice que un conjunto C de estados está cerrado si el sistema, una vez en uno de los estados de C, permanecerá en C indefinidamente

Tiempos de primer regreso. Una definición importante en la teoría de las cadenas de Markov es el tiempo de primer regreso. Dado que el sistema está inicialmente en el estado EJ, éste puede regresar a EJ por primera vez en el paso n, n 1. El número de pasos antes de que el sistema regrese a EJ se llama tiempo de primer regreso.

Cadenas de Markov Ergódicas. Si todos los estados de una cadena de Markov son ergódicos, entonces la cadena es irreducible. En este caso, las probabilidades absolutas a(n) = a(0) Pn siempre convergen de forma única a una distribución limitante conforme n , donde la distribución limitante es independiente de las probabilidades iniciales a(0).

El siguiente teorema es ahora oportuno:

Todos los estados en una cadena de Markov infinita irreducible pueden pertenecer a una, y sólo una, de las siguientes tres clases: estado transitorio, estado recurrente nulo o estado recurrente no nulo. En cada caso todos los estados se comunican y tienen el mismo periodo. Para el caso especial donde la cadena tiene un número finito de estados, la cadena no puede consistir sólo en estados transitorios ni puede contener estados nulos.

4.3 Procesos estocásticos.

Un proceso estocástico se define sencillamente como una colección indexada de variables aleatorias { X1 }, donde el subíndice t toma valores de un conjunto T dado. Con frecuencia T se toma como el conjunto de enteros no negativos y X, representa una característica de interés medible en el tiempo t. Por ejemplo, el proceso estocástico, X1 , X2 , X3, .., Puede representar la colección de niveles de inventario semanales (o mensuales) de un producto dado, o puede representar la colección de demandas semanales (o mensuales) de este producto.

    Un estudio del comportamiento de un sistema de operación durante algún periodo suele llevar al análisis de un proceso estocástico con la siguiente

Page 23: I. O. 2

estructura. En puntos específicos del tiempo t , el sistema se encuentra exactamente en una de un número finito de estados mutuamente excluyentes y exhaustivos, etiquetados 0, 1, . . , S. Los periodos en el tiempo pueden encontrarse a intervalos iguales o su esparcimiento puede depender del comportamiento general del sistema en el que se encuentra sumergido el proceso estocástico. Aunque los estados pueden constituir una caracterización tanto cualitativa como cuantitativa del sistema, no hay pérdida de generalidad con las etiquetas numéricas 0, 1, . . , M , que se usarán en adelante para denotar los estados posibles del sistema. Así la representación matemática del sistema físico es la de un proceso estocástico {Xi}, en donde las variables aleatorias se observan en t = 0, 1, 2,. . ., y en donde cada variable aleatoria puede tomar el valor de cualquiera de los M + 1 enteros 0, 1, .. , M . Estos enteros son una caracterización

de lo s M + 1 estados del proceso.

4.4 Propiedad Markoviana de primer orden.

Se dice que un proceso estocástico tiene la propiedad markoviana si

P { Xt+1 = j | X0 = K0 , X1 = K1 , . ., Xt-1 = Kt-1 , = Kt-1, Xt=1}= P {X t+1 | X1 = i }, para toda t = 0, 1, . . y toda

sucesión i, j , K0 , K1 , . . , Ki-1 .

    Se puede demostrar que esta propiedad markoviana es equivalente a establecer una probabilidad condicional de cualquier "evento" futuro dados cualquier "evento " pasado y el estado actual X i = i , es independiente del evento pasado y sólo depende del estado actual del proceso. Las probabilidades

condicionales P{Xt+1 = j | Xt = i} se llaman probabilidades de transición. Si para cada i y j,

P{ Xt+1 = j | | Xt = i } = p{X1 = j | X0 = i }, para toda t = 0, 1, ....

    Entonces se dice que las probabilidades de transición (de un paso) son estacionarias y por lo general se denotan por p ij . Así, tener probabilidades de transición estacionarias implican que las probabilidades de transición no cambian con el tiempo. La existencia de probabilidades de transición (de un paso) estacionarias también implica que, para cada i, j y n (n = 0, 1, 2,...),

P{ Xt+n = j | | Xt = i } = p{Xn = j | X0 = i },

Page 24: I. O. 2

Para toda t = 0, 1, . . . Estas probabilidades condicionales casi siempre se denotan

por  y se llaman probabilidades de transición de n pasos. Así,  es simplemente la probabilidad condicional de que la variable aleatoria X, comenzando en el estado i, se encuentre en el estado j después de n pasos ( unidades de tiempo ).

Como las  son probabilidades condicionales, deben satisfacer las propiedades:

4.5 Probabilidad de transición estacionarias de un solo paso.

Ejemplo :

      Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cada semana. Sean D1, D2, ... las demandas de esta cámara durante la primera, segunda, ... , semana, respectivamente. Se supone que las D i

son variables aleatorias independientes e idénticamente distribuidas que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la noche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política ( s, S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido). Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso estocástico de la forma que se acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras en inventario al final de la semana.

  Observe que {Xi}, en donde Xi es el número de cámaras en el almacén al final de la semana t ( antes de recibir el pedido }), es una cadena de Markov. Se verá ahora cómo obtener las probabilidades de transición (de un paso), es decir, los elementos de la matriz de transición ( de un paso).

Page 25: I. O. 2

 

  Suponiendo que cada Dt tiene una distribución Poisson con parámetro  .

  Para obtener  es necesario evaluar  . Si  ,

Entonces  . Por lo tanto,  significa que la demanda durante la semana fue de tres o más cámaras.

Así,  , la probabilidad de que una variable aleatoria Poisson con parámetro  tome el valor de 3 o más;

y  se puede obtener de una manera parecida. Si  ,

entonces  . Para obtener  , la demanda durante la

semana debe ser 1 o más. Por esto,  . Para

encontrar  , observe que  si  .

En consecuencia, si  , entonces la demanda durante la semana tiene que ser

exactamente 1. por ende,  . Los elementos restantes se obtienen en forma similar, lo que lleva a la siguiente a la siguiente matriz de transición ( de un paso):

 

4.6 Probabilidad de transición estacionarias de n pasos.

Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular estas probabilidades de transición de n

pasos : 

La probabilidad de transición   de dos pasos o de segundo orden, es la probabilidad de ir del estado k al estado j en exactamente dos transiciones.

Page 26: I. O. 2

Estas ecuaciones simplemente señalan que al ir de un estado i al estado j en n pasos, el proceso estará en algún estado k después de exactamente m ( menor que n) pasos. Así,

    Es solo las probabilidad condicional de que, si se comienza en el estado i, el proceso vaya al estado k despues de m pasos y después al estado j en n- m pasos.

Los casos especiales de m=1 y m=n-1 conducen a las expresiones

    Para toda i, j, y n de lo cual resulta que las probabilidades de transición de n pasos se pueden obtener a partir de las probabilidades de transición de un paso de manera recursiva. Para n=2, estas expresiones se

vuelven : 

Note que las  son los elementos de la matriz P(2) , pero también debe de

observarse que estos elementos,  se obtienen multiplicando la matriz de transición de un paso por sí misma; esto es , P(2) = P * P = P2 .    En términos más generales, se concluye que la matriz de probabilidades de transición de n pasos se puede obtener de la expresión : P(n) = P * P .... P = Pn = PPn-1 = Pn-1 P.

    Entonces, la matriz de probabilidades de transición de n pasos se puede obtener calculando la n-ésima potencia de la matriz de transición de un paso. Para valores no muy grandes de n, la matriz de transición de n pasos se puede calcular en la forma que se acaba de describir, pero cuando n es grande, tales cálculos resultan tediosos y, más aún, los errores de redondeo pueden causar inexactitudes.

Ejemplo :

    Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cada semana. Sean D1, D2, ... las demandas de esta cámara durante la primera, segunda, ... , semana, respectivamente. Se supone que las D i

Page 27: I. O. 2

son variables aleatorias independientes e idénticamente distribuidas que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la noche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política ( s, S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido). Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso estocástico de la forma que se acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras en inventario al final de la semana.

 

 

Así, dado que tiene una cámara al final de una semana, la probabilidad de que no haya cámaras en inventario dos semanas después es 0.283; es

decir,  De igual manera, dado que se tienen dos cámaras al final de una semana, la probabilidad de que haya tres cámaras en el almacén dos

semanas después es 0.097; esto es, 

  La matriz de transición de cuatro pasos también se puede obtener de la siguiente manera :

P(4) = P4 = P(2) * P(2)

    Así, dado que queda una cámara al final de una semana, 0.282 es la probabilidad de que no haya cámaras en inventario 4 semanas más tarde; es

decir,  De igual manera, dado que quedan dos cámaras en el almacén

Page 28: I. O. 2

final de una semana, se tiene una probabilidad de 0.171 de que haya tres cámaras

en el almacén 4 semanas después; esto es, 

4.7 Estados absorbentes

4.8 Probabilidad de transición estacionarias de estados estables. Tiempos de primer paso.

Teorema     Sea P la matriz de transición de una cadena de M estados . Existe entonces un

vector  tal que

 

Se establece que para cualquier estado inicial i ,  .

El vector  a menudo se llama distribución de estado estable, o también distribución de equilibrio para la cadena de Markov. Para encontrar la distribución de probabilidades de estacionario para una cadena dada cuya matriz de transición es P, según el teorema, para n grande y para toda

i ,  (1)Como Pij (n + 1) = ( renglón i de Pn )(columna j de P), podemos escribir

(2)

 

  Ejemplo :

    Suponga que toda la industria de refrescos produce dos colas. Cuando una persona ha comprado la cola 1, hay una probabilidad de 90 % de que su siguiente compra se de cola 1. Si una persona compró cola 2, hay un 80 % de probabilidades que su próxima compra sea de cola 2.

Page 29: I. O. 2

Entonces : 

Al reemplazar la segunda ecuación por la condición  ,

obtenemos el sistema 

Al despejar  resulta que  Por lo tanto, después de largo tiempo, hay probabilidad 2/3 de que una persona dada compre cola 1 y 1/3 de probabilidad de que una persona compre cola 2.

Con frecuencia es conveniente poder hacer afirmaciones en términos de probabilidades sobre el número de transiciones que hace el proceso al ir de un estado i a un estado j por primera vez . este lapso se llama tiempos de primer paso al ir del estado i al estado j. cuando J=i, esta tiempo de primer paso es justo el número de transiciones hasta que el proceso regresa al estado inicial i. En este caso, el tiempo de primer paso se llama tiempo de recurrencia para el estado i.  Para ilustrar estas definiciones, reconsidérese el ejemplo siguiente :   Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar cada semana. Sean D1, D2, ... las demandas de esta cámara durante la primera, segunda, ... , semana, respectivamente. Se supone que las D i

son variables aleatorias independientes e idénticamente distribuidas que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que se tiene en el momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2 el número de cámaras al final de la semana dos, etc. Suponga que X0 = 3 . El sábado en la noche la tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política ( s, S)1 para ordenar : si el número de cámaras en inventario al final de la semana es menor que s =1 (no hay cámaras en la tienda), ordenar (hasta) S=3. De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el almacén, no se hace el pedido). Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso estocástico de la forma que se acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que representan el número posible de cámaras en inventario al final de la semana.        Donde Xt es el número de cámaras en inventario al final de la semana t y se

comienza con  , Suponga que ocurrió lo siguiente:

Page 30: I. O. 2

 

      En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es dde 2 semanas, el tiempo de primer paso para ir del estado 3 al estado 0 es de 3 semanas y el tiempo de recurrencia del estado 3 es de 4 semanas.     En general, los tiempos de primer paso son variables aleatorias y, por lo tanto, tienen una distribución de probabilidad asociada a ellos. Estas distribuciones de probabilidad dependen de las probabilidades de transición del proceso. En

particular,  denota la probabilidad de que el tiempo de primer paso del estado i al j sea igual a n. Se puede demostrar que estas probabilidades satisfacen las siguientes relaciones recursivas:

       Entonces se puede calcular la probabilidad de un tiempo de primer paso del estado i al j en n pasos, de manera recursiva, a partir de las probabilidades de transición de un paso. En el ejemplo, la distribución de probabilidad de los tiempos de primer paso del estado 3 al estado 0 se obtiene como sigue:  

 

Para i y j fijos, las  son números no negativos tales que  

      Esta suma puede ser menor que 1, lo que significa que un proceso que el iniciar se encuentra en el estado i puede no llegar nunca al estado j . Cuando la suma es

igual a 1, las  pueden considerarse como una distribución de probabilidad para la variable aleatoria, el tiempo de primer paso.  

    Para obtener el tiempo esperado de primer paso del estado i al estado j. Sea , que se define como:

Page 31: I. O. 2

 

 

entonces  satisface, de manera única, la ecuación:  

Cuando i=j,  se llama tiempo esperado de recurrencia.   Al aplicarlo al ejemplo del inventario, estas ecuaciones se pueden usar para calcular el tiempo esperado hasta que ya no se tengan cámaras en el almacén, suponiendo que el proceso inicia cuando se tienen tres cámaras; es decir, se

puede obtener el tiempo esperado de primer paso  . Como todos los estados son recurrentes, el sistema de ecuaciones conduce a las expresiones  

  La solución simultánea de este sistema es  

      De manera que el tiempo esperado hasta que la tienda se queda sin cámaras es de 3.50 semanas.

4.9 Uso de programas de computación.

Page 32: I. O. 2

UNIDAD 5.- Optimización de Redes 5.1 Terminología.

Optimización CombinatoriaOC: Parte de la Programación Matemática donde se consideran problemas con un número combinatorio de soluciones factibles. Frecuentemente estos problemas se plantean sobre grafos (redes). En muchos de esos casos resultan problemas fáciles de resolver. A través de la teoría de grafos se pueden desarrollar algoritmos más eficientes que los vistos hasta ahora.En otras ocasiones resultan muy difíciles de resolver de forma exacta y se necesitan técnicas heurísticas para encontrar buenas soluciones.

Conceptos básicos de teoría de grafos:Grafo: Conjunto de nodos conectados a través de arcos y/o aristas.Grafo orientado (red) vs. grafo no orientadoCamino: Sucesión de arcos adyacentes que parten de un nodo y llegan a otro.Ciclo: Camino orientado cerrado.Árbol: (Sub)grafo sin ciclos.Grafo bipartido: Grafo orientado donde cada nodo es exclusivamente un origen o un destino.

Page 33: I. O. 2
Page 34: I. O. 2

5.2 Problema de la ruta más corta. Redes cíclicas y acíclicas5.3 Problema del árbol de mínima expansión.5.4 Problema de flujo máximo.Determina la cantidad máxima de flujo que puede ser transportado dentro de una red desde un origen a un destino (automóviles en una red viaria, fluido de cualquier tipo en una red de tuberías, cantidad de información en una red de ordenadores, etc.) donde los arcos tienen una capacidad máxima de transporte.Al igual que el problema de caminos mínimos, se puede formular como un problema de flujos en redes con una única fuente y un único sumidero.Las diferencias con el problema de caminos mínimos son que• La cantidad de flujo producido en la fuente es una variable f.• El objetivo ya no es minimizar los costes, sino maximizar f.Problema de flujo máximo: resoluciónIdea:El problema se resuelve de forma iterativa.En cada iteración se busca un camino que permita aumentar el flujo actual.Ingredientes:Red residual asociada a un flujo.Camino aumentativo.

5.5 Problema de flujo de costo mínimo.5.6 Programación lineal en Teoría de Redes.

Page 35: I. O. 2

5.7 Uso de programas de computación

Page 36: I. O. 2
Page 37: I. O. 2
Page 38: I. O. 2
Page 39: I. O. 2
Page 40: I. O. 2
Page 41: I. O. 2

BIBLIOGRAFÍA

Investigación de Operaciones. Una introducción Taha, Hamdy A. Prentice may 6ª. Edición