Cadenas de Markov

download Cadenas de Markov

of 8

Transcript of Cadenas de Markov

  • INTRODUCCIN

    Hoy en da las empresas sienten la necesidad de saber cmo evoluciona el mercado o saber que

    pasara en determinados eventos de acuerdo a sucesos pasados, as poder tomar decisiones que

    impactaran en criterios, prioridades y rutas a seguir.

    El proceso de toma de decisiones se realiza a travs de una eleccin entre diferentes

    alternativas o formas para resolver situaciones de la vida, que se pueden presentar en diferentes

    contextos, los cuales impactaran ya sea de forma econmica o social. La importancia de la toma

    de decisiones en los negocios es tal, que resulta de inters conocer el comportamiento de los

    diferentes entornos, mercados, entre otros. En ese sentido, las cadenas de Markov son una

    herramienta muy potente en el campo de toma de decisiones.

    Las Cadenas de Markov se caracterizan por predecir la evolucin y el comportamiento a corto y

    largo plazo de determinados eventos, basndose en sucesos que se dieron con anterioridad, por

    lo cual la utilizacin correcta de estas herramientas para la toma de decisiones juega un papel

    importante en un mundo globalizado, que debe considerar enfoques estratgicos que generen

    ventajas competitivas. El objetivo de esta monografa es saber cmo beneficia la toma de

    decisiones en las empresas basndose en Cadenas de Markov.

    ANALISIS DE MARKOV

    Cul es el fundamento matemtico de ese mtodo?

    El anlisis de Markov es un procedimiento que se utilizar para describir el comportamiento de un

    sistema en una situacin donde confluyen varias variables, prediciendo los movimientos del

    sistema entre diferentes posibles estados en un tiempo determinado. El anlisis Markoviano o

    proceso de Markov est formado por un conjunto de objetos y un conjunto de estados. Si el

    nmero de estados es contable tal proceso de Markov se denomina Cadena de Markov.

    IMPORTANCIA DEL ANALISIS DE MARKOV

    El anlisis de Markov se puede entender como una herramienta de suma importancia para

    nosotros como administradores, as como para nuestro futuro muy cercano como dirigentes de

    una empresa y por supuesto para el xito de cualquier organizacin.

    Todo esto podemos afirmarlo debido a que, el mencionado anlisis nos proporciona informacin

    de significativa importancia ya que, en determinado momento, nos avisa -si se puede decir as-

    sobre que parte del mercado, en que nuestra organizacin o empresa est presente, puede

    llegar a perder en caso de no adoptar medidas que le permitan seguirse desarrollando y

  • captando a mas clientes, es decir, en caso de que la empresa llegara a conformarse con la

    relativa estabilidad alcanzada y no se preocupara por seguir avanzando.

    El no estar al tanto de estos datos nos impedira la buena toma de decisiones y por lo tanto un

    manejo de la informacin y la empresa en general deficiente, lo que equivaldra a una posible

    prdida del gusto del consumidor e incluso una prdida del mercado en el que nos encontramos,

    ocasionndonos una derrota total como organizacin.

    Por otro lado, tambin nos servira en dado caso de que la empresa decida tomar medidas para

    la mejora de su participacin en el mercado, esto, para averiguar o tener datos comprobables

    acerca de qu pasara si se tomaran esas medidas, o si se obtendran los resultados deseados.

    Podemos decir, por lo tanto, que es muy importante para nosotros como administradores adquirir

    el conocimiento que nos proporciona el anlisis de Markov, para el buen manejo de una

    organizacin, eso implica aprovecharlo adecuadamente para la toma de decisiones.

    CADENAS DE MARKOV

    DEFINICION

    Segn Mesa, Gustavo, las cadenas de Markov son descritas como una forma sencilla de

    encontrar probabilidades haciendo uso del lgebra matricial.

    En matemticas, se define como un proceso estocstico discreto que cumple con la propiedad

    de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado

    presente resume toda la informacin relevante para describir en probabilidad su estado futuro.

    Por consiguiente una cadena de Markov es una serie de eventos, en la cual la probabilidad de

    que ocurra un evento depende del evento anterior. En efecto, las cadenas de este tipo tienen

    memoria, recuerdan el ltimo evento y esto condiciona las posibilidades de los eventos futuros.

    Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de

    eventos independientes, como tirar una moneda al aire o un dado. El proceso es estocstico, el

    cual tiene un nmero finito de estados y que tiene la propiedad Markoviana.

    ORIGEN

    Una cadena de Markov, recibe el nombre del matemtico ruso Andrei Markov quien naci en

    Riazn, Rusia. Antes de los 10 aos su padre, un funcionario estatal, fue trasladado a San

    Petersburgo donde Andri entr a estudiar en un instituto de la ciudad. Desde el principio mostr

    cierto talento para las matemticas y cuando se gradu en 1874 ya conoca a varios

    matemticos de la Universidad de San Petersburgo, donde ingres tras su graduacin. El

    nombre de cadenas de Markov se defini por primera vez en un artculo de 1906 que trataba la

    ley de los grandes nmeros y posteriormente demostr muchos resultados estndar sobre estas.

    Su inters en ests sucesiones se origin en las necesidades de la teora de la probabilidad;

    Markov nunca trat sus aplicaciones a las ciencias. Los nicos ejemplos reales que utiliz eran

    de textos literarios, donde los dos estados posibles eran vocales y consonantes. Para ilustrar sus

    resultados, hizo un estudio estadstico de la alternancia de las vocales y las consonantes en el

  • libro de Pushkin Eugene Onegin. Andrei Markov dio clase en la universidad de San Petersburgo

    de 1880 a 1905, y se retir para dar paso a matemticos ms jvenes.

    CARACTERISTICAS

    * Un nmero finito de estados.

    * La propiedad Markoviana que se expresa como sigue:

    P{Xt+1= j / X0 = k0, X1 = k1, . . . , Xt-1 = kt-1, Xt = i} = P{Xt+1 = j / Xt = i}

    Para t = 0, 1, .... nmero de transiciones o pasos y toda sucesin i, j, k0,

    k1, . . ., kt-1, que son valores de estas variables no negativas o estados.

    * Probabilidades de transicin estacionarias

    * Probabilidad de Estado Inicial

    CLASIFICACION DE LOS ESTADOS DE UNA CADENA DE MARKOV

    (Para los ejemplos considerar de arriba o abajo en un solo sentido)

    Estado Alcanzable: un estado j es alcanzable desde el estado i si hay una trayectoria que

    conduzca de i a j. Por ejemplo de 1 puedo llegar a 3.

    Estados que se Comunican: se dice que dos estados i y j se comunican si j es alcanzable

    desde i, e i es alcanzable desde j. Por ejemplo aislando todos los dems consideramos solo

    1 y 2, se puede llegar de 1 a 2 y de 2 a 1.

    Estado Cerrado: un conjunto de estados S en una cadena de Markov es un conjunto cerrado

    si ningn estado fuera S es alcanzable desde algn estado en S

    Estado Absorbente: un estado i es absorbente que cuando j llega all no puede salir de l.

    Por ejemplo de 3 a 4, una vez que se llega a 4 no se puede salir de el

    Estado Transitorio: un estado i es un estado transitorio si existe un estado j que es

    alcanzable desde i, pero el estado i no es alcanzable desde el estado j. Por ejemplo tanto 1 2

    y 3 son transitorios.

    Estado Recurrente: siempre que parta del estado i ser un estado recurrente si se pueda

    volver al mismo estado i. Por ejemplo partiendo de 2 se pasa a 3 y se regresa a dos,

    consideramos aislados tanto a 2 y a 3.

    Estado Peridico: un estado i es peridico con periodo k > 1 si k es el nmero ms pequeo

    tal que las trayectorias que conducen del estado i de regreso al estado i tienen una longitud

  • que es mltiplo de k. Si un estado recurrente no es peridico, se conoce como a peridico.

    Por ejemplo, partiendo de 2 se llega a de nuevo a dos en un numero de periodos mnimo del

    orden de 2.

    Cadena Ergdica: si los estados en una cadena son recurrentes, aperidicos y se comunican

    entre s, se dice que la cadena es ergdica.

    TIPOS DE CADENAS DE MARKOV

    Existen varios tipos de cadenas segn el nmero de estados esperados, se pueden mencionar

    las siguientes:

    * Cadenas Irreducibles

    Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes

    condiciones (equivalentes entre s):

    1. Desde cualquier estado de E se puede acceder a cualquier otro. 2. Todos los estados se comunican entre s.

    3. C(x)=E para algn xE. 4. C(x)=E para todo xE. 5. El nico conjunto cerrado es el total

    * Cadenas positivo-recurrentes

    Una cadena de Markov se dice positivo-recurrente si todos sus estados son

    positivo-recurrentes (recurrente en un estado con cadena finita). Si la cadena es

    adems irreducible es posible demostrar que existe un nico vector de probabilidad

    invariante y est dado por:

    * Cadenas regulares

    Una cadena de Markov se dice regular (tambin primitiva o ergdica) si existe

    alguna potencia positiva de la matriz de transicin cuyas entradas sean todas

    estrictamente mayores que cero.

    Cuando el espacio de estados E es finito, si P denota la matriz de transicin de la

    cadena se tiene que:

    donde W es una matriz con todos sus renglones iguales a un mismo vector de

    probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena.

    En el caso de cadenas regulares, ste vector invariante es nico.

  • * Cadenas absorventes

    Una cadena de Markov con espacio de estados finito se dice absorbente si se

    cumplen las dos condiciones siguientes:

    1. La cadena tiene al menos un estado absorbente. 2. De cualquier estado no absorbente se accede a algn estado absorbente.

    Si denotamos como A al conjunto de todos los estados absorbentes y a su

    complemento como D, tenemos los siguientes resultados:

    Su matriz de transicin siempre se puede llevar a una de la forma

    donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz

    identidad, 0 es la matriz nula y R alguna submatriz.

    , esto es, no importa en donde se encuentre la cadena,

    eventualmente terminar en un estado absorbente.

    * Cadenas de Markov en tiempo continuo

    Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en

    el conjunto de nmeros naturales, se consideran las variables aleatorias Xt con

    t que vara en un intervalo continuo del conjunto de nmeros reales,

    tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo

    continuo la propiedad de Mrkov se expresa de la siguiente manera:

    tal que

    Para una cadena de Markov continua con un nmero finitod de estados puede definirse

    una matriz estocstica dada por:

    La cadena se denomina homognea si . Para una cadena de

    Markov en tiempo continuo homognea y con un nmero finito de estados puede

    definirse el llamado generador infinitesimal como:

    Y puede demostrarse que la matriz estocstica viene dada por:

  • CADENAS DE MARKOV EN LA TOMA DE DESICIONES

    MARKOV Y SU FUNCION EMPRESARIAL

    Las cadenas de Markov son una herramienta que nos sirve para analizar el comportamiento de

    determinado tipos de procesos estocsticos, para las empresas es un instrumento adecuado

    para comprobar la evolucin de ciertos aspectos empresariales sujetos a variaciones constantes,

    esto beneficiara en esfuerzos econmicos y de personal, entre otros.

    Controlar ciertos factores de la gestin de un negocio es realizar aproximaciones o previsiones

    en base a la utilizacin de cadenas de Markov. No es un mtodo totalmente exacto pero si til

    para previsiones a largo o muy largo plazo. A diferencia del mtodo clsico de utilizar el ao

    inmediatamente anterior como gua, la cadena de Markov utiliza todos los estados anteriores

    para determinar una evolucin ms realista de lo que cabe esperar de los prximos ejercicios.

    Las empresas utilizan este tipo de cadenas por la capacidad de mostrar datos futuros con criterio

    y en base a la historia de la propia empresa. Por ejemplo, en base a ratios de rotacin de

    personal, se puede estipular de forma aproximada las necesidades a largo plazo de medios,

    entrevistas, formacin interna y bajas que se producirn en el futuro segn lo acontecido en los

    ltimos 5 aos (por ejemplo). La previsin ayuda a la planificacin y al ser un mtodo matemtico

    con memoria a largo plazo es un aliado perfecto para un empresario con visin estratgica.

    El problema de estas cadenas radica en la dificultad de su clculo en casos donde el nmero de

    estados es muy grande y en la bsqueda de factores que respondan a las propiedades

    markovianas. Adems, requiere de personal calificado para crear un sistema eficiente para esos

    casos.

    TOMA DE DESICIONES A TRAVES DE MARKOV

    Actualmente la sociedad en que vivimos nos clasifica de acuerdo a nuestro comportamiento y

    forma de actuar en la vida cotidiana. Estas condiciones tienen un efecto grande en la vida

    econmica de las personas en general, esto hace que el mercado y los empresarios tomen

    decisiones derivado de nuestras inclinaciones, por consiguiente estas herramientas son tiles en

    el apoyo de anlisis y hacen que las decisiones estn basadas en estudios de comportamientos

    anteriores.

    Las Cadenas de Markov nos explican cmo y cuando las personas cambian sus gustos en

    cuanto a productos se refiere. Se puede determinar el cambio en marcas de productos

    dependiendo del comportamiento en la compra de estos productos en el periodo de tiempo

    anterior. De esta manera los expertos en mercadeo pueden predecir cul ser la marca de

    mayor venta en los periodos de tiempos subsiguientes.

    Un ejemplo a utilizarse para comprobar lo dicho anteriormente se utiliza en el servicio de finanza

    sobre la Data Crdito. La Data-Crdito es un sistema que evala las acciones de las personas

  • en cuanto a pagos de deudas se refiere. La clasificacin que se le da a las personas en base a

    su crdito es una excelente, buena o deficiente, todo depende del comportamiento financiero de

    la persona. Si mantiene sus deudas sin atrasos, su crdito es excelente, y si la persona tiene un

    largo historial de atrasos en sus deudas entonces su crdito es deficiente. Se puede pensar que

    si un cliente en cierto mes es clasificado como deficiente, lo ms seguro es que su crdito sea

    negado ya que se estima que para el mes siguiente lo mas probable es que su comportamiento

    sea el mismo, lo que deja por entendido que la probabilidad de estar en alguno de estos estados

    (excelente, bueno, deficiente), un mes cualquiera depende de la clasificacin del mes anterior, y

    que es razonable en el anlisis del crdito concluir que un manejo deficiente en cierto mes,

    asegura un mal manejo en el mes siguiente. Se puede observar que en en este ejemplo se

    busca la probabilidad de un evento basndose en los eventos anteriores.

    Haciendo uso de las cadenas de Markov se podr tomar grandes decisiones en las empresas,

    basndose en formas de actuar y comportamientos, es decir si se conoce la historia del sistema

    hasta su instante actual, su estado presente resume toda la informacin relevante para describir

    en probabilidad su estado futuro.

    AREAS DONDE SE PUEDE APLICAR LA TEORIA DE MARKOV

    FISICA

    Las cadenas de Markov son usadas en muchos problemas de la termodinmica y la fsica

    estadstica. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo

    de difusin de Laplace.

    METEOROLOGIA

    Si consideramos el clima de una regin a travs de distintos das, es claro que el estado actual

    solo depende del ltimo estado y no de toda la historia en s, de modo que se pueden usar

    cadenas de Markov para formular modelos climatolgicos bsicos.

    MODELOS EPIDEMIOLOGICOS

    Una importante aplicacin de las cadenas de Markov se encuentra en el proceso Galton-Watson.

    ste es un proceso de ramificacin que se puede usar, entre otras cosas, para modelar el

    desarrollo de una epidemia.

    INTERNET

    El pagerank de una pgina web que define a travs de una cadena de Markov, donde la posicin

    que tendr una pgina en el buscador ser determinada por su peso en la distribucin

    estacionaria de la cadena.

    SIMULACION

    Las cadenas de Markov son utilizadas para proveer una solucin analtica a ciertos problemas de

    simulacin tales como el Modelo M/M/1.

  • JUEGOS DE AZAR

    Son muchos los juegos de azar que se pueden modelar a travs de una cadena de Markov. El

    modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta

    en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de

    Markov en este rubro.

    ECONOMIA Y FINANZAS

    Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de opciones para

    determinar cundo existe oportunidad de arbitraje, as como en el modelo de colapsos de una

    bolsa de valores o para determinar la volatilidad de precios. En los negocios, las cadenas de

    Mrkov se han utilizado para analizar los patrones de compra de los deudores morosos, para

    planear las necesidades de personal y para analizar el reemplazo de equipo.

    MUSICA

    Diversos algoritmos de composicin musical usan cadenas de Markov, por ejemplo el software

    Csound o Max

    CONCLUSIONES

    * Las Cadenas de Markov sirven como apoyo en el anlisis y hacen que la toma de decisiones

    se basen en eventos ocurridos con anterioridad.

    * Los estudios basados en las Cadenas de Markov ayudan grandemente al movimiento de la

    sociedad ante los avances histricos y culturales, ya que si notamos como la poblacin se va

    comportando con el pasar del tiempo podemos mejorar la calidad de vida de las poblaciones en

    general y hacer que las clases vayan mejorando por el bien de la sociedad.

    * Las Cadenas de Markov se pueden considerar como una de las grandes aportaciones de las

    matemticas, que han facilitado las predicciones de lo que puede ocurrir.