Modelos y Simulación

133
Resumen de Modelos y Simulaci´on Illbele Maximiliano illbelemaxi@gmail.com 8 de julio de 2014 ´ Indice 1. Repaso de Probabilidad 6 1.1. Espacio Muestral, Eventos ...................... 6 1.2. Axiomas de Probabilidad ...................... 6 1.3. Probabilidad condicional e independencia ............. 6 1.4. Teorema de Bayes .......................... 7 1.5. Variables aleatorias .......................... 8 1.5.1. Clasificaci´ on de las variables aleatorias ........... 8 1.5.2. Propiedades de una variable aleatoria discreta ....... 8 1.6. Propiedades de una variable aleatoria continua X ......... 9 1.7. Distribuci´ on conjunta ........................ 10 1.7.1. Distribuciones Marginales .................. 10 1.7.2. Distribuci´ on Condicional ................... 10 1.7.3. Independencia y Distribuci´ on Conjunta .......... 11 1.8. Valor esperado y Varianza ...................... 12 1.8.1. Valor esperado de una variable aleatoria discreta ..... 12 1.8.2. Varianza de una variable aleatoria discreta ........ 12 1.8.3. Propiedades de la varianza y la esperanza de una V.A. discreta ............................ 12 1.8.4. Esperanza y varianza de una variable aleatoria continua . 12 1.8.5. Covarianza .......................... 13 1.8.6. Propiedades de la covarianza ................ 13 1.9. Desigualdad de Markov ....................... 14 1.10. Desigualdad de Chebyshev ...................... 14 1.11. Leyes de los grandes n´ umeros .................... 14 2. Variables Aleatorias 15 2.1. Variables Aleatorias Discretas .................... 15 2.1.1. Bernoulli(p) .......................... 15 2.1.2. Uniforme ........................... 15 2.1.3. Distribuci´ on Binomial .................... 15 2.1.4. Poisson ............................ 18 2.1.5. Hipergeom´ etrica ....................... 19 1

description

Repaso de estadísticos.Generación de Variables Aleatorias, discretas y continuas.Proceso de Poisson Homogéneo y no Homogéneo.Monte Carlo

Transcript of Modelos y Simulación

  • Resumen de Modelos y Simulacion

    Illbele Maximiliano [email protected]

    8 de julio de 2014

    Indice

    1. Repaso de Probabilidad 61.1. Espacio Muestral, Eventos . . . . . . . . . . . . . . . . . . . . . . 61.2. Axiomas de Probabilidad . . . . . . . . . . . . . . . . . . . . . . 61.3. Probabilidad condicional e independencia . . . . . . . . . . . . . 61.4. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . 71.5. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    1.5.1. Clasificacion de las variables aleatorias . . . . . . . . . . . 81.5.2. Propiedades de una variable aleatoria discreta . . . . . . . 8

    1.6. Propiedades de una variable aleatoria continua X . . . . . . . . . 91.7. Distribucion conjunta . . . . . . . . . . . . . . . . . . . . . . . . 10

    1.7.1. Distribuciones Marginales . . . . . . . . . . . . . . . . . . 101.7.2. Distribucion Condicional . . . . . . . . . . . . . . . . . . . 101.7.3. Independencia y Distribucion Conjunta . . . . . . . . . . 11

    1.8. Valor esperado y Varianza . . . . . . . . . . . . . . . . . . . . . . 121.8.1. Valor esperado de una variable aleatoria discreta . . . . . 121.8.2. Varianza de una variable aleatoria discreta . . . . . . . . 121.8.3. Propiedades de la varianza y la esperanza de una V.A.

    discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.8.4. Esperanza y varianza de una variable aleatoria continua . 121.8.5. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . 131.8.6. Propiedades de la covarianza . . . . . . . . . . . . . . . . 13

    1.9. Desigualdad de Markov . . . . . . . . . . . . . . . . . . . . . . . 141.10. Desigualdad de Chebyshev . . . . . . . . . . . . . . . . . . . . . . 141.11. Leyes de los grandes numeros . . . . . . . . . . . . . . . . . . . . 14

    2. Variables Aleatorias 152.1. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . 15

    2.1.1. Bernoulli(p) . . . . . . . . . . . . . . . . . . . . . . . . . . 152.1.2. Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.1.3. Distribucion Binomial . . . . . . . . . . . . . . . . . . . . 152.1.4. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.1.5. Hipergeometrica . . . . . . . . . . . . . . . . . . . . . . . 19

    1

  • 2.1.6. Distribucion binomial negativa . . . . . . . . . . . . . . . 202.1.7. Distribucion Geometrica . . . . . . . . . . . . . . . . . . . 20

    2.2. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . . 222.2.1. Distribucion uniforme . . . . . . . . . . . . . . . . . . . . 222.2.2. Distribucion Normal . . . . . . . . . . . . . . . . . . . . . 232.2.3. Distribucion exponencial . . . . . . . . . . . . . . . . . . . 242.2.4. Distribucion de Mnimo de Exponenciales . . . . . . . . . 25

    3. Teorema Central del lmite 25

    4. Esperanza condicional y Varianza Condicional 27

    5. Procesos de Poisson 295.1. Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    5.1.1. Proceso de Poisson, No Homogeneo . . . . . . . . . . . . . 335.1.2. Valor medio del P.P. no Homogeneo . . . . . . . . . . . . 34

    5.2. Poisson Homogeneo y Poisson no Homogeneo . . . . . . . . . . . 34

    6. Generadores de Numeros Aleatorios 356.1. Inconvenientes de metodos fsicos . . . . . . . . . . . . . . . . . . 356.2. Propiedades deseables de un generador . . . . . . . . . . . . . . . 366.3. Principios generales de un buen generador . . . . . . . . . . . . . 366.4. Generador congruencial lineal . . . . . . . . . . . . . . . . . . . . 37

    6.4.1. Eleccion de a, c y M . . . . . . . . . . . . . . . . . . . . . 376.4.2. Generadores Mixtos (c 6= 0) . . . . . . . . . . . . . . . . . 376.4.3. Generadores multiplicativos . . . . . . . . . . . . . . . . . 386.4.4. Modulo potencia de 2 . . . . . . . . . . . . . . . . . . . . 386.4.5. Generadores Portables . . . . . . . . . . . . . . . . . . . . 39

    6.5. Shuing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416.5.1. El generador ran1 . . . . . . . . . . . . . . . . . . . . . . 41

    6.6. Combinacion de generadores . . . . . . . . . . . . . . . . . . . . . 416.6.1. Combinacion de congruenciales . . . . . . . . . . . . . . . 426.6.2. El generador ran2 . . . . . . . . . . . . . . . . . . . . . . 426.6.3. El generador ran3 . . . . . . . . . . . . . . . . . . . . . . 42

    6.7. Marsaglia - Zaman . . . . . . . . . . . . . . . . . . . . . . . . . . 436.8. El generador mzran() . . . . . . . . . . . . . . . . . . . . . . . . 446.9. El generador mzran13() . . . . . . . . . . . . . . . . . . . . . . . 44

    6.9.1. Codigo de mzran13() . . . . . . . . . . . . . . . . . . . . 45

    7. Integracion por el metodo de Monte Carlo 467.1. Integracion en (0,1) . . . . . . . . . . . . . . . . . . . . . . . . . . 467.2. Integracion en (a,b) . . . . . . . . . . . . . . . . . . . . . . . . . 497.3. Integracion en (0,) . . . . . . . . . . . . . . . . . . . . . . . . . 517.4. Integracion en (,) . . . . . . . . . . . . . . . . . . . . . . . 527.5. Integrales Multiples . . . . . . . . . . . . . . . . . . . . . . . . . 52

    7.5.1. Calculo aproximado del valor de pi . . . . . . . . . . . . . 54

    2

  • 7.5.2. La aguja de Buffon . . . . . . . . . . . . . . . . . . . . . . 55

    8. Generacion de Variables aleatorias Discretas 578.1. Metodo de la transformada inversa . . . . . . . . . . . . . . . . . 57

    8.1.1. Orden decreciente de pi . . . . . . . . . . . . . . . . . . . 598.1.2. Generacion de una Uniforme Discreta . . . . . . . . . . . 59

    8.2. Generacion de una permutacion aleatoria . . . . . . . . . . . . . 608.2.1. Subconjuntos aleatorios . . . . . . . . . . . . . . . . . . . 618.2.2. Metodo alternativo de permutacion aleatoria . . . . . . . 61

    8.3. Calculo de promedio . . . . . . . . . . . . . . . . . . . . . . . . . 618.4. V.A. Geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 628.5. V.A. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648.6. V.A. B(n,p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 668.7. Metodo de aceptacion y Rechazo . . . . . . . . . . . . . . . . . . 67

    8.7.1. Validez del metodo de Aceptacion y Rechazo . . . . . . . 678.7.2. Casos particulares . . . . . . . . . . . . . . . . . . . . . . 69

    8.8. Metodo de composicion . . . . . . . . . . . . . . . . . . . . . . . 698.9. Metodo de la urna . . . . . . . . . . . . . . . . . . . . . . . . . . 718.10. Metodo de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

    9. Generacion de variables aleatorias continuas 739.1. Metodo de la transformada inversa . . . . . . . . . . . . . . . . . 73

    9.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 749.1.2. Maximos y mnimos de V.A. independientes . . . . . . . . 759.1.3. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 769.1.4. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 769.1.5. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 779.1.6. Exponenciales a partir de una Gamma . . . . . . . . . . . 77

    9.2. Metodo de Rechazo . . . . . . . . . . . . . . . . . . . . . . . . . . 789.2.1. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 799.2.2. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 819.2.3. Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

    9.3. Metodo polar para generar V.A.normales . . . . . . . . . . . . . 829.4. Generacion de eventos en un proceso de Poisson . . . . . . . . . . 84

    9.4.1. Homogeneo . . . . . . . . . . . . . . . . . . . . . . . . . . 849.4.2. Proceso de Poisson, No Homogeneo . . . . . . . . . . . . . 85

    9.5. Algoritmo de adelgazamiento . . . . . . . . . . . . . . . . . . . . 869.5.1. Algoritmo mejorado . . . . . . . . . . . . . . . . . . . . . 86

    10.Seleccion de distribuciones de probabilidad 8910.1. Simulacion a partir de los datos . . . . . . . . . . . . . . . . . . . 8910.2. Distribucion de probabilidad mas utilizada . . . . . . . . . . . . . 90

    10.2.1. Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 9010.2.2. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 9110.2.3. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9110.2.4. Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

    3

  • 10.2.5. Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9110.2.6. Distribucion lognormal . . . . . . . . . . . . . . . . . . . . 9210.2.7. Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . 9210.2.8. Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . 9210.2.9. Geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . 9210.2.10.Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . 9210.2.11.Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

    10.3. Distribucion Emprica . . . . . . . . . . . . . . . . . . . . . . . . 9210.4. Tecnicas de prueba de independencia . . . . . . . . . . . . . . . . 9310.5. Inferencia estadstica de un modelo . . . . . . . . . . . . . . . . . 93

    11.Analisis estadstico de datos simulados 9411.1. Estimadores puntuales . . . . . . . . . . . . . . . . . . . . . . . . 94

    11.1.1. Estimacion de parametros . . . . . . . . . . . . . . . . . . 9411.1.2. Metodo de maxima verosimilitud . . . . . . . . . . . . . . 95

    11.2. Error cuadratico medio . . . . . . . . . . . . . . . . . . . . . . . . 9811.2.1. El ECM de la medio muestral, con respecto a la media . . 98

    11.3. Varianza muestral . . . . . . . . . . . . . . . . . . . . . . . . . . 9911.3.1. Calculo recursivo de x(n) y S2(n) . . . . . . . . . . . . . 10011.3.2. Estimacion de una proporcion . . . . . . . . . . . . . . . . 10011.3.3. Metodo de los momentos . . . . . . . . . . . . . . . . . . 101

    11.4. Estimadores por intervalos . . . . . . . . . . . . . . . . . . . . . . 10111.4.1. Estimador por intervalo de la media poblacional . . . . . 10111.4.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

    11.5. Distribuciones derivadas de la normal . . . . . . . . . . . . . . . 10211.5.1. 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10211.5.2. tk de Student . . . . . . . . . . . . . . . . . . . . . . . . . 10211.5.3. Intervalos de confianza para las proporciones . . . . . . . 102

    11.6. Longitud del intervalos de confianza . . . . . . . . . . . . . . . . 10311.7. Cuando parar una simulacion para estimar la media . . . . . . . 103

    12.Bootstrap 10412.1. Distribucion emprica de un grupo de datos fijos . . . . . . . . . 10412.2. Tecnica Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . 10612.3. Bootstrap y Montecarlo . . . . . . . . . . . . . . . . . . . . . . . 108

    12.3.1. Aproximacion Bootstrap para ECM(S2, 2) = V ar(S2) . 10812.4. Aproximacion bootstrap por ECM(x(n), ) . . . . . . . . . . . . 109

    13.Bondad de Ajuste 11313.1. Test de Chi cuadrado . . . . . . . . . . . . . . . . . . . . . . . . 11313.2. Implementacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

    13.2.1. Simulacion del p-valor . . . . . . . . . . . . . . . . . . . . 11613.2.2. Implementacion en el caso discreto . . . . . . . . . . . . . 11713.2.3. Implementacion para el caso continuo . . . . . . . . . . . 117

    13.3. Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . 11813.3.1. Estimacion del p valor . . . . . . . . . . . . . . . . . . . 120

    4

  • 13.3.2. Valor p con parametros estimados . . . . . . . . . . . . . 12013.3.3. Kolmogorov-Smirnov si hay parametros no especificados . 121

    14.Test de suma de rangos 12314.1. El problema de las dos muestras . . . . . . . . . . . . . . . . . . 12314.2. Problema de multiples muestras . . . . . . . . . . . . . . . . . . . 128

    15.Validacion de hipotesis de un proceso de Poisson no homogeneo12915.1. Proceso de Poisson no homogeneo . . . . . . . . . . . . . . . . . 129

    15.1.1. La funcion de intensidad . . . . . . . . . . . . . . . . . . . 13215.2. Proceso de Poisson homogeneo . . . . . . . . . . . . . . . . . . . 13215.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

    5

  • 1. Repaso de Probabilidad

    1.1. Espacio Muestral, Eventos

    El espacio muestral S es el conjunto de todos los resultados posibles.Ejemplo: en una carrera de 3 caballos, se considera el orden de llegada a la

    meta:S =

    {(1, 2, 3), (1, 3, 2), (2, 1, 3), (2, 3, 1), (3, 1, 2), (3, 2, 1)

    }Un evento es algun subconjunto del espacio muestral.Sea A = resultados en los que el caballo 1 sale ultimo

    A ={

    (2, 3, 1), (3, 2, 1)}

    1.2. Axiomas de Probabilidad

    La funcion de probabilidad

    Es una funcion P: a [0, 1] que satisface las siguientes condiciones:1. 0 P (A) 1 A a2. P(S) = 1

    3. {Ai }i=1 : Ai a y sean eventos disjuntos, id est: (Ai Aj = i 6= j)

    Entonces P

    ( i=1

    Ai

    )=i=1

    P (Ai).

    P (Ac) = 1 P (A)A B P (A) P (B)P (A B) = P (A) + P (B) P (A B)

    Ejemplo: supongamos que cualquier resultado de la carrera es igualmenteposible. Entonces:

    1 = P (1, 2, 3) + P (1, 3, 2) + P (2, 1, 3) + P (2, 3, 1) + P (3, 1, 2) + P (3, 2, 1)

    = 6 P (1, 2, 3)

    Por lo cual todos los puntos tienen la probabilidad: 1/6.

    1.3. Probabilidad condicional e independencia

    PB(A)Def= P (A|B) = P (AB)P (B) A a

    6

  • Definicion: A y B se dicen independientes si P (A|B) = P (A).En tal caso: P (A B) = P (A) P (B)Ejemplo: supongamos que un urna tiene 4 bolas rojas numeradas del 1 al 4

    y 3 bolas negras numeradas del 1 al 3. Si elegimos una bola al azar y es roja. Cual es la probabilidad de que tenga el numero 1?

    P (1|R) = P (1 R)P (R)

    =1747

    =1

    4

    Supongamos que una urna tiene 3 bolas rojas indistinguibles etre si y unaazul. Si elegimos dos bolas al azar en forma consecutiva sin reponerlas en laurna. Cual es la probabilidad de que ambas sean rojas?

    P (R1 R2) = P (R2|R1) P (R1) = 23 3

    4=

    1

    2

    1.4. Teorema de Bayes

    Sean A1, . . . , An eventos disjuntos en a : S =ni=1

    Ai y sea B a entonces:

    P (Ai|B) = P (Ai B)P (B)

    =P (Ai).P (B|Ai)nj=1

    P (Aj).P (B|Aj)i, j : 1 i, j n

    Ejemplo: un director de personal dispone de dos listas de solicitantes a unempleo. La lista 1 incluye 3 hombres y 4 mujeres, mientras que la lista 2 incluyelos nombres de 7 hombres y 3 mujeres.

    Se selecciona al azar un nombre de la lista 1 y se pasa a la lista 2, y de lalista 2 (ya aumentada) se selecciona al azar otro nombre. Si el nombre elegidofinalmente es el de un hombre Cual es la probabilidad de que el primer nombreelegido haya sido mujer?

    Sea H2: sacar un hombre en la segunda (Aumentada)

    Sea M1: sacar una mujer en la primera extraccion de la lista 1.

    P (M1|H2) = P (M1 H2)P (H2)

    =P (H2|M1)P (M1)

    P (H2 M1) + P (H2 H1)=

    P (H2|M1)P (M1)P (H2|M1) P (M1) + P (H2|H1) P (H1)

    =711 47

    711 47 + 811 37

    7

  • 1.5. Variables aleatorias

    Definicion: dado (S, a, p) un modelo probabilstico llamaremos variablealeatoria (V.A.) a cualquier funcion:

    X : S R : [X x] = {w S : X(w) x} a x R

    1.5.1. Clasificacion de las variables aleatorias

    Diremos que X es una variable aleatoria discreta si toma un conjunto finitoo infinito numerable de valores posibles con probabilidad positiva.

    Diremos que X es una variable aleatoria Bernoulli si solo toma dos valores:1 o 0.

    Diremos que X es una variable aleatoria continua si sus valores posiblesconsisten en un todo intervalo en la recta numerica.

    Llamaremos funcion de distribucion acumulada de X a la funcion

    F : R [0, 1] dada por F (x) = P (X x) x R

    1.5.2. Propiedades de una variable aleatoria discretaX

    P (x) = 1

    La funcion es monotona creciente, id est si x1 < x2 F (x1) < F (x2)La grafica de F es escalonada y tiene discontinuidades en los distintosvalores que toma la variable aleatoria.

    lmxF (x) = 0

    lmxF (x) = 1

    P (x) = P (X = x) = F (x) lmtx

    F (t) x R

    Definicion: diremos que X es una variable aleatoria continua si:

    P (X = x) = 0 x R

    Ejemplo: tirar un dado hasta que salga un 6, dar la funcion de frecuenciadiscreta y la acumulada.

    P (X = k) =(

    56

    )k1(

    16

    )

    8

  • K=1

    P (X = k)?= 1

    K=1

    P (X = k) =

    k=1

    (56

    )k1(1

    6

    )=

    1

    6k=0

    (56

    )k=

    1

    6 1

    1 56= 1

    Fx(x)?=(

    56

    )[x]Fx(x) = P [X x] = 1 P [X > x]

    = 1k=1

    P (X = [x] + k)

    =

    k=1

    (56

    )[x]+k1 1

    6

    =1

    6(5

    6

    )[x]1 k=1

    (56

    )[k]=(5

    6

    )[x]1.6. Propiedades de una variable aleatoria continua X

    P (a X b) = F (b) F (a)P (a X b) ?= P (a < X b) ?= P (a X < b)P (X > c) = 1 P (X c) = 1 F (c) ?= P (x c)

    Definicion: se llama funcion de densidad de probabilidad a toda funcion

    f : R R0 :

    f(t) dt = 1

    Propiedad: sea X una variable aleatoria continua entonces:

    f(t) =

    {F (t) en donde exista

    0 en caso contrario

    9

  • 1.7. Distribucion conjunta

    Sea X e Y variables aleatorias.

    Funcion de distribucion acumulada conjunta de X e Y

    F (a, b) = P (X a, Y b)

    Si X e Y son V.A. discretas

    p(a, b) = P (X = a, Y = b)

    X e Y continuas son conjuntamente continuas con densidad si existeuna funcion no negativa f tal que para todo C,D

    P (X C, Y D) =

    xC

    yD

    f(x, y) dxdy

    1.7.1. Distribuciones Marginales

    Si F es funcion de distribucion conjunta de X e Y .

    Fx(a) = P (x a) = F (a,) es la distribucion marginal de xSi X es discreta:

    Px(a) =b

    p(a, b)

    Si (x, y) admite densidad:

    Fx(a) =

    a

    f(x, y) dydx =

    a

    fx(x)dx

    Fy(b) = P (Y b) = F (, b) distribucion marginal de YLa distribucion conjunta permite obtener las distrib. marginales de X e Y .

    La recproca no es cierta.

    1.7.2. Distribucion Condicional

    Sean X e Y discretas:

    P (x, y) = Px|y(x|y) Py(y)

    Px|y(x|y) = P (X = x|Y = y)

    =P (X = x Y = y)

    P (Y = y)

    =p(x, y)

    py(y)

    10

  • P (X x|Y = y) = aix

    Px|y(ai|y)

    Sean X e Y conjuntamente continuas con densidad

    fx|y(x|y) = f(x, y)fy(y)

    =fy|x(y|x)fx(x)

    fy(y)

    P (X x|Y = y) =x

    fx|y(s|y)ds

    Ejemplo

    Tiro un dado una vez y luego una mode tantas veces como el numero quesalio en el dado. Sea X el numero que sale en el dado. Y el numero de caras dela tirada de la moneda.

    Sea X el numero que sale en el dado.

    Sea Y el numero de caras de la tirada de la moneda.

    P [X = 6, Y = 3] = Py|x(3|6) Px(6) =(

    6

    3

    )(12

    )3(12

    )3 16

    P [X = n, Y = k] = Py|x(k|n) Px(n) =(n

    k

    )(12

    )k(12

    )nk 16

    1.7.3. Independencia y Distribucion Conjunta

    Sean X e Y independientes si:

    P (X C, Y D) = P (X C) P (Y D)

    {X C}, {Y D} son eventos independientes.X e Y discretas:

    P (X = a, Y = b) = P (X = a)P (Y = B) P (a, b) = Px(a) Py(b)

    X e Y conjuntamente continuas con densidad f(x, y) = fx(x)fy(y)Es decir si X e Y son independientes, la distribucion conunta se obtiene a

    partir de las distribuciones de X e Y .

    11

  • 1.8. Valor esperado y Varianza

    1.8.1. Valor esperado de una variable aleatoria discreta

    Definicion: sea X una variable aleatoria discreta con funcion de distribucionde probabilidad P (x), si

    iI|xi|.P (xi)

  • = E(x) que denotaremos como V (x) = 2 y la desviacion estandar de Xcomo

    V (x).

    Proposicion: sea X una variable aleatoria con funcion de densidad f

    V (x) = E(x2) E(x)2

    E(a.x+ b) = a.E(x) + b a, b RV (a.x+ b) = a2.V (x) a, b R

    1.8.5. Covarianza

    Sean X e Y variables aleatorias sobre S entonces llamamos covarianza entreX e Y, Cov(X,Y ) al valor:

    Cov(x, y) = E ((x x).(y y)) : x = E(x) y y = E(y)

    Proposicion

    Cov(x, y) = E(x.y) x.y : x = E(x) y y = E(y)Demostracion con X e Y variables aleatorias discretas

    Cov(x, y) =X

    Y

    (x x).(y y) h(x,y)

    .p(x, y)

    =X

    Y

    x.y.P (x, y) =E(x.y)

    yX

    xY

    P (x, y) Px(x)

    E(x)=x

    xY

    yx

    P (x, y) Py(y)

    E(y)=y

    +x.yX

    Y

    P (x, y) =1

    = E(x.y) yx xy + xy= E(x.y) xy

    1.8.6. Propiedades de la covarianza

    1. Cov(x, y) = E(x.y) x.y2. Cov(x, x) = V (x)

    3. Cov(a.x+ b, c.y + d) = a.c.Cov(x, y) a, b, c, d R4. V (a.x+ b.y) = a2.V (x) + b2.V (y) + 2.a.b.Cov(x, y)

    13

  • Proposicion

    Sean X e Y variables aleatorias sobre S independientes entonces:

    E(x.y) = E(x).E(y)

    Demostracion:

    E(x.y) =X

    Y

    (x.y).P (x, y)

    ind=X

    Y

    x.y.Px(x).Py(y)

    =X

    x.Px(x)Y

    y.Py(y)

    = E(x).E(y)

    1.9. Desigualdad de Markov

    Si X solo toma valores no negativos, entonces para cualquier valor a > 0 :

    P [x a] E[X]a

    1.10. Desigualdad de Chebyshev

    Si X es una variable aleatoria con media y varianza 2 entonces paracualquier valor k > 0:

    P(|x | k

    ) 1k2

    1.11. Leyes de los grandes numeros

    Si X1, X2, . . . , Xn son V.A. independientes e identicamente distribuidas conmedia

    Ley debil de los grandes numeros:

    P(X1 +X2 + . . .+Xn

    n > )

    n 0

    Ler fuerte de los grandes numeros, con probabilidad 1 se cumple que:

    lmn

    X1 + . . .+Xnn

    =

    14

  • 2. Variables Aleatorias

    2.1. Variables Aleatorias Discretas

    2.1.1. Bernoulli(p)

    Sea X una Bernoulli(p) tenemos que:

    P (0) = P (X = 0) = 1 p P (1) = P (X = 1) = p

    E(x) = 0.(1 p) + 1.p = p E(x2) = 02.(1 p) + 12.p = p

    V (x) = E(x2) E(x)2 = p p2 = p.(1 p) = p.q

    2.1.2. Uniforme

    Diremos que un experimento es Uniforme si cumple las siguientes condi-ciones:

    Tiene n valores igualmente probables.

    Rango: {1 . . . n}

    1. Funcion de masa: P [X = i] = 1n

    2. Valor esperado: E[X] = n+12

    3. Varianza: V [X] = n2112

    2.1.3. Distribucion Binomial

    Definicion: diremos que un experimento es binomial si cumple las siguientescondiciones:

    Consta de n ensayos identicos.

    Cada ensayo tiene solo dos resultados posibles E = exito o F = fracaso.

    Los ensayos son independientes uno de otro.

    La P (E) = p para cada uno de los ensayos.

    Definicion: sea X la variable que cuenta el numero de exitos en un ex-perimento binomial. Entonces diremos que X tiene distribucion binomial deparametros n y p.

    Notacion: X B(n, p)

    15

  • E(x) =

    nk=0

    k.P (k)

    =

    nk=0

    k.(nk

    ).pk.(1 p)nk (1)

    =

    nk=1

    k.(nk

    ).pk.(1 p)nk (2)

    = n.

    nk=1

    (n1k1).pk.(1 p)nk (3)

    = n.p.

    nk=1

    (n1k1).pk1.(1 p)(n1)(k1)

    = n.p.

    n1j=0

    (n1j

    ).pj .(1 p)n1j (4)

    = n.p.(p+ (1 p))n1 (5)= n.p

    (1) Definicion de P (k).(2) k = 0 = 0.(3) k.

    (nk

    )= k.n!k!(nk)! =

    n.(n1)!(k1)!((n1)(k1))! = n.

    (n1k1)

    .

    (4) Hacemos un cambio de variable llamando a: j = k + 1.

    (5) Por binomio de Newton (a+ b)m =mr=0

    (mr

    ).ar.bmr.

    16

  • Para calcular V(x) primero despejaremos la E(x2)

    E(x2) =

    nk=0

    k2.P (k)

    =

    nk=0

    k2.(nk

    ).pk.(1 p)nk (6)

    =

    nk=1

    k2.(nk

    ).pk.(1 p)nk (7)

    =

    nk=1

    k.(k 1).(nk).pk.(1 p)nk + nk=1

    k.P (k) E(x)=n.p

    (8)

    =

    nk=1

    k.(k 1).(nk).pk.(1 p)nk + n.p=

    nk=2

    k.(k 1).(nk).pk.(1 p)nk + n.p (9)=

    nk=2

    k.(k 1). n!k!(n k)! .p

    k.(1 p)nk + n.p

    = n.(n 1)nk=2

    (n 2)!(k 2)!((n 2) (k 2))! .p

    k.(1 p)nk + n.p

    = n.(n 1).p2nk=2

    (n2k2).pk2.(1 p)nk + n.p

    = n.(n 1).p2n2j=0

    (n2j

    ).pj .(1 p)n2j

    =1

    +n.p (10)

    = n.p.((n 1).p+ 1)

    (6) Definicion de P(k).(7) k = 0 = 0.(8) Reescribimos k2 = (k. ((k 1) + 1)).(9) k = 1 = 0.(10) Hago un cambio de variables llamando j = k 2.

    17

  • Finalmente puedo calcular la varianza de una binomial:

    V (x) = E(x2) E(x)2= n.p.((n 1).p+ 1 n.p)= n.p.(1 p)= n.p.q = n.P (E).P (F )

    En sntesis sea X B(n, p)P (k) =

    (nk

    ).pk.(1 p)nk k Im(x)

    E(x) = n.p

    V (x) = n.p.(1 p) = n.p.q = n.P (E).P (F )Formula recursiva: Pi+1 =

    nii+1 p(1p)Pi

    2.1.4. Poisson

    E(x) =

    k=0

    k.P (k)

    =

    k=1

    k.P (k) (11)

    =

    k=1

    k.e.k

    k!

    =

    k=1

    e.k

    (k 1)!

    =

    k=1

    e..k1

    (k 1)!

    = e..k=1

    k1

    (k 1)!

    = e..k=1

    k1

    (k 1)! e

    =

    (11) k = 0 = 0

    18

  • E(x2) =

    k=0

    k2.P (k)

    =

    k=1

    k2.P (k) (12)

    =

    nk=1

    k.(k 1).P (k) +nk=1

    k.P (k) E(x)=

    (13)

    =

    (nk=1

    k.(k 1).e.k

    k!

    )+

    = e.

    (nk=2

    k

    (k 2)!

    )+ (14)

    = e.

    (nk=2

    2.k2

    (k 2)!

    )+

    = e.2.

    (nk=2

    k2

    (k 2)!

    )

    e

    +

    = 2 +

    (12) k = 0 = 0.(13) Reescribimos k2 = (k. ((k 1) + 1)).(14) k = 1 = 0

    . Ahora termino calculando la varianza de una Poisson

    V (x) = E(x2) E(x)2= 2 + 2=

    En sntesis sea: X P ()P (k) = P (X = k) = e.

    k

    k! k Z0.E(x) = V (x) = .

    Formula recursiva: Pk+1 =k+1Pk

    2.1.5. Hipergeometrica

    P (k) = P (X = k) =

    (Mk

    ).(NMnk

    )(Nn

    ) : 0 k < m y 0 n k < N M max{0, nN +m} k mn{M,n}

    19

  • E(x) = n.MN

    V (x) = n.M

    Np

    .

    (1 M

    N

    )

    q

    .

    (N nN 1

    ) correccion

    2.1.6. Distribucion binomial negativa

    Dado un experimento que cumpla:

    Los ensayos se realizan de forma independiente.

    Cada ensayo tiene dos resultados posibles (E) o (F) y P (E) = p para cadaensayo.

    Los ensayos se continuan hasta obtener r exitos con r N fijoEntonces la variable aleatoria X que cuenta el numero de fracasos que prece-

    den al r-esimo exito se llama binomial negativa de parametros r y p.

    Notacion: X B(r, p) : Im(x) = Z0

    Definimos la funcion de probabilidad:

    P (k) = P (X = k) = pr.(1 p)k.(k+r1k )Proposicion

    Sea X B(r, p) entonces:E(x) = r. (1p)p

    V (x) = r. (1p)p2

    2.1.7. Distribucion Geometrica

    Es un caso particular de la binomial negativa con r = 1 por lo que nos queda:

    E(x) = (1p)p

    V (x) = (1p)p2

    Definimos X = numero de bateras que deben ser probadas hasta obtenerla primera que cumpla las condiciones de calidad

    Luego la funcion de distribucion de probabilidad nos queda:

    P (x) =

    {p.(1 p)x1 x N

    0 en caso contrario

    20

  • Se pide hallar su esperanza y su varianza:

    E(x) =

    i=1

    i.P (i) =

    i=1

    i.p.(1 p)i1

    = p.

    i=1

    i.(1 p)i1

    = p.d

    dp.(1).

    (( i=1

    (1 p)i + 1) 1)

    = p.d

    dp.(1).

    (( i=0

    (1 p)i) 1)

    = p.d

    dp.(1).

    (1

    1 (1 p) 1)

    = p.d

    dp.(1).

    (1

    p 1)

    = (1).p.1p2

    =1

    p

    21

  • Para calcular la varianza necesitamos saber la E(x2):

    E(x2) =

    i=0

    i2.P (i) =

    i=1

    i2.P (i)

    =

    i=2

    i.(i 1).P (i) +i=0

    i.P (i) E(x)

    =2.(1 p)

    p2+

    1

    p(15)

    =2 pp2

    (15)

    i=2

    i.(i 1).P (i) = p.(1 p).i=2

    i.(i 1)(1 p)i2

    = p.(1 p). d2

    dp2

    ( i=2

    (1 p)i)

    = p.(1 p). d2

    dp2

    (( i=0

    (1 p)i) (1 p) 1

    )

    = p.(1 p). d2

    dp2

    (1

    p 2 + p

    )= p.(1 p). d

    dp

    (1p2

    + 1

    )= p.(1 p).

    (2

    p3

    )=

    2.(1 p)p2

    V (x) = E(x2) E(x)2 = 1 pp2

    2.2. Variables Aleatorias Continuas

    2.2.1. Distribucion uniforme

    Una variable aleatoria X sera uniforme si su funcion de distribucion acumu-lada esta dada por:

    F (x) =

    0 si x axaba si x (a, b)1 si x b

    con a < b

    22

  • Proposicion

    a < b sea Y = (b a).X + a con X U(0, 1) entonces:Y U(a, b)E(Y ) =

    (a+b

    2

    )V (Y ) = (ba)

    2

    12

    2.2.2. Distribucion Normal

    f(x) =12pi

    e(x)2

    22 : x R

    E(x) =

    ((t ) + ) .f(t) dt (16)

    =

    (t ).f(t) dt+

    .f(t) dt

    =

    (t ) 12pi2

    e(t )

    2 12 dt+ .

    f(t) dt

    =12pi

    (t

    ).e(

    t )

    2 12 dt+ (17)

    = (18)

    (16) Sumo y resto

    (17) Ya que

    f(t) dt = 1

    (18) 12pi

    (t

    )e(

    t )

    2 12 dt = 0

    23

  • V (x) = 2

    V (x) = E(x )2

    =

    (x

    )2.

    22.pi.2

    .e(x )

    21/2 dx

    =

    y222.pi

    .ey2

    2 dy (19)

    =22.pi

    y2.ey2

    2 dy

    =22.pi

    y.e y22 | +

    ey2

    2 dy

    = 2

    12.pi

    ey2

    2

    (20)= 2

    (19) Tomo y = x dydx = 1(20) y.e y

    2

    2 | = lmyy

    ey2

    2

    + lmy

    y

    ey2

    2

    = 0

    2.2.3. Distribucion exponencial

    1. f(x) = ex

    2. E(x) = 1 y la V (x) =12

    3. F (x) = P [X x] =+

    f(t) dt

    Si x 0 F (x) = 0

    Si x > 0 F (x) =x

    0

    .e.t dt

    = e.t |x0= e.x + 1

    Luego F (x) =

    {1 e.x si x > 0

    0 en caso contrario

    24

  • 4. Propiedad de falta de memoria

    P (x t+ t0|x t0) = P (x t)

    P (x t+ t0|x t0) = P ((x t+ t0) (x t0))P (x t0)

    =P (x t+ t0)P (x t0)

    =1 F (t+ t0)

    1 F (t0)

    =1 (1 e(t+t0))

    1 (1 e.t0)

    =e(t+t0)

    e.t0= e.t

    = 1 (1 e.t)= P (x t)

    2.2.4. Distribucion de Mnimo de Exponenciales

    Sean X1, . . . , Xn V.A. independientes con funcion de distribucion acumuladaF1, . . . Fn y sea M = mn

    1in{X1, X2, . . . , Xn}.

    1 FM = P (M > x)= (1 F1(x)) (1 F2(x)) . . . (1 Fn(x))

    Si Xi (i) entonces:

    1 Fx(x) = e1x e2x . . . enx = e( ni=1

    i

    )x

    M (1 + . . .+ n)

    3. Teorema Central del lmite

    Sean X1, . . . , Xn variables aleatorias identicamente distribuidas, con media y varianza 2 entonces:

    lmnP

    (x1 + . . .+ xn n n

    < x)

    = (x)

    25

  • Ejemplo: supongamos que un programa suma numeros aproximando cadasumando al entero mas proximo. Si todos los errores son independientes entres y estan distribuidos uniformemente entre (0,5; 0,5) y se suman 1500 numerosA lo sumo cuantos numeros pueden sumarse juntos para que la magnitud delerror total se mantenga menor que 10 con probabilidad 0,9?

    Cada error cometido es una variable aleatoria k U [0,5; 0,5]

    E(k) =0,5+0,5

    2 = 0

    V (k) =

    (0,5(0,5)

    )212 =

    112

    Definamos Sn =nk=1

    k, entonces deseamos encontrar el n mas grande para

    el cual:0,9 = P

    (|Sn| < 10

    )Usando el T.C.L Sabemos que [S1500nE[]]

    nV ar() N(0, 1)

    P(|Sn| < 10

    )= P

    (10 nE()(nV ar()

    Sn nE()(nV ar()

    10 nE()(nV ar())

    )= P

    ( 10n12

    Z 10n12

    )= 1 2 P

    (Z 10

    n12

    ) P

    (Z 10

    n12

    )= 0,05

    10n12

    = 1,65 n = 102 12

    (1,65)2= 440,7

    Ejemplo

    Suponga que se tienen 100 lamparas de un cierto tipo, cuya duracion puedemodelarse como una variable aleatoria exponencial de parametro = 0,002.

    Si la duracion de cada lampara es independiente de la duracion de las otras,encuentre la probabilidad de que el promedio muestral:

    T =T1 + . . .+ T100

    100

    se encuentre entre 400 y 550 horas.Como n es 100 podemos suponerlo suficientemente grande y aproximar la

    distribucion del promedo por una normal.Entonces la esperanza y la varianza de Sn = T1 + . . .+ Tn son:

    E(Sn) = E(T1 + . . .+ T100) = 100E(T1) =100

    0, 002= 50000

    26

  • V ar(Sn) = V ar(T1 + . . .+ T100) = 100V ar(T1) =100

    0, 0022

    P(

    400 T1 + . . .+ T100100

    550)

    = P(

    40000 T1 + . . .+ T100 55000)

    (55000 E(Sn)

    V ar(Sn)

    )

    (40000 E(Sn)V ar(Sn)

    )=

    (55000 500005000

    )

    (40000 500005000

    )= (1) (2)= 0,8413 0,0228 = 0,8185

    4. Esperanza condicional y Varianza Condicional

    E[x|Y = y] =x

    x P{X = x|Y = y}

    =

    xx P{X = x, Y = y}

    P{Y = y}Similar si X es una V.A. Continua

    E[x|Y = y] =

    x

    x f(x, y)dxx

    f(x, y)dx

    Propiedades:

    E[E[x|y]] = E[x]

    Definicion: sean X e Y V.A. se define la varianza condicional de X dadoel valor de y como:

    V[x|y] = E[(x E[x|y])2|y]

    V[x|y] = E(x2|y) (E(x|y))2

    V ar(x) = E[V ar(x|y)] + V ar(E(x|y))V ar(E(x|y)) = E[(E(x|y))2] + (E(x|y))2

    E(V ar(x|y)) = E[x2] E[(E(x|y))2]

    27

  • Ejemplo: una rata esta encerrada en el centro de un laberinto con 3 posiblessalidas o corredores, A,B,C que llevan al interior del laberinto donde hay unacelda con comida. La rata tiende a elegir la puerta de su derecha (A) la mitad delas veces. Mientras que la otra mitad de las veces elige B o C sin distinguirlas.Ahora, si elige la puerta A tarda 2 minutos en encontrar la celda con comida, sielige la puerta B tarda 3 minutos y si elige la puerta C da vuelta por el laberintodurante 5 minutos.

    Sea T el tiempo en que tarda la rata en encontrar su comida.

    Encuentre la esperanza de T .

    Sea exito elegir la salida A o B y sea C la variable aleatoria que mide lacantidad de veces que se elige la salida C hasta que por fin se elige A o B.

    Entonces C es geometrica de parametro 34Sea T el tiempo que tarda en encontrar la salida.

    T =

    {2 + 5C si se elige C veces la puerta C y luego la A

    3 + 5C si se elige C veces la puerta C y luego la B

    Sea D la variable aleatoria que es 1 si se eligio la puerta A, 0 si se eligio lapuerta B.

    E(T ) = E(E(T |D)

    )= E(T |D = 0) P (D = 0) + E(T |D = 1) P (D = 1)=(

    2 + 5 E(C)) 2

    3+(

    3 + 5 E(C)) 1

    3= 4

    28

  • 5. Procesos de Poisson

    Procesos estocasticosUn proceso estocasctico es una sucesion de variables aleatorias observadas

    sobre el mismo espacio muestral.Ejemplo: supongamos tener una pieza de materia radioactivo, el experimento

    consiste en observar, cuantas partculas se desintegran en un intervalo de tiempo,y el tiempo que tarda en desintegrarse cada partcula. El numero de partculasque se desintegran en [0, t] es una variable aleatoria N(t) y el tiempo en quese desintegra la n-esima partcula Dn tambien es una variable aleatoria. Lacoleccion de variables forman procesos estocasticos relacionados.

    Ejemplo: consideremos llamadas telefonicas que llegan a una central telefonicay sea Dn el tiempo en que la n-esima llamada ingresa a la central y N(t) elnumero de llamadas que ingresan en un intervalo de tiempo [0, t].

    5.1. Homogeneos

    Supongamos que ocurren ciertos eventos en instantes aleatorios y sea N(t)el numero de eventos que ocurren en el intervalo de tiempo [0, t]. Estos eventosconstituyen un proceso de Poisson homogeneo con razon : > 0 si:

    1. Para cada t,N(t) es una variable aleatoria discreta que toma valoresenteros positivos.

    2. N(0) = 0 (El proceso comienza en 0).

    3. Incrementos Independientes: para cada n 1 y cada particion0 t0 < t1 < . . . < tn N(t0), N(t1) N(t0), . . . , N(tn) N(tn1)son variables aleatorias independientes. Es decir el numero de eventos queocurren en intervalos de tiempo distintos son independientes.

    4. Incrementos Estacionarios: para cada t 0, s > 0 se cumple que ladistribucion de N(t+s)N(t) es igual a la de N(s). Es decir, la distribu-cion de eventos que ocurren en un intervalo dado dependen solamente dela longitud del intervalo y no de su posicion.

    5. lmh0

    P [N(h)=1]h = si tomo un intervalo suficientemente pequeno la proba-

    bilidad de ver ese evento es .

    6. lmh0

    P [N(h)2]h = 0 si tomo un intervalo suficientemente pequeno la proba-

    bilidad de ver 2 o mas eventos es 0.

    29

  • Incrementos Independientes

    N(t1) : numero de llegadas hasta t = t1.

    N(tn)N(tn1) : numero de llegadas entre tn1 y tn.

    Quiere decir que en dos intervalos de tiempo disjuntos, las variables numerode llegadas son independientes.

    Incrementos Estacionarios

    La distribucion del numero de llegadas depende solo de la longitud delintervalo.

    N(s) N(t+ s)N(t), s < t.

    1. N(t) P ( t)Supongamos que N(t) es el numero de llegadas en el intervalo [0, t], queforma un proceso de Poisson de tasa . Entonces, la distribucion de cadaN(t) es Poisson de tasa t.Demostracion:

    Para probarlo, dividamos el intervalo en n pedazos, cada uno de largotn , continuos y disjuntos.

    30

  • Contemos cuantos de estos subintervalos contienen un evento.

    Por hipotesis de ser un proceso de Poisson:

    El numero de eventos que ocurre en cada subintervalo es inde-pendiente.

    El numero de eventos solo depende del largo del intervalo.Por lo tanto en cada subintervalo, el numero de llegadas en una V.A.Bernoulli, con p = tn .

    En numero total de llegadas en [0, t] es el numero de subintervalosque contienen una llegada.

    La independencia de los subintervalos implica que el numero total dellegadas: N(t) es una V.A. binomial de parametros

    (n, p = tn

    )Proposicion

    Como la B(n, p) converge a la Poisson cuando n entonces tenemosuna Poisson con media t.

    Prueba:

    Cuando n tiende a infinito, tenemos que:

    PN(t)(k) lmn

    (n

    k

    )(tn

    )k(1 t

    n

    )nk= lmn

    n(n 1) . . . (n k + 1)k!

    (tn

    )k(1 t

    n

    )nk= lmn

    (t)k

    k!

    (1 t

    n

    )n n(n 1) . . . (n k + 1)

    nk

    (1 t

    n

    )k=

    (t)k

    k!lmn

    (1 t

    n

    )n(1 t

    n

    )k(1 1

    n

    )(1 2

    n

    ). . .(

    1 k 1n

    )Observando que:

    lmn

    (1 t

    n

    )n= et

    31

  • y que los otros terminos a la derecha del limite, tienen limite 1, se obtieneque:

    PN(t)(k) =(t)k

    k!et

    Donde t, es la constante que supusimos que existe, es la tasa de llegadasen el intervalo [0, t].

    N(t) P (t)2. Xn el tiempo entre el registro del n-esimo evento y el anterior, es expo-

    nencial de tasa .

    Dn: tiempo en que ocurre el evento n-esimo.

    X1: tiempo transcurrido hasta el primer evento.

    Xj = Dj Dj1: tiempo transcurrido entre el (j 1)-esimo eventoy el j-esimo, para j > 1.

    {Xj} es la sucesion de tiempos entre llegadasProposicion: las variables aleatorias X1, X2, . . . son V.A. independientesigualmente distribuidas, con distribucion exponencial de parametro .

    Xi () : i = 1, 2, . . .Para probar esto veamos que:

    X1 es una variable aleatoria exponencial de parametro

    P (X1 > t) = P (N(t) = 0) = et

    P (X2 > t|X1 = S) ?=P (X2 > t|X1 = S) = P

    (0 eventos en (s, s+ t]|X1 = s

    )= P

    (0 eventos en (s, s+ t])

    = et

    X2 () y es independiente de X1

    32

  • Sea s = s1 + . . .+ sj1: tiempo hasta el evento j 1.

    P(

    0 eventos en (s, s+ t]|X1 = s1, . . . Xj1 = sj1)

    = P (0 eventos en (s, s+ t])

    (21)

    = et (22)

    (21) Por ser incrementos independientes.

    (22) Por tener incrementos estacionarios.

    Por lo cual la distribucion de cada una de las Xk es exponencial y sonindependientes.

    3. Dn (n, )El tiempo hasta el n-esimo evento es Dn =

    nj=1

    Xj , una suma de exponen-

    ciales independientes de parametro , por lo cual tiene densidad:

    fn(t) = et (t)

    n1

    (n 1)! es una Gamma de parametros (n, ).

    5.1.1. Proceso de Poisson, No Homogeneo

    N(t), t 0 es un proceso de Poisson no Homogeneo con funcion de intensidad(t), t 0 si:

    N(0) = 0

    Para cada n 1 ycada particion 0 t0 < t1 < . . . < tn. Se tieneque N(t0), N(t1) N(t0), . . . , N(tn) N(tn1) son variables aleatoriasindependientes. Es decir, los numeros de eventos que ocurren en intervalosde tiempos ajenos son independientes.

    lmh0

    P [exactamente un evento en[t,t+h]]h = lmh0

    P(

    [N(t+h)N(t)]=1)

    h = (t)

    lmh0

    P [dos o mas eventos entre t y t+h]h = lmh0

    P(

    [N(t+h)N(t)]2)

    h = 0

    33

  • 5.1.2. Valor medio del P.P. no Homogeneo

    Proposicion: para cada t 0 y s > 0 se tiene que N(t + s) N(t) es unavariable aleatoria Poisson con media:

    m(t+ s)m(t) =t+st

    (x)dx

    Corolario: Si (t) = (es constante), N(t+s)N(t) es una variable aleatoriaPoisson con media t.

    5.2. Poisson Homogeneo y Poisson no Homogeneo

    Supongamos que:

    Existe eventos del tipo A y eventos del tipo B.

    Independientemente de lo que ocurrio antes, si ocurre un evento del tipoA entoces ocurre uno del tipo B con probabilida p(t).

    N(t) = numero de eventos del tipo A en [0, t].

    M(t) = numero de eventos del tipo B en [0, t].

    Proposicion: Si N(t)t0 es un Proceso de Poisson homogeneo con razon >0 entonces M(t)t0 es un proceso de poisson no homogeneo con funcion deintensidad (t) = p(t) t > 0.

    El proceso M(t) cumple con las condiciones de comenzar en el cero, tenerincrementos independientes y probabilidad nula de observar instantaneamentemas de un evento.

    Para ver la tasa instantanea de observar un evento.

    P (1 evento del tipo B en [t,t+h]) = P (1 evento y es de tipo B)

    + P (dos o mas eventos y exactamente uno es de tipo B)

    hp(t)

    34

  • 6. Generadores de Numeros Aleatorios

    Para que se utilizan?

    Simulacion.

    Muestreo.

    Analisis numerico.

    Testeo de programas.

    Juegos de azar.

    Toma de decisiones.

    Secuencias de numeros aleatorios

    En simulacion las secuencias con distribucion uniforme en [0, 1] se utilizan:

    En forma directa.

    Para generar distribuciones discretas y continuas.

    Para generar valores de variables aleatorias dependientes.

    Antes de las computadoras, existieron diferentes metodos para generar se-cuencias de numeros aleatorios:

    Procedimientos fsicos (monedas, dados, bolilleros, . . . ).

    (1927) Tipett: tabla de 40000 dgitos aleatorios (no resultaron con dis-tribucion uniforme).

    (1939) Kendall y Babbington: dispositivo mecanico. Tabla de 100.000numeros aleatorios.

    (1955) Rand Corporation: ruido electronico. Tabla de 1 millon de numerosaleatorios.

    6.1. Inconvenientes de metodos fsicos

    1. No puede repetirse una misma secuencia.

    2. No hay velocidad computacional.

    3. Incorporar una tabla a la computadora implica gran costo de almace-namiento en relacion a la cantidad de numeros.

    Con la aparicion de las computadoras, surgen metodos de generacion desecuencias de numeros aleatorios.

    35

  • 6.2. Propiedades deseables de un generador

    Aleatorio: Distribucion uniformeUn generador de numeros aleatorios razonable debe cumplir:

    1. Repetibilidad: al repetir los parametros del generador, se repite la se-cuencia.

    2. Portabilidad: la secuencia no debe depender del lenguaje computacionalni de la computadora utilizada.

    3. Velocidad computacional: puede ser conveniente utilizar lenguajes debajo o medio nivel.

    6.3. Principios generales de un buen generador

    La secuencia generada debe ser intuitivamente aleatoria.

    Esa aleatoriedad debe ser establecida teoricamente o, al menos, debe pasarciertos tests de aleatoriedad.

    Debe conocerse algo sobre las propiedades teoricas del generador.

    Secuencia de von Neumann (1946):

    1. X0 : numero de 5 dgitos. (03001)

    2. X2i : escrito con diez dgitos. (0009006001)

    3. Xi+1 : 5 dgitos centrales. (09006)

    4. Volver a 2.

    3001, 9006, 81108, 78507, 63349, 13095, 71479, 92474, 5144021000, 41000, 81000, 61000, 21000...

    Con 4 dgitos: 3792, 3792, 3792, 3792, . . .Desventajas del Gen. de von Neuman

    1. No se conocen propiedades teoricas del generador: (semilla conveniente,numero de dgitos en cada termino).

    2. Forsythe: (con 4 dgitos) De 16 semillas, 12 degeneraban en 6100, 2100,4100, 6100,.... y 4 degeneraban en 0.

    3. Metropolis: secuencias de 20 bits degeneran en uno de 13 ciclos, con lon-gitud maxima 142.

    4. En algunos casos el primer tramo es satisfactoriamente aleatorio y luegodegenera.

    36

  • 6.4. Generador congruencial lineal

    yi = ayi1 + c mod M : i 1xi =

    yiM Secuencia en el [0, 1).

    y0 : semilla.

    a: multiplicador.

    M : modulo.

    c: incremento.

    generador mixto: c 6= 0. generador multiplicativo: c = 0.

    Ejemplo:Yi = 5Yi1 + 1 mod 16 : y0 = 0

    Propiedades:

    El menor numero k tal que yn+k = yn es el perodo de la secuencia.

    Todo generador congruencial genera secuencias de perodo finito.

    El perodo de una secuencia esta acotado por M .

    Repetibilidad y Portabilidad!

    6.4.1. Eleccion de a, c y M

    Las buenas propiedades dependen de una eleccion apropiada de a, c y M , yen algunos casos y0 .

    La eleccion de M se relaciona con: longitud de la secuencia y velocidadcomputacional.

    La eleccion de a y c, en funcion de M , se relacionan con la aleatoriedad.

    6.4.2. Generadores Mixtos (c 6= 0)

    yi+1 = ayi + c mod M, c 6= 0Tiene perodo M si y solo si

    1. m.c.d.(c,M) = 1.

    2. a 1 mod p, para cualquier factor primo p de M .3. Si 4|M , entonces a 1 mod 4.

    Corolario: Si M es primo, el perodo maximo ocurre solo si a = 1.

    37

  • 6.4.3. Generadores multiplicativos

    a es raz primitiva de M si a(M1)/p 1 mod (M) para cualquier factorprimo p de M 1.

    Ejemplo: M = 7.

    a = 2 a = 321 2 mod 7 31 3 mod 722 4 mod 7 32 2 mod 723 1 mod 7 33 6 mod 724 2 mod 7 34 4 mod 725 4 mod 7 35 5 mod 726 1 mod 7 36 1 mod 727 2 mod 7 37 3 mod 7

    Para un generador multiplicativo yi+1 = ayi mod M , la longitud K de lasecuencia verifica:

    Si K = M 1 entonces M es primo.K divide a M 1.K = M 1 si y solo si a es raz primitiva de M .

    Problema: Encontrar races primitivas.Propiedad util: Si a es raz primitiva y (k,M 1) = 1, entonces ak es raz

    primitiva.Un ejemplo con M primo: M = 231 1, a = 16807

    M 1 = 231 2 = 2 32 7 11 31 151 331

    M : es un primo de Mersenne.

    7: raz primitiva, (5,M 1) = 1, implica que 75 = 16807 es raz primitiva.Secuencia de longitud maxima: M 1 = 2147483646.

    6.4.4. Modulo potencia de 2

    Si M = 2k , c = 0, tomar modulo es computacionalmente sencillo.

    yj = ajy0 mod (2

    k)

    Secuencia de longitud maxima = 2k 2 , para a raz primitiva.Facilita calculos (desplazamiento de bits).

    Fenomeno de no aleatoriedad en bits menos significativos.

    RANDU: M = 231 , a = 216 + 3 = 65539.

    38

  • Desventaja de un generador congruencial

    En una secuencia y1, y2, . . . dada por un generador congruencial cualquiera,los puntos: (yj , yj+1, . . . , yj+k1), j = 0, 1, 2, . . . estan ubicados en no mas de(k!M)1/k hiperplanos paralelos.

    Cota maxima: (k!M)1/k : estructura de red.

    Generador RANDU: ternas ubicadas en 15 planos paralelos.

    6.4.5. Generadores Portables

    a = 75 = 16807

    M = 231 1 = 2147483647Buen generador.Las multiplicaciones superan el rango de 32 bits.

    Algoritmo de Schrage

    M = aq + r

    q = [M/a], r = M mod a

    Si r < q y 0 < z < M 1 se puede probar que para todo z, 0 < z < M :0 a(z mod q) M 1

    39

  • 0 r[z/q] M 1

    az mod M =

    {a(z mod q) r[z/q] si es 0

    a(z mod q) r[z/q] +M c.c.

    El generador ran0yj+1 = ayj mod M

    a = 75 = 16807,M = 231 1 = 2147483647Schrage: se utiliza q = 127773 y r = 2836Desventajas:

    40

  • Sucesiones de numeros muy pequenos.

    Inconvenientes en el plano: (yi, yi+1): el test 2 falla para N O(107)

    M 2

    6.5. Shuing

    Se almacenan los ultimos valores generados en una tabla, y la salida seobtiene eligiendo aleatoriamente un elemento de dicha tabla y reponiendolo porun nuevo valor generado.

    6.5.1. El generador ran1

    a = 75 = 16807,M = 231 1 = 2147483647Tabla de 32 posiciones.

    Figura 1: ran1

    6.6. Combinacion de generadores

    TeoremaSean W1,W2, . . . ,Wn variables aleatorias discretas, tales que:

    Wi U([0, d 1])W =( nj=1

    Wj

    )mod (d)

    es una v.a. uniforme discreta en [0, d 1].Ejemplo: tirar 2 dados, y sumar modulo 6.

    41

  • 6.6.1. Combinacion de congruenciales

    Combinar secuencias de generadores congruenciales.Sugerencia: restar.Se obtiene un generador de v.a. uniformes.La longitud de la secuencia es mayor = mnimo comun multiplo de los gen-

    eradores.

    xn = 40014xn1 mod 231 85yn = 40692yn1 mod 231 249

    El 2 es el unico factor comun.Perodo 2 3 1018

    6.6.2. El generador ran2

    Utiliza 2 generadores congruenciales de enteros de 32 bits.Tabla de 32 posiciones: shuing.Salida = combinacion de x e y .

    G1 xn = 40014xn1 mod 231 85

    G2 yn = 40692yn1 mod 231 249

    6.6.3. El generador ran3

    Ver en Knuth, Seminumerical Algorithms, seccion 3.2.1.Se construye inicialmente una tabla de 55 posiciones, con numeros aleatorios.i y j recorren cclicamente la tabla, separados por 24 posiciones.Salida: diferencia entre los elementos i y j, que reemplaza a su vez el lugar

    i.El ciclo que se obtiene es de longitud 232 .

    42

  • Figura 2: ran2

    Figura 3: ran3

    6.7. Marsaglia - Zaman

    Some portable very-long-period random number generators, George Marsagliaand Arif Zaman.

    Sugerencias sobre otros generadores.

    Fibonacci.

    Resta con prestamo.

    Suma con acarreo.

    El generador mzran2

    Consideraciones sobre ran2La combinacion de generadores produce mejoras. Sin embargo, conviene com-

    binar estructuras diferentes.Utilizar modulo 32 bits en lugar de 31 bits.

    43

  • Utilizar primos seguros (safeprimes), con a = 2k + .

    231 69232 1409231 535232 209

    Por que no un rango de enteros?La subrutina iran2()

    UNI() = ,5 + ,232830E 9 iran2()V NI() = ,4656613E 9 iran2()

    Algunos ejemplosModulo Secuencia Perodo

    232 xn = 69069xn1 + impar 232

    232 xn = xn1 xn2 231232 xn = xn1 + xn2 + C 258

    231 69 xn = xn3 xn1 262232 18 xn = xn2 xn3 C 295

    6.8. El generador mzran()

    Combina los generadores:

    xn = 69069xn1 + 1013904243 mod 232

    Perodo: 232

    xn = xn3 xn1 mod 231 69Perodo: 294El perodo es mayor a 294 , o 1028 .

    6.9. El generador mzran13()

    Combina los generadores:

    xn = 69069xn1 + 1013904243 mod 232

    Perodo: 232

    xn = xn2 xn3 c mod 23218Perodo: 295El perodo es del orden de 2125 , o 1036 .

    44

  • 6.9.1. Codigo de mzran13()

    1 typedef unsigned long int unlong ;23 unlong x=521288629 , y=362436069 , z =16163801 , c=1, n=1131199209;45 unlong mzran13 ( void ) {6 long int s ;7 i f (y>x+c ) {8 s=y(x+c ) ;9 c=0;

    10 }11 else {12 s=y(x+c )18;13 c=1;14 }15 x=y ;16 y=z ;17 return ( z=s ) + (n=69069n+1013904243) ;18 }1920 void ran13set ( unlong xx , unlong yy , unlong zz , long nn) {21 x=xx ;22 y=yy ;23 z=zz ;24 n=nn ;25 c=y>z ;26 }

    45

  • 7. Integracion por el metodo de Monte Carlo

    El metodo de Monte Carlo es un procedimiento general para seleccionarmuestras aleatorias de una poblacion utilizando numero aleatorios.

    La denominacion Monte Carlo fue popularizada por los cientficos StanislawUlam, Enrico Fermi, John Von Neumann y Nicholas Metropolis, entre otros,quienes ya trabajaban sobre muestre estadstico.

    Hace referencia al casino de MonteCarlo en Monaco.Aplicacion en calculos matematicos

    Este metodo se utiliza para calcular numericamente expresiones matematica-mente complejas y difciles evaluar con exactitud, o que no pueden resolverseanalticamente.

    Algunos ejemplos son:

    Calculo de integrales definidas.

    Aproximaciones al valor de pi.

    Calculo de integrales definidasSe tienen en cuenta los siguiente resultados:

    Si X es una variable aleatoria con densidad f y g : R R es una funcion,entonces el valor esperado de la variables aleatoria g(x) es:

    E[g(x)] =

    g(x)f(x)dx

    Ley fuerte de los grandes numeros: si X1, X2, . . . es una sucesion de Vari-ables aleatorias independientes identicamente distribuidas, todas con me-dia entonces:

    lmn

    X1 +X2 + . . .+Xnn

    =

    7.1. Integracion en (0,1)

    Sea g(x) queremos calcular : =10

    g(x)dx

    Observar que si U esta uniformemente distribuida (0, 1) = E[g(U))]Si U1, . . . , Uk son V.A. independientes identicamente distribuidas uniformes

    en (0, 1) g(U1), . . . , g(Uk) son V.A. independientes con media Por la ley fuerte de los grande numeros se tiene con probabilidad 1.

    ki=1

    g(Ui)

    kk

    E[g(U)

    ]=

    Podemos aproximar generando k uniformes en el (0, 1), evaluandolas eng, y sacando su promedio.

    46

  • g(x) = (1 x2)3/2

    Figura 4: n = 20, Area=0.5019617835

    Figura 5: n = 100, Area= 0.4946866190

    Analticamente queremos calcular:

    =

    10

    g(x)dx =

    10

    (1 x2)3/2dx

    Comenzamos usando la sustitucion:

    x = sen()

    dx = cos()d

    47

  • Figura 6: n = 300, Area=0.6067846103

    10

    (1 x2)3/2dx =1

    0

    (1 (sin()2)3/2 cos()d

    =

    10

    (cos()2)3/2 cos()d

    =

    10

    (cos())4d

    Aplicando las formulas trigonometricas:

    cos()2 = 1+cos(2)2 (1)

    cos(2)2 = 1+cos(4)2 (2)

    Se puede reducir la integral a intregrales de terminos constantes y terminosde cosenos.

    cos()4d =

    (1 + cos(2)2

    )2=

    1

    4d +

    1

    4cos(2)2 +

    1

    2cos(2)d

    Se vuelve a aplicar la relacion trigonometrica (2) al segundo termino, lasotras dos son inmediatas.

    cos(2)2 =

    1 + cos(4)

    2d

    48

  • Nos queda:cos()4d =

    1

    4d +

    1

    4

    (1 + cos(4)2

    )d +

    1

    2cos(2)d

    Las cuales son inmediatas aplicando que:cos(a)d =

    sen(a)

    a

    Analticamente:

    10

    g(x)dx =3

    8

    pi

    2+

    1

    4sen(pi) +

    1

    32sen(2pi)

    =3pi

    16 0,5890486226

    Por Monte Carlo:

    n Aproximacion20 0.5019617835100 0.4946866190300 0.60678461031000 0.595981047610000 0.5895682376

    7.2. Integracion en (a,b)

    Sea g(x) queremos calcular : =ba

    g(x)dx : a < b

    Entonces al hacer la sustitucion y = (xa)(ba) dy = dxba vemos que:

    =

    ba

    g(x)dx

    =

    10

    g(a+ [b a] y)(b a)dy

    =

    10

    h(y)dy

    Donde h(y) = (b a) g(a+ [b a] y)

    49

  • Figura 7: g(x) = ex+x2

    en (-1,1)

    Figura 8: g(x) = sen(x) en (0, 2pi)

    Figura 9: g(x) = cos(x) en (pi, 3pi)

    50

  • 7.3. Integracion en (0,)Sea g(x) queremos calcular : =

    0

    g(x)dx

    Entonces al hacer la sustitucion y = 1(x+1) dy = dx(x+1)2 = y2dx

    Vemos que: =10

    h(y)dy donde h(y) =g( 1y )1y2

    Si usamos el siguiente cambio de variables:

    y = 1 1x+ 1

    dy = (y 1)2

    entonces la tranformacion esta dada por una funcion creciente y : [0,] [0, 1).Se tiene entonces los siguientes graficos:

    Figura 10: g(x) = ex

    Figura 11: g(x) = 12+x2

    51

  • Figura 12: g(x) = x(1+x2)2

    7.4. Integracion en (,)Para resolverla tenemos que identificar la paridad de la funcion

    1. Si la funcion es par, la integral en el rango (,) es dos veces laintegran el (0,)

    f(x)dx = 2

    0

    f(x)dx

    2. Si la funcion no es par, entonces debo partir el rango en:

    (0,) y hacer el cambio de variables al [0, 1](, 0) por ejemplo mandar al (0,) usando el negatico de la fun-cion y luego mandarla al [0, 1] con un cambio de variables:

    0

    f(x)dx =

    0

    f(x)dx =1

    0

    f(( 1x 1))x2

    dx =

    10

    f(1 1x )x2

    dx

    7.5. Integrales Multiples

    El metodo de Monte Carlo para el calculo de integrales en una variable noes muy eficiente, comparado con otros metodos numericos que convergen masrapidamente al valor de la integral.

    Pero s cobra importancia en el caso del calculo numerico de integrales multi-ples:

    =

    10

    . . .

    10

    g(x1, . . . , xn)dx1, . . . , dxn

    52

  • Utilizamos el hecho de que:

    = E[g(U1, . . . , Ul)]

    con U1, . . . , Ul independientes y uniformes en (0, 1)Si:

    U11 , . . . , U1l

    U21 , . . . , U2l

    ...

    Un1 , . . . , Unl

    Son n muestras independientes de estas l variables. Podemos estimar:

    ni=1

    g(U i1, . . . , Uil )

    n

    Figura 13: g(x, y) = e(x+y) en (0, 1) (0, 1)

    53

  • 7.5.1. Calculo aproximado del valor de pi

    Una aplicacion a las integrales multiples es el calculo del valor de pi.Recordemos que el area de un crculo de radio r es pir2 y por lo tanto pi

    esta dada por la integral:

    10

    10

    I{x2+y2

  • Figura 14: Simulacion del valor de pi

    7.5.2. La aguja de Buffon

    Un problema planteado en el s. XVIII por Georges Louis Leclerc, conde deBuffon, fue la siguiente:

    Se tienen rectas paralelas equidistantes entre s, y se arroja una aguja delongitud mayor o igual a la distancia entre dos rectas.

    Cual es la probabilidad que una aguja corte a una de las rectas?

    55

  • t: la distancia entre las rectas.

    l: la longitud de la aguja.

    : la longitud del angulo agudo entre la aguja (o su prolongacion) y unade las rectas.

    x: es la distancia entre el punto medio de la aguja y la recta mas cercana.

    x y son V.A. uniformes con distribucion f(x) y g()

    f(x) =2

    t, g() =

    2

    pi

    Una aguja cortara la recta si y solo si la distancia de su centro a una de lasrectas es menor que l2 sen() es decir x n/2, conviene tomar el complemento de un subconjunto aleatorio denr elementos.

    Aplicaciones:

    Tecnica del doble ciego.

    Simulacion: Problema de las dos muestras.

    8.2.2. Metodo alternativo de permutacion aleatoria

    Otro metodo para generar una permutacion aleatoria de un conjunto detamano n consiste en:

    1. Generar n numeros aleatorios U1, U2, . . . , Un

    2. Ordenarlos: Ui1 < Ui2 < . . . < Uin

    3. Utilizar los ndices de los valores ordenados para hacer la permutacion.

    EjemploObtener una permutacion aleatoria de (a, b, c, d).

    1. U1 = 0, 4 ; U2 = 0, 1 ; U3 = 0, 8; U4 = 0, 7.

    2. Ordernarlos: U2 < U1 < U4 < U3 .

    3. La permutacion es (b, a, d, c).

    Desventaja: se requieren O(n log(n)) comparaciones.

    8.3. Calculo de promedio

    Aproximaxion al valor de:

    a =

    ni=1

    a(i)

    n

    siendo que n >> 1.

    61

  • Tomamos X uniforme en [1, n].

    a(x) es una V.A. con media:

    E[a(x)] =

    ni=1

    a(i) P [x = i]

    =

    ni=1

    a(i)

    n

    = a

    Generamos U1, U2, . . . , Uk aleatorios en (0, 1), Xi = bnUic+ 1Ley fuerte de los grandes numeros:

    a ki=1

    a(Xi)

    k: k grande

    Ejemplo: Utilizar 100 numeros aleatorios para aproximar:

    S =

    10000i=1

    ei

    10000

    1 f loat Promedio ( ) {2 S = 0 ;3 for ( i = 1 to 100) {4 U = Uniforme ( ) ;5 I = b10000 Uc+ 1 ;6 S = S + exp ( I /10000)7 }8 // En S tengo e l c a l c u l o aproximado de l promedio9 // l o mu l t i p l i c o por 100 y tengo una estimacion de S

    10 S = S 100 ;11 return S ;12 }

    8.4. V.A. Geometrica

    X es una V.A. geometrica con parametro p si

    P [x = i] = p qi1 : i 1, q = (1 p)Tenemos que: F (j 1) = P (X j 1) = 1 P (X > j 1) = 1 qj1 .

    Usando metodo del a transformada inversa:

    x = j si 1 qj1 U < 1 qj

    qj < 1 U qj1

    62

  • Esto equivale a encontrar el menor j tal que qj < 1 UX = mn{j : qj < 1 U}

    Propiedades:

    El logaritmo es una funcion creciente.

    log(q) es negativo.

    V = 1 U tambien es uniforme en (0, 1)

    X = mn{j : qj < 1 U}= mn{j : j log(q) < log(1 U)}

    = mn{j : j >

    log(1 U)log(q)

    }= log(1 U)

    log(q)

    + 1

    X = log(V )

    log(q)

    + 1

    Generando U uniforme en (0,1) tenemos que X de la siguiente forma tambienes geometrica de parametro p.

    1 int2 Geometrica ( f loat p) {3 U = Uniforme ( ) ;4 q = 1 p ;5 X =

    log(U)log(q)

    + 1

    6 return X ;7 }

    63

  • 8.5. V.A. Poisson

    X Poisson() pi = P (X = i) = ei

    i!: i = 0, 1, . . .

    Usando la fomula recursiva sabemos que:

    Pi+1 =

    i+ 1Pi : i 0

    Y se calcula usando la transformada inversa

    1 int2 Poisson ( f loat ) {3 U = Uniforme ( ) ;4 i = 0 ;5 p = e ;6 F = p ;7 while (U F ) {8 p =

    p)(i+1)

    ;

    9 F = F + p ;10 i = i + 1 ;11 }12 X = i ;13 return X;14 }

    Inconvenientes del Algoritmo 1

    El algoritmo chequea desde 0 en adelante hasta obtener el valor deseado.

    El numero de comparaciones es 1 mas que el valor generado.

    El valor generado esperado es . Luego, el promedio de comparaciones es + 1.

    Si >> 1 el algoritmo anterior realiza muchas comparaciones.

    Para mejorar el algoritmo se utilizan las siguientes propiedades de la dis-tribucion de Poisson:

    Mejora al algoritmo 1

    Usando la fomula recursiva sabemos que: Pi+1 =i+1Pi : i 0

    pi+1 pi si y solo si i+1 1, es decir, i+ 1 .El valor maximo de pi es pbc , es decir, valores de i cercanos a .

    64

  • 1 int2 Poisson ( f loat ) {3 I = ;4 Ca lcu la r F ( I ) usando l a definicion r e c u r s i v a de pi ;5 Generar U U(0, 1) ;6 i f (U F ( I ) ) {7 generar X haciendo busqueda descendente .8 }9 i f (U > F ( I ) ) {

    10 generar X haciendo busqueda ascendente .11 }12 return X;13 }

    Algoritmo Mejorado

    El promedio de busquedas es

    1 + E[|X |]

    Si >> 1, X aproxima a una normal N(,.

    X N(0, 1)

    Promedio de busquedas:

    1 +E[ |X |

    ]= 1 +

    E[|Z|]

    = 1 + 0,798

    65

  • 8.6. V.A. B(n,p)

    pi = P (X = i) =n!

    i!(n i)!pi(1 p)ni : i = 0, 1, . . . , n

    Caso similar al de generacion de una v. a. Poisson. Conviene utilizar laformula recursiva:

    pi+1 =n ii+ 1

    p

    1 ppi : 0 i < n

    1 int2 Binomial ( int n , f loat p) {3 U = Uniforme ( )4 C = p

    1p5 i = 06 PR = (1 p)n7 F = PR8 while (U F) {9 PR = [

    c(ni)i+1

    ] PR10 F = F + PR;11 i = i + 1 ;12 }13 X = i ;14 return X;15 }

    Inconvenientes del algoritmo

    El algoritmo chequea desde 0 en adelante hasta obtener el valor deseado.

    El numero de comparaciones es 1 mas que el valor generado.

    El promedio de comparaciones es np+ 1.

    Existen metodos alternativos mas eficientes:

    Si p > 1/2, generar nB(n, 1p). (menor numero de comparaciones). Generar U1, . . . , Un , y contabilizar cuantas son menores que p. Es

    menos eficiente pues requiere n comparaciones.

    Utilizar la sugerencia analoga para Poisson. (menor numero de com-paraciones).

    Valor mas probable: i = bnpc . Promedio de busquedas: 1 +np(1 p)0,798.

    66

  • 8.7. Metodo de aceptacion y Rechazo

    Se desea simular una v. a. X discreta, con probabilidad de masa pj =P (X = j), j = 0, 1, 2, . . .

    Hipotesis: Se conoce un metodo eficiente para generar una v.a. Y, conprobabilidad de masa qj = P (Y = j), j = 0, 1, 2, . . . , que verifica

    Si pj 6= 0 qj 6= 0 Existe una constante c (c > 1) tal que:

    pjqj c para todo j tal que pj > 0

    1 Aceptacion y Rechazo ( ) {2 do{3 Simular Y , con probab i l i dad de masa qY ;4 U = Uniforme ( ) ;5 }while ( U < pY /cqY ) ;6 X = Y7 return X8 }

    8.7.1. Validez del metodo de Aceptacion y Rechazo

    Teorema:El algoritmo de aceptacion y rechazo genera una variable aleatoria X a

    valores enteros no negativos tal que

    P (X = j) = pj , j = 0, 1, . . .

    Ademas, el numero de iteraciones requeridas para obtener X es una v.a. ge-ometrica con media c.

    DemostracionSea X el valor generado por el algoritmo 1. Quiero ver que

    P (X = j) = pj

    Observemos que

    67

  • (X = j) (Y = j) y el algoritmo lo acepta en alguna iteracion:

    P (X = j) =k1

    P (j es aceptado en la iteracion k)

    (j es aceptado en la iteracion k) significa que hay k iteraciones donde:

    1. en las k 1 primeras el algoritmo rechaza.2. En la ultima, la k-esima, Y genera j y el algoritmo lo acepta.

    P (j aceptado en la iteracion k) = P (algoritmo rechaza k 1 veces)P ((Y = j) j es aceptado en la k)= P (algoritmo rechaza)k1P ((Y = j) j es aceptado)

    (23)

    (23) Por la independencia de las iteracionesEn una iteracion fija

    Probabilidad de que el algoritmo acepte el valor j

    P ((Y = j) j es aceptado) = P (j es aceptado|(Y = j))P (Y = j)=

    pjcqj

    qj

    =pjc

    Probabilidad de que el algoritmo acepte en una iteracion

    P ( el algoritmo acepte) =j

    P ((Y = j) j es aceptado) =j

    pjc

    =1

    c

    P ( el algoritmo rechace) = 1 1cG es la variable que mira el numero de iteraciones necesarias, entonces G es

    geometrica de parametro 1/c.

    P (X = j) = P (j sea aceptado en alguna iteracion)

    =

    k=1

    P (j sea aceptado en la iteracion k)

    =

    k=1

    P (el algoritmo rechaza)k1P ((Y = j) j es aceptado)

    =

    k=1

    (1 1

    c

    )k1 pjc

    = pj

    68

  • Ejemplo:Generar una v.a. X con valores en {1, 2, ..., 10} y probabilidades 0.11, 0.12,

    0.09, 0.08, 0.12, 0.10, 0.09, 0.09, 0.10, 0.10 .

    Metodo de la transformada inversa: implica una media (mnima) de 5, 04iteraciones.

    Metodo de aceptacion y rechazo: c = 1,2 . La media de iteraciones es 1, 2.

    8.7.2. Casos particulares

    Si Y U [1, n] c = maxj{npj}

    1 // Y Uniforme en [1 , n ]2 do{3 V = Uniforme ( ) ;4 Y = bnV c ;5 U = Uniforme ( ) ;6 }while (U < npy/c ) ;7 X = Y

    Si X es condicional a Y n c = 1/P (Y n)

    1 // P (X = j) = P (Y = j|Y n)2 do{3 s imular Y4 }while (Y n) ;5 X = Y

    8.8. Metodo de composicion

    Se tienen metodos eficientes para generar valores de v. a. X1 y X2 , confunciones de probabilidad de masa:

    X1 : {pj : j = 0, 1, . . .} X2 : {qj : j = 0, 1, . . .}

    El metodo de composicion permite generar una v.a. X con funcion deprobabilidad de masa

    P (X = j) = pj + (1 )qj j = 0, 1, . . . , 0 < < 1

    X =

    {X1 con probabilidad X2 con probabilidad 1

    69

  • 1 //Metodo de composicion para dos V.A.2 U = Uniforme ( ) ;3 i f (U < ) {4 X = X1 ;5 } else {6 X = X2 ;7 }8 return X;

    P (X = j) = P (U < ,X1 = j) + P ( < U < 1, X2 = j)

    = P (U < )P (X1 = j) + P ( < U < 1)P (X2 = j)

    = pj + (1 )qjEjemplo:

    pj = P (X = j) =

    {0,05 para j = 1, 2, 3, 4, 50,15 para j = 6, 7, 8, 9, 10

    Viendo que:(0, 05) 5 = 0, 25 y (0, 15) 5 = 0, 75

    1 U = Uniforme ( ) ;2 i f (U < 0 ,75) {3 V = Uniforme ( ) ;4 X = b5V c + 6 ;5 } else {6 V = Uniforme ( ) ;7 X = b5V c + 1 ;8 }9 return X;

    Otra solucion:

    Viendo que: (0, 05) 10 = 0, 5 y (0, 10) 5 = 0, 5

    1 U = Uniforme ( ) ;2 i f (U < 0 ,5) {3 V = Uniforme ( ) ;4 X = b10V c + 1 ;5 } else {6 V = Uniforme ( ) ;7 X = b5V c + 6 ;8 }9 return X;

    70

  • Algoritmo de Transformada Inversa

    X : x0, x1, . . ., con P (X = xi) = pi

    1 F = p0 ;2 i = 0 ;3 U = Uniforme ( ) ;4 while ( U > F) {5 i = i +1;6 F = F + Pi7 }8 X = xi

    El algoritmo recorre desde un valor en adelante.

    Para una v.a. discreta en general, realiza muchas busquedas.

    Veamos algunas alternativas

    8.9. Metodo de la urna

    X toma un numero finito de valores: {x1, x2, . . . , xn} Cada pi = ki10q ,con ki entero y q fijo. Esto es:

    ni=1

    ki = 10q

    q: es el numero maximo de dgitos decimales.v: es un vectorde tamano 10q que contiene ki veces cada elemento xi.

    v = x1 . . . x1 k1

    x2 . . . x2 k2

    . . . xn . . . xn kn

    1 // var ian t e A2 U = Uniforme ( ) ;3 J =b10qUc + 1 ;4 X = vJ

    Ejemplo:X toma valores x1 = 8, x2 = 9, x3 = 10 y x4 = 11,con probabilidades p1 = 0.2, p2 = 0.1, p3 = 0.4 y p4 = 0.3.

    q = 1

    p1 = 2 101 , p2 = 1 101 , p3 = 4 101 , p4 = 3 101 .

    v= 8 8 9 10 10 10 10 11 11 11

    71

  • U = 0.378 J = 4 X = 10Por que funciona?

    P (X = j) = P (k1 + . . .+ kj1 < b10qUc k1 + . . .+ kj1 + kj)=

    kj10q

    = pj

    Desventaja: Necesita 10q lugares de almacenamiento.

    Advertencia: si se redondean los datos para utilizar un q mas chico, recor-dar que

    ki debe resultar 1.

    8.10. Metodo de tablas

    Marsaglia (1963) propone la siguiente mejora al metodo de la urna.

    Se utiliza un vector vk , para cada posicion decimal: k = 1, 2, . . . , q.

    En vk se almacena xi tantas veces como indique su posicion decimal k-esima.

    Se calcula dk la probabilidad de ocurrencia del dgito de orden k :

    dk =suma de los dgitos de orden k en las probabilidades

    10k

    EjemploSea X con distribucion p(1) = 0,15, p(2) = 0,20, p(3) = 0,43, p(4) = 0,22.

    v = 1 2 2 3 3 3 3 4 4 m = 9

    w = 1 1 1 1 1 3 3 3 4 4 n = 9

    d1 =1 + 2 + 4 + 2

    10= 0,9

    d2 =5 + 0 + 3 + 2

    100= 0,1

    1 Ejemplo tab las ( int n , int w, int m, int n) {2 U = Uniforme ( ) ;3 i f (U < 0 . 9 ) {4 V = Uniforme ( ) ;5 J = bmV c ;6 X = v [ J ] ;7 } else {8 V = Uniforme ( ) ;9 J = bnV c ;

    10 X = w[ J ] :11 }12 return X;13 }

    72

  • Por que funciona?

    P (X = 3) = P (X = 3| elegir decenas)P (elegir decenas) + P (X = 3|elegir centenas)P (elegir centenas)=

    4

    90,9 +

    3

    100, 1

    = 0,43

    Ventaja sobre el anterior: mucho menor costo de almacenamiento. (19 lugaresen lugar de 100).

    Desventaja: mayor tiempo de ejecucion.

    9. Generacion de variables aleatorias continuas

    9.1. Metodo de la transformada inversa

    Decimos que X es una V.A. continua con densidad. Si existe f : R Rpositiva tal que:

    F (x) = P [X x] =x

    f(t)dt

    F (x) es continua.

    F (x) es no decreciente.

    0 F (x) 1.lm

    xF (x) = 0

    lmxF (x) = 1

    Teorema

    Si F es una funcion de distribucion continua, inversible y U U(0, 1) en-tonces:

    X = F1(U) es una V.A. con distibucion: F

    P (X a) = P (F1(U) a) (24)= P

    (F (F1(U)) F (a)

    )(Por ser inversible) (25)

    = P [U F (a)] (26)= F (a) (27)

    Es suficiente que F tenga inversa en (0,1).

    Problemas:

    73

  • La inversa de F involucra funciones costosas: ( nF (x), log (x)), . . . La inversa de F no puede ser calculada explcitamente (por ejemplo,

    en la distribucion normal o en una gamma).

    Para ciertas distribuciones F , pueden utilizarse otras estrategias, por ejem-plo expresando a F como:

    Distribucion del mnimo y/o maximo de V.A. independientes. Distribucion de suma de V.A. independientes. Distribucion de una V.A. condicional a otra.

    O existen metodos especficos por ejemplo para la distribucion normal.

    9.1.1. Ejemplos

    Escribir un metodo para generar el valor de una variable aleatoria X confuncion de densisdad:

    f(x) = x2

    + 1 : 0 x 2

    F (x) = x2

    4+ x : 0 x 2

    F no es inversible sobre R pero solo nos interesa encontrar

    F1 : (0, 1) (0, 2)

    x2

    4+ x = U x =

    x = 2 + 2

    1 Uo

    x = 2 21 U1 Algoritmo ( ) {2 U = Uniforme ( ) ;

    3 X = 2 2U ;4 return X;5 }

    Escribir un metodo para generar el valor de una V.A. X con funcion dedensidad dada por :

    f(x) =

    1/4 0 x 21/2 2 < x < 30 En caso contrario

    F (x) =

    0 x 0x/4 0 x 2x1

    2 2 < x < 31 x 3

    74

  • 1 Algoritmo ( ) {2 U = Uniforme ( ) ;3 i f (U < 1/2) {4 X = 4 U;5 } else {6 X = 2 U + 1 ;7 }8 return X;9 }

    9.1.2. Maximos y mnimos de V.A. independientes

    Consideremos X1, X2, . . . , Xn V.A. independentes con funciones de distribu-cion F1, F2, . . . Fn respectivamente.

    Fi(a) = P (Xi a)

    X = max{X1, X2, . . . , Xn

    }Fx(a) = F1(a) F2(a) . . . Fn(a)Y = mn

    {X1, X2, . . . , Xn

    }1 Fy(a) = (1 F1(a)) (1 F2(a)) . . . (1 Fn(a))

    Si X es tal que:

    Fx(x) =

    {xn 0 x 10 En caso contrario

    Fx(x) = x . . . x n

    Entonces X = max{U1, U2, . . . , Un

    }con U1, . . . , Un V.A. independientes,

    identicamente distribuidas, uniformes en (0,1).Para generar: X : Fx(t) = t

    n

    1 Algoritmo ( int n) {2 l i s t a = [ ] ;3 for ( int i =0; i < n ; i++){4 l i s t a . append ( Uniforme ( ) ) ;5 }6 X = Max( l i s t a ) ;7 return X;8 }

    No se requiere calculo de la raz enesima.

    Se genera n 1 uniformes adicionales.Se requiere de n 1 comparaciones.

    75

  • 9.1.3. Exponencial

    Si X () entonces c X tambien es exponencial.c.X (c )

    Calculamos la inversa de la funcion de distribucion. Si X (1)Fx(x) = 1 ex

    U = 1 ex1 U = ex

    x = log(1 U)

    1 Exponencial ( f loat ) {2 U = Uniforme ( ) ;3 X = 1

    l og (U) ;

    4 return X;5 }

    9.1.4. Poisson

    Para generar una variable Poisson vamos a usar informacion sobre una es-tructura mas compleja, el proceso de Poisson.

    Recordemos que:

    En un proceso de Poisson Homogeneo de parametro

    Los tiempos de llegada entre eventos son V.A. expoenciales de media1

    El numero de eventos en un intervalo de tiempo de longitud t es unaV.A. Poisson con media t.

    N(t) es una Variable Aleatoria Poisson con media

    N(1) = max{n|X1 +X2 + . . .+Xn 1

    }Entonces toda variable aleatoria Poisson de parametro puede pensarse

    como la realizacion N(1) de un proceso de Poisson con media Empleando V.A. uniformes para generar las exponenciales tenemos que:

    N(1) = max{n|X1 +X2 + . . .+Xn 1

    }= max

    {n| 1

    (log(U1) + . . .+ log(Un)) 1

    }= max

    {n| log(U1 . . . Un)

    }= max

    {n|U1 . . . Un

    }

    N(1) = mn{n|U1 . . . Un <

    } 1

    76

  • 1 Poisson ( f loat ) {2 int X = 0 ;3 Prod = 1 ;4 while (1 ) {5 U = Uniforme ( ) ;6 Prod = Prod U;7 i f ( Prod < e ) {8 return X;9 }

    10 X++;11 }12 }

    9.1.5. Gamma

    Si X1, . . . , Xn son V.A. exponenciales independientes Xi () entoncesX = X1 + . . .+Xn es una V.A. gamma de parametro (n, ).

    Fx(x) = P (X1 + . . .+Xn X)= P

    ( 1

    log(U1 . . . Un) X)

    Por lo cual X (n, )1 Gamma( int n , f loat ) {2 f loat prod = 13 for ( int i = 0 ; i < n ; i++){4 prod = prod Uniforme ( ) ;5 }6 X = 1

    log( prod ) ;

    78 return X;9 }

    Emplea n Uniformes.

    Calcula un unico logaritmo.

    9.1.6. Exponenciales a partir de una Gamma

    Teorema: Si X,Y () independientes fx|x+y(x|t) = 1t (0,t)(x), es decir, Xcondicional a X + Y = t es uniforme en (0, t).

    Para generar X,Y exponenciales independientes de parametro podemosaplicar el siguiente algoritmo.

    1 do s exponenc i a l e s ( f loat ) {2 U1 , U2 = Uniforme ( ) , Uniforme ( ) ;3 t = 1

    log(U1 U2)

    4 U3 = Uniforme ( ) ;5 X = t U3 ;6 Y = t X;7 return (X,Y) ;8 }

    77

  • Calcula un unico logaritmo.

    Emplea una uniforme adicional.

    Para generar n exponenciales se puede extender el metodo anterior generan-do

    Una V.A. gamma de parametros (n, ).

    n 1 V.A. uniformes adicionales.

    1 nexponenc ia l e s ( int n , f loat ) {2 f loat Exponenc ia les [ n ] ;3 f loat Uniformes [ n ] ;4 prod = 1 ;5 for ( int i = 0 ; i < n ; i++){6 Uniformes [ i ] = Uniforme ( ) ;7 prod = prod Uniformes [ i ] ;8 }9 t = 1 1

    log(prod) ;

    10 Var i ab l e s [ n1] ;11 for ( int i = 0 ; i < n ; i++){12 Var i ab l e s [ i ] = Uniforme ( ) ;13 }14 Sort ( Var i ab l e s ) ;15 Exponenc ia les [ 0 ] = t Var iab l e s [ 0 ] ;16 for ( int i = 1 ; i < (n1) ; i++){17 Exponenc ia les [ i ] = t Var iab l e s [ i +1] Exponenc ia les [ i 1]18 }19 Exponenc ia les [ n1] = t t Exponenc ia les [ n2] ;20 return Exponenc ia les ;21 }

    9.2. Metodo de Rechazo

    Sea X una V.A: con densidad f : F (X) = P [X x] =x

    f(t)dt

    Supongamos que se tiene un metodo para generar y, con densidad g tal que:f(y)g(y) C para todo y R tal que f(y) 6= 0

    El metodo de rechazo para generar X a partir de y tiene el siguiente algo-ritmo.

    1 do {2 Generar Y con densidad g ;3 U = Uniforme ( ) ;

    4 }while (U < f(y)cg(y) )

    5 x = y

    Teorema:

    1. La V.A. generada por el metodo de rechazo tiene densidad f .

    78

  • 2. El numero de iteraciones del algoritmo es una variable aleatoria geometricacon media c.

    Calcula de la cota c

    h(x) =f(x)

    g(x) c

    Es h acotada superiormente? Existe un maximo de h?

    Determinar puntos crticos de h.

    Un punto crtico x0 es un maximo local de h si en un entorno (a, b) de x0ocurre:

    h(x) > 0 para x < x0 y h(x) < 0 para x > x0 h(x0) < 0

    Evaluar h en los extremos del invervalo.

    9.2.1. Gamma

    Utilizar el metodo de rechazo para generar una variable aleatoria con funcionde densidad dada por:

    f(x) = 20x(1 x)3 : 0 < x < 1

    f(x) =(+ )

    ()()x1(1 x)1(0,1)(x)

    Sea X una V.A. Gamma (2,4)Esta acotada en (0,1).Se puede aplicar el metodo de rechazo con g(x) = 1 : 0 < x < 1Quiero hallar c tal que:

    f(x)

    g(x)=f(x)

    1 c

    h(x) = f(x) = 20 x (1 x)3 : 0 < x < 1h(x) = 20 (1 x)2 (1 4 x)

    Puntos crticos x = 1 y x = 14 .h(0) = h(1) = 0 luego 0 y 1, los extremos del intervalo no son maximos.

    h( 14 ) =13564 > 0 por lo cual x =

    14 es un maximo.

    h( 14 ) = f(14 ) =

    13564 es el valor maximo de h.

    c =135

    64 2,11

    f(x)

    c g(x) =f(x)

    135/64=

    256

    27x (1 x)3

    79

  • 1 do {2 V = Uniforme ( ) ;3 U = Uniforme ( ) ;4 }while (U < 256

    27 V (1 V )3 )

    5 x = V

    El promedio de numero de ciclos es c = 13564 2,11Ejemplo

    Generar una V.A. con densidad (

    32 , 1)

    f(x) = k x1/2 ex : x > 0Con k = 1(3/2) =

    2pi

    Recordando que si X (, ) = ()exx1 E(X) = X toma valores reales no negativos.

    En el ejemplo la media es 3/2

    Es razonable rechazar con una exponencial de igual media. Pero podemosdespues verificar sino podemos hacer un algoritmo mejor

    Y ( 23 )g(x) = 23 e

    23x : x > 0

    h(x) = f(x)g(x) =3k2 x

    1/2ex/3

    C = 3 ( 3

    2pie

    )1/2h(x) = f(x)g(x) = CTE x1/2ex/3 : x > 0

    h(x) = CTE[1

    2x1/2ex/3 + x1/2

    13ex/3

    ]0 =

    1

    2x1/2ex/3 + x1/2

    13ex/3

    |x| = 32

    Puntos crticos: 32 cuando x > 0

    h(0) < h(3

    2) y h(2) < h(

    3

    2)

    0, extremo del intervalo, no es maximo y h( 32 ) es el maximo.

    h( 32 ) = 3 (

    32pie

    )1/2por lo cual c = 3

    (3

    2pie

    )1/2Sabemos que para generar una exp() calculo x = 1 log(Uniforme())

    80

  • 1 /Algoritmo para generar una ( 32, 1)/

    2 do {3 V = Uniforme ( ) ;4 Y = 3

    2log(V ) ;

    5 U = Uniforme ( ) ;

    6 }while (U < ( 2e3

    )1/2 y1/2 ey/3 )7 x = Y

    Es cierto que es razonable rechazar con una exponencial de igual media quela ?

    Tomamos g(x) = ex, exponencial con razon y media 1Obtenemos:

    h(x) =f(x)

    g(x)=k x1/2 e(1)x

    : 0 < < x

    Maximo en x = 12(1) : 0 < 1Valor maximo: c = k (2(1 ))1/2e1/2 = 23 minimiza el valor de e.

    9.2.2. Exponencial

    Sabemos que para generar una exp() calculo x = 1 log(Uniforme())

    9.2.3. Normal

    Generar una V.A: normal estandar es decir, Z con densidad:

    f(x) =12pie

    x2

    2

    |z| tiene densidad f|z|(x) = 22pi ex2

    2 : 0 < x

  • U < exp(y1)2

    2

    log(U) > (y1)22y2 = log(U) exp(1)

    1 Generar |Z | ( ) {2 do{3 Y1 = Exponencial ( = 1) ;4 Y2 = Exponencial ( = 1) ;

    5 }while ( Y2 > (Y11)2

    2)

    6 |Z | = Y17 }

    Si Y2 >(Y11)2

    2 X = Y2 (Y1 1)2 es exponencial con media 1 por lapropiedad de falta de memoria.

    Luego podemos generar la normal y tambien una exponencial.

    1 Normal y Exponencial ( ) {2 Do{3 Y1 = Exponencial ( = 1) ;4 Y2 = Exponencial ( = 1) ;

    5 }while ( Y2 > (Y11)2

    2)

    6 exponenc ia l = Y2 (Y11)2

    27 U = Uniforme ( ) ;8 i f (U < 0 . 5 ) {9 Z = Y1 ;

    10 } else {11 Z = Y1 ;12 }13 return (Z , exponenc ia l ) ;14 }

    Observaciones:

    C 1,32Para generar una secuencia de normales, se puede utilizar la X como lasiguiente exponencial.

    En promedio se necesitan generar 1,64 exponenciales y calcular 1,32 cuadra-dos.

    9.3. Metodo polar para generar V.A.normales

    Con este metodo se generan dos variables normales independientes.Si X e Y son normales estandar independientes entonces:

    R2 = X2 + Y 2 : tan() =Y

    X

    determinan variables R2 y independientes.

    82

  • f(x, y) =1

    2piexp(

    x2+y2

    2 )

    f(d, ) =1

    2

    1

    2piexp

    d2 : 0 < d

  • 9.4. Generacion de eventos en un proceso de Poisson

    9.4.1. Homogeneo

    Supongamos N(t) es el numero de llegadas en el invervalo de tiempo [0, t]que forma un proceso de Poisson de tasa .

    Entonces, la distribucion de cada N(t) es poisson de tasa t.{Xj}, la sucesion de tiempos entre llegadas, son V.A. independientes, igual-

    mente distribuidas con distribucion exponencial de parametro .

    Xi exp() : i = 1, 2, . . .Sn el tiempo hasta la n-esima llegada es gamma de parametros (n, ).Para generar los primeros n eventos de un Proceso de Poisson homogeneo,

    generando exponenciales: Xi exp() : 1 i nPrimer evento: al tiempo X1

    j-esimo evento: al tiempo X1 +X2 + . . .+Xj para 1 j nPara generar los eventos en las primeras T unidades de tiempo, generamoseventos hasta que j + 1 excede a T .

    1 ProcPoisson (double T) { //Primer metodo2 t = 0 ;3 i = 0 ;4 while ( true ) {5 U = Uni fore ( ) ;6 i f ( t 1

    log(U) > T) {

    7 break8 } else {9 t = t 1

    log(u)

    10 i = i + 1 ;11 S [ i ] = t ;12 }13 }14 }

    i = numero de eventos.

    S[i] = tiempo en el que ocurre el evento i.

    S[1], S[2], . . . esta ordenado en orden creciente

    Supongamos que quiero generar los primeros tiempos de arribo hasta t = T

    La variable N(t) es el numero de eventos hasta el tiempo T , con distribu-cion Poisson T .

    Dado N(T ), la distribucion de los tiempo de arribo es un proceso dePoisson homogeneo de razon es uniforme (0, t).

    Luego, para generar lo eventos hasta el tiempo T .

    84

  • Generar una V.A. Poisson con media T y tomar n = N(T )

    Generar n V.A. uniformes U1, U2, . . . , Un

    Los tiempos de arribo son TU1, TU2, . . . , TUn. Notar que deben ordenarselos tiempos de arribo.

    9.4.2. Proceso de Poisson, No Homogeneo

    N(t), t 0 es un proceso de Poisson no Homogeneo con funcion de intensidad(t), t 0 si:

    N(0) = 0

    Para cada n 1 y cada particion 0 t0 < t1 < . . . < tn. Se tieneque N(t0), N(t1) N(t0), . . . , N(tn) N(tn1) son variables aleatoriasindependientes.

    lmh0

    P (N(t+h)N(t)=1)h = (t)

    lmh0

    P (N(t+h)N(t)2)h = 0

    Proposicion: para cada t 0 y s > 0 se tiene que N(t + s) N(t) es unavariable aleatoria Poisson con media:

    m(t+ s)m(t) =t+st

    (x)dx

    Corolario: Si (t) = (es constante), N(t+s)N(t) es una variable aleatoriaPoisson con media t.

    Poisson Homogeneo y Poisson no Homogeneo

    Supongamos que:

    Existen eventos del tipo A y eventos del tipo B.

    Independientemente de lo que ocurrio antes, si ocurre un evento del tipoA entonces ocurre uno del tipo B con probabilidad p(t).

    N(t) = numero de eventos del tipo A en [0, t].

    M(t) = numero de eventos del tipo B en [0, t].

    Proposicion: Si N(t)t0 es un Proceso de Poisson homogeneo con razon >0 entonces M(t)t0 es un proceso de poisson no homogeneo con funcion deintensidad (t) = p(t) t > 0.

    El proceso M(t) cumple con las condiciones de comenzar en el cero, tenerincrementos independientes y probabilidad nula de observar instantaneamentemas de un evento.

    85

  • Para ver la tasa instantanea de observar un evento.

    P (1 evento del tipo B en [t,t+h]) = P (1 evento y es de tipo B)

    + P (dos o mas eventos y exactamente uno es de tipo B)

    hp(t)

    9.5. Algoritmo de adelgazamiento

    En un proceso de Poisson no homogeneo, con intensidad (t), los incrementosno son estacionarios.

    La intensidad (t) indica la tasa de ocurrencia de los eventos.

    Si (t) entonces (t) = p(t) con p(t) = (t) < 1Podemos considerar p(t) = (t) como la probabilidad de ocurrencia de un

    cierto evento de un proceso de Poisson Homogeneo de razon , y adelgazar elproceso homogeneo para obtener el proceso no homogeneo de intensidad p(t)

    1 Adelgazamiento ( ) {2 // es mas e f i c i e n t e mientras mas cerca este de (t)3 t = 0 ;4 i = 0 ; // numero de eventos5 while ( true ) {6 U = Uniforme ( ) ;7 i f ( t 1

    log(U) > T) {

    8 break ;9 } else {

    10 t = t 1

    log(U) ;11 V = Uniforme ( ) ;

    12 i f (V tj ) {8 i f ( j == k+1){9 break

    10 }11 x = ( x tj + t ) jj+112 t = tj ;13 j = j +1;14 }15 t = t + x ;16 V = Uniforme ( ) ;

    17 i f ( V t ) {

    7 break ;8 } else {9 i = i +1;

    10 S [ i ] =S[i1]+3U

    1U11 }12 }

    10. Seleccion de distribuciones de probabilidad

    Los sistemas reales tienen una fuente de aleatoriedad

    Tipo de sistema Fuente de aleatoriedadTiempos de Procesamiento

    Fabricacion Tiempos de fallaTiempos de reparacion de maquinas

    Tempos de arriboDefensa Errores de lanzamiento

    Tiempos entre llegadas de mensajesComunicaciones Longitudes de mensajes

    Tiempos de embarqueTransporte Tiempos entre arribos

    10.1. Simulacion a partir de los datos

    Para simular un sistema real es necesario:

    Representar cada fuente de aleatoriedad de acuerdo a una distribucion deprobabilidad.

    Elegir adecuadamente la distribucion para no afectar los resultados de lasimulacion.

    Como elegir una distribucion? Como simular un sistema a partir de unconjunto de observaciones?

    Utilizando los datos directamente.

    Realizando un muestreo a partir de la distribucion emprica de los datos.

    Utilizando tecnicas de inferencia estadstica.

    Eleccion de la distribcion teorica.

    89

  • Estimacion de parametros. Tests de bondad de Ajuste. Simulacion a partir de la distribucion teorica.

    Utilizar los datos directamente

    Solo reproduce datos historicos.

    En general es una informacion insuficiente para realizar simulaciones.

    Es util para comparar dos sistemas, para hacer una validacion delmodelo existente con el simulado.

    Distribucion Emprica

    Reproduce datos intermedios (datos continuos).

    Es recomendable si no se pueden ajustar los datos a una distribucionteorica.

    Inferencia estadstica Vs Distribucion emprica

    Las distribuciones empricas pueden tener irregularidades si hay pocosdatos, una distribucion teorica suaviza los datos.

    Puede obtenerse informacion aun fuera del rango de los datos observados.

    Puede ser necesario imponer un determinado tipo de distribucion, por eltipo de modelo que se desea simular.

    No es necesario almacenar datos observados ni las correspondientes prob-abilidades acumuladas.

    Es facil modificar los parametros.

    Puede no existir una distribucion adecuada.

    Generacion de valores extremos no deseados.

    10.2. Distribucion de probabilidad mas utilizada

    10.2.1. Uniforme

    Para cantidades que varan aleatoriamente entre valor a y b que no se conocenmas datos.

    f(x) = 1ba (a,b)(x)

    a: posicion.

    b a: escala.Rango: a < x < b

    Media: a+b2

    Varianza: (ba)2

    12

    90

  • 10.2.2. Exponencial

    Tiempos entre llegadas de clientes a un sistema y que ocurren a una tasaconstante. Tiempos de falla de maquinas.

    10.2.3. Gamma

    f(x) = x1 exp(x/)

    ()

    Forma:

    Escala: .

    Rango: x > 0.

    Media:

    Varianza: 2