8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso...

82
MODELACI ´ ON DE EVENTOS EXTREMOS CON APLICACIONES EN RIESGO. NOTAS DE CLASE. Elaborado por: Dr. Ehyter M. Mart´ ın Gonz´ alez.

Transcript of 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso...

Page 1: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

MODELACION DE EVENTOS EXTREMOS CONAPLICACIONES EN RIESGO.

NOTAS DE CLASE.

Elaborado por: Dr. Ehyter M. Martın Gonzalez.

Page 2: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la
Page 3: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1

Introduccion

El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-caciones en Riesgo, impartido en la Division de Ciencias Naturales y Exactas de la Universidadde Guanajuato, como curso optativo para la Licenciatura en Matematicas, Licenciatura en Compu-tacion Matematica y la Maestrıa en Ciencias con Especialidad en Probabilidad y Estadıstica.

El temario consta de las siguientes unidades:

I. Distribuciones de valores extremos.

II. Dominios de atraccion maximales.

III. Distribuciones generalizadas de extremos y Pareto.

IV. Procesos de riesgo de Levy espectralmente negativos.

V. Aplicaciones: records, periodos de retorno, probabilidades de ruina.

Los objetivos del curso son los siguientes:

1. Presentar las herramientas basicas de la teorıa de valores extremos para sucesiones de varia-bles aleatorias independientes.

2. Caracterizar los dominios de atraccion maximales de las distribuciones univariadas de valo-res extremos

3. Proveer una breve introduccion a los procesos de riesgo de Levy espectralmente negativos yestudiar la aproximacion del proceso clasico de riesgo al proceso Pareto-estable generaliza-do.

4. Estimar probabilidades de ruina de procesos clasicos de riesgo que convergen al procesoPareto-estable generalizado, utilizando herramientas de la teorıa de valores extremos.

5. Aplicar la teorıa de valores extremos en problemas referentes al reaseguro Excess-Of-Loss,estimacion del Value-At-Risk y estimacion de periodos de retorno.

Debido a que se espera que este sea un curso introductorio, no se incluiran demostraciones deresultados que esten mas alla de los requisitos academicos pedidos o que dependan de herramientasque no sean estudiadas durante el curso.

Se pondra especial atencion a la interpretacion de los resultados y la manera de aplicarlos utilizandoconjuntos de datos y paqueterıa en R.

No se hara enfasis en las propiedades de los estimadores de los parametros de las distribucionesgeneralizadas de extremos y Pareto, pero se propondra un estudio mas profundo de dichos estima-dores como parte del proyecto final del curso.

Se requieren las herramientas aprendidas previamente en los cursos Calculo I y II, Introducciona la Computacion, Elementos de Estadıstica y Probabilidad, Probabilidad y Metodos Estadısticos.Tambien es deseable, aunque no indispensable, haber aprobado la asignatura de Teorıa de Riesgo.

Page 4: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2

Criterios de evaluacion

Este curso sera evaluado de la siguiente manera:

1. Habra dos examenes parciales; el primer parcial incluira las unidades 1 y 2, el segundoparcial incluira solamente la unidad 3.

2. Habra al menos una tarea por cada parcial y cada tarea sera entregada de manera individualuna semana antes del parcial correspondiente.

3. Habra un proyecto final que incluira una parte escrita y una presentacion frente al grupo.

4. Los examenes parciales y las tareas correspondientes se calificaran en escala del 0 al 100.

5. Los examenes parciales, las tareas y el proyecto final tendran el siguiente valor respecto a lacalificacion total del curso:

Primer parcial - 15 %,

Segundo parcial - 15 %,

Tareas - 20 %,

Proyecto escrito - 25 %,

Presentacion frente a grupo - 25 %.

En lo referente a la forma de asignar calificaciones, se tienen las siguientes condiciones:

1. Si existe la mınima sospecha de que un estudiante ha copiado al menos un inciso de algunejercicio de alguna tarea de otro estudiante, ambas tareas, la original y la copia, seran califi-cadas automaticamente con cero, sin derecho a reposicion.

2. Si la nota obtenida en algun examen parcial es inferior a 70, la tarea correspondiente a dichoparcial sera calificada automaticamente con cero, sin derecho a reposicion.

3. La nota final se reportara como un numero entero o a lo mas un numero con parte decimaligual a 0.5.

4. Para efectos del punto anterior, la calificacion final obtenida por los estudiantes, que estaraen escala de 0 a 100, se dividira entre 10.

5. Cualquier calificacion final inferior a 7 (incluyendo 6.99) se redondeara hacia abajo (la unicaforma de aprobar es obteniendo al menos un 7 exacto).

6. Cualquier calificacion final mayor o igual a 7 se redondeara hacia abajo si la parte decimales menor a 0.6 y hacia arriba si la parte decimal es al menos 0.6.

Sobre la entrega de tareas

Page 5: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3

1. Las tareas deberan entregarse en hojas en blanco (no rayas, no cuadros) escritas unicamentecon tinta azul y/o negra. No se aceptaran tareas escritas a lapiz, con tinta de color distinto aazul o negro o escritas en hojas cuadriculadas o rayadas.

2. Todos los ejercicios que carezcan de procedimiento seran calificados automaticamente concero puntos.

3. Todos los ejercicios deberan estar redactados de modo que cada paso se explique a detalle.Tambien deberan citarse todos los resultados vistos en clase que formen parte del procedi-miento utilizado en la solucion del ejercicio en cuestion. En caso de omitir alguno de estosdetalles, habra una penalizacion que ira desde 1 punto hasta el valor maximo del ejercicio encuestion.

Sobre el examen final

1. Si la nota final obtenida segun los criterios mencionados anteriormente es de al menos 7, elestudiante podra elegir entre conservar dicha nota o presentar un examen final correspon-diente a todos los temas del curso, de modo que la nota definitiva sera el maximo de la notaoriginal y la nota obtenida en el examen final.

2. Si la nota final obtenida segun los criterios mencionados anteriormente es inferior a 7, elestudiante debera presentar de manera obligatoria un examen final correspondiente a todoslos temas del curso. Dicha nota representara el 100 % de la calificacion final del estudiante.

3. No habra tareas o trabajos extra para evitar el examen final.

4. En cualquiera de los casos mencionados en los puntos 1 y 2, el examen final debera pre-sentarse unicamente en el Departamento de Matematicas de la Universidad de Guanajuato,iniciando a las 14 hrs y terminando (maximo) a las 17 hrs.

Page 6: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4

Page 7: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

Indice general

1. Distribuciones de Valores Extremos 7

1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2. Teorema de Fisher-Tippett . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3. Existencia de las constantes normalizadoras . . . . . . . . . . . . . . . . . . . . . 16

1.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2. Dominios de atraccion maximales 21

2.1. Distribuciones de cola pesada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.2. Caracterizacion de los dominios de atraccion . . . . . . . . . . . . . . . . . . . . 27

2.2.1. Funciones de von Mises . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3. Propiedad de cerradura de los dominios de atraccion . . . . . . . . . . . . . . . . 33

2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3. Excesos sobre un umbral 35

3.1. Funcion media de excesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.2. Estimacion de la funcion media de excesos . . . . . . . . . . . . . . . . . . . . . 39

3.3. Distribuciones generalizadas de extremos y de Pareto . . . . . . . . . . . . . . . . 41

3.4. Estimacion de parametros y seleccion del umbral . . . . . . . . . . . . . . . . . . 44

3.4.1. Metodo de maxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . 44

3.4.2. Metodo grafico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3.4.3. Prueba de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.5. Metodo de excesos sobre un umbral y aplicaciones . . . . . . . . . . . . . . . . . 48

3.5.1. Periodos de retorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.5.2. Cuantiles y VaR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4. Procesos de riesgo de Levy 57

4.1. Procesos de Levy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4.2. Procesos de riesgo de Levy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

5

Page 8: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

6 INDICE GENERAL

4.3. Convergencia debil de procesos de Levy . . . . . . . . . . . . . . . . . . . . . . . 65

4.4. Probabilidades de ruina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

4.5. La distribucion geometrica compuesta . . . . . . . . . . . . . . . . . . . . . . . . 70

4.6. Estimacion de la probabilidad y la severidad de la ruina . . . . . . . . . . . . . . . 73

4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

Page 9: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

Capıtulo 1

Distribuciones de Valores Extremos

Una de las principales herramientas que utilizaremos en este curso es la distribucion del maximonormalizado de un conjunto de variables aleatorias iid. Aunque la Teorıa de Valores Extremosincluye herramientas que consideran el caso sin independencia, ası como distribuciones asociadasal mınimo normalizado, para efectos de este curso nos enfocaremos unicamente en maximos devariables aleatorias iid.

1.1. Preliminares

Comenzaremos por recordar dos conceptos basicos de la teorıa de probabilidad.

Sea (Ω,F ,P) un espacio de probabilidad. Recordemos que X : Ω → R es una variable aleatoriadegenerada en c ∈ R ∪ ∞ si se cumple que P [X = c] = 1. Diremos que una distribucion G esdegenerada, si existe c ∈ R ∪ ∞ tal que G(c) = 1.

Si Xnn∈N es una sucesion variables aleatorias (no necesariamente definidas en el mismo espaciode probabilidad) con distribuciones Fn, n ∈ N, diremos que la sucesion Xn converge en distri-bucion a una variable aleatoria X con distribucion F si se cumple que lım

n→∞Fn(x) = F (x) para

todo x que es punto de continuidad de F . Denotaremos esta convergencia como Xnd→ X .

Ejemplo 1.1 Si Xn ∼ U [0, 2 − 1/n], tenemos que Xnd→ X , donde X ∼ U [0, 2]. Demostremos

esto usando la definicion de convergencia en distribucion:

Primero, la distribucion de X es F (x) = x21[0,2](x) + 1(2,∞)(x). Esta funcion de distribucion es

continua en todo R, vale cero si x < 0, x2

si 0 ≤ x ≤ 2 y 1 si x > 2. Consideramos entonces trescasos:

Caso 1: Si x < 0

lımn→∞

Fn(x) = lımn→∞

0 = 0,

pues Fn(x) = 0 cuando x < 0 para toda n ∈ N.

Caso 2: Si x ≥ 2

lımn→∞

Fn(x) = lımn→∞

1 = 1,

7

Page 10: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

8 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

pues Fn(x) = 1 cuando x > 2− 1/n para toda n ∈ N.

Caso 3: Si 0 ≤ x < 2

lımn→∞

Fn(x) = lımn→∞

x

2− 1/n=x

2,

pues Fn(x) = x2−1/n

cuando 0 ≤ x ≤ 2− 1/n para toda n ∈ N.

Por los casos anteriores, vemos que efectivamente Xnd→ X .

Ejemplo 1.2 SiXn ∼ U0, 1, . . . , n, tenemos que Xnn

d→ X , dondeX ∼ U [0, 1]. Para demostraresto, consideremos lo siguiente:

Fn(x) =

bxc∑j=0

1

n+ 11[0,n](x) + 1(n,∞)(x) =

bxc+ 1

n+ 11[0,n](x) + 1(n,∞)(x),

donde bxc denota la parte entera inferior de x y con la convencion de que0∑j=0

es cero.

Ademas, tenemos que F (x) = x1[0,1](x) + 1(0,∞)(x), por lo que debemos considerar tres casos:

Caso 1: Si x < 0 tenemos

lımn→∞

P[Xn

n≤ x

]= lım

n→∞P [Xn ≤ nx] = lım

n→∞Fn(nx) = 0,

pues nx < 0 y Fn(nx) = 0 cuando x < 0.

Caso 2: Si x > 1 tenemos que nx > n para toda n ∈ N. Esto implica que

lımn→∞

P[Xn

n≤ x

]= lım

n→∞P [Xn ≤ nx] = lım

n→∞Fn(nx) = 1,

pues Fn(nx) = 1 cuando nx > n.

Caso 3: Si 0 ≤ x ≤ 1 tenemos P[Xnn≤ x

]= Fn(nx) = bnxc+1

n+1. Se puede probar que bnxc/n→ x

cuando n→∞, por lo tanto

lımn→∞

P[Xn

n≤ x

]= lım

n→∞

bnxc/n+ 1/n

1 + 1/n= x.

De lo anterior concluimos que Xnn

d→ X , donde X ∼ U [0, 1].

Ejemplo 1.3 Sean X1, . . . , Xn, . . . variables aleatorias iid con distribucion comun F , vamos adenotar por ωF al extremo derecho de esta distribucion, el cual puede ser igual a∞. Por ejemplo,si F es la distribucion uniforme en el intervalo [a, b], entonces ωF = b y si F es la distribucionexponencial, entonces ωF =∞.

Sea Mn = max1≤j≤n

Xj, tenemos entonces lo siguiente:

Page 11: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1.2. TEOREMA DE FISHER-TIPPETT 9

lımn→∞

P [Mn ≤ x] = lımn→∞

(F (x))n =

0 si x < ωF1 si x = ωF

Lo anterior es equivalente a decir que Mnd→ M∞ donde M∞ es una variable aleatoria degene-

rada en ωF .

El resultado del ejemplo anterior no es sorprendente. Sin embargo, existen eventos en el mundoreal en los cuales tal resultado es tan informativo como decir que cierto acontecimiento de interestiene probabilidad 1/2 de ocurrir y probabilidad 1/2 de no ocurrir (es decir: tal resultado no esinformativo).

Consideremos por ejemplo el caso de la ciudad de Guanajuato, que ha padecido en varias ocasionesde inundaciones debidas a lluvias intensas. Si fuera posible ajustar una distribucion de probabilidada los valores de las precipitaciones pluviales correspondientes a estas lluvias, sin duda alguna taldistribucion tendrıa un extremo derecho infinito. Debido al peligro que representan las llamadaslluvias extremas, estarıamos interesados en estudiar las probabilidades de que el maximo de lasprecipitaciones pluviales correspondientes a Guanajuato esten, por ejemplo, por encima de ciertovalor. En otro contexto, nos interesarıa encontrar un valor x tal que, con cierta probabilidad p, laprecipitacion pluvial maxima este por encima de dicho valor.

Todos estos problemas son (apenas algunos) ejemplos de lo que se puede estudiar utilizando lateorıa de valores extremos. Para ello, como vimos en el ejemplo 1.3, trabajar con la distribuciondel maximo de variables aleatorias resulta inconveniente. Por tal motivo, deseamos encontrar cons-tantes normalizadoras an 6= 0 y bn ∈ R tales que Mn−bn

an

d→ X , para alguna variable aleatoria nodegenerada X .

Mas aun, nos interesa tambien determinar condiciones para que tales constantes normalizadorasexistan, ası como estudiar que tipo de distribuciones lımite se obtienen.

1.2. Teorema de Fisher-Tippett

El objetivo principal de esta seccion es demostrar que, cuando existen las constantes normaliza-doras an y bn mencionadas al final de la seccion anterior, se tienen tres y solamente tresdistribuciones lımite posibles para el maximo normalizado de una sucesion de variables aleatoriasiid. Este sorprendente resultado es el Teorema de Fisher-Tippett y sera la herramienta clave parahablar (en el Capıtulo 3) del Teorema de Pickands-Balkema-de Haan. La prueba del Teorema deFisher-Tippett requiere de varios conceptos y resultados previos, por lo que primero presentaremostodos los elementos necesarios para enunciar y demostrar dicho teorema.

Comencemos definiendo las tres distribuciones de valores extremos.

Definicion 1.1 Consideremos las siguientes familias de funciones de distribucion:

φG(x) =

exp −e−(x−µ)/σ, x ∈ R,

µ ∈ R, σ > 0,

φF (x) =

exp −(x−µσ

)−α, x > µ,0 x ≤ µ,

µ ∈ R, α > 0, σ > 0,

Page 12: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

10 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

φW (x) =

exp−(−x−µ

σ

)α, x < µ,

0 x ≥ µ,µ ∈ R, α > 0, σ > 0.

(1.2.1)

Estas tres familias de distribuciones se conocen como las distribuciones de extremos. φG es ladistribucion de extremos tipo I o distribucion Gumbel, φF es la la distribucion de extremos tipo IIo distribucion Frechet y φW es la distribucion de extremos tipo II o distribucion Weibull.

La prueba del Teorema de Fisher-Tippett requerira varios resultados previos, entre ellos el siguien-te resultado conocido como Teorema de Convergencia a Familias o Teorema de Khintchine. Enadelante denotaremos por C(G) al conjunto de puntos de continuidad de una funcion G.

Teorema 1.1 Sea Fn, n ∈ N una sucesion de funciones de distribucion y sea G una funcion dedistribucion no degenerada. Sean an, bn constantes tales que an > 0 para toda n ∈ N y

Fn(anx+ bn)→ G(x), ∀x ∈ C(G). (1.2.2)

Entonces, para cierta distribucion no degenerada G∗ y constantes αn y βn tales que αn > 0,se cumple que

Fn(αnx+ βn)→ G∗(x) ∀x ∈ C(G∗), (1.2.3)

si y solo sia−1n αn → a y a−1

n (βn − bn)→ b, (1.2.4)

para algunas constantes a > 0 y b ∈ R. En este caso se cumple que

G∗(x) = G(ax+ b).

Prueba. Sean α′n = a−1n αn, β′n = a−1

n (βn − bn) y F ′n(x) = Fn(anx + bn). Usando esta notaciontenemos que (1.2.2), (1.2.3) y (1.2.4) se escriben como

F ′n(x)→ G(x), (1.2.5)F ′n(α′nx+ β′n)→ G∗(x), (1.2.6)α′n → a, β′n → b, para algunas a > 0, b ∈ R. (1.2.7)

Si (1.2.5) y (1.2.7) se cumplen, entonces (1.2.6) se cumple con G∗(x) = G(ax+ b). Demostremosesto: Sean ε > 0 arbitrario y x ∈ C(G(a · +b)) ∩ (0,∞), entonces para n suficientemente grandese cumple que α′n ≤ a+ ε, β′n ≤ b+ ε y

F ′n(α′nx+ β′n) ≤ F ′n((a+ ε)x+ (b+ ε)) ≤ F ′n(z),

para todo z ∈ C(G) ∩ [(a+ ε)x+ (b+ ε),∞). Si tomamos lımites superiores en la desigualdadanterior, obtenemos

lım supn→∞

F ′n(α′nx+ β′n) ≤ lım supn→∞

F ′n(z) = G(z). (1.2.8)

Como (1.2.8) es valida para cualquier ε > 0 y G es continua por la derecha, obtenemos

lım supn→∞

F ′n(α′nx+ β′n) ≤ ınfG(z) : z ∈ C(G)∩ [(a+ ε)x+ (b+ ε),∞) = G(ax+ b), (1.2.9)

Page 13: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1.2. TEOREMA DE FISHER-TIPPETT 11

para todo x ∈ C(G(a ·+b)) ∩ (0,∞).

Analogamente se prueba que lım infn→∞

F ′n(α′nx + β′n) ≥ G(ax + b), para todo x ∈ C(G(a · +b)) ∩(0,∞), que en conjunto con (1.2.9) implica que

lımn→∞

F ′n(α′nx+ β′n) = G(ax+ b), (1.2.10)

para todo x ∈ C(G(a ·+b)) ∩ (0,∞). Analogamente se prueba el caso para x ≤ 0.

Solamente resta probar que si (1.2.5) y (1.2.6) se cumplen, entonces tambien se cumple (1.2.7).

Para ello, como G∗ es no degenerada (por hipotesis), existe x0 tal que 0 < G∗(x0) < 1. Podemossuponer, sin perdida de generalidad, que x0 ∈ C(G∗) (de otro modo, dado que los puntos dediscontinuidad de G∗ son a lo mas numerables, podemos encontrar un x1 > x0 que sea punto decontinuidad).

Afirmamos que las sucesiones α′n, n ∈ N y β′n, b ∈ N son acotadas y demostramos la afir-macion procediendo por contradiccion. Si alguna de estas dos sucesiones no es acotada, entoncesexiste una sucesion nk tal que α′nkx0 + β′nk → ±∞, por lo tanto, para cualquier ε > 0, existe ksuficientemente grande tal que

F ′nk(α′nkx0 + β′nk

)≥ 1− ε (si α′nkx0 + β′nk →∞),

o F ′nk(α′nkx0 + β′nk

)≤ ε (si α′nkx0 + β′nk → −∞).

De lo anterior, tomando lımite inferior en el primer caso y lımite superior en el segundo, obtenemosque el lımite de F ′nk

(α′nkx0 + β′nk

)existe y es 1 (en el primer caso) o 0 (en el segundo caso). Esto

contradice (1.2.6), ya que deberıa cumplirse (en ambos casos) que el lımite es G∗(x0), pero x0 setomo de modo que 0 < G∗(x0) < 1.

Ahora, utilizando que αn y βn son acotadas y el Teorema de Bolzano-Weiestrass, tenemosuna sucesion nk tal que α′nk → a, para alguna a ≥ 0 (pues las α′n son positivas). La subsucesionβnk es tambien acotada, por lo que nuevamente existe una sucesion nkl tal que β′nkl → b, paraalgun real b. Como α′nk → a, se cumple tambien que α′nkl → a y con esto obtenemos la sucesionnkl tal que α′nkl → a y β′nkl → b. Procediendo como en la prueba de (1.2.10) obtenemos que

F ′nkl

(α′nkl

x+ β′nkl

)→ G(ax+ b), ∀ x ∈ C(G(a ·+b). (1.2.11)

Afirmamos que el lımite a es positivo. Procediendo por contradiccion, si a = 0 entonces (1.2.11)implica que F ′nkl

(α′nkl

x+ β′nkl

)→ G(b) ∈ [0, 1], lo que contradice que (1.2.6) se cumple para

una distribucion G∗ no degenerada. Por lo tanto, a debe ser positivo.

Si ahora suponemos que existe otra subsucesion nm tal que α′nm → a′ y β′nm → b′, procedemoscomo en la prueba de (1.2.10) y obtenemos F ′nm

(α′nmx+ β′nm

)→ G(a′x + b′). Utilizando este

ultimo lımite en conjunto con (1.2.10) y (1.2.6) obtenemos G(a′x + b′) = G∗(x) = G(ax + b).Esta igualdad implica que a′ = a y b′ = b (ver Ejercicio 2). En conclusion tenemos que todaslas subsucesiones convergentes de las sucesiones acotadas α′n y β′n convergen a las mismasconstantes a > 0 y b, respectivamente. Se sigue entonces que α′n → a > 0 y β′n → b.

La siguiente definicion es tambien pieza clave en la prueba del Teorema de Fisher-Tippett.

Page 14: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

12 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

Definicion 1.2 Sea G una funcion de distribucion no degenerada. Diremos que G es una distribu-cion max-estable si, para cada n ∈ N, existen constantes an > 0 y bn tales que Gn(anx + bn) =G(x) (o equivalentemente G(anx+ bn) = G1/n(x)).

La clase de las distribuciones max-estables es no vacıa: por ejemplo, consideremos la distribucionFrechet con µ = 0 y σ = 1. En este caso tenemos

φF (x) = e−x−α

=

(e−(

x

n−1/α

)−α)n= φnF

( x

n−1/α

),

por lo que tomando an = n−1/α y bn = 0 obtenemos φF (x) = φnF (anx+ bn).

Este ejemplo es parte de un resultado mas general que veremos mas adelante.

A continuacion presentamos otra caracterizacion de las distribuciones max-estables que nos serade utilidad.

Teorema 1.2

1. Una distribucion no degenerada G es max-estable si y solo si existen una sucesion de fun-ciones de distribucion Fn y constantes an > 0 y bn tales que

lımn→∞

Fn(a−1nkx+ bnk) = G1/k(x), ∀x ∈ C(G), (1.2.12)

para cada k ∈ N.

2. Si G es no degenerada, el conjunto de funciones de distribucion

D(G) =F : ∃an > 0, bn t.q. lım

n→∞F n(anx+ b) = G(x), ∀x ∈ C(G)

,

es no vacıo si y solo si G es max estable. En particular G ∈ D(G) y, por lo tanto, elconjunto de distribuciones no degeneradas que aparecen como lımites de la forma (1.2.12),para sucesiones de variables aleatorias iid, coincide con el conjunto de las distribucionesmax-estables.

Prueba.

1. Por (1.2.12) con k = 1, a∗n = a−1n1 y b∗n = bn1 tenemos lım

n→∞Fn(a∗nx + b∗n) = G(x). Ahora,

para k > 1, (1.2.12) implica que lımn→∞

Fn(αnkx + βnk) = G1/k(x) con αnk = a−1nk y βnk =

b−1nk . Por el Teorema 1.1, esta segunda convergencia es equivalente a que existan αk y βk tales

que (a∗n)−1α′nk → αk y (a∗n)−1(b∗n − β′nk) → βk para algunas αk > 0 y βk y, en este caso,se cumple que G1/k(x) = G(αkx + βk). Esta ultima igualdad implica justamente que G esmax-estable.

Ahora, si G es max-estable, tenemos que existen ank > 0 y bnk tales que Gnk(ankx+ bnk) =G(x). En este caso Gn(ankx + bnk) = G1/k(x), por lo que tomando Fn = Gn obtenemosque (1.2.12) se cumple.

Page 15: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1.2. TEOREMA DE FISHER-TIPPETT 13

2. Si G es no degenerada y max-estable, Gn(anx+ bn) = G(x) para ciertas an > 0 y bn. Por lotanto se cumple que G ∈ D(G). Si D(G) es no vacıo, existe F tal que lım

n→∞F n(anx+ bn) =

G(x) para ciertas an > 0 y bn. En particular, esto implica que lımn→∞

F n(ankx + bnk) =

G1/k(x), por lo que (1.2.12) se cumple con Fn = F n. Utilizando esto y el inciso anterior deeste teorema, obtenemos que G es max-estable.

El siguiente corolario es consecuencia del teorema anterior y sera de utilidad en la prueba delresultado principal de esta seccion. La demostracion se deja como ejercicio.

Corolario 1.1 Sea G una distribucion max-estable. Existen funciones reales a(s) > 0 y b(s),definidas para toda s > 0, tales que

Gs(a(s)x+ b(s)) = G(x), ∀x ∈ R, s > 0. (1.2.13)

El ultimo ingrediente para la prueba del Teorema de Fisher-Tippett es nuestro siguiente teorema,cuya prueba requiere del concepto de inversa generalizada de una funcion continua por la derecha.

Definicion 1.3 Sea ψ : R → R una funcion continua por la derecha. Definimos su inversa gene-ralizada como

ψ−1(y) = ınfx : ψ(x) ≥ y, y ∈ ( ınfx∈R

ψ(x), supx∈R

ψ(x)).

Teorema 1.3 Todas las distribuciones max-estables son distribuciones de extremos (Definicion1.1) y todas las distribuciones de extremos son max-estables.

Prueba. SeaG una distribucion max-estable. Demostraremos queG es alguna de las distribucionesde extremos.

Por el Corolario 1.1, para x tal que 0 < G(x) < 1, tenemos −slogG(a(s)x+ b(s)) = −logG(x) y

−log [−logG(a(s)x+ b(s))]− log(s) = −log [−logG(x)] .

La propiedad de max-estabilidad con n = 2 implica que G2(ax + b) = G(x) y G2(z) = G(z−ba

)para algunas a > 0 y b ∈ R. Esto implica que G no puede saltar en x− = ınfx : G(x) > 0 o enx+ = supx : G(x) < 1 si estos son finitos. Para ver esto, supongamos tres casos:

1. Si ax−+ b = x−, entonces como G2(ax−+ b) = G(x−) y G2(ax−+ b) = G2(x−), se sigue queG(x−) ∈ 0, 1, por lo que G(x−) = 0. Usando la continuidad por la derecha y lım sup

x→x−−G(x) ≤

G(x−) = 0 se obtiene que no hay saltos en x−.

2. Si ax−+b < x−, entoncesG(ax−+b) = 0 y comoG2(ax−+b) = G(x−), se sigue nuevamentela continuidad en x−.

3. Si ax− + b > x−, entonces x− >x−−ba

y G(x−−ba

) = 0. Pero G2(ax + b) = G(x) implica queG2(x−) = G(x−−b

a), por lo tanto G(x−) = 0 y el resultado se sigue.

Page 16: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

14 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

De lo anterior tenemos que la funcion ψ(x) = −log(−logG(x)) (que es continua por la derecha)satisface las igualdades:

ınfxψ(x) = −∞ y sup

xψ(x) =∞.

Se sigue que ψ tiene una inversa generalizada, dada por U(y), definida para y ∈ R. Dado queψ(a(s)x+ b(s))− log(s) = ψ(x), utilizando el Ejercicio 1a obtenemos

U(y + log(s))− b(s)a(s)

= U(y),U(log(s))− b(s)

a(s)= U(0).

Se sigue que

U(y)− U(0) =U(y + log(s))− U(log(s))

a(s)ssi α(z)V (y) = V (y + z)− V (z), (1.2.14)

donde z = log(s), α(z) = a(ez) y V (y) = U(y) − U(0). Intercambiando los papeles de z y y en(1.2.14) obtenemos

α(y)V (z) = V (y + z)− V (y). (1.2.15)

Restando (1.2.14) y (1.2.15) obtenemos

α(z)V (y)− α(y)V (z) = V (y)− V (z) ssi V (z)(1− α(y)) = V (y)(1− α(z)). (1.2.16)

Ahora consideramos dos casos:

Caso 1.- Si α(z) = 1 para todo z, de (1.2.15) obtenemos

V (y + z) = V (y) + V (z).

Lo anterior es la ecuacion de Cauchy, la cual tiene como unica solucion V (y) = ρy para algunρ > 0 (ya que V es no decreciente y no es constante), por lo que

V (y) = U(y)− U(0) = ρy ssi x = U (ψ(x)) = ρψ(x) + v, v = U(0),

utilizando que U(y) es continua junto con el Ejercicio 1b. De lo anterior obtenemos:

−log [−log(G(x))] = ψ(x) =x− vρ

ssi G(x) = exp−e−x−vρ , ∀x t.q. 0 < G(x) < 1.

ComoG no puede saltar en algun extremo finito (derecho o izquierdo), tenemos que 0 < G(x) < 1

para todo x ∈ R, por lo tanto G(x) = exp−e−x−vρ para todo x ∈ R.

Caso 2.- Si α(z) 6= 1 para algun z, de (1.2.16) obtenemos

V (y) =V (z)

1− α(z)(1− α(y)) := c(1− α(y)).

Afirmamos que c 6= 0. De otro modo, V (z) deberıa ser cero y obtendrıamos V (y) = 0 para today ∈ R, o equivalentemente U(y) = U(0). Esta ultima igualdad implica que ψ(x) = ψ [U(ψ(x))] =ψ [U(0)] := c∗ ssi G(x) = exp−e−c∗, que es una distribucion degenerada (esto contradice queG es max-estable).

Page 17: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1.2. TEOREMA DE FISHER-TIPPETT 15

Ahora, utilizando (1.2.15) obtenemos

c(1− α(y + z))− c(1− α(z)) = c(1− α(y))α(z)

ssi α(z)− α(y + z) = α(z)− α(y)α(z)

ssi α(y + z) = α(y)α(z). (1.2.17)

Como V (y) = c(1 − α(y)) y V es monotona, obtenemos que α(z) es monotona. La ecuacion(1.2.17) es conocida como ecuacion de Hamel y se sabe que la unica funcion no constante, nonegativa y monotona que satisface dicha ecuacion es α(y) = eρy para ρ 6= 0.

De esto se sigue que U(y) = c(1 − eρy) + v, con v = U(0). Como U es no decreciente, solo sonposibles dos casos: c > 0, ρ < 0 y c < 0, ρ > 0. Por lo tanto

x = U(ψ(x)) = c(1− eρψ(x)

)+ v ssi x = c

[1− (−log(G(x)))−ρ

]+ v

ssi G(x) = exp

−(−x− (c+ v)

c

)−1/ρ. (1.2.18)

Si c < 0 y ρ > 0, (1.2.18) es equivalente a G(x) = exp−(x−µσ

)−α con µ = c+ v, σ = −c > 0

y α = 1/ρ > 0.

Si c > 0 y ρ < 0, (1.2.18) es equivalente a G(x) = exp−(−x−µ

σ

)α con µ = c + v, σ = c > 0y α = −1/ρ > 0.

Lo unico que resta probar es que todas las distribuciones de extremos son max-estables. Esto sedeja como ejercicio.

Con todos los resultados y definiciones presentados hasta ahora, finalmente podemos enunciar ydemostrar (casi trivialmente) el resultado principal de esta seccion.

Teorema 1.4 (Teorema de Fisher-Tippett). Sea Xn, n ∈ N una sucesion de variables aleatoriasiid y sea Mn = max

1≤j≤nXj. Supongamos que existen constantes an > 0 y bn tales que

P[Mn − bnan

≤ x

]→ G(x), n→∞, (1.2.19)

donde G es una distribucion no degenerada. Entonces G es una de las distribuciones de extremosdadas en la Definicion 1.1. Recıprocamente, cualquier distribucion de extremos puede obtenersecomo un lımite del tipo (1.2.19).

Prueba. La relacion (1.2.19) es equivalente a lımn→∞

F n(anx + bn) = G(x), para G no degenerada

y x ∈ C(G). En particular se cumple lımn→∞

F nk(ankx + bnk) = G(x) con k ∈ N fijo, por lo que elTeorema 1.2 a) implica que G es max-estable. Luego, por el Teorema 1.3 tenemos que G es una delas distribuciones de valores extremos.

Recıprocamente, si G es una distribucion de valores extremos, nuevamente por el Teorema 1.3 ellaes max-estable. Por el Teorema 1.2 b), el conjunto de las distribuciones G que se obtienen comolımites de la forma (1.2.19) coincide con el conjunto de las distribuciones max-estables, por lo queel resultado se sigue.

Page 18: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

16 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

1.3. Existencia de las constantes normalizadoras

Como ya hemos visto, el sorprendente Teorema de Fisher-Tippett afirma que, cuando el maximode una sucesion de variables iid puede ser normalizado, este solo puede converger en distribuciona una variable aleatoria cuya distribucion es alguna de las distribuciones de extremos.

Sin embargo, el teorema supone que efectivamente existen las constantes normalizadoras an > 0 ybn, pero no proporciona informacion sobre en que casos tales constantes existen. Este sera el temaprincipal de esta seccion.

Para estudiar la existencia de estas constantes, nos interesa estudiar el comportamiento lımite deF n(anx+bn) = P [Mn ≤ anx+ bn], o equivalentemente, nos interesan probabilidades de la formaP [Mn ≤ un].

El siguiente resultado proporciona un primer criterio sobre la convergencia de P [Mn ≤ un].

Proposicion 1.1 (Aproximacion Poisson). Sea F una funcion de distribucion. Sea τ ∈ [0,∞] ysea unn∈N una sucesion de numeros reales. Las siguentes convergencias son equivalentes:

lımn→∞

nF (un) = τ, (1.3.20)

lımn→∞

P [Mn ≤ un] = e−τ . (1.3.21)

Prueba. Consideremos el caso τ < ∞. Supongamos que (1.3.20) se cumple, entonces podemosescribir a nF (un) como nF (un) = τ + o(1) donde lım

n→∞o(1) = 0. Por lo tanto:

P [Mn ≤ un] = F n(un) =(1− F (un)

)n=

(1− τ + o(1)

n

)n=

(1− τ

n+ o

(1

n

))n.

Como el lado derecho de las igualdades anteriores tiende a e−τ cuando n → ∞, el resultado seobtiene tomando lımites.

Supongamos ahora que (1.3.21) se cumple. En este caso, afirmamos que lımn→∞

F (un) = 1.

Probemos esto procediendo por contradiccion: si no se cumple que lımn→∞

F (un) = 1, entonces

existen ε > 0 y una sucesion nkk∈N tales que |F (unk)−1| = 1−F (unk) > ε, o equivalentementeF (unk) < 1− ε. Notese que podemos suponer ε < 1.

Si elevamos ambos lados de la desigualdad anterior a la nk, obtenemos que lım supk→∞

F nk(unk) ≤

lım supk→∞

(1− ε)nk = 0, por lo que lımk→∞

P [Mnk ≤ unk ] = 0. Esto contradice (1.3.21).

Ahora tomemos logaritmos en (1.3.21). Esto implica que

lımn→∞

[−nln

(1− F (un)

)]= τ. (1.3.22)

Como lımn→∞

F (un) = 1 es equivalente a lımn→∞

F (un) = 0, utilizando lımx→0

−ln(1−x)x

= 1 con x =

F (un), obtenemos

lımn→∞

F (un)

−ln(1− F (un)

) = 1. (1.3.23)

Page 19: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1.3. EXISTENCIA DE LAS CONSTANTES NORMALIZADORAS 17

Como nF (un) es igual al producto de los terminos de las sucesiones dadas en (1.3.22) y (1.3.23),las cuales convergen a lımites finitos, obtenemos el resultado deseado.

Supongamos ahora que τ = ∞ y que (1.3.20) se cumple (con τ = ∞), pero (1.3.21) no secumple. Notese que (1.3.21), cuando τ = ∞, es equivalente a lım

n→∞P [Mn ≤ un] = 0. Si esto no

se cumple, dado que P [Mn ≤ un] ≥ 0 para todo n, tenemos que existe una subsucesion nk talque lım

k→∞P [Mnk ≤ unk ] = a, para algun a ∈ (0, 1] (esto ultimo debido a que P [Mn ≤ un] es una

probabilidad).

Tomamos τ0 = −ln(a) < ∞ y obtenemos entonces que lımk→∞

P [Mnk ≤ unk ] = e−τ0 . Luego, por

el resultado para el caso con τ finito, obtenemos que lımk→∞

nF (unk) = τ0 < ∞, lo que contradicela hipotesis de que (1.3.20) se cumple con τ =∞.

De manera completamente analoga se prueba la segunda implicacion.

Corolario 1.2 Supongamos que F es una funcion de distribucion con ωF < ∞ y F (ωF ) :=F (ωF )− F (ωF−) > 0 (F tiene un salto en su extremo derecho).

Entonces, para cualquier sucesion un tal que lımn→∞

P [Mn ≤ un] = ρ, se cumple que ρ = 0 oρ = 1.

Prueba. Como ρ ∈ [0, 1], podemos escribir ρ = e−τ para algun τ ∈ [0,∞]. Si lımn→∞

P [Mn ≤ un] =

ρ = e−τ , por la Proposicion 1.1 obtenemos lımn→∞

nF (un) = τ .

Supongamos ahora que un ≥ ωF para n a partir de cierto N ∈ N. En este caso F (un) = 0 paratodo n ≥ N y por lo tanto lım

n→∞nF (un) = 0, lo que implica que ρ = 1.

Supongamos ahora que para toda N ∈ N existe n ≥ N tal que un < ωF (es decir: unk < ωFpara cierta subsucesion nk). En este caso, usando que F (unk) ≥ F (ωF ) > 0 (donde la ultimadesigualdad se sigue por hipotesis) tenemos que existe un M ∈ N (independiente de k) tal queF (unk) >

1M

.

Se sigue entonces que lım infk→∞

nkF (unk) ≥ lım infk→∞

nkM

=∞. Como ya probamos que nF (un)→ τ ,

cualquier subsucesion de nF (un), incluyendo nkF (unk), converge a τ , por lo que concluimosque τ =∞ y por lo tanto ρ = 0.

Ejemplo 1.4 Sea F la distribucion uniforme en 0, 1, 2, . . . ,M, con M fijo. F tiene un salto ensu extremo derecho ωF = M .

Por el Corolario 1.2, no existen constantes normalizadoras tales que el maximo normalizado deuna sucesion de variables aleatorias iid, con distribucion F , converja a una variable aleatoria nodegenerada.

A continuacion veremos el ultimo resultado referente a cuando es posible encontrar las constantesnormalizadoras para la convergencia del maximo a una distribucion no degenerada. La demostra-cion, aunque no es muy complicada, es meramente tecnica, ası que no la presentaremos.

Page 20: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

18 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

Teorema 1.5 Sean X1, X2, . . . variables aleatorias iid con distribucion comun F . Entonces, si0 < τ < ∞, existe una sucesion un tal que (1.3.20) se cumple si y solo si lım

x→ωF

F (x)

F (x−)= 1,

donde F (x−) = lımy→x−

F (y).

Ejemplo 1.5 Supongamos que F es la distribucion Poisson de parametro λ > 0. En este caso

F (x−) =∞∑n=x

e−λλn

n!y

F (x)

F (x−)=

∞∑n=x+1

e−λλn

n!

∞∑n=x

e−λλn

n!

= 1−e−λλx

x!∞∑n=x

e−λλn

n!

= 1− 1∞∑n=x

x!λn−x

n!

= 1− 1∞∑n=0

x!λn

(n+x)!

= 1− 1∞∑n=0

λn∏nj=1(x+j)

≤ 1− 1∞∑n=0

(λx

)n = 1− 11

1−λ/x=λ

x, x > λ. (1.3.24)

Se sigue que lımx→ωF

F (x)

F (x−)= 0, por lo que no existen constantes normalizadoras tales que (1.3.20)

se cumpla para 0 < τ <∞.

1.4. Ejercicios

1. Sea ψ : R→ R una funcion continua por la derecha. Demuestre lo siguiente:

a) Si a, b, c son constantes yH(x) = ψ(ax+b)−c, entoncesH−1(y) = a−1 [ψ−1(y + c)− b].b) Si ψ−1 es continua, entonces ψ−1(ψ(x)) = x.

c) Si G es una funcion de distribucion no degenerada, existen y1 y y2 tales que G−1(y1) <G−1(y2) estan bien definidos (y son finitos).

2. Sean G una funcion de distribucion no degenerada, a, α > 0, b y β constantes reales talesque G(αx+ β) = G(ax+ b) para todo x. Demuestre que a = α y b = β.

3. Demuestre que las distribuciones de extremos dadas en la Definicion 1.1 son, en efecto,funciones de distribucion y que todas ellas son max-estables.

4. Sea G una distribucion max-estable. Demuestre que existen funciones reales a(s) > 0 yb(s), definidas para toda s > 0, tales que

Gs(a(s)x+ b(s)) = G(x), ∀x ∈ R, s > 0.

Page 21: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

1.4. EJERCICIOS 19

5. Demuestre que, en el caso de la distribucion Geometrica(p), 0 < p < 1, no existen constan-tes normalizadoras tales que el maximo de n variables aleatorias iid con esta distribucion,converja en distribucion a una variable aleatoria no degenerada.

6. Demuestre que, en el caso de la distribucion Binomial(n, p), 0 < p < 1, n ∈ N, no exis-ten constantes normalizadoras tales que el maximo de n variables aleatorias iid con estadistribucion, converja en distribucion a una variable aleatoria no degenerada.

7. Demuestre que el maximo normalizado de una sucesion de variables aleatorias iid con dis-tribucion N(µ, σ2) converge en distribucion a una variable aleatoria Gumbel. Realice estoexhibiendo explıcitamente las constantes normalizadoras.

8. Demuestre que el maximo normalizado de una sucesion de variables aleatorias iid con dis-tribucion U(a, b) converge en distribucion a una variable aleatoria Weibull. Realice esto ex-hibiendo explıcitamente las constantes normalizadoras.

9. Demuestre que el maximo normalizado de una sucesion de variables aleatorias iid con dis-tribucion Pareto, cuya cola esta dada por F (x) =

(a

a+x

)α converge en distribucion a unavariable aleatoria Frechet. Realice esto exhibiendo explıcitamente las constantes normaliza-doras.

Page 22: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

20 CAPITULO 1. DISTRIBUCIONES DE VALORES EXTREMOS

Page 23: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

Capıtulo 2

Dominios de atraccion maximales

2.1. Distribuciones de cola pesada

En esta seccion se definiran las clases de funciones de distribucion de cola pesada, cola larga,subexponenciales y colas de variacion regular. Los resultados en esta seccion estan enfocados ademostrar las contenciones que satisfacen estas cuatro clases de distribuciones.

Vamos a considerar distribuciones asociadas a variables aleatorias no negativas. Es decir, aquellasdistribuciones F tales que F (0) = 0. Sin embargo, esto se hara solo por simplicidad y debido aque las aplicaciones en riesgo que veremos en las unidades siguientes, consideran unicamente estetipo de distribuciones.

Sin embargo, los conceptos que se definiran son tambien validos para distribuciones asociadas avariables aleatorias con valores en toda la recta real.

Definicion 2.1 Sea F una funcion de distribucion. Diremos que F es una distribucion de colaligera si existen constantes a, b > 0 tales que 1 − F (x) := F (x) ≤ ae−bx para toda x > 0. Encaso contrario, diremos que F es una distribucion de cola pesada.

Ejemplo 2.1

1. La distribucion exp(λ) es de la cola ligera, pues F (x) = e−λx ≤ ae−bx para cualesquieraa ≥ 1 y b ≤ λ.

2. La distribucion Pareto, con cola F (x) =(

bb+x

)a, para x > 0, a, b > 0, es de cola pesada.Supongamos lo contrario; es decir, supongamos que existen constantes a0, b0 > 0 tales que(

b

b+ x

)a≤ a0e

−b0x, ∀ x > 0,

entonceseb0x

(b+ x)a≤ a0

ba, ∀ x > 0. (2.1.1)

Aplicando la regla de L’Hopital dae veces, obtenemos que lımx→∞

eb0x

(b+x)a=∞, pero si tomamos

lımites en (2.1.1), obtenemos que lımx→∞

eb0x

(b+x)aes acotado, lo cual es una contradiccion.

21

Page 24: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

22 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

Si F es una funcion de distribucion, denotaremos por mF a su funcion generadora de momentos.

Es decir: mF (r) =∞∫−∞

erxF (dx)

El siguiente resultado presenta otra caracterizacion de las distribuciones de cola pesada.

Proposicion 2.1 Sea F una funcion de distribucion. F es de cola pesada si y solo si mF (r) =∞,para toda r > 0.

Prueba. Supongamos F de cola pesada y que existe r > 0 tal que mF (r) <∞, entonces

mF (r) =

∫ x

0

eryF (dy) +

∞∫x

eryF (dy) ≥∞∫x

eryF (dy) ≥ erxF (x).

Lo anterior implica que F (x) ≤ mF (r)e−rx para toda x > 0, lo que contradice que F es de colapesada.

Supongamos ahora mF (r) =∞ para toda r > 0 y F de cola ligera. Notemos primero que

mF (r) =

∞∫0

erxF (dx) =

∞∫0

x∫0

rerydy + 1

F (dx)

= r

∞∫0

ery

∞∫y

F (dx)

dy + 1 = r

∞∫0

eryF (y)dy + 1.

Como suponemos F de cola ligera, existen a, b > 0 tales que F (x) ≤ ae−bx para toda x > 0. Seaε < b y tomemos r0 = b− ε, entonces e(b−ε)xF (x) ≤ ae−εx, por lo tanto

mF (r0) ≤ ar0

∞∫0

e−εydy + 1 =ar0

ε+ 1 <∞.

Esto contradice la hipotesis de que mF (r) =∞ para toda r > 0, por lo tanto F es de cola pesada.

Corolario 2.1 Sea F es una funcion de distribucion. Si lımx→∞

erxF (x) = ∞ para toda r > 0,entonces F es de cola pesada.

Proposicion 2.2 Sea αF = − lım supx→∞

1xln(F (x)

). Si αF = 0, entonces F es de cola pesada.

Denotaremos porH el conjunto de todas las distribuciones de cola pesada.

Entre las distribuciones de cola pesada, la clase de distribuciones subexponenciales ha sido am-pliamente estudiada debido a sus aplicaciones (por ejemplo en la modelacion de los montos de losreclamos de una companıa de seguros).

Page 25: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2.1. DISTRIBUCIONES DE COLA PESADA 23

Definicion 2.2 Sea F una funcion de distribucion tal que F (0) = 0. Definimos F ∗ F (x) =x∫0

F (x− y)F (dy).

F ∗ F es una funcion de distribucion.

Definicion 2.3 Diremos queF tal queF (0) = 0 es una distribucion subexponencial si lımx→∞

F∗F (x)

F (x)=

2.

Proposicion 2.3 Sea F una distribucion tal que F (0) = 0. Si F es subexponencial, entonces

1. lımx→∞

F ∗n(x)

F (x)= n,

2. lımx→∞

erxF (x) =∞ para toda r > 0.

Es claro que el recıproco de la Proposicion 2.3 tambien es valido. Es decir, una distribucion F essubexponencial si y solo si lım

x→∞F ∗n(x)

F (x)= n.

Denotaremos por S al conjunto de todas las distribuciones subexponenciales.

Las distribuciones subexponenciales forman parte del conjunto de las distribuciones de cola larga.

Definicion 2.4 Sea F una funcion de distribucion. Diremos que F es de cola larga si para today ∈ R se cumple que lım

x→∞F (x−y)

F (x)= 1.

Denotaremos por L al conjunto de todas las distribuciones de cola larga.

La convergencia anterior es uniforme en conjuntos y-compactos.

Proposicion 2.4 Sea F ∈ L. Se cumple que F ∈ H.

Prueba. Como F es de cola larga, para y ∈ [0, 1] fija se cumple que

lımx→∞

ln

[F (x− y)

F (x)

]= lım

x→∞

(ln[F (x− y)

]− ln

[F (x)

])= 0.

Definimos M(x) = − ln[F (x)

]y obtenemos entonces que lım

x→∞[M(x)−M(x− y)] = 0. Por lo

tanto, tomando y = 1 tenemos que para toda ε > 0 existe un x0 tal que M(x) < M(x − 1) + εpara toda x ≥ x0.

Tomamos x ∈ (x0+n, x0+n+1). En este caso se cumple que x−j > x0 para todo j = 1, 2, . . . , n,por lo que procediendo iterativamente obtenemos M(x) < M(x − n) + nε o M(x) < M(x′) +(x− x′)ε para todo x′ ∈ (x0, x0 + 1).

Como M(x) es no decreciente, se sigue que

M(x)

x≤

supx0≤x′≤x0+1

M(x′)

x+

(x− x0)ε

x,

Page 26: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

24 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

y por lo tanto lım supx→∞

M(x)x≤ ε y como ε es arbitraria, obtenemos que lım sup

x→∞

M(x)x

= 0. El

resultado se sigue de la Proposicion 2.2.

La siguiente definicion sera fuertemente utilizada en las aplicaciones que se presentaran en laUnidad V.

Definicion 2.5 Sean F y G dos funciones de distribucion. Diremos que las colas de F y G sonasintoticamente proporcionales si ωF = ωG y lım

x→∞F (x)

G(x)= c, para c 6= 0. Si c = 1 diremos que las

colas de F y G son asintoticamente equivalentes.

En cualquiera de estos casos escribremos F (x) ≈ G(x), cuando x→∞.

En el caso c = 0 escribiremos F (x) = o(G(x)

).

Ejemplo 2.2 Si F (x) = e−λx para λ > 0 y G(x) =(

bb+x

)a con a, b > 0, tenemos que F (x) =

o(G(x)

).

Si H(x) =(

cc+x

)a con c > 0, entonces

lımx→∞

G(x)

H(x)= (b/c)a lım

x→∞

(c+ x

b+ x

)a= (b/c)a,

por lo que las colas de G y H son asintoticamente proporcionales.

La siguiente clase de distribuciones de cola pesada que nos interesa es la clase RVα, misma quedefinimos a continuacion.

Definicion 2.6 Sea L : (0,∞) → (0,∞). Diremos que L es una funcion de variacion regular eninfinito, con ındice α 6= 0 si lım

x→∞L(xy)L(x)

= yα, para toda y > 0. Si α = 0, diremos que L es devariacion lenta en infinito.

Si F es una funcion de distribucion tal que F (x) ≈ L(x)x−α, donde L es una funcion de variacionlenta en infinito y α > 0, diremos que la cola de F es (asintoticamente) de variacion regular eninfinito, con ındice α.

Denotaremos por RVa al conjunto de todas las distribuciones con colas de variacion regular conındice a < 0.

Ejemplo 2.3

1. Si L(x) = ln(x), tenemos para y > 0:

lımx→∞

ln(xy)

ln(x)= lım

x→∞

(1 +

ln(y)

ln(x)

)= 1,

por lo tanto L es de variacion lenta en infinito.

Page 27: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2.1. DISTRIBUCIONES DE COLA PESADA 25

2. Si consideramos la distribucion Pareto con F (x) =(

θθ+x

)α, x > 0, tenemos que F (x) =(

θθ+x

)α=(θxθ+x

)αx−α.

Por otro lado:

lımx→∞

(θxyθ+xy

)α(θxθ+x

)α = lımx→∞

(θy

θ/x+y

)α(

θθ/x+1

)α = 1,

lo que implica que(θxθ+x

)α es de variacion lenta. Luego, por definicion, la cola de la distri-bucion Pareto es de variacion regular (de hecho, la cola de esta distribucion es exactamentede variacion regular).

Las funciones de variacion regular son caracterizables segun el siguiente resultado.

Teorema 2.1 Sea L una funcion de variacion regular con ındice a ∈ R. Se cumple que

L(x) = c(x) exp

x∫z

k(t)

tdt

, x ≥ z,

para algun z, donde c y k son funciones medibles tales que c(x) → c0 ∈ (0,∞) y k(x) → a,ambos lımites cuando x→∞. El recıproco tambien es cierto.

Lema 2.1 Si F ∈ RVa, a < 0, se cumple que lımn→∞

nF (cn) = 1, donde cn =(

1F

)−1(n) y cn →∞

cuando n→∞.

Prueba. Notemos que

F−1(1− 1/n) = ınfx ∈ R : F (x) ≥ 1− 1/n = ınfx ∈ R : 1/F (x) ≥ n = cn.

De esto notamos que cn es creciente (tiende a infinito) y F (cn−) ≤ 1− 1/n ≤ F (cn). Por lo tantolım supn→∞

nF (cn) ≤ 1 y nF (cn−) ≥ 1.

Consideremos ahora lım infn→∞

F (cn)

F (cn−). Este lımite inferior esta acotado inferiormente por lım inf

n→∞F (cn)

F (cnx)

con x < 1. Como cn →∞ y F ∈ RVa, tenemos que lım infn→∞

F (cn)

F (cnx)= x−a. Por lo tanto

lım infn→∞

F (cn)

F (cn−)≥ lım

x→1x−a = 1.

Como nF (cn−) ≥ 1 obtenemos

lım infn→∞

nF (cn) ≥ lım infn→∞

F (cn)

F (cn−)≥ 1.

Se sigue que lımn→∞

nF (cn) = 1.

El siguiente resultado nos permitira ver que si F ∈ RVa con a < 0, entonces F ∈ S.

Page 28: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

26 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

Proposicion 2.5 SeaF una funcion de distribucion y definamos, para z ∈ (0, 1], γ(z) = lımx→∞

F (zx)

F (x).

Si γ(z) existe para toda z ∈ (0, 1] y es continua por la izquierda en 1, entonces F ∈ S.

Prueba. Supongamos, por simplicidad, que F (0) = 0 y notemos que

F ∗2(x) = P [X1 +X2 ≤ x] ≤ P [X1 ≤ x,X2 ≤ x] = F 2(x),

donde X1, X2 son iid con distribucion F . Esto implica que

lım infx→∞

F ∗2(x)

F (x)≥ lım inf

x→∞

F 2(x)

F (x)= lım inf

x→∞

(1 + F (x))F (x)

F (x)= 2. (2.1.2)

Por otro lado, utilizando la definicion de la integral de Riemann-Stieltjes obtenemos:

lım supx→∞

F ∗2(x)

F (x)≤ 1 + lım sup

x→∞

x∫0

F (x− y)

F (x)F (dy)

≤ 1 + lım supx→∞

n∑j=1

F (x− kx/n)

F (x)(F (kx/n)− F ((k − 1)x/n)) = 2γ(1− 1/n).

Por la continuidad por la izquierda de γ, se sigue que lım supx→∞

F ∗2(x)

F (x)≤ 2, que en conjunto con

(2.1.2) da el resultado deseado.

Corolario 2.2 Si F ∈ RVa con a < 0, F ∈ S.

Prueba. Tenemos que, para cierta funcion L de variacion lenta en infinito:

lımx→∞

F (xz)

F (x)= lım

x→∞

F (xz)(xz)aL(xz)

F (x)xaL(x)

(xz)aL(xz)

xaL(x)= lım

x→∞

F (xz)(xz)aL(xz)

F (x)xaL(x)

lımx→∞

(xz)aL(xz)

xaL(x)= za.

Como za es continua por la izquierda en 1, por la Proposicion 2.5 obtenemos que F ∈ S.

Es posible construir distribuciones de cola pesada que no sean de cola larga, distribuciones concola larga que no sean subexponenciales y distribuciones subexponenciales que no tengan cola devariacion regular (ver Foss et al. [2013]). Un ejemplo de esto ultimo es la distribucion Weibull conparametro de forma menor que 1 (en su version con soporte en (0,∞)). Por lo tanto se obtiene elsiguiente resultado.

Corolario 2.3 Se cumple que RVa ⊂ S ⊂ L ⊂ H.

Page 29: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2.2. CARACTERIZACION DE LOS DOMINIOS DE ATRACCION 27

2.2. Caracterizacion de los dominios de atraccion

La clasificacion de las distribuciones presentadas hasta ahora serviran para poder determinar conmayor facilidad los dominios de atraccion de cada distribucion de valores extremos.

Definicion 2.7 Sea G una funcion de distribucion no degenerada. Denotaremos por D(G) al con-junto de funciones de distribucion

F : lımn→∞

F n(anx+ bn) = G(x) para ciertas ctes. an > 0, bn ∈ R.

Al conjunto D(G) lo llamaremos dominio de atraccion maximal de la distribucion G.

El primer resultado sobre los dominios de atraccion se presenta a continuacion.

Teorema 2.2 Supongamos que F es absolutamente continua con densidad f . Entonces, las si-guientes condiciones son suficientes para que F ∈ D(φ·).

1. φG: f tiene una derivada negativa f ′ para todo x en algun intervalo (x0, ωF ) (ωF ≤ ∞),f(x) = 0 para x ≥ ωF y

lımt↑ωF

f ′(t)F (t)

f 2(t)= −1.

2. φF : f(x) > 0 para todo x ≥ x0 finito y

lımt↑∞

tf(t)

F (t)= α > 0.

3. φW : f(x) > 0 para toda x en algun intervalo finito (x0, ωF ), f(x) = 0 para x > ωF y

lımt→ωF

(ωF − t)f(t)

F (t)= α > 0.

Prueba. Probaremos solamente el caso de la distribucion Frechet. Definimos α(t) = tf(t)

F (t)y obte-

nemos para x2 > x1 ≥ x0:

x2∫x1

α(t)

tdt = −lnF (x2) + lnF (x1)⇔ F (x2) = F (x1) exp

−x2∫x1

α(t)

tdt

.

Como α(t) → α > 0 por hipotesis y para x1 fija F (x1) es una constante positiva, el Teorema 2.1implica que F es (al menos asintoticamente) una funcion de variacion regular. Dado que−α(t)→−α < 0, se sigue que F ∈ RV−α.

Tomando cn como en el Lema 2.1, x1 = γn, x2 = γnx (si x ≥ 1 o al reves si x < 1) y haciendocambio de variable, obtenemos:

F (cnx) = F (cn) exp

−cnx∫cn

α(t)

tdt

= F (cn) exp

−x∫

1

α(cnt)

tdt

. (2.2.3)

Page 30: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

28 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

Para x > 0 fijo, como cn →∞ cuando n→∞, para toda ε > 0 existe N tal que para toda n ≥ N :

x∫1

α(cnt)

tdt− αln(x) =

x∫1

α(cnt)− αt

dt ≤ εln(x),

yx∫

1

α(cnt)

tdt− αln(x) =

x∫1

α(cnt)− αt

dt ≥ −εln(x),

Por lo que lımn→∞

x∫1

α(cnt)tdt = αln(x). Utilizando este resultado, el Lema 2.1 y la igualdad (2.2.3)

se sigue quelımn→∞

nF (cnx) = e−αln(x) = x−α.

Por la Proposicion 1.1, lo anterior es equivalente a lımn→∞

P [Mn ≤ cnx] = e−x−α .

Ahora, si x ≤ 0 tenemos que P [Mn ≤ cnx] ≤ P [Mn ≤ cny] para cualquier y > 0. Por lo tanto

lım supn→∞

P [Mn ≤ cnx] ≤ e−y−α ⇔ lım sup

n→∞P [Mn ≤ cnx] ≤ lım sup

y→0e−y

−α= 0.

Con esto obtenemos el resultado.

Teorema 2.3 Sea F una funcion de distribucion. F ∈ D(φ·) si y solo si:

1. φG: Existe una funcion estrictamente positiva g(t) tal que

lımt→ωF

F (t+ xg(t))

F (t)= e−x, x ∈ R.

2. φF : ωF =∞ y F ∈ RV−α, α > 0.

3. φW : ωF <∞ y para cada x > 0

lımh↓0

F (ωF − xh)

F (ωF − h)= xα, α > 0.

En estos casos, las constantes an, bn pueden tomarse tales que

an = g (cn)−1 , bn = cn caso φG,an = cn, bn = 0 caso φF ,ωF − cn, bn = ωF caso φW ,

donde cn son las constantes definidas en el Lema 2.1. La funcion g para el caso Gumbel puedetomarse como

g(t) =

ωF∫t

F (x)dx

F (t), t < ωF .

Page 31: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2.2. CARACTERIZACION DE LOS DOMINIOS DE ATRACCION 29

Prueba. Nuevamente, probaremos solamente el caso de la distribucion Frechet. Supongamos ωF =∞ y F ∈ RV−α, para algun α > 0. Por el Lema 2.1 existen constantes cn que tienden a infinito ytales que lım

n→∞nF (cn) = 1. Como F ∈ RV−α y cn →∞:

lımn→∞

nF (cnx) = lımn→∞

nF (cnx)

nF (cn)lımn→∞

nF (cn) = x−α.

Por la Proposicion 1.1 se sigue que lımn→∞

P [Mn ≤ cnx] = e−x−α y el resto de la prueba es analoga

a la del Teorema 2.2.

Supongamos ahora que F ∈ D(φF ). En este caso, existen constantes an > 0 y bn tales quelımn→∞

P [Mn ≤ un(x)] = e−x−α , donde un(x) = anx+bn. Por la Proposicion 1.1, esto es equivalente

a lımn→∞

nF (un(x)) = x−α. Por otro lado, lımn→∞

F n(a[ns]x+ b[ns]) = φsF (x) = φF (s1/αx) para s > 0.

Por lo tanto, por el Teorema de Khintchine tenemos que lımn→∞

a[ns]an

= s1/α y lımn→∞

(b[ns]−bn)/an = 0.

Esto implica que an es una sucesion de funciones de variacion regular y que an → ∞ cuandon→∞.

Si tenemos que bn = 0 para toda n ∈ N, entonces utilizando la Proposicion A 3.8 en Embrechtset al. [1997] obtenemos que F ∈ RV−α. Si bn 6= 0, por el Teorema 3.2.7 en Bingham et al. [1987]tenemos que lım

n→∞bnan

= 0. Ahora, para ε > 0 y n suficientemente grande tenemos F (an(x + ε) +

bn) ≥ F (an(x− bn/an) + bn) ≥ F (an(x− ε) + bn). Por lo tanto:

(x− ε)−α ≤ lımn→∞

nF (anx) ≤ (x+ ε)−α.

Haciendo ε→ 0 obtenemos lımn→∞

nF (anx) = x−α y el resultado se sigue como en el caso bn = 0.

Ahora veamos algunos ejemplos de aplicacion de estos teoremas.

Ejemplo 2.4

1. Supongamos F (x) =(1−

θ+xc

)α)1(0,∞)(x) donde c, α > 0. Esta es la distribucion Burr

de parametros c, α. Veamos que F ∈ D(φF ). Por el Teorema 2.3 basta ver que F ∈ RVapara algun a < 0.

Tenemos que

lımx→∞

θ+xcyc

)α(

θθ+xc

)α = lımx→∞

(θ + xc

θ + xcyc

)α= y−αc.

Esto implica que F ∈ RV−αc y por lo tanto F ∈ D(φF ).

2. Supongamos que F (x) =(1− e−λx

)1(0,∞)(x). Ya vimos anteriormente que la distribucion

exponencial es de cola ligera, por lo que ella no puede pertenecer a D(φF ) (todas las dis-tribuciones en D(φF ) son de variacion regular y, por el Corolario 2.3, ellas son de colapesada). Por otro lado, tampoco puede pertenece a D(φW ) ya que D(φW ) contiene sola-mente distribuciones con extremo derecho finito.

Page 32: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

30 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

La unica posibilidad es que F ∈ D(φG). Tomemos g(t) =

∞∫te−λxdx

e−λt= 1

λ, entonces

lımx→∞

F (x+ yg(x))

F (x)= lım

x→∞e−λ(x+y/λ)+λx = e−y, y ∈ R.

Por el Teorema 2.3, esto implica que F ∈ D(φG).

3. La distribucion F (x) = x−ab−a 1[a,b](x) + 1(b,∞)(x) (U [a, b]) solo puede pertenecer a D(φW ).

Tenemos

lımh↓0

F (ωF − xh)

F (ωF − h)= lım

h↓0

b− (b− xh)

b− (b− h)= lım

h↓0x = x,

por lo que efectivamente F ∈ D(φW ).

4. F tiene densidad f(x) = x−1√

2πexp

− (ln(x))2

2

1x>0 (F es la distribucion log-normal

estandar). Utilizaremos el Teorema 2.2. Para ello notemos que para toda x > 0:

f ′(x) = − x−2

√2π

exp

−(ln(x))2

2

+

x−1

√2π

exp

−(ln(x))2

2

(− ln(x)

x

)= −x−1 (1 + ln(x)) f(x).

Aplicando lo anterior se obtiene:

lımx→∞

f ′(x)F (x)

f 2(x)= lım

x→∞

−x−1 (1 + ln(x)) f(x)F (x)

f 2(x)

= lımx→∞

−x−1 (1 + ln(x))F (x)

f(x)

= lımx→∞

− (1 + ln(x))F (x)

xf(x)

= − lımx→∞

F (x)

xf(x)− lım

x→∞

F (x)

(ln(x))−1 xf(x).

Claramente F (x), xf(x) y (ln(x))−1 xf(x) tienden a cero cuando x → ∞. Ademas, pode-mos notar que

d

dx[xf(x)] =

(− ln(x)

x

)1√2π

exp

−(ln(x))2

2

= −f(x)ln(x).

Por lo tanto, aplicando la igualdad anterior y la regla de L’Hopital obtenemos:

lımx→∞

f ′(x)F (x)

f 2(x)= − lım

x→∞

f(x)

f(x)ln(x)− lım

x→∞

−f(x)

− (ln(x))−2 x−1xf(x)− (ln(x))−1 ln(x)f(x)

= − lımx→∞

1

ln(x)+ lım

x→∞

1

− (ln(x))−2 − 1= −1.

De esto y el Teorema 2.2, se sigue que F ∈ D(φG).

Page 33: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2.2. CARACTERIZACION DE LOS DOMINIOS DE ATRACCION 31

2.2.1. Funciones de von Mises

En los ejemplos anteriores, el Teorema 2.3 resulto sumamente util para determinar el dominio deatraccion al que pertenecen las distribuciones con cola de variacion regular y las distribuciones conextremo derecho finito.

Sin embargo, las condiciones presentadas en ese mismo teorema para el dominio de atraccion de ladistribucion Gumbel pueden resultar, en general, difıciles de verificar. En este caso, el Teorema 2.2fue mas util para verificar que la distribucion log-normal pertenece a este dominio de atraccion. Sinembargo, podrıa existir distribuciones que sı pertenezcan a D(φG) pero no satisfagan la condicionpedida en el Teorema 2.2.

Por todo lo anterior, la siguiente seccion tiene como objetivo presentar otra caracterizacion deD(φG) que resulte mucho mas simple que la que se presento en el Teorema 2.3.

Definicion 2.8 Sea F una funcion de distribucion con extremo derecho ωF ≤ ∞. Diremos que Fes una funcion de von Mises si existe z < ωF tal que la cola de F tiene la representacion

F (x) = c exp

−x∫z

dt

a(t)

, z < x < ωF ,

donde c > 0, a es una funcion positiva y absolutamente continua (respecto a la medida de Lebes-gue) con densidad a′ tal que lım

x→ωFa′(x) = 0.

La funcion a se conoce como funcion auxiliar.

Ejemplo 2.5

1. F (x) = e−λx satisface la definicion de funcion de von Mises con a(x) = λ−1.

2. Consideremos la distribucion Weibull tal que F (x) = e−cxa, c, a > 0. Esta distribucion

tambien es una funcion de von Mises con funcion auxiliar a(x) = c−1a−1x1−a, x > 0.

3. Si F tiene extremo derecho finito y F (x) = K exp− αωF−x

, x < ωF , α,K > 0, F es de

von Mises con a(x) = α(ωF−x)2

, x < ωF .

Observacion 2.1 En el ejemplo anterior debe notarse que la distribucion Weibull considerada noes la misma que la distribucion Weibull de extremos. De hecho, la distribucion en dicho ejemplose conoce como distribucion Weibull y la correspondiente Weibull de extremos suele llamarsereversed Weibull distribution (distribucion Weibull invertida).

Con base en esta definicion obtenemos la siguiente caracterizacion del dominio de atraccionD(φG).

Teorema 2.4 Sea F una funcion de distribucion con ωF ≤ ∞. F ∈ D(φG) si y solo si para algunz < ωF :

F (x) = c(x) exp

−x∫z

g(t)

a(t)dt

, z < x < ωF ,

Page 34: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

32 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

donde c y g son funciones medibles tales que c(x)→ c > 0, g(x)→ 1, cuando x→ ωF y a es unafuncion positiva y absolutamente continua respecto a la medida de Lebesgue, con densidad a′ talque lım

x→ωFa′(x) = 0.

La afirmacion del teorema sigue siendo valida si se utiliza la representacion alternativa

F (x) = c(x) exp

−x∫z

dt

a(t)

, z < x < ωF ,

donde a y c cumplen las mismas propiedades descritas anteriormente.

Ejemplo 2.6

1. Todas las distribuciones en el ejemplo 2.5 pertenecen a D(φG).

2. Supongamos que F (x) = e−x(1+x) (F es la distribucion Erlang(1, 1)). En este caso, paraz < x <∞, tenemos e−x(1 + x) = e−x+ln(1+x) = ce−x+ln(1+x), con c = 1.

Esto implica que

F (x) = c exp

x∫

0

(−1 +

1

1 + t

)dt

= c exp

−x∫

0

tdt

1 + t

.

Lo anterior sugiere que F es de von Misses con a(x) = x−1(1 + x) = x−1 + 1. Tenemosque a′ existe y esta dada por a′(x) = −x−2. Ademas, es claro que lım

x→∞a′(x) = 0 y c = 1.

Por lo tanto F satisface las condiciones del Teorema 2.4 con c(x) = c y a(x) = x−1 + 1.Concluimos que F ∈ D(φG).

Concluimos esta seccion con un resultado sobre distribuciones que pertenecen a D(φG) ∩ S . Esclaro que un resultado ası no es necesario para los otros dos dominios de atraccion, ya que D(φW )contiene solo distribuciones de cola ligera y D(φF ) contiene solo distribuciones de cola pesadaque, ademas, son de variacion regular, cola larga y subexponenciales.

Teorema 2.5 Sea F una funcion de distribucion con ωF =∞. Si F es de von Misses con funcionauxiliar a tal que a es no decreciente en algun intervalo (x0, ωF ) y existe t > 1 tal que

lım infx→ωF

a(tx)

a(x)> 1,

entonces F ∈ D(φG) ∩ S .

Si F ∈ D(φG) ∩ S , entonces se cumple que lımx→∞

a(x) =∞.

Ejemplo 2.7

1. La distribucion Erlang del ejemplo anterior pertenece a D(φG). Sin embargo, lımx→∞

a(x) =

0, por lo que F /∈ S (de hecho, puede probarse facilmente que esta distribucion es de colaligera).

Page 35: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

2.3. PROPIEDAD DE CERRADURA DE LOS DOMINIOS DE ATRACCION 33

2. Para la distribucion Weibull del ejemplo 2.5 tenemos que si a = 1, entonces lımx→∞

a(x) =

c−1a−1 y si a > 1, lımx→∞

a(x) = 0, por lo tanto F /∈ S cuando a ≥ 1.

Si a < 1, tenemos para t > 1:

lım infx→∞

a(xt)

a(x)= lım inf

x→∞

x1−at1−a

x1−a = t1−a > 1.

Por lo tanto, F ∈ D(φG) ∩ S cuando a < 1.

2.3. Propiedad de cerradura de los dominios de atraccion

Teorema 2.6 Sea F1 ∈ D(φF ) con parametro de forma α > 0 y constantes normalizadorasan > 0 y bn = 0. Sea F2 otra funcion de distribucion con ωF2 = ωF1 .

F2 ∈ D(φF ) con las mismas constantes normalizadoras si y solo si F 1(x) ≈ cαF 2(x), x → ∞,para alguna constante c > 0.

Ejemplo 2.8 La distribucion α-estable con α < 2 satisface que F (x) ≈ Cαx−α, para cierta

constante Cα > 0. Si consideramos la distribucion Pareto de parametro α dada por G(x) =(θ

θ+x

)α tenemos

lımx→∞

F (x)

G(x)= lım

x→∞

(xθ+x

)αx−α

Cαx−α= C−1

α = cα,

con c = C−1/αα . Por lo tanto F ∈ D(φF ).

Teorema 2.7 Sea F1 ∈ D(φG) con constantes normalizadoras an > 0 y bn. Sea F2 otra funcionde distribucion con ωF2 = ωF1 .

lımn→∞

F n2 (anx+ bn) = φG(x+ b) si y solo si F 1(x) ≈ ebF 2(x), x→ ωF1 .

Ejemplo 2.9 Si F (x) ≈ Keα

ωF−x con ωF <∞, entonces trivialmente

lımx→ωF

F (x)

Keα

ωF−x= 1 = e0,

por lo tanto F ∈ D(φG).

Teorema 2.8 Sea F1 ∈ D(φW ) con parametro de forma α y constantes normalizadoras an > 0 ybn = ωF1 . Sea F2 otra funcion de distribucion con ωF2 = ωF1 .

lımn→∞

F n2 (anx+ bn) = φW (cx) para alguna c > 0 si y solo si F 1(x) ≈ c−αF 2(x), x→ ωF1 .

2.4. Ejercicios

1. Sea αF = lım supx→∞

−ln(F (x))x

. Demuestre que si αF = 0, entonces F es de cola pesada.

Page 36: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

34 CAPITULO 2. DOMINIOS DE ATRACCION MAXIMALES

2. Sean F ∈ S y G dos funciones de distribucion con el mismo extremo derecho y tales queF (0) = G(0) = 0 y F (x) ≈ cG(x) cuando x → ∞, c 6= 0. Demuestre que F ∗G(x) ≈(1 + c)F (x).

3. Sea F ∈ S. Demuestre las siguientes propiedades:

a) lımx→∞

F (x−y)

F (x)= 1, para toda y ∈ R.

b) lımx→∞

x∫0

F (x−y)

F (x)F (dy) = 1

c) F ∈ S si y solo si lımx→∞

F ∗n(x)

F (x)= n, para toda n ∈ N.

d) F es de cola pesada.

e) Si X1, X2, . . . tienen distribucion F , entonces las colas de las distribuciones de Sn =n∑j=1

Xj y Mn = max1≤j≤n

Xj son asintoticamente equivalentes.

4. Sea F la funcion de distribucion F (x) =(1− e−cxτ

)1(0,∞)(x), τ > 0. Determine el tipo de

cola (ligera o pesada) de esta distribucion.

5. Determine si las distribuciones de extremos son de cola pesada o de cola ligera.

6. Sea F (x) = 1− e−x−sen(x), x > 0.

a) Demuestre que F es una funcion de distribucion.

b) Demuestre que F pertenece a ningun dominio de atraccion maximal. ¿Contradice estoel Teorema 1.5?

7. Determine el dominio de atraccion (si existe) de las siguientes funciones de distribucion.Para las distribuciones que pertenecen a D(φG), determine si ellas son subexponenciales.

a) Benktander tipo I: F (x) =[1−

(1 + 2b

aln(x)

)x−(a+1+bln(x)

]1[1,∞)(x).

b) Cauchy estandar: F (x) = 12

+ 1πtan−1(x).

c) F (x) =(1− e1/x

)1(−∞,0)(x) + 1[0,∞)(x).

d) Distribucion Beta(a, b) con densidad f(x) = Γ(a+b)Γ(a)Γ(b)

xa−1(1 − x)b−11[0,1](x), donde

Γ(a) =∞∫0

xa−1e−xdx.

e) Distribucion Γ(α, β) con funcion de densidad f(x) = βαxα−1e−βx

Γ(β)1(0,∞)(x), α, β > 0.

f ) Distribucion log-gamma con funcion de densidad f(x) = λa(ln(x))a−1

xΓ(a)e−λln(x)1(0,∞)(x),

a, λ > 0.

g) Distribucion Erlang(n, λ) con F (x) =n−1∑k=0

λkxke−λx

k!.

h) Distribucion N(µ, σ2) con funcion de densidad f(x) = 1σ√

2πe−

(x−µ)2

2σ2 , x ∈ R, µ ∈ R,σ > 0.

i) F tal que F (x) ≈ e−x[ln(x)]α , x→∞.

8. Demuestre los Teoremas 2.2 y 2.3 para los casos Weibull y Gumbel.

Page 37: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

Capıtulo 3

Excesos sobre un umbral

El objetivo de este capıtulo es enunciar el Teorema de Pickands-Balkema-de Haan y utilizarlo, enconjunto con el metodo de excesos sobre un umbral, para estimar colas de funciones de distribu-cion. Para ello, nos seran de gran utilidad la distribucion generalizada de Pareto, la funcion mediade excesos y algunas herramientas estandar de probabilidad condicional.

3.1. Funcion media de excesos

Recordemos que, si tenemos un espacio de probabilidad (Ω,F ,P) y si B ∈ F es un evento tal queP [B] > 0, entonces la probabilidad condicional de otro evento A ∈ F dado B (denotada porP [A|B]) se define como P [A|B] = P[A∩B]

P[B].

Sea X : Ω → R+ una variable aleatoria definida sobre el espacio de probabilidad (Ω,F ,P) condistribucion F .

Dos de los principales objetos de estudio de este capıtulo son

P [X − u > x|X > u] y E [X − u|X > u] ,

para u > 0 tal que X > u con probabilidad positiva. Ambos dependen de la distribucion de lavariable aleatoria X − u condicionada al evento X > u, lo cual denotamos por X − u|X > u.

Calculamos ahora la probabilidad y la esperanza condicional de interes:

P [X − u > x|X > u] =P [X − u > x,X > u]

P [X > u]=

P [X > x+ u]

P [X > u]. (3.1.1)

Esto implica que la cola de la distribucion de X − u|X > u esta dada por P[X>x+u]P[X>u]

, para x > 0.En terminos de la distribucion de X , si Gu denota la distribucion de X − u|X > u, tenemosGu(x) = F (x+ u)

[F (u)

]−1.

La esperanza de X − u|X > u es facil de calcular en el siguiente caso: si X es no negativa y

continua con distribucion F , entonces E [X] =∞∫0

F (x)dx.

Esto implica que E [X − u|X > u] =[F (u)

]−1∞∫0

F (x+ u)dx.

35

Page 38: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

36 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

Definicion 3.1 Sea X una variable aleatoria no negativa con funcion de distribucion F . Parau > 0 tal que F (u) > 0, la variable aleatoria X − u|X > u se llama exceso (de X) sobreel umbral u. La funcion eF (u) = E [X − u|X > u] se llama funcion media de excesos (de ladistribucion F o de la v.a. X).

La funcion media de excesos presentada en la definicion anterior, tiene diversas aplicaciones queson de gran importancia en la practica. El siguiente teorema muestra que una funcion de distribu-cion queda determinada de manera unica por su funcion media de excesos.

Teorema 3.1 Sea F una funcion de distribucion con F (0) = 0, media finita µ y continua. Entonces

F (u) =eF (0)

eF (u)exp

u∫

0

dy

eF (y)

.

Prueba. Hemos visto que eF (u) =

∞∫uF (x)dx

F (u)Utilizando esta igualdad y haciendo y(u) =

∞∫u

F (x)dx

obtenemos la ecuacion diferencial homogenea

d

duy(u) +

1

eF (u)y(u) = 0.

Esta ecuacion tiene una solucion de la forma y(u) = C exp

u∫0

dyeF (y)

, donde C = y(0) es una

constante real y positiva. Hemos visto tambien que µ =∞∫0

F (x)dx, por lo que y(0) = eF (0) =

µ ∈ (0,∞). Se sigue que∞∫u

F (y)dy = eF (0) exp

−u∫

0

dy

eF (y)

,

y utilizando∞∫u

F (y)dy = eF (u)F (u), obtenemos

F (u) =eF (0)

eF (u)exp

−u∫

0

dy

eF (y)

.

Ejemplo 3.1 Consideremos la distribucion Pareto con cola F (u) =(

θθ+u

)α. La funcion media deexcesos eF puede calcularse en este caso a partir de la definicion. Veamos que tambien es posibleutilizar el Teorema 3.1 para obtener eF .

Tenemos:

F (u) =θ

θ + uexp

−ln

(θ + u

θ

)α−1

α−1θ+uα−1

exp

−u∫

0

α− 1

θ + xdx

.

Lo anterior indica que eF (u) = θ+uα−1

.

Page 39: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.1. FUNCION MEDIA DE EXCESOS 37

Uno de nuestros principales objetos de estudio en las aplicaciones que veremos en el capıtulo 5,consiste en distribuciones que pertenecen a D(φF ). Es decir, distribuciones con colas de varia-cion regular. El siguiente teorema es un resultado clasico cuya demostracion puede encontrarse enBingham et al. [1987]. Sera de gran utilidad para determinar el comportamiento asintotico de eF0

cuando F0 ∈ D(φF ).

Teorema 3.2 (Teorema de Karamata). Sea F (x) = x−αL(x), donde L es de variacion lenta eninfinito y localmente acotada en [x0,∞), para algun x0 > 0. Entonces, para α > 1:

∞∫x

y−αL(y)dy = x1−αL2(x),

donde L2 es de variacion lenta en infinito y tal que L(x) ≈ (α− 1)L2(x), x→∞.

Proposicion 3.1 Si F es una funcion de distribucion tal que F (x) ≈ x−αL(x), donde L es devariacion lenta en infinito y localmente acotada en [x0,∞), para algun x0 > 0, entonces eF (u) ≈u

α−1y por lo tanto lım

u→∞eF (u) =∞.

Prueba. Para ε > 0 y u suficientemente grande, tenemos

(1− ε)∞∫u

x−αL(x)dx ≤∞∫u

F (x)dx ≤ (1 + ε)

∞∫u

x−αL(x)dx.

Por el Teorema de Karamata, lo anterior es equivalente a

(1− ε)u1−αL2(u) ≤∞∫u

F (x)dx ≤ (1 + ε)u1−αL2(u).

con L2 de variacion lenta en infinito tal que L(x) ≈ (α− 1)L2(x), x→∞.

La funcion eF (u), en este caso, es igual a[F (u)

]−1∞∫0

F (x + u)dx =[F (u)

]−1∞∫u

F (x)dx, por lo

tanto, para u suficientemente grande:

(1− ε)u1−αL2(u)

u−αL(u)

u−αL(u)

F (u)≤ eF (u) ≤ (1 + ε)

u1−αL2(u)

u−αL(u)

u−αL(u)

F (u).

ssi1− ε1 + ε

(1

α− 1− ε)u ≤ eF (u) ≤ 1 + ε

1− ε

(1

α− 1+ ε

)u.

ssi1− ε1 + ε

(1− ε(α− 1)) ≤ eF (u)u

α−1

≤ 1 + ε

1− ε(1 + ε(α− 1)) .

El resultado se sigue tomando el lımite cuando u → ∞ en la expresion anterior y haciendo ε ↓ 0.

Lo anterior indica que todas las distribuciones F0 ∈ D(φF ) son tales que su funcion media deexcesos crece de manera polinomial hacia infinito. Una pregunta natural es “¿que ocurre en loscasos cuando F0 ∈ D(φW ) o F0 ∈ D(φG). Los siguientes resultados estan enfocados a responderesta pregunta. Para enunciarlos y demostrarlos introduciremos una definicion que, ademas, sera degran utilidad en esta segunda mitad del curso.

Page 40: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

38 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

Definicion 3.2 Sea F una funcion de distribucion con media finita µ y F (0) = 0. Definimos la

distribucion de cola integrada FI asociada a F como FI(u) = 1µ

u∫0

F (y)dy.

Tenemos el siguiente resultado.

Lema 3.1 Sea F una funcion de distribucion con media finita µ. FI es de cola pesada si y solo siF es de cola pesada.

Prueba. Por definicion, FI tiene densidad Fµ

, lo cual implica quemFI (r) =∞∫0

erx F (x)µdx = mF (r)−1

µr

(utilizando la identidad r∞∫0

erxF (x)dx − 1 = mF (r)). Como µ < ∞ y r ∈ (0,∞), tenemos que

mF (r) =∞ si y solo si mFI (r)

El siguiente lema es el Teorema 2.3.1 en Rolski et al. [1999].

Lema 3.2 Sea F una funcion de distribucion con F (0) = 0. Definamos aF = lım infx→∞

[− lnF (x)

x

].

Si aF > 0, entonces aF = ınfs > 0 : mF (s) <∞.

Corolario 3.1 Si F es una funcion de distribucion con F (0) = 0 tal que aF > 0, entonces F esde cola ligera.

Prueba. Por el Lema 3.2, tenemos que mF (s) < ∞ para s = aF > 0, por lo tanto se sigue elresultado.

Los siguientes dos resultados serviran para determinar el comportamiento de F a traves de eF . Elprimero ha sido tomado de Su & Tang [2003], mientras que el segundo es una version mas debilde un resultado tambien tomado de Su & Tang [2003].

Proposicion 3.2 Sea F una funcion de distribucion con media finita µ y tal que F (0) = 0, ωF =∞ y lım

u→∞eF (u) =∞. Entonces F ∈ H.

Prueba. Utilizaremos la Proposicion 2.2. Es decir, probaremos que lım supx→∞

(−lnF (x)

x

)= 0.

Sea r(u) = 1/eF (u). De la hipotesis lımu→∞

eF (u) = ∞ tenemos que, para ε > 0 arbitraria, existe

un u0 tal que para todo u ≥ u0 se cumple r(u) < ε. Sea y(u) = µF I(u). Tenemos∫ uu0r(x)dx =

−∫ uu0

y′(x)y(x)

dx = −ln(y(u))− [−ln(y(u0))], que implica

−ln(y(u))− [−ln(y(u0))]

u=

∫ uu0r(x)dx

u≤ u− u0

uε ≤ ε,

ssi−lnF I(u)

u≤ ε+

−lnF I(u0)

u.

Tomando lımite superior en la desigualdad anterior y despues haciendo ε ↓ 0, obtenemos queFI ∈ H, por lo que utilizando el Lema 3.1 obtenemos el resultado.

Page 41: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.2. ESTIMACION DE LA FUNCION MEDIA DE EXCESOS 39

Proposicion 3.3 Sea r(u) = 1/eF (u). Si lımu→∞

r(u) > 0, entonces F es de cola ligera.

Prueba. Hemos visto en la prueba de la proposicion anterior que∫ u

0r(x)dx = −lnF I(u)− ln(µ)

o equivalentemente ln(µ)u

+∫ u0 r(x)dx

u= −lnF I(u)

u. Cuando u → ∞, −lnF I(u) tiende a infinito

(pues F (u) tiende a cero), por lo tanto∫ u

0r(x)dx tiende a infinito cuando u → ∞. Haciendo

u → ∞ en ln(µ)u

+∫ u0 r(x)dx

u= −lnF I(u)

uy aplicando la regla de L’Hopital en

∫ u0 r(x)dx

u, obtenemos

aFI = lımu→∞

r(u) > 0. Por el Corolario 3.1 y el Lema 3.1 obtenemos el resultado.

Concluimos esta seccion con un resultado que sera de utilidad en la siguiente seccion.

Lema 3.3 Sea F una funcion de distribucion tal que F (0) = 0. eF tiene la representacion alter-

nativa eF (u) = 1F (u)

ωF∫u

(x− u)F (dx).

3.2. Estimacion de la funcion media de excesos

Los resultados anteriores sugieren lo siguiente: si tenemos un conjunto de datos provenientes deuna distribucion desconocida F , para la cual deseamos estimar si es o no de cola pesada, entoncesestimamos eF (u), hacemos una grafica de esta estimacion y observamos su comportamiento paravalores grandes de u. Si este parece crecer hacia infinito, entonces tenemos evidencia para decirque F ∈ H. Si en cambio, eF parece tender a un lımite finito, tenemos evidencia para decir que Fes de cola ligera.

Esto prueba que la funcion media de excesos es una herramienta sumamente util en el estudiodel comportamiento de las funciones de distribucion. Veamos a continuacion algunas tecnicas deestimacion de eF .

Recordemos que si X1, X2, . . . , Xn son variables independientes e identicamente distribuidas condistribucion F , llamamos a este conjunto de variables una muestra aleatoria de F . Con base enesto, podemos definir la funcion de distribucion empırica como

Fn(x, ω) =1

n

n∑j=1

1X1(ω)≤x.

El siguiente teorema es un resultado estandar en teorıa estadıstica. Su interpretacion es que, comovariable aleatoria, Fn(x) converge casi seguramente a F (x), uniformemente en x.

Teorema 3.3 (Glivenko-Cantelli) Sean X1, X2, . . . , Xn variables independientes e identicamentedistribuidas con distribucion F y sea Fn su distribucion empırica. Entonces

supx∈R|Fn(x)− F (x)| → 0, n→∞,

con probabilidad 1.

Lo anterior sugiere el siguiente estimador de eF , llamado funcion media de excesos empırica.

Page 42: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

40 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

Definicion 3.3 Sean X1, X2, . . . , Xn variables independientes e identicamente distribuidas condistribucion F y sea ∆n(u) = k : Xk > u. Definimos la funcion media de excesos empıricacomo

en(u) =1

card∆n(u)

∑k∈∆n(u)

(Xk − u),

bajo la convencion de que si card∆n(u) = 0, entonces en(u) = 0.

La definicion anterior proporciona un estimador intuitivo de eF . Sin embargo, tal estimador no esde utilidad por sı solo para observar si F puede ser de cola pesada o cola ligera. Para estimar estoes de mayor utilidad un metodo grafico como se propone a continuacion:

Tomamos la muestra aleatoria X1, X2, . . . , Xn y la ordenamos de menor a mayor. Denotamos porX(k) el k-esimo estadıstico de orden de la muestra, es decir,X(1) = mın

1≤j≤nXj,X(2) = mın

1≤j≤nXj :

Xj > X(1), X(3) = mın1≤j≤n

Xj : Xj > X(2), . . . , X(n) = max1≤j≤n

Xj.

De este modo, la muestra ordenada queda dada por X(1), X(2), X(3), . . . , X(n). Ası, graficamos lasparejas

(X(j), en

(X(j)

))y observamos el comportamiento de la grafica resultante.

Ejemplo 3.2 Supongamos que contamos con los siguientes conjuntos de datos:

Muestra 1:3.055038 3.059793 3.069568 3.105521 3.108067 3.113185 3.1136803.115608 3.119182 3.133874 3.172156 3.173262 3.213546 3.2257643.293613 3.315437 3.331657 3.352233 3.362278 3.369915 3.4286233.495779 3.523421 3.527283 3.532231 3.548901 3.575787 3.5842063.585016 3.608118 3.649140 3.684271 3.717472 3.791408 3.9119193.936784 3.948162 3.950760 4.013452 4.057621 4.115131 4.1504374.189373 4.209577 4.270076 4.270710 4.293802 4.326834 4.3758314.386576 4.431645 4.555149 4.642503 4.656754 4.738787 4.8455834.861261 4.998907 5.331744 5.408951 5.594425 5.740958 5.8316805.904931 6.086827 6.136154 6.172479 6.316800 6.492232 6.6437756.983230 6.995335 7.057859 7.123874 7.543104 8.388339 8.4872768.736680 9.164955 9.263987 9.827098 10.239487 10.298973 10.63221810.827038 10.897697 11.322713 11.496247 12.974336 13.108041 13.52085613.915043 14.247207 15.797267 17.448296 18.383166 18.621103 25.10018948.065184 96.569987

Muestra 2:

0.003075487 0.006613774 0.007249322 0.008088985 0.009991250 0.0139831400.014910044 0.016901233 0.018348413 0.022138110 0.023090802 0.0252866180.029119700 0.042832692 0.044349887 0.046566054 0.048181726 0.0541339090.055017874 0.055173403 0.059758021 0.062726704 0.066021547 0.0699248430.077946426 0.087472097 0.088017632 0.091015545 0.091521871 0.0926061810.100119961 0.101552831 0.101585396 0.103876133 0.103980954 0.1076220440.108629592 0.115710448 0.118125230 0.121057956 0.121950746 0.1267349150.127536683 0.127591832 0.128472230 0.131384890 0.131768100 0.1370063540.141233827 0.141302875 0.144332431 0.145206440 0.147271510 0.1526390370.154387807 0.160248292 0.166182693 0.172683430 0.175492057 0.1764222030.176577698 0.181630049 0.187872241 0.187954734 0.188015970 0.1947843540.197835886 0.213138761 0.217274715 0.227741812 0.230854503 0.2351758090.241949392 0.257681864 0.264408534 0.267904394 0.268875856 0.2940045120.310490383 0.334154841 0.334396463 0.344543112 0.353330770 0.3627758660.377792108 0.382545043 0.398132131 0.400649421 0.450252493 0.4522397610.514755854 0.530093118 0.540262615 0.548865985 0.565766008 0.5856246700.597163470 0.624969397 0.658490659 0.883970816

El siguiente codigo en R calcula la funcion media de excesos empırica para cada conjunto dedatos:

Page 43: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.3. DISTRIBUCIONES GENERALIZADAS DE EXTREMOS Y DE PARETO 41

y=sort(y,decreasing=FALSE)

E=function(u,y)z=y[y>u]zz=length(z)e=(1/zz)*sum(y[y>u]-u)

return(e)

3.3. Distribuciones generalizadas de extremos y de Pareto

Consideremos la siguiente funcion:

Hξ,a,b(x) =

exp

−(1 + ξ

(x−ba

))−1/ξ

si ξ 6= 0

exp

exp−(x−ba

)si ξ = 0

,

para todo x tal que 1 + ξ(x−ba

)> 0.

Se puede ver que

1. Hξ,a,b es una funcion de distribucion,

2. ξ > 0 se puede reparametrizar para obtener la distribucion Frechet,

3. ξ < 0 se puede reparametrizar para obtener la distribucion Weibull (de extremos) y

4. El caso ξ = 0 corresponde a la distribucion Gumbel.

En conclusion,Hξ,a,b(x) engloba a las tres distribuciones de extremos, segun el valor del parametrode forma ξ. Por tal motivo, Hξ,a,b(x) se conoce como la distribucion generalizada de valoresextremos (DGVE).

Por simplicidad, consideraremos solamente el caso Hξ := Hξ,1,0(x).

La siguiente distribucion que nos interesa, y que sera pieza clave en las aplicaciones del curso, esla Distribucion Generalizada de Pareto, la cual definimos a continuacion.

Page 44: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

42 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

Definicion 3.4 Consideremos la funcion de distribucion

Pξ,a,b(x) =

1−

(1 + ξ

(x−ba

))−1/ξ si ξ 6= 0

1− e−x−ba si ξ = 0,

tal quex ≥ b si ξ ≥ 0

0 ≤ x ≤ −a/ξ + b si ξ < 0.

Esta distribucion se conoce como la distribucion generalizada de Pareto (DGP).

Se puede notar que cuando ξ = 0, la DGPE es simplemente la distribucion exponencial de parame-tro 1/a truncada en b.

La distribucion Pξ,a,b es la pieza fundamental de los temas restantes del presente capıtulo. Enadelante, escribiremos una variable aleatoriaX ∼ GP (ξ, a, b) para denotar a una variable aleatoriacon distribucion Generalizada de Pareto con parametros ξ, a y b.

El siguiente teorema se debe a Pickands, Balkema y de Haan y sera el teorema clave de estaseccion.

Teorema 3.4 Sea F una funcion de distribucion. F ∈ D(φ·) si y solo si

lımu→ωF

sup0<x<ωF−u

∣∣∣∣F (x+ u)

F (u)− P ξ,a(u),b(x)

∣∣∣∣ = 0,

para alguna funcion medible y positiva a(u).

Prueba. Daremos solamente un bosquejo de la prueba. La hipotesis F ∈ D(φ·) es equivalente aF ∈ D(Hξ), por lo tanto F (anx+ bn)n ≈ exp

−(1 + ξ

(x−ba

))−1/ξ

, ssi

nln [F (anx+ bn)] ≈ − (1 + ξ (x))−1/ξ . (3.3.2)

Para x suficientemente grande, F (x) = 1 − ε(x), donde ε(x) es una funcion de x que tiende acero cuando x → ∞, por lo que ln(F (x)) = ln(1 − ε(x)) ≈ −ε(x) = F (x) − 1. De esto y(3.3.2) obtenemos F (x) ≈ 1

n

(1 + ξ

(x−ba

))−1/ξ. Suponiendo el caso ξ > 0 (dominio de atraccionFrechet), usando que an → ∞ y tomando x > 0, u suficientemente grande y X con distribucionF tenemos

FX−u|X>u(x) =P [X > x+ u]

P [X > u]≈(1 + ξ (x+ u))−1/ξ

(1 + ξu)−1/ξ

=

(1 + ξ

x

ξu

)−1/ξ

=

(1 + ξ

x

a(u)

)−1/ξ

,

donde a(u) = ξu. En conclusion, FX−u|X>u(x) converge a(

1 + ξ xa(u)

)−1/ξ

cuando u→∞. Dadoque para u suficientemente grande, u+x sigue siendo “suficientemente grande”, se observa que ellımite es uniforme en x. El recıproco se trabaja de manera similar.

Page 45: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.3. DISTRIBUCIONES GENERALIZADAS DE EXTREMOS Y DE PARETO 43

Observacion 3.1 Como se menciono antes, lo anterior es solamente un bosquejo de la demostra-cion del Teorema de Pickands-Balkema-de Haan. Mas aun, no se considero directamente el casoξ = 0, pero la idea para probar este caso es totalmente analoga.

En los casos ξ 6= 0

Dado que F (x+u)

F (u)es simplemente FX−u|X>u(x), el teorema anterior nos dice que la distribucion de

los excesos, para valores grandes del umbral u, es asintoticamente una distribucion generalizada dePareto. Mas aun, este teorema nos dice que podemos estimar la verdadera cola de F para valoresgrandes.

Si tomamos x− u, para x > u, tenemos que F (x) ≈ F (u)P ξ,a(u),b(x).

Definicion 3.5 El metodo de estimacion de F utilizando el Teorema de Pickands-Balkema-deHaan y la relacion F (x) ≈ F (u)P ξ,a,b(u)(x), se conoce como metodo de excesos sobre un umbral.

Ejemplo 3.3 Consideremos los siguientes conjuntos de datos:

Muestra 1

[1] 0.0009590842 0.0040413223 0.0058159083 0.0093413024 0.0123053008 0.0128825598[7] 0.0152838384 0.0220185597 0.0243960032 0.0411553488 0.0442069839 0.0450281682[13] 0.0522065213 0.0574798531 0.0621222251 0.0738969506 0.0785628997 0.1131960715[19] 0.1152380360 0.1169405896 0.1177390064 0.1257602172 0.1327432210 0.1540999408[25] 0.1580926094 0.1680514251 0.1831952175 0.1996880868 0.2070015939 0.2078571667[31] 0.2170503391 0.2244947236 0.2496501072 0.2898168461 0.2957830155 0.3054301839[37] 0.3097432335 0.3362456253 0.3548245453 0.3633020515 0.3676310081 0.3837019428[43] 0.3934513583 0.4028462972 0.4124251094 0.4168822961 0.4228292391 0.4353621700[49] 0.4380137888 0.4551982892 0.4648159309 0.4802607167 0.5014581969 0.5043083009[55] 0.5107341053 0.5249439687 0.5343757392 0.5385441393 0.5476037869 0.5480418168[61] 0.5481051015 0.5545962699 0.5588922339 0.5793875046 0.5968453139 0.6153463986[67] 0.6634224560 0.6679630545 0.6763730184 0.6875421814 0.7706596937 0.7814727351[73] 0.8570849206 0.8964137932 0.8978170659 0.9099694863 0.9480285849 0.9602009207[79] 0.9690182469 0.9703139980 1.0169924749 1.0532844876 1.0646745236 1.0725959138[85] 1.2633534734 1.2636682456 1.3544548163 1.4201775639 1.4332420227 1.4625431820[91] 1.4632417438 1.5025932378 1.6419754884 1.6926264352 1.7120697535 1.7560642687[97] 1.9419776675 1.9457091418 2.0806418600 3.4548845205

Muestra 2

[1] 0.03660504 0.10329874 0.12196267 0.12608944 0.12820036 0.13483023[7] 0.14224955 0.16700688 0.21003939 0.26974101 0.28121195 0.32012573[13] 0.32082744 0.36221661 0.36550234 0.38686050 0.38854379 0.38859524[19] 0.40776796 0.42667778 0.48135271 0.48326481 0.73068593 0.77684881[25] 0.80916615 0.82110985 0.86240683 0.93600157 0.97255878 0.99622787[31] 0.99682745 1.00418837 1.10038908 1.14909801 1.22720113 1.25940425[37] 1.31316020 1.37753760 1.39742613 1.54496813 1.59013935 1.63797671[43] 1.66946357 1.73693982 1.74995688 1.83131833 1.96794103 2.10670789[49] 2.11033876 2.15396301 2.17682861 2.18614872 2.18716275 2.40661919[55] 2.60924521 2.68608575 2.70271468 2.71094740 2.84669708 2.85514762[61] 3.29298609 3.41405560 3.41537587 3.46411636 3.54170609 3.59582252[67] 3.67293550 3.73956854 3.74936852 3.96734432 4.19964715 4.51801889[73] 4.72551788 4.75384840 5.06577091 5.25726329 5.49474901 6.08708445[79] 6.49063700 6.49291680 6.58671320 6.91305726 6.95603528 8.51158747[85] 11.18870443 11.55353647 11.68688546 12.80147303 12.94447634 14.74972275[91] 18.67751568 21.55635325 25.85183565 26.53933043 28.56596636 31.32566088[97] 33.39340122 41.21227713 395.01871680 541.61890720

La muestra 1 proviene de una distribucion exponencial de parametro 2, mientras que la muestra2 proviene de una distribucion Pareto con parametro de forma 1.5 y parametro de localizacion 5.Las estimaciones de sus colas respectivas son las siguientes:

Page 46: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

44 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

3.4. Estimacion de parametros y seleccion del umbral

El ultimo ejemplo de la seccion anterior fue hecho utilizando las paqueterıas gPdtest, evd e ismevde R, para cierta seleccion del umbral u. A partir de este momento es natural preguntarse ¿comose elige el umbral? ¿como se estiman los parametros de la DGP? y ¿como sabemos en que casoconsiderar ξ = 0 o ξ 6= 0. Esto sera el tema principal de esta seccion.

3.4.1. Metodo de maxima verosimilitud

Debido a que estaremos ajustando distribuciones a conjuntos de datos, tambien sera de interesestimar los parametros de la distribucion ajustada. Para ello utilizaremos el metodo de maximaverosimilitud, el cual recordamos a continuacion.

Sea X1, X2, . . . , Xn una muestra aleatoria de una distribucion con densidad f(x; ~θ), donde ~θ es unvector de parametros. Por ejemplo: si f es la densidad Normal con media µ y varianza σ2, entonces~θ = (µ, σ2).

El metodo de estimacion por maxima verosimilitud consiste en lo siguiente:

1. Escribir la funcion de verosimilitud, definida como L(~θ|~x) ≈n∏j=1

f(Xj; ~θ), donde ~x repre-

senta a la muestra dada.

2. Maximizar L(~θ|~x) para cada entrada de ~θ.

3. Los estimadores de maxima verosimilitud seran ~θmax = argmaxL(~θ|~x).

Debido a la presencia del producto, en lugar de maximizar L(~θ|~x) se suele utilizar la funcion delog-verosimilitud, definida como `(~θ|~x) = lnL(~θ|~x). Debido a que ln(x) es creciente, se cumpleque el vector ~θmax que maximiza `(~θ|~x) tamben maximiza a L(~θ|~x).

Ejemplo 3.4 Sea X1, X2, . . . , Xn una m.a. de la distribucion exp(1/a). Hallemos el estimador demaxima verosimilitud de a.

Page 47: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.4. ESTIMACION DE PARAMETROS Y SELECCION DEL UMBRAL 45

En este caso

`(a|~x) = ln

(n∏j=1

a−1 exp−a−1xj

)= ln

(a−n exp

−a−1

n∑j=1

xj

)

= −nln(a)− a−1

n∑j=1

xj.

Para maximizar esta funcion derivamos e igualamos a cero:

d

da`(a|~x) = −n

a+ a−2

n∑j=1

xj = 0⇔ an =n∑j=1

xj.

La igualdad anterior se cumple en el punto 1n

n∑j=1

xj . Por lo tanto a = 1n

n∑j=1

Xj = Xn.

Ejemplo 3.5 La distribucion U(θ1, θ2) cumple una peculiar propiedad, debido a que su soportedepende de los parametros desconocidos que se requieren estimar. En este caso:

L(θ1, θ2|~x) =1

(θ2 − θ1)n

n∏j=1

1[θ1,θ2](xj).

Fuera del intervalo [θ1, θ2], esta funcion se anula, por lo que los estimadores de θ1 y θ2 tienen queser tales que θ1 ≤ X(1) y X(n) ≤ θ2. Esto implica que θ1 = X(1) y θ2 = X(n).

Ejemplo 3.6 Existe otra parametrizacion de la distribucion Pareto con parametros θ y α, en laque f(x;α, θ) = αθα

xα+1 , x > θ. Si quisieramos estimar α y θ por maxima verosilimitud:

L(α, θ|~x) = αnθαnn∏j=1

x−α−1j 1xj>θ,

`(α, θ|~x) = nln(α) + nαln(θ)− (α + 1)n∑j=1

ln(xj).

De lo anterior se observa que θ = X(1) y α = nn∑j=1

ln

(xjX(1)

)

En el caso de las distribuciones generalizadas (de extremos y de Pareto), no es posible encontraruna forma cerrada para los estimadores de sus parametros. Dichos estimadores deben encontrarseutilizando metodos numericos.

3.4.2. Metodo grafico

Vamos a suponer por simplicidad que b = 0 (de hecho, los paquetes de R utilizados suponen estehecho y estiman solamente los parametros de forma ξ y de escala a).

En este caso, la DGP resultante es la distribucion exponencial de parametro 1/a, por lo que sumedia es a. Es bien sabido que el estimador de maxima verosimilitud del parametro de una distri-bucion exponencial es la media muestral Xn. Por lo tanto, procederemos de la siguiente manera:

Page 48: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

46 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

1. Consideramos nuestra muestra aleatoria X1, X2, . . . , Xn y con ella estimamos a (utilizamosa = Xn).

2. Hacemos una grafica Q-Q suponiendo que la verdadera distribucion exponencial tiene parame-tro a.

3. Si la grafica resultante es casi una lınea recta, entonces no tenemos evidencia para decir queξ 6= 0.

4. Si la grafica resultante difiere de una lınea recta, tenemos evidencia para decir que ξ 6= 0.

La construccion de la grafica Q-Q se hara de la siguiente forma:

1. Obtenemos una formula para los cuantiles teoricos de la distribucion exp(1/a). Recordemosque, en general, si F es una funcion de distribucion, su cuantil de α de probabilidad esqα = ınfx ∈ R : F (x) ≥ α. En el caso de la distribucion exp(a), tenemos:

α = 1− e−qα/a ⇔ e−qα/a = 1− α⇔ qα = −aln(1− α).

2. Consideramos ahora pk = k/(n + 1), k = 1, 2, . . . , n y estimamos qpk . Esta estimacionse hace utilizando la muestra ordenada X(1), X(2), . . . , X(n) y la distribucion empırica Fn(reemplazando la division entre n por n + 1). Es claro que Fn(X(k) = pk, por lo que qpk =X(k).

3. Graficamos los puntos (qpk , qpk) = (qpk , X(k)).

Observacion: En la grafica Q-Q tambien se puede utilizar pk = (k − 0.5)/n.El siguiente codigo en R realiza dos graficas Q-Q para el caso en el que la distribucion teorica delos datos es la exponencial con parametro 1/a = 1/xn.

x=sort(x,decreasing=FALSE)M=mean(x)#Cuantiles

cuant=function(x)-M*log(1-x)

#Probas k/(n+1)probas=(1/101)*seq(1,100,length=100)cuantest=probasfor(i in 1:100)

cuantest[i]=cuant(probas[i])

par(mfrow=c(1,1))plot(x,cuantest)abline(0,1)

#Probas (k-0.5)/n

probas=seq(1,100,length=100)cuantest=probasfor(i in 1:100)

cuantest[i]=cuant((probas[i]-0.5)/100)

par(mfrow=c(1,1))plot(x,cuantest)abline(0,1)

Page 49: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.4. ESTIMACION DE PARAMETROS Y SELECCION DEL UMBRAL 47

Ejemplo 3.7 Las siguientes graficas muestran un par de graficas Q-Q en las que se comparanlos cuantiles estimados de dos conjuntos de datos, con los cuantiles teoricos de una distribucionexponencial con parametro 1/a. La primera grafica muestra que los cuantiles estimados tienen unajuste bastante cercano a una lınea recta, mientras que en la segunda, claramente, esto no ocurre.

El gran problema con este metodo es que es altamente sensible a la velocidad de convergencia de ladistribucion original a su correspondiente distribucion de extremos. Por ejemplo, hemos visto quela distribucion log-normal esta en el dominio de atraccion de la distribucion Gumbel. Sin embargo,diversos estudios han demostrado que la convergencia de la distribucion del maximo normalizadode v.a. log-normales, hacia la correspondiente distribucion Gumbel, es realmente lenta.

Utilizando una simple simulacion en R, es posible ver que la grafica Q-Q de la distribucion log-normal vs. una distribucion log-normal, no arroja un patron en los datos similar a una lınea recta, apesar de lo grande que sea el valor de los datos. Por ello, ademas de las graficas Q-Q utilizaremosuna prueba de hipotesis para determinar si hay o no evidencia en contra de que ξ = 0.

3.4.3. Prueba de hipotesis

La siguiente prueba de cociente de verosimilitudes puede encontrarse en Castillo et al. [2005].

Se desea contrastar la pareja de hipotesis

H0 : ξ = 0 vs. H1 : ξ 6= 0,

que en terminos de dominios de atraccion se traduce como

H0 : F0 ∈ D(φG) vs. H1 : F0 ∈ D(φF ) ∪D(φW )

(suponiendo que, efectivamente, F0 esta en alguno de los tres dominios, lo cual ocurre para lamayorıa de las distribuciones mas conocidas).

Para ello se utiliza el estadıstico de prueba

LR =

[1− 2.8

n

]2[`(a, b, ξ|~x

)− `(a, b|~x, ξ = 0

)].

Este estadıstico tiene asintoticamente una distribucion χ21, por lo que la region de rechazo para un

α de significancia esta dada por

RR =LR : LR > χ2

1(1− α),

donde χ21(1− α) es el cuantil de 1− α de probabilidad de la distribucion χ2

1.

Page 50: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

48 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

3.5. Metodo de excesos sobre un umbral y aplicaciones

Vamos a utilizar el metodo de excesos sobre un umbral para estimar colas de funciones de distri-bucion de conjuntos de datos. Para ello procederemos de la siguiente manera.

Dado nuestro conjunto de datos:

1. Estimamos la FME para determinar el tipo de cola de la distribucion.

2. Estimamos los parametros de la DGP variando el valor del umbral u.

3. Seleccionamos un valor de u tal que F n(u) ∈ [0.01, 0.05]

4. Ajustamos la DGP con el umbral seleccionado

5. Validamos el modelo mediante metodos graficos y prueba de hipotesis.

6. Si es de interes, estimamos F (x) para x > u, utilizando la relacion F (x) ≈ F (u)P ξ,a(x)

3.5.1. Periodos de retorno

Supongamos que ha ocurrido cierto evento que involucra que cierta variable aleatoria X excedaun valor de interes u. Por ejemplo, si X representa la maxima precipitacion pluvial alcanzada encierta ciudad, en cierto instante, es de interes estudiar el evento X > u.Supongamos ahora que se cuenta con una sucesion de variables aleatorias iid X1, X2, . . . tales queX

d= Xj para toda j. Definimos

L(u) = mınj ≥ 1 : Xj > u.

L(u) representa el primer instante en el que ocurre el evento X > u. Por ejemplo, si los ındicesde cada elemento de la sucesion Xn representan anos y las variables aleatorias en la sucesionrepresentan precipitaciones pluviales maximas, entonces L(u) representa el primer ano en el quela precipitacion pluvial maxima excede el nivel u.

Se puede demostrar el siguiente resultado.

Proposicion 3.4 Sea Xn una sucesion de variables aleatorias con distribucion comun F y seaL(u) = mınj ≥ 1 : Xj > u. Entonces L(u) es una variable aleatoria geometrica (con soporteen 1, 2, . . . ) y tal que E [L(u)] = 1

F (u).

Definicion 3.6 El valor esperado E [L(u)] se define como el periodo de retorno de los eventosXj > u.

Ejemplo 3.8 El precio de la moneda A vs. moneda B ha estado por encima de los 20 unidades B.La siguiente tabla presenta datos tomados en periodos de 100 dıas. A partir del dıa 101 ¿cual esel tiempo esperado para que nuevamente la moneda A tenga un precio mayor a 20 unidades B?

Page 51: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.5. METODO DE EXCESOS SOBRE UN UMBRAL Y APLICACIONES 49

[1] 4.16615761 24.67109023 2.60855664 24.06474812 9.60479295 0.80419603[7] 17.60188475 4.73097984 14.58033552 3.03951941 1.35871250 1.45781123[13] 23.07445741 0.05662364 4.63333867 9.35535914 5.00349876 2.17847901[19] 4.18047593 10.23425660 23.36797943 4.80568154 5.08495152 6.56227320[25] 2.05525872 2.60272853 0.52630584 8.65154732 6.67266526 4.78471677[31] 2.70525118 7.77703862 21.51410708 21.92172741 24.49633596 5.40410336[37] 1.17750697 1.62310257 8.40130766 12.28476044 10.95048161 10.95290961[43] 7.53617380 2.35700592 1.44061533 5.75131575 12.26018172 1.39257684[49] 6.25141933 3.86750930 24.71634252 4.68408078 14.17939512 15.99117460[55] 1.74546758 4.00426437 6.28339610 0.82367876 12.09537955 6.17994384[61] 16.01895607 14.99724058 22.76137671 2.67376622 19.60250853 2.31641080[67] 0.60799787 2.53334795 0.77439286 3.00724592 6.54842834 0.84702354[73] 1.91910641 4.74984066 3.98369566 0.84521194 3.33949333 16.61114444[79] 12.39519851 15.64995866 5.39211953 1.29391578 0.96254824 11.30510054[85] 1.52719091 11.75835369 0.65821940 4.62840508 22.75925919 0.54885819[91] 20.27462993 2.78044475 0.12324560 23.16481380

Por el contexto del problema, nos interesa calcular/estimar E [L(20)]. Dado que no conocemosla distribucion exacta de los datos, utilizando la Proposicion 3.4 y el metodo de excesos sobre unumbral, podemos estimar E [L(20)].

Nuestro interes (en vista de la Proposicion 3.4) recae en estimar F (u). Mediante la estimacion dela funcion media de excesos tenemos que F debe ser de cola ligera:

0 5 10 15 20 25

02

46

81

0

u

Me

an

Exce

ss

Por lo tanto, primero modelamos el costo de la moneda A en unidades B, para u = 12, como unadistribucion exponencial. En este caso la grafica Q-Q no muestra un buen ajuste:

0 5 10 15

01

02

03

04

05

06

0

Cuantiles teóricos

Cu

an

tile

s e

mp

íric

os

Por tal motivo, se utilizo ISMEV para estimar los parametros de la DGP con u = 10.

Page 52: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

50 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

u Excedencias 1-F(u) a xi10 30 0.3191489 18.5545 -1.26081

Si tomamos como valida la estimacion hecha con ISMEV tenemos que 0 ≤ x ≤ 14.7. Dadoque esto es la estimacion de F (x + 10)/F (10) ≈

(1− 1.26 x

18.6

)1/1.26, para 0 ≤ x ≤ 14.7,podemos estimar F (20) de la distribucion original usando x = 10 y la relacion F (x + 10) ≈F (10)

(1− 1.26 x

18.6

)1/1.26. Esto da como resultado F (20) ≈ 0.13 y por lo tanto E [L(u)] ≈ 7.69.

Se espera que aproximadamente en 7.69 dıas, el precio de A excedera nuevamente 20 unidades B.

3.5.2. Cuantiles y VaR

Supongamos ahora que se desea asegurar cierta estructura de modo que ella aguante algun fenomeno,medible mediante una variable aleatoria X , bajo un periodo de retorno de t anos. En este casodeseamos calcular u(t) tal que t = E [L(ut)], lo cual es equivalente a

F (u(t)) =1

t⇔ 1− 1

t= F (u(t))⇔ u(t) = q1− 1

t.

En este caso el interes radica en estimar un cuantil de la verdadera distribucion F .

Si tenemos la DGP, es facil ver que

qα = a

[(1− α)−ξ − 1

ξ

].

Si ξ y a son los EMV de ξ y a, ellos pueden ser utilizados para estimar qα.

La siguiente definicion nos sera util en esta seccion.

Definicion 3.7 Sea θ un parametro de alguna distribucion F y sea θn un estimador de dichoparametro. Diremos que θn es un estimador (debilmente) consistente de θ si θn

d→ θ, n → ∞. Esdecir:

lımn→∞

P[|θn − θ| > ε

]= 0, ∀ ε > 0.

Teorema 3.5 Si ξ > −1/2, entonces los EMV para los parametros ξ y a de la distribucionGP (ξ, a) son consistentes.

Page 53: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.5. METODO DE EXCESOS SOBRE UN UMBRAL Y APLICACIONES 51

La proposicion anterior, junto con el Teorema del Mapeo continuo, pueden utilizarse para demos-trar que qα(a, ξ) es un estimador consistente de qα. Bajo la idea de que F (x+u) ≈ F (u)P ξ,a,b(x),

para 1 − α < F (u) podemos estimar qα mediante la relacion qα ≈ u + a

[(1−αF (u)

)−ξ−1

ξ

], para

cuantiles mayores a u.

De este modo, el estimador de u(t) = q1− 1t

planteado al inicio serıa

q1− 1t

= u+ a

(

1tF (u)

)−ξ− 1

ξ

.

Ejemplo 3.9 Consideramos la distribucion Pareto F , tal que F (x) =(

55+x

)1.5. Mediante 1000datos simulados se estiman los cuantiles de esta distribucion.

Se selecciono un umbral u = 20, para el cual F (u) ≈ 0.08. Con esto se estimaron los corres-pondientes parametros y, a traves de estas estimaciones, se obtuvo estimaciones para qα, dondeα ∈ (0.94, 0.99).

En la siguiente grafica se comparan los cuantiles reales contra los estimados.

0 20 40 60 80 100

40

60

80

10

0

Número de cuantil

Cu

an

tile

s

Cuantil estimado

Cuantil real

Si tenemos evidencia para suponer ξ < 0, un estimador de ωF (que en este caso es finito) es

Page 54: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

52 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

ωF = u− a

ξ.

Por otro lado, si tenemos evidencia para decir que F ∈ D(φF ), sabemos que F (x) = x−αL(x) +o(1) para un termino o(1) que tiende a cero cuando x → ∞. Para x suficientemente grande,podemos suponer F (x) = x−αL(x) y tenemos que un posible estimador para F (x) (ver Embrechtset al. [1997], p. 348) es

F (x) =k

n

(x

X(k+1)

)−1/ξ

,

donde X(k+1) es el k+ 1-esimo estadıstico de orden de la muestra X1, X2, . . . , Xn y k depende den de forma que k →∞ y k/n→ 0 cuando n→∞ (por ejemplo: k puede tomarse como b

√nc).

Esto sugiere otra posible estimacion para qα:

qα =[nk

(1− α)]−ξ

X(k+1).

Ejemplo 3.10 Con los datos utilizados en el ejemplo anterior, estimamos los cuantiles en el inter-valo (0.94, 0.99) utilizando el estimador en terminos del k+ 1-esimo estadıstico de orden. En estecaso, dado que la muestra es de tamno n = 1000, tenemos que k = dn10/11e = 535 y por lo tantok + 1 = 536.

0 20 40 60 80 100

02

04

06

08

01

00

12

0

Número de cuantil

Cu

an

tile

s

Cuantil estimado

Cuantil real

Page 55: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.5. METODO DE EXCESOS SOBRE UN UMBRAL Y APLICACIONES 53

Veamos ahora una aplicacion sumamente util de la estimacion de cuantiles vıa el metodo de exce-sos sobre un umbral.

Supongamos que F representa una distribucion de perdida (por ejemplo: en ciertas empresas, elnumero de productos que son fabricados debe tomar en cuenta la posibilidad de que algunos deestos productos no se vendan, por lo que el dinero invertido en ellos no se recuperara). Bajo estecontexto, es de interes estimar qα = ınfx ∈ R : F (x) ≥ α, α ∈ [0.95, 1]. qα representa un niveltal que la probabilidad de tener una perdida a lo mas tan grande como dicho nivel, es al menos α.Por tal motivo, qα suele llamarse Valor en riesgo α (Value at risk α, V aRα).

La excedencia respecto al VaR se conoce como tamano de la perdida y, con base en ella se definela perdida esperada, tambien llamada expected shortfall o valor en riesgo condicional. Estevalor en riesgo condicional se denota como ESα (expected shortfall at level α%) o como CV aRα.Por simplicidad utilizaremos la primera notacion.

Esta perdida esperada se define como ESα = E [X|X > V aRα].

En matematicas financieras es de interes estimar ESα, que como puede observarse en la relacionanterior, depende de la funcion media de excesos y del VaR. La estimacion de la funcion mediade excesos ya fue discutida anteriormente y es claro que el V aRα puede estimarse mediante ladistribucion empırica. Sin embargo, para valores grandes de u esta estimacion puede realizarseutilizando el metodo de excesos sobre un umbral.

En Tendijck [2016] se probo el siguiente resultado.

Teorema 3.6 Sea X una variable aleatoria con distribucion F ∈ D(Hξ), donde ξ < 1. Entonces

lımα↑1

ESαqα

=1

1 + ξ+, ξ+ = maxξ, 0.

El resultado anterior sugiere el siguiente procedimiento para estimar ESα:

Si tenemos estimadores consistentes de qα = V aRα y de ξ, entonces un estimador de ESα esESα = V aRα

1+ξ+, para valores de α cercanos a 1.

Utilizando los resultados anteriores, tenemos que un posible estimador para ESα, para u suficien-temente grande y x > u es

ESα =

u+ a

[(1−αF (u)

)−ξ− 1

]ξ(1 + max0, ξ)

,

donde a y ξ son los EMV de a y ξ, respectivamente.

Si tenemos evidencia para suponer ξ = 0, obtenemos:

qα = u− aln(

1− αF (u)

),

ESα = qα.

Ejemplo 3.11 567 personas han perdido una cantidad T de horas el dıa de hoy intentando reali-zar un tramite en el servidor de CONACYT. Los datos se muestran a continuacion.

Page 56: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

54 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

[1] 78.030 58.736 74.646 60.564 62.038 62.226 74.353 59.907 56.494[10] 61.529 61.966 59.449 57.950 60.628 67.422 58.501 67.439 64.172[19] 55.011 56.801 62.713 83.178 57.016 55.167 59.068 65.963 61.055[28] 66.253 55.316 61.296 55.245 88.714 61.364 58.060 67.715 82.828[37] 60.004 55.611 57.738 65.625 58.507 55.261 58.029 80.028 67.355[46] 69.358 67.954 60.713 56.382 78.769 57.542 82.039 61.160 55.234[55] 70.976 61.928 65.954 62.934 56.240 59.308 55.828 60.302 66.804[64] 81.156 68.227 61.518 65.717 57.579 69.126 55.016 56.924 55.531[73] 62.427 56.033 73.309 73.000 73.411 60.846 65.767 63.790 71.273[82] 64.673 68.141 59.965 64.892 58.043 73.802 58.535 55.052 55.470[91] 55.810 68.638 55.690 61.128 55.968 57.235 57.846 63.694 57.726

[100] 59.318 63.782 59.808 56.322 63.192 86.065 64.558 69.287 68.194[109] 55.129 66.803 64.837 71.971 57.339 67.676 68.070 67.630 58.845[118] 91.952 70.454 59.639 57.163 56.056 67.132 73.265 59.652 57.360[127] 56.841 61.095 81.070 76.498 63.287 58.017 61.350 66.506 67.704[136] 68.998 57.351 77.369 58.649 69.463 60.808 66.550 60.862 59.872[145] 57.251 61.891 61.946 62.513 75.427 63.659 58.927 62.274 61.420[154] 55.246 55.107 66.286 61.075 58.664 69.950 58.439 55.697 67.207[163] 80.919 72.439 63.498 59.325 82.376 55.019 70.383 67.050 59.362[172] 55.789 67.513 59.620 63.085 63.434 64.587 63.613 70.531 61.831[181] 59.356 67.177 78.562 58.029 55.086 58.324 64.411 56.195 60.590[190] 58.527 60.021 59.797 64.374 61.297 69.530 61.427 62.378 59.389[199] 80.077 69.727 55.072 61.386 58.396 60.486 57.421 66.646 57.348[208] 60.521 88.389 62.497 56.930 95.971 72.043 57.000 61.095 63.001[217] 55.329 56.544 58.943 70.516 58.309 59.963 63.503 65.584 64.055[226] 79.399 61.672 62.814 57.719 63.548 55.409 59.649 57.442 68.554[235] 61.299 64.357 82.355 63.200 91.117 59.761 73.371 76.239 59.902[244] 59.484 67.633 69.097 58.907 73.450 60.191 60.467 58.682 101.269[253] 76.135 58.597 58.758 80.537 74.824 62.707 58.367 56.141 58.380[262] 65.142 55.497 57.925 60.006 55.493 71.626 55.998 55.237 62.102[271] 57.904 57.020 61.221 70.817 59.334 58.047 64.356 55.420 65.998[280] 66.238 61.788 60.874 71.467 57.320 60.495 62.487 57.978 58.506[289] 67.070 60.807 56.191 55.623 56.834 56.763 62.693 76.389 61.974[298] 76.919 80.884 58.181 57.492 55.747 85.643 67.311 73.179 57.074[307] 78.796 57.505 56.222 69.431 116.902 62.753 55.973 62.323 64.827[316] 60.577 56.322 62.365 65.658 61.509 61.817 59.825 73.047 56.726[325] 57.307 57.343 57.284 55.615 57.452 78.563 59.006 55.986 56.404[334] 64.154 68.200 71.526 69.483 76.774 70.662 57.023 58.015 56.312[343] 63.525 98.343 87.778 60.402 61.360 55.136 58.389 67.770 56.312[352] 58.915 80.885 75.514 56.050 63.826 65.453 66.240 58.848 75.330[361] 62.258 61.468 61.571 56.792 70.034 73.503 63.714 57.140 68.225[370] 55.984 83.088 58.414 60.902 65.480 87.171 68.940 64.785 55.007[379] 55.852 69.007 62.308 59.826 77.956 61.451 63.962 64.304 67.974[388] 57.104 61.941 62.093 70.234 57.842 72.159 65.666 57.913 66.241[397] 65.907 83.044 69.259 56.693 85.325 56.847 56.179 59.086 70.737[406] 82.457 66.954 55.101 63.205 67.604 64.552 85.720 56.711 66.500[415] 62.165 60.434 55.663 61.730 63.440 63.131 100.735 55.751 71.111[424] 64.878 60.456 95.907 56.160 58.674 64.388 59.568 84.630 56.838[433] 55.974 57.078 63.135 74.153 61.129 61.984 68.964 73.517 56.606[442] 77.463 58.863 57.115 110.465 71.149 80.626 57.451 63.298 60.378[451] 55.355 56.531 57.624 65.675 63.848 60.044 57.120 72.522 58.814[460] 57.461 66.957 77.282 55.415 66.897 65.238 89.113 69.419 58.544[469] 63.436 55.890 63.968 79.907 65.286 62.776 56.433 71.742 55.622[478] 59.843 55.390 58.257 60.352 60.164 80.242 59.436 56.020 65.175[487] 67.539 56.481 55.871 55.876 55.038 80.691 60.853 59.371 84.316[496] 58.499 56.440 64.327 93.816 65.403 62.492 67.645 77.164 58.453[505] 57.649 58.073 72.562 60.542 57.217 61.046 61.202 77.596 61.570[514] 56.253 88.792 63.051 56.510 55.012 56.021 58.383 102.525 71.996[523] 75.757 71.456 55.199 76.408 66.314 65.686 55.138 62.919 67.848[532] 55.086 66.632 58.173 68.155 87.470 71.541 61.310 55.429 55.551[541] 58.224 57.772 74.305 66.441 74.737 67.153 74.052 63.538 67.195[550] 68.468 60.534 64.736 59.345 56.251 58.668 62.385 60.903 59.182[559] 56.610 59.660 59.383 55.046 56.777 60.376 59.696 71.426 56.116

Estimaremos un valor qα tal que P [T > qα] = 1 − α, donde T denota el tiempo perdido en elservidor de CONACYT. Para este ejemplo, tomaremos α = 0.01.

Page 57: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

3.5. METODO DE EXCESOS SOBRE UN UMBRAL Y APLICACIONES 55

60 70 80 90 100 110

05

10

15

u

Me

an

Exce

ss

70 71 72 73 74 75

01

02

03

0

Threshold

Mo

difie

d S

ca

le

70 71 72 73 74 75

−0

.3−

0.1

0.1

Threshold

Sh

ap

e

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Probability Plot

Empirical

Model

70 80 90 100 110

70

80

90

100

110

Quantile Plot

Model

Em

pir

ical

1e−01 1e+01 1e+03

100

150

200

Return Level Plot

Return period (years)

Retu

rn leve

l

Density Plot

x

f(x)

70 80 90 100 110 120

0.0

00.0

40.0

8

u Excedencias 1-F(u) a xi71 102 0.1798942 9.703134 -0.05656335

Log-ver Ji (0.99) Ji (0.95) LR test (p-valor)0.5844956 6.634897 3.841459 0.426902

De acuerdo a lo anterior, no hay evidencia para suponer que el modelo exponecial no es adecuado(para niveles de significancia 0.01 y 0.05).

Utilizando a y poniendo ξ = 0 obtenemos

Page 58: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

56 CAPITULO 3. EXCESOS SOBRE UN UMBRAL

0 10 20 30 400

10

20

30

40

Cuantiles teóricos (Modelo exponecial)

Cuantile

s e

stim

ados

Los cuantiles estimados bajo ambos modelos son

Modelo GPD Modelo Exp54.453 54.453

3.6. Ejercicios

1. Sea F con ωF =∞. Demuestre que si F ∈ L, entonces lımu→∞

eF (u) =∞.

2. Sea F una funcion de distribucion tal que F (0) = 0. Demuestre que eF (u) = 1F (u)

ωF∫u

(x −

u)F (dx).

3. Sea X ∼ GP (ξ, a, b). Halle la distribucion de X − u|X > u y la funcion media de excesosde la distribucion GP (ξ, a, b).

4. Sea Xn una sucesion de variables aleatorias iid con distribucion comun F . Sea L(u) =mınj ≥ 1 : Xj > u. Demuestre que L(u) tiene distribucion geometrica de parametroF (u), con soporte en 1, 2, . . . y que E [L(u)] = 1

F (u)

5. Demuestre que la esperanza de la distribucion generalizada de Pareto solamente existe cuan-do ξ > 1.

Page 59: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

Capıtulo 4

Procesos de riesgo de Levy

En este capıtulo abordaremos la aplicacion del metodo de excesos sobre un umbral para estimarcantidades relacionadas con el problema de la ruina de un proceso de riesgo. Para ello se presentaprimero la teorıa necesaria, que inicia con la definicion y algunas propiedades de los procesosde Levy. Posteriormente se definen los procesos de riesgo de Levy y se presentan las formulasasintoticas correspondientes a las cantidades que interesa estudiar en este curso. La ultima partede la teorıa presenta varios resultados que justifican el uso del Teorema de Pickands-Balkema-deHaan para estimar cantidades relacionadas con la ruina de un proceso de riesgo, utilizando lasformulas asintoticas previamente presentadas.

4.1. Procesos de Levy

Recordemos que un proceso estocastico es una coleccion de variables aleatorias indexadas por unconjunto I . Es decir, si (Ω,F ,P) es un espacio de probabilidad y tenemos X : Ω× I → R, tal quepara cada t ∈ I fijo, X(t) := X(t, ·) es una variable aleatoria, entonces el conjunto de variablesaleatorias X = X(t) : t ∈ I es un proceso estocastico.

Para ω ∈ Ω fijo e I ⊆ [0,∞), la funcion X(·, ω) → R es una trayectoria del proceso X . SiI = [0,∞), el proceso estocastico se considera como proceso estocastico a tiempo continuo. SiI = N, el proceso estocastico es a tiempo discreto.

Consideraremos I = [0,∞).

Para 0 < t1 < t2 < . . . < tn−1 < tn, elementos de I , las variables aleatoriasX(t1)−X(0), X(t2)−X(t1), . . . , X(tn) − X(tn−1) se conocen como los incrementos del proceso X . En este capıtulonos enfocaremos en la siguiente clase de procesos estocasticos.

Definicion 4.1 Sea X = X(t), t ≥ 0 un proceso estocastico. Diremos que X es un proceso deLevy si

1. P [X(0) = 0] = 1,

2. Para 0 ≤ s < t, X(t)−X(s)d= X(t− s) (los incrementos son estacionarios),

3. Para 0 ≤ s < t, X(t)−X(s) es independiente de X(u), u ≤ s y

57

Page 60: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

58 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

4. Las trayectorias deX , como funciones de t, son funciones continuas a la derecha con lımitespor la izquierda (cadlag).

Ejemplo 4.1 1. Si B = B(t), t ≥ 0 es un proceso de Levy tal que B(t) ∼ N(0, t), B seconoce como movimiento browniano estandar.

Se puede probar que este proceso se obtiene como lımite debil de cierta sucesion de cami-natas aleatorias.

2. Sean T1, T2, . . . variables aleatorias iid con distribucion exp(λ) y definamosN = N(t), t ≥0 de tal forma que

N(0) = 0, N(t) = k = Sk ≤ t < Sk+1, Sk =k∑j=1

Tj.

Se puede probar queN satisface la definicion de proceso de Levy y queN(t) ∼ Poisson(λt)para toda t > 0. Este proceso se conoce como proceso Poisson.

3. Si N = N(t), t ≥ 0 es un proceso Poisson y X1, X2, . . . son variables aleatorias iid con

distribucion F , entonces Y = Y (t), t ≥ 0 dado por Y (t) =N(t)∑j=1

Xj es un proceso de Levy

y se conoce como proceso Poisson compuesto.

Los procesos de Levy se pueden caracterizar mediante las distribuciones infinitamente divisibles.

Definicion 4.2 Sea X una variable aleatoria con distribucion F . Diremos que F es infinitamentedivisible si para cada n ∈ N existen variables aleatorias iid X1, X2, . . . , Xn con distribucion

comun Gn, tales que X d=

n∑j=1

Xj , o equivalentemente si F = G∗nn .

Recordemos que si X es una variable aleatoria con distribucion F , entonces la funcion carac-terıstica de X se define como E

[eirX

]. Esto simplemente es la transformada de Fourier de F ,

es decir E[eirX

]=∫R e

irxF (dx). De manera similar, la transformada de Laplace de X (cuandoesta existe) se define para r > 0 como E

[e−rX

]=∫R e−rxF (dx).

En terminos de funciones caracterısticas, X tiene distribucion F infinitamente divisible si y solo siexisten variables aleatorias iid X1, X2, . . . , Xn con distribucion comun Gn tales que

E[eirX

]=

n∏j=1

E[eirXj

]= E

[eirX1

]no

∫ReirxF (dx) =

(∫ReirxGn(dx)

)n.

Ejemplo 4.2 1. La distribucion Γ(α, λ) con funcion de densidad f(x) = λαxα−1e−λx

Γ(α), α, λ, x >

0 tiene funcion caracterıstica(

λλ−ir

)α. Esta funcion puede escribirse como[(

λλ−ir

)αn

]npara

toda n ∈ N.

La funcion(

λλ−ir

)αn es la transformada de Fourier de la distribucion Γ(α/n, λ), por lo que

tenemos que la distribucion Γ(α, λ) es infinitamente divisible.

Page 61: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.1. PROCESOS DE LEVY 59

2. La distribucion normal N(µ, σ2) tiene funcion caracterıstica eµir−12σ2r2 =

(eµnir− 1

2σ2

nr2)n

.

La funcion eµnir− 1

2σ2

nr2 es la funcion caracterıstica de la distribucion N(µ/n, σ2/n), por lo

tanto la distribucion N(µ, σ2) es infinitamente divisible.

3. La distribucion Poisson de parametro λ tiene funcion caracterıstica eλ(eir−1) =

(eλn(eir−1)

)n,

que implica que esta distribucion es infinitamente divisible.

Si denotamos por ϕc(r) = lnE[eirX

], tenemos que cualquier funcion caracterıstica puede escri-

birse como E[eirX

]= eϕc(r). ϕc(r) es el exponente caracterıstico de la distribucion F . Con base

en esto, se tiene la siguiente caracterizacion de las distribuciones infinitamente divisibles, conocidacomo la caracterizacion de Levy-Khintchine (ver Sato [1999]).

Teorema 4.1 Sea X una variable aleatoria con distribucion F . F es infinitamente divisible si ysolo si existe una medida ν concentrada en R\0 tal que

∫R

(1 ∧ x2)ν(dx) <∞ y

ϕc(r) = cir − 1

2σ2r2 −

∫R

(1− eirx + irx1|x|<1

)ν(dx), c ∈ R, σ ≥ 0,

para toda r ∈ R. Mas aun, la tripleta (c, σ2, ν) es unica y se conoce como tripleta caracterısticade la distribucion F .

El termino irx1|x|<1 puede omitirse cuando∫R

(irx1|x|<1

)ν(dx) < ∞ y

∫R

(1− eirx) ν(dx) <

∞.

Se puede demostrar lo siguiente.

Proposicion 4.1 Sea X = X(t), t ≥ 0 un proceso de Levy.

1. X(t) tiene distribucion infinitamente divisible para todo t > 0.

2. El exponente caracterıstico de la distribucion de X(t), denotado por ϕc,t(r) satisface laigualdad ϕc,t(r) = tϕc,1(r).

Prueba. Se probara b). La afirmacion en a) se deja como ejercicio. Supongamos t ∈ N, entoncespor la propiedad de incrementos independientes y estacionarios

E[eirX(t)

]= E

[eir(X(t)−X(t−1))

]E[eirX(t−1)

]= E

[eirX(1)

]E[eirX(t−1)

].

Procediendo recursivamente y usando que X(0) = 0 c.s., se obtiene E[eirX(t)

]=(E[eirX(1)

])t,que implica el resultado.

Analogamente se puede probar que para todo naturalm ∈ N y t > 0, E[eirX(mt)

]=(E[eirX(t)

])m.Por lo tanto, si t es un numero racional, digamos t = k/n, se tiene kϕc,1(r) = ϕc,k(r) =ϕc,n(k/n)(r) = nϕc,k/n(r), que implica ϕc,m/n(r) = k

nϕc,1(r).

Si t es irracional, existe una sucesion tn de numeros racionales, la cual puede ser decreciente,tal que tn ↓ t cuando n → ∞. En este caso, por lo demostrado anteriormente tenemos ϕc,tn(r) =

Page 62: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

60 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

tnϕc,1(r). Utilizando el Teorema de Convergencia Dominada (ya que |eirX | ≤ 1 para cualquier v.a.X) se tiene lım

n→∞E[eirX(tn)

]= E

[eirX(t)

]= eϕc,t(r) y como lım

n→∞E[eirX(tn)

]= lım

n→∞eϕc,tn (r) =

lımn→∞

etnϕc,1(r) = etϕc,1(r), se obtiene el resultado.

Con base en el resultado anterior tenemos que todo proceso de Levy es tal que las variables alea-torias que lo componen tiene distribucion infinitamente divisible. Se tiene ademas el siguienteresultado, conocido como la formula de Levy-Khintchine para procesos de Levy.

Teorema 4.2 Supongamos que c ∈ R, σ ≥ 0 y ν es una medida concentrada en R\0 tal que∫R

(1 ∧ x2)ν(dx) <∞. Sea

ϕc(r) = cir − 1

2σ2r2 −

∫R

(1− eirx + irx1|x|<1

)ν(dx), c ∈ R, σ ≥ 0, r ∈ R. (4.1.1)

Existe un espacio de probabilidad (Ω,F ,P) en el cual esta definido un proceso de Levy X =X(t), t ≥ 0, tal que tϕc(r) es el exponente caracterıstico de X(t) para toda t > 0.

En adelante, para todo proceso de Levy denotaremos a ϕc,1(r) simplemente como ϕc(r) y diremosque ϕc(r) es el exponente caracterıstico del proceso de Levy.

Juntos, los teoremas 4.1 y 4.2 nos dicen que un proceso estocastico es de Levy si y solo si suexponente caracterıstico es de la forma (4.1.1).

Se puede demostrar que ϕc(ir) = −12σ2r2 es el exponente caracterıstico de un movimiento brow-

niano con media cero y varianza σ2. La constante c en (4.1.1) se conoce como el drift (termino dederiva) del proceso y, finalmente, la parte debida a la medida ν corresponde a una parte de saltosdel proceso.

Esta descomposicion nos dice que todo proceso de Levy puede descomponerse como la sumade un drift, un movimiento browniano y un proceso de puros saltos, donde este proceso y elcorrespondiente movimiento browniano son independientes.

Ejemplo 4.3 1. Si X es tal que X(t) = ct + B(t) + S(t), donde B = B(t), t ≥ 0 es unmovimiento browniano tal que B(t) ∼ N(0, σ2t) y S = S(t), t ≥ 0 es un (λ, F )-procesoPoisson compuesto y ambos procesos son independientes, entonces

E[eirX(t)

]= ecirtE

[eirB(t)

]E[eirS(t)

]= e

ctir− 12σ2tr2−λ

∫R

(1−eirx)F (dx)

.

Se puede demostrar que la medida F satisface∫

|x|<1(1 ∧ x2)F (dx) <∞.

2. El proceso X tal que

E[eiθX(1)] =

α(iµθ−|θ|αexp−i(π/2)βK(α)sgnθ) α 6= 1,eσ(iµθ−|θ|(π/2+iβlog|θ|sgnθ)) α = 1,

(4.1.2)

donde K(α) = α− 1 + sgn(1− α) y sgnθ = 1θ>0 + θ1θ=0− 1θ<0, con σ > 0, µ ∈ R,β ∈ [−1, 1] y α ∈ (0, 2), se conoce como proceso de Levy α-estable.

Veamos algunos casos particulares de procesos de Levy que seran de suma importancia.

Page 63: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.1. PROCESOS DE LEVY 61

Definicion 4.3 Sea X = X(t), t ≥ 0 un proceso de Levy tal que ν en (4.1.1) esta concentradaen (0,∞). Si c = σ = 0, diremos entonces que X es un subordinador.

La medida ν representa la direccion de los saltos del proceso: el proceso salta hacia arriba cuando νesta concentrada en (0,∞), hacia abajo si ν esta concentrada en (−∞, 0) y en ambas direccionessi ν esta concentrada en (−∞, 0) ∪ (0,∞). Si ν se anula en todo R, entonces el proceso tienetrayectorias continuas que pueden oscilar (el movimiento browniano tiene trayectorias continuas yno monotonas).

Con esto en mente, la definicion de subordinador es equivalente a la de un proceso de Levy cuyastrayectorias son no decrecientes, como funciones del tiempo.

Definicion 4.4 Sea X un proceso de Levy tal que ν en (4.1.1) esta concentrada en (−∞, 0). Si−X no es un subordinador, diremos que X es espectralmente negativo. De manera analoga, si−X (el proceso dual deX) es espectralmente negativo, diremos queX es espectralmente positivo.

La definicion anterior nos dice que cualquier proceso X = X(t), t ≥ 0 tal que X(t) = ct +σB(t)+S(t), donde c+σ > 0 y S es un proceso con saltos unicamente negativos, es espectralmentenegativo.

SiX es espectralmente negativo o su dual de un subordinador, para todo r > 0 existe el exponentede Laplace de X , definido como

ϕ(r) = lnE[erX(1)

], r > 0.

Usando la formula de Levy-Khintchine y un cambio de variable, si X es espectralmente negativose obtiene:

ϕ(r) = cr − 1

2σ2r2 −

∞∫0+

(1− e−rx − rx1x<1)ν(dx), c+ σ > 0 (4.1.3)

Si −X es un subordinador, entonces:

ϕ(r) = cr −∞∫

0+

(1− e−rx)ν(dx), c ≤ 0. (4.1.4)

Los procesos de Levy espectralmente negativos satisfacen muchısimas propiedades importantes.Por ejemplo, la existencia de las llamadas funciones q-escala que se definen mediante el siguienteresultado.

Teorema 4.3 Sea X = X(t), t ≥ 0 un proceso de Levy espectralmente negativo con exponentede Laplace ϕ(r). Existe una familia de funciones W (q) : R → [0,∞), definidas para q ≥ 0 talesque W (q)(x) = 0 para todo x < 0, W (q)(x) es estrictamente creciente y continua en [0,∞) y sutransformada de Laplace satisface

W (q)(r) =

∞∫0

e−rxW (q)(x)dx =1

ϕ(r)− q, r > ρ(q),

donde ρ(q) es la mayor raız no negativa de la equacion ϕ(r)− q = 0.

Page 64: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

62 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

Las funcionesW (q) dadas en el teorema anterior se conocen como funciones de escala del procesoX . Por simplicidad escribiremos W en lugar de W (0).

En general no se conocen muchos ejemplos explıcitos de funciones q-escala, aunque mediantemetodos numericos es posible invertir la transformada de Laplace dada en el teorema anterior.

Para el siguiente ejemplo, recordemos que si X1, X2, . . . , Xn son variables aleatorias independien-tes con funciones de distribucion respectivas F1, F2, . . . , Fn, entonces la transformada de Laplacede X1 +X2 + · · ·+Xn es la transformada de Laplace de F1 ∗F2 ∗ · · · ∗Fn, donde esta ultima estadada por F1(r)F2(r) . . . Fn(r).

Ejemplo 4.4 1. Si X = X(t), t ≥ 0 es tal que X(t) = ct− S(t), donde S = S(t), t ≥ 0es un α-estable con α ∈ (1, 2), µ = 0, σ = 1 y saltos positivos (β = 1), se tiene que ϕ(r) =

cr + rα y por lo tanto W (r) = 1cr

cc+rα−1 . La inversa de esta transformada de Laplace es

W (x) = 1c− 1c

∞∑j=0

(−c)nΓ(1+(α−1)n)

xn(α−1), x > 0. La funcionMα,c(x) =∞∑j=0

(−c)nΓ(1+(α−1)n)

xn(α−1)

es la cola de la distribucion Mittag-Leffler.

2. Supongamos que X = X(t), t ≥ 0 es tal que X(t) = ct − S(t) y S = S(t), t ≥ 0es un (λ, F )-proceso Poisson compuesto, donde la media de F es µ. Supongamos tambienque E [X(1)] = c − λµ > 0. Se puede demostrar que ϕ(r) = cr + λ

(F (r)− 1

)y usando

ρ := ρ(q) igual a la maxima raız no negativa de ϕ(r)− q, obtenemos

W (q)(r) =1

cr + λ(F (r)− 1

)− q

=1

cr + λF (r)− cρ− λF (ρ)

=

1r−ρ

c− λ F (r)−F (ρ)ρ−r

=1

c

1r−ρ

1− λcTρF (r)

,

donde TρF (x) =∞∫x

e−ρ(u−xF (du).

Se puede demostrar que λcF (r)−F (ρ)

ρ−r |r=ρ = λc

∞∫0

xe−ρxF (dx) < λµc< 1 (ya que c− λµ > 0).

Por otro lado, 1r−ρ es la transformada de Laplace de eρ(x) = eρx, x > 0 para r > ρ.

Se sigue que

W (q)(r) =1

ceρ(r)

∞∑n=0

cTρF (r)

)n,

y por lo tanto

W (q)(x) =1

ceρ ∗

∞∑n=0

c

)n(TρF )∗n (x).

Cuando q = 0 se tiene ρ = 0 y por lo tanto

W (q)(x) =1

c

∞∑n=0

(λµ

c

)n(FI)

∗n (x).

Lema 4.1 W (q) ∈ C1(0,∞) si y solo si al menos una de las siguientes condiciones se cumple:

Page 65: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.2. PROCESOS DE RIESGO DE LEVY 63

1. σ > 0,

2.1∫

0+

xν(dx) =∞,

3. V(x) =∞∫x

ν(dy) es una funcion continua.

4.2. Procesos de riesgo de Levy

SeaX = X(t), t ≥ 0 un proceso de Levy espectralmente negativo. El procesoXu = Xu(t), t ≥0, donde u ≥ 0 y Xu(t) = u+X(t) para todo t ≥ 0, lo llamaremos proceso de riesgo de Levy,espectralmente negativo.

En Teorıa de Riesgo, este tipo de procesos modelan el capital de companıas de seguros hasta eltiempo t. El contexto es el siguiente:

SupongamosX(t) = ct−S(t), donde c > 0 y S = S(t), t ≥ 0 es de puros saltos y dichos saltosson positivos (ası que −S tiene solamente saltos negativos).

Cierta companıa de seguros se inaugura teniendo un capital inicial de u unidades monetarias ycobra a sus asegurados una cantidad fija c por cada unidad de tiempo. En todo el intervalo (0, t], lacompanıa ha recibido un total de reclamos de parte de sus asegurados y ha debido pagar un totalde S(t) unidades monetarias.

De este modo, el capital de la aseguradora hasta el tiempo t es u + ct − S(t). Cuando X tieneuna componente browniana, esta componente se considera como una perturbacion en el procesode riesgo y modela un factor aleatorio, no controlable, que puede representar perdidas o gananciaspara la companıa de seguros (por ejemplo, inversiones del capital de la companıa en la bolsa).

Cuando Xu = Xu(t), t ≥ 0 esta dado por Xu(t) = u + ct − S(t), donde u ≥ 0, c > 0 y Ses un proceso Poisson compuesto con saltos unicamente positivos, el proceso resultante se conocecomo proceso clasico de riesgo o modelo de Cramer-Lundberg para el capital de una companıade seguros.

El problema clasico de la Teorıa de Riesgo consiste en calcular expresiones para la funcion de pe-nalidad descontada esperada o funcion de Gerber-Shiu para el proceso de riesgo X . Este pro-blema ha sido ampliamente estudiado para el proceso clasico de riesgo y, recientemente, utilizandola teorıa de las funciones de escala, fue resuelto para procesos de riesgo de Levy espectralmentenegativos (ver Biffis and Morales [2010], Biffis and Kyprianou [2009]).

A continuacion definiremos la funcion de penalidad descontada esperada y presentaremos su expre-sion en terminos de funciones q-escala, para el caso de procesos de Levy espectralmente negativos.

Definicion 4.5 Sea X = X(t), t ≥ 0 un proceso estocastico. La variable aleatoria τ−0 =ınft ≥ 0 : X(t) ≤ 0 se conoce como el primer tiempo de pasada en cero o por debajo de cero.En el contexto de riesgo, si X es un proceso de riesgo, τ−0 se conoce como el tiempo de ruina deX .

Consideremos ahora una funcion ω : R+ × R+ → R+.

Page 66: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

64 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

Definicion 4.6 SeaXu = Xu(t), t ≥ 0 un proceso de riesgo con tiempo de ruina τ−0 . La funcionde penalidad descontada esperada asociada a X se define como

φ(u) = E[e−δτ

−0 ω(|X(τ0−)|, X(τ−0 )

)1τ−0 <∞|Xu(0) = u

],

donde δ > 0 se interpreta como una fuerza de interes descontado y las variables aleatorias|X(τ0−)|, X(τ−0 ) representan, respectivamente, la severidad de la ruina (el nivel por debajo decero alcanzado por el proceso al tiempo de ruina) y el capital previo a la ruina (el valor delproceso inmediatamente antes del salto que provoca la ruina).

En la practica, la funcion ω se toma de modo que ω(|X(τ0−)|, X(τ−0 )

)represente alguna penali-

dad. Es decir, alguna cantidad relacionada con la ruina del proceso y las variables |X(τ0−)|, X(τ−0 ).Por tal motivo, ω se conoce como funcion de penalidad.

Algunos ejemplos de ω son

1. ω(x, y) ≡ 1, que implica que φ(u) es la transformada de Laplace en δ de τ−0 cuando δ > 0,

2. ω(x, y) = 1x>a,y>b, para a, b > 0, que implica que φ(u) con δ = 0 es la cola conjunta de|X(τ0−)| y X(τ−0 ),

3. ω(x, y) = 1x+y>a para a > 0, que implica que φ(u), cuando δ = 0, es la cola de ladistribucion del tamano de salto que provoca la ruina.

Cuando ω(x, y) ≡ 1 y δ = 0, φ(u) se denota comoψ(u) y satisfaceψ(u) = P[τ−0 <∞|Xu(0) = u

].

ψ(u) se conoce como la probabilidad de ruina del proceso en horizonte infinito.

Se tiene el siguiente resultado.

Teorema 4.4 Sea X = X(t), t ≥ 0 un proceso de Levy y sea τ−u = ınft ≥ 0 : X(t) ≤ −uel primer tiempo de pasada de X por o debajo del nivel −u con u ≥ 0. Si E [X(1)] ≤ 0, entoncesτ−u es finito con probabilidad 1.

El resultado anterior nos dice que si Xu = Xu(t) = u + X(t), t ≥ 0 es un proceso de riesgode Levy que empieza en u, entonces ψ(u) = 1 cuando E [X(1)] ≤ 0. Por tal motivo, el estudiode estos procesos se hace bajo el supuesto de que E [X(1)] > 0, en cuyo caso ψ(u) < 1. Estacondicion se conoce como la Net Profit Condition (condicion de ganancia neta).

El siguiente teorema contiene una generalizacion de la funcion de penalidad descontada esperada.En dicha generalizacion, la funcion ω se toma como ω : R3

+ → R+ y

φ(u) = E

[e−qτ

−0 ω

(|X(τ0−)|, X(τ−0 ), ınf

0≤t<τ−0X(t)

)1τ−0 <∞

∣∣∣∣∣Xu(0) = u

], (4.2.5)

Teorema 4.5 [Biffis and Morales [2010], Biffis and Kyprianou [2009]]. Sea X = X(t), t ≥ 0un proceso de Levy espectralmente negativo con tripleta (c, σ, ν), c > 0, σ ≥ 0 y sea Xu =

Page 67: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.3. CONVERGENCIA DEBIL DE PROCESOS DE LEVY 65

Xu(t), t ≥ 0 el proceso de riesgo construido a partir de X , para u ≥ 0. En este caso, la funciongeneralizada de penalidad descontada esperada dada en (4.2.5) tiene la expresion

φ(x) =

∫(0,∞)3

1v≥yω(u, v, y)e−ρ(v−y)[(W (q)

)′(x− y)− ρW (q)(x− y)

]ν(du+ v)dydv

+σ2

2

[(W (q)

)′(x)− ρW (q)(x)

].

En este caso W (q) es la funcion q-escala asociada a X ,(W (q)

)′(x) es su primera derivada con

respecto a x y ρ = ρ(q) es la maxima raız no negativa de ϕ(r)−q = 0, donde ϕ(r) es el exponentede Laplace de X .

Notese que el valor q en (4.2.5) representa la fuerza de interes descontado, la cual aparece en laformula dada en el Teorema 4.5 mediante el ındice de la funcion q-escala. El teorema anterior serautilizado para obtener todos los casos particulares de φ con los que trabajaremos en la ultima partede este curso.

4.3. Convergencia debil de procesos de Levy

En esta seccion veremos que todo proceso clasico de riesgo puede aproximarse vıa un tipo parti-cular de proceso de Levy llamado proceso Pareto-estable generalizado.

La aproximacion sera en el sentido de convergencia debil, segun la siguiente definicion.

Definicion 4.7 Para cada n ∈ N, sea Xn = Xn(t), t ≥ 0 un proceso estocastico consideremosla sucesion Xn. Diremos que la sucesion de procesos estocasticos Xn converge debilmentea un proceso X si lımn→∞ E [f(Xn)] = E [f(X)], para toda funcion f continua y acotada. Estaconvergencia la denotaremos como Xn ⇒ X .

En general, el problema de determinar cuando una sucesion de procesos estocasticos converge aun proceso estocastico, es un problema altamente difıcil. Muchos criterios para tener este tipo deconvergencia se basan en el uso de la llamada Topologıa de Skorokhod, la cual puede consultarseen Billingsley [1999].

El caso de los procesos de Levy es mucho mas simple gracias al siguiente resultado, el cual es elTeorema 15.17 de Kallenberg [2002].

Teorema 4.6 Sean X,X1, X2, . . . , Xn, . . . procesos de Levy en Rd, d ≥ 1 tales que Xn(1)d→

X(1). Existe una sucesion de procesos de Levy Xn, tales que Xnd= Xn y (Xn−X)∗t

P→ 0, paratoda t ≥ 0, donde (X)∗t = sup

0≤s≤tX(s).

El resultado anterior puede aplicarse para determinar si una sucesion de procesos de Levy convergea otro proceso de Levy, utilizando unicamente la convergencia en distribucion de las variablescorrespondientes al tiempo t = 1.

El siguiente resultado es una aplicacion de este hecho.

Page 68: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

66 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

Teorema 4.7 Sean Xj variables aleatorias iid con media cero y varianza finita σ2. Sea N =N(t), t ≥ 0 un proceso Poisson independiente de Xn con intensidad λn. El proceso Poissoncompuesto Sn = Sn(t), t ≥ 0, donde Sn(t) = 1√

n

∑N(nt)j=1 Xj , converge debilmente a Bλ =

Bλ(t), t ≥ 0, donde Bλ(t) ∼ N(0, λσ2t).

Prueba. Usaremos que E[eisX1

]= 1 + is√

nE [X1] + i2s2

2nE [X2

1 ] + o(1/n), donde o(1/n) es tal queno(1/n) → 0 cuando n → ∞. Esto puede demostrase utilizando los argumentos que demuestrasla igualdad 9.16 en la pagina 305 de Resnick [1999].

Con esto en mente y usando que E[eisSn(1)

]= e

λn

(E[eis√nX1]−1

)y E [X1] = 0, tenemos

E[eisSn(1)

]= exp

λn

(is√nE [X1] +

i2s2

2nE[X2

1

]+ o(1/n)

)= exp

λn

(−s

2

nσ2 + o(1/n)

)= exp

−λσ

2s2

2+ no(1/n)

.

Tomando lımite cuando n → ∞ en la igualdad anterior tenemos que lımn→∞ E[eisSn(1)

]=

e−λσ2s2

2 que es la funcion caracterıstica de una distribucion N(0, 2λσ2). El teorema de continuidadde Levy nos dice que la sucesion de v.a.Xn converge en distribucion a una v.a.X ssi sus funcionescaracterısticas convergen, por lo tanto tenemos que Sn(1) converge en distribucion a Bλ(1) y porel Teorema 4.6 obtenemos el resultado.

Como consecuencia del resultado anterior tenemos lo siguiente.

Corolario 4.1 SeaXu,n = Xu,n(t), t ≥ 0 comoXu,n(t) = u+(c− λµn1/2

)t− 1√

nSn(t), donde

Sn = Sn(t), t ≥ 0 es el (λn, F ) proceso Poisson compuesto Sn(t) = 1√n

∑N(nt)j=1 (Xj − µ), con

X1, X2, . . . v.a. iid con distribucion F , media µ y varianza finita σ2. Se cumple que Xu,n ⇒ Bλ,donde Bλ es el movimiento Browniano dado en el teorema anterior.

Anteriormente vimos el ejemplo del movimiento α-estable, sin especificar su medida de Levy. Sepuede demostrar que siWα = Wα(t), t ≥ 0 es el movimiento α-estable con α ∈ (0, 2), entonces

ϕc(s) =

∫R\0

(1− eisx + isx1(−1,1)(x)

)να(dx),

donde vα(dx) = c−|x|−1−α1x<0dx + c+x−1−α1x>0, donde c− y c+ son constantes tales que el

parametro β es igual a c+−c−c++c−

.

Se puede demostrar que cuando α→ 2, el proceso α-estable converge a un movimiento browniano.

En general, las distribuciones en el dominio D(φF ) no tienen por que cumplir la hipotesis delTeorema 4.7. Por ejemplo, cualquier distribucion Pareto con parametro de forma α ∈ (1, 2) tienemedia finita pero varianza infinita, por lo que la aproximacion dada en el Teorema 4.7 falla, en estecaso.

El siguiente resultado permite hacer aproximaciones en estos casos.

La demostracion puede encontrarse en Morales [2003], pagina 96 (Proposicion 5.1).

Page 69: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.3. CONVERGENCIA DEBIL DE PROCESOS DE LEVY 67

Teorema 4.8 Sean X1, X2, . . . v.a. iid con distribucion comun F . Sea M = M(t), t ≥ 0 unproceso Poisson con intensidad λ y definamos Xu,n = un + Xn(t), t ≥ 0, donde Xn(t) =

cnt− 1bn

∑M(t)j=1 Xj para constantes an, bn, cn tales que cn−an

bn→ c cuando n→∞ y un ≥ 0 tales

que un → u cuando n→∞.

1. Si F ∈ D(Hξ) con 1/ξ ∈ (1, 2), entonces la media de F , denotada por µ, es finita y Xu,n ⇒X

(α)u , dondeX(α)

u = X(α)u (t), t ≥ 0,X(α)

u (t) = u+ct−λ1/αWα(t) yWα = Wα(t), t ≥ 0es un movimiento α-estable con β = 1, media cero y α ∈ (1, 2). Las constantes an y bn sonan = λnµ y bn = n1/αL(n)

2. Si F ∈ D(H0), entonces la media y varianza de F , denotadas por µ y σ2 respectivamente,son finitas yXu,n ⇒ Xu, dondeXu = Xu(t), t ≥ 0,X(α)

u (t) = u+ct−√λ(µ2 + σ2)B(t)

y B = B(t), t ≥ 0 es un movimiento browniano estandar. En este caso an = λnµ ybn = σ

√n.

El siguiente proceso de Levy nos sera util para obtener una ultima aproximacion de los procesosclasicos de riesgo.

Definicion 4.8 Sea P = P (t), t ≥ 0 el proceso de Levy con exponente caracterıstico

ϕ(s) =

∫ ∞0+

[1− eisx − isx1(0,1)

]pα(dx),

donde

pα(dx) =

λα

(β+x)α+1 1(0,∞)(x)dx, α = 1ξ∈ (1, 2),

λβe−

xβ 1(0,∞)(x)dx, α =∞ (ξ = 0).

Llamaremos a P , proceso Pareto-estable generalizado.

Este proceso fue introducido en Morales [2003].

En este trabajo, el autor demuestra que si tomamos β1(u), β2(u) tales que β1(u)→ β/α, β2(u)→β, cuando u → 0 y β1(u)/u → 1

αcuando u → ∞, puede definirse una generalizacion de este

proceso, digamos Pα,u = Pα,u(t), t ≥ 0, cuya medida de Levy pα,u(dx) esta dada por

pα,u(dx) =

λα

(αβ1(u)+x−u)α+1 1(u,∞)(x)dx, α = 1ξ∈ (1, 2),

λβ2(u)

e− xβ2(u) 1(u,∞)(x)dx, α =∞ (ξ = 0).

El proceso anterior corresponde a un proceso Poisson compuesto con intensidad λ(u) = λ[αβ1(u)]α

si α ∈ (1, 2) y λ(u) = λe−u/β2(u) cuando α =∞.

La principal aplicacion de este proceso es el siguiente resultado (Proposicion 5.2 en Morales[2003])

Proposicion 4.2 Sea S = S(t), t ≥ 0 un (λ, F )-proceso Poisson compuesto dado por S(t) =∑N(t)j=1 Xj , dondeN = N(t), t ≥ 0 es un proceso Poisson con tasa λ yX1, X2, . . . son variables

aleatorias iid con distribucion comun F , cuya media es finita.

Sea Su(t) =∑N(t)

j=1 Xj1(u,∞)(Xj) con u > 0. Si F ∈ D(H1/α), se cumple que

lımu→∞|P [Su(t) ≤ x]− P [Pα,u(t) ≤ x]| = 0.

Page 70: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

68 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

Lo anterior implica, en cierto sentido, una convergencia debil de Su a Pα,u: para valores grandesde u, la parte de saltos del proceso original, donde los saltos tienen tamanos mayores a u, se puedeaproximar mediante un proceso Pareto-estable generalizado.

El pedazo restante se considera de la siguiente manera:

Definimos Zu(t) =∑N(t)

j=1 Xj1(0,u](Xj) y notamos que este es un proceso Poisson compuesto conmedida de Levy

ν<u(dx) = λ1(0,u](x)F (dx),

e intensidad ν∗<u(dx) = γ(u) = λF (u). Dado que la medida de Levy normalizada 1(0,u](x)F (dx)/F (u)es una medida de probabilidad con soporte en un intervalo acotado, este proceso cumple las hipote-sis del Teorema 4.8, inciso b, por lo tanto Zu puede aproximarse mediante el proceso Bu =γ(u)µu +

√γ(u)(µ2

u + σ2u)B(t), t ≥ 0, donde µu y σ2

u son, respectivamente, la media y va-rianza de la distribucion ν∗<u.

De esto se obtiene el siguiente resultado:

Proposicion 4.3 Sea Xa = a + X(t), t ≥ 0 un proceso clasico de riesgo con drift c ≥ 0,cuyos montos de reclamos tienen distribucion F . Sea u > 0. Si F ∈ D(H1/α), entonces para usuficientemente grande tenemos

Xa(t) ≈ a+ cut−√γ(u)(µ2

u + σ2u)B(t)− Pα,u(t),

donde cu = c− γ(u)µu.

4.4. Probabilidades de ruina

En esta seccion presentaremos formulas para la probabilidad de ruina ψ(u) para los procesos deriesgo estudiados en la seccion anterior. Como se menciono anteriormente, ψ(u) se obtiene de lafuncion de penalidad descontada esperada utilizando ω(x, y, z) = 1 y δ = 0.

El siguiente es uno de los resultados basicos de la teorıa de funciones de escala y puede consultarseen Kyprianou [2006].

Proposicion 4.4 Sea X un proceso de riesgo de Levy espectralmente negativo tal que E [X(1)] >0. Si X es cualquier proceso de Levy espectralmente negativo con exponente de Laplace ϕ(s), secumple que

ψ(u) = 1− ϕ′(0+)W (u).

Se puede ver que ϕ′(0+) = c−λµ en el caso de procesos clasicos de riesgo, con o sin componentebrowniana.

Por lo tanto tenemos el siguiente resultado.

Proposicion 4.5 Sea Xa = a + ct + γB(t) − S(t) un proceso clasico de riesgo, donde γ >

0, S(t) =∑N(t)

j=1 , X1, X2, . . . son v.a. iid con distribucion comun F y media finita µ y N =N(t), t ≥ 0 es un proceso Poisson con tasa λ, independiente de las Xj . Si E [Xa(1)] > 0,entonces

W (x) =1

cGcγ−2(x) +

1

cGcγ−2 ∗

∞∑n=1

(λµ

c

)n(FI ∗Gcγ−2)∗n (x), x > 0,

Page 71: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.4. PROBABILIDADES DE RUINA 69

donde Gcγ−2(x) = 1− e−cγ−2x, x > 0. Si γ = 0, entonces

W (x) =1

c+

1

c

∞∑n=1

(λµ

c

)n(FI)

∗n (x), x > 0.

La demostracion del caso γ = 0 se realizo anteriormente. La demostracion del caso γ > 0 se dejacomo ejercicio.

El resultado anterior incluye como casos particulares el proceso Pareto-estable generalizado y laaproximacion dada en la Proposicion 4.3.

Para completar los casos vistos en la seccion anterior, necesitamos calcular la funcion de escala enlos casos en los que X(t) = ct+ γB(t) y X(t) = ct− λ1/αWα(t).

Justamente, estos dos casos corresponden a los pocos ejemplos de funciones de escala perfecta-mente conocidos.

Proposicion 4.6 Si X, Y son dos procesos de Levy tales que X(t) = ct + γB(t) y Y (t) = ct −ηWα(t), donde B = B(t), t ≥ 0 es un movimiento browniano estandar y Wα = Wα(t) es unproceso α-estable con α ∈ (1, 2), media cero y β = 1, entonces

W (x) =

1c

(1− e−cγ−2x

)1(0,∞)(x), para X,

1c

(1−

∑∞n=0

(−cη−α)n

Γ(1+α−1n)xn(α−1)

)1(0,∞)(x), para Y.

La funcion Gc,η,α(x) =

(1−

∑∞n=0

(−cη−α)n

Γ(1+α−1n)xn(α−1)

)1(0,∞)(x) es una funcion de distribucion,

conocida como la distribucion Mittag-Leffler.

En el caso de los procesos considerados en el resultado anterior, se puede ver que ϕ′(0+) = c, porlo que para x ≥ 0

ψ(x) =

e−cγ

−2x, para X,∑∞n=0

(−cη−α)n

Γ(1+α−1n)xn(α−1), para Y.

El caso del movimiento browniano con drift es facilmente calculable e implementable para calculosnumericos. El segundo caso puede calcularse truncando la suma hasta un valor N grande (elegidode modo que el valor de la suma “cambie poco.en el caso N + 1) o mediante el siguiente resultado(Lema 1, iii en Furrer [1998]).

Proposicion 4.7 Sea F la distribucion Mittag-Leffler con cola F (x) =∑∞

n=0

(−cη−α)n

Γ(1+α−1n)xn(α−1).

Se cumple que

F (x) ≈ ηα

cΓ(2− α)x1−α, x→∞.

En la aproximacion dada en el Teorema 4.8, podemos tomar un = u para toda n ∈ N. En este caso,utilizando que

ψn(u) = P

⋃t≥0

cnt−M(t)∑l=1

Xj < −u

= P

⋃t≥0

(cn − an)t−

M(t)∑l=1

Xj − ant

< −u

,

Page 72: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

70 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

la aproximacion puede hacerse utilizando que ψn(u) ∼ ψaprox(u/bn), donde ψaprox(u/bn) es laprobabilidad de ruina del proceso lımite correspondiente.

Finalmente, como consecuencia de la continuidad de los tiempos de ruina de procesos de Levy, siXa un proceso clasico de riesgo con probabilidad de ruina ψX(x), tal que Xa ≈ Pα,u para u > 0suficiente grande y cierto α ∈ (1, 2), y si ψu(x) es la probabilidad de ruina de Pα,u, se cumple queψX(x) ∼ ψu(x) para u > 0 suficientemente grande.

4.5. La distribucion geometrica compuesta

Las probabilidades de ruina para procesos clasicos de riesgo estudiadas en la seccion anterior,corresponden a colas de un tipo especial de distribucion llamada distribucion geometrica com-puesta. En esta seccion veremos algunos resultados estandar sobre esta distribucion.

Comenzaremos definiendola. Para ello, consideramos una sucesion de variables aleatorias no ne-gativas Xn, todas iid con distribucion comun F y sea M ∼ Geo(p) con soporte en 0, 1, . . . .Vamos a hallar la distribucion de SM =

∑Mj=1 Xj donde SM = 0 si M = 0. Para ello haremos

uso de la transformada de Laplace (la cual existe porque todas las variables involucradas son nonegativas). Tenemos:

E[e−sSM

]=∞∑k=0

E[e−s

∑Mj=1Xj |M = k

]p(1− p)k =

∞∑k=0

(F (s)

)kp(1− p)k

= p∞∑k=0

(F (s)(1− p)

)k=

p

1− (1− p)F (s)= p

∞∑n=0

(1− p)n(F (s)

)n. (4.5.6)

Lema 4.2 SeaF una funcion de distribucion conF (0) = 0 y definamos g(x) =∞∑n=0

(1−p)nF ∗n(x).

Se tiene que g(s) =∞∑n=0

(1− p)n(F (s)

)n

Prueba. Definamos gk(x) =k∑

n=0

(1−p)nF ∗n(x). Dado que 1−p, F ∈ [0, 1], tenemos que gk(x) ≥ 0

para todo k y para todo x ≥ 0. Ademas, gk(x) es una sucesion creciente tal que lımk→∞ gk(x) =g(x) para cada x ≥ 0. Por lo tanto, utilizando el teorema de convergencia monotona:

∞∫0

e−sx∞∑n=0

(1− p)nF ∗n(dx) =

∞∫0

e−sx lımk→∞

k∑n=0

(1− p)nF ∗n(dx) = lımk→∞

∞∫0

e−sxk∑

n=0

(1− p)nF ∗n(dx)

= lımk→∞

k∑n=0

(1− p)n∞∫

0

e−sxF ∗n(dx)

= lımk→∞

k∑n=0

(1− p)n(F (s)

)n=∞∑n=0

(1− p)n(F (s)

)n.

Page 73: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.5. LA DISTRIBUCION GEOMETRICA COMPUESTA 71

Con ayuda del lema anterior y (4.5.6) tenemos que SM tiene distribucion dada por FSN (x) =

p∞∑n=0

(1− p)nF ∗n(x).

A la distribucion de SM la llamaremos distribucion geometrica compuesta con caracterıstica(p, F ).

Recordemos que dos distribuciones F,G asociadas a variables aleatorias no negativas y tales queωF = ωG satisfacen la relacion F (x) ≈ cG(x) cuando x→ ωF si lımx→ωF

F (x)

G(x)= c.

El siguiente resultado se probo en Embrechets et al. [1979].

Proposicion 4.8 Sea F ∈ S tal que F (0) = 0 y sea G la distribucion geometrica compuesta concaracterıstica (p, F ). Las siguientes afirmaciones son equivalentes:

1. F ∈ S,

2. G ∈ S,

3. G(x) ≈ 1−ppF (x).

Prueba. El unico resultado que utilizaremos es 1) ⇒ 3). Para probarlo utilizaremos la igualdad

G(x) = p∞∑n=1

(1− p)nF ∗n(x).

Se puede probar que si F es subexponencial, para toda ε > 0 existe D ∈ R tal que F ∗n(x)

F (x)≤

D()1 + ε)n para toda x > 0 y n ∈ N. Utilizando este resultado, sea ε tal que (1− p)(1 + ε) < 1,tenemos que existe D tal que F ∗n(x)

F (x)≤ D()1 + ε)n. Por lo tanto

G(x)

F (x)= p

∞∑n=1

(1− p)nF∗n(x)

F (x)< p

∞∑n=1

(1− p)n(1 + ε)n =p(1− p)

1− (1− p)(1 + ε)<∞. (4.5.7)

Lo anterior implica que podemos tomar lımite cuando n → ∞ e intercambiar lımite y suma. Porlo tanto si M ∼ Geo(p), utilizando la Proposicion 2.3, inciso 1, tenemos:

lımx→∞

G(x)

F (x)= p

∞∑n=1

(1− p)n lımx→∞

F ∗n(x)

F (x)=∞∑n=1

np(1− p)n = E [M ] =1− pp

(4.5.8)

Supongamos ahora que F (s) = P (s)∏kj=1(qj+s)

mj, dondem1, . . . ,mk son numeros naturales que suman

m, 0 < q1 < . . . < qk y P (s) es un polinomio de grado a lo masm−1. En este caso la distribuciongeometrica compuesta con caracterıstica (p, F ) es equivalente a

G(x) =k∑j=1

m∗j∑l=1

βjlFl,j(x),

donde Fl,j son distribuciones Erlang(l, q∗j ), βjl = 1(q∗j )l(m∗j−l)!

dm∗j−l

dsm∗j−l

[p∏kj=1(qj+s)

mj∏k∗h=1,h6=j(q

∗h+s)

m∗h

]s=−q∗j

y∏k∗

h=1(q∗h + s)m∗h =

∏kj=1(qj + s)mj − (1− p)P (s).

Page 74: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

72 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

La forma particular en la que se construye la distribucion geometrica compuesta nos permite si-mular datos de ella mediante el siguiente algoritmo:

Algoritmo 4.1

1. Simulamos un valor de M ∼ Geo(p).

2. Dado M = m, simulamos m valores provenientes de la distribucion F y los sumamos.

3. Repetimos el procedimiento, de ser necesario, hasta completar la muestra del tamano desea-do.

Este metodo puede ser util para simular, por ejemplo, P [SM > u]. La manera de hacerlo y elporque de su validez se describen a continuacion:

Tenemos que P [SM > u] = E[1SM>u

]. La variable Y (u) = 1SM>u tiene distribucion Bernou-

lli con parametro pu = P [SM > u] y sabemos de la Ley fuerte de los numeros grandes que, siXn son variables aleatorias iid con media µ, entonces n−1

∑j=1 Xj

c.s.→ µ cuando n→∞.

Por lo tanto, si tenemos una sucesion de replicas iid de Y (u), digamos Y1(u), Y2(u), . . . , tenemosque n−1

∑nj=1 Yj(u)

c.s.→ E[1SM>u

]= pu cuando n→∞.

Ejemplo 4.5 En la siguiente grafica se simula P [SM > u] donde SM tiene distribucion geometri-ca con p = 0.1 y F (x) =

(5

x+5

)1.5.

Las graficas corresponden al resultado del algoritmo 4.1 (color rojo) y a la aproximacion dadaen la Proposicion 4.8 (color morado). En la simulacion vıa el algoritmo se utilizo N = 100000 ypara la aproximacion se consideraron datos a partir de u = 1000.

1000 1500 2000 2500 3000

0.0

00

0.0

01

0.0

02

0.0

03

0.0

04

0.0

05

Datos

Estim

acio

nes

Simulación de distribución geométrica compuesta

Page 75: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.6. ESTIMACION DE LA PROBABILIDAD Y LA SEVERIDAD DE LA RUINA 73

El algoritmo 4.1 y la Proposicion 4.8, junto con los resultados de la seccion anterior, seran piezaclave para las estimaciones que veremos a continuacion.

4.6. Estimacion de la probabilidad y la severidad de la ruina

Si X es un proceso de Levy espectralmente negativo con saltos dados por un (λ, F )- procesoPoisson compuesto y drift c, con F continua, tenemos que

ψ(u) = 1− c− λµc

∞∑n=0

(λµ

c

)nF ∗nI (u),

donde µ es la media de F y FI es la distribucion de cola integrada de F .

Lo anterior indica que la probabilidad de ruina para el proceso clasico de riesgo es igual a la colade la distribucion geometrica compuesta con caracterıstica (p, FI) con p = 1 − λµ

c. Esta cantidad

es, en efecto, un numero entre 0 y 1 debido a la Net Profit Condition E [X(1)] > 0.

Debido a que la distribucion geometrica compuesta con caracterıstica (λ, F ) se reduce a una mez-cla de distribuciones Erlang cuando F es una mezcla de distribuciones Erlang, la probabilidad deruina tiene una formula explıcta en dicho caso.

El siguiente resultado incluye la famosa aproximacion de Cramer Lundberg y el Teorema deEmbrechts-Veraverbeke para la probabilidad de ruina.

Teorema 4.9 Sea X un proceso clasico de riesgo cuyos reclamos tienen distribucion F e intensi-dad λ. Sea c > 0 el drift del proceso y supongamos que se cumple la Net Profit Condition.

a) Supongamos que existe R > 0 tal que λ(F (−R)− 1

)= cR, entonces

ψ(u) < e−Ru, u > 0,

y ψ(u) ≈ c− λµλ ddsF (−s)|s=R − c

e−Ru, u→∞.

b) Si FI ∈ S, entonces

ψ(u) ≈ λµ

c− λµF I(u), u→∞.

En ambos casos, µ es la media de la distribucion F .

Se puede notar que b) en el teorema anterior es una consecuencia directa de la Proposicion 4.8.

Con base en las herramientas estudiadas en este curso, tenemos las siguientes opciones para estimarla probabilidad de ruina, en el caso en el que la distribucion de los reclamos es desconocida:

1. Utilizar datos para ajustar alguna distribucion conocida a los reclamos y estimar mediante elalgoritmo 4.1 y la Proposicion 4.8.

2. Estimar las probabilidades de ruina utilizando el Teorema 4.8 y los resultados asintoticoscorrespondientes.

Page 76: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

74 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

3. Suponiendo que F pertenece a algun dominio de atraccion maximal, estimar FI utilizandoel Teorema de Pickands-Balkema-de Haan y utilizar la Proposicion 4.8 o el Teorema 4.9,inciso a.

4. Determinar si el correspondiente proceso de riesgo converge al proceso Pareto-estable gene-ralizado y utilizar esta convergencia junto con la correspondiente estimacion de la probabi-lidad de ruina.

En caso de que se desee utilizar la Proposicion 4.8 o el Teorema 4.9, el problema principal radicaen que los datos con que se cuenta corresponden a la distribucion F de los reclamos, mientras quelas formulas asintoticas estan en terminos de FI .

El problema, entonces, es equivalente a lo siguiente:

1. Estimar la cola integrada F I y

2. Determinar si el estimador de F I puede ser aplicado vıa la relacion ψ(u) ≈ cF I(u), paravalores grandes de u.

Es natural suponer que si podemos estimar F mediante el metodo de excesos sobre un umbral,entonces estimar F I deberıa ser posible integrando la estimacion de F y estimando la media de F .

Los primeros dos resultados que presentaremos muestran que, en efecto, F I puede estimarse vıala integral del estimador de F obtenido vıa el metodo de excesos sobre un umbral, al menos en loscasos Frechet y Gumbel.

Teorema 4.10 Sea F una funcion de distribucion tal que F (0) = 0, F (x) = x−1/ξL(x), dondeξ > 0, L es de variacion lenta en infinito y localmente acotada en [x0,∞) para algun x0 > 0.Supongamos tambien que

lımu→∞

sup0<x<∞

∣∣∣∣F (x+ u)

F (u)−Gξ,ξu(x)

∣∣∣∣ = 0,

para cierta GPD, Gξ,a(u). Se cumple que

lımu→∞

sup0<x<∞

∣∣∣∣F I(x+ u)− F (u)

µ

∫ ∞x

Gξ,ξu(y)dy

∣∣∣∣ = 0,

donde µ es la media de F .

Dado que el dominio de atraccion Frechet consta de todas las distribuciones con cola de variacionregular y todas estas distribuciones son subexponenciales, el teorema anterior sugiere que pode-mos utilizar el metodo de excesos sobre un umbral para estimar FI y despues aplicar la formulaasintotica de la Proposicion 4.8 para estimar la probabilidad de ruina del proceso correspondiente.

Veamos ahora la version del Teorema 4.10 para el caso Gumbel. Este resultado fue probado enKaasik [2009], Proposicion 4.5.

Page 77: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.6. ESTIMACION DE LA PROBABILIDAD Y LA SEVERIDAD DE LA RUINA 75

Teorema 4.11 Sea F ∈ D(H0) una distribucion continua con funcion media de exceso mF . Su-pongamos que

lımu→∞

sup0<x<∞

∣∣∣∣F (xmF (u) + u)

F (u)−G0,1(x)

∣∣∣∣ = 0,

y que existen u0 y K tales que para toda y > K:

F (ymF (u) + u)

F (u)≤ F (ymF (u0) + u0)

F (u0).

Entonces

lımu→∞

sup0<x<ωF

∣∣∣∣∣∣∞∫x

F (ymF (u) + u)

F (u)dy −

∞∫x

G0,1(y)dy

∣∣∣∣∣∣ = 0.

La hipotesis del teorema anterior tiene sentido si se toma en cuenta lo siguiente:

La convergencia a la distribucion Pareto generalizada en la hipotesis del teorema, cuando ξ = 0,es equivalente a que la distribucion F pertenezca al dominio de atraccion Gumbel (Teorema 3.4),lo cual es equivalente a que exista una funcion estrictamente positiva (que puede ser mF ) tal quelımt→ωF

F (t+xg(t))t

= e−x para toda x ∈ R (Teorema 2.3).

De este modo, dado que la convergencia a la distribucion Pareto generalizada es una convergenciaa la distribucion exp(1/a(u)), para cierta a(u) que se estima a partir de los datos, podemos notarque a(u) puede tomarse como mF (u) para este caso.

Tambien se conoce una posible eleccion para a(u) en el caso del dominio de atraccion Frechet: delesboso de prueba del Teorema 3.4, si suponemos que el parametro de localizacion de la DGP esb = 0, a(u) puede tomarse igual a ξu. Esto justifica la hipotesis en el Teorema 4.10.

El problema siguiente consiste en lo siguiente: si F (x) ≈ cH(x) cuando x → ∞ para c > 0y H(x + u) ∼ Gξ,a(u)(x) para cierta distribucion Pareto generalizada Gξ,a(u) ¿se cumple queF (x+ u) ∼ c2Gξ,a(u)(x) para cierta constante c2?

Por los resultados en la Seccion 2.3, sabemos que los dominios de atraccion son cerrados bajo laequivalencia de colas, denotada por ≈, por lo que, si F,H son dos funciones de distribucion conextremo derecho ωF tales que F (x) ≈ H(x) cuando x → ωF entonces, para ciertas constantesan, bn:

1 = lımx→ωF

1− F n(anx+ bn)

1−Hn(anx+ bn)∼ lım

x→ωF

Gξ1,a1(u)(x)

Gξ2,a2(u)(x),

para u, n suficientemente grandes. Esto significarıa que la aproximacion de F mediante el metodode excesos sobre un umbral deberıa coincidir con la aproximacion de H obtenida vıa este mismometodo, al menos para valores de x suficientemente grandes.

El siguiente resultado demuestra que esto en efecto ocurre, al menos en el caso cuando el extremoderecho es infinito.

Proposicion 4.9 Sean F,H dos funciones de distribucion tales que F (0) = H(0) = 0, ωF =

ωH =∞ y lımu→∞

H(u)

F (u)= 1. Supongamos ademas que

lımu→∞

sup0<x<∞

∣∣∣∣F (x+ u)

F (u)−Gξ,a(u)(x)

∣∣∣∣ = 0,

Page 78: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

76 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

para cierta DGP con cola Gξ,a(u). Se cumple que

lımu→∞

sup0<x<∞

∣∣∣∣H(x+ u)

H(u)−Gξ,a(u)

∣∣∣∣ = 0 (4.6.9)

Finalmente, en las aproximaciones anteriores no se toma en cuenta la estimacion de la media deF . Dicha media puede estimarse mediante la ley fuerte de los grandes numeros. Sin embargo,debido al tipo de convergencia de los resultados anteriores, esto no necesariamente garantizarıa laconvergencia correspondiente.

Para lidiar con este problema, notemos que µ = E [X] = E [X|X ≤ u]F (u)+E [X|X > u]F (u) =E [X|X ≤ u]F (u)+(u+µE(u))F (u), donde µE(u) es la media de la distribucion deX−u|X > u.

En Kaasik [2009], Proposicion 4.4 se propone el siguiente estimador:

Si X1, X2, . . . , Xn son una muestra aleatoria de la distribucion F , u > 0 es un umbral fijo tal queY1, Y2, . . . , YN son las excedencias sobre dicho umbral, entonces

µ =

n∑j=1

Xj −N∑l=1

Yl + µE(u)N

n, (4.6.10)

donde µE(u) es un estimador de µE(u). Si este estimador no esta correlacionado con N y esinsesgado, entonces µ es un estimador insesgado de µ.

Para concluir esta seccion, veremos que existe una formula asintotica para la severidad de la ruina.Este resultado puede probarse utilizando el metodo presentado en Kolkovska and Martın-Gonzalez[2016].

Proposicion 4.10 SeaX un proceso clasico de riesgo con drift c > 0 y cuyas magnitudes de saltostienen distribucionF e intensidad λ. Sea µ la media deF y definamos Υ(u; a) = Pu [|X(τ0)| > a, τ0 <∞],entonces

Υ(u; a) ≈ λµ

c− λµF I(u+ a), u→∞.

4.7. Ejercicios

1. Demuestre que todo proceso de Levy tiene distribucion infinitamente divisible.

2. Sea F : R → [0,∞) tal que F (0) = 0 una funcion de distribucion y defınase TsF (x) =∞∫0

e−s(y−x)F (dy) para todo s > 0. Demuestre que TsF (r) = F (r)−F (s)s−r , donde F (r) =

∞∫0

e−rxF (dx).

3. Halle una expresion para W (q) en el caso en el que X = X(t), t ≥ 0 esta dado porX(t) = ct − S(t), donde c > 0 y S = S(t), t ≥ 0 es un proceso α-estable con µ = 0,σ = 1, β = 1 (saltos positivos) y α ∈ (1, 2).

Page 79: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

4.7. EJERCICIOS 77

4. Una variable aleatoria X con funcion caracterıstica

E[eiθX ] =

α(iµθ−|θ|αexp−i(π/2)βK(α)sgnθ) α 6= 1,eσ(iµθ−|θ|(π/2+iβlog|θ|sgnθ)) α = 1,

donde K(α) = α−1 + sgn(1−α) y sgnθ = 1θ>0+ θ1θ=0−1θ<0, con σ > 0, µ ∈ R yα ∈ (0, 2), se dice que tiene distribucion α-estable. Demuestre que la distribucion α-establees infinitamente divisible.

5. Demuestre que todo subordinador X = X(t), t ≥ 0 con tripleta caracterıstica (c, 0, ν) yexponente caracterıstico ϕ(r) satisface las igualdades en lımite

lımr↓0

ϕ(r)

r= c y lım

r↑∞

ϕ(r)

r= E [X(1)] .

6. Suponga que X = X(t), t ≥ 0 es un proceso de Levy espectralmente negativo con saltosdados por un (λ, F )-proceso Poisson compuesto. Demuestre que para toda q > 0,W (q)(x) ≈

1ϕ′(0+)

eρx cuando x→∞ (es decir lımx→∞

W (q)(x)1

ϕ′(ρ) eρx = 1).

7. Sea X = X(t), t ≥ 0 donde X(t) ∼ Γ(α, λt). Demuestre que X es un subordinador. Esteproceso se conoce como el subordinador gama. Sugerencia: utilice la integral de Frullani:(

α

α− z

)β= exp

−∫ ∞

0

(1− ezt)βt−1e−αtdt

, α, β > 0, z ≤ 0.

Page 80: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

78 CAPITULO 4. PROCESOS DE RIESGO DE LEVY

Page 81: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

Bibliografıa

N.H. Bingham, C.M. Goldie, and J.L. Teugels. Regular Variation. Cambridge University Press,1987.

A note on scale functions and the time value of ruin for Levy Insurance: Mathematics andEconomics, 46 (1), 85-91,

E. Biffis and M. Morales. On a generalization of the Gerber-Shiu function to path-dependentpenalties. Insurance: Mathematics and Economics, 46 (1) 92-97,

P. Billingsley. Convergence of probability measures. Wiley and Sons, 2 edition, 1999.

E. Castillo, A. S. Hadi, N. Balakrishnan & J.M. Sarabia. Extreme value and related models withapplications in engineering and science John Wiley & sons, 2005

P. Embrechts; C. Goldie, and N. Veraverbeke. Subexponentiality and infinite divisibility. Z.Wahrsch. Verw. Gebiete 49 (1979), no. 3, 335–347.

P. Embrechts, C. Kluppelberg & T. Mikosch. Modelling Extremal Events for Insurance and Finan-ce. Springer, 1997.

H. Furrer. Risk processes perturbed by an α-stable Levy motion. Scandinavian Actuarial Journal,1, 1998.

J. Foss, D. Korshunov & Stan Zachary. An introduction to heavy-tailed and subexponential distri-butions. Springer, 2013.

Estimating ruin probabilities in the Cramer-Lundberg model with heavy-tailed claims. Tartu Uni-versity Press

O. Kallenberg. Foundations of Modern Probability. Springer, 2 edition, 2002.

E.T. Kolkovska and E.M. Martn-Gonzalez. Gerber-Shiu functionals for classical risk processesperturbed by an α-stable motion Insurance: Mathematics and Economics, vol. 66, pp. 22-28,2016.

A. Kyprianou. Introductory lectures on fluctuations of Levy processes with applications. Springer-Verlag, Berlin Heidelberg, 2006.

M.R. Leadbetter, G. Lindgren & H. Rootzen. Extremes and related properties of random sequencesand processes. Springer-Verlag, 1983.

M. Morales eneralized risk processes and Levy modeling in risk theory. Thesis, Concordia Uni-versity, Montreal, Quebec, Canada, 2003.

79

Page 82: 8ermartin.files.wordpress.com...1 Introduccion´ El presente documento contiene las notas del curso de Modelacion de Eventos Extremos con Apli-´ caciones en Riesgo, impartido en la

80 BIBLIOGRAFIA

S.I. Resnick A probability path. Birkhauser, 1999.

T. Rolski, H. Schmidli, V. Schmidt, and J. Teugels. Stochastic processes for insurance and finance.John Wiley and Sons, 1999.

K. Sato. Levy Processes and Infinitely Divisible Distributions. Cambridge University Press, 1999.

C. Su & Q. Tang. Characterization on Heavy-tailed distributions by means of hazard rate ActaMathematicae Applicatae Sinica, English Series Vol. 19, No. 1, 135-142, 2003

S. Tendijck Estimating the Expected Shortfall using Extreme Value Theory BSc Thesis, DelftUniversity of Technology, 2016