ESTIMACIÓN DE PROVISIONES TÉCNICAS EN SEGUROS DE NO VIDA
Transcript of ESTIMACIÓN DE PROVISIONES TÉCNICAS EN SEGUROS DE NO VIDA
ESTIMACIÓN DE PROVISIONES TÉCNICAS EN SEGUROS DE NO VIDA
Alumna: Carmen García González Tutora: María Dolores Martínez Miranda Máster Oficial en Estadística Aplicada Trabajo Fin de Máster
1
INDICE
PRÓLOGO .............................................................................................................................................. 3
1. INTRODUCCIÓN. ........................................................................................................................... 6
1.1. EL PROBLEMA DE ESTIMACIÓN DE LAS PROVISIONES TÉCNICAS. .................................................................. 7
1.2. LOS DATOS PARA EL PROBLEMA. ........................................................................................................ 10
1.3. MÉTODOS DE ESTIMACIÓN CLÁSICOS BASADOS EN TRIÁNGULOS RUN-OFF. ................................................. 12
2. EL MODELO CHAIN LADDER. ...................................................................................................... 14
2.1. EL MÉTODO CHAIN LADDER Y SU FORMULACIÓN ESTOCÁSTICA. ............................................................... 14
2.2. EL PROBLEMA DE IDENTIFICABILIDAD DEL MODELO. ............................................................................... 17
2.3. ESTIMACIÓN DE LOS PARÁMETROS POR MÁXIMA VEROSIMILITUD BAJO EL MODELO DE POISSON Y LAS
PREDICCIONES FINALES. ................................................................................................................................ 18
2.4. EJEMPLOS CON DATOS REALES UTILIZANDO EL PAQUETE DCL EN R. .......................................................... 23
3. EL MODELO CHAIN LADDER EXTENDIDO................................................................................... 31
3.1. MOTIVACIÓN: EFECTOS DIAGONALES EN EL TRIÁNGULO RUN-OFF. ............................................................ 31
3.2. FORMULACIÓN DEL MODELO EXTENDIDO. ........................................................................................... 31
3.3. ESTIMACIÓN DE LOS PARÁMETROS POR MÁXIMA VEROSIMILITUD. ............................................................ 34
3.4. EXTRAPOLACIÓN DE LOS EFECTOS DIAGONALES. ................................................................................... 35
3.5. APLICACIÓN PRÁCTICA EN R. ............................................................................................................ 37
4. BIBLIOGRAFÍA. ........................................................................................................................... 47
2
AGRADECIMIENTOS.
Este trabajo no podría haberse realizado sin los conocimientos adquiridos en el
presente máster, aportándome las nociones necesarias para llevar a cabo este
estudio.
Agradecer también al Profesor Bent Nielsen por facilitarme el código en R para las
ilustraciones incluidas en el capítulo 3.
3
PRÓLOGO
La estimación de las provisiones técnicas ha sido una tarea desarrollada
tradicionalmente por los actuarios de una manera más o menos mecánica. Básicamente
consistía en la repetición de un mismo cálculo para tratar de obtener el nivel “esperado”
de reservas o provisiones que la compañía aseguradora debía tener para hacer frente a
posibles pagos futuros a sus asegurados. En los últimos años, la implantación de la
normativa europea Solvencia II ha impulsado la investigación en el sector con un
carácter de urgencia. Solvencia II establece una serie de medidas que exigen la mejora y
la modernización de los métodos utilizados para la evaluación de riesgos. En este
sentido, la clave está en el análisis estadístico formal y completo del problema de
predicción planteado.
Hoy en día el actuario dispone de múltiples posibilidades para el cálculo de las reservas.
Entre ellos el método más popular y aún hoy en día el más aplicado en las aseguradoras
de todo el mundo el conocido como Chain Ladder. Esto resulta sorprendente dada la
simplicidad del método que originariamente se desarrolló como un algoritmo de cálculo
sin ninguna rigurosidad matemática estadística. Fue posteriormente cuando se describió
Chain Ladder en un contexto estadístico formal, en concreto mostrando la solución
Chain Ladder como la estimación máximo verosímil de un modelo de log-lineal para
frecuencias. Esto es lo que en la literatura actuarial se denomina Chain Ladder
estocástico y fue descrito en un contexto estadístico por Kuang, Nielsen y Nielsen
(2009). Chain Ladder se aplica tanto a la predicción del número de reclamaciones que
se notificarán por siniestro ocurridos hasta el presente (datos de frecuencias), como a la
cuantía total que supondrán dichas reclamaciones para la aseguradora (datos de pagos).
El modelo que considera Chain Ladder asume que las frecuencias (o los pagos)
dependen tan sólo de la fecha donde ocurrió el siniestro (o de la póliza correspondiente)
y el retraso hasta su notificación (o pago). Este sencillo modelo permite describir
razonablemente bien varios casos. No obstante, hay modelos donde es necesario
considerar otros efectos temporales que afectan a las reservas, tales como el efecto de la
fecha del calendario (año del calendario). El modelo que incluye dicho efecto se
denomina Chain Ladder extendido y fue descrito formalmente en los artículos Kuang,
Nielsen y Nielsen (2008, 2011).
4
El análisis del modelo Chain Ladder extendido de nuevo se describe por máxima
verosimilitud considerando el modelo log-lineal con los tres efectos temporales. Sin
embargo, la predicción de las reservas en este caso requiere de la extrapolación del
efecto del calendario dado que no puede determinarse completamente desde los datos
muestrales. Kuang, Nielsen y Nielsen (2011) describen el uso de métodos estándar de
series temporales en este contexto.
Desde estos preliminares el objetivo del trabajo ha sido realizar un estudio en
profundidad de los trabajos de Kuang, Nielsen y Nielsen (2008, 2009, 2011) donde se
describen los modelos Chain Ladder y Chain Ladder extendido y la predicción de las
reservas bajo los mismos. La metodología en dichos trabajos se ha ilustrado además con
aplicaciones a datos reales usando el programa R. En concreto, la estimación del
modelo Chain Ladder se ha realizado usando funciones incluidas en el paquete DCL
(Martínez-Miranda, Nielsen y Verrall, 2013), y para el modelo extendido se ha utilizado
el código en R facilitado por Prof. Bent Nielsen al que expreso desde aquí mi
agradecimiento.
El trabajo se ha estructurado en tres capítulos. En el primer capítulo se realiza una breve
introducción al problema tratado en el trabajo, describiendo lo que se entiende por
provisiones técnicas y los elementos a tener en cuenta para la estimación de las mismas.
Además, se describen el tipo de datos comúnmente utilizado para el cálculo de dichas
provisiones, los conocidos triángulos de siniestralidad (run-off triangle), y brevemente
algunos de los métodos de estimación más utilizados.
En el segundo capítulo se estudia el modelo Chain Ladder estocástico. Se trata de un
modelo paramétrico para frecuencias o pagos agregados del tipo:
,
con parámetros .
Una vez descrito el problema de identificabilidad del modelo, se estudia la estimación
de parámetros mediante el método de máxima verosimilitud y las predicciones finales.
Por último, se realizan ejemplos en R con las funciones del paquete DCL y
considerando datos reales.
5
En el tercer capítulo se describe el modelo Chain-Ladder extendido, que permite
considerar efectos diagonales relativos al año del calendario. El modelo considerado se
escribe como sigue:
,
donde representan los efectos del año correspondiente según el calendario
(efectos diagonales).
Este modelo de nuevo sufre de un problema de no identificación que se describe en el
trabajo. Los parámetros se estiman por máxima verosimilitud, no obstante, para poder
obtener las predicciones de reclamaciones futuras es necesario extrapolar los efectos
diagonales ya que la información muestral no es suficiente. Para ello se describen
métodos estándar de extrapolación de series temporales que atienden a tres posibles
supuestos: (1) los datos evolucionan de forma estable dentro y fuera de la muestra, (2)
se presenta un cambio de nivel en el periodo a provisionar; (3) hay un cambio de
pendiente en el periodo a provisionar.
Por último, se realiza una aplicación a datos reales utilizando código en R.
6
1. Introducción.
La historia del Seguro se remonta a las antiguas civilizaciones griega, romana, e incluso
a los babilonios e hindúes, que efectuaban contratos a la gruesa para financiar las
pérdidas.
Con el tiempo se ha llegado al sistema actuarial y legal que rige los contratos de
Seguros en sus diferentes ramos y coberturas hoy en día.
La Ley de Contrato de Seguro define a éste como aquél por el que el asegurador se
obliga, mediante el cobro de una prima y para el caso de que se produzca el evento cuyo
riesgo es objeto de cobertura a indemnizar, dentro de los límites pactados, el daño
producido al asegurado o a satisfacer un capital, una renta u otras prestaciones
convenidas.
Los Seguros se clasifican en dos grandes grupos: de vida y de no vida.
Según la Ley de ordenación y supervisión de los seguros privados (LOSSP), los seguros
de vida comprenden los seguros de muerte y supervivencia, el seguro de renta, sobre la
vida con contraseguro, de nupcialidad y de natalidad. Además, también contendrá las
operaciones de capitalización incluidas en dicha Ley, junto con las operaciones de
gestión de fondos colectivos de jubilación y gestión de operaciones tontinas.
En este documento nos centraremos en los seguros de no vida, que comprenden los
siguientes casos:
1. Accidentes.
2. Enfermedad (incluyendo tanto asistencia sanitaria como dependencia).
3. Vehículos terrestres no ferroviarios.
4. Vehículos ferroviarios.
5. Vehículos aéreos.
6. Vehículos marítimos, lacustres y fluviales.
7. Mercancías transportadas.
8. Incendio y elementos naturales. Incluye daños causados por incendio, explosión,
tormenta, elementos naturales distintos de la tempestad, energía nuclear y
hundimiento del terreno.
7
9. Otros daños a bienes. Incluye los daños causados por granizo o helada, robo u
otros sucesos distintos a los del punto anterior.
10. Responsabilidad civil en vehículos terrestres automóviles.
11. Responsabilidad civil en vehículos aéreos.
12. Responsabilidad civil en vehículos marítimos, lacustres y fluviales.
En los tres puntos anteriores se incluye la responsabilidad del transportista.
13. Responsabilidad civil en general. (Toda aquella distinta a los puntos anteriores).
14. Crédito.
15. Caución directa e indirecta.
16. Pérdidas pecuniarias diversas.
17. Defensa jurídica.
18. Asistencia. (Las no cubiertas en ningún apartado anterior).
19. Decesos. (Aquellas que únicamente garanticen prestaciones en caso de muerte,
se satisfagan en especie o su importe no exceda del valor medio de los gastos
funerarios).
1.1. El problema de estimación de las provisiones técnicas.
El artículo 16 de la LOSSP da una definición de provisiones técnicas: Las entidades
aseguradoras tendrán la obligación de constituir y mantener en todo momento
provisiones técnicas suficientes para el conjunto de sus actividades. A estos efectos,
deberán estar adecuadamente calculadas, contabilizadas e invertidas en activos aptos
para su cobertura. Son provisiones técnicas las de primas no consumidas, de riesgos en
curso, de seguros de vida, de participación en los beneficios, de prestaciones, la reserva
de estabilización y aquellas otras que, con arreglo al reglamento de desarrollo de esta
Ley, sean necesarias al objeto de cumplir la finalidad a que se refiere el párrafo anterior.
Se fijarán los métodos y procedimientos de cálculo de las provisiones técnicas, así como
el importe de éstas, que debe cubrir la entidad aseguradora. Los activos representativos
de las provisiones técnicas deberán tener en cuenta el tipo de operaciones efectuadas por
la entidad aseguradora para garantizar la seguridad, el rendimiento y la liquidez de las
8
inversiones de la entidad, con una adecuada distribución diversificada de dichas
inversiones.
La sección primera de capítulo II del Real Decreto 2486/1998, de 20 de noviembre, por
el que se aprueba el Reglamento de Ordenación y Supervisión de los Seguros Privados
(ROSSP) trata de las provisiones técnicas.
El artículo 29 muestra que las provisiones técnicas deberán reflejar en el balance de las
entidades aseguradoras el importe de las obligaciones asumidas que se derivan de los
contratos de seguros y reaseguros. Se deberán constituir y mantener por un importe
suficiente para garantizar, atendiendo a criterios prudentes y razonables, todas las
obligaciones derivadas de los referidos contratos, así como para mantener la necesaria
estabilidad de la entidad aseguradora frente a oscilaciones aleatorias o cíclicas de la
siniestralidad o frente a posibles riesgos especiales.
Las provisiones técnicas son las siguientes:
a) De primas no consumidas. Debe estar constituida por la fracción de las
primas devengadas en el ejercicio que deba imputarse al período
comprendido entre la fecha del cierre y el término del período de cobertura.
Se calcula póliza a póliza.
b) De riesgos en curso. Complementa a la provisión anterior, y se calcula
separadamente para el seguro directo y para el reaseguro aceptado, por cada
ramo o producto comercial.
c) De seguros de vida. Representa el valor de las obligaciones del asegurador
neto de las obligaciones del tomador por razón de seguros sobre la vida a la
fecha de cierre del ejercicio.
d) De participación en beneficios y para extornos. Recoge el importe de los
beneficios devengados en favor de los tomadores, asegurados o beneficiarios
y el de las primas que proceda restituir a los tomadores o asegurados en
virtud del comportamiento experimentado por el riesgo asegurado.
e) De prestaciones. Representa el importe total de las obligaciones pendientes
del asegurador derivadas de los siniestros ocurridos con anterioridad a la
fecha de cierre del ejercicio y será igual a la diferencia entre su coste total
estimado o cierto y el conjunto de los importes ya pagados por razón de tales
siniestros.
9
f) La reserva de estabilización. Con carácter acumulativo, se calcula y dota en
aquellos riesgos que, por su carácter especial, nivel de incertidumbre o falta
de experiencia así lo requieran.
g) Del seguro de enfermedad. Representa el valor de las obligaciones del
asegurador por razón de tales seguros a la fecha de cierre del ejercicio neto
de las del tomador.
h) De desviaciones en las operaciones de capitalización por sorteo. Con
carácter acumulativo, hace frente a las desviaciones que tengan su origen en
los sorteos con que se relacionen los sistemas de premios o amortización
anticipada que adopten las entidades.
i) De gestión de riesgos derivados de la internacionalización asegurados por
cuenta del Estado. Hace frente a los riesgos derivados de la
internacionalización por cuenta del Estado.
Las entidades exclusivamente reaseguradoras deberán constituir provisiones técnicas,
incluida la reserva de estabilización, suficientes para el conjunto de sus actividades.
Las provisiones técnicas deberán estar cubiertas de forma permanente.
Dada su alta importancia en la rama de los seguros de no vida, nos centramos en las
provisiones de prestaciones, en la que tenemos tres ramas diferenciadas:
- Provisión de prestaciones pendientes de liquidación o pago. Incluye el
importe de todos aquellos siniestros ocurridos y declarados antes del cierre
del ejercicio.
- Provisión de siniestros pendientes de declaración. Recoge el importe
estimado de los siniestros ocurridos antes del cierre del ejercicio y no
incluidos en la provisión de prestaciones pendientes de liquidación o pago.
- Provisión de gastos internos de liquidación de siniestros. Se dota por el
importe suficiente para afrontar los gastos internos de la entidad necesarios
para la total finalización de los siniestros que han de incluirse en la provisión
de prestaciones.
10
Para calcular las provisiones técnicas, anteriormente se repetía el mismo cálculo de
forma continua, sin tener en cuenta nada más. Se trataba de calcular un valor esperado.
Sin embargo, en la actualidad, este método ha cambiado debido a la aparición de nuevos
esquemas de evaluación (un ejemplo de ello es Solvencia II, que resumimos a
continuación).
La Directiva Solvencia I tenía como último objetivo llevar a cabo una revisión del
régimen de solvencia de la UE y analizarlo. En cambio, la Directiva Solvencia II tiene
como objetivos, entre otros, reducir el riesgo a un asegurador que no sea capaz de
cumplir con las reclamaciones, reducir las pérdidas sufridas por los asegurados en caso
de que una empresa no sea capaz de satisfacer todas las demandas en su totalidad,
advertir a los supervisores para que puedan intervenir con rapidez en caso de que el
capital caiga por debajo del nivel requerido y crear un espíritu de confianza y la
estabilidad financiera del sector asegurador.
Se estructura en tres pilares:
Medidas de activos, pasivos y capital.
Proceso de supervisión.
Requerimientos de transparencia.
Nos centramos, por tanto, a partir de ahora, en el cálculo de las provisiones técnicas en
Solvencia II.
1.2. Los datos para el problema.
Los contratos de seguro suponen la generación de obligaciones para la aseguradora,
basadas en la posible ocurrencia de siniestros en el futuro.
Estas obligaciones tienen un gran grado de incertidumbre, puesto que no se puede saber
ni su cuantía ni en qué momento se van a producir.
Debido a esta incertidumbre, se necesita que el método de cálculo de las provisiones
técnicas sea capaz de controlarla en la medida que sea posible.
11
Se tiene que el mejor estimador de las provisiones técnicas es el valor esperado de la
distribución estadística de pagos por siniestros que:
- Tenga en cuenta una tasa de descuento para los pagos futuros.
- Calcule los compromisos netos de reembolsos por reaseguro.
- Evite una aplicación inadecuada de valores mínimos de rescate.
- Evalúe garantías incorporadas con su valor correcto.
- Incluya compromisos contractuales en los que el asegurador tenga cierto
poder discrecional sobre los beneficios.
Tradicionalmente, los datos utilizados para él cálculo de las provisiones técnicas
consisten en información histórica representada en lo que se denominan triángulos run-
off. Un triángulo run-off tiene la forma siguiente:
Periodo
de
Origen
Periodo
de
Desarrollo
1 2 … J
1 …
2 …
… … … …
I
La información histórica se muestra en el triángulo superior de la matriz, mientras que
el triángulo inferior está vacío puesto que corresponde a las observaciones que aún no
han ocurrido y que se pretenden estimar.
El triángulo contiene observaciones tomadas en periodos regulares que pueden ser
anuales, cuatrimestrales, mensuales etc. A lo largo de este trabajo trabajaremos con
datos anuales y por tanto nos referiremos a los periodos como años. Por lo general se
suele considerar que el número de años de origen es igual al de años de desarrollo, esto
es I=J. El triángulo puede contener información relativa a frecuencias (número de
siniestros o reclamaciones notificadas, pagadas) o a cuantías totales pagadas.
12
Considerando por ejemplo el caso de datos de pagos, las filas de datos en el triángulo
harían referencia al año donde se originó el siniestro (reclamación) y las columnas al
retraso en el pago desde el origen, esto es el número de años hasta que se produce el
pago y su liquidación.
Denotando por i al año de origen y por j al año de desarrollo, tenemos que t=i+j-1
(diagonales del triángulo) representaría el año del calendario, esto es, el año donde se
realiza el pago. De este modo Yij es la cuantía total pagada en el año i+j-1 por siniestros
originados en el año i, esto es, con j-1 años de retraso.
1.3. Métodos de estimación clásicos basados en triángulos run-off.
Los métodos clásicos de estimación de provisiones se dividen, a su vez, en dos tipos:
individuales o globales.
Métodos individuales.
Dentro de este grupo nos encontramos:
- Método caso a caso. Realizan una estimación individual de la cuantía de
cada uno de los siniestros que se encuentran en estado de tramitación en el
momento de cierre.
- Método estadístico tradicional. Los siniestros se agrupan en un cierto
número de clases homogéneas.
Métodos globales.
Estos métodos se basan en la información agregada contenida en los triángulos
run-off definidos antes. Dentro de este grupo podemos citar los siguientes
métodos:
- Método Grossing-up. Consiste en calcular el porcentaje total de siniestros
pagados en cada año de desarrollo.
13
- Método Link Ratio. Se basa en las tasas de variación de la siniestralidad en
un ejercicio de ocurrencia entre un ejercicio de desarrollo y el siguiente.
- Método Loss Ratio. Es aquél que efectúa el cálculo a partir de algún
mecanismo que interviene en la citada ratio (definida como el cociente entre
la siniestralidad y el nivel de primas), obteniendo una proporción. Por
siniestralidad se entiende la correspondiente a un cierto año de origen, que se
encuentre totalmente desarrollada.
- Método Chain Ladder. Trata de estimar la proporción de cambio de un
ejercicio a otro, realizando para ello una media ponderada del link ratios,
donde cada valor se pondera con la siniestralidad que le precede. En el
siguiente capítulo estudiaremos en detalle este método y el modelo
estadístico que hay detrás.
- Método Bornhuetter-Ferguson. Consiste en una variación del método Chain
Ladder que utiliza información adicional experta con el fin de obtener
estimaciones más estables en los últimos años de origen.
14
2. El modelo Chain Ladder.
Como hemos visto en el capítulo anterior, el método Chain Ladder es uno de los más
populares para la estimación de las reservas o provisiones técnicas. Se trata de un
simple algoritmo de cálculo más que un método estadístico, y es aún hoy en día el
método más utilizado en las aseguradoras de todo el mundo. Los actuarios conocen las
limitaciones que tiene Chain Ladder, quizá no tanto desde el punto de vista estadístico
sino más bien a la luz de los resultados obtenidos. En la práctica, el procedimiento
habitual es realizar ajustes y modificaciones de los resultados de dudosa rigurosidad
estadística. En este capítulo describiremos desde un punto de vista estrictamente
estadístico matemático en qué consiste la solución Chain Ladder, definiendo
propiamente el modelo que hay detrás y comprendiendo así sus limitaciones.
2.1. El método Chain Ladder y su formulación estocástica.
Consideramos un triángulo run-off de dimensión k, denotando cada entrada como ,
siendo i el índice del año del origen (o año del accidente) y j el año de resolución del
mismo.
Periodo
de
Origen
Periodo
de
Desarrollo
1 2 … J
1 …
2 …
… … … …
I
15
Definimos el conjunto de observación como el conjunto de índices
y escribimos:
A partir del triángulo anterior definimos el triángulo acumulado con entradas
.
Con estas definiciones, ll método Chain-Ladder (también llamado Chain Ladder
determinístico) estima las reservas (definidas en el triángulo inferior de la matriz
anterior) calculando los denominados factores de desarrollo o proyección definidos
como:
Estos factores describen de forma global la evolución de los pagos de una columna a
otra. Son utilizados para predecir los pagos en el futuro. En concreto, los pagos
acumulados esperados en la parte inferior del triángulo, donde , se
calculan como:
De este modo, los valores de la última columna de la matriz consisten en las
predicciones de las cuantías totales pagadas por siniestros originados en cada uno de los
años de accidente (filas de la matriz) considerados.
Como hemos comentado anteriormente, los cálculos anteriores corresponden a un
algoritmo de cálculo donde no se tiene en cuenta la componente estocástica del
problema. Esto obviamente presenta grandes limitaciones. A continuación, describimos
el problema desde un punto de vista estadístico.
16
Consideremos las entradas del triángulo Yij como variables aleatorias cuya esperanza
admite la siguiente parametrización multiplicativa:
, con parámetros .
En la literatura clásica se ha demostrado que bajo un modelo de Poisson (con posible
sobredispersión) las estimaciones máximo verosímiles de los parámetros permiten
reproducir la solución del Chain Ladder determinístico. Para ello se estima cada entrada
en el triángulo inferior a partir de la expresión de la esperanza anterior donde los
parámetros se sustituyen por sus estimadores máximo verosímiles.
Es importante tener en cuenta que el modelo anterior presenta un importante problema
de sobreparametrización. Los parámetros del mismo no están identificados, puesto que
dos constantes arbitrarias se pueden introducir en el modelo de forma multiplicativa,
redefiniendo los parámetros, sin que la expresión final varíe.
En la práctica actuarial este problema se ha abordado utilizando restricciones o
condiciones de identificabilidad, como por ejemplo las siguientes:
Kuang, Nielsen y Nielsen (2009) resuelven el problema desde un punto de vista más
riguroso considerando una parametrización invariante. Pasamos a describir esta
parametrización a continuación.
17
2.2. El problema de identificabilidad del modelo.
Comenzamos reescribiendo el modelo anterior de forma aditiva, para ello tomamos
logaritmos escribiendo:
donde:
Definimos además . Los parámetros que pretendemos estimar son
.
Usando la formulación aditiva que se ha descrito anteriormente, el problema de la
identificabilidad consiste en que la adicción o sustracción de constantes no influyen en
el cálculo de , lo que nos lleva a considerar la propiedad de invarianza de
respecto de las transformaciones definidas como sigue:
Siendo a, b constantes arbitrarias.
Se pretende encontrar una parametrización invariante frente al grupo de
transformaciones anteriores.
Kuang, Nielsen y Nielsen (2008,2009) describen la parametrización que veremos a
continuación. Comenzamos escribiendo y como sigue:
18
El modelo aditivo se escribe de forma equivalente como:
Definimos por tanto el parámetro como .
Los autores prueban que se trata de una función de maximal invariante frente al grupo
de transformaciones anteriores. (Teorema 1 en Kuang, Nielsen y Nielsen, 2009).
2.3. Estimación de los parámetros por máxima verosimilitud bajo el modelo de
Poisson y las predicciones finales.
El método de máxima verosimilitud es una técnica para estimar valores a partir de una
muestra finita de datos.
La función de verosimilitud se define de la siguiente forma:
Un estimador de máxima verosimilitud es aquél que maximiza la función de
verosimilitud
En este apartado nos centramos en calcular el estimador de máxima verosimilitud para
los parámetros del modelo de Chain-Ladder con la parametrización descrita con
anterioridad.
19
Suponemos que cada es independiente para i y j, variando en el conjunto de índices
triangular I, siguiendo una distribución Poisson tal que:
Con definido en los términos del parámetro canónico definido con anterioridad.
La finalidad de este modelo es predecir las entradas inferiores del triángulo run-off.
La predicción simple del método Chain-Ladder será válida cuando las entradas del
triángulo se distribuyan mediante una Poisson. Sin embargo, esta condición no es
esencial, puesto que la técnica Chain-Ladder se aplicará en los casos en los que los
elementos se distribuyan según una Poisson, dejando a un lado los enteros no negativos.
En este caso los estimadores y las predicciones de la parte inferior del triángulo también
tendrían sentido.
El logaritmo del estimador de máxima verosimilitud del modelo basado en la
distribución Poisson viene dado por:
Para obtener la expresión del estimador de máxima verosimilitud, introducimos las
siguientes definiciones:
Donde .
20
Donde
Combinando las expresiones (1) y (2) obtenemos:
Por tanto tenemos que el modelo está contenido en la familia de exponenciales dada por
el estadístico y los parámetros
, que es transformación lineal de .
Esta función de máxima verosimilitud puede que no tenga máximo, por lo que debemos
tener el siguiente teorema.
Teorema: Consideramos que la parte superior del triángulo I se distribuye según un
modelo de Poisson, y que el soporte convexo del estadístico suficiente T es cerrado.
Entonces las siguientes condiciones son equivalentes:
1) T es interior a su soporte convexo.
2) son positivos.
3) son finitos y mayores a un elemento.
21
4) son positivos y son finitos y mayores a un elemento.
5) son positivos y son finitos y mayores a un elemento.
Utilizando este teorema sabemos que si los datos son enteros no negativos pero
pertenecen al interior del soporte convexo de T entonces las ecuaciones tendrán una
única solución.
Por tanto, bajo estas condiciones será posible encontrar el estimador de máxima
verosimilitud.
Teorema: Consideramos un triángulo I con parametrización canónica cuya parte
superior se distribuye según una distribución de Poisson. El estimador de máxima
verosimilitud para es único si y solo si T es interior a su soporte convexo. Esto viene
dado por:
Además, se tiene que los factores de desarrollo y son estimadores de
máxima verosimilitud para los parámetros, siempre que i,j>1,
22
Si denotamos , y demás
entonces tenemos
que:
Por tanto, podemos expresar y de la siguiente forma:
Junto con estas expresiones, existe una relación uno a uno entre el parámetro y el
parámetro canónico , dada por:
La expresión:
Puede transformarse a su vez en:
Podemos construir, además, una expresión para las predicciones del modelo, utilizando
las ecuaciones anteriores, obteniendo:
23
Combinando esta expresión con (3) tenemos:
Para el triángulo inferior, la expresión de la predicción queda de la siguiente forma:
Para el triángulo superior, la fórmula de cálculo de las predicciones quedará como
sigue:
2.4. Ejemplos con datos reales utilizando el paquete DCL en R.
En este apartado nos basaremos los ejemplos usados en el artículo Barnett and
Zehnwirth (2000), utilizados en Nielsen y Nielsen (2011).
Para ello utilizamos el entorno de programación y análisis estadístico R y el paquete
DCL desarrollado por Martinez-Miranda, Nielsen and Verrall (2012) que proporciona
funciones para la estimación del modelo anteriormente descrito así el cálculo de las
reservas mediante Chain Ladder. Dentro del paquete además se dispone de funciones
para la generación de gráficos que permiten visualizar los datos, así como los
parámetros estimados que muestran los dos efectos temporales considerados en el
modelo: año de origen del siniestro y año de desarrollo.
24
A continuación, describimos las funciones dentro del paquete DCL que utilizaremos en
los ejemplos en este apartado.
clm(Triangle, n.cal, Fj). Esta función permite obtener la estimación de los
parámetros del modelo Chain Ladder considerando la parametrización
multiplicativa antes descrita y la condición de identificabilidad de Mack
(1991). La función requiere como primer el triángulo con los datos iniciales
en el formato matricial usado en este capítulo. Los datos históricos se
recogen en el triángulo superior, dejando las entradas en el triángulo inferior
de la matriz vacías (valores NA). El segundo argumento de la función
(opcional) es un entero que permite especificar el número de calendario para
el cual se calcularán los factores de desarrollo. Esto permite realizar una
modificación del algoritmo Chain Ladder muy extendida entre los actuarios
con la finalidad de usar tan sólo los años más recientes para estimar los
factores de desarrollo. Si no se especifica se utilizarán todos los datos
disponibles tal y como se define en el algoritmo original. Por último, el
tercer parámetro de la función (opcional) es un vector con dimensión la del
triángulo menos uno, que permite introducir factores de desarrollo para
calcular las estimaciones del método Chain Ladder derivados desde otras
fuentes.
Plot.clm.par(clm.par). Función que recibe como argumento la lista de
parámetros estimados del método Chain Ladder. No devuelve valores, sino
que realiza la representación gráfica de los efectos temporales estimados
(paramétros).
25
Ejemplo 1. Tomamos los datos de pérdidas incurridas en negocios facultativos de
responsabilidad civil. (Historical Loss Development Study, 1991, Reinsurance
Association of Americ).
0 1 2 3 4 5 6 7 8 9
1981 5012 8269 10907 11805 13539 16181 18009 18608 18662 18834
1982 106 4285 5396 10666 13782 15599 15496 16169 16704
1983 3410 8992 13873 16141 18735 22214 22863 23466
1984 5655 11555 15766 21266 23425 26083 27067
1985 1092 9565 15836 22169 25955 26180
1986 1513 6445 11702 12935 15852
1987 557 4020 10946 12314
1988 1351 6947 13112
1989 3133 5395
1990 2063
Introducimos la matriz en R con la siguiente instrucción:
Como se puede observar, los datos de la matriz aparecen acumulados para cada año, por
lo que el primer paso para realizar los cálculos será obtener la matriz de datos con
independencia de los sucesos ocurridos anteriormente.
Para ello ejecutamos la siguiente instrucción en R:
Esta orden nos da los sucesos eliminando el carácter acumulativo de la matriz anterior,
obteniendo:
26
Denominaremos a esta matriz ‘matriz2’ sobre la que realizaremos los cálculos.
Obtenemos el resultado del modelo Chain Ladder:
Con esta instrucción tenemos lo siguiente:
Este primer resultado nos proporciona los valores estimados en el futuro (triángulo
inferior de la matriz) y los valores ajustados en el pasado (triángulo superior de la
matriz).
Así, por ejemplo, tenemos que la predicción para el año de desarrollo 9 y año de
accidente 1990 es de 304 aproximadamente, mientras el valor ajustado para ese mismo
año de ocurrencia es de 172.
27
Los valores alpha proporcionan los parámetros según el modelo Poisson, siguiendo la
definición de Verall (1991).
Los valores beta proporcionan los parámetros según el modelo Poisson, siguiendo la
definición de Verall (1991).
Este último resultado nos proporciona los factores de desarrollo de nuestro modelo
Chain Ladder.
Si representamos el resultado gráficamente, obtenemos lo siguiente:
Plot.clm.par(my.clm.par)
28
Ejemplo 2: Tomamos ahora los datos de un ejemplo real, siendo los siguientes:
0 1 2 3 4 5 6 7 8 9 10
1977 153638 188412 134534 87456 60348 42404 31238 21252 16622 14440 12200
1978 178536 226412 158894 104686 71448 47990 35576 24818 22662 18000
1979 210172 259168 188388 123074 83380 56086 38496 33768 27400
1980 211448 253482 183370 131040 78994 60232 45568 38000
1981 219810 266304 194650 120098 87582 62750 51000
1982 205654 252746 177506 129522 96786 82400
1983 197716 255408 194648 142328 105600
1984 239784 329242 264802 190400
1985 326304 471744 375400
1986 420778 590400
1987 496200
29
Año 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987
Exposición 2.2 2.4 2.2 2.0 1.9 1.6 1.6 1.8 2.2 2.5 2.6
Como en el caso anterior, ejecutamos la función clm:
Como en el caso anterior, obtenemos los valores ajustados ocurridos en el pasado y la
estimación de los valores que se obtendrán en el futuro (parte inferior del triángulo).
30
Junto a esto, obtenemos los valores de los parámetros α y β:
La salida de R también nos proporciona los valores de los factores de desarrollo, que
son los siguientes:
31
3. El modelo Chain Ladder extendido.
El modelo Chain Ladder extendido surge como ampliación del modelo Chain Ladder
anterior, para el caso en el que los datos a estudiar sufran cambios estructurales
importantes relativos al efecto del año del calendario (efectos diagonales). Estos
cambios estructurales afectarán al cálculo de las provisiones, por lo que habrá que
tenerlos en cuenta si se quiere realizar una correcta estimación a lo largo del tiempo.
3.1. Motivación: efectos diagonales en el triángulo run-off.
Hay muchas situaciones donde las provisiones técnicas se ven afectadas por efectos
diagonales tales como la inflación económica (variaciones en los pagos relativas a años
del calendario específicos) y la inflación derivada por cambios en la legislación o en el
modo de procesar las reclamaciones por siniestros. Evidentemente el modelo
bidimensional Chain Ladder no puede capturar dichos efectos que vienen definidos
como nuevos parámetros indexados en las diagonales del triángulo de datos. La
extensión del modelo incluyendo estos nuevos parámetros permitirá considerar estos
efectos y conseguir así una predicción más adecuada sobre todo cuando dichos efectos
supongan cambios estructurales en la serie de datos.
3.2. Formulación del modelo extendido.
Suponemos un triángulo run-off como el definido con anterioridad y asumimos de
nuevo el objetivo de predecir la parte inferior del triángulo, esto es, las entradas
definidas por filas i y columnas j tal que .
Considerando una parametrización aditiva (modelo log-lineal) el modelo Chain Ladder
extendido se formula como sigue:
32
donde representa el efecto del año en el que tiene lugar el accidente, es efecto del
año de desarrollo, y representa el nuevo efecto diagonal correspondiente al año
según el calendario. De nuevo representa el nivel global.
Obsérvese que la formulación anterior puede considerarse como un caso particular del
modelo Chain Ladder estándar cuando los nuevos parámetros diagonales se expresen de
forma lineal. En concreto supongamos que para c y d
constantes cualesquiera. En este caso podemos reescribir la formulación anterior como:
que consiste en el modelo Chain Ladder estándar.
Obsérvese por tanto que el beneficio de extender el modelo está en la habilidad de
incorporar inflaciones que se describan de forma no lineal. En este general, y de forma
similar a cómo se describió en el modelo Chain Ladder, los parámetros ( y ) se
pueden estimar desde los datos muestrales (triángulo run-off), sin embargo los nuevos
parámetros diagonales sólo se pueden estimar hasta el año más reciente, esto es, la
diagonal i+j-1=k, y el resto de diagonales deben ser extrapoladas.
La parametrización anterior ha sido de gran importancia en epidemiología y sociología,
usándose en combinación con otras técnicas de predicciones a partir de series
temporales no estacionarias discutidas en Clements and Hendry (1999). Kuang, Nielsen
y Nielsen (2008,2011) extienden estas ideas al contexto del problema que ocupa nuestra
atención en este trabajo. Siguiendo el trabajo de estos últimos autores suponemos que
los datos agregados están disponibles en el triángulo run-off y las entradas se asumen
variables aleatorias independientes con distribución log-normal. Esta hipótesis puede
suponer un problema cuando algunas de las entradas sean cero (o negativas), en cuyo
caso se puede optar por incrementar ligeramente todas las entradas del triángulo
(igualando a cero los negativos) o cambiar la distribución. Los autores discuten este
tema con detalle y proponen otras posibles distribuciones, no obstante, en este trabajo
asumimos que no hay ninguna entrada de datos que sea cero o negativa y consideramos
el modelo log-normal.
33
Formalmente consideramos de nuevo que los datos de las reclamaciones se disponen
según una matriz triangular superior I, siendo i el año en el que se produce el accidente,
y j el año de desarrollo, cumpliéndose que . Suponemos que
son variables independientes y con distribución log-normal. De este modo, la
función de densidad de viene dada por:
Siendo la varianza del modelo, y la media para la que se asume la
parametrización definida con anterioridad.
De forma similar al caso del modelo Chain Ladder estándar, la parametrización asumida
para presenta un problema de identificación que en este caso es más complejo. De
hecho, dos líneas de tendencia arbitrarias se pueden incluir en el modelo sin que esto
modifique .Esto quiere decir que es invariante respecto al grupo de
transformaciones siguiente:
Siendo a, b, c y d constantes arbitrarias, y cumpliéndose además que
Al ser invariante a las transformaciones que vengan dadas por g, buscaremos una
función de , invariante de g, que capture la variación de
La función buscada se propuso por parte de Kuang, Nielsen and Nielsen (2008a) y es
un parámetro canónico, , de dimensión (3k-3).
Reescribiendo se llega al siguiente candidato:
Donde determina el nivel, mientras que y determinan los
efectos lineales de la inflación como una constante, y la doble diferencia de los
parámetros determina los efectos no lineales.
es un maximal invariante de bajo cualquier transformación que venga dada por g.
34
Los parámetros y se pueden reescribir para evitar el problema de la
identificación. Por ejemplo, tenemos:
3.3. Estimación de los parámetros por máxima verosimilitud.
Como hemos descrito antes la estimación de los parámetros del modelo Chain Ladder
extendido es posible tan sólo hasta el año del calendario más reciente, siendo necesaria
la extrapolación de los parámetros diagonales para predecir en el triángulo inferior.
Kuang, Nielsen y Nielsen (2011) sugieren un procedimiento de
estimación/extrapolación en dos pasos.
El primer paso consiste en estimar los parámetros del modelo mediante regresión lineal
generalizada hasta la diagonal más reciente (i+j-1=k), en concreto, estimar el parámetro
canónico
definido antes. El
segundo paso consiste en extrapolar los efectos diagonales estimados asumiendo que
son una serie temporal observada hasta el año k-ésimo.
Para estimar los parámetros a partir de la muestra (primer paso) consideramos el modelo
reescrito usando la parametrización canónica definida en la sección anterior. Se trata por
tanto de la estimación de un modelo generalizado con función de enlace logarítmica en
la que se define la siguiente matriz de diseño:
35
donde .
Los parámetros del modelo son estimados mediante regresión mínimo cuadrática del
. Ofreciendo así un estimador insesgado del parámetro canónico
.
3.4. Extrapolación de los efectos diagonales.
Kuang, Nielsen and Nielsen (2008b) caracterizan las provisiones invariantes a
modificaciones de los parámetros . Dada la aditividad del modelo de
y la tendencia lineal en , las extrapolaciones deben ser la suma de dos
componentes, donde la primera extrapolará la tendencia arbitraria lineal, mientras que la
segunda será invariante a esta tendencia lineal.
Hay series de tiempo que son más fáciles de predecir que otras. Si la serie temporal
tiene una tendencia lineal, será posible la estimación mediante varios modelos.
Por otra parte, si la serie temporal tiene observaciones que rompen dicha tendencia
lineal, realizar las provisiones resultará más complejo. Cuando esto ocurre hay dos
posibilidades. La primera de ellas es realizar la estimación independientemente del
grupo de observaciones que rompen la tendencia lineal, siendo una predicción buena
salvo en el caso en el que ocurren dichas observaciones. La segunda opción es elegir
una estrategia que modelice un poco peor el caso en el que se cumple dicha tendencia
lineal, pero mejore la modelización cuando se produzcan los cambios estructurales.
Debemos recordar que la serie temporal no se observa directamente, puesto que se
extrae como un parámetro estimado del modelo estadístico. En el apartado anterior se ha
descrito cómo realizar la estimación, por lo que ahora nos centramos en el segundo
paso, para lo que comentaremos tres métodos, a los que nos referiremos según su orden
de integración mediante l(0), l(1) y l(2).
36
Denotamos la serie temporal extraída por . Debido al problema de
identificación, esta serie temporal evolucionará alrededor de una tendencia lineal
arbitraria.
El primer modelo, l(0), se utiliza cuando la serie temporal evoluciona de forma estable
tanto dentro como fuera de la muestra. La idea es extrapolar la tendencia lineal
encontrada en los datos usando el siguiente modelo:
Donde representa una secuencia de innovaciones independientes, distribuidas según
una .
En situaciones con muchas observaciones esto se podrá argumentar mediante una
estructura autorregresiva.
Tendremos entonces como provisión:
Donde:
Las provisiones de densidad pueden ser construidas mediante la adición de una variable
Normal , , donde se tiene:
37
El segundo modelo, l(1), se usará cuando se presente un cambio de nivel en el periodo a
provisionar. En esta situación las tasas de crecimiento o diferencias de la serie temporal
pueden ser estimadas mediante un modelo de paso aleatorio del tipo tal
que:
Donde .
De igual forma que con el modelo anterior, las provisiones de densidad pueden
construirse añadiendo una variable Normal , , con varianza del
estimador:
El tercer modelo, l(2), se usa cuando hay un cambio de pendiente en el periodo a
provisionar. En este caso, aplicaremos el modelo para las aceleraciones o
diferencias dobles. Se tiene entonces que:
Las provisiones de densidad vendrán dadas al añadir una variable Normal
, donde:
3.5. Aplicación práctica en R.
Como ilustración consideraremos el conjunto de datos analizado en el artículo de
Kuang, Nielsen and Nielsen (2011). Para el análisis hemos utilizado el código original
en R desarrollado por los autores. Los datos fueron considerados por primera vez por
Barnett y Zehnwirth (2000) y los introducimos en R en forma vectorial como sigue:
38
Aqui kk es el número de filas (o columnas) del triángulo run-off.
Definimos tras esto los factores de desarrollo y los años en los que tienen lugar los sucesos:
Elegimos el diseño a utilizar, pudiendo ser un diseño bidimensional con parámetros canónicos
o un diseño tridimensional con parámetros canónicos.
Por otro lado, también tenemos que definir la forma de identificación de nuestro problema,
tomando como valor 0 si la identificación se rige por un modelo canónico. Para el caso
bidimensional tenemos las siguientes opciones:
-
-
Por último, para el caso tridimensional, que es el aplicado a este ejemplo, tenemos como
posibilidades las siguientes:
-
-
En nuestro caso, tomamos el primer caso.
Como distribución tomamos la log-normal, pudiéndose elegir entre las siguientes opciones:
- Log-normal.
- GLIM (Generalised Linear Model). Modelo lineal generalizado con distribución
Normal para los logaritmos de los datos. Es prácticamente igual que el primer
caso, pero pueden producirse pequeñas modificaciones en los resultados.
39
- Modelo lineal generalizado con distribución de Poisson. Es el modelo Chain-Ladder
bidimensional estándar.
Junto a esto, podemos obtener gráficos para los parámetros estimados y también para los
parámetros pronosticados.
En nuestro caso obtendremos los gráficos tanto para los parámetros estimados como para los
valores pronosticados.
Habrá que definir también si los datos a los que aplicaremos los cálculos serán los datos tal
cual aparecen o si, por el contrario, utilizaremos los datos divididos por su factor de
exposición.
Por último, crearemos una submatriz de tamaño dependiente de la dimensión del triángulo
que queramos obtener. En este caso tomaremos una matriz con tamaño del triángulo
completo.
A continuación, dividimos el triángulo de sucesos entre los valores de exposición, y pasamos a
crear la submatriz.
Definimos una matriz de tamaño 11x11 vacía, y añadimos los datos del triángulo.
Nuestra matriz viene dada entonces por el triángulo de sucesos (parte superior), mientras que
el triángulo inferior quedará vacío:
40
En el caso en el que el diseño elegido sea segunda opción comentada anteriormente, tenemos
que:
Si elegimos tenemos que:
En R, tomamos una matriz X de tamaño 2*(11-1) = 20 filas y 66 columnas, en la que la primera
fila estará compuesta por unos. Para las restantes filas, tendremos:
- K-1 filas: 2,…,k:
- K-1 filas: k+1,…,2k-1: .
En el caso de elegirse la tercera opción, tenemos que:
Si tomamos entonces tenemos:
En este caso se tendrá una matriz X en la que la primera fila hará referencia al nivel,
rellenándose en este caso de unos, mientras la segunda y tercera fila corresponde a la
pendiente.
Para las restantes filas, tendremos:
- K-2 filas:
- K-2 filas: .
- K-2 filas: .
41
En nuestro caso habíamos elegido diseño = 3. Una pequeña muestra de la matriz X calculada
anteriormente es la siguiente:
Pasamos ahora al cálculo de la regresión, dependiendo de la distribución elegida entre las
comentadas con anterioridad (Log-Normal, Modelo Lineal Generalizado con distribución Log-
Normal y Modelo Lineal Generalizado con distribución de Poisson).
Ajustamos los datos mediante el modelo GLM (modelo lineal generalizado), extensión de los
modelos lineales que permite utilizar distribuciones no normales de los errores. Para ello
utilizaremos la matriz transpuesta resultante del cálculo anterior.
En nuestro caso ajustamos a una Log-Normal con distribución 1, por lo que la distribución de
los errores vendrá dada por el logaritmo (esta distribución nos proporciona un conteo cuando
los errores se producen según una Poisson), obteniendo los siguientes datos:
42
El primer resultado corresponde a los coeficientes de nuestro modelo log-normal, mientras
que los residuos nos proporcionan la diferencia entre los valores reales del modelo y los
valores ajustados.
Los coeficientes multiplicados por las variables de nuestro problema nos darán como resultado
la predicción de siniestros.
Atendiendo a los tres modelos I(0), I(1), I(2), la estimación de los datos del problema para los
siguientes años de desarrollo quedarían:
Para l(0):
43
Para l(1):
Para l(2):
44
Los residuos nos ayudan a valorar si el ajuste a nuestro modelo es lo suficientemente bueno.
En este caso los residuos son muy pequeños, por lo que podemos llegar a la conclusión de que
el modelo se ajusta de forma correcta al problema inicial, ya que los valores ajustados y reales
del modelo difieren en poca cantidad.
A continuación, ejecutamos el código para obtener gráficos de los parámetros estimados. El
resultado se muestra en la siguiente figura.
En estos gráficos obtenemos la representación de los parámetros estimados. Los tres gráficos
en la última fila representan los coeficientes usando la identificación
. Podemos observar la tendencia creciente de , mientras que decrece. No
obstante, la interpretación de estos gráficos de parámetros identificados puede resultar
engañosa dada la arbitrariedad de los mismos. El parámetro canónico que no está supeditado
a esta arbitrariedad se muestra en las filas superiores.
45
Por último, pasamos a obtener los valores pronosticados para lo que se procede a extrapolar el
, calculándose los valores pronosticados para . Hemos considerados los tres modelos
I(0), I(1), I(2) definidos anteriormente y los resultados de la extrapolación se muestran en el
siguiente gráfico:
l(0) se utiliza cuando la serie temporal evoluciona de forma estable tanto dentro como
fuera de la muestra, l(1) cuando se presente un cambio de nivel en el periodo a
provisionar y por último l(2) cuando hay un cambio de pendiente en el periodo a
provisionar.
Kuang, Nielsen y Nielsen (2011) utilizan un procedimiento recursivo para comparar los
modelos. Se trata de estimar usando menos diagonales de las disponibles de modo que
se puedan comparar las predicciones con los datos reales. Para este conjunto de datos
los autores concluyen que el mejor modelo de extrapolación parece ser l(0).
Para ver este resultado, los autores consideran un subconjunto de los datos, de m años
de calendario, dados en una matriz triangular . El modelo se estima para las entradas
de la matriz triangular superior, mientras que para la parte inferior se predicen los
valores.
46
Este ejercicio se realizó para m = 5, …,10, obteniendo:
Origen
Predicciones
5 6 7 8 9 10
M+1 644.2 709.8 723.7 864.5 1140.4 1478.6
L(0) -3.0 11.1 -4.8 57.2 163.2 264.2
L(1) -3.1 11.9 -11.0 72.4 138.0 139.7
L(2) -4.5 12.6 -18.0 93.5 88.5 -7.0
Modelo
bidimensional
-3.9 10.8 -8.1 63.3 152.1 195.7
Como puede observarse, el error de las predicciones para este ejemplo es más cercano a
0 en l(0) para los años 1981, 1982 y 1983. Para el año 1984 el mejor modelo es l(1), y
para los restantes años (1985, 1986) se ajusta mejor l(2).
Por ello, se toma el ajuste de l(0) como el más adecuado para este ejemplo.
47
4. Bibliografía.
- Barnett, G. & Zehnwirth, B. (2000). Best estimates for reserves. Proceedings
of the CAS, Vol. LXXXVII, No. 245-503.
- D. Kuang, B. Nielsen and J.P. Nielsen, 2008, Forecasting with the age-
period-cohort model and the extended chain-ladder model.
Biometrika, 95 (4): 987-991.
- D. Kuang, B. Nielsen and J.P. Nielsen, 2008, Chain-Ladder as maximum
likelihood revisited. A.A.S. 4, I, 105-121.
- D. Kuang, B. Nielsen and J.P. Nielsen, 2011, Forecasting in an extended
Chain-Ladder-Type model. The Journal of Risk and Insurance, 2011, Vol.
78, No. 2, 345-359.
- Guardiola, A. (1990). Manual de introducción al seguro. Fundación
MAPFRE.
- Martínez-Miranda, M. D., Nielsen, J. P and Verrall, R. (2013c). R-package
“DCL": Claims Reserving under the Double Chain Ladder Model (v. 0.1.0,
25 October 2013). http://cran.r-project.org/web/packages/DCL/index.html .
Recursos electrónicos:
- http://catarina.udlap.mx/u_dl_a/tales/documentos/ledf/specia_j_al/capitulo2.
- https://www.intrum.com/es/Prensa-y-publicaciones/Novedades-en-gestion-
de-credito/Archivo-Novedades-Gestion-de-credito/Directiva-Solvencia-II3/
- http://publications.scor.com/actuarial_prize/2014_es_JuanEspejo.pdf
- http://www.actuarios.org/espa/anales/2002/quevedo2002.pdf
- http://www.fhvie.ac.at/var/em_plain_site/storage/original/application/428aa4
14bf1ba9198dd84455133b4abd.pdf
- http://finzi.psych.upenn.edu/library/DCL/html/DCL-package.html