Post on 27-Oct-2018
37
CAPÍTULO 4
DESARROLLO DE LA INVESTIGACIÓN
En este capítulo se aplicarán los métodos seleccionados a la información. Primero se
describirá la teoría necesaria para cada uno de los métodos y enseguida se citará cómo se
adaptó cada uno de los mismos a los datos. El orden que se escogió para su aplicación es de
acuerdo a la dificultad que presentan, empezando con el más fácil que es el de Suavización
de Holt y terminando con el de Box-Jenkins, que es el que presenta mayor dificultad.
4.1 Metodología de la Doble Suavización Exponencial Lineal o de Holt
Este tipo de suavización considera una tendencia en los datos para hacer pronósticos. Sin
embargo, no puede tratar la estacionalidad en aquellos, por lo tanto, si la serie de datos es
estacional se deben desestacionalizar. El principio es el mismo que el del suavizamiento
exponencial único, sólo que ahora las ecuaciones toman en cuenta las tendencias recientes y
no recientes de la información.
El primer paso es tener información que no presente la estacionalidad. La forma de eliminar
la estacionalidad de los datos es la usada en el Método de Descomposición de Series de
Tiempo. Los pasos están dados en el apéndice A.
El método de Suavización Exponencial de Holt utiliza las dos siguientes fórmulas:
• Tt = β(St –St-1) + (1-β)Tt-1 (Fórmula de tendencia)
En donde
38
St = equivalente del valor suavizado exponencial lineal. β = coeficiente de suavizamiento, análogo a α. Tt-1 = tendencia suavizada en la serie de datos.
• St = αX t+ (1-α)( St-1 + Tt-1) (Fórmula estándar de suavización)
En primer lugar se calcula la fórmula estándar y enseguida la de la tendencia. La fórmula
general de la suavización es
Ft+m = St+ Tt
Este método toma en cuenta una tendencia lineal, por lo que si una serie no tiene
aleatoriedad el error del pronóstico es 0. En cambio, si hay aleatoriedad, será más difícil
predecir los valores y los errores no serán 0.
Para determinar los valores óptimos de α y β, se deben tratar todas las combinaciones de
valores entre 0.0 y 1.0 para ambos parámetros, con el fin de que la ecuación general registre
un error cuadrático mínimo. Se definen error, error absoluto y error cuadrático como
sigue:
et = error = observación – pronóstico
te = error absoluto = valor absoluto del error.
2te = error cuadrático = valor absoluto al cuadrado.
39
4.2 Implementación del método a la serie de créditos ejercidos.
Como primer paso, se desestacionalizan los datos. Se sigue el procedimiento del apéndice
A en la hoja de cálculo Excel y el resultado se muestra a continuación:
Periodo Observaciónno estacional
X1 172522 198393 193834 103715 259266 96537 134238 219469 705010 1604311 1399412 1635313 2018214 2050715 877216 1419817 2115618 1615519 1872720 2282421 2248622 2232023 2808824 3605025 4195726 3935027 3968328 4550229 4147530 4698931 4192932 3639033 4537434 4231935 3524136 3502637 3795838 2050339 8147340 5001341 3967042 4814343 3885544 3538945 6391846 5326947 4748648 4881149 4541150 48015
Luego, se establecen los valores iniciales para las ecuaciones. Sean S1 = X1 = 17252 y T1 =
X2 – X1 = 2587. Después fijamos valores arbitrarios entre 0.0 y 1.0 a los parámetros α y β
y desarrollamos las tres fórmulas con sus valores respectivos. Enseguida, calculamos los
40
errores, errores absolutos y errores cuadráticos para cada pronóstico y se obtienen la suma
y el promedio de cada uno. Se calculan los valores óptimos de los parámetros α y β que
minimizan la suma de los errores cuadráticos. De acuerdo a estos valores iniciales y al
método de optimización no lineal, los valores óptimos son α = 0.473766343 y β =
0.066485541. Sin embargo, estos valores sólo son ilustrativos, pues la hoja de cálculo
Excel no es muy bueno para calcular con precisión los parámetros. Para lograr con mayor
precisión este fin se utiliza el programa Minitab. Entonces, se introducen los valores
desestacionalizados en este programa. Así, los valores de los parámetros son α = 0.633919
y β = 0.01481. Cabe aclarar que aunque los valores de los parámetros obtenidos con Excel
difieren de los obtenidos con Minitab, el pronóstico obtenido es muy similar. A partir de
este punto es posible realizar pronósticos para los siguientes periodos.
4.3 Metodología Box-Jenkins 4.3.1. Introducción
El enfoque de Box-Jenkins fue creado desde los años 70 y fue dado a conocer por sus
creadores, George Box y Gwilym Jenkins. Sin embargo, no alcanzó gran popularidad
debido a las dificultades que existían para ponerlo en práctica. Actualmente, con el
desarrollo de las computadoras este enfoque ha alcanzado gran popularidad.
El enfoque de Box-Jenkins consiste en proponer un conjunto de procedimientos para
escoger entre varios modelos, agrupados en tres clases distintas, que se ajusten a los datos
de una serie de tiempo observada, para después pronosticar valores futuros de la misma.
Estos modelos están basados en funciones lineales de las observaciones. El objetivo es
41
doble: encontrar el modelo más simple que proporcione la mejor descripción de los datos
de la serie.
Las tres clases de modelos son:
• Autorregresivos y de promedios móviles.
• Autorregresivos integrados de promedios móviles.
• Autorregresivos integrados de promedios móviles estacionales.
La metodología Box-Jenkins se resume en los siguientes pasos:
1. Selección de una clase y modelo apropiados para ajustarlo a la serie de tiempo
observada.
2. Ajuste del modelo apropiado de la clase seleccionada a la serie de tiempo observada.
3. Empleo del modelo ajustado para hacer pronósticos de valores futuros de la serie de
tiempo.
Para la selección de la clase de modelos, el factor determinante es el análisis de la función
de autocorrelación muestral y de la función de autocorrelación parcial muestral. Éstas son
las herramientas fundamentales de este enfoque. Claro que primero se empieza por un
análisis visual de la serie, para ver en la medida de lo posible el comportamiento de la
media, la varianza y la estacionalidad.
Una vez seleccionada la clase y el modelo a la que pertenece la serie de tiempo, se procede
a encontrar el número de parámetros y su valor estimado. El modelo propuesto debe seguir
42
el principio de parsimonía. A continuación se procede a hacer pruebas de diagnóstico para
comprobar que realmente se ha llegado al modelo óptimo. Finalmente se utiliza el modelo
estimado para realizar pronósticos. En los apéndices D al K se proporcionan varias tablas
que resumen las principales características de los modelos a tratar en la metodología Box-
Jenkins.
4.3.2. Examinación visual de la serie de tiempo
El primer paso que se debe realizar es examinar la gráfica de la serie de tiempo. Esto nos
puede dar mucha información acerca del comportamiento de la misma. Sin embargo, no es
posible analizar completamente una serie a partir de su gráfica. Para un análisis completo,
se requiere examinar otras características de la serie, de las cuales se hablará en las
siguientes secciones.
Al examinar una gráfica de una serie, se pueden identificar la presencia o la ausencia de las
siguientes características: tendencia, estacionalidad y cambio en la varianza. La tendencia
es un cambio en la media y se manifiesta gráficamente cuando la serie presenta una patrón
a la alza o a la baja. La estacionalidad es la repetición de valores altos o bajos en la serie en
un periodo de tiempo determinado y se manifiesta gráficamente con picos o fondos en la
serie. El cambio en la varianza significa que la magnitud en que la serie se acerca o se aleja
de la media tiene un patrón que cambia constantemente.
Cabe hacer notar que existe una cuarta característica, la presencia de outliers o
intervenciones, que son valores de la serie completamente fuera del patrón que ésta
presenta. Ocurren de forma esporádica e impredecible. Este fenómeno se trata con una
43
técnica llamada análisis de intervención. Una de las acciones que se toman con esta técnica
es eliminar el outlier sustituyéndolo por el promedio de la serie, para hacer a ésta más
estable. Sin embargo, por ser una técnica compleja, no se desarrollará en el presente
trabajo. De la misma manera, los outliers no serán considerados aquí como una
característica de las series de tiempo.
Cuando una serie de tiempo presenta la ausencia de estas tres características, se dice que es
una serie de tiempo estacionaria. La estacionariedad es la ausencia de tendencia,
estacionalidad y cambio en la varianza de la serie a través del tiempo y se manifiesta
gráficamente con un patrón horizontal. Esto no implica que no haya variaciones alrededor
de la media, lo que implica es que estas variaciones tienen una magnitud constante. En el
apéndice B se muestran algunas gráficas de series que presentan las características aquí
citadas.
La examinación visual de una serie de tiempo no es suficiente para determinar si es
estacionaria o no. Una tendencia aparente a la alza o a la baja en los datos puede ser una
fluctuación aleatoria lejos del promedio, asimismo algunos máximos o mínimos
estacionales no se pueden distinguir de otras fluctuaciones y podemos suponer que hay
variaciones marcadas en la serie cuando en realidad es más o menos constante. Aquí es
donde entran en juego otras medidas para determinar.
4.3.3. Importancia de la media y la desviación estándar de una serie de tiempo Si una serie de tiempo es generada por una función matemática, entonces se pueden
determinar perfectamente los valores futuros de aquélla. Se dice entonces que es generada
44
por un proceso determinístico. En cambio, si una serie de tiempo es generada por un
proceso que nos permite conocer una variable aleatoria y su función de distribución, se dice
que es generada por un proceso estocástico o aleatorio. Esto implica que se manejarán
probabilidades en el comportamiento de la serie.
Sean Zt las variables aleatorias del proceso en el tiempo t. Existen N variables en todo
proceso y en toda serie, es decir, Z1, Z2, Z3, … , ZN, donde N es un número finito. Entonces
z1, z2, z3, … , zN son las realizaciones o valores observados de Z1, Z2 y Z3, … , ZN. Para
cada variable aleatoria existe un número infinito de realizaciones. Una serie de tiempo es el
conjunto de los valores observados de un grupo de N variables aleatorias y es sólo una de
las infinitas realizaciones de las mismas. Cada una de las variables aleatorias Zt tiene su
distribución de probabilidad y su función de probabilidad f(zt). Asimismo, tiene una media
µt= E(Zt) y una varianza σ2 = σ2(Zt). En general el proceso probabilístico va cambiando con
el tiempo y por lo tanto las distribuciones de probabilidad, medias y varianzas también. Si
asumimos que el proceso no varía con el tiempo, entonces todas las variables tendrán la
misma media y misma varianza y se dice que el proceso estocástico es estacionario en
media y varianza. Se pueden estimar la media, la varianza y la desviación estándar del
proceso a través de la media, la varianza y la desviación estándar de la serie, las cuales se
calculan con las siguientes ecuaciones respectivamente:
∑=
=≈N
ttz
Nz
1
1µ 2
1=
22 )(1
=≈ ∑∧ N
ttzz zz
Nσσ 2
1)(1 ∑
=
∧
−=≈N
ttzz zz
Nσσ
La importancia de tener series de tiempo estacionarias es que la metodología Box-Jenkins
proporciona modelos para procesos estocásticos estacionarios. Para revisar que el proceso
45
estocástico que generó la serie es estacionario en media y varianza se puede dividir la serie
de tiempo en subgrupos y calcular la media y la desviación estándar de cada uno. Un
número adecuado de observaciones en cada subgrupo es entre 4 y 12, de acuerdo a las
observaciones de la serie (O'Donovan, 1983, p. 26). Si el proceso es estacionario entonces
todas las medias tienen aproximadamente el mismo valor y lo mismo sucede con las
desviaciones estándar. La no estacionariedad en la media y en la varianza se ve a través de
una tendencia a la baja o a la alza en las medias y desviaciones de los subgrupos, de forma
individual o conjunta. Al graficar conjuntamente la media contra la desviación estándar, si
ambas se incrementan proporcionalmente se observa que los puntos forman una línea con
pendiente positiva. Entonces la serie es no estacionaria en varianza. La importancia de esta
prueba radica en que ésta es la única forma de saber que la serie es o no estacionaria en
varianza. Para que una serie que no es estacionaria en media, varianza o que presenta
patrón estacional sea convierta a estacionaria, se requiere de algunas técnicas que se
explican en las siguientes secciones.
4.3.4. Función de Autocorrelación Muestral Las variables en una serie de tiempo son dependientes entre sí. Es importante analizar cómo
es esta dependencia para lograr hacer pronósticos de valores futuros. La medida para esta
dependencia es la autocorrelación y no la covarianza, pues la primera no es sensible al
cambio de unidad de medida (es una medida estándar) y la segunda sí. La autocorrelación
en series de tiempo es la correlación entre dos variables del mismo proceso separadas por k
rezagos de tiempo. El coeficiente de correlación entre las variables Zt y Zt+k se define como
46
( ) ( ) ( ) ( )( ) ( )ktt
kttkttktt ZZ
ZEZEZZEZZ
+
+++
−=
σσρ ,
Un proceso estocástico se dice que es estacionario si además de que la media y la varianza
no cambian a través del tiempo y no hay patrón estacional, los coeficientes de correlación
entre dos valores dependen sólo de la distancia entre ellos y no del tiempo en sí mismo. En
un proceso estacionario, la autocorrelación del rezago k se denota como ρk y su fórmula es
2
2)(
z
kttk
ZZEσ
µρ
−= +
pues E(Zt) = E(Zt+k) = µ y σ(Zt) = σ(Zt+k) = σz La gráfica de las autocorrelaciones ρk contra los rezagos k = 1, 2,…, N se denomina
función de autocorrelación (FAC) teórica o correlograma teórico. La FAC teórica es la
característica más importante del proceso estocástico subyacente. Es simétrica con respecto
al origen k = 0, ya que las diferencias de tiempo entre Zt y Zt+k y Zt y Z-t-k son las mismas y
por lo tanto ρk = ρ-k.
Cuando dos variables separadas por k rezagos tienen un valor grande y similar, se esperaría
encontrar un valor de ρk cercano a +1. En cambio, si una variable tiene un valor grande y la
otra uno pequeño, se esperaría que el valor de ρk sea cercano a -1. Cuando existe poca
relación entre ambas, se esperaría un valor de ρk cercano a 0. Por lo anterior, en un proceso
estacionario las autocorrelaciones son cercanas a 0 y lejanas a ± 1. La importancia de la
FAC muestral radica en que con ella podemos determinar si el proceso subyacente es
estacionario o no.
47
Las autocorrelaciones de la serie de tiempo observada se estiman mediante la siguiente
fórmula:
( )( )
( )∑
∑
=
+
−
=∧
−
−−= N
tt
kt
kN
tt
k
ZZ
ZZZZ
1
2
1ρ
Se necesitan al menos 50 observaciones para obtener valores de autocorrelaciones
muestrales válidas y se recomienda hacer a lo más N/4 autocorrelaciones (O'Donovan,
1983, p.32) para observar el comportamiento de la función de autocorrelación. Se inferieren
muchas de las propiedades del proceso estocástico a partir del estudio de la función de
autocorrelación muestral, ya que aunque ésta es sólo una estimación de la FAC teórica,
tiende a seguir los mismos patrones de la misma y por eso es imprescindible para la
selección de un modelo.
La estacionariedad o no estacionariedad de un proceso estocástico puede ser determinada
por el análisis de la FAC muestral. La función de autocorrelación teórica de un proceso
estacionario tiende a caer rápidamente a cero conforme el rezago k crece o a cortarse
después de un determinado rezago k = q, es decir que después de cierto retraso las
autocorrelaciones serán cero. En el caso en que la FAC teórica se corta, las
autocorrelaciones de la función de autocorrelación muestral serán muy cercanas a cero. En
el caso en que la FAC teórica sea decreciente, las autocorrelaciones muestrales también lo
serán pero no de la misma forma. El decremento en la FAC de un proceso estacionario se
debe a que solamente unas cuantas variables adyacentes están relacionadas linealmente.
48
Cuando el proceso estocástico no es estacionario en la media, es decir cuando hay
tendencia creciente o decreciente, las autocorrelaciones muestrales caerán muy lentamente.
Esto es porque las observaciones tenderán a estar del mismo lado de la media de la serie
por muchos periodos y por lo tanto se producen autocorrelaciones muestrales grandes aún
en retrasos lejanos.
La estacionalidad se puede reconocer visualmente, aunque algunas veces es muy alta la
variabilidad de los datos o existe una tendencia muy fuerte en ellos que no hace tan fácil
reconocer este patrón. Para estos casos la FAC muestral facilita el reconocimiento de la
estacionalidad ya que se presenta alta correlación positiva o negativa entre observaciones,
por ejemplo, 12 periodos aparte si el patrón es anual para datos mensuales. La
autocorrelación muestral en el retraso 12 sería muy alta, en el 24 también pero no tan alta
como la del 12, y así. La función de autocorrelación muestral mostrará picos decrecientes
en los retrasos 12, 24, 36, 48, etc.
Con la FAC muestral se identifica la no estacionariedad debido a la tendencia en la media o
a la estacionalidad, pero no la no estacionariedad debido a cambios en la varianza del
proceso estocástico, que sólo se puede identificar por examinación visual de la serie o por
la relación de la media con la desviación estándar.
La FAC muestral se comporta distinto dependiendo del tipo de serie. La FAC muestral de
una serie estacionaria puede tender rápidamente a cero por el lado positivo, por el lado
negativo o alternando en ambos con distintos números de retrasos, lo que significa que las
observaciones crecen y decrecen alrededor de la media. La FAC muestral de una serie con
49
tendencia decaerá extremadamente lento y la FAC muestral de una serie con patrón
estacional presentará picos en los retrasos estacionales. La FAC de un proceso
autorregresivo tiende a 0 después de un retraso k = q y la FAC de un proceso de promedio
móvil se corta después de un retraso k = q.
4.3.5. Función de Autocorrelación Parcial Muestral La función de autocorrelación parcial (FACP) muestral nos sirve para identificar un modelo
adecuado para una serie, mediante su comparación con la FACP teórica. La autocorrelación
parcial teórica ρkk es la autocorrelación entre dos variables Zt y Zt+k separadas por un
rezago de k unidades de tiempo, no afectada por las variables Zt+1, Zt+2 , … , Zt+k-1 que
están entre ellas. Se define como ρkk = ( )1-k+t1+tk+tt Z,,...ZZ ,ZCorr y se obtiene con la
división de los determinantes de la fórmula
1
1
1
1
1
=
1321
2311
1221
1321
23
11
12
21
ρρρρ
ρρρρ
ρρρρ
ρρρρρ
ρρρρ
ρρρρ
ρ
kkk
kk
kk
kkkk
k
k
kk
L
MMMMM
L
L
L
MMMMM
L
L
Las autocorrelaciones parciales maestrales kkρ∧
son calculadas reemplazando las
autocorrelaciones teóricas por kρ las muestrales kρ∧
.
50
Como la FAC muestral, la FACP muestral tiende a seguir el mismo patrón que la FACP
teórica y es útil para identificar un modelo apropiado para el proceso estocástico
subyacente de una serie. La FACP de un proceso autorregresivo se corta después de un
retraso k = q y la FACP de un proceso de promedio móvil tiende a 0 después de un retraso
k = q. Vale la pena mencionar que mientras más corta en observaciones es una serie, más
difieren las autocorrelaciones muestrales y parciales maestrales de las autocorrelaciones
teóricas.
4.3.6. Identificación de un modelo Para la identificación de un modelo, lo básico es la comparación de la FAC y FACP
muestrales con la FAC y FACP teóricas de los modelos de la clase seleccionada. Las
funciones muestrales no coincidirán con las funciones teóricas, especialmente es series
cortas, ya que las autocorrelaciones y autocorrelaciones parciales muestrales son sólo
estimaciones de las teóricas, pero se espera que exhiban los mismos patrones generales que
las teóricas. Se deben tomar en cuenta las características más generales en las funciones
muestrales y no dar importancia a cada detalle para evitar ambigüedades en la selección de
un modelo.
Asimismo, de acuerdo al principio de parsimonía de Box y Jenkins, cuando se tiene que
escoger entre dos modelos en el paso de identificación, es mejor seleccionar el modelo con
menos parámetros. Lo anterior porque mientras más parámetros hay es más difícil
estimarlos todos y porque mientras más complicado es un modelo es más probable que no
se puedan detectar parámetros inútiles.
51
En los procesos se recurre a pruebas de significación de las autocorrelaciones muestrales
para decidir si son igual a cero o no. Las autocorrelaciones muestrales aproximadamente se
distribuyen normalmente con media 0 y varianza estimada:
⎟⎟⎠
⎞⎜⎜⎝
⎛+ ∑
1
∧2211 q
kNρ
La cual se obtiene se de la fórmula de Bartlett:
si
K
sKiskk N
Cov∧∧ ∑1
≈, ρρρρ+
⎟⎠⎞
⎜⎝⎛
⎟⎟⎠
⎞⎜⎜⎝
⎛+⎟
⎠⎞
⎜⎝⎛=⎟
⎠⎞
⎜⎝⎛= ∑∑
1
∧22
∧∧∧211
≈1
≈,⇒0q
k
K
K
ikkk NNVarCovsSi ρρρρρ
La probabilidad de que una variable que se distribuye normalmente con media y varianza
conocidas caiga entre los límites µ ± (1.96)σ es 0.95. Entonces ρk debe caer fuera de los
límites
2/1
1
∧2
2/1 ∑2196.1⎟⎟⎠
⎞⎜⎜⎝
⎛+±
q
kNρ
para que sea significativamente distinta de 0. Si cae dentro, entonces la autocorrelación es
igual a 0. Asimismo, la prueba de significación de las autocorrelaciones parciales
maestrales es que caigan dentro o fuera de los límites definidos por
2/1
96.1±
N
52
Si caen dentro entonces no son distintas de 0 y si caen afuera entonces sí lo son. Finalmente
debe tenerse en cuenta que si dos variables son independientes entonces ρk = 0 pero lo
contrario no es cierto.
Cuando se ha comprobado que un proceso es estacionario, enseguida se comparan las
autocorrelaciones parciales muestrales con las teóricas de los modelos ya existentes para
determinar cuál de éstos es apropiado para la serie de tiempo.
53
4.3.7. Modelos para series de tiempo estacionarias Estos modelos son aplicables cuando la serie de datos es una serie estacionaria y se
conocen de forma general como modelos autorregresivos y de promedios móviles
(ARMA). Los modelos ARMA tienen casos especiales y son el modelo de ruido blanco, los
modelos autorregresivos y los modelos de promedios móviles. Estos dos últimos tipos de
modelos tienen distinto número de términos en su ecuación, lo cual determina un grado
determinado en ellos.
Los modelos más comunes y que se presentan con frecuencia en la práctica son aquellos de
primer grado, pues los de mayor grado rara vez o nunca son encontrados en series reales.
En esta sección se describen los modelos más usuales de casos particulares y los modelos
generales, dando para cada uno de ellos la definición de su ecuación y estableciendo sólo
sus características principales.
Modelo de ruido blanco Este es el caso más simple de los modelos ARMA. Las variables Zt son independientes y
tienen la la misma distribución de probabilidad: Zt ~ N(µ,σz2). La ecuación del modelo es
Zt = θ0 + At
donde
θ0 = término constante de la ecuación
At ~ N(0,σΑ2) y es el error aleatorio en el tiempo t.
54
Las variables At son errores aleatorios e independientes en el tiempo t y el parámetro θ0 es
el término constante del modelo. Como todas las variables son independientes, la FAC
teórica y la FACP teórica son ambas cero.
Modelos Autorregresivos En los modelos autorregresivos, el valor observado de la variable de la serie de tiempo está
relacionado con sus propios valores pasados y el valor de un disturbio aleatorio, es decir,
cada observación es función de anteriores observaciones. Se les denomina como modelos
autorregresivos de orden p o como modelos AR(p). La ecuación general de los modelos
AR(p) es
Zt = θ0 + φ1Zt-1 + φ2Zt-2 +…+ φpZt-p +At
donde
θ0 = término constante que es igual a µ(1-φ1-…-φp)
φj = coeficiente autorregresivo de j-ésimo orden
At ~ N(0, σA2)
Esta ecuación también se escribe como
tptptt ZZZ Α+ ++ + =⋅
−
•⋅
−
•
1−
••
φφφ L221 tZ
o como
ttp Z Α = )Β(•
φ
donde
φp(B)= (1- φ1B-…- φpBp)
55
Los modelos AR(p) tienen una FAC teórica que decae rápidamente hacia 0, pero con
distintos patrones. La FACP teórica se corta después de un determinado rezago k = p.
En el modelo autorregresivo de primer orden AR(1), la variable Zt depende de una sola
observación, la variable Zt-1 que le precede. Entonces la variable Zt es una función lineal de
la variable Zt-1 mas un shock aleatorio y la ecuación del modelo es
Zt = θ0 + φ1Zt-1 +At
donde
θ0 = término constante que es igual a µ(1-φ1)
φ1 = coeficiente autorregresivo de primer orden
At ~ N(0, σA2)
El error At es independiente de la variable Zt-1, por lo tanto de la ecuación del modelo se
deduce que
σz2 = φ1
2σz2 + σA
2
y entonces
σz2 =
12
2
1 φ
σ A
56
Para que σz2 sea finita y no negativa, se necesita que -1 < φ1 < 1, la cual es la condición de
estacionariedad para un proceso AR(1). Las covarianzas entre dos variables separadas por k
rezagos está dada por
Cov (Zt, Zt-k) = φ1k σZ
2
En consecuencia, dado que las medias, varianzas y covarianzas son las mismas para todas
la variables en cualquier periodo de tiempo, las autocorrelaciones para este modelo están
dadas por
ρk = φ1k
Lo cual implica que la función de autorrelación decae geométricamente hacia 0 conforme
aumenta k. Si φ es positivo, las autocorrelaciones decaerán por arriba. Si φ es negativo,
entonces las autocorrelaciones serán positivas cuando k sea par y negativas cuando sea
impar, lo cual hará que la FAC teórica disminuya alternándose los valores positivos y
negativos. Si φ es cercano a ± 1, las autocorrelaciones decaerán lentamente, pero si φ es
cercano a 0 decaerán rápidamente.
Las autocorrelaciones parciales teóricas son
ρ11 = φ1, ρkk = 0 (k>1)
Por lo tanto, se cortan después de k=1.
57
Modelos de Promedios Móviles En los modelos de promedio móvil, la variable de la serie de tiempo es una combinación
lineal de errores aleatorios pasados. Se les denomina como modelos de promedio móvil de
orden q o modelos MA(q). La ecuación general de estos modelos es
Zt = θ0 +At -θ1At-1-…-θqΑt-q
donde
θ0 = término constante igual a la media del proceso µ.
θj = coeficiente de promedio móvil de j-ésimo orden
At ~ N(0, σA2)
Esta ecuación también se escribe como
qtqttt AAAZ −−
•
−−= θθ L11
o como
tZ•
=θq(B)At
donde
θq(B)= (1- θ1B-…- θqBq)
Como ∞<+++ 2211 qθθ L , un proceso de promedio móvil finito siempre es estacionario.
Los modelos MA(q) tienen una FAC teórica se corta después de un determinado rezago k =
p. La FACP teórica que decae rápidamente hacia 0, pero con distintos patrones.
58
En el modelo de promedios móviles de primer orden MA(1), la variable Zt depende de un
solo error previo, la variable At-1 que le precede. Entonces la variable Zt es una función
lineal del error actual y del error anterior y la ecuación del modelo es
Zt = θ0 +At-θ1At-1
donde
θ0 = término constante que es igual a µ
θ1 = coeficiente de promedio móvil de primer orden
At ~ N(0, σA2)
Las función de autocorrelación para este modelo es
ρk = ,1,0
1,1 2
1
1
⎪⎩
⎪⎨
⎧
>
=+−
k
kθθ
Por lo tanto, se corta después de k=1.
Las autocorrelaciones parciales teóricas están dadas por
1,1
)1()1(2
1
211 ≥
−−−
==+
kk
k
kkkk θθθ
φρ
59
Lo cual implica que la función de autorrelación parcial decae geométricamente hacia 0
conforme aumenta k. Si θ1 es positivo, las autocorrelaciones decaerán por abajo. Si θ1 es
negativo, entonces las autocorrelaciones serán positivas cuando k sea impar y negativas
cuando sea par, lo cual hará que la FACP teórica disminuya alternándose los valores
positivos y negativos. Si θ1 es cercano a ± 1, las autocorrelaciones decaerán lentamente,
pero si θ1 es cercano a 0, decaerán rápidamente.
Modelos autorregresivos y de promedios móviles Existe una relación entre los procesos AR(p) Y MA(q) que es la siguiente: Un proceso AR
estacionario de orden finito puede escribirse en la forma de un proceso MA de orden
infinito y un proceso MA invertible de orden finito puede escribirse en la forma de un
proceso AR de orden infinito. Esta relación entre los procesos también existe entre las
funciones de autocorrelación y de autocorrelación parcial.
También existen modelos que combinan ambos procesos y son llamados modelos
autorregresivos y de promedios móviles de orden (p,q), o simplemente modelos
ARMA(p,q). La ecuación general de estos modelos es la siguiente:
Zt = θ0 + φ1Zt-1 +…+ φpZt-p +At -θ1At-1-…-θqΑt-q
donde θ0 = término constante relacionado con la media del proceso At ~ N(0, σ2
A)
60
La ecuación es una combinación de las dos ecuaciones anteriores y tiene p términos
autorregresivos y q términos de promedio móvil. Estos modelos son la forma general de los
dos anteriores, por lo que los modelos AR(p) y MA(q), que también se escriben
ARMA(p,0) y ARMA(0,q), son casos especiales de éste. La gran mayoría de las series que
se presentan en práctica son modelos ARMA con 2≤+ qp .
En el modelo ARMA(1,1), la variable Zt depende de la observación Zt-1 que le precede y
del error anterior At-1. En otras palabras, la variable Zt es una función lineal de estos dos
más un shock aleatorio y la ecuación del modelo es
Zt = θ0 + φ1Zt-1 +At-θ1At-1
donde
θ0 = término constante que es igual a µ(1-φ1)
φ1 = coeficiente autorregresivo de primer orden
θ1 = coeficiente de promedio móvil de primer orden
At ~ N(0, σA2)
Cuando φ1 es igual a cero, el modelo ARMA(1,1) se reduce a un modelo MA(1). Cuando θ1
es igual a cero, el modelo ARMA(1,1) se reduce a un modelo AR(1). Para que el proceso
sea estacionario, es necesario que 1φ <1. Las funciones de autocorrelación y
autocorrelación parcial tienen las características de los dos modelos antes citados.
61
Las autocorrelaciones para este modelo están dadas por
( )( )
⎪⎪⎩
⎪⎪⎨
⎧
≥
=−+
−−=
=
− 2
,121
1,01
11
112
1
1111
k
k
k
k
k
ρφθφθθφθφ
ρ
En el cálculo de ρ1 interviene tanto el término autorregresivo como el de promedio móvil,
pero las siguientes autocorrelaciones sólo contienen el término autorregresivo. La fórmula
para determinar las autocorrelaciones parciales es muy complicada y no es necesaria. En
general, tanto la FAC como la FACP decaen exponencialmente hacia 0, pero toman
distintos patrones dependiendo de los signos y el valor de θ1 y φ1.
. 4.3.8. Modelos para series de tiempo no estacionarias en media y en varianza
En la práctica, la mayoría de las series de tiempo son no estacionarias, especialmente las
series de variables económicas. Como ya se mencionó, la no estacionariedad en una serie
puede deberse a que no hay estabilidad en la varianza, a que no hay estabilidad en la media,
a la presencia un patrón estacional o a alguna combinación de los tres. Este hecho dificulta
la labor de los pronósticos, pero este obstáculo es superable. Las medidas que se toman
para tratar estos problemas se llaman transformaciones y diferenciaciones.
Caso 1: No estabilidad en la varianza
Antes de trabajar con una serie, es necesario probar si ésta es estable en la varianza y en la
media. La estabilidad en varianza siempre es muy difícil de determinar analizando la
gráfica de la serie observada. En cambio, la estabilidad en la media es más fácil de observar
62
a simple vista. Sin embargo, para comprobar la presencia o ausencia de ambas, se realiza un
método muy sencillo.
Se divide la serie observada en grupos de 4 a 12 datos, de cada uno de estos grupos se
obtienen su media y su desviación estándar y se grafican estos valores. Entonces se puede
ver si ambas siguen una tendencia o se mantienen más o menos estables. Asimismo, se
grafican los datos de la media contra los de las varianza y se observa qué gráfica resulta. Si
los datos presentan un patrón similar a una línea recta horizontal o una recta vertical,
significa que una de las dos se mantiene más o menos constante, siendo estacionaria en
ésta, mientras que la otra está creciendo conforme avanza el tiempo. Si los datos presentan
un patrón similar a una línea recta creciente o decreciente, significa que tanto la media
como la varianza están creciendo o disminuyendo conforme avanza el tiempo y la serie no
es estacionaria en ninguna de las dos. Si los datos aparecen dispersos y no presentan ningún
patrón, significa que la serie es estacionaria en varianza. Ésta es la única forma de
comprobar la estacionariedad en varianza. En cambio, la estacionariedad en la media se
comprueba también con la FAC muestral.
Si se detecta no estacionariedad en varianza, se recurre a acciones denominadas
transformaciones. Las transformaciones se realizan a través de una función llamada
transformación de potencia cuya ecuación es
λ
λλ 1)( −
= tt
ZZ
63
donde λ es el parámetro de transformación. Esta función fue propuesta por Box y Cox
(1964) (Wei, 1990, p.83). Dependiendo del valor que se le dé a λ es la transformación
resultante. Los valores y transformaciones más comunes son
t
t
t
t
t
Z
Z
Z
Z
Z
ciónTransformadeValores
1
5.0
)ln(0
15.0
11
−
−
λ
De estas transformaciones, la más común es la logarítmica, seguida por la aplicación de raíz
cuadrada. Es necesario probar con cuál de estas transformaciones se alcanza una mejor
estabilidad en la varianza.
Caso 2: No estabilidad en la media
Si se detecta no estacionariedad en la media, se recurre a acciones denominadas
diferenciaciones regulares. Las diferenciaciones regulares (d) se aplican a la serie original y
se obtiene una serie diferenciada regularmente. Pueden ser de varios grados, pero en la
práctica usualmente sólo es necesaria la de primer grado (d = 1). En una diferenciación
regular de k grado, se pierden k términos de la serie original.
La diferencia regular de primer grado se denota por
64
1−−= ttt zzw , para 2≥t
o también puede denotarse usando un operador de retraso B, que retrasa a una observación
un periodo: Bz = zt-1. Entonces la diferencia regular de primer grado también se denota por
wt = (1 - B)zt
ya que (1 - B)zt = zt - Bzt= zt - zt-1
La diferencia de segundo grado se denota por
wt = zt -2zt-1 + zt-2 , para 3≥t
o también puede denotarse usando un operador de retraso B, pero elevándolo al cuadrado
para que retrase la observación en dos periodos: B2z = zt-2. Entonces la diferencia regular de
segundo grado también se denota por
wt = (1 - B)2zt ya que (1 - B)2zt = (1 - B) (1 - B)zt =(1 - B)( zt - zt-1 ) = zt -2zt-1 + zt-2 Con esto llegamos a las siguientes relaciones:
Bkzt = zt-k y wt = (1 - B)dzt
La primer relación nos indica un retraso de k periodos en las observaciones. La segunda
define una nueva serie de valores observados wt resultante de d diferencias posibles
65
aplicadas a la serie original. Cabe hacer notar que cada vez que se aplica una diferenciación
se debe revisar si se ha alcanzado estacionariedad en la media, pues la sobrediferenciación
sólo complica la estimación del modelo.
Al alcanzar estacionariedad en la media, se selecciona alguno de los modelos ARMA para
la nueva serie estacionaria. Este nuevo modelo es llamado modelo autorregresivo integrado
de promedios móviles de grado (p,d,q) o más sencillamente modelo ARIMA(p,d,q). Por
ejemplo, si al realizar la primer diferencia el modelo que se ajusta a la serie diferenciada es
un modelo AR(1) o equivalentemente un ARMA(1,0), el modelo sería un ARIMA(1,1,0)
con ecuación
Wt = θ0 + φ1Wt-1 + At
donde Wt = Zt – Zt-1 , lo cual resulta en
Zt = θ0 + (1+ φ1)Zt-1 - φ1Zt-2 + At donde At ~N(0,σ2
A)
En los modelos ARIMA, existen p términos autorregresivos, d número de diferencias
regulares aplicadas a la serie original y q términos de promedio móvil. De esto, se deduce
que se pueden obtener diferentes modelos ARIMA a partir de los modelos ARMA. Las
FAC’s y las FACP’s de algunos de los modelos ARIMA con primeras diferencias regulares
se citan en una tabla al final de este capítulo.
66
4.3.9. Modelos para series de tiempo estacionales
Las series de tiempo que presentan patrón estacional tienen un patrón que se repite después
de un número de intervalos de tiempo. Este patrón puede verse en ocasiones en la gráfica
de la serie observada, a menos que exista una tendencia muy fuerte o la varianza no sea
estable. Asimismo, este patrón se presenta siempre de forma inconfundible en las
autocorrelaciones de la serie, manifestándose en forma de picos en ciertos intervalos de
tiempo.
El caso más común de patrón estacional es cuando los datos están divididos por meses y
existe un patrón cada 12 meses. Entonces existen picos en los rezagos 12, 24, 36, etc. de la
función de autocorrelación. A estos picos se les llama rezagos estacionales. Cabe
mencionar que si estos rezagos son muy parecidos en valor y van decreciendo muy
lentamente, entonces existe el patrón estacional. Si solamente el rezago 12 o el 12 y el 24
tienen valores altos y los siguientes rezagos estacionales se van rápidamente a 0, entonces
hay estacionariedad en el patrón estacional. Por supuesto, existen muchos tipos de patrón
estacional, como bimestral, trimestral, cuatrimestral, semestral o anual.
La no estacionariedad en la serie debido a un patrón estacional puede ser eliminada a través
de lo que denomina diferencia estacional (D) y se define como
wt = zt – zt-s , 1+≥ st
donde s toma distintos valores dependiendo del patrón estacional. Por ejemplo, si el patrón
es anual y los datos son mensuales, s toma el valor 12; si el patrón es bimestral y los datos
67
son mensuales, s toma el valor de 2. En esta diferencia, la nueva serie tiene s términos
menos que la original.
La diferencia estacional también puede denotarse usando un operador de retraso B, que
retrasa a una observación s periodos: Bszt = zt-s. Entonces se tiene que
wt = (1 - Bs)zt = zt - zt-s , 1+≥ st
En general, se pueden aplicar D diferencias estacionales como sean necesarias, quedando la
siguiente relación:
wt = (1 - Bs)Dzt
Ésta define una nueva serie de valores observados wt resultante de D diferencias
estacionales posibles aplicadas a la serie original. Cabe hacer notar que cada vez que se
aplica una diferenciación estacional se debe revisar si se ha alcanzado estacionariedad en el
patrón estacional, pues la sobrediferenciación sólo complica la estimación del modelo.
Como ya se mencionó, la función de autocorrelación nos indica la presencia o ausencia de
la tendencia y la estacionalidad. Si una serie presenta tendencia y patrón estacional
combinados, el análisis de la FAC nos indica la presencia de ambas al mismo tiempo. En
esta situación, se puede proceder de dos formas.
68
El primer caso es aplicar una diferencia regular para lograr estacionariedad en la media.
Analizando la nueva FAC, si los rezagos estacionales continúan mostrando un patrón se
procede a realizar una diferencia estacional. Entonces la nueva serie observada queda
wt = wt – wt-1 = (1-Bs) (1-B) zt = (1-Bs) (zt – zt-1) = zt – zt-1 - zt-s + zt-(s+1) , 1+≥ st
El segundo caso es aplicar una diferencia estacional para lograr estacionariedad en el patrón
estacional. Analizando la nueva FAC, si las autocorrelaciones muestran un patrón de
tendencia, se procede a realizar una diferencia regular. Entonces la nueva serie observada
queda
wt = wt – wt-1 = (1-B) (1-Bs) zt = (1-B) (zt – zt-s) = zt – zt-s - zt-1 + zt-(s+1) , 1+≥ st
Por lo tanto, en la aplicación de los dos tipos de diferencias es irrelevante el orden en que se
realizan, pues la serie obtenida es la misma.
Para el caso de estacionalidad en la serie, existen modelos para tratar estos patrones. Los
modelos autorregresivos estacionales de grado P y periodo S son análogos a los modelos
autorregresivos y están en función de p observaciones estacionales anteriores. Se denotan
por modelos SAR(P)S. Los modelos de promedio móvil estacionales de grado Q y periodo
S están en función de q disturbios estacionales anteriores. Se denotan por modelos
SMA(Q)S. Los más comunes son los modelos de primer orden y periodo 12.
69
El modelo autorregresivo estacional de primer orden y periodo 12, también denotado por
SAR(1)12, es análogo a un autorregresivo de primer orden. Está en función de la
observación estacional anterior. La ecuación del modelo es
Zt = θ0 + φ12Zt-12 + At
donde
φ12 = coeficiente autorregresivo estacional de periodo 12
At ~N(0,σ2A)
El coeficiente φ12 debe presentar la condición -1 < φ12 < 1 para que el proceso alcance
estacionariedad. Las autocorrelaciones están dadas por
ksks
s
ks
12,012,12
≠=
==
ρφρ
con lo cual, sólo son distintas de cero en los periodos estacionales y se van rápidamente a
cero. Las autocorrelaciones parciales están dadas por
ρ12,12 = φ12 , ρss = 0 para cualquier otro caso
con lo cual, sólo el rezago 12 es distinto de cero.
70
El modelo de promedio móvil estacional de primer orden y periodo 12, también denotado
por SMA(1)12, es análogo a uno de promedio móvil de primer orden. Está en función del
disturbio estacional anterior. La ecuación del modelo es
Zt = θ0 + At - θ12At-12
donde
θ12 = coeficiente de promedio móvil estacional de periodo 12
At ~N(0,σ2A)
Las autocorrelaciones están dadas por
casootrocualquierparak 01 2
12
1212
=+−
=
ρθ
θρ
con lo cual, sólo el rezago 12 es distinto de cero. Las autocorrelaciones parciales sólo son
distintas de cero en los periodos estacionales y se van rápidamente a cero.
El modelo que generaliza ambos casos se llama modelo autorregresivo y de promedio
móvil estacional de orden (P,Q) y periodo s, también denotado por SARMA(P,Q)s, es
análogo a uno ARMA(p,q). La ecuación del modelo es
Zt = φsZt-s + … +φsPZt-sP +At - θsAt-s - … - θsQAt-sQ
donde
At ~N(0,σ2A)
71
Las autocorrelaciones y las autocorrelaciones parciales están definidas de acuerdo al caso
que presente el modelo.
El modelo que considera D diferencias estacionales para alcanzar estacionariedad en una
serie con patrón estacional es el modelo autorregresivo y de promedio móvil estacional
integrado de orden (P, D, Q) y periodo s, también denotado por SARIMA(P,D,Q)s, es
análogo a uno ARIMA(p, d, q). La ecuación del modelo es
Zt = φsWt-s + … +φsPWt-sP +At - θsAt-s - … - θsQAt-sQ
donde
At ~N(0,σ2A)
Wt = (1-Bs)DZt
Las autocorrelaciones y las autocorrelaciones parciales están definidas de acuerdo al caso
que presente el modelo.
Finalmente, el modelo multiplicativo estacional de orden (p, d, q) x (P, D, Q) y periodo s es
el que toma en cuenta la no estacionariedad tanto en media como en el patrón estacional. El
modelo contiene operadores regulares de orden p o q y estacionales de orden P o Q. Las
series observadas requieren de un operador regular, ya sea autorregresivo o de promedio
móvil, pero no ambos. Asimismo, requieren de un operador estacional, ya sea
autorregresivo o de promedio móvil, pero no ambos. Cabe notar que éste es el modelo
general del enfoque Box-Jenkins. La ecuación del modelo es
(1-φ1B-…-φpBp)(1-φsBs-…-φsPBsP)Wt = θ0 + (1-θ1B-…-θqBq)(1-θsBs-…-θsQBsQ)At
72
donde Wt = (1- B)d(1- Bs)DZt θ0 = (1-φ1-…-φp)( 1-φs-…-φsP)µ (1-φ1B-…-φpBp) operador autorregresivo regular de orden p (1-φsBs-…-φsPBsP) operador autorregresivo estacional de orden P (1-θ1B-…-θqBq) operador de promedios móviles regular de orden q (1-θsBs-…-θsQBsQ) operador de promedios móviles estacional de orden Q s = periodo estacional Los casos más comunes en la práctica son
(1, d, 0) x (1, D, 0)12 (1, d, 0) x (0, D, 1)12 (0, d, 1) x (1, D, 0)12 (0, d, 1) x (0, D, 1)12
Para saber qué operadores se deben incluir en el modelo, se siguen los siguientes dos pasos
al analizar la FAC y la FACP maestrales de la serie diferenciada. El primero es tomar en
cuenta sólo las autocorrelaciones no estacionales y fijarnos en el patrón que presentan.
Utilizando la FAC y la FACP de los modelos AR(p) y MA(q), si la FAC muestral tiende a
0 y la FACP se corta después del rezago p, entonces un operador autorregresivo regular de
orden p debe incluirse en el modelo. Asimismo, si la FAC muestral se corta después del
rezago q y la FACP tiende a 0, entonces un operador de promedio móvil regular de orden q
debe incluirse en el modelo.
73
El segundo es tomar en cuenta sólo las autocorrelaciones estacionales y fijarnos en el
patrón que presentan. Utilizando la FAC y la FACP de los modelos SAR(P)s y SMA(Q)s,
si la FAC muestral tiende a 0 y la FACP se corta después del rezago sP, entonces un
operador autorregresivo estacional de orden P debe incluirse en el modelo. Asimismo, si la
FAC muestral se corta después del rezago sQ y la FACP tiende a 0, entonces un operador
de promedio móvil estacional de orden Q debe incluirse en el modelo.
El término constante θ0 en el modelo se deberá incluir sólo si la media muestral de la serie
diferenciada es grande comparada con la desviación estándar muestral.
4.3.10. Principios del cálculo del pronóstico Para el cálculo del pronóstico, primero debemos conocer cuál es el modelo apropiado para
la serie de tiempo observada y enseguida extrapolarlo hacia el futuro. El valor de la serie de
tiempo l periodos en el futuro se denota por zt+l y es un valor aleatorio de la variable Zt+l. El
pronóstico de zt+l basado en los valores observados z1, z2,…, zt se denota por )(lz t
∧
, con
origen en t y horizonte de tiempo l.
Sea f cualquier pronóstico de zt+l. Se define como error de pronóstico a la expresión: (Zt+l –
f). El error cuadrado medio del pronóstico se define como la expresión: E(Zt+l – f)2.
El pronóstico de zt+l con el error cuadrado medio más pequeño condicionado a la
información al origen t es:
E(Zt+l | Z1 = z1, Z2 = z2, ... , Zt = zt)
o de forma más corta
74
][ lttZE +
El error de pronóstico para el pronóstico )(lz t
∧
, condicional a la información al origen t se
denota por
et(l) = Zt+l - )(lzt
∧
cuya media es 0. La varianza del error del pronóstico condicional en información al origen t
se denota por
)]([2 letσ
La varianza se incrementará conforme se incrementa el horizonte de tiempo l. Entonces
conforme avanza el tiempo, la amplitud de los intervalos de predicción se incrementará
también. Entre mayor sea el horizonte de tiempo del pronóstico, éste será menos exacto. En
la practica, el error del pronóstico y la varianza del error del pronóstico dependerán de los
parámetros desconocidos del modelo de series de tiempo y tendrán que ser estimados de los
valores observados de la serie.
4.3.11. Estimación de los parámetros, significación y diagnóstico.
Antes de comenzar la estimación de los parámetros, se debe tener muy presente que
siempre se deben incluir el menor número de parámetros tal que nos den el pronóstico más
adecuado. Éste es el principio de parsimonía. Su razón de ser es que mientras más
parámetros hay en un modelo ajustado, más difícil es su estimación y menos acertados son
los pronósticos. Teniendo este principio presente, se procede a la estimación de los
parámetros.
75
Los valores estimados de los parámetros están en función de los valores observados en la
serie y algunos se estiman con las autocorrelaciones. De acuerdo al principio de mínimos
cuadrados, los parámetros deben tener valores que hagan que la suma de cuadrados de los
errores o suma residual de cuadrados sea mínima:
2
1
21
1)())1(( ∑∑
∧
−
∧
=
=−N
tt
N
tt azz
Los valores de los parámetros se estiman utilizando esta fórmula. Cuando se presentan
problemas de valores iniciales, se solucionan dando estimadores adecuados de estos
valores. El cálculo anterior es una estimación no lineal de mínimos cuadrados. Los
parámetros de un modelo pueden ser calculados también por el método de momentos, el
método de máxima verosimilitud o el método de mínimos cuadrados ordinarios. Ninguno
de éstos se contempla en el presente trabajo.
Una vez que se han estimado los parámetros, el modelo ajustado debe revisarse para ver
que las estimaciones de los parámetros satisfagan las condiciones de estacionariedad e
invertibilidad y que sean significativamente diferentes de cero. Para comprobar esto último,
se recurre a la siguiente regla: Un parámetro es significativamente de cero si cae fuera de
los límites ± l.96*(error estándar estimado).
Los errores estándar estimados dependen del modelo ajustado. Si el parámetro estimado es
significativo, entonces debe ser incluido en el modelo y si no lo es, no se debe incluir. Sin
76
embargo, si el hecho de no ser significativo se debe a pocas observaciones en la serie,
entonces se debería dejar en el modelo. Si los parámetros son cercanos a 1, es mejor usar un
modelo no estacionario para la serie. Pero las pruebas principales de adecuación de modelo
se basan en un estudio de los residuales del modelo ajustado. Si el modelo que hemos
ajustado es el modelo correcto, entonces los valores observados del error del pronóstico son
ta∧∧
== )1(z - z (1)e 1-tt1-t
Como at se calcula con las estimaciones de los parámetros se le llama residual. Si el modelo
ajustado es de la forma correcta y si los estimadores de mínimos cuadrados son iguales o
muy aproximados a los valores reales de los parámetros del modelo, los residuales ta∧
deberían ser la realización de un proceso de ruido blanco. Lo anterior porque los disturbios
aleatorios At forman un proceso de ruido blanco si son independientes y se distribuyen
normalmente con media cero y desviación estándar σ2A.
Entonces, al revisar la FAC y la FACP de los residuales, ambas deben ser cero. Pero si al
revisar la FAC encontramos que la primera autocorrelación muestral es significativamente
diferente de cero, entonces un término de promedios móviles debe ser incluido en el
modelo. Si al revisar la FACP la primera autocorrelación parcial muestral fuera
significativamente diferente de cero, entonces un término autorregresivo debe ser incluido
en el modelo. Finalmente, si la FAC mostrara picos en los retrasos estacionales y las
autocorrelaciones fueran significativas, entonces un modelo estacional debe ser utilizado.
Esto es lo mismo que utilizar la FAC y la FACP con la serie original directamente.
77
Existe una prueba a través del estadístico Q para determinar si el modelo es adecuado o no.
Sea rl(∧
a ) la autocorrelación del rezago l para los residuales y sea
2
1
))((∑=
∧
=k
ll arNQ
donde N es el número de residuales de la serie de tiempo observada y k el número de las
autocorrelaciones rl(∧
a ). El estadístico Q tendrá una distribución de probabilidad ji-
cuadrada con (k-r) grados de libertad, donde r es el número de parámetros en el modelo. La
regla es: Si Q es muy grande y excede el valor crítico cuya probabilidad de pasarlo es 0.05,
entonces el modelo es inadecuado. Finalmente, el estadístico L-Jung Box, que es una
modificación del estadístico Q, se utiliza en la mayoría de los paquetes de pronóstico
actuales.
4.3.12. Medición de la capacidad de ajuste y de predicción de un modelo
Cuando se estiman parámetros y se prueban los modelos ajustados, es común que varios
puedan ser adecuados para estimar una serie. Para tener una última forma de decisión al
respecto, existen medidas que están basadas en el error del pronóstico. Se pueden utilizar
este tipo de estadísticos que comparan la precisión entre dos modelos diferentes, es decir,
miden su bondad de ajuste. Existen muchas medidas para decidir si un modelo es el óptimo.
En las siguientes, M es el número de errores porcentuales utilizados en la sumatoria y n es
el periodo origen del pronóstico.
78
Error porcentual medio (Mean percentage error). Se le conoce como sesgo pues mide los
sesgos del pronóstico.
MPE = 100*11
⎟⎟⎠
⎞⎜⎜⎝
⎛∑
= +
M
l ln
l
Ze
M
Error cuadrado medio (Mean square error)
MSE = ∑=
M
lle
M 1
21
Error absoluto medio (Mean absolute error)
MAE = ∑=
M
lle
M 1
1
Error porcentual absoluto medio (Mean absolute percentage error)
MAPE = ⎟⎟⎠
⎞⎜⎜⎝
⎛∑
= +
M
l ln
l
Ze
M 1
1 *100
El MAPE es la medida que se tomará como referencia en este trabajo para la selección del
modelo Box-Jenkins óptimo. Es un valor promedio de los valores absolutos de los residuos
o errores de pronóstico medidos como porcentaje del valor observado. Esta medida no
79
depende del tamaño o magnitud de la variable para la evaluación de la precisión del
pronóstico. El MAPE compara qué tan grandes son los errores de pronóstico con los
valores reales de la serie. Entre más pequeño es su valor, el modelo es más adecuado.
Akaike’s Information Criterion (AIC)
Este estadístico es una buena medida para elegir un modelo óptimo entre varios que
cumplan con distintas condiciones para ser modelos adecuados. Toma en cuenta el número
de parámetros usados en el modelo y la verosimilitud. La fórmula es
mLAIC 2log2 +−=
donde
m = p+q+P+Q
L = verosimilitud del modelo
Debido a que no todos los programas estadísticos computacionales calculan el AIC o la
verosimilitud L, es posible aproximarlo mediante la siguiente fórmula:
mnnAIC 2log))2log(1( 2 +++≈ σπ
donde
n = número de observaciones en la serie
σ2 = varianza de los residuales
80
Ésta medida sólo es útil para comparar modelos ajustados de una misma serie de datos. El
primer término puede eliminarse pues es igual para todos lo modelos. Mientras más
pequeño es el AIC, mejor es el modelo ajustado. Sin embargo, en este trabajo no se
utilizará como la medida primordial.
4.4. Implementación del método a la serie de créditos ejercidos.
Para empezar con el método Box-Jenkins se debe determinar si la serie de tiempo es
estacionaria en la varianza. Para ello, se dividen los datos en 10 grupos de 5 datos cada
uno. Se obtienen las medias y las desviaciones estándar de cada grupo y se grafican
separadamente, quedando el siguiente cuadro:
Grupo Media Desv. Est.1 18,773 8871.342 14,455 9881.6273 17,501 8498.5054 20,493 7677.8985 28,708 12540.46 42,241 11865.047 38,896 8646.5078 39,379 8189.0559 44,777 5373.943
10 51,880 9530.386
81
Comportamiento de media y varianza
0
10,000
20,000
30,000
40,000
50,000
0 5 10
Grupos
Valo
res
VarianzaMedia
De la gráfica del comportamiento, se ve claramente que la media se incrementa con el paso
del tiempo. En cambio, la varianza parece no cambiar y se mantiene más o menos
constante. Sin embargo, es necesario también graficar una contra otra.
Relación entre media y varianza
4,000
5,000
6,000
7,000
8,000
9,000
10,000
11,000
12,000
13,000
10,000 20,000 30,000 40,000 50,000 60,000
Media
Des
v. E
stán
dar
Relación
82
De la gráfica de relación se ve claramente que entre las medias y las varianzas de los
grupos no existe relación alguna, pues los puntos aparecen dispersos. Por lo tanto, la serie
es estacionaria en varianza y no es necesario realizar ninguna transformación a la serie.
A través de un análisis visual de la serie, por medio de su gráfica, se puede establecer la
presencia o ausencia de la estacionariedad en la media y del patrón estacional de la serie de
tiempo observada. Esta es una forma sencilla, intuitiva y a priori, pero no muy efectiva para
lograr este fin.
Créditos ejercidos
0
10,000
20,000
30,000
40,000
50,000
60,000
70,000
80,000
0 5 10 15 20 25 30 35 40 45 50 55
Observaciones
Núm
eros
de
créd
itos
Créditos
Como puede verse a simple vista, existe una tendencia a la alza y un posible patrón
estacional. Para comprobar la no estacionariedad en estos dos factores, recurrimos al
análisis de la Función de Autocorrelación Muestral.
83
453525155
1.00.80.60.40.20.0
-0.2-0.4-0.6-0.8-1.0A
utoc
orre
latio
n
LBQTCorrLagLBQTCorrLagLBQTCorrLagLBQTCorrLag
401.56400.38393.31382.62377.72366.61355.47350.50334.89322.42309.90292.77
282.25272.58256.87246.50233.37221.47210.85202.60190.55178.64170.00162.00
156.34154.73150.05147.34145.97145.16144.97143.82143.82143.58142.89142.36
140.94136.58132.84129.57123.46116.39108.02 88.07 73.48 61.09 39.97 20.16
-0.07-0.21-0.31-0.23-0.38-0.41-0.30-0.56-0.53-0.56-0.69-0.57
-0.57-0.76-0.64-0.76-0.75-0.73-0.67-0.84-0.87-0.77-0.76-0.66
-0.36-0.63-0.49-0.36-0.28-0.14 0.34 0.01 0.16 0.28 0.25 0.41
0.74 0.70 0.67 0.95 1.05 1.19 2.01 1.85 1.84 2.77 3.22 4.36
-0.03-0.09-0.13-0.10-0.16-0.17-0.12-0.23-0.22-0.23-0.28-0.23
-0.23-0.30-0.25-0.29-0.29-0.28-0.25-0.31-0.32-0.28-0.27-0.23
-0.13-0.22-0.17-0.12-0.10-0.05 0.12 0.00 0.06 0.10 0.09 0.14
0.25 0.24 0.22 0.31 0.34 0.37 0.58 0.50 0.47 0.62 0.60 0.62
484746454443424140393837
363534333231302928272625
242322212019181716151413
121110 9 8 7 6 5 4 3 2 1
Autocorrelaciones de observaciones
Vemos que las autocorrelaciones decaen muy lentamente hacia 0, por lo tanto la serie no es
estacionaria en la media. En cuanto al patrón estacional no es muy clara su presencia, por
lo que se considera momentáneamente sólo la no estacionariedad en la media.
Por lo anterior, una de las clases de modelos adecuada para esta serie es la clase
ARIMA(p,d,q). Lo primero es eliminar la tendencia. Para ello se aplica una primera
diferencia regular (d=1) definida como
2,1 ≥−= − tparazzw ttt
Entonces la gráfica de la nueva serie nos queda
84
Créditos ejercidos con d = 1
-40000
-30000
-20000
-10000
0
10000
20000
30000
0 10 20 30 40 50
Periodos
Valo
res
Primera diferencia regular
En esta ocasión la serie ha perdido tendencia y puede representarse por una línea
horizontal. El paso que sigue es comprobar la estacionariedad de la media con la FAC
muestral.
453525155
1.00.80.60.40.20.0
-0.2-0.4-0.6-0.8-1.0A
utoc
orre
latio
n
LBQTCorrLagLBQTCorrLagLBQTCorrLagLBQTCorrLag
108.55106.96103.35103.35100.91 97.59 97.58 94.52 88.96 88.22 87.57 85.18
83.24 83.24 78.43 71.65 70.29 70.06 69.71 69.57 69.17 69.17 67.59 66.63
66.57 63.67 61.31 60.96 60.63 59.55 58.26 49.52 44.59 44.39 43.84 42.26
41.20 34.45 34.17 32.81 31.44 30.49 28.18 18.42 17.87 15.28 11.90 11.35
0.10-0.20 0.00 0.24-0.31 0.02 0.35-0.51 0.20 0.20-0.40 0.37
0.01-0.64 0.80-0.37-0.16 0.20 0.13-0.22 0.00 0.47-0.38-0.10
0.69-0.64 0.25 0.25-0.46-0.51 1.42-1.11 0.23 0.38-0.66-0.56
1.48-0.30-0.69 0.71-0.60-0.97 2.20-0.54-1.20 1.45-0.59-3.27
0.03-0.05 0.00 0.06-0.08 0.00 0.09-0.13 0.05 0.05-0.10 0.10
0.00-0.16 0.20-0.09-0.04 0.05 0.03-0.06 0.00 0.12-0.09-0.02
0.17-0.16 0.06 0.06-0.11-0.12 0.33-0.25 0.05 0.09-0.15-0.12
0.32-0.06-0.15 0.15-0.12-0.20 0.41-0.10-0.22 0.25-0.10-0.47
484746454443424140393837
363534333231302928272625
242322212019181716151413
121110 9 8 7 6 5 4 3 2 1
Autocorrelaciones de la primera diferencia regular
85
Las autocorrelaciones ahora no son significativas, únicamente la primera, cuyo valor es
negativo. Entonces, esta serie es estacional en la media. Una siguiente diferenciación es
inútil, pues la varianza de la serie aumenta. Por lo tanto, la serie original sólo debe tener
una diferenciación regular. El modelo sugerido para empezar es uno ARIMA(0,1,1). Esto
se corroborará o descartará con la FACP muestral. Asimismo, existe un patrón estacional
que pudiera ser descrito por un modelo estacional autorregesivo, pero esto también se
confirmará con la FACP.
453525155
1.00.80.60.40.20.0
-0.2-0.4-0.6-0.8-1.0
Par
tial A
utoc
orre
latio
n
TPACLagTPACLagTPACLagTPACLag
-0.12-0.20 0.26-0.00-0.02 0.38 0.53-0.84-0.43 0.71-0.95 0.08
0.15 0.12-0.24-0.84 0.61 0.27 0.10 1.16 0.38 0.97 0.16-0.77
-0.58 0.09 0.17-0.76-0.01-1.12-0.70-1.17 0.89-1.10-0.01 0.93
0.28-1.28-0.89-0.77-0.05 1.46 1.32-2.25-1.05-0.08-2.86-3.27
-0.02-0.03 0.04-0.00-0.00 0.05 0.08-0.12-0.06 0.10-0.14 0.01
0.02 0.02-0.03-0.12 0.09 0.04 0.01 0.17 0.05 0.14 0.02-0.11
-0.08 0.01 0.02-0.11-0.00-0.16-0.10-0.17 0.13-0.16-0.00 0.13
0.04-0.18-0.13-0.11-0.01 0.21 0.19-0.32-0.15-0.01-0.41-0.47
484746454443424140393837
363534333231302928272625
242322212019181716151413
121110 9 8 7 6 5 4 3 2 1
Autocorrelación parcial de la primera diferencia regular
La FACP muestral es significativa en las primeras dos autocorrelaciones y luego en la
cuarta, pero tiende hacia cero en valores negativos. Por lo tanto, corroborando lo
anteriormente citado, en cuanto a la estacionariedad en la media un modelo adecuado a
utilizar es un modelo ARIMA(0,1,1) con θ1>1.
86
Por otro lado, en el patrón estacional parece haber un pico cada 6 ó 12 periodos, pero la
FACP no parece indicar claramente el patrón de éste. Es recomendable considerar un
modelo estacional multiplicativo y hacer distintas pruebas con él para comprobar si es un
modelo factible. Debido a lo anterior, se pueden considerar tanto estacionalidades de 6
como de 12 periodos, pero ambas tienen que probarse también con alguna diferencia
estacional. Asimismo, se pueden considerar términos estacionales tanto autorregresivos
como de promedios móviles.
Siguiendo el principio de parsimonía y tomando en cuenta el hecho de que las diferencias
estacionales de orden 2 y ambos tipos de términos de orden 2 son casos extremos en la
práctica, el modelo multiplicativo a considerar debe tener sus parámetros en alguna
combinación de órdenes 0 y 1. Además, para todos los casos del modelo (0,1,1)x(P,1,Q)s la
media de la serie en proceso siempre es pequeña en comparación a su varianza, por lo que
no es necesario incluir un término constante para ninguna combinación del modelo. Los
valores de medias y varianzas resultantes de las series se muestran en la tabla 4.1.
Tabla 4.1. Medias y desviaciones estándar de las series para los modelos posibles.
Diferencia d=1 D=1, s=6 D=1, s=12 d=1 y D=1, s=6 d=1 y D=1, s=12Aplicada a Serie original Serie original Serie original Cualquier orden Cualquier orden
Media 1,018.12 4,451.14 9,908.84 504.95 965.70Desv. Est. 12,304.07 10,401.57 12,802.30 12,827.09 13,156.77
Fuente: Elaboración propia.
Entonces, se recurrirá a comparar todas estas combinaciones de los modelos
multiplicativos, obteniendo los principales valores para cada una de ellas. Los valores
utilizados como referencias para la comparación y selección del mejor modelo son la
87
significación de los parámetros, la suma de los errores cuadrados, el valor Q, el
comportamiento de los residuales, el MAPE y el AIC. En la tabla 4.2 se muestran todos
estos valores para cada uno de los modelos posibles. Los valores de los parámetros, su
valor T, la suma de los errores cuadráticos y el análisis de los residuales se obtienen
mediante el programa Minitab.
Tabla 4.2. Comparación de modelos
Tipo Valor Valor de T FAC FACPgl 30
MA(1) 0.6824 6.04 Valor Q 32.13843Valor Ji 43.77
MA(1) 0.6704 5.91 gl 30SAR(1) 0.5457 4.14 Valor Q 11.95725
Valor Ji 43.77MA(1) 0.605 4.75 gl 30
SAR(1) 0.5227 3.69 Valor Q 17.94335Valor Ji 43.77
MA(1) 0.5991 4.32 gl 30SAR(1) -0.4611 -2.88 Valor Q 14.5084
Valor Ji 43.77MA(1) 0.9302 7.76 gl 30
SAR(1) -0.9731 -8.33 Valor Q 9.908323Valor Ji 43.77
gl 30Valor Q 16.94931Valor Ji 43.77
gl 30Valor Q 15.18059Valor Ji 43.77
MA(1) 0.6731 5.84 gl 30SMA(1) 0.7686 5.36 Valor Q 12.76775
Valor Ji 43.77MA(1) 0.6649 5.35 gl 30
SMA(1) 0.7524 3.06 Valor Q 11.57381Valor Ji 43.77
MA(1) 0.7007 6.32 gl 30SMA(1) -0.5216 -3.55 Valor Q 13.60011
Valor Ji 43.77MA(1) 0.6283 4.84 gl 30
SMA(1) -0.3238 -1.74 Valor Q 19.58022Valor Ji 43.77
SAR(1) 1.0011 62.61 gl 30MA(1) 0.6764 6.05 Valor Q 18.96352
SMA(1) 0.9298 8.42 Valor Ji 43.77SAR(1) 1.0006 17.3 gl 30MA(1) 0.6929 6.45 Valor Q 21.7976
SMA(1) 0.7208 3.4 Valor Ji 43.77SAR(1) -0.0274 -0.12 gl 30MA(1) 0.6736 5.7 Valor Q 13.07551
SMA(1) 0.7666 3.58 Valor Ji 43.77SAR(1) -0.5836 -2.79 gl 30MA(1) 0.6925 5.71 Valor Q 17.50592
SMA(1) 0.7654 3.48 Valor Ji 43.77
905.3426
900.1154
Ruido blanco 0.201982
(0,1,1)x(1,1,1) 12 2,176,229,045 Ruido blanco Ruido blanco 0.197364
(0,1,1)x(1,1,1) 6 2,758,334,772 Ruido blanco
Ruido blanco Ruido blanco
904.8969
911.2043
910.9501
917.6413
898.4902Ruido blanco Ruido blanco
Ruido blanco
2,834,998,048
0.286689
Ruido blanco Ruido blanco
Ruido blanco Ruido blanco
Ruido blanco Ruido blanco
2,762,775,783
0.291805
Ruido blanco
Ruido blanco Ruido blanco
0.396872
0.278867
0.252291
0.217316
0.193256
Ruido blanco Ruido blanco
Parámetros
(0,1,1)
(0,1,1)x(1,0,0)
-
6
Modelo s
(0,1,1)x(1,0,0)
(0,1,1)x(1,1,0)
(0,1,1)x(1,1,0)
(0,1,1)x(0,1,1)
3.43
12
6
6
12
12
6
12
(0,1,1)x(0,1,1)
(0,1,1)x(0,0,1)
(0,1,1)x(0,0,1)
AICResiduales
Suma de errores cuadráticos
4,447,935,971
4,796,608,605
3,571,568,207
3,886,497,042
3,695,544,594
2,496,163,402
Una significación
Q MAPE
Una significación
Ruido blanco Ruido blanco
Ruido blanco
5.46
4,683,985,208
0.304099
3,750,392,330
4,315,104,880
Ruido blanco Ruido blanco
Ruido blanco Ruido blanco
12 3,092,265,084
2,721,865,224(0,1,1)x(1,0,1) 6
Ruido blanco
(0,1,1)x(0,1,0)
(0,1,1)x(0,1,0)
6
12
MA(1)
MA(1)
0.6524
0.5352
(0,1,1)x(1,0,1)
920.2578
908.984
912.976
918.0727
0.260255
0.266432
0.318772
906.6479
925.6092
935.5802
903.39660.272303
0.259567
Fuente: Elaboración propia.
88
De acuerdo a los valores obtenidos, sólo dos modelos no cumplen con la significación de
sus parámetros y otro tiene una significación en la correlación de sus residuales. En
cambio, todos cumplen con el estadístico Q. Sin embargo, el modelo más apropiado de
todos es el modelo (0,1,1)x(1,1,0) con periodo 12, ya que es el que tiene el menor MAPE.
En adición a esto, sus dos parámetros son significativos, sus residuales forman un proceso
de ruido blanco, es el que tiene la segunda menor suma de errores cuadráticos, la menor Q
y un AIC de valor intermedio entre los modelos. Con esto se corrobora la sugerencia de
usar un modelo estacional multiplicativo con término autorregresivo.
En base al modelo estacional multiplicativo general, la ecuación del modelo seleccionado
es
(1-φ12B12)Wt = (1 - θ1B)At
donde Wt =(1-B) (1-B12)Zt Por lo tanto, la ecuación desarrollada queda
Zt = Zt-12 + Zt-1 - Zt-13 -0.9731 Zt-12 + 0.9731 Zt-24 + 0.9731 Zt-13 - 0.9731 Zt-25 +At
-0.9302At-1
A continuación se diagnostica el modelo propuesto. Como ya se mencionó, la prueba T
indica que ambos parámetros son significativos y por lo tanto se quedan en el modelo. Los
residuales obtenidos con este modelo forman un proceso de ruido blanco, por lo que el
modelo es adecuado. Empleando el estadístico Q, sean N = 37, k = 32 y r =2. Se tiene que
89
el valor crítico de una ji-cuadrada de 30 grados de libertad al 95% de confianza es 43.77 y
el valor de Q es
232
1))((37∑
=
∧
=l
l arQ = 9.908323434
Como el valor de Q es menor al de la ji-cuadrada, el modelo es adecuado. Sin embargo, ya
que varios de los modelos considerados también cumplen con el diagnóstico, el criterio de
selección del modelo óptimo es el MAPE, cuyo valor más pequeño lo posee este modelo.
En este punto ya es posible realizar pronósticos con el modelo seleccionado.