Eviews Arima

49
68 CAPITULO 2. ANALISIS UNIVARIANTE DE SERIES TEMPORALES: MODELOS ARIMA. 2.1. INTRODUCCIÓN Una serie temporal es una sucesión de observaciones de una variable en distintos momentos del tiempo. Aunque el tiempo es, en realidad, una variable continua, en la práctica utilizaremos mediciones en periodos aproximadamente equidistantes. Por ejemplo, la sucesión de valores del PNB pm para un país desde 1900 hasta 1990. Básicamente, lo que se pretende con el estudio univariante de las series temporales es el conocimiento de una variable a lo largo del tiempo para, a partir de este conocimiento y bajo el supuesto de que no van a producirse cambios estructurales, poder realizar predicciones. Hay casos en los que la variable observada tiene un patrón de comportamiento fijo. En términos estadísticos estamos ante una serie determinista. Por el contrario hay series que resultan impredecibles. Su pauta de comportamiento no responde a un patrón fijo, por lo que son puramente aleatorias. Un ejemplo típico es la sucesión de números premiados en un sorteo de loterías. En general, las series económicas contienen una componente determinista y una componente aleatoria. Hasta el primer cuarto del siglo XX, los métodos de análisis de series temporales se basaban en los modelos de descomposición. Según éstos, las series reales resultan de la agregación de cuatro componentes básicas: tendencia, componente estacional, componente cíclica y componente irregular. Cada una de estas componentes se estudia por separado mediante el uso de métodos matemáticos. La tendencia se corresponde con la evolución de la serie a largo plazo, evolución que puede ser creciente, decreciente o estable. Suele estar reflejada por una línea alrededor de la cual oscilan los valores de la serie. En la figura 2.1.1. se aprecia la representación gráfica de una serie simulada con tendencia creciente. Los movimientos cíclicos son variaciones o movimientos oscilatorios de amplitud superior al año, en general no periódicos y se suelen apreciar cuando la serie tiene gran longitud. La duración del ciclo no se mantiene constante. En economía, una explicación sobre la aparición

Transcript of Eviews Arima

Page 1: Eviews Arima

68

CAPITULO 2. ANALISIS UNIVARIANTE DE SERIES TEMPORALES: MODELOS

ARIMA.

2.1. INTRODUCCIÓN

Una serie temporal es una sucesión de observaciones de una variable en distintos

momentos del tiempo. Aunque el tiempo es, en realidad, una variable continua, en la práctica

utilizaremos mediciones en periodos aproximadamente equidistantes. Por ejemplo, la sucesión

de valores del PNBpm para un país desde 1900 hasta 1990.

Básicamente, lo que se pretende con el estudio univariante de las series temporales es el

conocimiento de una variable a lo largo del tiempo para, a partir de este conocimiento y bajo el

supuesto de que no van a producirse cambios estructurales, poder realizar predicciones.

Hay casos en los que la variable observada tiene un patrón de comportamiento fijo. En

términos estadísticos estamos ante una serie determinista. Por el contrario hay series que

resultan impredecibles. Su pauta de comportamiento no responde a un patrón fijo, por lo que

son puramente aleatorias. Un ejemplo típico es la sucesión de números premiados en un sorteo

de loterías. En general, las series económicas contienen una componente determinista y una

componente aleatoria.

Hasta el primer cuarto del siglo XX, los métodos de análisis de series temporales se

basaban en los modelos de descomposición. Según éstos, las series reales resultan de la

agregación de cuatro componentes básicas: tendencia, componente estacional, componente

cíclica y componente irregular. Cada una de estas componentes se estudia por separado

mediante el uso de métodos matemáticos.

La tendencia se corresponde con la evolución de la serie a largo plazo, evolución que

puede ser creciente, decreciente o estable. Suele estar reflejada por una línea alrededor de la

cual oscilan los valores de la serie. En la figura 2.1.1. se aprecia la representación gráfica de una

serie simulada con tendencia creciente.

Los movimientos cíclicos son variaciones o movimientos oscilatorios de amplitud

superior al año, en general no periódicos y se suelen apreciar cuando la serie tiene gran longitud.

La duración del ciclo no se mantiene constante. En economía, una explicación sobre la aparición

Page 2: Eviews Arima

69

de los ciclos, es la existencia de los períodos de prosperidad y recesión de los países (la serie

observada puede ser la renta per cápita).

Tiempo

Ser

ie

Figura 2.1.1.

La figura 2.1.2. presenta un ejemplo de serie con componente cíclica y con tendencia

constante o estacionaria. Las ondas periódicas plurianuales son los ciclos de la serie.

Tiempo

Ser

ie

Figura 2.1.2.

La estacionalidad se refiere a las oscilaciones que acontecen dentro del año y que se

repiten en años sucesivos. Es consecuencia de factores climáticos, organizativos y

administrativos, fundamentalmente. Considérese como ejemplo, el aumento de la venta de

juguetes durante la fiesta de Reyes cada año.

Page 3: Eviews Arima

70

Así como los ciclos se caracterizan por su irregularidad, en la componente estacional se

pueden encontrar movimientos parecidos de un año a otro. El gráfico de la figura 2.1.3.

representa una serie estacionaria con movimientos estacionales.

Tiempo

Ser

ie

Tiempo

Ser

ie

Figura 2.1.3.

La componente irregular contiene variaciones esporádicas que no responden a ningún

patrón fijo, y que son originadas por acontecimientos singulares. Recoge los efectos sobre la

serie de hechos no previsibles, como pueden ser las catástrofes o huelgas, o factores

inapreciables no explicables a causa de la conducta impredecible de los sujetos.

Estos elementos se pueden combinar de forma aditiva, multiplicativa o mixta, para

formar el valor total de la serie temporal.

En el esquema aditivo, el valor total de la serie es la suma de sus elementos:

Yt = Tt + Ct + Et + It

En el esquema multiplicativo:

Yt = Tt Ct Et It

Un modelo mixto, puede ser:

Yt = Tt Ct Et + It

T es la tendencia, C los movimientos cíclicos, E la estacionalidad e I la componente

irregular.

Page 4: Eviews Arima

71

El análisis clásico tiene como fin describir la pauta de comportamiento que siguen cada

una de estas componentes, con el fin de reproducir su conducta y realizar predicciones. Se parte

de un esquema previo y se trata de aislar cada uno de los componentes.

Posteriormente surgió la concepción moderna o estocástica, basada en la teoría de los

procesos aleatorios. Se trata de los modelos estocásticos de series temporales, los cuales se

representan mediante relaciones analíticas que conectan los valores de la variable con

combinaciones lineales o no, de parámetros y variables. Entre estas variables, al menos, una

tiene carácter probabilístico, hecho que confiere a la serie un rasgo aleatorio. En este sentido, los

modelos predictivos univariantes de series temporales propuestos por Box y Jenkins (1970),

serán el punto de atención de este capítulo. Son los denominados modelos ARIMA.

La parte aleatoria de una serie no debe confundirse con el movimiento irregular, debido

a que éste no está sujeto a periodicidad alguna pero puede ser previsible (por ejemplo, el efecto

de una huelga en la producción). El componente aleatorio se caracteriza por no ser previsible.

2.2. MODELOS LINEALES DE SERIES TEMPORALES: MODELOS ARIMA

2.2.1. PROCESOS ESTOCÁSTICOS

Un proceso estocástico es una familia de variables aleatorias que corresponden a

momentos sucesivos del tiempo. En cada período o momento temporal se dispone de una

variable que tendrá su correspondiente distribución de probabilidad.

Sea el proceso Yt. Para t = 1, por ejemplo, Y1 es una variable aleatoria que tomará

diferentes valores con diferentes probabilidades. Lo mismo ocurre para todo t =1, 2, ....

En la metodología ARIMA, una serie temporal es una muestra de un proceso

estocástico. Está formada por una sola observación de cada una de las variables que componen

el proceso, es decir, es una realización del mismo1. Dicho de otra forma, la serie ha sido

generada por un proceso estocástico, y, por tanto, tiene carácter aleatorio2.

1 La notación Yt puede representar tanto una variable aleatoria como una observación muestral, depende del contexto. 2 No se pueden obtener los valores de la serie de forma exacta a través de una función matemática del tiempo, por ejemplo Yt = 2t.

Page 5: Eviews Arima

72

Por ejemplo, el PIBpm desde 1970 hasta 1990 de un país es, en cada año, una variable

aleatoria que puede tomar infinitos valores con distintas probabilidades. La sucesión de

observaciones efectuadas cada año en ese país formaría la serie temporal.

Un proceso estocástico Yt, se suele describir mediante las siguientes características:

esperanza matemática, varianza, autocovarianzas y coeficientes de autocorrelación.

La esperanza matemática de Yt se traduce en la sucesión de las esperanzas matemáticas

de las variables que componen el proceso, a lo largo del tiempo.

E(Yt) = µt, t = 1,2,3,...

La varianza de un proceso aleatorio es una sucesión de varianzas, una para cada variable

del proceso.

Var (Yt) = E(Yt - µt)2, t =1,2,3,...

Las autocovarianzas son las covarianzas entre cada par de variables del proceso.

Cov(Yt,Yt+k) = E[(Yt - µt)(Yt+k - µt+k)] = γt,t+k, t = 1,2,3...

Los coeficientes de autocorrelación son los coeficientes de correlación entre cada par de

variables que componen el proceso.

ρt,t+k = γ t t k

t t kVar Y Var Y,

( ) ( )+

+

, t=1,2,3,..., con − ≤ ≤+1 1ρ t t k,

La función de autocorrelación simple o correlograma (FAS) es la representación gráfica

de los coeficientes de autocorrelación, en función de los distintos retardos o desfases entre las

variables.

La función de autocorrelación parcial (FAP) responde a la medición de la correlación

existente entre dos variables del proceso en distintos períodos de tiempo, pero una vez

eliminados los efectos sobre las mismas de los períodos intermedios. Parte de la correlación que

Page 6: Eviews Arima

73

pueda detectarse entre Yt e Yt-2 puede ser debida a que ambas variables estén correlacionadas

con Yt-1.

2.2.1.1. PROCESOS ESTACIONARIOS

Un tipo de procesos que alcanzan gran importancia en este análisis es el de los procesos

estacionarios, en contraposición a los procesos evolutivos. La estacionariedad de un proceso

puede concebirse en sentido estricto y en sentido amplio.

Un proceso es estacionario en sentido estricto si cualquier conjunto m de variables

aleatorias del proceso tienen la misma distribución de probabilidad que cualquier otro conjunto

de m variables, para todo m dado. Implica que las características del proceso no sufren

alteración al considerar tiempos diferentes.

El mayor problema de esta definición es que no es empíricamente contrastable, porque

la serie temporal está formada por una sola observación de cada una de las distribuciones de

probabilidad que componen el proceso en cada período de tiempo. Además, el número de

condiciones a comprobar podría ser infinito.

Para fines prácticos se definió la estacionariedad en sentido amplio o de segundo orden.

Un proceso es estacionario en sentido amplio si su media es constante e independiente del

tiempo, su varianza es finita y constante, y el valor de la covarianza entre dos periodos no

depende del tiempo en el cual se ha calculado, sino de la distancia o desfase entre aquellos.

Todos los momentos de primer y segundo orden del proceso son independientes del tiempo,

incluyendo la función de autocorrelación parcial.

E(Yt) = µ, t =1,2,3...

Var(Yt) = E(Yt - µ)2 = σ2, t =1,2,3...

γ γ γt t k t k t k, ,+ −= = , t =1,2,3...

γ k es la covarianza entre dos variables del proceso separadas k períodos.

Si k = 0, γ 0 = E(Yt - µ)( Yt - µ) = σ2

Page 7: Eviews Arima

74

ρt,t+k = k0

k

22

k ρ=γγ=

σσ

γ

ρk es el coeficiente de autocorrelación simple de dos variables separadas k períodos.

Estacionariedad en media y varianza

Vamos a suponer que una serie temporal muestra una tendencia creciente. Como cada

observación de la serie proviene de la distribución de probabilidad del período correspondiente,

es razonable creer que la esperanza matemática de dichas distribuciones también crece en el

tiempo.

Para conocer si la serie temporal es estacionaria en varianza, puede realizarse la

observación de los datos originales. Si alcanzan oscilaciones desiguales en torno a la tendencia,

se puede defender la no estacionariedad de la serie. La figura 2.2.1. presenta una serie temporal

generada por un proceso no estacionario en varianza, siendo ésta creciente con el tiempo.

Tiempo

Ser

ie

Figura 2.2.1.

Los modelos de predicción de series temporales están diseñados para procesos

estacionarios. Si las características del proceso cambian a lo largo del tiempo, resultará difícil

representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal

sencillo. Sin embargo, por regla general, las series económicas no son series que proceden de

procesos estacionarios, sino que suelen tener una tendencia creciente o decreciente, y

Page 8: Eviews Arima

75

variabilidad no constante. Esta limitación no es tan importante porque, en la práctica, se pueden

transformar las series no estacionarias en otras que sí lo son.

Un tipo de proceso estacionario particular es el denominado ruido blanco, formado por

una sucesión de variables aleatorias con distribución normal, esperanza cero, varianza constante

e incorreladas entre sí (figura 2.2.2):

εt es ruido blanco si εt ∼ N(0,σ2ε), para cualquier t, tal que Cov(εt,εt’ ) = 0, ∀ ≠t t' .

Tiempo

Ser

ie

-1

-0,5

0

0,5

1

1 2 3 4 5 6 7

Retardo

ρk

Figura 2.2.2. Figura 2.2.3.

Por otra parte, un proceso estocástico se dice ergódico cuando los valores de la serie

alejados en el tiempo están poco correlacionados, es decir, cuando ρk decrece al aumentar el

retardo k (figura 2.2.3.).

2.2.1.2. ESTIMACIÓN DE LA FUNCIÓN DE AUTOCORRELACIÓN SIMPLE EN

UN PROCESO ESTACIONARIO.

En la práctica se dispone de una muestra de un proceso estocástico, Y1, ...Yn. Se pueden

obtener los coeficientes de autocorrelación simple y parcial muestral y, a partir de ellos, la

función de autocorrelación simple y parcial teórica 3.

Función de autocorrelación simple de la muestra:

3 La estimación de la FAP se tratará en el epígrafe 3 del capítulo.

Page 9: Eviews Arima

76

n

Y

n

1tt∑

===µ , n

)YY(ˆ

2n

1tt

0

∑=

−=γ

kn

)YY)(YY(

kn

)YY)(YY(

ˆt

n

1ktktkt

n

1ktt

k −

−−=

−−=γ

∑∑+=

−++=

��

�ρ

γγk

k=0

Si el tamaño de la muestra es grande con respecto a k, dividir por n o por n-k es

prácticamente lo mismo, así como el cálculo de la media con n o con n-k observaciones:

��

�ρ

γγk

k=0

=2

n

1tt

kt

n

1ktt

2n

1tt

kt

n

1ktt

)YY(

)YY)(YY(

n

)YY(

kn

)YY)(YY(

=

++=

=

++=

−−=

−−

2.2.2. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES.

La representación formal de los procesos aleatorios que generan series reales se puede

realizar a través de los modelos lineales de series temporales, desarrollados especialmente a

través de la metodología de Box y Jenkins. Considerando que la serie temporal ha sido generada

por un proceso estocástico, en este apartado se describirán los posibles modelos teóricos que

permitan explicar el comportamiento de la misma y, por tanto, el de su proceso generador.

Después, se utilizarán con fines predictivos.

Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie

de datos económicos se clasifican en tres tipos: el modelo autorregresivo, el modelo de medias

móviles y el modelo mixto.

Page 10: Eviews Arima

77

2.2.2.1. PROCESOS AUTORREGRESIVOS

Representan los valores de una variable durante un instante del tiempo en función de sus

valores precedentes. Un modelo autorregresivo de orden p (AR(p)) tiene la forma siguiente:

Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt

δ es un término constante.

εt es una variable ruido blanco, que representa los errores del ajuste y otorga el carácter aleatorio

a la misma.

Las características de los procesos AR(1) y AR(2) se analizarán a continuación y los

resultados obtenidos se van a generalizar al AR(p).

Modelos autorregresivos de primer orden AR(1):

Yt = δ + φ1Yt-1 + εt

Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) y Var (Yt) = Var(Yt-1),

∀t. Entonces:

Media: E(Yt) = E(Yt-1) = µ ⇒ µ = δ + φ1µ ⇒ µ =δφ1 1−

Varianza: Var(Yt) = Var(Yt-1) = γ0 ⇒ γ0 = φ12γ0 + σε

2 ⇒ γ0 =σ

φε2

121−

La condición a cumplir para que γ0 sea positiva y finita es que φ1 1< . En ese caso el

modelo es estacionario en media y varianza.

Si el modelo es estacionario en sentido amplio, además:

Autocovarianzas:

Cov(Yt-1,Yt) = Cov(Yt,Yt+1) = γ1 , ∀t.

Cov (Yt-1,Yt)=E[( Yt-1-µ)(Yt-µ)] = E(yt-1yt)

Page 11: Eviews Arima

78

Yt = δ + φ1Yt-1 + εt = µ(1- φ1) + φ1Yt-1 + εt⇒Yt-µ = φ1(Yt-1-µ) + εt⇒ yt = φ1yt-1+ εt

γ1 = E(yt-1yt) = E(yt-1(φ1yt-1+εt)) = φ1E(yt-12) + E(yt-1εt ) = φ1γ0

yt-1 está correlacionado con εt-1 pero no con εt, debido a que ésta es una variable ruido blanco y

no presenta autocorrelación.

γ2 = E(yt-2yt) = E(yt-2(φ1yt-1 + εt))= φ1E(yt-2Yt-1)+ E(yt-2εt ) = φ1γ1 = φ12γ0

............

γk = φ1kγ0

Coeficientes de autocorrelación simple:

ρ0 = 1

ρ1 = 10

1 φ=γγ

ρ2 =21

0

2 φ=γγ

.........

ρk =k1

0

k φ=γγ ∀k

Los valores de la función de autocorrelación son las sucesivas potencias de φ1. La

condición 11 <φ garantiza que los sucesivos valores ρk converjan a cero, por lo que la función

de autocorrelación o correlograma puede tener dos aspectos distintos, dependiendo del signo de

φ1 (figura 2.2.4.).

Utilizando el operador de retardos L que, aplicado sobre una variable en un periodo del

tiempo t, la retarda un período, podemos establecer de otro modo la condición de

estacionariedad:

LYt = Yt-1, LYt-1 = Yt-2 = LLYt =L2Yt, ... Yt-k = LkYt

L0 =1 por lo que L0Yt = Yt

Podemos escribir el modelo:

Page 12: Eviews Arima

79

Yt = δ + φ1Yt-1 + εt = δ + φ1LYt + ε t⇒ Yt - φ1LYt = δ + εt Yt(1 - φ1L) = δ + εt

donde (1 - φ1L) = φ(L) es el operador polinomial de retardos.

Para que el proceso AR(1) sea estacionario, 11 <φ y es equivalente a la condición de

que la raíz del operador polinomial φ(L) = 0 debe caer fuera del círculo unidad, es decir:

1 - φ1L = 0 ⇒ 1L > ⇒ 11

1

⇒ 11 <φ .-

Si 11 <φ ⇒ 1L

1 < ⇒ 1L > .-

φ1>0

-1

-0,5

0

0,5

1

Retardo

r k

φ1 <0

-1

-0,5

0

0,5

1

Retardo

ρκ

Figura 2.2.4. FAS de un modelo AR(1)

Modelos autorregresivos de segundo orden AR(2):

Yt = δ + φ1Yt-1 + φ2Yt-2 + εt

Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) y Var(Yt) = Var(Yt-1),

∀t. Entonces:

Media: E(Yt) = E(Yt-1) = µ ⇒ µ = δ + φ1µ + φ2µ ⇒ µ =211 φ−φ−

δ

Para que la media sea finita φ1+ φ2 ≠1.

Page 13: Eviews Arima

80

Varianza: Var(Yt) = Var(Yt-1)= Var (Yt-2) = γ0 ⇒ Var (Yt) = E(yt2) = E(ytyt) = E[yt(φ1yt-1

+... + φ2yt-2 + εt)] = φ1γ1+ φ2γ2 + E(ytεt) = φ1γ1 + φ2γ2 + σ2ε

Ya que yt = φ1yt-1 + φ2yt-2 + εt

Autocovarianzas:

Cov(Yt-1,Yt) = Cov(Yt,Yt+1) = γ1 , ∀t.

γ1 = Cov (Yt-1,Yt) = E[( Yt-1 - µ)(Yt - µ)] = E(yt-1yt) = E[yt-1(φ1yt-1 + φ2yt-2 + εt)] = φ1γ0 +

φ2γ1.

Hay que recordar que en un proceso estacionario γ1= γ-1.

γ2 = Cov (Yt-2,Yt) = E(yt-2yt) = E(yt-2(φ1yt-1 + φ2yt-2 + εt)) = φ1γ1 + φ2γ0

...

γk = φ1γk-1 + φ2γk-2 (k>0).

Coeficientes de autocorrelación simple:

ρ0 =1

ρ1 =γγ

1

0

= φ1 + φ2ρ1

ρ2 =γγ

2

0

= φ1ρ1 +φ2

....

ρk =γγ

k

0

= φ1ρk-1 + φ2ρk-2 , k>0

En la figura 2.2.5. se pueden observar los correlogramas de procesos AR(2).

Modelos autorregresivos de orden p, AR(p):

Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt

Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) =...= E(Yt-p) y Var(Yt)

= Var(Yt-1) =...= Var(Yt-p), ∀t. Entonces:

Page 14: Eviews Arima

81

µ =p21 ...1 φ−−φ−φ−

δ ; para que la media sea finita φ1 + φ2 +...+ φp ≠ 1.

La condición de estacionariedad es que las raíces de la ecuación polinomial φ(L) = 0

estén fuera del círculo unidad4.

0Lˆ...LˆLˆ1 pp

221 =φ−φ−φ−

Si Li es una raíz de la ecuación polinomial se demuestra que iL

1= λi

Donde λi son las raíces de la denominada ecuación característica:

λp - φ1λp-1 - φ2λp-2 -...- φp = 0.

Por tanto, la condición de invertibilidad se puede obtener de forma alternativa y es que

las raíces de la ecuación característica deben ser menores a la unidad en valor absoluto.

φ1>0, φ2>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

φ1<0, φ2>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

φ1>0, φ2<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

φ1<0, φ2<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

Figura 2.2.5. FAS de procesos AR(2)

Page 15: Eviews Arima

82

Generalizando:

γ0 = φ1γ1 + φ2γ2 +...+ φpγp + σ2ε

γk = φ1γk-1 + φ2γk-2 +...+ φpγk-p, para todo k≥ 1 (*)

El sistema de ecuaciones (*) para k = 1...p, relaciona las p primeras autocovarianzas con

los parámetros del proceso. Se denominan ecuaciones de Yule-Walker:

γ1= φ1γ0 + φ2γ1 +...+ φpγp-1

γ2 = φ1γ1 + φ2γ0 +...+φpγp-2

.............................................

γp= φ1γp-1 + φ2γp-2 +...+φpγ0

Las ecuaciones de Yule-Walker se pueden expresar en términos de los coeficientes de

autocorrelación dividiendo por γ0 ambos miembros:

ρ1 = φ1ρ0 + φ2ρ1 +...+ φpρp-1

ρ2 = φ1ρ1 + φ2ρ0 +...+ φpρp-2

.............................................

ρp = φ1ρp-1 + φ2ρp-2 +...+φpρ0

Mediante estas ecuaciones se pueden obtener los coeficientes o parámetros del proceso

AR(p) con los datos de los coeficientes de autocorrelación o autocovarianzas.

Si se resuelve sucesivamente el sistema de Yule-Walker bajo la hipótesis de la serie es

un AR(1), AR(2), AR(3), etc., y se toma el último coeficiente de cada uno de los procesos se

obtiene la función de autocorrelación parcial teórica. Bajo el supuesto de que p es el orden del

proceso autorregresivo, se obtiene que los coeficientes de autocorrelación parcial serán distintos

de cero para retardos iguales o inferiores a p (figura 2.2.6.).

4 En caso de que las raíces sean números complejos basta calcular su módulo.

Page 16: Eviews Arima

83

φ1<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

φ1>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

Figura 2.2.6. FAP de procesos AR (1)

2.2.2.2. PROCESOS DE MEDIA MÓVIL

En los procesos de media móvil de orden q, cada observación Yt es generada por una

media ponderada de perturbaciones aleatorias, con un retardo de q períodos. Se simboliza por

MA(q):

Yt = δ + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q, εt es ruido blanco.

Modelo MA(1):

Yt = δ + εt - θ1εt-1

E(Yt) = δ

Var (Yt) = Var (εt) + θ12Var (εt-1) = σε

2(1+ θ12) = γ0

Autocovarianzas:

γ1 = E(Yt-1 - δ)(Yt - δ) = E(εt-1 - θ1εt-2)( εt - θ1εt-1) = - θ1σε2

γ2 = E(Yt-2 - δ)(Yt - δ) = E(εt-2 - θ1εt-3)( εt - θ1εt-1) = 0

....

γk = 0, ∀ >k 1

Se dice que el proceso tiene una memoria de sólo un período. Cualquier valor de Yt está

correlacionado con Yt-1 e Yt+1, pero con ningún otro valor de la serie.

Coeficientes de autocorrelación:

Page 17: Eviews Arima

84

ρ0 = 1

ρ1 = γγ

1

0

= 21

1

1 θ+θ−

ρk =γγ

k

0

= 0, k>1

Un modelo MA(1) siempre es estacionario con independencia del valor de θ1.

θ1<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

Figura 2.2.7. FAS de un proceso MA(1)

Modelo MA(2):

Yt = δ + εt - θ1εt-1 - θ2εt-2

E(Yt) = δ

γ0 = Var (Yt) = Var (εt) + θ12Var (εt-1) + θ2

2Var (εt-2) = σε2(1+ θ1

2+θ22) = γ0

Autocovarianzas:

γ1 = E(Yt-1 - δ)(Yt - δ) = E(εt-1 - θ1εt-2 - θ2εt-3)( εt - θ1εt-1 - θ2εt-2) = σε2(-θ1 + θ1θ2)

γ2 = E(Yt-2 - δ)(Yt - δ) = E(εt-2 - θ1εt-3 - θ1εt-4)( εt - θ1εt-1 - θ2εt-2) = -θ2σε2

....

γk= 0, ∀ >k 2

Page 18: Eviews Arima

85

Coeficientes de autocorrelación:

ρ0 =1

ρ1 =γγ

1

0

= − +

+ +θ θ θ

θ θ1 1 2

12

221

ρ1 = γγ

2

0

= −

+ +θ

θ θ2

12

221

......

ρk =γγ

k

0

= 0, k>2

Un modelo MA(2) siempre es estacionario con independencia del valor de sus

parámetros y su memoria es de dos períodos.

θ1<0 , θ2<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1>0 ,θ2<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1<0 ,θ2>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1>0 , θ2>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

Figura 2.2.8. FAS del modelo MA(2)

Page 19: Eviews Arima

86

Modelo MA(q):

Yt = δ + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q

E(Yt) = δ

γ0 = Var (Yt) = Var (εt) + θ12Var (εt-1) + θ2

2Var (εt-2) = σε2(1 + θ1

2+θ22+...+θq

2)

Autocovarianzas:

γ1 = E(Yt-1 - δ)(Yt - δ) = σε2(-θ1 + θ1θ2 + θ2θ3 +...+ θq-1θq)

γ2 = E(Yt-2 - δ)(Yt - δ) = (-θ2 + θ1θ3 + θ2θ4 +...+ θq-2θq )σε2

....

γq = -θqσε2

....

γk = 0, ∀ >k q

Los coeficientes de autocorrelación pueden ser obtenidos a partir de las

autocovarianzas.

Todos los procesos MA de orden finito son estacionarios.

Concepto de invertibilidad de los procesos MA

Cualquier proceso MA(q) puede expresarse como un AR(∞). Un modelo MA(1):

Yt = δ + εt - θ1εt-1

Yt-1 = δ + εt-1 - θ1εt-2

Yt-2 = δ + εt-2 - θ1εt-3

εt = Yt - δ +θ1εt-1 = Yt - δ +θ1(Yt-1 - δ + θ1εt-2) = Yt - δ + θ1Yt-1 -θ1 δ + θ12εt-2 = Yt - δ + θ1Yt-1 -θ1 δ

+ θ12 (Yt-2 - δ+θ1εt-3) = Yt - δ + θ1Yt-1 -θ1 δ + θ1

2Yt-2 - θ12δ + θ1

3εt-3 ⇒ Yt = δ(1 + θ1 + θ12) - θ1Yt-1

- θ12Yt-2 - θ1

3εt-3 + εt

Page 20: Eviews Arima

87

Si continuamos eliminando εt-3 y siguientes, el procedimiento continuará hasta el

infinito. Lleva a expresar Yt como función de sus valores retardados más una constante y un

término de error. Esto tiene sentido si 11 <θ , ya que, de otro modo, el efecto del pasado sería

más importante para explicar el comportamiento actual. Lo más lógico es pensar que el efecto

del pasado va siendo cada vez menor y el proceso es invertible. Si 11 =θ , es un caso límite de

invertibilidad, en el que el efecto se mantiene constante con el retardo. 11 <θ , equivale a que

las raíces de 1-θ1L = 0 ⇒ L >1.

Para un modelo MA(2), la condición de invertibilidad es 1 - θ1L - θ2L2 = 0 ⇒ L >1

Para un modelo MA(q), dicha condición es 1 - θ1L - θ2L2-...- θqL

q = 0 ⇒ L >1

Debido a que el proceso MA(q) se puede expresar como un AR(∞), consta de infinitos

coeficientes de autocorrelación parcial distintos de cero, aunque a partir del valor q decaerán

rápidamente. Así, la FAP de un proceso MA se comporta de manera análoga a como lo hace la

FAS en un AR (véase figura 2.2.9.).

θ1>0 , θ2>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1<0 ,θ2>0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1>0 ,θ2<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

θ1<0 ,θ2<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

Figura 2.2.9. FAP de procesos MA(2)

Page 21: Eviews Arima

88

2.2.2.3. PROCESOS ARMA

Un modelo mixto con componente autorregresiva y con componente de medias móviles

se denomina ARMA (p,q), donde p es el orden de la parte autorregresiva y q el de la parte de

medias móviles:

Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q

La condición de estacionariedad es que las raíces de la ecuación característica φ(L) = 0

estén fuera del círculo unidad.

La condición de invertibilidad es que las raíces de la ecuación θ(L) = 0 estén fuera del

círculo unidad.

Vamos a analizar las características de un modelo ARMA (1,1):

Yt = δ + φ1Yt-1 + εt - θ1εt-1

Media: µ = ∞<φ−

δ

11, |φ1|≠1

Varianza: γ0 = E(Yt2), ya que δ = 0 no afecta a la varianza.

γ0 = E(δ + φ1Yt-1 + εt- θ1εt-1)2 = φ1

2 γ0 + σ2

ε + θ12σ2

ε - 2φ1σ2ε ⇒

⇒ γ0 = 21

1121

2

1

)21(

φ−θφ−θ+σε , con 11 <φ

Autocovarianzas:

γ1 = E(Yt-1Yt) = φ1 γ0 - θ1σ2ε

γ2 = E(Yt-2Yt) = φ1 γ1

....

γk = E(Yt-kYt) = φ1 γk-1 , 2k ≥∀

Lógicamente, en un proceso ARMA (p,q) tanto la FAS como la FAP tienen infinitos

elementos distintos de cero ( figura 2.2.10.).

Page 22: Eviews Arima

89

φ1>0 ,θ1<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

φ1>0 ,θ1<0

-1

-0,5

0

0,5

1

Retardo

Coe

ficie

ntes

Figura 2.2.10. FAS y FAP para un proceso ARMA(1,1).

2.2.2.4. MODELOS ARIMA

Hasta este momento se han tratado procesos estacionarios. Sin embargo, las series de

datos económicos suelen caracterizarse por ser no estacionarias: nótese la simple observación de

una tendencia creciente en el tiempo o de unas fluctuaciones que crecen en tamaño con el paso

del tiempo, como, por ejemplo, puede ocurrir con el precio de algunos activos financieros.

Es cierto que muchas series económicas se convierten en aproximadamente

estacionarias después de aplicar diferencias en una ó más etapas. Lo que se hace en tales

situaciones es trabajar con la serie en diferencias especificando y estimando un modelo para

ellas. Una predicción con estas series hay que traducirla a una predicción para la serie origen, en

cuyo análisis está interesado el investigador.

- Diferencias de orden uno o de primer orden o primeras diferencias:

1ttt YYY −−=∆

- Diferencias de orden dos o segundas diferencias: se aplican primeras diferencias a la serie ya

diferenciada una vez.

2t1tt1tt1ttt2

t YY2YYY)YY(Y)Y( −−−− +−=−=−== ∆∆∆∆∆∆∆

Se pueden calcular diferencias de cualquier orden.

Page 23: Eviews Arima

90

Un ejemplo de proceso estocástico o aleatorio no estacionario es el denominado paseo o

camino aleatorio:

Yt = Yt-1 +ε t ó bien Yt = δ + Yt-1 +ε t , donde ε t es ruido blanco.

Yt = Yt-1 +ε t = Yt-2 +ε t−1+ ε t = Yt-3 +ε t−2 + ε t−1+ε t = ....= ∑∞

=−ε

0kkt

Es un proceso no estacionario en varianza pues Var (Yt) = Var (∑∞

=−ε

0kkt ) = ∞.

La transformación consistente en tomar primeras diferencias de la variable produce una

nueva serie claramente estacionaria: t1ttt YYY ε=−= −∆ , variable que sigue un proceso ruido

blanco, estacionario.

La serie Yt es no estacionaria homogénea de orden d, si la serie ωt = ∆dYt es

estacionaria. Entonces, Yt es un proceso autorregresivo integrado de media móvil de orden

(p,d,q) y se denomina ARIMA (p,d,q). Si se aplican diferencias de orden d a Yt se obtiene un

proceso estacionario ωt del tipo ARMA (p,q).

ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q

(1-φ1L - φ2L2 - ...- φpL

p) ωt = δ + (1 - θ1L - θ2L2 -...- θqL

q) εt

(1-φ1L - φ2L2 - ...- φpL

p) ∆dYt = δ + (1 - θ1L - θ2L2 -...- θqL

q) εt

2.3. FASES PARA LA ELABORACIÓN DE MODELOS ARIMA

2.3.1. FASE DE IDENTIFICACIÓN

Se trata de buscar un proceso ARMA que de forma verosímil haya podido generar la

serie temporal, es decir, que se adapte mejor a las características de la misma. Pero esos

procesos son estacionarios, por lo que habrá que efectuar un análisis de la estacionariedad de

los datos. Con tal fin se utilizan los siguientes instrumentos:

- Representación gráfica. Si el gráfico de la serie temporal presenta fluctuaciones cuya amplitud

cambia para distintos intervalos del período muestral, se pensará que el proceso que genera la

serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o decreciente con el

tiempo.

Page 24: Eviews Arima

91

- El correlograma. El hecho de que la función de autocorrelación simple decrece muy

lentamente al aumentar el retardo, ha demostrado ser una señal de tendencia no estacionaria.

Puesto que en la práctica se dispone de una realización de un proceso estocástico, podemos

obtener los coeficientes de autocorrelación muestral y, a partir de ellos, el correlograma

muestral. Una vez representado el correlograma muestral, se conoce si la serie es o no

estacionaria.

- Mediante los contrastes de raíces unitarias. Son válidos para determinar si existe tendencia

determinística o estocástica5.

- A través del gráfico desviación típica-media. Si conforme crece la media, la desviación típica

aumenta, la varianza del proceso es creciente.

Si la serie temporal no es estacionaria se aplican las transformaciones adecuadas con

objeto de convertirla en estacionaria. Cuando la serie presente no estacionariedad en media, se

suele aplicar el proceso de diferenciación. Pero, a veces, la toma de diferencias no es suficiente

para obtener series estacionarias en media y en varianza. Una solución consiste en fijar

logaritmos de la serie, teniendo en cuenta que posteriormente hay que deshacer el cambio de

variable. En series económicas que están afectadas por una fuerte tendencia, suele ser necesario

efectuar alguna transformación del tipo Box-Cox, para obtener una serie estacionaria en

varianza. Esta transformación se define por:

Yt(λ) =

=λ≠λλ−λ

0LnY

0/)1Y(

t

t

Una vez estacionaria, se determinará el orden de la parte autorregresiva (p) y el de la

parte de medias móviles (q) del proceso ARMA, que se considere haya podido generar la serie

estacionaria. Para tal fin se utilizan el correlograma estimado y la función de autocorrelación

parcial estimada. Esta última puede obtenerse de dos formas alternativas, prácticamente

equivalentes: mediante el sistema de Yule-Walker, y mediante el método de regresión.

Se puede utilizar el sistema de Yule-Walker para estimar los coeficientes de

autocorrelación parcial a partir de los simples estimados:

5 Estos términos se desarrollarán con amplitud en el tercer capítulo.

Page 25: Eviews Arima

92

111 ˆˆ ρ=φ = 0

1

ˆ

ˆ

γγ

,

ρρ

ρ

ρ=

φφ

2

11

1

1

22

21

ˆ

ˆ

ˆ1ˆ

ˆ ,

ρρρ

ρρρρρρ

=

φφφ −

3

2

11

12

11

21

33

32

31

ˆ

ˆ

ˆ

1ˆˆ

ˆ1ˆ

ˆˆ1

ˆ

ˆ

ˆ

.....

Se escogen los coeficientes ,...ˆ,ˆ,ˆ332211 φφφ para configurar la FAP estimada.

La otra opción para el cálculo de la FAP, consiste en obtener los coeficientes mediante

las siguientes regresiones sucesivas:

tktkk2t2k1t1kt

t2t221t21t

t1t11t

Yˆ...YˆYˆY

...

YˆYˆY

YˆY

ε+φ++φ+φ=

ε+φ+φ=

ε+φ=

−−−

−−

Así, kkφ es la correlación estimada existente entre Yt e Yt-k, después de eliminar de

ambas el efecto de Yt-1, Yt-2, ..., Yt-k+1.

En los modelos AR(p), la FAP presenta los p primeros coeficientes distintos de cero y el

resto nulos. La FAS presenta un decrecimiento rápido de tipo exponencial, sinusoidal o ambos.

En los modelos MA(q), sucede el patrón opuesto: la FAS se anula para retardos superiores a q y

la FAP decrece exponencial o sinusoidalmente. Sin embargo, la especificación de los modelos

ARMA no se ajusta a unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la

FAP es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la componente AR(1) hay

que superponer la MA(1) cuya FAP converge exponencialmente a cero. En la práctica, se puede

especificar una de las componentes y analizar sus residuos. Si el modelo considerado es un

ARMA (2,1) se especifica inicialmente la componente AR(2). Se analizarán estos residuos a

través del correlograma y si siguen un MA (1), el proceso completo será un ARMA (2,1)6. Para

que una serie sea fácilmente identificable hay que considerar un tamaño muestral elevado

(mayor a 50).

No puede olvidarse que cuando se trabaja con series reales, los correlogramas

resultantes se refieren a los estimados por la muestra. Si el proceso es estacionario, las

6 Puesto que en la práctica se observan las FAS y FAP estimadas, éstas no concordarán exactamente con sus valores teóricos. Lo único que se pretende es buscar la mayor similitud posible entre las funciones teóricas y muestrales

Page 26: Eviews Arima

93

correlaciones muestrales estiman considerablemente las poblacionales y existe la posibilidad de

constrastar hipótesis respecto a la nulidad de cada coeficiente teórico de la FAS y FAP. De

hecho, si hay evidencia de que algún coeficiente es estadísticamente no significativo, puede

considerarse nulo.

El estimador �ρk es una variable aleatoria cuya varianza se estima de forma aproximada

(Barlett, 1946) por:

Var ( kρ ) ≅1

n)ˆ21(

1k

1i

2i∑

=

ρ+

Con un tamaño muestral suficientemente grande, kρ se aproxima a una distribución

normal. Se puede, por tanto, construir un intervalo de confianza al 95%, para contrastar la

hipótesis nula de que ρk = 0:

)ˆ(Var2 kρ±

Si los coeficientes muestrales caen dentro del intervalo, se concluye que los coeficientes

de autocorrelación no son significativamente distintos de cero. En la práctica, esta fórmula

permite identificar procesos de media móvil, para los cuales ρk se anula a partir de algún k>q.

Para la FAP, se ha demostrado (Quenouille, 1949) que, en un proceso AR(p):

Var n

1)ˆ( kk ≅φ , k>p

Entonces, el intervalo de confianza, al 95%, para contrastar 0ˆkk =φ es igual a:

)ˆ(Var2 kkφ± =n

12±

Es posible, pues, verificar si una muestra procede de un proceso autorregresivo de un

orden p* dado, comprobando si �φ kk cae dentro del intervalo (es significativamente igual a cero)

para todo k>p*. En la práctica, se utiliza empíricamente para calcular intervalos de confianza

Page 27: Eviews Arima

94

para todos los coeficientes de autocorrelación parcial estimados, con independencia de cuál sea

el tipo de proceso, el cual se desconoce de antemano.

También hay que identificar la inclusión o no de término independiente. La media del

proceso está ligada al mismo, por tanto, si la media observada se considera significativamente

igual a cero, no se introducirá término independiente en el modelo.

Esta etapa suele plantear ciertas dificultades y su objetivo consiste, en general, en la

especificación tentativa de unos pocos modelos con estructuras sencillas. La etapa de estimación

y la posterior validación de los resultados confirmarán los indicios o, por el contrario, servirán

de fundamento para la reformulación de los modelos propuestos.

2.3.2. FASE DE ESTIMACIÓN

Una vez identificado el modelo de series temporales ARIMA(p,d,q), se procederá a

estimar sus parámetros.

Sea Yt ≈ ARIMA(p,d,q), donde ωt = (1-L)dYt ≈ ARMA(p,q):

ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q

El objetivo es la estimación de δ, φ1, φ2,..., φp, θ1,θ2...θq y, para ello, se dispone de una

muestra de tamaño n de Y. Al tomar diferencias de orden d se perderían d observaciones para la

nueva serie ωt, quedando n-d datos ω1,... ωn-d.

Las hipótesis que se adoptan en el proceso de estimación son las siguientes:

a) εt ≈ N(0,σ2ε)

b) El proceso es estacionario.

c) El proceso es invertible.

Estimación de procesos autorregresivos

Un proceso autorregresivo no cumple la hipótesis del modelo clásico de regresión

basada en regresores fijos. Son variables aleatorias puesto que son retardos de la variable Yt (ó

Page 28: Eviews Arima

95

ωt, en su caso) que es aleatoria. Sin embargo, en presencia de errores que no presentan

autocorrelación, los estimadores mínimocuadráticos tienen buenas propiedades (consistencia).

Por el contrario, si el término de error estuviese correlacionado (no fuese ruido blanco), estos

estimadores serían inconsistentes. En este caso, el modelo estaría mal especificado, puesto que

una especificación correcta debe provocar un término de error con estructura de ruido blanco.

ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p+εt

Aplicar el criterio de mínimos cuadrados, implica minimizar la suma de los cuadrados

de los residuos et = ωt- �ω t . El residuo se considera una estimación de la perturbación aleatoria

una vez estimado el modelo.

En forma matricial: ωn×1 = Wn×(p+1)⋅φ(p+1)×1 + εn×1 , donde n es el número final de datos

utilizados en la estimación.

ωn×1 =

ωω

ω

1

2

...

n

, Wn×(p+1) =

1

1

1

0 1 1

1 0 2

1 2

...

...

...

... ... ... ...

...

ω ω ωω ω ω

ω ω ω

− −

− − −

p

p

n n n p

φ(p+1)×1=

δφ

φ

1

...

p

, εn×1 =

εε

ε

1

2

...

n

� ( )φMCO = −W'W W'w1

Si no se incluye término independiente en el modelo, se suprime la columna de unos.

Estimación de procesos de medias móviles y mixtos

La estimación de modelos de medias móviles y modelos mixtos se lleva a cabo

mediante algoritmos de optimización numérica, debido a que los errores no son función lineal

de los parámetros.

Partimos de un modelo MA(1), sin término independiente:

ωt = εt - θ1εt-1

Page 29: Eviews Arima

96

et = ωt- �ω t = ωt + �θ ε1 1t− .

εt = ωt + θ1εt-1

Para t =1: ε1 = ω1 + θ1ε0

Para t =2: ε2 = ω2 + θ1ε1 = ω2 + θ1(ω1 + θ1ε0) = ω2 + θ1ω1 + θ21ε0

Para t =3: ε3 = ω3 + θ1ε2 = ω3 + θ1(ω2 + θ1ω1 + θ21ε0) = ω3 + θ1ω2 + θ2

1ω1 + +θ31ε0

.....

El término de error no es función lineal del parámetro a diferencia de lo que sucede con

los modelos autorregresivos. El modelo se puede estimar a través de un proceso iterativo de

estimación no lineal, que utiliza los dos primeros términos de la aproximación de εt a través del

desarrollo en serie de Taylor7 (se consideran despreciables los términos de segundo orden y

superior).

εt ≅ + −

=

ε θ θ∂ε∂θ

θ θ

tt0

1 10

11 1

0

( )

ε 0t es el valor que toma el residuo después de sustituir θ1 por el valor inicial θ0

1. Por

tanto, hay que partir de un valor inicial para el parámetro.

∂ε∂θ

θ θ

t

11 1

0

=

es la derivada de los errores respecto a θ1, sustituyendo θ1 por su valor

inicial.

En este modelo ∂ε∂θ

εtt

11= − . Entonces:

7 Si y =f(x1,x2) es una función no lineal de dos variables X1 y X2, se puede igualar a una serie de Taylor, en torno a unos valores numéricos de las variables x10 y x20:

...

xxxx

2x

1x

f2)xx)(xx(

xxxx

2x

f22)xx(

2

1

xxxx

1x

f22)xx(

2

1

xxxx

2x

f)xx(

xxxx

1x

f)xx()x,x(fy

2010

2010

2010

2010

20

10

2

1

202101

2

1

202

2

1

101

2

1

202

2

1

1012010

+

==∂∂

∂−−+

==∂

∂−+

+

==∂

∂−+

==∂

∂−+

==∂

∂−+=

El resto de los términos son despreciables.

Page 30: Eviews Arima

97

εt 1t00

110t

1

t011

0t )()(

011

θ=θ

εθ−θ+ε=

∂θ∂ε

θ−θ+ε≅ =

1t0

1t1t00

10t1t

011t

001

0t −−−− εθ−ε=εθ−ε⇒εθ+εθ−ε= ⇒

⇒ tt1t xw ε+θ=

donde wt = 1t00

10t −εθ−ε y xt = 1t

0−ε−

Es una ecuación de regresión lineal que se puede estimar mediante MCO. También es

posible establecer la ecuación en función de )( 011 θ−θ y obtendríamos el estimador de

)( 011 θ−θ : MCOβ = )ˆ( 0

11 θ−θ ⇒ 01MCO1

ˆˆ θ+=θ β . Entonces, 1θ constituye la primera iteración del

proceso. Este valor se utiliza para realizar una segunda iteración, como valor inicial, y así

sucesivamente.

La fórmula de actualización de las estimaciones sucesivas sería la siguiente:

)ˆ( 1h1hh −− β−β+β=β

Si h = 0, tenemos el valor inicial.

Si h = 1, tenemos la primera iteración.

Si h = 2, la segunda iteración.

......

El procedimiento finaliza cuando se cumple algún criterio de convergencia

satisfactorio, como el que establece que la diferencia entre dos estimaciones sucesivas en valor

absoluto sea menor que una cantidad pequeña fijada de antemano (0,001, por ejemplo):

001,01hh <β−β −

Otro criterio de convergencia alternativo consistiría en detener el proceso si la

variación producida en la suma de los cuadrados de los residuos es pequeña (por ejemplo,

inferior al 1%).

Un criterio más exigente sería el de aceptar la convergencia del proceso cuando se

cumplan a la vez los dos criterios citados.

Page 31: Eviews Arima

98

Este procedimiento, aplicado a un modelo MA(2), generaría la siguiente aproximación:

εt

021

011

021

011 2

t021

1

t011

0t )()(

θ=θθ=θ

θ=θθ=θ

∂θ∂ε

θ−θ+

∂θ∂ε

θ−θ+ε≅ ⇒

ε 0t es el valor que toma el residuo después de sustituir θ1 por el valor inicial θ01 y θ2 por

θ02.

1t1

t−ε=

∂θ∂ε

y 2t2

t−ε=

∂θ∂ε

Se tiene:

εt

021

011

021

011 2

t022

1

t011

0t )()(

θ=θθ=θ

θ=θθ=θ

∂θ∂ε

θ−θ+

∂θ∂ε

θ−θ+ε≅ =

2t0

21t0

1t2t00

21t00

10t

2t0

22t00

21t0

11t00

10t

−−−−

−−−−

εθ−εθ−ε=εθ−εθ−ε⇒

⇒εθ+εθ−εθ+εθ−ε=

⇒ tt22t11t xxw ε+θ+θ=

donde wt = 2t00

21t00

10t −− εθ−εθ−ε , x1t = − −ε0

1t y x2t = 2t0

−ε−

Este método se puede extender a cualquier proceso MA(q) y ARMA(p,q):

ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q

Supongamos que δ = 0

εt = ωt - φ1ωt-1 - φ2ωt-2 -...- φpωt-p + θ1εt-1 + θ2εt-2 +...+ θqεt-q

εt0i

t0ii

qp

1i

0t )(

β=β

+

=

∂β∂ε

β−β+ε≅ ∑

Ahora habrá que estimar el vector de p+q parámetros β =

β

ββ

+qp

2

1

..., p de la parte AR y q

de la parte MA, siendo el procedimiento igual al visto anteriormente.

Page 32: Eviews Arima

99

Con objeto de obtener un proceso de convergencia rápido, se introducen ciertos

refinamientos en el proceso. En este sentido, el algoritmo de Marquardt (1963) es muy utilizado

en los paquetes de ordenador.

También un proceso AR puede estimarse desde el punto de vista de este procedimiento

iterativo, siguiendo los mismos pasos.

Para efectuar contrastes estadísticos, en la iteración final se calcula la estimación de la

matriz de varianzas y covarianzas de los estimadores mediante la expresión:

V = 112 )(qpn

)(ˆ −−

−−=σ XX'

ee'XX'

El procedimiento iterativo no siempre es convergente. Si se produce divergencia el

modelo se puede volver a estimar una o más veces, utilizando diferentes pronósticos iniciales,

con la esperanza de obtener convergencia. Puede también producirse por una mala

especificación del modelo, es decir porque no sea el que mejor representa la estructura del

proceso estocástico que generó la serie temporal objeto de análisis. En este caso, habría que

elegir una nueva especificación.

Obtención de valores iniciales para los parámetros del modelo

Los valores numéricos de la FAS y FAP estimadas pueden utilizarse para obtener

estimaciones iniciales de los coeficientes. La convergencia del proceso de estimación puede que

sea más ràpida si el pronóstico inicial es bueno.

Si el modelo identificado es un AR(p), las ecuaciones de Yule-Walker proporcionan los

valores de los parámetros del modelo a partir de los coeficientes de autocorrelación estimados.

Si, por el contrario, se ha elegido un modelo MA(1), entonces recordando que

21

11

θ+θ−

=ρ , podemos deducir un valor para el parámetro, teniendo en cuenta que el modelo

debe cumplir la condición de invertibilidad.

Para procesos de orden superior, el método es más complejo aunque similar.

Page 33: Eviews Arima

100

Enfoque condicionado y no condicionado en la fase de estimación

Si en el modelo ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q se dan

valores desde t =1...n, se nota que para determinar el valor de los εt = ωt- δ - φ1ωt-1 - φ2ωt-2 - ...-

φpωt-p + θ1εt-1 + θ2εt-2 +...+ θqεt-q, se necesitan los valores anteriores y no observables de εt y ωt:

ω0, ω-1, ..., ε0,..... Estos valores constituyen las condiciones iniciales y los estimadores

mínimocuadráticos que obtengamos, dependerán de los valores elegidos para ellos.

El método de estimación puede seguir un enfoque condicional o un enfoque no

condicional. El enfoque condicional asigna unos valores apropiados a las condiciones iniciales

basados en las hipótesis estadísticas del modelo: los errores se igualan a su media teórica, es

decir, cero, y los primeros datos de la serie son utilizados para estimar los valores iniciales ω0,

ω-1, ...8 (a veces, se consideran igual a cero, es decir a su media teórica, en caso de no incluir

término constante en el modelo, pero esta solución no es demasiado realista).

El enfoque no condicional se caracteriza porque los valores iniciales no se consideran

como datos, sino que se determinan dentro del proceso de estimación, conjuntamente con los

parámetros del modelo. Este procedimiento es más eficiente que el condicional.

2.3.3.FASE DE VALIDACIÓN

En esta etapa se comprobará la capacidad de ajuste del modelo propuesto y estimado a

los datos. Si éste no supera satisfactoriamente este paso, es necesario reformularlo. Cabe decir

que los resultados de la comprobación de la validez del modelo, suelen dar insinuaciones para

proceder a la especificación de uno diferente.

Para la aceptación del modelo, éste debe cumplir algunos requisitos:

• Análisis de los residuos:

8 La muestra se divide en dos partes, la primera de las cuales sirve para determinar los valores previos o iniciales y la otra para el proceso de estimación.

Page 34: Eviews Arima

101

Se parte de la hipótesis de que el término de error de un modelo ARIMA es ruido

blanco. Estos errores son inobservables, pero no ocurre lo mismo con los residuos. Cualquier

test sobre la perturbación aleatoria debe basarse en los residuos del modelo, los cuales deben

seguir, pues, el comportamiento de un proceso puramente aleatorio normal. En caso contrario,

contendrían información relevante para la predicción.

Con el objeto de estudiar si los residuos se aproximan al comportamiento de un proceso

ruido blanco, se disponen de las siguientes herramientas:

Contraste independencia de Box-Pierce

Está destinado a contrastar la independencia o no autocorrelación de los residuos. La

autocorrelación se mide por los coeficientes de autocorrelación de los residuos rk. Es un

contraste global (contraste de “portmanteau”) acerca de la no autocorrelación de los residuos de

las observaciones separadas un número determinado de periodos.

Ho : r1 = r2 =...= rk = 0

Se utiliza el siguiente estadístico propuesto por Box y Pierce (1970): Q (k) = n∑=

k

1t

2tr

�rt es el coeficiente de autocorrelación estimado de orden t de los residuos, t = 1...k.

La elección de k es arbitraria. Cuanto mayor sea k el test se extenderá a desfases

mayores, pero la precisión en la estimación de los rk es menor y disminuye la potencia del

contraste, es decir, la probabilidad de rechazar la hipótesis nula cuando es falsa.

Bajo la hipótesis nula, la distribución asintótica del estadístico es: Q(k) ∼χk

Se rechazará la hipótesis nula si el valor de Q experimental es superior que el teórico o

tabulado de la distribución a un nivel de significación dado.

Box y Pierce han demostrado que utilizando k elevado, el estadístico Q es apropiado si

se supone que sigue una distribución Q(k) ∼χk-(p+q).

Page 35: Eviews Arima

102

La versión mas actual de ese estadístico es la de Ljung-Box (1978), para disminuir el

sesgo en pequeñas muestras.

Bajo la hipótesis nula: Q*(k) = n (n+2) ∑= −

k

1t

2t

tn

r ∼χk-(p+q)

Sabiendo que kr = ∑

=

=−

1t

2t

kn

1tktt

e

ee

es el coeficiente de autocorrelación de orden k y et son

los residuos.

A veces, en lugar de fijar a priori un nivel de significación para el contraste, el contraste

se puede contemplar a través del nivel de significación crítico. Éste es un indicador del nivel de

admisibilidad de la hipótesis nula. Cuanto mayor sea el nivel de significación crítico mayor

confianza podemos tener para aceptar la hipótesis nula y viceversa: si toma el valor cero,

podemos rechazar la hipótesis nula al 100% de confianza.

Representación de la función de autocorrelación simple y parcial de los residuos

La serie de residuos es aleatoria si los coeficientes de autocorrelación simple y parcial

son significativamente cero.

Anderson (1942) ha demostrado que los coeficientes de autocorrelación muestrales

procedentes de un proceso ruido blanco, siguen asintóticamente, la siguiente distribución:

�rk )n/1,0(N≈

En consecuencia, bajo la hipótesis de que rk = 0 , se construye un intervalo de confianza

al 95% de la siguiente forma: n

2± . Si algún �rk cae fuera de los límites, se rechaza la hipótesis

de no autocorrelación. En este caso hay evidencia de no aleatoriedad de la serie.

Además, los errores deberán alternar el signo de su coeficiente de autocorrelación sin

ningún criterio obvio.

Page 36: Eviews Arima

103

También, los coeficientes de la FAP deben ser significativamente cero. En la práctica se

construyen bandas de confianza utilizando la distribución de una variable ruido blanco cuya

varianza es 1/n según se ha visto anteriormente.

Hay que tener en cuenta que esta aproximación realizada sobre la varianza no es muy

adecuada tanto para la FAS como para la FAP especialmente en los retardos bajos. Se podría

concluir que un coeficiente es estadísticamente no significativo cuando en realidad lo es.

La FAS y la FAP de los residuos del modelo estimado son instrumentos valiosos a la

hora de reformular el modelo, en caso de que no se comporten como un proceso ruido blanco.

Supongamos que se ha estimado un AR(1): Yt = 1φ Yt-1 ⇒ et = Yt- 1φ Yt-1. Después de examinar

la FAS y la FAP de la serie et, se llega a la conclusión de que sigue un modelo MA (1), no un

proceso ruido blanco : et = εt - θ1εt-1. Sustituyendo en el modelo AR (1) : Yt = φ1Yt-1+ εt - θ1εt-1,

se puede concluir que Yt es un ARMA (1,1).

Representación gráfica de los residuos

La representación de los residuos en el tiempo permite observar si la varianza es

constante y si la media está próxima a cero. Además, se puede verificar si se ajustan a una

distribución normal y la existencia de residuos atípicos. Un residuo se considera atípico si el

valor absoluto excede en tres o cuatro veces su desviación típica (siendo su media cero).

Para contrastar la existencia de heteroscedasticidad se puede realizar el contraste de

White (1980). Su hipótesis nula es que el término de perturbación es homocedástico e

independiente de los regresores y que la especificación lineal es correcta. El procedimiento es el

siguiente:

a) Estimación del modelo original ignorando la posible heteroscedasticidad.

b) Estimación de una regresión del cuadrado de los residuos anteriores sobre una constante, los

regresores del modelo original, sus cuadrados y productos cruzados de segundo orden.

c) El output es un estadístico nR2, donde n es el tamaño muestral y R2 es el coeficiente de

determinación de la última regresión, que sigue una distribución asintótica chi-cuadrado con

grados de libertad igual al número de regresores en el contraste de regresión anterior.

d) Bajo la hipótesis nula de homoscedasticidad, asintóticamente el coeficiente de

determinación tenderá a cero, excepto cuando la varianza del término de error del modelo

Page 37: Eviews Arima

104

depende de sus variables explicativas. En tal caso nR2 permanecerá lejos de cero y es de

esperar que sea mayor que el valor de las tablas de la distribución chi-cuadrado.

Para contrastar la normalidad se utiliza el contraste de Jarque-Bera (1987). Se trata de

una prueba de grandes muestras, que primero calcula la asimetría (A) y la curtosis o

apuntamiento (K) de los residuos de la estimación del modelo y después utiliza el siguiente

estadístico de contraste:

−+=24

)3K(

6

AnJB

22

Bajo la hipótesis nula de que los residuos están normalmente distribuidos,

asintóticamente JB sigue una distribución 22χ . Si el valor del estadístico supera el valor

tabulado de la distribución chi- cuadrado, se rechazará la hipótesis nula a un determinado nivel

de confianza. O si el nivel de significación crítico (p-valor) es suficientemente pequeño, se

puede rechazar la hipótesis de que los residuos siguen una distribución normal.

• Análisis de los coeficientes estimados

Primero hay que verificar si los coeficientes son significativos. El estadístico de

contraste está construido bajo la hipótesis nula de que el coeficiente es cero y sigue una

distribución t-student con n-m grados de libertad, con m igual al número de parámetros

incluidos. Si concluimos que alguno no es significativo se puede suprimir.

Ho: φi = 0 , t*= mni

ii t)(S

)(E−≈

φφ−φ

Ho: θi = 0, t*= mni

ii t)(S

)(E−≈

θθ−θ

Ho: δ = 0, t*= mnt)(S

)(E−≈

δδ−δ

La aplicación del test anterior requiere un contraste de dos colas, pues la hipótesis

alternativa considera que puede tomar el coeficiente cualquier valor distinto de cero. Si *t es

mayor que el teórico tabulado, se rechaza la hipótesis nula y el parámetro es significativo.

Page 38: Eviews Arima

105

Otro aspecto importante es el examen del cumplimiento de las condiciones de

estacionariedad e invertibilidad:

Si alguna de las raíces de:

0Lˆ...LˆLˆ1 pp

221 =φ−φ−φ−

0Lˆ...LˆLˆ1 pp

221 =θ−θ−θ−

fuesen inferior a la unidad, el modelo se rechazaría.

Si alguna de las raíces de 0Lˆ...LˆLˆ1 pp

221 =φ−φ−φ− , estuviese próxima a uno, es

posible que la serie original esté subdiferenciada, por lo que puede que precise alguna

diferenciación adicional.

Si alguna de las raíces de 0Lˆ...LˆLˆ1 pp

221 =θ−θ−θ− está próxima a uno, es posible

que el modelo esté sobrediferenciado.

Si existen raíces comunes, se podría utilizar para las predicciones un modelo con dos

parámetros menos, es decir, el modelo sería un ARMA (p-1, q-1).

Es conveniente también examinar la matriz de correlación entre los coeficientes

estimados. Cuando la correlación entre dos coeficientes es próxima a uno, los coeficientes

estimados son muy inestables, con lo que podrían cambiar bastante de una muestra a otra. El

modelo estimado para el período muestral puede diferir del que se obtendría para los períodos

de predicción. Puede existir este problema siempre que alguna de las correlaciones entre

estimadores tome un valor superior a 0,6. Para evitar este problema puede ser eficaz eliminar

algún parámetro aún a costa de que el grado de ajuste sea más pequeño. No obstante, si todos

los coeficientes son significativos no sería aconsejable eliminar coeficientes del modelo.

• Análisis de la bondad del ajuste:

Se suele utilizar el coeficiente de determinación R2 o el corregido R2 :

Page 39: Eviews Arima

106

STC

SCR1R2 −=

Es una medida de la proporción de la variación total de la variable que es explicada por

el modelo.

1n/STC

mn/SCR1R2

−−−=

donde SCR = n

et

2t∑

es la suma de los cuadrados de los residuos y

n

)(

STC

2

Tt∑ ω−ω

= la suma total de los cuadrados.

El coeficiente de determinación corregido penaliza la introducción de parámetros

adicionales en el modelo. Si se introducen parámetros adicionales aunque no sean apropiados

pueden incrementar R2. Para evitar este problema se suele utilizar el coeficiente corregido.

El modelo se ajusta en mayor medida a los datos cuanto más próximos a la unidad estén

los coeficientes de determinación. Pero sólo son comparables en modelos en los que se hayan

tomado idéntico número de diferencias, debido a que para que este sea un elemento de

comparación directa la varianza de la variable debe ser la misma. Si se calcula el coeficiente de

determinación con la varianza de la variable diferenciada una vez, el resultado no será

comparable con el calculado a partir del ajuste a un modelo sobre la variable original.

Para paliar el anterior inconveniente, se han propuesto medidas alternativas destacando

el estadístico AIC (Akaike Information Criterion), formulado por Akaike (1974). Consiste en

seleccionar aquél modelo para el que se obtenga un AIC más bajo. Otra medida es SC (Schwarz

Criterion) y cuanto menor sea ésta, mejor es el ajuste.

• Análisis de la estabilidad

La construcción de un modelo ARIMA está justificada por su utilización para la

predicción. Conviene saber si el modelo estimado para el período muestral sigue siendo válido

Page 40: Eviews Arima

107

para períodos futuros. Para esta finalidad se puede aplicar el test de estabilidad estructural de

Chow:

m2n,mn

1t

2t2

n

1t

2t1

n

1t

2t2

n

1t

2t1

n

1t

2t

F

m2n/ee

m/eee

F21

21

==

===≈

+

+−

=

∑∑

∑∑∑

m es el número de parámetros a estimar.

N = n1+n2

et es el residuo del modelo utilizando todo el período muestral.

e1t es el residuo utilizando los n1 primeros datos.

e2t es el residuo utilizando los n2 últimos datos.

Se pretende contrastar si el último tramo muestral ha estado generado por la misma

estructura que el resto de las observaciones. Algunos autores aconsejan tomar como segundo

tramo muestral un tercio o un cuarto de la muestra.

Si la F calculada o experimental es mayor que la tabulada o teórica a un determinado

nivel de significación, se rechaza la hipótesis de estabilidad estructural.

2.3.4. FASE DE PREDICCIÓN.

Una vez que el modelo ha sido estimado y sometido a la fase de diagnosis, se convierte

en un instrumento útil para la predicción. Sea el modelo estimado ARMA(p,q), para la serie ωt,

siendo la serie original Yt ≈ ARIMA(p,d,q). Se trata de predecir los valores para la serie no

estacionaria Yt, una vez se haya realizado para la serie ωt estacionaria.

Por ejemplo, si ωt =Yt-Yt-1 , donde ωt es estacionaria. La predicción para esa serie en el

período n+1 es 1nˆ +ω . La correspondiente predicción para �Yn+1 es 1nˆ +ω +Yn.

Si se aplica una diferencia de segundo orden ωt = Yt –2Yt-1 +Yt-2, entonces 1nY + =

= 1nˆ +ω + 2Yn –Yn-1

Page 41: Eviews Arima

108

Si se ha fijado en algún momento la transformación logarítmica, se tomarán

antilogaritmos para deshacer el cambio: ωt = LnYt ⇒ Yt = eωt

Un criterio que se suele establecer para realizar predicciones es elegir aquellas con

mínimo error cuadrático medio. El error cuadrático medio es igual a la esperanza matemática

del cuadrado de los errores de predicción. La mejor predicción puntual desde este punto de vista

es aquélla que se obtiene mediante la esperanza matemática condicional a toda la información

disponible hasta el período de predicción. La expresión de este predictor es la siguiente:

1nY + = E(Yn+1/Yn, Yn-1...)

Yn+1 = δ + φ1Yn + φ2Yn-1 + ...+ φpYn+1-p + εn+1 - θ1εn - θ2εn-1 -...- θqεn+1-q

Tomando esperanzas condicionadas, se obtiene:

�Yn+1= δ + φ1Yn + φ2Yn-1 + ...+ φpYn+1-p - θ1εn - θ2εn-1 -...- θqεn+1-q

donde todas las variables con subíndices inferiores a n+1, dejan de ser aleatorias, por lo que sus

esperanzas matemáticas coinciden con sus realizaciones y E(εn+1) = 0, por hipótesis.

Después de obtener 1nY + , se calcula 2nY + , y así sucesivamente.

Los εt son inobservables, por lo que hay que sustituirlos por sus estimaciones, que se

obtienen a través de los sucesivos residuos del modelo. Si algún residuo no es posible obtenerlo,

se considera igual a su media teórica: cero. Esta solución es aceptable si el proceso es invertible,

dado que, en ese caso, la importancia de los valores iniciales tiende a desaparecer a medida que

aumenta el tamaño muestral.

Cuando dispongamos de los valores observados, se utilizan para efectuar la predicción,

si no se conocen se utilizan sus estimaciones en períodos anteriores.

A medida que el horizonte de la predicción crece, la predicción por puntos de un

modelo ARMA tiende a la media.

Page 42: Eviews Arima

109

Error de predicción

La predicción de una variable aleatoria como es Yt, conlleva incertidumbre pues

depende de la muestra considerada. Entonces aparece un error de predicción. Si se conociesen

los valores exactos de los coeficientes, cosa imposible en la mayoría de los casos, sería posible

obtener una expresión del error de predicción como sigue:

Yt+s - stY + = et+s

Escribamos el proceso ARMA, como un proceso de medias móviles de infinitos

términos, mediante sustituciones sucesivas:

Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q

Yt = K+ εt +ψ1εt-1 +ψ2εt-2 +...

Yt+s = K + εt+s + ψ1εt+s-1 +ψ2 εt+s-2 +...+ψs-1 εt+s-s+1 + ∑∞

=−+ εψ

0jjtjs

La predicción stY + se puede basar únicamente en la información disponible hasta el

período t. Escribimos la predicción como una suma ponderada de los términos de error que

podemos estimar:

stY + = K+ ∑∞

=−+ εψ

0jjtjs* , donde las ponderaciones ψ* se elegirán de manera que minimicen el

Error Cuadrático Medio de predición.

et+s = εt+s + ψ1εt+s-1 +ψ2 εt+s-2 +...+ψs-1 εt+1 + ∑∞

=−++ εψ−ψ

0jjtjsjs )*(

El error cuadrático medio de predicción es E(et+s)2 = (1 + ψ2

1+ψ22 +...+ψ2

s-1) σ2ε

+∑∞

=ε++ σψ−ψ

0j

22jsjs )*( , puesto que E(εiεj) = 0, para i≠j.

El error cuadrático medio se minimiza cuando el último término es igual a cero, es decir si

jsjs * ++ ψ=ψ . Entonces el error de predicción se puede escribir:

et+s = εt+s + ψ1εt+s-1 +ψ2 εt+s-2 +...+ψs-1 εt+1

Page 43: Eviews Arima

110

y teniendo en cuenta que E(en+s) = 0:

Var (en+s) = E(en+s)2 = (1 + ψ2

1+ψ22 +...+ψ2

s-1) σ2ε

El uso más importante de los errores de predicción es la construcción de intervalos de

confianza para la predicción. El intervalo de predicción para el pronóstico de Yt+s es, al 95%:

21s

22

21st ...196,1Y −ε+ ψ++ψ+ψ+σ±

El cálculo de los coeficientes ψ se obtienen a partir de la siguiente relación:

φ(L)Yt = θ(L)εt ⇔Yt = φ-1(L)θ(L)εt = ψ(L) εt, con ψ(L) = 1 + ψ1L+ψ2 L2 +...⇒

⇒ φ-1 (L)θ(L)εt = ψ(L) ⇒ φ(L)ψ(L) = θ(L)

Valoración de la capacidad predictiva de los modelos

Podemos verificar si el modelo sigue siendo válido para los períodos de predicción, una

vez se ha comprobado su validez para el periodo muestral, utilizando el siguiente estadístico:

E* = 2

m

0s

st/1st2

ˆ

e

ε

=+++

σ

Donde st/1st2e +++ es el error de predicción de Yt+s+1 utilizando la información disponible

en el momento t+s y σ2ε =

kn

SCR

−, con k el número de parámetros del modelo.

Este estadístico se distribuye asintóticamente como una chi-cuadrado con m grados de

libertad, bajo la hipótesis nula de estabilidad estructural al pasar a los períodos de predicción.

Si el valor calculado supera al tabulado, habrá diferencias significativas entre los

verdaderos valores y los estimados, por lo que se rechazará la hipótesis nula de estabilidad.

Page 44: Eviews Arima

111

2.4. MODELOS ESTACIONALES

Las series temporales de datos económicos presentan generalmente características

estacionales cuando se disponen de datos con frecuencia inferior al año, trimestral o

mensualmente. Un ejemplo de serie temporal con una marcada componente estacional podría

ser la venta de helados en verano. Cuando la serie es estacional, suelen aparecer relaciones entre

los valores que se corresponden con periodos análogos dentro de cada año (mes a mes o

trimestre a trimestre).

Modelos autorregresivos estacionales

Trabajando con datos mensuales, por ejemplo, Yt puede expresarse en función de Yt-12,

el valor correspondiente al mismo mes del año anterior, de forma que:

Yt = Φ1Yt-12 + εt

Este es un proceso autorregresivo estacional de primer orden, para el que se utiliza la

notación AR(1)12.

En general, el proceso autorregresivo estacional de orden P, AR(P)s, donde s = 12 para

datos mensuales, s = 4 para datos trimestrales, etc., viene definido:

Yt = Φ1Yt-s+ Φ2Yt-2s + ...+ ΦPYt-Ps + εt

Yt (1 - Φ1Ls - Φ2L

2s -...- ΦPLPs) = εt

Para este proceso las funciones de autocorrelación simple y parcial, se comportan como

en el caso del modelo AR(p) pero a intervalos de s retardos, siendo cero en los retardos

intermedios.

Modelos de medias móviles estacionales

El valor actual Yt se puede expresar en función de una perturbación actual y de otra

correspondiente a s períodos anteriores (s =12 para datos mensuales):

Page 45: Eviews Arima

112

Yt = εt - Θεt-s

Yt sigue un proceso de medias móviles estacional de primer orden MA(1)s.

FAP de un modelo AR(1)s=4

-1

-0,5

0

0,5

1

1 2 3 4 5 6 7 8

Retardo

Coe

ficie

ntes

FAS de un modelo AR(1)s=4

-1

-0,5

0

0,5

1

1 3 5 7 9 11

Retardo

Coe

ficie

ntes

Figura 2.4.1. FAS y FAP de un modelo AR(1)4

En general, un proceso de medias móviles estacional de orden Q, MA (Q)s, es el

siguiente:

Yt = εt - Θ1εt-s - Θ2εt-2s - ...- ΘQεt-Qs

Yt = (1 - Θ1Ls- Θ2L

2s -...- ΘQLQs) εt

La función de autocorrelación simple de un proceso de medias móviles estacional tiene

el mismo comportamiento que la de un proceso de medias móviles no estacional. Así en un

MA(1)4 presenta un solo valor distinto de cero, que corresponde con el desfase k = 4.

Modelos mixtos estacionales

Generalizando, podemos definir el proceso mixto ARMA (P,Q)s mediante:

Yt = Φ1Yt-s + Φ2Yt-2s +...+ ΦPYt-Ps+ εt - Θ1εt-s - Θ2εt-2s - ... - ΘQεt -Qs

Page 46: Eviews Arima

113

Proceso mixto estacional ARIMA (P,D,Q)s :

Además de la presencia de tendencia o de varianza, la estacionalidad constituye una

fuente de no estacionariedad de la serie. El procedimiento que se suele utilizar para

desestacionalizar las series es el de la diferenciación estacional.

Si los datos son mensuales, la diferenciación estacional consiste en calcular una nueva

variable:

Zt = Yt – Yt-12 = (1-L12) Yt = ∆12 Yt

Con datos trimestrales se calcularía:

Zt = Yt – Yt-4 = (1-L4) Yt = ∆4Yt

Si después de efectuar esta transformación, la serie sigue presentando evidencia de

variaciones estacionales, es posible aplicar de nuevo el procedimiento, es decir, calcular las

diferencias de segundo orden, y así sucesivamente.

Una vez que a la serie original Yt se le aplica D veces el procedimiento de la

diferenciación estacional y se obtiene una serie Zt que es estacionaria, entonces se puede aplicar

a Zt cualquiera de los modelos estudiados para las series estacionarias.

(1-Ls)DYt = Zt, con (1-Ls)D = ∆sD

Yt sigue un proceso estacional ARIMA(P,D,Q)s si:

Zt (1 - Φ1Ls - Φ2L

2s-...- ΦPLPs) = (1- Θ1L

s - Θ2L2s - ...- ΘQLQs) εt

Con Zt = (1-Ls)DYt

Modelo multiplicativo general:

En la realidad, los factores estacionales se sobreponen a los factores regulares, por lo

que podemos encontrar series que vengan generadas por ambos tipos de procesos. Se puede

formular un modelo mixto o multiplicativo, ARMA(p,q)× (P,Q)s:

Page 47: Eviews Arima

114

φ(L) Φs(L)Yt= θ(L) Θs(L)εt

Por ejemplo, un modelo estacional multiplicativo ARMA(1,0)×(1,0)12, se escribiría:

(1-φ1L)(1-Θ1L12)Yt = εt ⇔ Yt = φ1Yt-1 + Θ1Yt-12 - φ1Θ1Yt-13 + εt.

El primer término de la derecha representa la componente autorregresiva regular de

primer orden, el segundo término indica lo mismo para la componente autorregresiva estacional,

y el tercer término permite la interacción entre ambas estructuras.

Finalmente, si la tendencia está presente tanto en la componente regular como en la

estacional, habrá que efectuar una doble diferenciación, una en cada parte. Así, todos los

modelos estacionales pueden unirse en uno general denominado ARIMA estacional

multiplicativo: ARIMA (p,d,q)×(P,D,Q)s.

φ(L)∆d Φs(L) ∆sD Yt = θ(L) Θs(L)εt

(1-φ1L - φ2L2 - ...- φpL

p) ∆d (1-Φ1Ls-Φ2L2s-...-ΦPLPs) ∆s

D Yt =

= (1 - θ1L - θ2L2 -...- θqL

q)(1- Θ1Ls-Θ2L

2s - ...- ΘQLQs) εt .

La FAS de los modelos multiplicativos, de forma aproximada, se caracteriza porque en

los retardos bajos, la única estructura que aparece es la de la parte ordinaria, en los retardos s,

2s, 3s... el único efecto importante es el de la parte estacional y en los retardos contiguos a

múltiplos de s, se obtiene simétricamente la reproducción de la parte ordinaria tomando como

referencia los valores de los retardos estacionales, es decir, recogen la interacción entre la parte

ordinaria y la parte estacional.

FAS de un modeloARMA(0,1)x(0,1)s=4

-1

-0,5

0

0,5

1

1 2 3 4 5 6

Retardo

Coe

ficie

ntes

FAS de un modeloARMA(1,0)x(1,0)s=12

-1

-0,5

0

0,5

1

1 4 7 10 13 16 19

Retardo

Coe

ficie

ntes

Figura 2.4.2. FAS de modelos multiplicativos

Page 48: Eviews Arima

115

Se puede construir el siguiente cuadro como resumen de los modelos estacionales

multiplicativos, aunque para más detalles puede consultarse Vandale (1983):

Modelos FAS FAP

ARMA(p,0)×(P,0)s Decaimiento exponencial o

sinusoidad o ambos

Se anula para un retardo

k>p+sP

ARMA(0,q)×(0,Q)s Se anula para un retardo

k>q+sQ

Decrecimiento exponencial o

sinusoidal o ambos

Page 49: Eviews Arima

116