ANÁLISIS COMPARTIVO DE PRONÓSTICOS REALIZADOS CON REDES NEURONALES, MODELOS ARIMA Y PROCESOS GARCH
PARA SERIES DE TIEMPO NO ESTACIONARIAS.
MARIA CAROLINA PANTOJA ROJAS
Proyecto de Grado para optar al título de Maestría en Ingeniería Industrial
Asesor HERNANDO MUTIS PhD
Profesor Universidad de los Andes
UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERIA
DEPARTAMENTO DE INGENIERIA INDUSTRIAL MAESTRIA EN INGENIERIA INDUSTRIAL
BOGOTÁ D.C. 2.004
2
CONTENIDO
INTRODUCCIÓN
1. MARCO TEÓRICO
1.1 Modelos ARIMA..........................................................................................11
1.1.1 Procesos autorregresivos..........................................................................12
1.1.2 Procesos de promedios móviles.................................................................13
1.1.3 Procesos ARIMA......................................................................................14
1.1.3.1 Función de autocorrelación simple..........................................................16
1.1.3.2 Función de autocorrelación parcial..........................................................20
1.1.4 Modelos ARIMA para series estacionales.....................................................22
1.1.5 Identificación de Modelos Arima................................................................24
1.2 Procesos ARCH Y GARCH.............................................................................32
1.2.1 Proceso ARCH.........................................................................................34
1.2.2 Procesos GARCH....................................................................................37
1.3 Modelo de Redes Neuronales......................................................................41
1.3.1 Neurona biológica....................................................................................43
1.3.2 Red Neuronal Artificial.............................................................................43
1.3.3 Red de Backpropagation..........................................................................48
1.3.4 Regla de Aprendizaje..............................................................................49
2. ANÁLISIS DE RESULTADOS
2.1 Series financieras.......................................................................................57
2.2 Series estacionales y/o de producción.........................................................104
2.3 Series irregulares.....................................................................................121
3. CONCLUSIONES.............................................................................138
BIBLIOGRAFÍA..................................................................................147
3
LISTA DE FIGURAS
Figura 1: Proceso iterativo Box-Jenkins Figura 2: Neurona biológica Figura 3: Neurona artificial Figura 4: Funciones de activación RNA Figura 5: Precio promedio acción Bavaria Figura 6: Funciones de autocorrelación simple y parcial del precio promedio
de la acción de BAVARIA. Figura 7: Lambda Figura 8: Transformaciones serie precio promedio acción de Bavaria Figura 9: Pronóstico ARIMA precio promedio acción Bavaria Figura 10: Correlación residuales al cuadrado precio promedio acción Bavaria Figura 11: Modelación varianza condicional precio promedio acción Bavaria Figura 12: Comparación RNA del precio promedio de la acción de Bavaria Figura 13: Comparación errores RNA del precio promedio de la acción de
Bavaria Figura 14: Pronóstico RNA precio promedio acción Bavaria Figura 15: Comparación Pronósticos precio promedio acción Bavaria Figura 16: Precio promedio acción Argos Figura 17: Pronóstico ARIMA precio promedio acción Argos Figura 18: Correlación residuales al cuadrado precio promedio acción Argos Figura 19: Modelación varianza condicional precio promedio acción Argos Figura 20: Pronóstico RNA precio promedio acción Argos Figura 21: Comparación Pronósticos precio promedio acción Argos Figura 22: Precio promedio acción de Valbavaria Figura 23: Pronóstico ARIMA precio promedio acción Valbavaria Figura 24: Correlación residuales al cuadrado precio promedio acción
Valbavaria Figura 25: Modelación varianza condicional precio promedio acción Valbavaria Figura 26: Pronóstico RNA precio promedio acción Valbavaria Figura 27: Comparación Pronósticos precio promedio acción Valbavaria Figura 28: Índice general Bolsa de Colombia Figura 29: Pronóstico ARIMA del IGBC Figura 30: Correlación residuales al cuadrado IGBC Figura 31: Modelación varianza condicional IGBC Figura 32: Pronóstico RNA del IGBC Figura 33: Comparación Pronósticos del IGBC Figura 34: Producción aceite de palma Figura 35: Pronóstico ARIMA de producción de palma africana Figura 36: Pronóstico RNA de producción de palma africana Figura 37: Comparación Pronósticos de producción de palma africana Figura 38: Producción cacao en grano ($/toneladas) Figura 39: Pronóstico ARIMA de Producción cacao en grano ($/toneladas)
4
Figura 40: Pronóstico RNA de Producción cacao en grano ($/toneladas) Figura 41: Comparación Pronósticos de producción cacao($/tonelada) Figura 42: Precio promedio horarios compra de energía Figura 43: Pronóstico ARIMA precio promedio horarios compra de energía Figura 44: Pronóstico RNA 5 neuronas precio promedio horarios compra de
energía Figura 45 Pronóstico RNA 10 neuronas precio promedio horarios compra de
energía Figura 46: Comparación Pronósticos precio promedio horarios compra de
energía Figura 47: Ventas Cerveza Águila 300 cc Figura 48: Pronóstico ARIMA venta cerveza Aguila 300 cc Figura 49: Pronóstico RNA Ventas Cerveza Águila 300 cc Figura 50: Comparación Pronósticos Ventas Cerveza Águila 300 cc Figura 51: Ventas Cerveza Poker 300 cc Figura 52: Pronóstico ARIMA Ventas Cerveza Poker 300 cc Figura 53: Pronóstico RNA Ventas Cerveza Poker 300 cc Figura 54: Comparación Pronósticos Ventas Cerveza Poker 300 cc Figura 55: Ventas Cerveza Club Colombia 10 oz Figura 56: Pronóstico ARIMA Ventas Cerveza Club Colombia 10 Figura 57: Pronóstico RNA Ventas Cerveza Club Colombia 10 oz Figura 58: Comparación Pronósticos Ventas Cerveza Club Colombia 10 oz Figura 59: Ventas Pony Malta 350 cc Figura 60: Pronóstico ARIMA Ventas Pony Malta 350cc Figura 61: Pronóstico RNA Ventas Pony Malta 350 cc Figura 62: Comparación Pronósticos Ventas Pony Malta 350 cc
5
LISTA DE TABLAS
Tabla 1: Comportamiento de la FAS y la FAP para procesos AR, MA y ARMA Tabla 2: ESACF Tabla 3: Tabla teórica ESCAF para una serie ARMA(1,2) Tabla 4: MINIC Tabla 5: SCAN Tabla 6: Tabla SCAN teórica para un ARMA (2,2) Tabla 7: Media y varianza ARCH (1) Tabla 8: Media y varianza ARCH (q) Tabla 9: Media y varianza GARCH (1,1) Tabla 10: Prueba comportamiento de ruido blanco Tabla 11: Test de Dickey – Fuller Tabla 12: Cálculo de lambda –6 a 6 Tabla 13: Cálculo de lambda –1.5 a 1.5 Tabla 14: Funciones de autocorrelación simple y parcial del precio promedio
de la acción de BAVARIA Tabla 15: Prueba comportamiento de ruido blanco Tabla 16: Test de Dickey – Fuller Tabla 17: FAS y FAP de la diferencia del precio promedio de la acción de
BAVARIA Tabla 18: Test de Dickey – Fuller Tabla 19: Tabla SCAN Tabla 20: Tabla ESACF Tabla 21: Tabla MINIC Tabla 22: Estimación ARIMA(1,1,1) precio promedio acción de Bavaria Tabla 23: Estimación ARIMA(1,1,0) precio promedio acción de Bavaria Tabla 24: Comportamiento de los residuales Tabla 25: Estimación GARCH precio promedio acción Bavaria Tabla 26: Estadísticos MSE y U-Theil para el precio promedio de la acción de
BAVARIA Tabla 27: Estimación ARIMA precio promedio acción de Argos Tabla 28: Estimación GARCH precio promedio acción Argos Tabla 29: Estimación ARIMA precio promedio acción de Valbavaria Tabla 30: Estimación GARCH precio promedio acción Valbavaria Tabla 31: Estimación ARIMA del IGBC Tabla 32: Estimación GARCH del IGBC Tabla 33: Estimación ARIMA producción aceite de palma africana Tabla 34: Estimación ARIMA Producción cacao en grano ($/toneladas) Tabla 35: Estimación ARIMA precio promedio horarios compra de energía Tabla 36: Estimación ARIMA Ventas Cerveza Águila 300 cc Tabla 37: Estimación ARIMA Ventas Cerveza Poker 300 cc Tabla 38: Estimación ARIMA Ventas Cerveza Club Colombia 10 oz Tabla 39: Estimación ARIMA Ventas Pony Malta 350 cc Tabla 40: Comparación pronósticos modelos ARIMA y de Redes Neuronales
6
INTRODUCCIÓN
La teoría clásica de series temporales (metodología Box – Jenkins), desarrolla
el análisis estadístico a partir de un proceso estocástico estacionario, es decir,
con una media y varianza constante sobre el tiempo y cuya autocovarianza
depende únicamente de la longitud del rezago.
Sin embargo, el considerar la componente de varianza constante puede
suponer diversos problemas estadísticos cuando se realizan estimaciones
econométricas. Los modelos Generales Autorregresivos Condicionales
Heteroscedásticos GARCH, formulados en una primera aproximación por Engle,
proponen estudiar la varianza cuando esta no es invariable.
Estos modelos permiten considerar la información pasada de la variable y su
volatilidad observada como factor altamente explicativo de su comportamiento
presente y por extensión lógica de su futuro predecible; pues toman en cuenta
el contraste entre comportamientos de alta varianza en el error seguido de
periodos relativamente tranquilos.
La limitación de los procedimientos estadísticos tradicionales al suponer series
estacionarias y el aumento en la complejidad de los problemas a resolver hace
que se genere un interés por nuevas técnicas de predicción y análisis. Así, en
los últimos cincuenta años, los desarrollos tecnológicos han abierto la puerta a
7
la utilización de nuevas herramientas de cálculo para la predicción de series
temporales.
Los sistemas de cómputo usuales trabajan bajo la filosofía de sistemas
secuenciales desarrollados por Von Neuman, los cuales han mostrado ser
eficaces en la resolución de cálculos matemáticos; sin embargo, problemas
como el reconocimiento de imágenes y patrones en presencia de ruido o la
generalización de ideas, son difíciles de desarrollar para los sistemas de
cómputo que trabajan bajo esta filosofía.
Por el contrario, han tenido gran auge en años recientes aquellos métodos que
utilizan pequeñas unidades que individualmente desarrollan un simple sistema
de cálculo pero que interconectadas pueden resolver eficazmente complejos
problemas en los que los computadores convencionales han fallado. Dentro de
este tipo de herramientas se encuentran las Redes neuronales artificiales
(RNA) las cuales intentan reproducir el comportamiento del cerebro humano y
han sido usadas especialmente en la predicción y clasificación de problemas.
El objetivo de este trabajo es comparar los pronósticos de series temporales no
estacionarias que presentan diferentes comportamientos como estacionalidad,
irregularidad y presencia de varianza no constante para establecer bajo qué
comportamientos las redes neuronales artificiales realizan un mejor pronóstico
8
que los modelos desarrollados por la metodología ARIMA. La comparación de
las predicciones se realiza a través de los estadísticos MSE y U-Theil.
Se estudian en total 11 series compuestas por 4 financieras, 3 estacionales y/o
de producción y 4 irregulares. Dentro del primer grupo se encuentran las
series de los precios promedios de las acciones Bavaria, Argos, Valbavaria y el
Índice General de la Bolsa de Colombia. Con estas series además se realizó un
análisis GARCH para identificar la capacidad de pronóstico que se tiene al
prever volatilidades.
Como series estacionales y/o de producción se estudiaron la serie de aceite de
crudo de palma africana, la serie de cacao en grano ($/tonelada) y el precio
promedio en los horarios de energía de mercado mayorista ($/Kwh). Como
series irregulares se trabaja la venta de cerveza Aguila 300 cc, cerveza Poker
300 cc, cerveza Club Colombia 10 onzas y Pony Malta 350 cc.
En el primer capítulo presenta un marco teórico que introduce los conceptos
técnicos más importantes de los modelos Box –Jenkins, GARCH y de Redes
neuronales artificiales. Este capítulo es importante pues al lector le
proporcionará las bases del entendimiento del ambiente matemático que le
permitirá comprender con facilidad las secciones posteriores.
9
El segundo capítulo se dedica a la presentación de los resultados de los
mejores pronósticos realizados con los modelos anteriormente mencionados
para series no estacionarias; esta comparación se realiza a través del cálculo
de los estadísticos MSE y U-Theil.
Finalmente, en el tercer capítulo se presentan las conclusiones que se
obtuvieron en el desarrollo de la predicción de las series a través de las
metodologías objeto de análisis de este trabajo.
10
1. MARCO TEÓRICO
Una serie temporal es una secuencia finita de observaciones o datos ordenados
y equidistantes cronológicamente sobre una o varias características de una
única unidad observable en diferentes momentos o fechas. Generalmente se
representan como ti ZZZZ ......,, ,21 donde el subíndice i hace referencia a la
observación en un instante de tiempo y t determina la longitud de la serie.
(www.ucm.es)
El análisis univariante de series de tiempo consiste en describir la evolución
temporal de alguna característica de interés de una unidad observable y prever
su evolución en el futuro, utilizando solamente información de su
comportamiento pasado.
En este capítulo se realiza una descripción de los conceptos básicos de los
modelos de predicción de series de tiempo. La primera sección es un
recorrido por la metodología ARIMA; la sección dos trabaja el comportamiento
de los procesos GARCH para series de tiempo financieras debido a que la
evidencia empírica ha mostrado que el análisis clásico de los modelos ARIMA
para series temporales no ha obtenido buenos resultados en las predicciones
de corto plazo para este tipo de series. Finalmente, en la tercera sección se
11
desarrolla una introducción a las series neuronales en el que se encuentra el
algoritmo de Backpropagation.
1.1 MODELOS ARIMA
El método más utilizado para el análisis de series de tiempo es el desarrollado
por los modelos ARIMA presentado por E.P. Box y Gwilym Jenkins en 1.972
(BOX, 1.976) para el estudio de series de tiempo estacionarias, es decir,
aquellas series que tienen una media y varianza constante sobre el tiempo y
cuya autocovarianza depende únicamente de la longitud del rezago.
Debido a que el análisis de la serie depende de su propia historia es necesario
estudiar el tipo de proceso intrínseco en ella, este puede ser de carácter
autorregresivo (AR), es decir, cuando los valores de la serie no se explican por
otras variables independientes como ocurre en regresión lineal, sino por
observaciones de la misma serie en periodos anteriores y ponderados de
acuerdo a unos coeficientes.
De igual forma, las series pueden seguir un proceso de promedio móvil (MA)
los cuales tratan de explicar cómo fluctuaciones alrededor del punto de
equilibrio de la serie, pueden ser causadas por eventos inesperados que
pueden no asimilarse de manera instantánea sino que se presentan luego de
un cierto periodo de tiempo . En otros casos es la combinación de procesos
12
autorregresivos y de promedios móviles los cuales son conocidos como
procesos ARMA.
1.1.1 Procesos autorregresivos. Cuando el valor de una serie en un
periodo de tiempo corriente es una función de los valores previos
inmediatamente anteriores a t más un error ponderado por coeficientes
autorregresivos pφφ ,...1 se habla de procesos autorregresivos de orden p. Por
ejemplo, una serie tZ puede expresarse como una relación:
ttt aZZ += −11φ (1)
lo que equivaldría a decir que tZ es una función de una porción de 1−tZ dada
por 1φ más un término de error ta , esta expresión es equivalente a un proceso
AR(1). En forma general, un proceso AR(p), es decir, que incluye p rezagos,
se describe como:
tptpttt aZZZZ ++++= −−− φφφ ...2211 . (2)
Utilizando un operador de rezago B esta misma expresión puede escribirse:
( ) tp
pt aBBBZ =−−−− φφφ ...1 221 (3)
donde B se define mediante la relación: 1−= tt ZBZ .
13
Un proceso AR(p) es estacionario sí y solo sí las raíces de la ecuación
característica 0...1 221 =−−−− p
p xxx φφφ se encuentran por fuera del círculo
unitario. (WEI, 1.989).
1.1.2 Procesos de promedios móviles. La idea básica de los modelos de
promedios móviles introducidos por Yule (1.926) y Slutzky (1.927)
(GUERRERO, 1.991) consiste en representar un proceso estocástico { }tZ , cuyos
valores pueden ser dependientes unos de otros, como una suma infinita
ponderada de choques aleatorios independientes { }ta . Si un proceso
estocástico sigue un esquema
qtqtttt aaaaZ −−− −−−−= θθθ ...2211 (4)
equivalente a la expresión ( )qqtt BBBaZ θθθ ...1 2
21 −−−= donde qθθθ ,..., 21 son las
ponderaciones asociadas con los choques aleatorios en los periodos t, t-1, ...t-
q respectivamente y ta ruido blanco, es decir, un proceso con media cero y
varianza constante 2aσ , entonces, se habla de un modelo MA(q). En forma
general todo proceso MA es estacionario.
14
Para que el proceso sea invertible se requiere que las raíces de
0...1 221 =−−−− q
qxxx θθθ estén por fuera del círculo unitario. (WEI, 1.989).
1.1.3 Procesos ARIMA. En forma general es la combinación de procesos
autorregresivos y de promedios móviles, se representa mediante
( ) ( )qqt
ppt BBBaBBBZ θθθφφφ ...1...1 2
212
21 −−−=−−−− (5)
o de forma abreviada
( ) ( ) tt aBZB θφ = . (6)
Para que este proceso sea estacionario se requiere que las raíces de
( ) 0=xφ estén fuera del círculo unitario y para que sea invertible la condición es
que las raíces de la ecuación ( ) 0=xθ se encuentren también fuera del círculo
unitario, este modelo se denomina un ARMA (p,q) (WEI, 1.989).
El proceso del modelo ARIMA (p,d,q) de Box-Jenkis incluye un proceso
autorregresivo, un proceso integrado y un proceso de promedio móvil. El
orden de integración del modelo el cual se representa por I(d) hace referencia
básicamente al número de diferenciaciones que se utilizan para estabilizar la
media de la serie; por ejemplo, una serie que se diferencie una vez puede
escribirse como un proceso ARIMA (p,1,q), si por el contrario, no se diferencia
15
la serie se define como un proceso ARIMA (p,0,q) el cual es equivalente a un
ARMA (p,q).
La metodología de Box-Jenkis requiere que las series de tiempo sean
estacionarias; en caso de que no lo sean, éstas pueden ser transformadas y
así no se presenta inconvenientes para ser trabajadas. Las series pueden ser
no estacionarias por presentar características como picos, tendencias o
comportarse como caminatas aleatorias. Para determinar la estacionariedad
de una serie, se puede acudir al test de Dickey-Fuller (YAFFE, 2.000).
Una forma de ejecutar el test es realizar una regresión que contenga una
media α , un término de rezago 1−tZ , una tendencia determinística tβ y un
término de error ta :
ttt atZZ +++= − βα 1 (7)
realizando una primera diferencia a tZ se encuentra que
( ) tttt aZZ ++−+=∇ − βρα 11 (8)
siendo ∇ el operador de diferencia.
Este modelo forma las bases del test de Dickey-Fuller. Para detectar la forma
estocástica de no estacionariedad, el test de Dickey-Fuller supone una
16
regresión de una serie en su primer rezago y de esta forma verifica si el
coeficiente de regresión 1ρ rezagado es significativamente igual a la unidad.
Por ejemplo si se considera el modelo
ttt aZZ += −11ρ (9)
Bajo hipótesis nula 11 =ρ , entonces ttt aZZ =− −1 . Si no se rechaza la hipótesis
nula, entonces se infiere que la generación de los datos tienen raíz unitaria y
que el proceso no es estacionario.
La estacionariedad permite identificar patrones característicos de los procesos,
las funciones de autocorrelación simple (FAS) y parcial (FAP) son una
herramienta útil que permiten identificar los órdenes de los mismos.
1.1.3.1 Función de autocorrelación simple. Una de las funciones más
útiles cuando se trabaja con modelos ARMA es la función de autocovarianza ya
que permite identificar el proceso subyacente a la serie. Esta función muestra
la covarianza en una serie entre una observación y otra de una misma serie en
k rezagos, es decir, la autocovarianza en el rezago k es la autocovarianza entre
una serie tZ en el tiempo t y la misma serie ktZ − rezagada k periodos de tiempo
(YAFFE, 2.000). Esto puede formularse como:
17
( ) ( ) ( )( )ZZZZZZEk kt
kn
ttktt −−== −
−
=− ∑
1,γ (10)
donde Z es el promedio de la serie de tiempo.
La función de autocorrelación puede ser construída como una estandarización
de la función de autocovarianza. De esta forma,
( )
( )( )
( )n
ZZ
kn
ZZZZ
kFASn
tt
kt
kn
tt
⎟⎠
⎞⎜⎝
⎛−
−
⎟⎠
⎞⎜⎝
⎛−−
=
∑
∑
=
−
−
=
1
2
1
(11)
De la función de autocorrelación emergen diferentes características en los
patrones de comportamiento autorregresivos y de promedio móvil.
Por ejemplo para un proceso AR(1), ( ) 0=tZE , la varianza se expresa como
( )2
2
0 1 φσ
γ−
= a (12)
y la autocorrelación de la forma
18
kkk φ
γγρ ==
0
para k=0, ,...2,1 ±± (13)
lo cual indica que, conforme k>0 crece, la función de autocorrelación FAS
tiende a cero con decaimiento exponencial cuando 10 << φ y con signos
alternados cuando 01 <<− φ . Para que un proceso AR(1) sea estacionario
.1<ρ (YAFFE, 2.000)
En este caso 1φ puede interpretarse como la autocorrelación de primer orden
para un proceso autorregresivo de primer orden; de manera inductiva se
obtiene que la forma general de la ( ) kkFAS 1φ= . El decaimiento exponencial
para los valores de la función de autocorrelación determina las características
de los procesos autorregresivos.
La función de autocorrelación de un AR(p) está dada por:
pppp
pp
pp
φρφρφρ
ρφφρφρ
ρφρφφρ
+++=
+++=
+++=
−−
−
−
......
......
2211
22112
11211
(14)
para las primeras p autocorrelaciones en función de los parámetros
autorregresivos pφφ ,...1 , las demás autocorrelaciones están dadas por:
19
1pk para +≥+++= −−− pkpkkk ρφρφρφρ ...2211 (15)
Si la magnitud del parámetro autorregresivo es igual a la unidad, entonces el
proceso es no estacionario y puede representar una caminata aleatoria, pero si
su valor es mayor que uno, entonces presenta tendencia estocástica o el
proceso se encuentra fuera de control.
Para los procesos de promedios móviles se presentan características diferentes
en los patrones de la función de autocorrelación. Si se supone que se tiene un
proceso de promedio móvil de primer orden, es decir un MA(1), la
autocovarianza está dada por:
[ ] 211, att ZZE σθ−=− (16)
y la varianza por
( )21
2 1 θσ +a (17)
La autocorrelación es igual a la covarianza dividida por el proceso de varianza.
Para el primer orden de un promedio móvil la función de autocorrelación para
el primer rezago es:
21
1
1)1(
θθ
+−
=FAS (18)
20
Si se calcula para el segundo rezago se tiene que [ ] 0, 2 =−tt ZZE , así la función
de autocorrelación para los rezagos mayores de uno son iguales a cero. Esto
significa que el proceso es de memoria finita, en este caso solo de un periodo.
En forma general la función de autocorrelación para el proceso MA (q) tiene
una memoria limitada a q periodos .
⎪⎩
⎪⎨
⎧
+>
=+++++++−
=+
1qk si
q1,...,k si
0...1...
222
21
11qqkk
k θθθθθθθ
ρ (19)
1.1.3.2 Función de autocorrelación parcial. Debido a que la determinación
de un modelo a partir de la función de autocorrelación simple no es tan
evidente, por ejemplo, no es fácil distinguir en algunos casos un AR(1) de un
AR(2) y en forma general los modelos AR(p) con solo la FAS; se requiere de
otro instrumento que permita identificar los procesos autorregresivos y de
promedio móvil de manera más clara, para esto se utiliza la función de
autocorrelación parcial, la cual adquiere determinadas características
dependiendo del orden del proceso y del tipo de parámetros involucrados.
21
Si se considera el proceso autorregresivo de primer orden, se tiene que
( ) kkFAS 1φ= (YAFFE, 2.000), para k=0,1,...; si el interés es cuantificar la
dependencia entre tZ y 2−tZ sin tener en cuenta 1−tZ entonces se calcula
( )( )22
21
21122
11 −−
−−−−−
−−
−=
ztztztzt
ztztztztztztztzt
ρρρρρρ (20)
Para un proceso de promedio móvil de primer orden, la función de
autocorrelación parcial del k-ésimo rezago es igual a un conjunto de
ecuaciones:
41
21
21
1)2(
θθθ
++−
=FAP (21)
( )( )12
1
211
11)( +−
−−= k
k
kFAPθ
θθ (22)
Para determinar el modelo ARIMA correspondiente a la serie, es necesario
tener en cuenta tanto la función de autocorrelación simple como la parcial de
la serie; en la Tabla 1 se realiza un resumen para la identificación (GUERRERO,
1.991).
22
TABLA 1: Comportamiento de la FAS y la FAP para procesos AR, MA y ARMA
Proceso FAS FAP
AR(p) Convergencia a cero, con comportamiento dictado por la ecuación ( ) 0=kB ρφ , para
pk ≥
Solamente las primeras p autocorrelaciones parciales son distintas de cero
MA(q) Sólo las primeras q autocorrelaciones son distintas de cero.
Sucesión infinita convergente a cero.
ARMA
(p,q)
Comportamiento irregular de las primeras q autocorrelaciones y después convergencia a cero de acuerdo con
( ) 0=kB ρφ , para pk >
Sucesión infinita convergente a cero
Fuente: (GUERRERO, 1.991).
1.1.4 Modelos ARIMA para series estacionales. Por una serie estacional
estacionaria se entenderá una serie de tiempo que, aparte de contener una
tendencia (y/o ciclos) de larga duración, muestre fluctuaciones que se repiten
constantemente durante un cierto periodo de tiempo (BOX, 1.976), por
ejemplo, el crecimiento de las ventas que ocurre cada fin de año o los periodos
de lluvias que se presentan en determinados meses.
Las representaciones para series estacionales de tipo ARIMA (P,D,Q)S para
series estacionales está dada por:
( ) ( ) ( ) tS
tDS
S aBZB Θ=∇Φ (23)
donde ( )SBΦ representa a un polinomio autorregresivo estacional de orden P,
( )SBΘ denota a un polinomio de promedios móviles estacional de orden Q y la
23
sucesión { }ta es ruido blanco. El operador de diferencia estacional DS∇ se
define como:
( ) tDS
tDS ZBZ −=∇ 1 (24)
Para tener en cuenta ambos tipos de efectos, estacionales y no–estacionales
Box y Jenkins (BOX, 1.976) propusieron un modelo general del tipo
( ) ( ) ( ) tS
tDS
S BZB αΘ=∇Φ (25)
donde las variables { }tα no se suponen ruido blanco, sino que son generadas
por un proceso ARIMA (p,d,q), es decir,
( ) ( ) ttd aBB θαφ =∇ (26)
con { }ta un proceso de ruido blanco. De las expresiones (25) y (26) se
obtiene el modelo multiplicativo estacional.
( ) ( ) ( ) ( ) ( ) tS
tDdS aBBZBB Θ=∇∇Φ θφ (27)
denotado por ARIMA (p,d,q)x (P,D,Q)S. Con este modelo por ejemplo, no solo
se explican las relaciones dentro de los años dada por (25) sino entre los años
dada por (26).
24
1.1.5 Identificación de Modelos ARIMA. Box y Jenkins propusieron la
identificación de los modelos ARIMA a través del un ajuste en cuatro etapas
(BOX, 1.976).
Figura 1: Proceso iterativo Box-Jenkins
ETAPA I.......................................
Identificación del Modelo ARIMA
ETAPA II........................................
Estimación de Parámetros
ETAPA III.........................................
Verificación de Supuestos
ETAPA IV.........................................
Uso del modelo
Es adecuadoel modelo?
SI
NO
Proceso iterativo de Box-Jenkins para construir modelos
ETAPA I.......................................
Identificación del Modelo ARIMA
ETAPA II........................................
Estimación de Parámetros
ETAPA III.........................................
Verificación de Supuestos
ETAPA IV.........................................
Uso del modelo
Es adecuadoel modelo?
SI
NO
ETAPA I.......................................
Identificación del Modelo ARIMA
ETAPA II........................................
Estimación de Parámetros
ETAPA III.........................................
Verificación de Supuestos
ETAPA IV.........................................
Uso del modelo
Es adecuadoel modelo?
SI
NO
Proceso iterativo de Box-Jenkins para construir modelos
Fuente: (BOX, 1.976)
La primera etapa consiste en identificar el modelo ARIMA a través de la
determinación de los órdenes de los polinomios autorregresivos p y de
promedios móviles q, además se requiere decidir qué transformaciones se
requieren para volver la serie estacionaria.
25
Cuando la estructura de la serie no es estacionaria, es preciso detectar el tipo
de transformación necesaria para conseguir un proceso ARMA, para esto se
determina si: (1) se requiere transformar la serie para que la varianza sea
constante, (2) diferenciar la serie para que tenga media constante, lo que
equivale a determinar el valor del parámetro d el cual hace referencia al
número de diferenciaciones sobre la serie y generalmente no son más de dos y
(3) eliminar la estacionalidad de la serie a partir de diferencias estacionales.
Cuando la serie es estacional con periodo s, se aplica una diferencia de ( )sB−1
para convertirla en estacionaria.
Uno de los instrumentos utilizados para volver la serie estacionaria se refiere a
estabilizar la varianza, dicho método sugiere elegir la potencia λ de tal manera
que satisfaga la relación:
λµσ
−1t
t = constante para t=1,2,...,N (28)
en donde tσ y tµ representan la desviación estándar y la media de la
variable tZ y N es el número de observaciones que se tiene para la serie { }tZ .
La idea es dividir la serie en H grupos diferentes y calcular su coeficiente de
variación, la potencia asociada con el menor de ellos hará que la
transformación resultante para la serie sea:
26
( )( )
0 si 0 si
⎩⎨⎧
=
≠=
λλλ
t
tt Z
ZZT
log(29)
Existen diferentes métodos que pueden tentativamente identificar los órdenes
de procesos estacionarios ARMA, por ejemplo La Función Extendida de
Autocorrelación Simple (ESACF) (www.sas.com) la cual se basa en la iteración
de las estimaciones de mínimos cuadrados de los parámetros autorregresivos.
Tsay y Tiao (1.984) (WEI, 1.976) introducen el concepto del ESACF, a partir
del estudio de un conjunto de regresiones iteradas. Específicamente para
m=0,1,2,..., sea ( ) m1,...,i , =jiφ , el estimador de mínimos cuadrados ordinarios
del la jth iteración de una regresión AR(m) de un proceso ARMA tZ . Se define
la mth ESACF ( )mjr de tZ como el modelo de función de autocorrelación para
la serie transformada.
( ) ( ) ( )( ) tmjjjt ZBY φφ ˆ...ˆ1 1 −−−= (30)
Para identificar el orden del proceso, es útil colocar las autocorrelaciónes ( )mjr
en una matriz de dos vías como se muestra en la TABLA 2 donde la primera
fila corresponde a la ( )0jr dada por la función de autocorrelación simple de tZ ,
la segunda fila corresponde al primer ESACF ( )1jr y así sucesivamente. Las
columnas son numeradas de 0, 1,... para especificar el orden del proceso AR y
27
las columnas son numerada en forma similar para los órdenes de los procesos
móviles.
Tabla 2: ESACF
M A
A R 0 1 2 3 · ·
0 r 1 (0 ) r 2 (0 ) r 3 (0 ) r 4 (0 ) · ·
1 r 1 (1 ) r 2 (1 ) r 3 (1 ) r 4 (1 ) · ·
2 r 1 (2 ) r 2 (2 ) r 3 (2 ) r 4 (2 ) · ·
3 r 1 (3 ) r 2 (3 ) r 3 (3 ) r 4 (3 ) · ·
· · · · · · ·
· · · · · · ·
Para identificar el modelo asociado con un ARMA (1,2), se presenta en la Tabla
3 por ejemplo, los términos significativos con X y un patrón triangular con
términos no significativos 0. El vértice en la posición (1,2) donde comienzan
los ceros determina la estimación del modelo. Más generalmente, para un
identificar un proceso ARMA (p,q), se localiza el vértice del triángulo donde
empiezan los ceros, el cual se ubica en la posición (p,q).
Tabla 3: Tabla teórica ESCAF para una serie ARMA(1,2)
M A
A R 0 1 2 3 4 5 6 7
0 * X X X X X X X
1 * X 0 0 0 0 0 0
2 * X X 0 0 0 0 0
3 * X X X 0 0 0 0
4 * X X X X 0 0 0
X = s ig n if ic a n t te rm s
0 = in s ig n if ic a n t te rm s
* = n o p a tte rn
28
Otro método utilizado para identificar los modelos ARIMA es el Criterio de
Mínima Información (MINIC) el cual identifica el orden de un proceso ARMA
estacionario e invertible.
Una tabla MINIC es construida a partir del criterio de información Bayesiana
BIC. Para determinar los procesos autorregresivos y de media móvil se toma
el modelo (p,q) que presente el menor valor en el cálculo de regresión por
medio del método de mínimos cuadrados ordinarios.
Para test de procesos autorregresivos y de promedio móvil con pocas
observaciones puede llevar a que ocurran valores negativos del BIC (m,j). La
idea es identificar en la tabla los menores valores y estos se asocian a la
identificación de los órdenes autorregresivos y de promedio móvil.
Tabla 4: MINIC
M A
A R 0 1 2 3 · ·
0 B IC ( 0 ,0 ) B IC (0 ,1 ) B IC (0 ,2 ) B IC ( 0 ,3 ) · ·
1 B IC ( 1 ,0 ) B IC (1 ,1 ) B IC (1 ,2 ) B IC ( 1 ,3 ) · ·
2 B IC ( 2 ,0 ) B IC (2 ,1 ) B IC (2 ,2 ) B IC ( 2 ,3 ) · ·
3 B IC ( 3 ,0 ) B IC (3 ,1 ) B IC (3 ,2 ) B IC ( 3 ,3 ) · ·
· · · · · · ·
· · · · · · ·
El método de la menor correlación canónica (SCAN) también ayuda a
identificar los órdenes de un proceso ARMA estacionario e invertible.
29
Una tabla SCAN es construída usando c(m,j) para determinar los valores
propios que son significativamente distintos de cero. Los ordenes ARMA son
tentativamente identificados por encontrar un (máximo) patrón de rectángulo
en el cual los valores propios son no significativos para todos las pruebas de
órdenes dpm +≥ y qj ≥ .
Pueden existir más de un par de valores (p+d , q) que permita identificar el
patrón rectangular.
Tabla 5: SCAN
M A
A R 0 1 2 3 · ·
0 c (0 ,0) c (0,1) c (0,2 ) c (0,3 ) · ·
1 c (1 ,0) c (1,1) c (1,2 ) c (1,3 ) · ·
2 c (2 ,0) c (2,1) c (2,2 ) c (2,3 ) · ·
3 c (3 ,0) c (3,1) c (3,2 ) c (3,3 ) · ·
· · · · · · ·
· · · · · · ·
En este evento, la parsimonia, entendida como que a menor parámetros el
modelo es mejor, y el número de ítems no significativos en el patrón
rectangular ayudan a determinar el orden del modelo. La Tabla 6 por ejemplo,
representa un patrón teórico asociado con un modelo ARMA(2,2). Se muestra
los valores significativos con X y los no significativos con cero.
30
Los ceros pueden verse en forma de rectángulo con el vértice en la posición
(2,2). Más generalmente, para identificar un proceso ARMA (p,q), el vértice
del rectángulo donde empieza los ceros está en la posición (p,q).
Tabla 6: Tabla SCAN teórica para un ARMA (2,2)
M A
AR 0 1 2 3 4 5 6 7
0 * X X X X X X X
1 * X X X X X X X
2 * X 0 0 0 0 0 0
3 * X 0 0 0 0 0 0
4 * X 0 0 0 0 0 0
X = significant term s
0 = insignificant te rm s
* = no pattern
Una vez determinada la posible identificación del modelo se realiza la segunda
etapa que consiste en la estimación de los parámetros AR y MA para el
modelo por máxima verosimilitud. A partir de la selección del mejor modelo
ARIMA, se procede a una etapa de verificación la cual reside básicamente en
el análisis de los residuales. En caso de que exista más de un modelo
seleccionado para la serie, se escoge el que presente los menores estadísticos,
Akaike's information criterion (AIC) y Bayesian Information criterion (BIC)♣.
♣ AIC es computado como -2 ln(L) + 2 k donde L es la función de máxima verosimilitud y k es el número de parámetros libres y SBC es computado como y -2ln(L) + ln(n) k donde n es el número de residuales que puede ser computado para la serie de tiempo
31
En la etapa de verificación se espera que los residuales ta , los cuales se
definen como la diferencia entre los valores observados y los estimados en la
serie, tengan un comportamiento como de ruido blanco, es decir, con media
cero y varianza constante; además estas variables aleatorias deben ser
mutuamente independientes.
Para este caso se utiliza el estadístico Q de Ljung y Box (1.978) (GUERRERO,
1.991) para realizar una prueba de significancia conjunta de k
autocorrelaciones simultáneamente. Si el valor que arroja el estadístico se
rechaza con un nivel de significancia α , se pasa a la etapa de pronóstico de la
serie, de lo contrario hay que volver a la etapa de identificación del modelo.
( )( ) ( )
( )kpdN
arpdNpdNQ
K
kk
−−−
+−−−−=
∑=1
22 (31)
donde:
p=orden del proceso autorregresivo
d= número de diferencias par la serie
k= número del rezago
N= número total de observaciones
32
Aunque se verifica además que el comportamiento de los residuales tenga una
distribución normal, en muchos casos el alejamiento de este supuesto no
parece presentar mayor inconveniente.
Un buen pronóstico se basa principalmente en la minimización del cuadrado
medio del error; se trata entonces de escoger el pronóstico ( )sZ de tal forma
que [ ]2)(ˆ sZZE st −+ sea mínima, donde t se refiere al periodo actual y s al
número de periodos posteriores en el tiempo que se espera predecir, es decir,
[ ]1,1 ...,)( ZZZZEsZ ttst −+= (32)
De la expresión anterior se puede deducir que el pronóstico se basa en la
información disponible hasta el periodo t.
1.2 PROCESOS ARCH Y GARCH
En la sección anterior se vio como la selección de un buen modelo y su
respectiva predicción están asociados al comportamiento de los errores. En
general, los modelos econométricos convencionales asumen que la varianza
del término de error es constante, sin embargo, la evidencia empírica ilustra
que muchas series de tiempo exhiben periodos de grandes volatilidades
seguidos por otros de relativa tranquilidad (ENDERS, 1.995). Bajo estas
condiciones el supuesto de homoscedasticidad es inapropiado, es por esto que
se han utilizado procesos denominados GARCH.
33
La utilidad de estos procesos está dada, por ejemplo, en el área de inversión
en el mercado de capitales donde los retornos y sus varianzas son
determinantes para los tenedores de activos. La consideración de la varianza
incondicional o de largo plazo es inapropiada para transacciones de un solo
periodo (t, t+1) o en un lapso de tiempo muy corto.
Una aproximación para el pronóstico de la varianza es acudir a la introducción
de una variable independiente que colabore con la predicción de la volatilidad.
En el caso más simple,
ttt xaZ 11 ++ = (33)
donde 1+tZ es la variable de interés en el periodo t+1, 1+ta un término de
disturbio (ruido blanco) con varianza 2σ y tx una variable independiente que
puede observarse en el periodo t.
Si 21 −− == ttt xxx son valores constantes, la serie tZ es un proceso de ruido
blanco con varianza constante, pero cuando la realización de la serie { }tx no
siempre es igual, la varianza condicional de 1+tZ para un valor observable de tx
está dada por:
( ) 221 σttt xxZVar =+ (34)
34
La varianza condicional de 1+tZ es dependiente del valor de tx . Si { }tx exhibe
una correlación positiva, de igual modo sucederá con la varianza condicional de
la secuencia { }tZ , de manera que la introducción de esta secuencia permite
explicar la volatilidad de la secuencia { }tZ . La dificultad de esta selección
radica en que asume una causa específica por el cambio de varianza, lo cual en
muchos casos es difícil de especificar.
1.2.1 Proceso ARCH. Un modelo preferible de utilizar es uno que reconozca
que tanto la media como la varianza condicional puede evolucionar sobre el
tiempo (Enders, 1.995). Por ejemplo:
2110
*
−+=
=
tt
ttt
Zcch
haZ con varianza del residual igual a 1. (35)
La anterior representación se puede denotar como un modelo de
Heteroscedasticidad Condicional Autorregresivo de orden uno ARCH (1).
El modelo ARCH (1) supone que la varianza condicional de los errores tiene
una estructura similar a un AR(1) y su comportamiento depende únicamente
del último término. Se requiere que 00 ≥c y 10 1 <≤ c en razón a que una
desviación estándar es positiva y para mantener la estacionariedad en tZ con
35
una varianza finita; en el caso en que 11 =c tZ es estacionario pero la varianza
infinita.
Las medias y las varianzas tanto incondicional (Marginal) como condicional
tienen la siguiente forma, teniendo en cuenta que ta es ruido blanco (ARCE,
1.998).
Tabla 7: Media y varianza ARCH (1)
Marginal Condicional
Media ( ) 0* 2110 =⎟
⎠⎞
⎜⎝⎛ += −ttt ZccaEZE
( ) ( ) ( ) 012
1101 =+= −−− ttttt aEZccZE
Varianza ( ) ( )( ) 2
1
02110
221
* attt ccZccaEZE σ−
=+= − ( ) ( ) 22110
21 attt ZccZE σ−− +=
Como puede observarse, la media en ambos casos es constante e igual a cero,
la varianza marginal es constante, mientras que la varianza condicional no es
fija pues depende de los valores que haya tomado 21−tZ .
La función de autocovarianza es nula para todos los retardos que se
consideren, mientras que es distinta de cero para los valores al cuadrado del
mismo proceso tZ generado.
La autocovarianza de tZ para el retardo k se puede calcular como:
36
( ) ( ) ( ) 02110 =+== −−− ktttktt ZZccaEZZEkγ (36)
De este modo, la función de autocorrelación es 0=kρ , indicando que el
proceso ARCH es no correlacionado pero no necesariamente independiente.
Por otro lado, la función de autocovarianza para la serie al cuadrado presenta
valores distintos de cero. Si 11 <c entonces kk c1=ρ para todo k y si 11 ≥c , el
proceso no es estacionario y carece de función de autocorrelación; debido a
esto puede que el proceso no presente correlación en su forma lineal pero si en
su forma cuadrática.
Especificación de un modelo ARCH(q)
El proceso ARCH(q) viene definido por la siguiente expresión:
∑=
−+=
=q
itit
ttt
Zcc
aZ
1
210
2σ
σ (37)
Donde se presentan las siguientes restricciones:
• ta es un proceso idénticamente distribuido con media cero y varianza
igual a uno
37
• Los parámetros 00 >c y 1≥ic para i=1, ...q. Además para cumplirse la
condición de estacionariedad en la media, la suma de todos los
parámetros debe ser menor que la unidad.
• Si ta se distribuye normal, tZ es condicionalmente normal y su varianza
es 2tσ .
De forma similar al proceso ARCH(1), un proceso ARCH(q) tiene las siguientes
características (ARCE, 1.998), que son extendidas del caso de orden 1 al caso
de orden q:
Tabla 8: Media y varianza ARCH (q)
Marginal Condicional
Media ( )
( ) 0
...* 22110
=
⎟⎠⎞⎜
⎝⎛ +++= −−
t
qtqttt
ZE
ZcZccaEZE
( ) ( ) ( )( ) 0
...
1
122
1101
=
+++=
−
−−−−
tt
ttqtqttt
ZE
aEZcZccZE
Varianza ( ) ( )( )( ) 2
1
02
22110
22
1
...*
at
qtqttt
ccZE
ZcZccaEZE
σ−
=
+++= −−
( ) ( ) 222
1102
1 ... aqtqttt ZcZccZE σ−−− +++=
1.2.2 Procesos GARCH. Bollerslev(1.986) (ENDERS, 1.995) extendió el
trabajo original de Engle e incluyó una generalización de la varianza
condicional de forma tal que ésta siguiera un modelo estacionario ARMA. Este
modelo se conoce momo ARCH generalizado o GARCH(p,q)
38
El modelo ARCH(q) puede presentar dificultades en el caso de que el número
de retardos que se deban utilizar sea muy elevado como puede suceder con
series financieras; lo que lleva a un engorroso número de iteraciones para
alcanzar una solución al sistema planteado, de manera que es más
conveniente la utilización de un proceso GARCH(p,q) el cual puede escribirse
como:
∑∑=
−=
− ++=
=p
jjtj
q
iitit
ttt
wZcc
aZ
1
2
1
20
2 σσ
σ (38)
Con lo cual un modelo ARCH(q) sería un caso especial del modelo GARCH en el
momento en que los parámetros jw sean iguales a cero.
El modelo GARCH(1,1) tiene las siguientes características:
• ta es un proceso idénticamente distribuido con media cero y varianza
igual a uno
• Los parámetros 00 >c y 0, ≥ji wc para i=1,...,q y j=1,...,p. Además
para cumplirse la condición de estacionariedad en la media, la suma de
todos los parámetros debe ser menor a la unidad.
Para el proceso GARCH(1,1) (ARCE, 1.998) se tiene que:
39
Tabla 9: Media y varianza GARCH (1,1)
Marginal Condicional
Media ( )
( ) 0
* 211
2110
=
⎟⎠⎞⎜
⎝⎛ ++= −−
t
tttt
ZE
wZccaEZE σ
( ) ( ) ( )( ) 01
12
112
1101
=
++=
−
−−−−
tt
tttttt
ZEaEwZccZE σ
Varianza ( ) ( )( ) 2
11
02
22
1 at
tt
wcc
ZE
EZE
σ
σ
−−=
=
( ) 221 ttt ZE σ=−
La interpretación del modelo GARCH (1,1) , indica una primera ecuación donde
la variable tZ depende de su varianza multiplicada por un término de ruido
blanco y una segunda ecuación que donde la varianza está determinada por
tres términos definitivos:
a) Un valor constante, definido como 00 >c , cuya interpretación
corresponde a un valor de esta iniciación alrededor del cual se presenta
fluctuaciones aleatorias; también puede verse como un valor medio o de
largo plazo sobre el que se presentan modificaciones por los otros dos
sumandos.
b) Un sumando de 11 −tZc , que indica una perturbación sobre el periodo
anterior (Término ARCH)
c) Un sumando 211 −tw σ que indica una perturbación sobre la varianza del
periodo anterior (Término GARCH)
40
Para la construcción de modelos ARCH y GARCH se sigue un proceso de
identificación de efectos ARCH el cual se realiza después de ajustar el mejor
modelo ARIMA. Puede ser que los errores no estén correlacionados, sin
embargo, al elevarlos al cuadrado se podrá ver que no necesariamente son
independientes lo que se refleja en su función de autocorrelación.
Luego de encontrar los errores al cuadrado 2a se calcula la varianza de los
residuales ( )2σ la cual se define como
T
aT
t∑
== 1
2
2ˆ
σ (39)
donde T es el número de residuales. Luego se calcula y grafica la función de
autocorrelación simple de los residuales al cuadrado definida como:
( )( )( )
( )∑
∑
=
+=−
−
−−= T
tt
T
ititt
a
aai
1
22
1
2222
ˆˆ
ˆˆˆˆ
σ
σσρ (40)
Finalmente si existen valores que son significativamente distintos de cero,
entonces esto es indicio de que se esta trabajando con errores GARCH.
41
1.3 MODELO DE REDES NEURONALES
Los procesadores convencionales trabajan de forma secuencial lo que les
permite ser ágiles en cálculos matemáticos, sin embargo, actividades como el
reconocimiento de voz o de imágenes son tareas que el computador no ha
podido desarrollar con facilidad. Por otro lado, los desarrollos en la biología
han mostrado la capacidad de aprendizaje del cerebro para el cual estas
últimas actividades son cotidianas, esto se debe a que responde a un
procesamiento no lineal y paralelo. Este tipo de aprendizaje inspira un
enfoque diferente de resolver problemas a través de distintas herramientas
entre las que se encuentran las Redes Neuronales Artificiales (RNA), las cuales
intentan modelar la información como lo hacen los sistemas nerviosos de los
seres vivos.
Como definición formal (HAYKIN, 1.994) se tiene que una RNA es:
Una red neuronal es un procesador de cálculo distribuido que tiene una
tendencia a almacenar conocimiento experimental, existiendo la posibilidad de
usar este conocimiento. Este procesador se parece al cerebro en dos aspectos:
a) El conocimiento es adquirido a través de un proceso de aprendizaje
regido por un algoritmo de aprendizaje (learning algorihtm)
42
b) Las conexiones entre los elementos base (neuronas) conocidos como
pesos sinápticos son usados para el almacenamiento de este
conocimiento.
Se estima que el cerebro humano está compuesto por unas 100.000 millones
de células nerviosas o neuronas conectadas unas con otras y responsables del
control de todas las funciones mentales (ENCARTA, 2.003). Su interconexión
paralela hace que las neuroredes artificiales que tratan de imitar su
comportamiento tengan una inclinación a adquirir conocimiento a través de la
experiencia, la cual se almacena en el peso relativo de las conexiones
interneuronales.
Así mismo presentan una habilidad para cambiar dinámicamente con el medio
lo que generalmente se denomina plasticidad, poseen un alto nivel de
tolerancia a fallas, es decir, pueden sufrir algún daño y seguir trabajando de
forma normal; finalmente, presentan un comportamiento no lineal, lo que les
permite procesar información procedente de otros fenómenos no lineales.
Este conjunto de propiedades ha hecho que las redes neuronales brinden una
mejor alternativa que el procesamiento convencional para actividades como el
procesamiento de imágenes, voz, el reconocimiento de patrones, optimización,
filtrado de señales y predicción.
43
1.3.1 Neurona biológica. La neurona biológica es la unidad funcional del
sistema nervioso y está formada por el cuerpo celular, que contiene el núcleo y
la mayor parte del citoplasma; unas prolongaciones cortas, normalmente muy
ramificadas, que salen del cuerpo celular y que reciben el nombre de dendritas
y una prolongación más larga denominada axón (ENCARTA, 2.003).
Figura 2: Neurona biológica
Además de estos tres componentes, existe un elemento esencial denominado
sinapsis, el cual es el punto de contacto que tiene un axón de una neurona con
la dendrita de otra neurona y permite determinar la complejidad del proceso
químico que estabiliza la función de la red neuronal (ACOSTA, 2.000)
2.3.2 Red Neuronal Artificial. Una red neuronal artificial es un conjunto de
neuronas artificiales conectadas entre sí lo que equivaldría a una conexión
44
sináptica; tales conexiones tienen un peso específico ponderado de acuerdo a
la importancia de la información. En caso de que el peso sea positivo se dice
que la conexión es excitatoria, por otro lado, si el peso es negativo, se dice
que la conexión es inhibitoria.
Una neurona artificial procesa unas vector x de entradas ( )ns xxx ,...,1 y produce
una única respuesta; las dendritas serían en este caso las entradas que reciben
los datos de otras neuronas. La información de la red se almacena en unos
pesos ijw los cuales varían de acuerdo al entrenamiento de la red. Estos pesos
se denominan pesos sinápticos ya que se establece una sinapsis de la misma
forma en que se conecta la dendrita de una neurona con el axón de otra tal
como se aprecia en la Figura 3.
Figura 3: Neurona artificial
∑ f() zi
axón
SalidaEntradas
x1
x2
xj
. . .
. . .
xn iθ
-1
wi1
wi2
wij
win
Cuerpo celular
umbral
( )∑ −= ijiji xwfz θ
sinapsis
Dendritas
∑ f() zi
axón
SalidaEntradas
x1
x2
xj
. . .
. . .
xn iθ
-1
wi1
wi2
wij
win
Cuerpo celular
umbral
( )∑ −= ijiji xwfz θ
sinapsis
Dendritas
45
Para realizar el procesamiento de la información generalmente se suman las
entradas teniendo en cuenta la importancia de ellas a partir de los pesos
sinápticos asociado a cada una de ellas, esto con el objeto de obtener el valor
del potencial post-sináptico. Este paso se denomina regla de propagación.
Finalmente, el valor obtenido con la regla de propagación se filtra a través de
una función de transferencia y es la que proporciona la salida de la neurona.
Existen diferentes tipos de funciones de transferencia, por ejemplo, la función
de sigmoidal toma los valores de entrada entre menos y más infinito
restringiendo la salida a valores entre cero y uno de acuerdo a la expresión:
nea −+
=1
1 (41)
donde a es la salida de función de transferencia.
Dependiendo de el propósito de la red se emplean diferentes funciones de
activación, entre ellas se encuentran las que aparecen en la Figura 4.
(ACOSTA, 2.000).
Una red neuronal artificial está compuesta generalmente por tres conjuntos de
neuronas denominados capas las cuales desempeñan un papel específico de la
red. Una primera capa denominada capa de entrada la cual recibe los datos
que requiere la red para ser entrenada; un segundo conjunto denominado
46
capas ocultas en las que se realiza la mayor parte del procesamiento de
información y un tercer grupo denominado capa de salida el cual en algunas
ocasiones realiza parte del procesamiento y es el que proporciona la respuesta
de la red.
Los tipos de clasificación de las redes neuronales se definen por dos criterios:
su arquitectura y su tipo de aprendizaje.
Figura 4: Funciones de activación RNA
47
Si en la arquitectura de la red, las neuronas no se alimentan a sí mismas es
decir una de sus conexiones no le llega a ella misma, la red se llama
unidireccional o prealimentada. Por el contrario, si la neurona puede trazar un
camino hacia ella misma se denominan redes recurrentes o realimentada.
Adicionalmente, existen cuatro clases de tipo de aprendizaje: supervisado, no
supervisado, híbrido y reforzado (VALERO, 2.003). El aprendizaje supervisado
hace referencia a un conjunto de ejemplos que se le proporciona a la red con
su determinada salida. El proceso de entrenamiento consiste en el ajuste de
los pesos para que la salida de la red sea lo más parecida posible a la salida
deseada.
En el aprendizaje no supervisado, se le proporciona a la red un conjunto de
ejemplos pero no se le especifica la salida, la red básicamente entonces trata
de determinar la distribución de probabilidad de los datos. El aprendizaje
híbrido es una mezcla de aprendizaje supervisado para unas capas y no
supervisado para otras. El aprendizaje reforzado consiste en un conjunto de
ejemplos que se le proporciona a la red pero aunque no se le especifica la
salida si se le proporciona información sobre su error global.
48
Dentro del tipo de aprendizaje es de interés de este trabajo el de propagación
posterior debido a que esta tiende a aprender patrones que ocurren en un
orden temporal.
1.3.3 Red de Backpropagation. El modelo implementado consiste en la
red de propagación inversa, más conocida como Backpropagation y es un tipo
de red de aprendizaje supervisado que emplea un ciclo de propagación-
adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de
la red como estímulo, éste se propaga desde la primera capa a través de las
capas superiores de la red, hasta generar una salida. La señal de salida se
compara con la salida deseada y se calcula una señal de error para cada una
de las salidas (ACOSTA, 2.000).
Las salidas de error se propagan hacia atrás, partiendo de la capa de salida,
hacia todas las neuronas de la capa oculta que contribuyen directamente a la
salida. Sin embargo, las neuronas de la capa oculta solo reciben una fracción
de la señal total del error, basándose aproximadamente en la contribución
relativa que haya aportado cada neurona a la salida original. Este proceso se
repite, capa por capa, hasta que todas las neuronas de la red hayan recibido
una señal de error que describa su contribución relativa al error total.
49
Basándose en la señal de error percibida, se actualizan los pesos de conexión
de cada neurona para hacer que la red converja hacia un estado que permita
clasificar correctamente todos los patrones de entrenamiento.
La importancia de este proceso consiste en que, a medida que se entrena la
red, las neuronas de las capas intermedias se organizan a sí mismas de tal
modo que las distintas neuronas aprenden a reconocer distintas características
del espacio total de entrada.
2.3.4 Regla de Aprendizaje. El ciclo del algoritmo (HAYKIN, 1.994) a través
del entrenamiento de los datos ( ) ( )[ ]{ }Nnndnx ,...,1;, = , donde ( )nx es el
vector de entrada y ( )nd el vector de respuesta deseado, es el siguiente:
1. Inicialización: Comenzar con una razonable configuración de la red y un
conjunto de todos los pesos sinápticos y niveles de umbrales de la red con
pequeños números aleatorios uniformemente distribuidos.
2. Presentación de ejemplos de entrenamiento: Presente a la red con una
época de ejemplos de entrenamientos. Para cada ejemplo en el conjunto
ordenado de datos en alguna manera, el desempeño sigue una secuencia de
cómputos hacia delante y hacia atrás bajo los puntos 3 y 4 respectivamente.
50
3. Cómputo hacia adelante: Sea un ejemplo de entrenamiento en la época
denotado por ( ) ( )[ ]{ } ndnx , , con el vector de entradas ( )nx aplicado a la capa
de entrada de nodos sensoriales y el vector de respuesta deseado ( )nd
presentado en la capa de salida del nodo de cómputo. Se calculan los
potenciales de activación y la función de señales de la red procediendo hacia
delante a través de la red, capa por capa. La actividad interna de la red en el
nivel ( ) ( )nv lj para la neurona j en la capa l es:
( ) ( ) ( ) ( ) ( ) ( )nynwnv ili
p
i
lji
lj
−
=∑=
0 (42)
donde ( ) ( )ny ili
− es la función de señal de la neurona i en las capas previa 1−l en
la iteración n y ( ) ( )nw lji es el peso sináptico de la neurona j en la capa l que es
alimentado desde la neurona i en la capa l-1.
Para i = 0, se tiene que
( ) ( ) 10 −=− ny il y ( ) ( ) ( ) ( )nnw lj
lj θ=0 (43)
donde ( ) ( )nljθ es el umbral aplicado a la neurona j en la capa l. Asumiendo el
uso de una función logística por la sigmoide no lineal, la función (salida) señal
de una neurona j en la capa l es
51
( ) ( ) ( ) ( )( )nvny l
j
lj −+
=exp1
1 (44)
Si la neurona está en la primera capa oculta, es decir, l =1, el conjunto:
( ) ( ) ( )nxny j=00 (45)
donde ( )nx j es el j-ésimo elemento de un vector de entradas ( )nx . Si la
neurona j está en la capa de salida es decir, l = L, el sistema se representa
por:
( ) ( ) ( )nony jL
j = (46)
donde:
)(lw : vector de pesos sinápticos de una neurona en la capa l
( )lθ : umbral de una neurona en la capa l
( )lv : vector de niveles de actividad interna en la red de neuronas en la capa l
( )ly : vector de función de señales de neuronas en la capa l
Así, el error computado de la señal es:
( ) ( ) ( )njj
nj onde −= (47)
52
donde ( )nd j es el j-ésimo elemento del vector de la respuesta que se desea
( )nd .
4. Cómputo hacia atrás: Computar el s'δ , es decir el gradiente local de la red
por procedimiento hacia atrás, capa por capa:
( )( ) ( )( ) ( ) ( )[ ]nononen jjL
jL
j −= 1δ (48)
( )( ) ( )( ) ( )( )[ ] ( )( ) ( )( )nwnnynyn lkj
k
lk
lj
lj
lj
111 ++∑−= δδ (49)
Así, ajuste el peso sináptico de la red en la capa l acorde al la regla delta
generalizada♣.
( ) ( )( ) ( )( ) ( )( )[ ] ( )( ) ( )( )nynnwnwnwnw li
lJ
lji
lji
lji
lji
111 −+−−+=+ ηδα (50)
donde η es el parámetro de tasa de aprendizaje y α es un valor constante.
5. Iteración: Iterar el cómputo presentando nuevas épocas de ejemplos de
entrenamiento a la red hasta que los parámetros libres de la red estabilicen
sus valores y el error cuadrático medio computado bajo todo el conjunto de
entrenamiento sea un valor aceptablemente pequeño.
♣ La regla delta generalizada es la variación que presentan los pesos sinápticos. De forma general está dada por ( ) ( ) ( )tyttww jjijij ηδα +−∆=∆ 1 . Donde α es una constante y η la tasa de aprendizaje.
53
Las principales características de la red que se trabajó en este trabajo son las
siguientes:
Número de capas de entrada: 1
Número de capas ocultas: 5, 10, 13, 14, …
Datos de entrenamiento: 85%
Momento: 0.04
Tamaño de ventana: 12
Tasa de aprendizaje:0.02
54
2. ANÁLISIS DE RESULTADOS
En este capítulo se trabajan series que presentan características de alta
variabilidad como las series financieras, entre ellas, el precio promedio de la
acción de Bavaria, el precio promedio de la acción de Argos, el precio promedio
de la acción de Valbavaria y el Índice General de la Bolsa de Valores de
Colombia.
En el área de series de producción y/o estacionales se trabajan las series
aceite de crudo de palma africana, la serie de cacao en grano ($/tonelada) y el
precio promedio en los horarios de energía de mercado mayorista ($/Kwh).
Como series irregulares se trabajan la venta de cerveza Aguila 300 cc, cerveza
Poker 300 cc, cerveza Club Colombia 10 onzas y Pony Malta 350 cc.
Para cada una de las series, se tomó el 85% de los datos para efectuar la
estimación y su respectivo pronóstico; tanto con los modelos ARIMA como con
los de Redes neuronales. Adicionalmente, para las series financieras se utilizó
una estimación con los modelos GARCH.
55
Los análisis para modelos ARIMA se realizan a través del paquete estadístico
SAS, los modelos GARCH con el paquete estadístico RATS y las Redes
neuronales con el algoritmo de Backpropagation♣.
Después de obtener el pronóstico de la serie, se comparan los resultados a
través de los estadísticos del error cuadrático medio (MSE) y el U-Theil, los
cuales se explican a continuación:
El error cuadrático medio se define como:
( )2
1
ˆ1 ∑=
−=N
ttt ZZ
NMSE (51)
donde tZ y tZ son los valores de las serie original y su pronóstico
respectivamente.
Este estadístico considera el promedio de los cuadrados de las desviaciones de
los valores de la predicción respecto de los valores de la serie original. Los
pronósticos que se efectúen serán más precisos a medida que el valor del error
cuadrático medio sea más pequeño. (AGUILAR, 1.996)
♣ La red utilizada en este trabajo fue diseñada por Oscar Sánchez estudiante de Ingeniería de Sistemas Universidad Nacional de Colombia Sede Bogotá.
56
El estadístico U-Theil se utiliza para medir la precisión de los pronósticos y
depende directamente del error cuadrático medio. Mientras más cercano a
cero sea el valor del estaístico U-Theil los pronósticos de la serán más
precisos. (AGUILAR, 1.996)
( ) ( )∑∑−−
+=
N
tt
N
tt Z
NZ
N
MSEU
1
2
1
2 ˆ11 (52)
A manera de ejemplo del proceso para seleccionar el mejor pronóstico para
una serie se utilizará el precio promedio de la acción de Bavaria, se mostrará
paso a paso el proceso para la selección del mejor modelo ARIMA y RNA. Este
mismo procedimiento se realiza para las diez series restantes pero solo se
presentan los resultados más significativos. Para las series financieras, se
incluye además el análisis GARCH.
57
2.1 SERIES FINANCIERAS
Precio promedio de la acción de Bavaria
Una acción se define como un título nominativo de carácter negociable que
representa un porcentaje de participación en la propiedad emisora del título.
Solo pueden ser negociadas las acciones emitidas por sociedades anónimas.
La rentabilidad del la inversión está ligada a las utilidades obtenidas por la
empresa en la que se invirtió, ya sea a través del pago de dividendos o por la
valoración del precio de la acción en la bolsa. [www.bvc.com.co]
Existen diferentes tipos de acciones a saber: privilegiada, preferencial o acción
ordinaria. Para este trabajo se escogió la acción ordinaria, la cual se
caracteriza por conceder a su titular derechos económicos y no económicos
provenientes de la participación en el capital de la entidad emisor. Los
económicos están relacionados con la posibilidad de percibir dividendos y los
no económicos con el derecho a voto en la asamblea.
La serie en estudio del precio promedio de la acción de Bavaria está
compuesta por datos diarios que van de lunes a viernes desde el 1 de
noviembre de 2.001 hasta el 25 de marzo de 2.003, en total se cuenta con 358
observaciones.
58
La serie exhibe un comportamiento irregular con tendencia positiva hasta
comienzos de enero del 2.003 a partir del cual presenta un decaimiento
significativo tal como se aprecia en la Figura 5. No se identifica presencia de
estacionalidad en la serie.
Figura 5: Precio promedio acción Bavaria
Acción Bavaria Precio Promedio
50 100 150 200 250 300 3506000
7200
8400
9600
10800
12000
13200
14400
Tal como se aprecia en la Tabla 10, el precio mínimo que presenta la serie en
este periodo de tiempo es de $6.395 y el máximo de $14.331, el valor
promedio de la serie es de $9.953.
59
Tabla 10: Estadísticas descriptivas
PRECIO PROMEDIO DE LA ACCION
DE BAVARIA
Media 9953.17
Mediana 8885.80
Moda 8040.00
Desviación estándar 2260.70
Varianza de la muestra 5110764.30
Rango 7936.36
Mínimo 6395.08
Máximo 14331.44
Se realiza un primera aproximación a la serie a través de las funciones de
autocorrelación simple y parcial como se aprecia en la Figura 6.
Figura 6: Funciones de autocorrelación simple y parcial del precio promedio de la acción de BAVARIA.
Autocorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Std Error
0 3430637 1.00000 | |********************| 0 1 3370816 0.98256 | . |********************| 0.057354 2 3303322 0.96289 | . |******************* | 0.098189 3 3231643 0.94200 | . |******************* | 0.125462 4 3158092 0.92056 | . |****************** | 0.146896 5 3090112 0.90074 | . |****************** | 0.164784 6 3023189 0.88123 | . |****************** | 0.180254 7 2955339 0.86146 | . |***************** | 0.193908 8 2886894 0.84150 | . |***************** | 0.206113 9 2822292 0.82267 | . |**************** | 0.217121 10 2762514 0.80525 | . |**************** | 0.227143 11 2709753 0.78987 | . |**************** | 0.236347 12 2659963 0.77536 | . |**************** | 0.244877 13 2605524 0.75949 | . |*************** | 0.252823 14 2552384 0.74400 | . |*************** | 0.260220 15 2498440 0.72827 | . |*************** | 0.267126 16 2449195 0.71392 | . |************** | 0.273579 17 2391272 0.69703 | . |************** | 0.279640 18 2329739 0.67910 | . |************** | 0.285298 19 2267008 0.66081 | . |************* | 0.290567 20 2202174 0.64191 | . |************* | 0.295469 21 2144451 0.62509 | . |************* | 0.300021 22 2088837 0.60888 | . |************ | 0.304275 23 2033076 0.59262 | . |************ | 0.308257 24 1976162 0.57603 | . |************ | 0.311982
"." marks two standard errors
60
Inverse Autocorrelations
Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 -0.51004 | **********| . | 2 0.00706 | . | . | 3 -0.03379 | .*| . | 4 0.05002 | . |*. | 5 0.00111 | . | . | 6 -0.01189 | . | . | 7 -0.01342 | . | . | 8 -0.00057 | . | . | 9 -0.00131 | . | . | 10 0.02857 | . |*. | 11 0.02187 | . | . | 12 -0.06804 | .*| . | 13 0.03697 | . |*. | 14 -0.03303 | .*| . | 15 0.08500 | . |** | 16 -0.08146 | **| . | 17 0.01363 | . | . | 18 0.01292 | . | . | 19 -0.03588 | .*| . | 20 0.05558 | . |*. | 21 -0.01495 | . | . | 22 -0.00739 | . | . | 23 -0.01027 | . | . | 24 0.00940 | . | . |
Partial Autocorrelations
Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 0.98256 | . |********************| 2 -0.07349 | .*| . | 3 -0.04141 | .*| . | 4 -0.02253 | . | . | 5 0.03889 | . |*. | 6 -0.00645 | . | . | 7 -0.02204 | . | . | 8 -0.01643 | . | . | 9 0.02532 | . |*. | 10 0.02789 | . |*. | 11 0.04222 | . |*. | 12 0.00531 | . | . | 13 -0.05238 | .*| . | 14 0.00795 | . | . | 15 -0.01006 | . | . | 16 0.03356 | . |*. | 17 -0.09265 | **| . | 18 -0.03254 | .*| . | 19 -0.00881 | . | . | 20 -0.01353 | . | . | 21 0.04780 | . |*. | 22 -0.00356 | . | . | 23 -0.02042 | . | . | 24 -0.02023 | . | . |
61
De las gráficas anteriores observamos que el decaimiento en la función de
autocorrelación simple no se presenta de forma exponencial, lo que sugiere la
posibilidad de que el proceso no sea estacionario. En las gráficas de
autocorrelación inversa y parcial se presenta únicamente el primer rezago
como significativo. Además, dado que los valores asociados al estadístico chi-
cuadrado son menores que 0.05, se descarta el hecho de que la serie sea ruido
blanco.
Para verificar la estacionariedad de la serie se realiza la prueba a través del
estadístico de Dickey-Fuller.
Tabla 11: Test de Dickey – Fuller
The ARIMA Procedure
Autocorrelation Check for White Noise
To Chi- Pr > Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 1613.83 6 <.0001 0.983 0.963 0.942 0.921 0.901 0.881 12 2876.99 12 <.0001 0.861 0.842 0.823 0.805 0.790 0.775 18 3881.76 18 <.0001 0.759 0.744 0.728 0.714 0.697 0.679 24 4636.50 24 <.0001 0.661 0.642 0.625 0.609 0.593 0.576
62
Los valores asociados al estadístico como se aprecia en la Tabla 11 son
mayores que 0.05, lo que implica que no se rechaza la hipótesis nula de 1=ρ ,
por lo que la serie presenta un comportamiento no estacionario.
En la Tabla 12 se presenta la estimación del mejor parámetro para transformar
la serie y convertirla en estacionaria. Se obtiene que la mejor alternativa es
elevar la serie al valor de –0.01. No obstante, al refinar la búsqueda de la
transformación de los datos se encuentra el valor de lambda muy cercano a
cero como se observa en la Figura 7, lo que sugiere trabajar con el logaritmo
de la serie.
Augmented Dickey-Fuller Unit Root Tests Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F Zero Mean 0 0.7891 0.8735 2.69 0.9984 1 0.7981 0.8754 2.25 0.9944 2 0.7871 0.8731 2.23 0.9941 3 0.7763 0.8709 2.13 0.9924 4 0.7974 0.8752 2.49 0.9971 5 0.7865 0.8730 2.29 0.9950 6 0.7725 0.8701 2.19 0.9934 Single Mean 0 1.0358 0.9893 0.68 0.9916 3.61 0.1462 1 0.1989 0.9662 0.11 0.9660 2.57 0.4120 2 0.4236 0.9746 0.23 0.9743 2.51 0.4291 3 0.4025 0.9739 0.21 0.9732 2.29 0.4843 4 0.7854 0.9845 0.48 0.9857 3.10 0.2775 5 0.6375 0.9809 0.36 0.9810 2.62 0.3997 6 0.7000 0.9825 0.38 0.9821 2.39 0.4589 Trend 0 -1.6047 0.9786 -0.61 0.9776 0.98 0.9700 1 -3.1877 0.9282 -1.00 0.9415 0.85 0.9823 2 -2.9694 0.9377 -0.94 0.9497 0.89 0.9792 3 -3.2198 0.9267 -0.98 0.9444 0.94 0.9749 4 -1.9303 0.9716 -0.67 0.9737 0.79 0.9871 5 -2.4619 0.9565 -0.79 0.9642 0.83 0.9840 6 -2.6173 0.9513 -0.82 0.9620 0.91 0.9777
63
Tabla 12: Cálculo de lambda –6 a 6
PRONOSTICOS PRECIO PROMEDIO ACCION BAVARIA CON ARIMA
LAMBDA LOGLIK RMSE AIC SBC
6.00000 -2417.37 616699.1 4838.731 4846.165 5.79661 -2394.59 388281.7 4793.176 4800.610 5.59322 -2371.99 253684.2 4747.973 4755.407 5.38983 -2349.57 178962.4 4703.146 4710.580 5.18644 -2327.37 136108.3 4658.735 4666.169 4.98305 -2305.39 113534.8 4614.774 4622.208 4.77966 -2283.66 93399.05 4571.323 4578.757 4.57627 -2262.21 90678.72 4528.415 4535.849 4.37288 -2241.06 85611.08 4486.120 4493.554 4.16949 -2220.25 76564.66 4444.503 4451.937 3.96610 -2199.82 72087.08 4403.634 4411.068 3.76271 -2179.80 73234.84 4363.593 4371.027 3.55932 -2160.23 75062.28 4324.468 4331.902 3.35593 -2141.20 76800.95 4286.394 4293.828 3.15254 -2122.72 77468.30 4249.441 4256.875 2.94915 -2104.89 65593.75 4213.774 4221.208 2.74576 -2088.04 38737.97 4180.077 4187.511 2.54237 -2071.68 32136.00 4147.355 4154.789 2.33898 -2056.17 28239.01 4116.347 4123.781 2.13559 -2041.61 26552.39 4087.215 4094.649 1.93220 -2028.06 26418.15 4060.127 4067.561 1.72881 -2015.31 73987.20 4034.630 4042.064 1.52542 -2004.04 58109.03 4012.075 4019.509 1.32203 -1993.99 65604.73 3991.984 3999.418 1.11864 -1985.26 59384.27 3974.530 3981.964 0.91525 -1977.88 63966.78 3959.757 3967.191 0.71186 -1971.89 57878.11 3947.775 3955.210 0.50847 -1967.28 60866.97 3938.566 3946.000 0.30508 -1964.08 70083.67 3932.161 3939.595 0.10169 -1962.25 65636.36 3928.498 3935.932 -0.10169 -1961.77 57364.41 3927.535 3934.969 -0.30508 -1962.57 61074.06 3929.140 3936.574 -0.50847 -1964.59 56333.91 3933.187 3940.621 -0.71186 -1967.78 56547.68 3939.556 3946.990 -0.91525 -1972.05 55609.42 3948.092 3955.526
... -6.00000 -1977.32 57552.20 3958.640 3966.074
64
Tabla 13: Cálculo de lambda –1.5 a 1.5
LAMBDA LOGLIK RMSE AIC SBC 1.50000 -2002.72 63052.72 4009.432 4016.866 1.44915 -2000.13 62001.03 4004.252 4011.686 1.39831 -1997.61 69802.78 3999.215 4006.649 1.34746 -1995.18 70887.69 3994.359 4001.793 1.29661 -1992.84 55797.85 3989.689 3997.123 1.24576 -1990.56 71691.36 3985.130 3992.564 1.19492 -1988.38 71231.78 3980.762 3988.196 1.14407 -1986.28 62177.87 3976.559 3983.993 1.09322 -1984.28 55720.25 3972.555 3979.989 1.04237 -1982.33 61519.45 3968.667 3976.101 0.99153 -1980.49 57897.01 3964.987 3972.421 0.94068 -1978.73 57835.44 3961.468 3968.902 0.88983 -1977.06 60267.29 3958.115 3965.549 0.83898 -1975.47 60125.88 3954.942 3962.376 0.78814 -1973.97 60137.58 3951.941 3959.375 0.73729 -1972.56 58399.66 3949.120 3956.554 0.68644 -1971.23 58584.18 3946.469 3953.903 0.63559 -1969.99 60385.09 3943.989 3951.423 0.58475 -1968.85 70783.82 3941.690 3949.125 0.53390 -1967.78 58785.18 3939.569 3947.003 0.48305 -1966.81 58780.98 3937.618 3945.053 0.43220 -1965.92 63059.37 3935.834 3943.268 0.38136 -1965.12 69491.52 3934.237 3941.671 0.33051 -1964.41 57629.93 3932.825 3940.259 0.27966 -1964.09 30862.76 3932.186 3939.620 0.22881 -1963.50 31872.99 3931.007 3938.441 0.17797 -1962.78 63817.47 3929.551 3936.985 0.12712 -1962.40 65530.68 3928.807 3936.241 0.07627 -1962.12 58678.28 3928.239 3935.673 0.02542 -1961.92 55303.28 3927.846 3935.280 -0.02542 -1961.80 62180.80 3927.596 3935.030 -0.07627 -1961.75 68254.14 3927.505 3934.939 -0.12712 -1961.80 55478.18 3927.601 3935.035 -0.17797 -1961.92 67784.07 3927.831 3935.265 -0.22881 -1962.12 56371.01 3928.239 3935.673 -0.27966 -1962.40 56904.31 3928.797 3936.231 -0.33051 -1962.76 60949.34 3929.515 3936.949 -0.38136 -1963.18 62714.50 3930.369 3937.803 -0.43220 -1963.69 61473.42 3931.379 3938.813 -0.48305 -1964.28 55094.17 3932.559 3939.993 -0.53390 -1964.93 55731.45 3933.862 3941.296 -0.58475 -1965.66 57611.54 3935.313 3942.747 -0.63559 -1966.46 60022.27 3936.912 3944.346 -0.68644 -1967.32 64269.09 3938.636 3946.070 -0.73729 -1968.26 56126.20 3940.514 3947.948 -0.78814 -1969.26 55964.41 3942.512 3949.946 -0.83898 -1970.32 62729.77 3944.649 3952.083 -0.88983 -1971.46 58397.37 3946.913 3954.347 -0.94068 -1972.65 58672.07 3949.304 3956.738 -0.99153 -1973.91 61556.51 3951.817 3959.251 -1.04237 -1975.23 58891.32 3954.453 3961.887 -1.09322 -1976.61 61013.42 3957.212 3964.646
... -1.50000 -2004.04 58109.03 4012.075 4019.509
65
Figura 7: Lambda
Se realiza la transformación de la serie a partir del logaritmo y se calcula la
función de autocorrelación simple y parcial de la serie. Se detecta que la serie
no estacionaria pues presenta los mismos problemas que la serie original.
66
Tabla 14: Funciones de autocorrelación simple y parcial del precio promedio de la acción de BAVARIA
Autocorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Std Error
0 0.031706 1.00000 | |********************| 0 1 0.031117 0.98143 | . |********************| 0.057354 2 0.030426 0.95963 | . |******************* | 0.098114 3 0.029711 0.93708 | . |******************* | 0.125239 4 0.028979 0.91401 | . |****************** | 0.146499 5 0.028282 0.89202 | . |****************** | 0.164189 6 0.027602 0.87057 | . |***************** | 0.179424 7 0.026924 0.84918 | . |***************** | 0.192819 8 0.026243 0.82771 | . |***************** | 0.204751 9 0.025651 0.80904 | . |**************** | 0.215477 10 0.025143 0.79302 | . |**************** | 0.225248 11 0.024687 0.77865 | . |**************** | 0.234252 12 0.024254 0.76496 | . |*************** | 0.242617 13 0.023792 0.75041 | . |*************** | 0.250425 14 0.023341 0.73618 | . |*************** | 0.257716 15 0.022884 0.72178 | . |************** | 0.264543 16 0.022461 0.70843 | . |************** | 0.270943 17 0.021982 0.69333 | . |************** | 0.276969 18 0.021483 0.67758 | . |************** | 0.282621 19 0.020970 0.66140 | . |************* | 0.287915 20 0.020441 0.64473 | . |************* | 0.292870 21 0.019957 0.62944 | . |************* | 0.297503 22 0.019486 0.61459 | . |************ | 0.301852 23 0.019013 0.59967 | . |************ | 0.305940 24 0.018533 0.58452 | . |************ | 0.309782
"." marks two standard errorsAutocorrelations
67
Inverse Autocorrelations
Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 -0.53171 | ***********| . | 2 0.03740 | . |*. | 3 -0.03004 | .*| . | 4 0.03082 | . |*. | 5 0.00245 | . | . | 6 -0.00130 | . | . | 7 -0.04012 | .*| . | 8 0.03132 | . |*. | 9 0.01207 | . | . | 10 -0.00352 | . | . | 11 0.01253 | . | . | 12 -0.03989 | .*| . | 13 0.03146 | . |*. | 14 -0.03347 | .*| . | 15 0.06075 | . |*. | 16 -0.05888 | .*| . | 17 0.01965 | . | . | 18 0.00360 | . | . | 19 -0.02369 | . | . | 20 0.03549 | . |*. | 21 -0.01049 | . | . | 22 -0.00453 | . | . | 23 -0.00549 | . | . | 24 0.00570 | . | . |
Partial Autocorrelations
Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 0.98143 | . |********************| 2 -0.09711 | **| . | 3 -0.02422 | . | . | 4 -0.02288 | . | . | 5 0.01968 | . | . | 6 -0.00139 | . | . | 7 -0.01267 | . | . | 8 -0.01500 | . | . | 9 0.06608 | . |*. | 10 0.05035 | . |*. | 11 0.02312 | . | . | 12 -0.00053 | . | . | 13 -0.03330 | .*| . | 14 0.00848 | . | . | 15 -0.01138 | . | . | 16 0.02220 | . | . | 17 -0.05901 | .*| . | 18 -0.01091 | . | . | 19 -0.00987 | . | . | 20 -0.01151 | . | . | 21 0.02783 | . |*. | 22 -0.00561 | . | . | 23 -0.01471 | . | . | 24 -0.01244 | . | . |
68
Tabla 15: Prueba comportamiento de ruido blanco
El estadístico de Dickey-Fuller muestra que en este caso tampoco rechaza la
hipótesis de raíz unitaria.
Tabla 16: Test de Dickey – Fuller
En la Figura 8 se presenta la gráfica de tres transformaciones a la serie como
es el logaritmo, la diferencia y la diferencia del logaritmo del precio promedio
de la acción de Bavaria.
The ARIMA Procedure
Autocorrelation Check for White Noise
To Chi- Pr > Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 1593.94 6 <.0001 0.981 0.960 0.937 0.914 0.892 0.871 12 2819.40 12 <.0001 0.849 0.828 0.809 0.793 0.779 0.765 18 3808.19 18 <.0001 0.750 0.736 0.722 0.708 0.693 0.678 24 4574.52 24 <.0001 0.661 0.645 0.629 0.615 0.600 0.585
Augmented Dickey-Fuller Unit Root Tests
Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F Zero Mean 0 0.0803 0.7011 2.56 0.9977 1 0.0864 0.7025 2.31 0.9952 2 0.0834 0.7018 2.20 0.9936 3 0.0817 0.7014 2.01 0.9896 4 0.0831 0.7017 2.32 0.9954 5 0.0821 0.7015 2.19 0.9934 6 0.0797 0.7009 2.06 0.9908 Single Mean 0 -0.0283 0.9557 -0.02 0.9554 3.28 0.2317 1 -1.2518 0.8613 -0.65 0.8568 2.90 0.3287 2 -0.9620 0.8892 -0.49 0.8899 2.56 0.4153 3 -1.1470 0.8717 -0.54 0.8798 2.18 0.5118 4 -0.7320 0.9090 -0.39 0.9073 2.79 0.3571 5 -0.8176 0.9019 -0.42 0.9032 2.50 0.4314 6 -0.7095 0.9109 -0.35 0.9144 2.18 0.5116 Trend 0 -3.3075 0.9227 -1.08 0.9290 0.80 0.9863 1 -5.8435 0.7545 -1.60 0.7928 1.30 0.9170 2 -5.6738 0.7679 -1.52 0.8219 1.22 0.9326 3 -6.6946 0.6855 -1.64 0.7750 1.42 0.8935 4 -4.9372 0.8235 -1.37 0.8668 1.02 0.9642 5 -5.4935 0.7819 -1.44 0.8477 1.12 0.9514
6 -5.7908 0.7586 -1.45 0.8451 1.17 0.9420
69
Teniendo en cuenta el factor de parsimonia y estacionariadad, se efectúa una
diferencia a la serie, se obtienen las autocorrelaciones simple y parcial. En
este caso la FAS presenta un decaimiento exponencial, siendo significativo el
primer rezago dentro de la función de autocorrelación simple y el primer
rezago dentro de la función de autocorrelación parcial como se aprecia en la
Tabla 17.
Figura 8: Transformaciones serie precio promedio acción de BAVARIA
Precio Accion Diario Bavaria
50 100 150 200 250 3006000
7200
8400
9600
10800
12000
13200
14400
PROMEDIO
Diferencia Precio Accion Diario Bavaria
50 100 150 200 250 300-750
-500
-250
0
250
500
750
DPROMEDIO
Log Precio Accion Diario Bavaria
50 100 150 200 250 3008.7
8.8
8.9
9.0
9.1
9.2
9.3
9.4
9.5
9.6
LPROMEDIO
Dif. Log Precio Accion Diario Bavaria
50 100 150 200 250 300-0.100
-0.075
-0.050
-0.025
-0.000
0.025
0.050
0.075
0.100
DLPROMEDIO
70
Tabla 17: FAS Y FAP de la diferencia del precio promedio de la acción de BAVARIA
Autocorrelations Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Std Error
0 25639.495 1.00000 | |********************| 0 1 4681.182 0.18258 | . |**** | 0.057448 2 307.140 0.01198 | . | . | 0.059333 3 420.781 0.01641 | . | . | 0.059341 4 -3059.416 -.11932 | **| . | 0.059356 5 182.652 0.00712 | . | . | 0.060142 6 678.421 0.02646 | . |*. | 0.060145 7 -9.226027 -.00036 | . | . | 0.060183 8 -500.718 -.01953 | . | . | 0.060183 9 1295.518 0.05053 | . |*. | 0.060204 10 452.986 0.01767 | . | . | 0.060344 11 -393.541 -.01535 | . | . | 0.060361 12 -3350.675 -.13068 | ***| . | 0.060374 13 -1287.070 -.05020 | .*| . | 0.061300 14 1052.016 0.04103 | . |*. | 0.061436 15 137.521 0.00536 | . | . | 0.061526 16 951.429 0.03711 | . |*. | 0.061528 17 -241.233 -.00941 | . | . | 0.061602 18 572.020 0.02231 | . | . | 0.061606 19 1500.829 0.05854 | . |*. | 0.061633 20 -195.347 -.00762 | . | . | 0.061816 21 433.408 0.01690 | . | . | 0.061819 22 -2570.451 -.10025 | **| . | 0.061835 23 -122.445 -.00478 | . | . | 0.062369 24 2054.285 0.08012 | . |** | 0.062370
The ARIMA Procedure
Inverse Autocorrelations Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 -0.22203 | ****| . | 2 0.03308 | . |*. | 3 -0.09731 | **| . | 4 0.17039 | . |*** | 5 -0.04978 | .*| . | 6 -0.01882 | . | . | 7 -0.04629 | .*| . | 8 0.10372 | . |** | 9 -0.08264 | **| . | 10 0.03163 | . |*. | 11 -0.05512 | .*| . | 12 0.13377 | . |*** | 13 -0.01211 | . | . | 14 -0.03321 | .*| . | 15 -0.00737 | . | . | 16 0.00506 | . | . | 17 -0.00108 | . | . | 18 0.01498 | . | . | 19 -0.07063 | .*| . | 20 0.04359 | . |*. | 21 -0.06428 | .*| . | 22 0.10371 | . |** | 23 -0.02521 | .*| . | 24 -0.03983 | .*| . |
71
Se realiza la prueba de estacionariedad y debido a que los valores asociados al
estadístico Dickey –Fuller son menores que 0.05, se rechaza la hipótesis nula
de raíz unitaria. La diferencia del precio promedio de la acción de Bavaria
tiene un comportamiento estacionario.
Partial Autocorrelations
Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 0.18258 | . |**** | 2 -0.02209 | . | . | 3 0.01885 | . | . | 4 -0.12997 | ***| . | 5 0.05626 | . |*. | 6 0.01267 | . | . | 7 -0.00076 | . | . | 8 -0.03869 | .*| . | 9 0.07150 | . |*. | 10 -0.00109 | . | . | 11 -0.01815 | . | . | 12 -0.14539 | ***| . | 13 0.02077 | . | . | 14 0.05072 | . |*. | 15 -0.00956 | . | . | 16 0.00059 | . | . | 17 -0.01286 | . | . | 18 0.05092 | . |*. | 19 0.04275 | . |*. | 20 -0.03715 | .*| . | 21 0.03284 | . |*. | 22 -0.10240 | **| . | 23 0.04731 | . |*. | 24 0.04518 | . |*. |
72
Tabla 18: Test de Dickey – Fuller
Se escoge entonces, la diferencia como la mejor transformación a la serie y se
realiza el proceso de estimación y pronóstico de la serie.
Para obtener los mejores ordenes de los procesos autorregresivos y de media
móvil para la serie en estudio se recurre a la ayuda de los estadísticos MINIC,
SCAN y ESACF.
Augmented Dickey-Fuller Unit Root Tests Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F Zero Mean 0 -241.154 0.0001 -14.24 <.0001 1 -241.907 0.0001 -10.96 <.0001 2 -217.637 0.0001 -8.88 <.0001 3 -339.045 0.0001 -8.84 <.0001 4 -232.842 0.0001 -7.25 <.0001 5 -196.632 0.0001 -6.44 <.0001 6 -182.987 0.0001 -5.92 <.0001 Single Mean 0 -246.862 0.0001 -14.51 <.0001 105.35 0.0010 1 -256.071 0.0001 -11.26 <.0001 63.38 0.0010 2 -240.915 0.0001 -9.18 <.0001 42.15 0.0010 3 -419.929 0.0001 -9.24 <.0001 42.72 0.0010 4 -301.903 0.0001 -7.65 <.0001 29.23 0.0010 5 -271.112 0.0001 -6.83 <.0001 23.33 0.0010 6 -277.041 0.0001 -6.34 <.0001 20.08 0.0010
Trend 0 -247.908 0.0001 -14.53 <.0001 105.59 0.0010 1 -259.211 0.0001 -11.30 <.0001 63.81 0.0010 2 -246.711 0.0001 -9.23 <.0001 42.60 0.0010 3 -441.794 0.0001 -9.31 <.0001 43.31 0.0010 4 -321.487 0.0001 -7.71 <.0001 29.75 0.0010 5 -296.420 0.0001 -6.92 <.0001 23.91 0.0010
6 -312.691 0.0001 -6.42 <.0001 20.64 0.0010
73
Tabla 19: Tabla SCAN
Tabla 20: Tabla ESACF
Tabla 21: Tabla MINIC
Squared Canonical Correlation Estimates
Lags MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 MA 6
AR 0 0.9923 0.9815 0.9700 0.9578 0.9468 0.9351 0.9225 AR 1 0.0403 0.0011 0.0015 0.0094 0.0008 0.0022 0.0004 AR 2 <.0001 0.0011 0.0019 0.0029 0.0024 0.0007 0.0004 AR 3 0.0011 <.0001 0.0045 0.0003 0.0016 0.0003 <.0001 AR 4 0.0135 0.0044 0.0016 0.0005 0.0010 0.0024 0.0002 AR 5 0.0055 0.0040 0.0032 0.0010 0.0002 0.0013 0.0012 AR 6 0.0008 <.0001 0.0016 0.0042 0.0012 0.0002 0.0011
SCAN Chi-Square[1] Probability Values
Lags MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 MA 6
AR 0 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 AR 1 0.0004 0.5714 0.5225 0.1041 0.6491 0.4439 0.7379 AR 2 0.8848 0.5622 0.4991 0.4789 0.4316 0.7070 0.7490 AR 3 0.5577 0.9464 0.3090 0.8372 0.5841 0.7938 0.9328 AR 4 0.0434 0.3366 0.6214 0.8013 0.7016 0.4430 0.8212 AR 5 0.2006 0.3258 0.4346 0.7092 0.8432 0.5907 0.6841 AR 6 0.6171 0.9766 0.5000 0.4580 0.5996 0.8743 0.6553
Extended Sample Autocorrelation Function
Lags MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 MA 6
AR 0 0.9826 0.9629 0.9420 0.9206 0.9007 0.8812 0.8615 AR 1 0.1813 0.0102 0.0147 -0.1223 0.0046 0.0239 -0.0026 AR 2 0.0248 -0.1066 -0.0202 -0.1074 0.0556 0.0239 0.0173 AR 3 0.2168 -0.0281 0.0205 -0.0798 0.0797 -0.0333 0.0048 AR 4 0.2511 0.0159 0.0964 -0.0405 0.0731 0.0210 0.0380 AR 5 0.4361 0.2935 0.1906 -0.2992 -0.0472 0.0388 0.0426 AR 6 -0.3459 -0.0211 0.3109 -0.2752 -0.1254 0.0332 -0.0287
The ARIMA Procedure
ESACF Probability Values
Lags MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 MA 6
AR 0 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 AR 1 0.0016 0.8630 0.8037 0.0392 0.9397 0.6906 0.9656 AR 2 0.6661 0.1031 0.7699 0.1073 0.3863 0.6974 0.7907 AR 3 0.0002 0.6431 0.8069 0.3460 0.2438 0.6763 0.9391 AR 4 <.0001 0.7979 0.2865 0.6761 0.2949 0.7450 0.5521 AR 5 <.0001 0.0002 0.0371 <.0001 0.4864 0.5586 0.5902 AR 6 <.0001 0.7411 <.0001 <.0001 0.0693 0.6281 0.6607
74
Error series model: AR(2) Minimum Table Value: BIC(3,6) = -15.6245 ARMA(p+d,q) Tentative Order Selection Tests ---------SCAN-------- --------ESACF-------- p+d q BIC p+d q BIC 1 1 10.15016 2 1 10.16803 5 0 10.1877 1 4 10.18831 6 4 . (5% Significance Level)
Los estadísticos SCAN, MINIC Y ESCAF sugieren que los posibles modelos
ARIMA que representan la serie son:
ARIMA (0,1,1)
ARIMA (0,1,2)
ARIMA (0,1,3)
ARIMA (0,1,4)
ARIMA (0,1,5)
ARIMA (0,1,6)
ARIMA (1,1,0)
ARIMA (3,1,6)
ARIMA (4,1,0)
ARIMA (3,2,0)
ARIMA (1,1,1)
Minimum Information Criterion
Lags MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 MA 6
AR 0 15.03328 14.93195 14.84935 14.76245 14.70209 14.6239 14.55177 AR 1 10.17461 10.15016 10.16808 10.18416 10.18831 10.20063 10.21829 AR 2 10.14925 10.16803 10.18571 10.19005 10.20288 10.20064 10.21829 AR 3 10.16686 10.16686 10.18476 10.19005 10.20288 10.21828 -15.6245 AR 4 10.18345 10.18345 . . . . . AR 5 10.1877 10.1877 . . . . . AR 6 10.2002 10.2002 . . . . .
75
Se prueba la serie para cada uno de estos modelos y a partir de las funciones
de autocorrelación simple y parcial y utilizando el criterio de AIC y SBC se
estima el mejor modelo.
Por ejemplo comparando los resultados de un ARIMA(1,1,1) con un
ARIMA(1,1,0) se escoge este último ya que a pesar de que los parámetros del
proceso de media móvil aparecen como significativos en ambos modelos, los
estadísticos AIC y SBC para el primer modelo son mayores que para el
segundo.
Tabla 22: Estimación ARIMA(1,1,1) precio promedio acción de Bavaria
The ARIMA Procedure
Conditional Least Squares Estimation
Standard Approx Parameter Estimate Error t Value Pr > |t| Lag
MU 23.87123 9.87287 2.42 0.0162 0 MA1,1 -0.81888 0.10251 -7.99 <.0001 1 AR1,1 -0.66960 0.13194 -5.07 <.0001 1
AIC 3929.922 SBC 3941.063
76
Tabla 23: Estimación ARIMA(1,1,0) precio promedio acción de Bavaria
Tabla 24: Comportamiento de los residuales
Autocorrelation Check of Residuals
To Chi- Pr > Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 6.44 5 0.2655 0.004 -0.025 0.038 -0.132 0.025 0.027 12 12.86 11 0.3024 -0.002 -0.030 0.054 0.012 0.005 -0.127 18 14.94 17 0.6001 -0.037 0.052 -0.009 0.040 -0.021 0.015 24 22.24 23 0.5059 0.060 -0.022 0.038 -0.109 -0.001 0.068 30 31.35 29 0.3493 0.067 0.097 -0.013 0.059 -0.057 -0.080 36 36.98 35 0.3775 0.025 0.011 0.066 0.095 0.044 -0.017 42 44.46 41 0.3280 -0.001 -0.101 0.010 0.072 -0.024 0.072 48 51.03 47 0.3183 -0.011 0.003 -0.063 0.051 -0.005 -0.107
Se verifican los supuestos sobre los residuales, con el estadístico Q de Ljung –
Box, tal como aparece en la Tabla 24, debido a que los valores asociados a los
chi-cuadrados son mayores de 0.05, significa que los valores no son
significativamente distintos de cero. Finalmente el modelo queda expresado
de la siguiente manera:
( ) 66.231825.01 −=− tt aZB (53)
Para la predicción de la serie se toma el modelo estimado y se hace un
pronóstico 54 pasos adelante, la serie original de color negro en la gráfica, el
The ARIMA Procedure
Conditional Least Squares Estimation
Standard Approx
Parameter Estimate Error t Value Pr > |t| Lag
MU 23.66206 11.09194 2.13 0.0337 0 AR1,1 0.18259 0.05667 3.22 0.0014 1
AIC 3929.626 SBC 3937.053
77
pronóstico en color rojo y los intervalos de confianza en color azul; como se
aprecia en la Figura 9.
Figura 9: Pronóstico ARIMA precio promedio acción Bavaria
SSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS
SSSSS
SS
SS
SSSS
S
SSSS
SSS
SSSSSSS
S
SS
SS
SSSSSS
SSS
S
SSSS
SSSS
S
SSS
SS
SSSSSSSSSS
SSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS
SSSSS
SS
SS
SSSS
S
SSSS
SSS
SSSSSSS
S
SS
SS
SSSSSS
SSS
S
SSSS
SSSS
S
SSS
SS
SSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS
El pronóstico realizado con el modelo ARIMA(1,1,0) muestra que los valores de
la predicción se estabilizan en el valor promedio de la serie, aproximación que
difiere de los valores de la serie original los cuales tienden a decrecer en el
periodo de estudio.
El siguiente paso es la modelación de los residuales de forma GARCH, para lo
cual, lo primero que requiere es ilustrar como se presenta la correlación de los
residuales al cuadrado.
78
Figura 10: Correlación residuales al cuadrado precio promedio acción BAVARIA
0 Differences
0 5 10 15 20 25-1.00
-0.75
-0.50
-0.25
0.00
0.25
0.50
0.75
1.00
CORRSPARTIALS
A continuación se procedió a la estimación del modelo de manera simultánea,
esto es, modelando la serie como un ARIMA (1,1,0) y los residuales de una
manera GARCH(1,1).
De forma que se estimó el siguiente modelo
( ) 122
1102
11
−−
−
++==
+=
ttt
ttt
hwawwaEVar
adppabcdppab(54)
79
Tabla 25: Estimación GARCH precio promedio acción Bavaria
La Figura 11 ilustra la variable del precio promedio de la acción de Bavaria,
con una banda superior y otra inferior, calculadas como dos desviaciones
estándar condicionales, de manera que para cada punto se calcula la raíz de su
varianza condicional de acuerdo al modelo GARCH.
Figura 11: Modelación varianza condicional precio promedio acción BAVARIA Two Conditional Standard Deviations Around DBAVARIA
50 100 150 200 250 300 350-0.105
-0.070
-0.035
0.000
0.035
0.070
0.105
0.140UPPERLOWERDLPROMEDIO
Se observa que con la modelación de la varianza condicional de los residuales
de manera GARCH, se capta la volatilidad de la serie, la cual en sus momentos
de mayor dispersión el ancho de la bandas se incrementa. Esto representa que
el modelo ha ganado en capacidad explicativa al poder incluir dentro de su
pronóstico capacidad de predecir volatilidades de manera más concreta que la
modelación ARIMA exclusivamente.
Variable Coeff Std Error T-Stat Signif *********************************************************
1. c1 0.25856 0.07039 3.67316 0.00023 2. w0 0.00004 0.00001 3.74346 0.00018 3. w1 0.22946 0.07667 2.99224 0.00276 4. w2 0.53794 0.09868 5.45089 0.00000
80
La mejoría de la modelación y por tanto del pronóstico se encuentra en poder
predecir las volatilidades, esto es en los periodos donde la variable de interés
presenta volatilidad, este amplía los intervalos para un estimación de un valor
mas aproximado.
Por otro lado, se realiza la estimación con el modelo de red neuronal, el cual
está bajo la perspectiva de una predicción a través de un proceso de ensayo y
error. Se le presenta a la red la serie original con el 85% de los datos y se
realiza un pronóstico para el 15% restante. Se varía el número de neuronas
desde cinco hasta dieciséis neuronas aproximadamente.
Para cada configuración de la red neuronal, se obtuvieron los valores de la
predicción y se realizó una gráfica para compararla con los valores de la serie
original, tal como se aprecia en la Figura 12 los pronósticos realizados por la
red con diez y trece neuronas son las más próximas a la serie original.
Figura 12: Comparación RNA del precio promedio de la acción de BAVARIA
81
COMPARACION RNA PRECIO PROMEDIO ACCION DE BAVARIA
12000
13500
15000
05/0
2/20
03
12/0
2/20
03
19/0
2/20
03
26/0
2/20
03
05/0
3/20
03
12/0
3/20
03
19/0
3/20
03
26/0
3/20
03
02/0
4/20
03
09/0
4/20
03
16/0
4/20
03
23/0
4/20
03
Fecha
Valo
r
SERIE ORIGINAL 5 NEURONAS 10 NEURONAS 13 NEURONAS 14 NEURONAS
A partir de los estadísticos U-THEIL y MSE, se seleccionó el pronóstico que
realizó la mejor predicción para la serie temporal. Dentro del modelo de redes
neuronales, el que presentó la mejor aproximación a la serie fue el que utilizó
10 neuronas en la capa oculta. Los resultados se aprecian en la Tabla 26.
Tabla 26: Estadísticos MSE y U-Theil para el precio promedio de la acción de BAVARIA
BAVARIA RNA
Estadístico 5
NEURONAS
10
NEURONAS
13
NEURONAS
14
NEURONAS
RSE 878.16 150.85 200.88 431.36
U-THEIL 0.0316 0.0056 0.0074 0.015
Figura 13: Comparación errores RNA del precio promedio de la acción de BAVARIA
82
COMPARACION ERRORES RNA PRECIO PROMEDIO ACCION BAVARIA
0
0,1
0,2
0,3
0,4
05/0
2/20
03
12/0
2/20
03
19/0
2/20
03
26/0
2/20
03
05/0
3/20
03
12/0
3/20
03
19/0
3/20
03
26/0
3/20
03
02/0
4/20
03
09/0
4/20
03
16/0
4/20
03
23/0
4/20
03
Fecha
5 NEURONAS 10 NEURONAS 13 NEURONAS 14 NEURONAS
Como se aprecia en la Figura 13, tanto con cinco como con catorce neuronas
en la capa oculta la predicción sobreestima a la serie original. Adicionalmente,
un gran número de neuronas en la capa oculta hace que el proceso
computacional sea mucho más lento y no genera mejores resultados.
Figura 14: Pronóstico RNA precio promedio acción BAVARIA
PRONÓSTICO SERIE PRECIO PROMEDIO ACCIÓN BAVARIA A TRAVÉS DE RNA
6000
8000
10000
12000
14000
16000
21/1
1/2 0
01
21/0
1/2 0
02
21/0
3/20
02
21/0
5/20
02
21/0
7/20
02
21/0
9/20
02
21/ 1
1/20
02
2 1/0
1 /20
0 3
21/ 0
3/2 0
03
Fecha
Valo
r
original diez neuronas
83
Al comparar las predicciones realizadas con la metodología ARIMA y con las
redes neuronales, puede apreciarse que el primero pronostica la serie hacia un
valor constante, mientras que la serie original decae a partir de la fecha del
pronóstico, tal como lo alcanza a predecir la red neuronal.
Se comparan los pronósticos realizados tanto con el modelo ARIMA y el de
redes neuronales a partir de los estadísticos MSE y U-THEIL mostrando los
mejores resultados la red neuronal con 10 neuronas en la capa oculta ya que
los valores asociados a estos estadísticos son más cercanos a cero, lo que
sugiere que este modelo presenta una mejor aproximación a la serie original.
Figura 15: Comparación Pronósticos precio promedio acción Bavaria
Estadísticos Gráfica
PRECIO PROMEDIO BAVARIA
ARIMA RED NEURONAL
MSE 1,551 158
U-THEIL 0.05 0.01
COMPARACION PRONÓSTICO PRECIO PROMEDIO ACCION BAVARIA
10000
12000
14000
16000
F echa
SERIE ORIGINAL RNA 10 NEURONAS ARIM A (1,1,0)
84
Precio promedio de la acción de Argos
Para el precio promedio de la acción de Argos, se cuenta con 354
observaciones diarias que van de lunes a viernes desde el 5 de noviembre de
2.001 hasta el 25 de marzo de 2.003. La serie exhibe un comportamiento
irregular con tendencia positiva, no se identifica un comportamiento estacional
ni de ciclos.
Figura 16: Precio promedio acción Argos
Acción Argos Precio Promedio
50 100 150 200 250 300 3504000
5000
6000
7000
8000
9000
10000
El precio mínimo que presenta la serie en este periodo de tiempo es de
$4.449,35 y el máximo de $9.508,06, el valor promedio de la serie es de
$7.413
85
Se verifica la estacionariedad de la serie a través del estadístico de Dickey-
Fuller y se encuentra que no se rechaza la hipótesis nula de raíz unitaria, se
escoge la mejor transformación a la serie y se realiza el proceso de estimación
y pronóstico de la serie.
A partir de las funciones de autocorrelación simple y parcial, se estima la serie
como un ARIMA(1,1,0)
Tabla 27: Estimación ARIMA precio promedio acción de Argos
Se verifican los supuestos de que los residuales conjuntamente sean distintos
de cero y presenta un comportamiento autorregresivo de orden uno, AR(1),
finalmente el modelo queda expresado de la siguiente manera:
( ) 263.14196.01 −=− tt aZB (55)
The ARIMA Procedure Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MU 14.26359 6.77813 2.10 0.0362 0 AR1,1 0.19643 0.05707 3.44 0.0007 1
AIC 3569.113 SBC 3576.514
86
A partir de la estimación y la verificación del modelo ARIMA, se realiza un
pronóstico 54 pasos adelante, en color negro, se presenta la serie original, el
pronóstico en color rojo y los intervalos de confianza en color azul.
La predicción realizada con este modelo muestra una tendencia positiva de la
serie, similar al comportamiento de los datos originales.
Figura 17: Pronóstico ARIMA precio promedio acción Argos
SSSSSSSSSSSSSSSS
SSSSSSSSSSSSSS
S
SSSSSS
S
SS
SSSSSS
S
S
SSSSSSS
SSS
SSSSSSSSSSSSSS
SSSSSSSSSSS
SS
SSSS
SSS
SSSSSSS
S
SSSSSSSSSSSSSS
S
SSSSSSS
S
SSSSSSSSS
SSSSSS
S
SS
SSSSSS
S
S
SSSSSSS
SSS
SSSSSSSSSSS
SSSSSSSSSSSSS
S
SS
SSSS
SSS
SSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS
Luego se modelan los residuales de la forma GARCH, se presenta la función de
los residuales al cuadrado.
87
Figura 18: Correlación residuales al cuadrado precio promedio acción Argos
0 Differences
0 5 10 15 20 25-1.00
-0.75
-0.50
-0.25
0.00
0.25
0.50
0.75
1.00
CORRSPARTIALS
A continuación se procedió a la estimación del modelo de manera simultánea,
esto es, modelando la serie como un ARIMA (1,1,0) y los residuales de una
manera GARCH(1,0).
De forma que se estimó el siguiente modelo
( ) 2110
2
11
−
−
+==
+=
tt
ttt
awwaEVar
adppaacdppaa (56)
88
Tabla 28: Estimación GARCH precio promedio acción Argos
En la Figura 19 se ilustra la variable precio promedio de la acción de Argos,
con una banda superior y otra inferior, calculadas como dos desviaciones
estándar condicionales, de manera que para cada punto se calcula la raíz de su
varianza condicional de acuerdo al modelo GARCH.
Figura 19: Modelación varianza condicional precio promedio acción Argos
Two Conditional Standard Deviations Around DARGOS
50 100 150 200 250 300 350-0.100
-0.075
-0.050
-0.025
-0.000
0.025
0.050
0.075
0.100UPPERLOWERDLARGOS
Al igual que con la serie del precio promedio de la acción de Bavaria, con la
modelación de la varianza condicional de los residuales de manera GARCH se
capta la volatilidad de la serie, la cual en sus momentos de mayor dispersión el
Variable Coeff Std Error T-Stat Signif ***********************************************************
1. c1 0.72540 9.29313e-05 7805.71256 0.0000 2. w0 0.00107 0.09253 2105.49082 0.0000 3. w1 4.70447e-04 1.73726e-07 2707.98348 0.0000
89
ancho de la bandas se incrementa. Esto representa que el modelo ha ganado
en capacidad explicativa al poder incluir dentro de su pronóstico capacidad de
predecir volatilidades de manera más concreta que la modelación ARIMA
exclusivamente.
El pronóstico con redes neuronales permite apreciar que con pocas neuronas
en la capa oculta, la aproximación genera una sobreestimación de la serie, por
otro lado, un gran número de neuronas en la capa oculta hace que el proceso
computacional sea mucho más lento y no genera mejores resultados, también
presenta problemas de sobreestimación. Se varía el número de neuronas en la
capa oculta de cinco a diecisiete y la mejor aproximación se presenta en la
Figura 20.
Figura 20: Pronóstico RNA precio promedio acción Argos
PRONÓSTICO SERIE PRECIO PROMEDIO ACCIÓN ARGOS A TRAVÉS DE RNA
4000
5000
6000
7000
8000
9000
10000
01/1
1/20
01
01/1
2/20
01
01/0
1/20
02
01/0
2/20
0201
/03/
2002
01/0
4/20
02
01/0
5/20
02
01/0
6/20
02
01/0
7/20
02
01/0
8/20
02
01/0
9/20
02
01/1
0/20
02
01/1
1/20
02
01/1
2/20
02
01/0
1/20
03
01/0
2/20
0301
/03/
2003
01/0
4/20
03
Fecha
Valo
r
serie original catorce neuronas
90
Dentro del modelo de redes neuronales, el que presentó la mejor aproximación
a la serie original fue el que utilizó 14 neuronas en la capa oculta.
A pesar de que el modelo ARIMA pronostica la serie con tendencia positiva,
existe un mejor acercamiento entre la serie original y la serie pronosticada por
la red neuronal. Se realiza la comparación entre los pronósticos generados por
los modelos ARIMA y Redes Neuronales, se encuentra que la mejor
aproximación la ofrece la RNA con 14 neuronas en la capa oculta, pues
presenta los menores valores de MSE y U-THEIL.
Figura 21: Comparación Pronósticos precio promedio acción Argos
Estadísticos Gráfica
PRECIO PROMEDIO ARGOS
ARIMA RED NEURONAL
MSE 630 80
U-THEIL 0.032 0.004
C OM P A R A C ION P R ON ÓST IC O P R EC IO P R OM ED IO A C C IÓN A R GOS
7000
8000
9000
10000
F echa
SERIE ORIGINAL RNA 14 NEURONAS ARIM A (1,1,0)
91
Precio promedio acción de Valbavaria
Para la serie en estudio del precio promedio de la acción de Valbavaria, los
datos son diarios y van de lunes a viernes desde el 1 de noviembre de 2.001
hasta el 2 de mayo de 2.003, en total se cuenta con 360 observaciones.
Figura 22: Precio promedio acción de Valbavaria
Acción Valbavaria Precio Promedio
50 100 150 200 250 300 35050
100
150
200
250
300
350
400
La serie del precio promedio de Valbavaria presenta un comportamiento con
tendencia negativa durante el periodo de estudio. No se identifica
comportamiento estacional en la serie ni se identifican ciclos en la misma. El
precio mínimo que presenta la serie en este periodo de tiempo es de $ 96,31 y
el máximo de $385,42, el valor promedio de la serie es de $183,89.
92
Se verifica la estacionariedad de la serie a través del estadístico de Dickey-
Fuller y se encuentra que no se rechaza la hipótesis nula de raíz unitaria, se
escoge la mejor transformación a la serie y se realiza el proceso de estimación
y pronóstico de la serie.
La serie se estima como un proceso autorregresivo que depende del primer,
sexto y décimo periodo sin tener en cuenta la constante.
Tabla 29: Estimación ARIMA precio promedio acción de Valbavaria
El modelo queda expresado de la siguiente manera
( ) tt aZBBB =++− 106 191.0125.022.01 (57)
The ARIMA Procedure
Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag AR1,1 0.22344 0.05460 4.09 <.0001 1 AR1,2 -0.12538 0.05459 -2.30 0.0223 6 AR1,3 -0.19131 0.05457 -3.51 0.0005 10 AIC 2213.954 SBC 2225.115
93
Con el modelo estimado, se realiza un pronóstico de 55 datos hacia delante, en
color negro se presenta la serie original, en color rojo el pronóstico y en azul se
presentan los intervalos de confianza. Como puede observarse en la Figura
22, el pronóstico a través de este modelo presenta una caída al principio de la
predicción y luego se estabiliza en un valor medio.
Figura 23: Pronóstico ARIMA precio promedio acción Valbavaria
SSSSSSSSSSSSSSSSSS
S
S
S
S
S
S
S
SSS
SSS
SSS
SSS
SSSS
S
SSS
SSSSSSS
SSSSS
SS
SSS
SSSS
SS
SSSSSS
SSSSSSS
SSSS
SSSS
SSS
SSSSSSSSSSSSSS
SSSSSSSS
SSSSSSSSSSS
S
S
S
S
S
SS
SSS
S
SSSS
SSSS
SSSS
S
SSS
S
SSS
SSSSS
SSS
SS
SSS
SSSS
SS
S
SSSSS
SSSS
SSSSSSS
SSSS
SSS
SSSSSSSSSSSSS
SSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS
Se realiza un correlograma de los residuales al cuadrado, y se verifica que se
puede modelar con un modelo GARCH.
94
Figura 24: Correlación residuales al cuadrado precio promedio acción Valbavaria
0 Differences
0 5 10 15 20 25-1.00
-0.75
-0.50
-0.25
0.00
0.25
0.50
0.75
1.00
CORRSPARTIALS
Se procede a la estimación del modelo de manera simultánea, esto es,
modelando la serie como un ARIMA ( 0,1,10,6,1 ) y los residuales de una
manera GARCH(1,0).
De forma que se estimó el siguiente modelo
( ) 2110
2
11
−
−
+==
+=
tt
ttt
awwaEVar
adppavcdppav (58)
95
Tabla 30: Estimación GARCH precio promedio acción Valbavaria
Variable Coeff Std Error T-Stat Signif ********************************************************** 1. c1 0.30926 4.421e-06 69938.7 0.0000 2. w0 0.02437 1.060e-06 22980.4 0.0000 3. w1 2.86617e-05 1.338e-09 21413.4 0.0000
En la Figura 24 se ilustra la variable precio promedio de la acción de
Valbavaria, con una banda superior y otra inferior, calculadas como dos
desviaciones estándar condicionales, de manera que para cada punto se
calcula la raíz de su varianza condicional de acuerdo al modelo GARCH.
Figura 25: Modelación varianza condicional precio promedio acción Valbavaria
Two Conditional Standard Deviations Around DVALBAVARIA
50 100 150 200 250 300 350-0.4
-0.3
-0.2
-0.1
-0.0
0.1
0.2
0.3
0.4UPPERLOWERDLVALBAVARIA
Al igual que con las series anteriores, se observa que con la modelación de la
varianza condicional de los residuales de manera GARCH, se capta la
volatilidad de la serie. Esto representa que el modelo ha ganado en capacidad
explicativa al poder incluir dentro de su pronóstico capacidad de predecir
96
volatilidades de manera más concreta que la modelación ARIMA
exclusivamente.
Con el modelo de Redes neuronales, se realizan varias corridas con distintos
números de neuronas en la capa oculta.
Figura 26: Pronóstico RNA precio promedio acción Valbavaria
PRONÓSTICO SERIE PRECIO PROMEDIO ACCIÓN VALBAVARIA A TRAVÉS DE RNA
0
100
200
300
400
500
F echa
serie original quince neuronas
Los resultados muestran que la red neuronal con 15 neuronas en la capa
oculta, proporciona los menores valores para los estadísticos MSE y U-THEIL,
proporcionando una mejor aproximación a la serie que el modelo ARIMA.
97
Figura 27: Comparación Pronósticos precio promedio acción Valbavaria
Estadísticos Gráficas
PRECIO PROMEDIO
VALBAVARIA
ARIMA RED NEURONAL
MSE 22.267 2.249
U-THEIL 0.07 0.01
COMPARACIÓN PRONÓSTICO PRECIO PROMEDIO ACCION VALBAVARIA
50
100
150
200
F echa
SERIE ORIGINAL RNA 15 ARIM A
Índice General Bolsa de Colombia
El índice de la Bolsa nacional mide de manera agregada la variación de los
precios de las acciones más representativas del mercado. El objetivo principal
es representar las variaciones del conjunto de acciones más transadas de una
manera fiel, de tal forma que cumpla el requisito de replicabilidad, es decir que
a partir del mismo se pueda conformar un portafolio con las acciones del
índice, base fundamental para la construcción de productos derivados.
[www.bvc.com.co]
La serie en estudio del IGBC, va desde julio 3 de 2.001 hasta el 3 de diciembre
de 2.003 en total se cuenta con 280 datos diarios de lunes a viernes. En
general, presenta un comportamiento ascendente hasta comienzos del año
98
2.003, luego presenta un decaimiento entre los meses de febrero y marzo y
finalmente vuelve a tomar una tendencia creciente hasta principios de
diciembre. No se detectan ciclos ni estaciones dentro de la serie.
Figura 28: Índice general Bolsa de Colombia
Indice General Bolsa de Colombia
25 50 75 100 125 150 175 200 225 250 2751280
1440
1600
1760
1920
2080
2240
2400
El valor mínimo que presenta la serie en este periodo de tiempo es de
1.292,55 y el máximo de 2.254, el valor promedio de la serie es de 1.8423,63.
Se verifica la estacionariedad de la serie a través del estadístico de Dickey-
Fuller y se encuentra que no se rechaza la hipótesis nula de raíz unitaria, se
99
escoge la mejor transformación a la serie y se realiza el proceso de estimación
y pronóstico de la serie.
Se estima el modelo como un proceso autorregresivo de orden uno y tres.
Tabla 31: Estimación ARIMA del IGBC
El modelo finalmente queda expresado de la siguiente manera:
( ) 511.3169.041.01 3 −=−+ tt aZBB (59)
A partir de la estimación del modelo ARIMA se sigue a la predicción para 42
datos hacia delante, en color negro se presenta la serie original, en color rojo
la predicción y en azul se presentan los intervalos de confianza. Se observa
que la predicción realizada con el modelo ARIMA tiene tendencia positiva tal
como lo muestra la serie original.
The ARIMA Procedure Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MU 14.26359 6.77813 2.10 0.0362 0 AR1,1 0.19643 0.05707 3.44 0.0007 1
AIC 3569.113 SBC 3576.514
100
Figura 29: Pronóstico ARIMA del IGBC
S
S
S
SSS
S
S
SSS
SSSSSSS
SSS
SSSSSS
S
S
SS
SS
S
SSS
SSS
SS
SS
SSS
SSS
SSSSSSS
SSSSSSSSSSSS
SSSSSS
SSSSSS
SS
SSSSS
SS
S
S
SS
S
S
S
SSS
S
SSSS
SS
SSS
SSSSSS
SS
SS
SS
S
S
S
S
S
S
SS
SSS
SS
SSS
SS
SSSSSS
SSSSSSSSSSS
SS
SSSSS
SSSSS
SSS
SSSS
SSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSSS
Se realiza el correlograma de los residuales al cuadrado y se encuentra que las
correlaciones son significativamente distintas de cero.
Se procede a la estimación del modelo de manera simultánea, esto es,
modelando la serie como un ARIMA ( 0,1,3,1 ) y los residuales de una manera
GARCH(1,0).
De forma que se estimó el siguiente modelo
( ) 122
1102
11
−−
−
++==
+=
ttt
ttt
hwawwaEVar
adigbccdigbc (60)
101
Figura 30: Correlación residuales al cuadrado IGBC
0 Differences
0 5 10 15 20 25-1.00
-0.75
-0.50
-0.25
0.00
0.25
0.50
0.75
1.00
CORRSPARTIALS
Tabla 32: Estimación GARCH del IGBC
Variable Coeff Std Error T-Stat Signif *********************************************** 1. c1 0.42471 0.06479 6.55447 0.0000 2. w0 0.36251 0.00000 2.88854 0.0038 3. w1 0.29416 0.07164 4.10592 0.0000 4. w2 0.61162 0.06297 9.71179 0.0000
En la Figura 31 se ilustra la variable precio promedio de la acción de
Valbavaria, con una banda superior y otra inferior, calculadas como dos
desviaciones estándar condicionales, de manera que para cada punto se
calcula la raíz de su varianza condicional de acuerdo al modelo GARCH.
102
Figura 31: Modelación varianza condicional IGBC
Two Conditional Standard Deviations Around DIGBC
25 50 75 100 125 150 175 200 225 250 275-0.06
-0.04
-0.02
0.00
0.02
0.04
0.06UPPERLOWERDLICBG
Se observa que con la modelación de la varianza condicional de los residuales
de manera GARCH, se capta la volatilidad de la serie, la cual en sus momentos
de mayor dispersión el ancho de la bandas se incrementa. Esto representa que
el modelo ha ganado en capacidad explicativa al poder incluir dentro de su
pronóstico capacidad de predecir volatilidades de manera mas concreta que la
modelación ARIMA exclusivamente.
El modelo de Red neuronal, con pocas neuronas en la capa oculta sobreestima
la serie, por otro lado, un gran número de neuronas en la capa oculta hace que
el proceso computacional sea mucho más lento y no genera mejores
resultados, también presenta problemas de sobreestimación. Dentro del
modelo de redes neuronales, el que presentó la mejor aproximación a la serie
original fue el que utilizó 10 neuronas en la capa oculta.
103
Figura 32: Pronóstico RNA del IGBC
PRONÓSTICO SERIE IGBC A TRAVÉS DE RNA
1200,00
1500,00
1800,00
2100,00
2400,00
29/1
0/20
02
29/1
2/20
02
28/0
2/20
03
29/0
4/20
03
29/0
6/20
03
29/0
8/20
03
29/1
0/20
03
Fecha
Valo
r
serie original diez neuronas
Los resultados muestran que la red neuronal con 10 neuronas en la capa
oculta, proporciona los menores valores para los estadísticos MSE y U-THEIL,
proporcionando una mejor aproximación a la serie.
Figura 33: Comparación Pronósticos del IGBC
Estadísticos Gráfica
IGBC
ARIMA
RED
NEURONAL
MSE 29 14
U-THEIL 0.007 0.003
COMPARACIÓN PRONÓSTICO IGBC
2000
2100
2200
2300
F echa
SERIE ORIGINAL RNA 10 ARIM A
104
2.2 SERIES ESTACIONALES Y/O DE PRODUCCIÓN
Aceite de crudo de palma africana
La palma de aceite es una planta tropical propia de climas cálidos que crece en
tierras por debajo de los 500 metros sobre el nivel del mar. Su origen se ubica
en el golfo de Guinea en el África occidental. De ahí su nombre científico, Elaeis
guineensis Jacq., y su denominación popular: palma africana de aceite.
[www.fedepalma.org]
La expansión del cultivo en Colombia ha mantenido un crecimiento sostenido.
A mediados de la década de 1960 existían 18.000 hectáreas en producción y
hoy existen más de 150.000 hectáreas en 54 municipios del país distribuidos
en cuatro zonas productivas:
• Norte - Magdalena, norte del Cesar, Atlántico, Guajira
• Central - Santander, Norte de Santander, sur del Cesar, Bolívar
• Oriental - Meta, Cundinamarca, Casanare, Caquetá
• Occidental - Nariño
Colombia es el primer productor de palma de aceite en América Latina y el
cuarto en el mundo. [www.fedepalma.org]
La serie en estudio del tiempo de la producción de aceite de crudo de la palma
africana cuya fuente es FEDEPALMA, cuenta con 154 datos mensuales que
comienzan desde enero de 1.990 y finaliza para en el mes de octubre de
2.002. Esta serie muestra un comportamiento irregular, mostrando tendencia
105
positiva. Parece presentar comportamiento estacional, ya que se identifican
los valores más bajos cada diciembre, a pesar de que entre el año de 1.998 y
el 2.000 la variabilidad de la serie se reduce, esta vuelve a retomar su
comportamiento a partir del año 2.001.
Figura 34: Producción aceite de palma
Producción aceite de palma
20 40 60 80 100 120 14010000
20000
30000
40000
50000
60000
El valor mínimo de la producción de palma africana es fue de 12.336 toneladas
y el máximo nivel de producción durante el periodo alcanzó las 56.694
toneladas. El valor promedio de producción fue de 33.276,47 toneladas.
Se verifica la estacionariedad de la serie a través del estadístico de Dickey-
Fuller y se encuentra que no se rechaza la hipótesis nula de raíz unitaria, se
106
escoge la mejor transformación a la serie y se realiza el proceso de estimación
y pronóstico de la serie.
A pesar de que se trata de realizar una estimación con un modelo estacional,
este presenta valores significativos. Se realiza entonces la estimación a la serie
tal como se presenta en la Tabla 33, a continuación se presentan los
resultados:
Tabla 33: Estimación ARIMA producción aceite de palma africana
Finalmente el modelo queda expresado de la siguiente manera:
( ) ( ) tt aBZBBB 12754 5652.01178.02331.0363.01 +=+−− (61)
The ARIMA Procedure
The ARIMA Procedure
Conditional Least Squares Estimation
Standard Approx
Parameter Estimate Error t Value Pr > |t| Lag
MA1,1 -0.56589 0.08668 -6.53 <.0001 12 AR1,1 -0.36378 0.08144 -4.47 <.0001 4 AR1,2 -0.23319 0.08205 -2.84 0.0052 5 AR1,3 -0.17835 0.08488 -2.10 0.0376 7
AIC 2448.346 SBC 2459 785
107
Se realiza la predicción con 24 datos hacia delante, en color negro se muestra
la serie original, en color rojo el pronóstico y en color azul los intervalos de
confianza. El pronóstico con este modelo muestra un valor constante, no toma
en cuenta los picos que presenta la serie.
Se realiza además el correlograma de los residuales al cuadrado y se
encuentra que las correlaciones no son significativamente distintas de cero,
esto mismo ocurre para todas las series de producción e irregulares.
Figura 35: Pronóstico ARIMA de producción de palma africana
S
S S
S
S
S
SS
S
S
S
S
S S SS
SS
SS
S
S
S
S
SS S S
S
S
S S S
SS
SS
S
S
S
S
S
S
S S S
S S
S
S
S
SS
S
S
S
S SS S
S
S SS
SS
SS S S S
S SS S
S S S S S S S S S
Bajo la perspectiva de ensayo y error, se realiza la predicción a través de redes
neuronales. Se le presenta a la red la serie original con el 85% de los datos y
108
se realiza un pronóstico para el 15% restante. Se varía el número de
neuronas desde cinco hasta dieciséis neuronas aproximadamente.
Para este tipo de serie fue necesario reducir la escala para presentar la serie a
la RNA. Con pocas neuronas en la capa oculta, la aproximación genera una
sobreestimación de la serie, por otro lado, un gran número de neuronas en la
capa oculta hace que el proceso computacional sea mucho más lento y no
genera mejores resultados, también presenta problemas de sobreestimación.
Dentro del modelo de redes neuronales, el que presentó la mejor
aproximación a la serie original fue el que utilizó 10 neuronas en la capa
oculta.
Tal como se evidencia en las Figuras 36 y 37, la red neuronal capta los picos
de la serie original, mientras que el modelo ARIMA lleva la serie a un valor
medio, lo que se refleja en los valores de los estadísticos MSE y U-THEIL.
109
Figura 36: Pronóstico RNA de producción de palma africana
PRONÓSTICO SERIE ACEITE DE PALMA A TRAVÉS DE RNA
0,000
20,000
40,000
60,000
Dic
-90
Dic
-91
Dic
-92
Dic
-93
Dic
-94
Dic
-95
Dic
-96
Dic
-97
Dic
-98
Dic
-99
Dic
-00
Dic
-01
Fecha
Prod
ucci
ón (T
m)
serie original diez neuronas
Figura 37: Comparación Pronósticos de producción de palma africana
Estadísticos Gráfica
PRODUCCION PALMA
ARIMA RED NEURONAL
MSE 4,279 3,479
U-THEIL 0.07 0.05
COMPARACION PRONÓSTICO PALMA AFRICANA
20000
35000
50000
65000
F echa
SERIE ORIGINAL RNA 10 ARIM A
|
110
Cacao En Grano ($/Toneladas)
El cacao se produce, en mayor o menor escala, en casi todas las regiones
(departamentos) del país. Sin embargo, como en la mayoría de los cultivos,
existe una cierta concentración o regionalización de la producción.
[www.agrocadenas.gov.co].
Para el año 2001 hubo una superficie total cosechada de cacao de 93.048
hectáreas, con un rendimiento promedio de 0,47 toneladas por hectárea. Esta
superficie representó el 4,06% del total correspondiente a cultivos
permanentes, y el 2,37% del total de la superficie de cultivos en Colombia.
El departamento que tradicionalmente ha concentrado la mayor producción de
cacao es Santander con el 49,29% de participación en el total. Le siguen en
importancia con sensiblemente menor participación: Norte de Santander,
Tolima, Huila, Arauca, Antioquia, Cesar, Nariño, Cundinamarca y Risaralda los
cuales en conjunto representan el 44,7% del total. Estos diez departamentos
representan en total el 93.98%, lo cual indica una alta concentración de la
producción en ellos.
La gráfica de cacao en grano ($/toneladas) es una serie mensual que comienza
en diciembre de 1.980 y finaliza en diciembre de 2.002, cuenta en total con
279 datos, los cuales fueron obtenidos de la página web
www.agrocadenas.gov.co. La serie presenta de forma general una tendencia
111
creciente durante su trayectoria a excepción de diciembre de 1.998 y el 2.000
donde tiende a estabilizarse, luego de esta fecha vuelve a tener una
pronunciada tendencia positiva.
Figura 38: Producción cacao en grano ($/toneladas)
Cacao en grano ($/ton)
50 100 150 200 2500
800000
1600000
2400000
3200000
4000000
4800000
5600000
El valor mínimo y máximo de la serie son 95.000 y 5.254.375 $/toneladas
respectivamente. Se verifica la estacionariedad de la serie a través del
estadístico de Dickey-Fuller y se encuentra que no se rechaza la hipótesis nula
de raíz unitaria, se escoge la mejor transformación a la serie y se realiza el
proceso de estimación y pronóstico de la serie.
112
Tabla 34: Estimación ARIMA Producción cacao en grano ($/toneladas)
Los valores asociados al proceso autorregresivo son significativos, y por tanto
el modelo queda explícito de la siguiente manera:
( ) tZBB 62703.0194.01 ++ (62)
Los pronósticos para esta serie a partir del modelo estimado se presentan a
continuación, como se observa en la Figura 39, la predicción muestra una
tendencia positiva tal como lo reflejaba la serie original. Se realiza la predicción
para 41 datos hacia delante, los valores actuales se presentan en negro, los
pronósticos en rojo y en azul los intervalos de confianza.
The ARIMA Procedure Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MU 8.90412 3.22443 2.76 0.0062 0 MA1,1 -0.19416 0.06247 -3.11 0.0021 1 MA1,2 -0.27038 0.06223 -4.34 <.0001 6 AR1,1 0.17088 0.06552 2.61 0.0097 2 AIC 2251.61 SBC 2265.466
113
Figura 39: Pronóstico ARIMA de Producción cacao en grano ($/toneladas)
SS S S S S S
SS S S S S
S
S
SS S S
SS S S S S S S S S S S
S S S S S S
SS
S S S S S S
SS S S S
S
S
S
SS S
SS
SS S S S S S
S S S SS S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S
Para la estimación de redes neuronales, se le presenta a la red la serie original
con el 85% de los datos y se realiza un pronóstico para el 15% restante,
además se realiza una reducción de escala para que pueda ser trabajada con la
RNA. Se varía el número de neuronas desde cinco hasta dieciséis neuronas
aproximadamente.
Con pocas neuronas en la capa oculta, la aproximación genera una
sobreestimación de la serie, por otro lado, un gran número de neuronas en la
capa oculta hace que el proceso computacional sea mucho más lento y no
genera mejores resultados, también presenta problemas de sobreestimación.
Dentro del modelo de redes neuronales, el que presentó la mejor
114
aproximación a la serie original fue el que utilizó 10 neuronas en la capa
oculta.
Figura 40: Pronóstico RNA de Producción cacao en grano ($/toneladas)
PRONÓSTICO SERIE CACAO A TRAVÉS DE RNA
0
1500
3000
4500
Dic
-80
Dic
-82
Dic
-84
Dic
-86
Dic
-88
Dic
-90
Dic
-92
Dic
-94
Dic
-96
Dic
-98
Dic
-00
Dic
-02
Fecha
Valo
r
serie original siete neuronas
En la Figura 41 se presenta la comparación de los pronósticos de la red
neuronal y el modelo ARIMA, se encuentra que la red con 7 neuronas en la
capa oculta muestra la mejor aproximación de la serie, pues a pesar que el
modelo ARIMA muestra una tendencia positiva, el pronóstico con la red
neuronal logra acercarse más a la serie original.
115
Figura 41: Comparación Pronósticos de producción cacao($/tonelada)
Estadísticos Gráfica
PRODUCCION CACAO
ARIMA RED NEURONAL
MSE 948 118
U-THEIL 0.18 0.02
COMPARACIÓN PRONÓSTICO PRODUCCION CACAO ($/Tonelada)
0
2000
4000
6000
F echa
SERIE ORIGINAL RNA 7 ARIM A
Precio promedio horarios de energía mercado mayorista ($/kwh)
Esta serie de 245 datos comienza desde el 2 de octubre de 2.002 hasta el 3 de
septiembre del año 2.003. Los datos fueron tomados de la página
www.mem.com.co, estos se registran cada hora y presentan un claro
comportamiento estacional, sus picos más altos se encuentran en la hora 20
(H20) y los más bajos en la hora 4 (H4). [www.mem.com.co].
116
Figura 42: Precio promedio horarios compra de energía
Precios promedio horarios compra de energia
50 100 150 20060
80
100
120
140
160
180
200
Los valores mínimo y máximo de la serie son 68,89 y 182,07 $/Kwh
respectivamente.
Se verifica la estacionariedad de la serie a través del estadístico de Dickey-
Fuller y se encuentra que no se rechaza la hipótesis nula de raíz unitaria, se
escoge la mejor transformación a la serie y se realiza el proceso de estimación
y pronóstico de la serie.
117
Tabla 35: Estimación ARIMA precio promedio horarios compra de energía
Los valores asociados a los promedios móviles y a los procesos autorregresivos
aparecen como significativos, además, con un 01.0=α no se rechaza la
hipótesis nula de que los residuales son iguales a cero. Así, el mejor modelo
ARIMA para esta serie queda expresado de la siguiente manera:
( ) ( ) tt aBBZBBB 122412 6621.02117.014400.0446.0116.01 −+=−+− (63)
Se realiza el pronóstico para 36 datos hacia adelante, en la Figura 43 se
presentan los valores actuales (en negro) y los pronósticos (en rojo) para la
variable del caso. Para el caso de esta serie estacional, el modelo ARIMA
parece mostrar una buena aproximación a la serie original, presentando ciclos
estacionales tal como se comporta la serie original.
The ARIMA Procedure
Conditional Least Squares Estimation
Standard Approx Parameter Estimate Error t Value Pr > |t| Lag
MA1,1 -0.21178 0.06144 -3.45 0.0007 1 MA1,2 0.66216 0.10104 6.55 <.0001 12 AR1,1 0.11672 0.04047 2.88 0.0043 1 AR1,2 -0.44605 0.12708 -3.51 0.0005 12 AR1,3 0.44008 0.12055 3.65 0.0003 24 AIC 1361.151 SBC 1378.385
118
Figura 43: Pronóstico ARIMA precio promedio horarios compra de energía
SSSS
S
SSS
SSS
SSSSS
S
S
S
S
S
S
S
SSSS
S
S
SSSS
SSSSSSS
S
S
S
S
S
S
S
SSSS
S
S
SS
SSSS
SSSSS
S
S
S
S
S
S
SSSSS
S
S
SS
SS
SSS
SSSSS
S
S
S
S
S
S
SSSS
SSSSS
S
SS
SSS
SS
SSSSS
S
S
S
S
S
S
SSSSS
S
SSS
SSS
SSSSS
S
S
S
S
S
S
S
S
SSSS
SSS
SSSS
SSSSS
S
S
SS
S
S
S
SS
SSS
S
SSSS
SSS
SSSS
S
S
SS
S
S
S
SSSS
S
S
SSSS
SSS
SSSSS
S
SS
S
S
S
SSSS
S
S
SSSSS
SSSSSS
S
S
SS
S
S
El trabajo con redes neuronales, está bajo la perspectiva de ensayo y error.
Se le presenta a la red la serie original con el 85% de los datos y se realiza un
pronóstico para el 15% restante. Se varía el número de neuronas desde cinco
hasta dieciséis neuronas aproximadamente. Con pocas neuronas en la capa
oculta, la aproximación genera una sobreestimación de la serie, por otro lado,
un gran número de neuronas en la capa oculta hace que el proceso
computacional sea mucho más lento y no genera mejores resultados, también
presenta problemas de sobreestimación
La red neuronal presenta dificultades para adaptarse al comportamiento
estacional de la serie, por ejemplo con cinco neuronas en la capa oculta,
119
presenta una sobreestimación de los valores para los picos altos, de igual
forma subestima la caída los precios promedios horarios de compra.
Figura 44: Pronóstico RNA 5 neuronas precio promedio horarios compra de energía
PRONÓSTICO SERIE PRECIOS PROMEDIO HORARIOS COMPRA DE ENERGIA A TRAVÉS DE RNA
0
50
100
150
200
250
300
H 0
1
H 2
0
H 1
5
H 1
0
H 0
5
H 2
4
H 1
9
H 1
4
H 0
9
H 0
4
H 2
3
H 1
8
H 1
3
H 0
8
H 0
3
Hora
Prec
io p
rom
edio
serie original cinco neuronas
La mejor aproximación se encuentra con la red neuronal que posee diez
neuronas en la capa oculta.
120
Figura 45: Pronóstico RNA 10 neuronas precio promedio horarios compra de energía
PRONÓSTICO SERIE PRECIOS PROMEDIO HORARIO COMPRA DE ENERGIA A TRAVÉS DE RNA
0
50
100
150
200
250
H 0
1
H 2
0
H 1
5
H 1
0
H 0
5
H 2
4
H 1
9
H 1
4
H 0
9
H 0
4
H 2
3
H 1
8
H 1
3
H 0
8
H 0
3
Hora
Prec
io p
rom
edio
serie original diez neuronas
Se realiza una comparación entre el pronóstico realizado con el modelo ARIMA
y las redes neuronales y los dos modelos muestran una buena aproximación
con respecto a la serie original.
Figura 46: Comparación Pronósticos precio promedio horarios compra de energía
Estadísticos Gráfica
PRECIO PROMEDIO ENERGIA
ARIMA RED NEURONAL
MSE 14 12
U-THEIL 0.06 0.05
COMPARACIÓN PRONÓSTICO PRECIO ENERGIA
0
50
100
150
200
Fecha
SERIE ORIGINAL RNA 10 ARIM A
121
3.3 SERIES IRREGULARES
Ventas Cerveza Águila 300 cc
La gráfica de venta de cerveza Aguila de 300 cc es una serie diaria que
comienza el 29 de enero de 2.003 y finaliza el 31 diciembre de 2.003, cuenta
en total con 300 datos.
Figura 47: Ventas Cerveza Águila 300 cc
Ventas cerveza Aguila 300 cc
25 50 75 100 125 150 175 200 225 2500
25000
50000
75000
100000
125000
150000
175000
Presenta un comportamiento irregular. No se evidencia un comportamiento
estacional o cíclico de la serie. El mínimo valor de la venta de cerveza Aguila
300 cc es de 1.994 cajas y el valor máximo de 167.808 cajas. El valor
promedio de cajas vendidas de esta marca es de 72.350 cajas durante un día.
122
Tabla 36: Estimación ARIMA Ventas Cerveza Águila 300 cc
El modelo queda expresado de la siguiente manera.
( ) 7.71498214.0391.01 6 −=−− tt aZBB (64)
En la Figura 48 se muestra como el pronóstico realizado con el modelo ARIMA
en un principio toma el comportamiento irregular de la serie, pero luego se
estabiliza en un valor medio. En negro se encuentra el valor de la serie
original, en rojo el pronóstico de la serie y en azul se presentan los intervalos
de confianza.
The ARIMA Procedure
Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MU 71498.7 3814.1 18.75 <.0001 0 AR1,1 0.39187 0.05644 6.94 <.0001 1 AR1,2 0.21429 0.05677 3.78 0.0002 6 AIC 5881.862 SBC 5892.486
123
Figura 48: Pronóstico ARIMA venta cerveza Aguila 300 cc
S
S
S
S
S
S
S
S
S
S
S
S
SSS
S
S
S
S
S
S
S
SS
S
S
S
S
S
S
S
S
SS
S
S
S
S
S
S
S
S
S
S
S
S
S
SS
S
SS
S
S
S
S
S
S
S
SS
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
SS
S
S
SS
SS
S
S
SS
S
SS
S
S
S
S
SS
S
S
S
S
SS
S
S
SS
SS
S
S
S
S
SS
S
S
SS
S
SS
S
SS
SS
S
S
S
S
SS
S
S
SS
S
S
SS
S
S
S
S
S
S
S
SS
S
SS
S
S
S
S
SSS
S
SS
S
SS
S
SS
S
SS
S
SSS
SSS
SSS
SSS
SSS
SSS
SSS
El trabajo con redes neuronales, está bajo la perspectiva de ensayo y error.
Se le presenta a la red la serie original con el 85% de los datos y se realiza un
pronóstico para el 15% restante. Se varía el número de neuronas desde cinco
hasta dieciséis neuronas aproximadamente. Con pocas neuronas en la capa
oculta, la aproximación genera una sobreestimación de la serie, por otro lado,
un gran número de neuronas en la capa oculta hace que el proceso
computacional sea mucho más lento y no genera mejores resultados, también
presenta problemas de sobreestimación. Dentro del modelo de redes
neuronales, el que presentó la mejor aproximación a la serie original fue el
que utilizó 7 neuronas en la capa oculta.
124
Figura 49: Pronóstico RNA Ventas Cerveza Águila 300 cc
PRONÓSTICO SERIE VENTAS AGUILA 300cc A TRAVÉS DE RNA
0
50000
100000
150000
200000
29/0
1/20
03
28/0
2/20
03
30/0
3/20
03
29/0
4/20
03
29/0
5/20
03
28/0
6/20
03
28/0
7/20
03
27/0
8/20
03
26/0
9/20
03
26/1
0/20
03
25/1
1/20
03
25/1
2/20
03
Fecha
Valo
r
serie original siete neuronas
A pesar de que el pronóstico ARIMA toma un valor medio para la serie, según
los estadísticos MSE y U-THEIL, presenta una mejor aproximación a la serie
que la red neuronal con 7 neuronas en la capa oculta.
Figura 50: Comparación Pronósticos Ventas Cerveza Águila 300 cc
Estadísticos Gráfica
VENTA AGUILA 300 cc
ARIMA RED NEURONAL
MSE 31,236 38,463
U-THEIL 0.20 0.28
COMPARACION PRONÓSTICO VENTA AGUILA 300 cc
0
75000
150000
225000
F echa
SERIE ORIGINAL RNA 7 ARIM A
125
Ventas Cerveza Poker 300 cc
La gráfica de venta de cerveza Poker de 300 cc es una serie diaria que
comienza el 29 de enero de 2.003 y finaliza el 31 diciembre de 2.003, cuenta
en total con 300 datos. Presenta un comportamiento irregular. No se
detectan picos ni comportamiento estacional.
Figura 51: Ventas Cerveza Poker 300 cc
Serie venta cerveza Poker 300 cc
50 100 150 200 250 3000
10000
20000
30000
40000
50000
60000
70000
80000
90000
El mínimo valor de la venta de cerveza Poker 300 cc es de 533 cajas y el valor
máximo de 81.547 cajas. El valor promedio de cajas vendidas de esta marca
es de 28.044 cajas durante un día.
126
Tabla 37: Estimación ARIMA Ventas Cerveza Poker 300 cc
Después de realizar la estimación del modelo ARIMA y verificar los supuestos,
se encuentra que el mejor modelo que se aproxima a la serie original es el que
está dado por :
( ) ( ) 4.23136224.0182.0438.01105.0733.01 6212 −+−−=−− tt aBBBZBB (65)
En la figura 52 se presenta el pronóstico para esta serie, al principio de la
predicción toma valores de picos altos y bajos de la serie, sin embargo, luego
se estabiliza en un valor medio. En negro se presentan los valores originales
de la serie, en rojo el pronóstico y en azul los intervalos de confianza.
The ARIMA Procedure Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MU 23136.4 2767.5 8.36 <.0001 0 MA1,1 0.43805 0.12880 3.40 0.0008 1 MA1,2 0.18290 0.06875 2.66 0.0083 2 MA1,3 -0.22497 0.05993 -3.75 0.0002 6 AR1,1 0.73322 0.12055 6.08 <.0001 1 AR1,2 0.10544 0.05774 1.83 0.0690 12 AIC 5541.963 SBC 5563.21
127
Figura 52: Pronóstico ARIMA Ventas Cerveza Poker 300 cc
S
S
S
SS
SS
S
S
S
S
S
S
S
S
SS
S
S
S
S
S
S
S
S
S
S
S S
S
S
S
S
S
S
S
S
S
SS
S
SS
S
S
SS
S
SS
S
S
S
S
S
SS
S
SS
S
S
SSS
S
S
S
SS
S
S
S
SSSS
S
S
S
S
S
SSS
S
S S
S
S
S
S
S
S
SS
SS
S
SS
S
SSS
SS
S
S
S
SS
SS
SS
SSS SSSS SSS SSSS SSS SSSS SSSS SSS SSSS SSS SSSS
Se le presentó al modelo de red neuronal la serie original y se realizó el
pronóstico variando el número de neuronas en la capa oculta, se pasó desde
cinco hasta diecisiete neuronas y se encontró que la mejor aproximación la
ofrecía la red con 16 neuronas en la capa oculta. A pesar de que la predicción
toma una forma irregular no representa fielmente la serie original.
128
Figura 53: Pronóstico RNA Ventas Cerveza Poker 300 cc
PRONÓSTICO SERIE VENTA POKER 300 cc A TRAVÉS DE RNA
0
25000
50000
75000
100000
27/0
1/20
03
27/0
2/20
03
27/0
3/20
03
27/0
4/20
03
27/0
5/20
03
27/0
6/20
03
27/0
7/20
03
27/0
8/20
03
27/0
9/20
03
27/1
0/20
03
27/1
1/20
03
27/1
2/20
03
Fecha
Valo
r
serie original dieciseis neuronas
Se realiza la comparación entre el pronóstico realizado por el modelo ARIMA y
la red neuronal y la mejor aproximación la genera la red con 16 neuronas en
la capa oculta, lo que se refleja en los estadísticos MSE y U-THEIL.
Figura 54: Comparación Pronósticos Ventas Cerveza Poker 300 cc
Estadístico Gráfica
VENTA POKER 300 cc
ARIMA RED NEURONAL
MSE 27,648 18,818
U-THEIL 0.39 0.21
COMPARACIÓN PRONÓSTICO VENTA CERVEZA POKER 300 cc
0
40000
80000
120000
F echa
SERIE ORIGINAL RNA 16 ARIM A
129
Ventas Cerveza Club Colombia
La gráfica de venta de cerveza Club Colombia en lata de 10 onzas es una serie
diaria que comienza el 29 de enero de 2.003 y finaliza el 31 diciembre de
2.003, cuenta en total con 300 datos. Presenta un comportamiento irregular.
No se detectan un comportamiento estacional.
El valor máximo de cajas vendidas de cerveza Club Colombia 10 onzas es de
14.391. El valor promedio de cajas vendidas de esta marca es de 1.981 cajas
durante un día. Se realiza la estimación a través del modelo ARIMA, los
resultados se presentan en la Tabla 38.
Figura 55: Ventas Cerveza Club Colombia 10 oz
Serie venta Club Colombia lata 10 onzas
50 100 150 200 250 3000
2500
5000
7500
10000
12500
15000
130
Tabla 38: Estimación ARIMA Ventas Cerveza Club Colombia 10 oz
El modelo queda expresado de la siguiente manera:
( ) ( ) tt aBZB 33 744.01891.01 +=+ (66)
A partir de la estimación del modelo, se realiza el pronóstico de la serie. En
negro se presenta la serie original, en rojo el pronóstico y en azul los intervalos
de confianza. La predicción de la serie toma picos altos y bajos que tienden a
estabilizarse a través del tiempo.
The ARIMA Procedure
Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MU 1827.7 143.93029 12.70 <.0001 0 MA1,1 -0.74442 0.10545 -7.06 <.0001 3 AR1,1 -0.89107 0.07447 -11.97 <.0001 3 AIC 4714.913 SBC 4725.537
131
Figura 56: Pronóstico ARIMA Ventas Cerveza Club Colombia 10
SSSSS
S
SS S
S
S
S
S SSSS
S
SS
SS
S
SS
S
S SSSS
S
S
SS
S
S
S SS
S
S
S SSS SS
S
S
S S
S
S
S
SS
S
SS
S
SS
S
S S
S
S S
S
S S
S
S S
S
SS
S
SS
S
SS
S
SS
SS
S
SS
S
SS S
SSS
S
S S
SS S
SS
S
SS
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
SS
S
SS
S
SS
S
SS
S
SS
S
SS
S
SS
SS
SS
SSSSS
Por otro lado, la red neuronal que mejor se aproximó a la serie real está
compuesta por 14 neuronas en la capa oculta.
Figura 57: Pronóstico RNA Ventas Cerveza Club Colombia 10 oz
PRONÓSTICO SERIE CLUB COLOMBIA Lata 20 oz A TRAVÉS DE RNA
0
3000
6000
9000
12000
15000
18000
08/0
1/20
03
08/0
2/20
03
08/0
3/20
03
08/0
4/20
03
08/0
5/20
03
08/0
6/20
03
08/0
7/20
03
08/0
8/20
03
08/0
9/20
03
08/1
0/20
03
08/1
1/20
03
08/1
2/20
03
Fecha
Valo
r
serie original catorce neuronas
132
La serie de tiempo que más se aproxima a la serie original es la que pronosticó
el modelo ARIMA, lo que se evidencia con los estadísticos MSE y U-THEIL.
Figura 58: Comparación Pronósticos Ventas Cerveza Club Colombia 10 oz
Estadísticos Gráfica
VENTA CLUB COLOMBIA 10 oz
ARIMA RED NEURONAL
MSE 2,743 2,585
U-THEIL 0.48 0.42
C OM P A R A C IÓN P R ON ÓST IC O VEN T A C ER VEZ A C LUB C OLOM B IA 10 oz
0
4000
8000
12000
12/1
1/03
26/1
1/03
10/1
2/03
24/1
2/03
F echa
SERIE ORIGINAL RNA 14 ARIM A
Ventas Pony Malta 350 cc
La gráfica de venta de Pony Malta de 350 cc es una serie diaria que comienza
el 29 de enero de 2.003 y finaliza el 31 diciembre de 2.003, cuenta en total
con 300 datos. Presenta un comportamiento irregular. No se detectan
presencia de comportamiento estacional.
133
Figura 59: Ventas Pony Malta 350 cc
Ventas Pony Malta 350 cc
50 100 150 200 250 3000
10000
20000
30000
40000
50000
El valor mínimo de cajas vendidas de Pony Malta es de 92 y el máximo de
45.804.
Tabla 39: Estimación ARIMA Ventas Pony Malta 350 cc
The ARIMA Procedure
Conditional Least Squares Estimation Standard Approx Parameter Estimate Error t Value Pr > |t| Lag MA1,1 0.95951 0.02034 47.17 <.0001 1 AR1,1 0.20374 0.06481 3.14 0.0019 1 AR1,2 -0.18756 0.06520 -2.88 0.0044 2 AR1,3 0.17061 0.06424 2.66 0.0084 6 AIC 5059.901 SBC 5073.89
134
Se realiza la estimación de la serie y se verifican los supuestos, el modelo final
queda expresado de la siguiente manera:
( ) ( ) tt aBZBBB 959.01170.0187.0203.01 62 −=−+− (67)
El pronóstico se realiza para 45 datos hacia delante en donde toma un valor
cercano a la media. En la Figura 60 se aprecia la serie original de color negro,
el pronóstico en color rojo y los intervalos de confianza en color azul.
Figura 60: Pronóstico ARIMA Ventas Pony Malta 350cc
S
S
S
S
S
S
S
S
SS
S
S
S
S
S
S
S
S
S
S
S
S
S
S
S
SS
S
S
S S
S
S
S
S
S
S
S
S
S
S
S
SS
S
S
S
S
S SS
S
S
S
S
S
S
S S S
SS
S
S S
S
S
SS
S
S
S S
S
S S S S
S
SS
S
SS
S
S
S
S
S
S S
S S
SS
SS S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S
Se le presentó la serie a la red neuronal y se fue variando el número de
neuronas en la capa oculta hasta encontrar el que ofreciera la mejor
135
aproximación a la serie original, el que mejor se comportó fue el que tiene 7
neuronas en la capa oculta.
Figura 61: Pronóstico RNA Ventas Pony Malta 350 cc
PRONÓSTICO VENTA PONY MALTA
0
10000
20000
30000
40000
50000
23/0
1/20
03
23/0
2/20
03
23/0
3/20
03
23/0
4/20
03
23/0
5/20
03
23/0
6/20
03
23/0
7/20
03
23/0
8/20
03
23/0
9/20
03
23/1
0/20
03
23/1
1/20
03
23/1
2/20
03
Fecha
Valo
r
serie original siete neuronas
Se realiza la comparación entre la serie original y los dos modelos y de acuerdo
a los estadísticos MSE y U-THEIL, la predicción que más se aproxima es la
generada con la red neuronal con 7 neuronas en la capa oculta.
136
Figura 62: Comparación Pronósticos Ventas Pony Malta 350 cc
Estadístico Gráfica
VENTA PONY MALTA 350 cc
ARIMA RED NEURONAL
MSE 7,988 6,662
U-THEIL 0.35 0.27
C OM P A R A C IÓN P R ON ÓST IC O VEN T A P ON Y M A LT A 350cc
0
15000
30000
45000
F echa
SERIE ORIGINAL RNA 7 ARIM A
En la Tabla 40 se presenta un resumen de los resultados obtenidos con estas
técnicas, como puede apreciarse, los modelos ARIMA solo reflejan una mejor
aproximación a la serie Club Colombia. Adicionalmente, presenta una buena
aproximación para la serie estacional de Precio promedio horarios de energía
mercado mayorista ($/Kwh).
En el análisis de los pronósticos se encontró que las series irregulares fueron
las más difíciles de predecir a través de los modelos de redes neuronales, pues
a pesar de que en el caso de la venta de Cerveza Poker y Pony Malta reflejaron
una mejor aproximación que los modelos ARIMA, en este tipo de series
presentaron los mayores valores para los estadísticos MSE y U-THEIL.
137
Tabla 40: Comparación pronósticos modelos ARIMA y de Redes Neuronales
PRECIO PROMEDIO
BAVARIA PRECIO PROMEDIO ARGOS PRECIO PROMEDIO VALBAVARIA
ARIMA RED
NEURONAL ARIMA RED
NEURONAL ARIMA RED NEURONAL
MSE 1,551 158 630 80 22 2
U-THEIL 0.05 0.01 0.03 0.00 0.07 0.01 IGBC PRODUCCION PALMA PRODUCCION CACAO
ARIMA RED
NEURONAL ARIMA RED
NEURONAL ARIMA RED NEURONAL
MSE 29 14 4,279 3,479 948 118
U-THEIL 0.01 0.00 0.07 0.05 0.18 0.02
| PRECIO PROMEDIO
ENERGIA VENTA AGUILA 300 cc VENTA POKER 300 cc
ARIMA RED
NEURONAL ARIMA RED
NEURONAL ARIMA RED NEURONAL
MSE 14 12 31,236 38,463 27,648 18,818
U-THEIL 0.06 0.05 0.20 0.28 0.39 0.21
VENTA CLUB
COLOMBIA 10 oz VENTA PONY MALTA 350 cc
ARIMA RED
NEURONAL ARIMA RED
NEURONAL MSE 2,743 2,585 7,988 6,662 U-THEIL 0.48 0.42 0.35 0.27
138
3. CONCLUSIONES
A través del proyecto de grado se han estudiado las metodologías ARIMA y de
Redes Neuronales para distintos tipos de series: irregulares, estacionales y/o
de producción y con varianza no constante, estas últimas además se analizaron
bajo el modelo GARCH. Con el fin de comparar la predicción que más se
acercara a la serie original, se presentaron los mejores pronósticos bajo cada
una de esas técnicas y se realizaron las comparaciones a través de los
estadísticos MSE y U-THEIL.
Para todas las series de estudio, se utilizaron más de 100 datos con el fin de
realizar pronósticos satisfactorios ya que menos datos distorsionaban la
información y no eran confiables las predicciones realizadas con ellos. En
todos los casos, se tomó el 85% de los datos y se realizó el pronóstico para el
15% restante. A diferencia de los modelos ARIMA para los cuales la serie de
tiempo se presentaba con los valores originales, estos tuvieron que ser
transformados de escala para ser procesados por la red neuronal.
Los resultados obtenidos fueron los siguientes:
Series con varianza no constante:
Para el precio promedio de la acción de Bavaria el modelo seleccionado
fue el ARIMA (1,1,0) pues presentaba los menores valores AIC y SBC. El
pronóstico con este modelo mostró una predicción constante con el valor
139
promedio de la serie. Sin embargo, la serie real a partir de la fecha en
que se inicia la predicción presentó un cambio de tendencia que no fue
capturado por el modelo ARIMA. El análisis con el modelo GARCH (1,1)
presenta una mejor capacidad explicativa de la serie.
La RNA con 10 neuronas en la capa oculta presenta un mejor ajuste al
comportamiento de la serie original, lo que se refleja en los resultados
obtenidos con los estadísticos MSE y U-Theil. No obstante, se llega a
este resultado a través de un aprendizaje de ensayo y error para la
predicción de la serie y no garantiza que para otra serie financiera con
comportamientos semejantes esta misma configuración de la red
presente los mejores resultados.
Con la serie del precio promedio de la acción de Argos se presenta una
tendencia positiva en su comportamiento durante el periodo de estudio,
la cual recoge la predicción realizada con el modelo ARIMA (1,1,0). Se
modela el comportamiento de la varianza a través de un modelo
GARCH(1,0). La red neuronal con 14 neuronas en la capa oculta
presenta la mejor aproximación de la serie original; los estadísticos MSE
y U-Theil muestran que el pronóstico obtenido con la RNA presenta los
menores valores y por ende una mejor predicción de la serie.
La serie del precio promedio de la acción de Valbavaria muestra una
tendencia negativa durante el periodo de estudio. Se realiza un
140
pronóstico a través del modelo ( ) tt aZBBB =++− 106 191.0125.022.01 y el
comportamiento de la varianza a través de un modelo GARCH (1,0). El
valor de la predicción por este modelo es el promedio de la serie.
Se emplean 15 neuronas en la capa oculta de la red neuronal y se
obtiene el pronóstico de la serie, el cual se ajusta de mejor manera a la
serie original. Se calculan los estadísticos MSE y U-Theil presentando
los menores valores los asociados a la red neuronal.
La serie ICBG presenta una tendencia positiva en su comportamiento, el
modelo ARIMA obtenido es el que estima la serie a través de un proceso
autorregresivo de orden uno y tres y un modelo GARCH (1,0).
La configuración de la RNA para esta serie es la que contiene 10
neuronas en la capa oculta. Se calculan los estadísticos MSE y U-Theil y
a pesar de que el modelo ARIMA captura la tendencia positiva de la
serie, la red neuronal presenta una mejor aproximación al presentar los
menores valores para los estadísticos anteriormente mencionados.
En síntesis, para las series financieras, las predicciones a través de las redes
neuronales muestran una mejor aproximación frente a los valores de la serie
original. Esta aproximación sin embargo, surge de evaluar cada una de las
series con diferentes números de neuronas en la capa oculta hasta llegar al
que presenta el valor más cercano a cero de los estadísticos MSE y U-Theil. La
141
configuración de una red neuronal para una serie específica no necesariamente
presenta los mismos resultados para otra serie financiera con características
semejantes.
Para realizar el pronóstico de la serie se tuvo que realizar en algunos casos una
reducción de escala para que la RNA pudiera entender los datos y de esta
forma realizar el pronóstico correspondiente.
Series estacionales y/o de producción:
Dentro de las series estacionales y/o de producción se encontraba la
producción de parla africana. El modelo que presentó los menores
valores AIC y SBC fue el estimado a través de un ARIMA
( ) ( ) tt aBZBBB 12754 5652.01178.02331.0363.01 +=+−− . El pronóstico del
modelo muestra un comportamiento que captura el comportamiento de
picos que presenta la serie.
La red neuronal que presenta la mejor aproximación de la serie es la
compuesta con 10 neuronas en la capa oculta. Los valores asociados a
los estadísticos MSE y U-Theil son los más próximos a ceros para la
predicción asociada con esta red neuronal.
La serie temporal de cacao en grano ($/toneladas) presenta un
comportamiento con tendencia positiva. El modelo ARIMA
142
( ) tZBB 62703.0194.01 ++ respeta ese comportamiento, sin embargo, con
una pendiente menor a la que mostraron los datos originales.
La red neuronal que se conformó para la predicción de la serie contiene
7 neuronas en la capa oculta y presenta una mejor aproximación a los
valores de la serie original, lo que se evidencia en el cálculos de los
estadísticos MSE y U-Theil.
La serie del precio promedio horarios de energía mercado mayorista
($/Kwh), es la serie que presenta un comportamiento estacional más
evidente. El modelo ARIMA expresado por
( ) ( ) tt aBBZBBB 122412 6621.02117.014400.0446.0116.01 −+=−+− , presenta un
pronóstico que se ajusta bastante bien a los valores de la serie original.
La red neuronal que pronostica esta serie aunque presenta una
aproximación muy cercana a los valores originales cuando se configura
con 10 neuronas en la capa oculta, presenta problemas de sobre y
subestimación con un menor número de neuronas a las anteriormente
mencionadas. A pesar de que los menores valores de los estadísticos
MSE y U-Theil son menores para la RNA no dista mucho de la predicción
obtenida con los modelos ARIMA.
En resumen, para el tipo de series estacionales y/o de producción las
redes neuronales presentaron un mejor modelo de aproximación al
143
presentar los valores más cercanos a cero de los estadísticos MSE y U-
Theil. Sin embargo, la modelación a través de los modelos ARIMA no
solo permite predecir la serie sino que logra establecer el momento en el
tiempo en que son significativos los procesos autorregresivos o de
promedios móviles como en el caso de la serie del precio promedio de
energía, circunstancia que no ocurre con el pronóstico realizado a partir
de las redes neuronales.
Series irregulares:
La serie temporal de venta de cerveza Águila 300 cc, muestra un
comportamiento irregular, la predicción a través del modelo
( ) 7.71498214.0391.01 6 −=−− tt aZBB recoge el comportamiento de picos
altos y bajos de la serie, pero luego tiende a disminuir su impacto. A
pesar de que el pronóstico ARIMA toma un valor medio para la serie,
según los estadísticos MSE y U-THEIL, presenta una mejor aproximación
a la serie que la red neuronal con 7 neuronas en la capa oculta.
Para la serie de venta de cerveza Poker 300 cc, los menores valores de
los estadísticos AIC y SBC es el que presenta el modelo ARIMA
( ) ( ) 4.23136224.0182.0438.01105.0733.01 6212 −+−−=−− tt aBBBZBB . Su
pronóstico tiende a captar al principio el comportamiento irregular de la
serie pero luego se estabiliza en el valor medio de la misma. La
configuración de la RNA con 16 neuronas en la capa oculta muestra los
menores valores de los estadísticos MSE y U-Theil.
144
La serie temporal de venta de cerveza Club Colombia 10 onzas, muestra
que se mueve en un rango bastante alto. El modelo ARIMA
( ) ( ) tt aBZB 33 744.01891.01 +=+ refleja su comportamiento irregular de
picos altos seguidos de picos bajos que se van estabilizando a lo largo
del periodo.
La red neuronal que presentó los mejores resultados es la que está
configurada con 14 neuronas en la capa oculta. A pesar de no alcanzar
a capturar todo el rango del mismo.
La serie de ventas de Pony Malta 350 CC, es modelada a través de la
metodología ARIMA como un
( ) ( ) tt aBZBBB 959.01170.0187.0203.01 62 −=−+− , este modelo intenta
ajustar al principio los valores siguiendo el comportamiento irregular de
la serie; luego se estabiliza en su valor medio. La red neuronal con 7
neuronas en la capa oculta presenta la predicción que más se ajusta a
los valores de la serie original tal como lo presentan los valores de los
estadísticos MSE y U-Theil.
En conclusión, para el tipo de series irregulares 3 de 4 presentan mejores
resultados a través de la modelación a través de redes neuronales. No
obstante, la predicción de este tipo de series tanto para los modelos ARIMA
como RNA son los que presentan un menor ajuste con respecto a los valores
145
de la serie original; esto se evidencia a través del cálculo de los valores de los
estadísticos MSE y U-Theil en los que se presentan los valores más altos de la
predicción.
Además, la configuración de la red para la predicción de series irregulares en 2
de 4 casos, tuvieron valores de 14 y 16 neuronas en la capa oculta. Como se
mostró a lo largo del análisis, en elevado número de neuronas en la red
demora el proceso computacional y no garantiza mejores resultados de
predicción.
Dentro del análisis de predicción se encontró que las ventajas en la
metodología ARIMA se refiere básicamente a que permite identificar
comportamientos cíclicos de tendencia o estacionales de los datos, lo que
proporciona una visión general de la serie temporal en estudio; además,
establece intervalos de confianza alrededor del pronóstico que realiza. Sus
desventajas se refieren a que necesita el supuesto de estacionariedad y
supone varianza constante dentro de la misma.
El hecho que la modelación ARIMA suponga una varianza constante en series
como las financieras, las cuales se destacan por presentar volatilidades,
implica que el modelo no dispone intrínsecamente de un mecanismo que recoja
esta variabilidad en su especificación. El incluir en los análisis los modelos
ARCH y GARCH permite complementar el modelo ARIMA para este tipo de
series.
146
Las ventajas relacionadas con la RNA hacen referencia a que no necesita un
comportamiento específico de las series, tal como que esta sea estacionaria o
lineal. Su desventaja radica en la necesidad de probar constantemente la red
bajo un proceso de ensayo y error. En forma general, para la red utilizada el
empleo de más de 16 neuronas en la capa oculta demora el proceso
computacional y no ofrece mejores resultados en los pronósticos realizados,
adicionalmente, no proporciona intervalos de confianza ni identifica un
comportamiento estacional de la serie.
En la mayoría de los casos, las redes neuronales proporcionaron mejores
resultados que los modelos ARIMA; en 10 de 11 casos mostraron mejores
resultados. No obstante, para las series irregulares la precisión del pronóstico
por parte de la RNA presentaron los mayores valores de los estadísticos MSE y
U-THEIL.
En términos de tiempo, tanto la predicción de las series a través de la
metodología ARIMA como de RNA requieren de constancia para realizar el
mejor ajuste a los valores originales de la misma. Así mismo, se comprobó
que se requiere de cierto tipo de intuición para el pronóstico de la series no
estacionarias y más que ser antagonistas estas dos metodologías pueden
complementarse a la hora de realizar predicciones.
147
BIBLIOGRAFÍA
ACOSTA, María Isabel y ZULUAGA, Camilo. Tutorial sobre redes neuronales
aplicadas en Ingeniería Eléctrica y su implementación en un sitio Web.
Universidad Tecnológica de Pereira. 2.000
AGUILAR, Angélica. Indicadores para anticipar la evolución de la actividad
económica. Referencia: THEIL, Henry. (1.996) Applied Economic Forecasting.
North Holland Publishing Co. Amsterdam.
ARAGÓN, Alberto y otros. Aplicaciones de redes neuronales en Economía.
Universidad de Burgos. 2001.
ARCE, Rafael. Introducción a los Modelos Autorregresivos con
Heteroscesdasticidad condicional (ARCH). Instituto I.L.Klein. 1.998
Bolsa de Valores de Colombia. www.bvc.com.co
Biblioteca de Consulta ENCARTA. Microsoft Corporation. 2.003]
BOX, George y JENKINS,Gwilym. Time Series Analysis forecasting and
control. Holden –Day. Oakland, California. (1.976)
148
CABEZA BECERRA, Olga Patricia. Comparación de pronósticos de series de
tiempo caóticas efectuados por redes neuro - difusas y la metodología ARIMA.
Tesis de grado. Universidad de los Andes. Facultad de Ingeniería.
Departamento de Ingeniería Industrial. 2.001
CAMACHO MISOL, Henry de Jesús. Empleo de redes neuronales para la
predicción de series de tiempo univariadas. Tesis de grado. Universidad de los
Andes. Departamento de sistemas y computación. 2.001.
ENDERS, Walter. Applied Econometric Time Series. John Wiley & Sons, Inc.
1.995
ENDERS, Walter. Handbook for Econometric Time Series. John Wiley & Sons,
Inc. 1.996
GUERRERO, Víctor. Análisis estadístico de Series de Tiempo Económicas.
Universidad Autónoma Metropolitana. 1.991.
HAYKIN, Simon. Neural Networks: A Comprehensive Foundation. Macmillan
College Publishing Company Inc. 1.994.
LOONEY G, Carl. Pattern Recognition Using Neural Networks. University of
Nevada. Oxford University Press. 1.997.
149
VALERO CANTÚ, Virginia. Aprendizaje redes neuronales. Universidad de
Concepción. Julio 2.003.
WEI, William. Time Series Analysis. Univariate and Multivariate Methods.
Addison-Wesley Publishing Company, Inc. 1.989.
YAFFE, Robert. Introduction to Time Series Analysis and Forecasting.
Academic Press, Inc. 2.000
Direcciones web:
http://www.fedepalma.org/estadisticas.htm#ProPalAc
http://www.agrocadenas.gov.co/home.htm
http://www.mem.com.co/
http://www.sas.com
http://www.ucm.es