Apuntes_econometr ¡a_II.doc[1]

download Apuntes_econometr ¡a_II.doc[1]

of 72

Transcript of Apuntes_econometr ¡a_II.doc[1]

CAPTULO 1I.1. I.2. Nelson

Introduccin

El desarrollo de los mtodos estadsticos Anlisis univariante de las series temporales. Fundamentos metodolgicos Tema 3. 3.1. 3.2. 3.3. Anlisis univariante de series temporales estacionarias. Fundamentos metodolgicos Consideraciones previas Procesos estocsticos Procesos estocsticos estacionarios

1.

Consideraciones previas La fundamentacin probabilstica de un modelo estructural uniecuacional supone que la econometra se desarrolla dentro del muestreo de poblaciones infinitas. Basta con que las observaciones de las series sean independientes. Este supuesto es cuestionado, sin que se extraigan las implicaciones fundamentales: Para datos de series de tiempo, el modelo muestral de muestras aleatorias o independientes parece a priori no realista, siendo ms verosmil postular desde un principio el supuesto de muestras no aleatorias... La representacin de las series revela una dependencia temporal (Spanos). No obstante, en el estocasticismo, la probabilidad no se cuestiona. Se limita Spanos a sealar que el supuesto de independencia no es realista, sin cuestionar la aleatoriedad. Las variables consideradas en los modelos estructurales no consideran explcitamente la dimensin temporal de los datos. Los parmetros estimados, no variaran aunque se alterase el orden de las observaciones. La distribucin atemporal sigue siendo la misma. Sin embargo, si se produjera un cambio en el orden de las observaciones, afectara a las tendencias y ciclos subyacentes. La cronologa temporal indica una caracterstica crucial para los datos. Una serie de observaciones es considerada una serie de tiempo, en cuanto se ha establecido una correspondencia entre los valores sucesivos de la serie y el tiempo cronolgico. En la medida en que el anlisis estocstico de series temporales se basa en la probabilidad, se supone a priori, como hiptesis que la serie habra sido generada por un proceso estocstico, es decir, por una variable aleatoria con dimensin temporal. En la teora de los procesos estocsticos, se supone que las variables son intrnsicamente aleatorias, de manera que la hiptesis formal difiere de la desarrollada en la aproximacin adoptada en los modelos estructurales, en la que se introduca una perturbacin aleatoria. Se interpretaban las discrepancias de la regresin como la imagen emprica de una variable aleatoria normal, inobservable, denominada perturbacin aleatoria. El supuesto se justificaba en suponer que los datos, siendo series histricas, constituan una muestra aleatoria. Ahora se postulara directamente la aleatoridad de las X y de las Y, no a travs de la dependencia de una perturbacin aleatoria. La hiptesis bsica de la teora de los procesos estocsticos postula que la historia pasada de una variable, Z, contendra informacin suficiente para predecir el futuro. Lo cual revela que en este tipo de aproximacin economtrica, se adopta el objeto de la prediccin, ms que el descubrimiento de una relacin estructural. Se utiliza para designar el proceso estocstico, la letra Z, no la Y o la X, para denotar que no se considera la posible naturaleza exgena o endgena de las variables, sino tan solo su naturaleza estocstica. El criterio de especificacin (seleccin de regresores) del modelo es emprico, estando basado en el examen de los datos. Se confa que su estudio va a permitir descubrir el modelo o proceso estocstico a partir del cual habra sido generada la serie histrica observada.

1

Un modelo univariante de series de tiempo, ignora cualquier tipo de relacin entre Z y otra variable, econmica o no. Relaciona los valores actuales del proceso con su historia pasada y/o con otro proceso equivalente a las perturbaciones, al que se atribuye dimensin temporal. Puede expresarse analticamente, mediante Zt = f (Zt1, . . . Ztp, vt, vt1, . . . vtq) En econometra se justifica la introduccin de estos modelos como alternativa a los modelos estructurales, debido a que se consideran superiores en trminos predictivos. Como no estn basados en los criterios deductivos, en los que se poyan las teoras econmicas racionales, se califican los modelos de serie de tiempo, como medicin sin teora, tiles aparentemente para la prediccin a corto plazo. Adems, se les atribuyen otras ventajas, dado que no siempre hay suficientes datos, siendo ms costosa la alternativa de elaborar un modelo estructural de ecuaciones mltiples. En los modelos estructurales simultneos, las muestras se consideran atemporales. En los modelos de series temporales, las series histricas se consideran muestra aleatorias temporales. La idea de un modelo de series de tiempo puede introducirse a partir de la nocin de la autocorrelacin de las perturbaciones aleatorias, imponiendo la consideracin explcita de que los datos son series de tiempo. Kuznets se refiere a dos posibles tipos de anlisis basados en series de tiempo: Uno calificado como histrico, propio de la historia econmica cuantitativa. Otro que denomina inferencial. Dentro de ste, de naturaleza formal, sita la determinacin de las recurrencias temporales. La recurrencia implica que los valores sucesivos se repiten, lo que conlleva el reconocimiento de fluctuaciones cclicas, es decir de regularidades. No obstante, falta una explicacin lgica de la variabilidad de las recurrencias. Una hiptesis, probabilstica o no, tendra que explicar las regularidades observadas, es decir, las recurrencias. La ms invocada es la hiptesis de que movimientos puramente aleatorios, sometidos a transformaciones de medias mviles, generaran ciclos regulares, lo que implicara aceptar la hiptesis de Slutzky. No se explica como tiene lugar este resultado. Critica Kuznets, que los anlisis de series de tiempo en esa poca se centrasen en los ciclos y olvidasen la tendencia. Kuznets dedica especial atencin a las tendencias, identificadas con funciones logsticas, de Gompertz, o polinomios de grado bajo. Reconoce Kuznets, la dificultad de generalizar a series de tiempo, las nociones atemporales. Por ello propone emplear coeficientes de correlacin de medias mviles. En Econometra ha prevalecido ms visin ms formal: La estimacin de las leyes de comportamiento macroeconmico se efecta a menudo mediante observaciones realizadas sobre perodos sucesivos: series relativas a los ndices estadsticos de la produccin, de los precios, o de los intercambios, datos de las cuentas nacionales para una serie de aos, etc... La teora de los procesos estocsticos . . . constituye una parte importante de la teora de las probabilidades (Malinvaud).

2

2.

Procesos estocsticos El problema de generalizar lo atemporal al tiempo, est reconocido por Spanos: Un aspecto importante de los fenmenos observables reales, al que no se adapta el concepto de variable aleatoria, es su dimensin temporal; aquel es un concepto en esencia esttico. Un nmero importante de fenmenos econmicos para los cuales necesitamos formular los modelos probabilsticos aparecen como observaciones sucesivas en el tiempo... El problema que abordamos es extender el modelo probabilstico [F = f (z; ), ] de forma que nos permita representar fenmenos dinmicos. Una variable aleatoria ordinaria considera el espacio de los comportamientos. Un proceso estocstico aade una segunda caracterstica: considera la misma variable aleatoria, Z, en el espacio de los comportamientos, y adems en momentos de tiempo sucesivos. [Z (s;t); s S, t T] Para cada t, Z representara una variable aleatoria ordinaria. Para cada comportamiento s, representara una funcin de tiempo, t (realizacin del proceso), cuya contrapartida emprica son las series histricas. En este contexto en el que cabe la posibilidad de interpretar las series de tiempo como realizaciones del proceso estocstico. Una serie histrica concreta se considera una de las posibles realizaciones del proceso estocstico. Los procesos Zt son considerados variables aleatorias con dimensin temporal. O en trminos anlogos, una serie de tiempo, se interpreta como una sucesin de variables aleatorias ordenadas en el tiempo. El problema fundamental que tiene que resolver la metodologa estocstica de series de tiempo, es la compatibilidad entre la nocin de independencia de los valores de un proceso aleatorio y la dependencia de orden de la sucesin. La estructura de dependencia de los valores de [ Z (t); t T ] es esencial en la definicin de un proceso estocstico. Siguiendo con la aplicacin de la teora de probabilidades, un proceso estocstico debera representarse por la funcin de distribucin conjunta del proceso: F ( Z(t1); . . . Z(tn) ) P [ Z (t1) Z1; . . . Z(tn) Zn ] Al ser a priori, el tamao de T del proceso, tericamente infinito, la funcin de distribucin debera poseer dimensin infinita. Kolmogorov ha presentado un resultado que demostrara la no necesidad de esta exigencia, bajo ciertas condiciones de regularidad: La condicin de simetra implica que una permutacin de los subndices temporales no cambia la distribucin del proceso. La condicin de compatibilidad, significa que la dimensin de la distribucin conjunta del proceso puede reducirse mediante un proceso denominado de marginalizacin, pudiendo concentrarse el anlisis en un conjunto finito de elementos.

Que el proceso estocstico Zt, dependa de t, quiere decir que para cada t, Zt poseera una distribucin aleatoria diferente. Lo cual plantea el problema de cmo sera la distribucin conjunta de variables aleatorias diferentes segn los instantes de tiempo. Un principio de solucin se encuentra en la importancia otorgada a la diferencia entre los subndices ti y tj. Para las variables aleatorias ordinarias (atemporales) se ha construido de forma lgica y natural los momentos como media, varianza, covarianza y correlacin. Es una forma de establecer la poblacin, no enumerando todos los valores, sino utilizando un procedimiento de reduccin de la informacin.

3

En un proceso estocstico, la media, varianza y autocovarianza (autocorrelacin) consideran los valores de una misma serie en momentos distintos de tiempo. En consecuencia, los momentos se consideran dependiendo del tiempo histrico t: E(Zt) = t var (Zt) = t2 = E(Zt t)2 cov (Zt1, Zt2) = C (t1, t2) = E(Zt1 t) (Zt2 t) R (Zt1, Zt2) = C (t1, t2) / t2 = E(Zt1 t) (Zt2 t) / t2 Las dos ltimas expresiones (la funcin de autocovarianza y de autocorrelacin) expresan la dependencia entre los valores en dos momentos diferentes de tiempo, es decir, en Zt1, y Zt2. La funcin de autocorrelacin, a diferencia de la autocovarianza es independiente de las unidades de medida. La definicin anterior de proceso estocstico, resulta demasiado general. Que los parmetros dependan de t, plantea el problema de medir su variacin con una nica observacin.

4

3.

Procesos estocsticos estacionarios La primera restriccin a establecer sobre los procesos estocsticos concierne a los procesos estacionarios. Malinvaud, califica tales procesos como aquellos cuyas propiedades son estables en el tiempo. Se define un proceso estocstico como estacionario en sentido estricto, en trminos de su funcin de distribucin, si sta no vara con un desplazamiento del proceso estocstico en el tiempo, es decir, si fuera la misma en los momentos t y t+u: F(Zt) = F(Zt+u) El concepto de homogeneidad en el tiempo implicara que la distribucin probabilstica de las variables aleatorias Z(ti) sera la misma en diferentes momentos de tiempo. El concepto de proceso estocstico estacionario en sentido estricto, no es operativo dado que requiere el conocimiento de la funcin de distribucin, concepto este que es desconocido en la teora de los procesos estocsticos, como lo es el propio proceso estocstico. Debido a esta limitacin, se adopta una definicin alternativa de proceso estocstico estacionario, en sentido amplio, o proceso estacionario de segundo orden o dbil, no en trminos de la funcin de distribucin probabilstica, sino de los primeros momentos del proceso estocstico. Un proceso estocstico se considera estacionario en sentido amplio si posee media y varianza constantes en el tiempo, siendo por ello independientes de t, y si adems la autocovarianza (autocorrelacin), depende del desfase entre dos momentos del tiempo histricos. Dicho de otro modo, todos los momentos de primer y segundo orden de un proceso estocstico que sea estacionario en sentido dbil deben ser invariantes en el tiempo. E(Zt) = var (Zt) = E(Zt )2 = t2 cov (Zt1, Zt2) = C (t1, t2) = C(t2 t1) Se justifica que en un proceso estacionario en sentido amplio, la funcin de autocovarianza despendera solo del desfase u: C (t, t + u) = C (t, u t) = C (u) = E(Zt ) (Zt+u ) Este mismo resultado es aplicable a la funcin de autocorrelacin, al ser la misma funcin de autocovarianza, dividida por una constante, t2 = C(0), es decir, la funcin de autocorrelacin, depende del desfase u: R (t1, t2) = R (t2 t1) = Ru Coincidiran los dos tipos de estacionariedad en sentido estricto y en sentido amplio, si el proceso estocstico siguiera una distribucin normal, al estar la distribucin normal caracterizada por los dos primeros momentos. Donde se vuelve a encontrar el problema esencial de si los conceptos atemporales (como el de una distribucin normal) son trasladables al tiempo. La estacionariedad supone que tales momentos existen en el tiempo, lo que equivale a postular su constancia. Lo sustantivo estriba en que la exigencia de que un momento de un proceso estocstico estacionario, sea constante e independiente de t, se interpreta como ausencia de movimientos sistemticos, es decir, sin tendencias ni ciclos.

5

La funcin de funcin de autocorrelacin, generaliza la nocin atemporal de correlacin al tiempo considerando diferentes desfases. Se define por el cociente entre covarianza y el producto de las desviaciones estndar de las variables, a la correlacin entre valores de la misma serie, considerados para diferentes retardos, designados por u, (que pueden variar entre 1 y k): C (Zt ) (Zt+u ) / n Ru = =u

C0

(Zt )2 / n

En el numerador figura la autocovarianza, Cu; en el denominador el producto de las races cuadradas de las varianza de Zt y Zt+u. Como la varianza se supone la misma para Zt y Zt+u, en el denominador figura la varianza del proceso, 2. A la representacin grfica de la funcin de autocorrelacin (en ordenadas) para los distintos retardos (en abscisas), se le denomina correlograma. Las principales propiedades de la funcin de autocorrelacin de un proceso estocstico estacionario son consecuencia de trasladar la nocin de correlacin atemporal al dominio del tiempo. La correlacin atemporal entre dos variables x e y, no considera desfases temporales, (u = 0), variando entre 1 y + 1. En el tiempo, la autocorrelacin de una variable con su misma historia, toma el valor de la unidad. Es decir, a) b) c) r0 = c(0) / c(0) = 1 ru 1, que es el mismo resultado establecido para la correlacin entre dos variables ordinarias. Es una funcin par del tamao del retardo, o sea, se verifica que ru = ru, de manera que la correlacin entre Zt y Zt+u ser la misma que entre Zt y Ztu. Es decir, para estudiar un proceso Zt mediante la funcin de autocorrelacin (un procedimiento de reduccin de datos), en trminos de los ru, basta con estudiar solo los valores de ru en los retardos positivos (o negativos). No unicidad. Aunque un proceso estocstico dado tiene una nica funcin de autocorrelacin, la inversa en general no es cierta, o sea, es posible encontrar dos o ms procesos estocsticos estacionarios con la misma funcin de autocorrelacin, lo que crea dificultades a la hora de identificar cual sea la naturaleza del proceso Zt, mediante ru. Dos procesos diferentes pueden presentar la misma funcin de autocorrelacin.

d)

En la condicin de independencia radica lo esencial del problema. Como el proceso estocstico estacionario es desconocido, lo son, supuesto que existieran, sus funciones de distribucin o densidad. La independencia asinttica postulada para los valores del proceso estocstico, implica una restriccin de la memoria en el tiempo. Permite modelizar la dependencia temporal mediante un nmero finito de parmetros. Implica que la dependencia entre valores sucesivos se hace ms dbil a medida que crece el desfase entre las observaciones. Junto con la estacionariedad, se establecen determinadas propiedades asintticas relativas a la distribucin en el muestreo de las muestras seleccionadas a partir del proceso estocstico, que fundamentan la inferencia estocstica (Spanos).

6

CAPTULO 2II.1. II.2. II.3. II.4.

Procesos estocsticos

Introduccin Procesos estocsticos estacionarios Proceso temporal, puramente aleatorio (ruido blanco) El camino aleatorio: un proceso no estacionario

CAPTULO 3

Procesos de medias mviles

III.1. Consideraciones previas III.2. Caractersticas de un proceso de medias mviles (MA) III.3. Los procesos de medias mviles y el efecto Slutzky Nelson Tema 4. 4.1. 4.2. Principales procesos estacionarios Proceso estocstico estacionario puramente aleatorio (ruido blanco) Proceso de medias mviles 4.2.1. Consideraciones previas 4.2.2. Caractersticas de un proceso de medias mviles (MA) 4.2.3. Invertibilidad de un proceso de medias mviles (MA) 4.2.4. Caractersticas de un proceso de medias mviles (MA.2) 4.2.5. Los procesos de medias mviles y el efecto Slutzky

1.

Proceso estocstico estacionario puramente aleatorio (ruido blanco) El debate metodolgico para un economista cuantitativo es si es mas razonable la regularidad (periodicidad) o la irregularidad (probabilidad). La propiedad de independencia es la esencial, objeto de comprobacin experimental. Malinvaud define un proceso puramente aleatorio en el tiempo, como una serie de variables aleatorias independientes con la misma distribucin de probabilidades. El denominado ruido blanco (RB) es un proceso en el tiempo en el que las observaciones estn incorrelacionadas. Generaliza al dominio temporal el concepto de variable aleatoria atemporal. La no correlacin en el tiempo implica una restriccin de la memoria en el tiempo. Analticamente: Zt = VtSe puede aadir por conveniencia, la media del proceso Zt, que desplazara verticalmente la trayectoria temporal del proceso.

Zt = + Vt Viniendo determinada su funcin de autocorrelacin por solo dos valores extremos: Ru = 1 para u = 0 Ru = 0 para u 0 El concepto de ruido blanco implica la independencia de todos los valores sucesivos. La caracterstica de independencia, se reemplaza por una exigencia menos estricta, como es la autocorrelacin nula. Correlacin nula ms normalidad, equivale a independencia. Se exige formalmente que las autocorrelaciones sean nulas en todos los retardos, tomando el valor uno cuando no hay retardos, es decir, cuando la correlacin se aplica a la misma variable Zt en el mismo momento de tiempo, t(u = 0).

7

La funcin de autocorrelacin de un proceso estacionario poseera media y varianza, constantes en el tiempo. Si se verifica que = 0, Zt = Vt. Se suponen las hiptesis clsicas de varianza constante, y correlacin nula, constituyendo una generalizacin al dominio temporal de los resultados probabilsticos atemporales. Favero define un proceso de ruido blanco, como un proceso constituido por variables aleatorias normales distribuidas independientemente en el tiempo, con media nula y varianza constante. Tales procesos estacionarios difieren de los observados en las series histricas, reconociendo a estas la caracterstica de persistencia. Un proceso de ruido blanco no es un modelo adecuado para la mayora de las series macroeconmicas porque no posee su caracterstica ms comn, es decir, la persistencia. La idea de persistencia, que se contrapone a la de irregularidad, se corresponde con la idea de movimiento sistemtico (tendencia). Empricamente, no se conoce un solo proceso observado, que verifique la definicin de un proceso puramente aleatorio en el tiempo (RB). Constituye un paradigma ideal, adoptado como til para trasladar la probabilidad a la economa. Que de acuerdo con la definicin de RB, la funcin de autocorrelacin, sea nula con carcter general, es slo una hiptesis formal. Para que se pueda establecer con carcter necesario que la autocorrelacin sea nula dado que es prcticamente imposible obtener autocovarianzas nulas, se requerira que la varianza del proceso RB fuera infinita, exigencia de realizacin imposible para todo proceso que siempre ser de tamao concreto T. Se sigue de ello la imposibilidad del proceso puramente aleatorio en el tiempo (ruido blanco). Esta conclusin est establecida en la propia doctrina probabilstica. La prueba de esta conclusin se particulariza tan solo para el caso de proceso continuo. Partiendo de la definicin de la funcin de autocorrelacin: Ru = E(Zt Zt+u) = (1/T) Zt Zt+u dt R0 = (1/T) Z dt = Es decir, el valor medio cuadrtico de un proceso puramente aleatorio en el tiempo toma un valor infinito, lo cual significa su inexistencia. La demostracin analtica en el caso discreto es desconocida.2 t

para u = 0, se obtiene la varianza, que se asume:

8

2.

Proceso de medias mviles Se trata de un proceso estocstico estacionario autocorrelacionado, derivada la caracterstica de aleatoriedad del hecho de estar especificado como una funcin de RB. 2.1. Consideraciones previas

Un proceso de Medias Mviles (MA) asume la alternativa de la autocorrelacin, estando relacionada su generacin con el denominado efecto Slutzky, cuya afirmacin principal es la hiptesis de la generacin de ciclos (procesos autocorrelacionados), como resultado de aplicar medias mviles a una serie de tiempo, supuestamente de RB. Permitira obtener fluctuaciones parecidas a los ciclos econmicos. Es decir, sera posible atribuir la existencia de ciclos econmicos a los procesos aleatorios sometidos a ruido blanco.El fallo de la argumentacin en la que descansa la hiptesis de Slutzky, estara en asumir que la serie de los primeros premios sea aleatoria, cuando solo es irregular. La intuicin de una elevada irregularidad, lleva a inferir en forma equivocada que una serie irregular es puramente aleatoria en el tiempo (RB).

Los procesos de medias mviles recibieron especial atencin en econometra a partir de los aos 1970, en relacin con los modelos propuestos por Box-Jenkins. No obstante, libros como el de Spanos (1986) sobre modelizacin economtrica no mencionan los modelos de medias mviles en ninguno de sus ndices. Quiere decir, que este planteamiento pudiera haber pasado de moda en Econometra. En cambio la idea de procesos de medias mviles, se encontraba en autores anteriores a Box-Jenkins. Una de las primeras referencias se encuentra en Davis (1941), calificando las medias mviles como un tipo posible ms de tendencia de una serie histrica, aparte las tendencias polinmicas (lineales, exponenciales y logsticas). Poseeran a su juicio, los procesos de MA, la ventaja de la simplicidad de clculo, as como su utilidad para suavizar fluctuaciones cortas, como pudieran ser las estacionales, sin inferir con otras oscilaciones. El grado de suavizado crece con el tamao de la muestra. Las medias mviles, utilizadas para aproximar tendencias y suavizar movimientos estacineles (con datos inferiores al ao), han sido cuestionadas en Econometra. Pueden atribuirse parte de los criticismos al amplio uso que se ha venido haciendo de las medias mviles en los anlisis econmicos de la coyuntura, tanto para atenuar las fluctuaciones estacionales, como para calcular tendencias. Y en parte, al propsito de introducir la probabilidad. Los procesos estocsticos estacionarios de medias mviles estudiados a continuacin suponen en teora que el tamao de la media mvil es infinito.

9

2.2.

Caractersticas de un proceso de medias mviles (MA)

Partiendo del supuesto de que Vt fuese RB, se podra generar un proceso de medias mviles de orden 1 (el ms sencillo), MA(1), de acuerdo a la siguiente ecuacin: Zt = + Vt + Vt1donde indica la media del proceso.

La variable Zt, es interpretada como una media ponderada de las observaciones presentes Vt, y pasadas Vt1, por hiptesis, ruido blanco, con media nula y varianza 2. La idea de un proceso MA(1) puede generalizarse formalmente a un proceso de medias mviles de orden q, es decir, a un MA(q): Zt = iVtila idea de una media mvil de orden infinito, supone que i podra variar entre 1 e infinito.

Se pueden obtener la media y la varianza de Zt, a partir de las caractersticas asumidas para el proceso de RB, Vt. Aplicando el operador esperanza, y considerando Zt en desviaciones a las medias: E(Zt) = iE(Vti) = 0 la media sera nula como la del proceso de partida, RB. 2 2 2 var (Zt) = i E(V ti) = i2 la varianza dependera tanto de los parmetros i,como de la varianza del proceso de RB.

Como ambos momentos, media y varianza, no dependen del tiempo histrico t, se considera demostrado que el proceso Zt es estacionario. Una condicin de estacionariedad viene dada por: i2 < lo que implica un nmero finito de parmetros con suma finita.

La hiptesis de convergencia significara que los valores de i registraran valores absolutos menores a medida que crece i. De la condicin de convergencia supuesta para los parmetros i, se sigue la convergencia a cero de la funcin de autocorrelacin, al depender su valor de los valores de los parmetros. La forma de la funcin de autocorrelacin sera decreciente. En forma anloga, se obtiene la funcin de autocovarianza: cov (u) = Cu = ijE(Vti Vt+uj) El principal resultado se manifiesta en que la funcin de autocovarianza depende de la varianza del RB y de los parmetros del proceso, MA. A partir de la funcin de autocovarianza, se pueden obtener los momentos de orden bajo. Fijando u = 0 C0 = 2i2 = 2(02 + 12 + . . .+ q2)desapareciendo los productos cruzados, dado que las Vt tienen covarianza nula (RB)

Para u = 1. Se obtiene la funcin de autocovarianza del retardo de primer orden. C1 = 2ii+1 Para un valor genrico de u Cu = 2ii+u La funcin de autocovarianza se anula para u > 0, pudiendo comprobarse que posee carcter par, es decir, que Cu = Cu. La funcin de autocorrelacin de orden u (con valor 1 para u = 0) C ii+u Ru = =u

C0

i2

10

Un proceso de medias mviles de orden q, un MA(q) puede expresarse en notacin compacta, empleando el operador de retroceso, Bq Vt = Vtq; Zt = Vt + . . . + qVtq = 0Vt + 1BVt + . . + qBVt = (0 + 1B + . . + qBq)Vt = MA(B)Vt Un MA(1), puede expresarse en notacin compacta, como Zt = Vt 1Vt1 = (1 1B)Vt Se comprueba la funcin de autocovarianza de un MA(1): C1 = E(Zt, Zt+1) = 12 Para u = 0, resulta la varianza: C0 = Var(Zt) = 2 + 122 = 2(1 + 12) Para u = 2, se obtiene la funcin de la autocovarianza de segundo retardo: C2 = E(Zt, Zt+2) = E(Vt 1Vt1) (Vt+2 1Vt+1) = 0Que revela que la funcin de autocovarianza del proceso MA(1) se anulara para valores u > 1, es decir los desfases mayores que el orden del proceso. Se interpreta que un proceso MA(1) tiene memoria para un solo perodo, lo que implicara que solo permitira predecir un perodo ms all de la historia muestral disponible.

La funcin de autocorrelacin viene dada por, 2 1 Ru = 2 (1+ 12)

11

2.3.

Invertibilidad de un proceso de medias mviles (MA)

Se trata de determinar la naturaleza del proceso estocstico estacionario RB o MA, a partir de su funcin de autocorrelacin y no de sus valores originales. Dada la no unicidad de la funcin de autocorrelacin, es decir, dado el hecho de que una misma funcin de autocorrelacin pueda corresponder a ms de un proceso, se plantea a veces una situacin de indeterminacin, como es identificar un proceso MA a partir de la funcin de autocorrelacin. En consecuencia no se podra determinar cual sea el proceso estocstico estacionario, a partir del cual se ha calculado la funcin de autocorrelacin. Ejemplo de valor particular: Dos procesos MA(1): 1. Zt = Vt 1Vt1 2. Zt = Vt (1 / 1Vt1) Tienen la misma funcin de autocorrelacin, dada por: R1 = 1 / (1 + 12)De manera que a partir de sta, no se podra determinar analticamente cual haya sido el proceso estocstico estacionario poblacional, generador de la serie de tiempo, a partir del cual habra sido calculada la funcin de autocorrelacin.

Para resolver esta indeterminacin, cabe recurrir a la llamada condicin de invertibilidad, que pasa por transformar ambos procesos MA(1) en procesos AR, lo que significa expresar los procesos, no en funcin de las V pasadas sino de las propias Z observadas en momentos anteriores. El primero de los procesos, resulta: Vt = Zt 1Vt1 = Zt 1 (Zt1 1Vt2) = Zt 1Zt1 12Vt2 = . . . = = Zt 1iZti El segundo de los procesos, resulta: Vt = Zt (1 / 1)Vt1 = Zt 1(1 / 1i)Zti Se impone la restriccin de que 1 < 1Slo el primero de los procesos convergera, es decir, slo el primero sera estacionario. El segundo tendera a infinito, no siendo estacionario.

Invertible significa que un proceso MA de orden finito, puede transformarse en un proceso estacionario AR de orden infinito.

12

2.4.

Caractersticas de un proceso de medias mviles MA(2) Zt = Vt 1Vt1 2Vt2 = (1 1B 2B2)Vt La expresin genrica de la funcin de autocovarianza: Cu = E(Zt, Zt+2) = E(Vt 1Vt1 2Vt2) (Vt+u 1Vt+u1 2Vt+u2) Para u = 0, resulta la varianza: C0 = Var(Zt) = 2 (1 + 12 + 22) Para u = 1, la autocovarianza de orden uno: C1 = E(Zt, Zt+1) = 2(12 + 12) Para u = 2, se obtiene la funcin de autocovarianza de orden dos: C2 = 22 Se anulara para valores u > 2. La funcin de autocorrelacin toma como valores, para u = 1, resulta del cociente entre C2 y C0: 1 + 1 2 R1 = 1 + 12 + 22 Para u = 2, R2 = Para u = q, Ru = i+u i2 22 = (1 + 12 + 22)2

Las caractersticas de un MA(2) definido por (notacin compacta, el ltimo miembro):

2 (1 + 12 + 22)

La condicin de invertibilidad para un MA(2), en notacin compacta, viene dada por la exigencia de que las races de la ecuacin caigan fuera del circulo unitario: 1 1B 2B2 = 0 B 1(12 + 42) 22 Que lleva a las siguientes condiciones: 2 + 1 < 1 2 1 < 1 2 < 1 =

El hecho de que se anule la funcin de autocorrelacin para retardos superiores al orden del proceso, sugiere un criterio para identificar un proceso de medias mviles a partir de la funcin de autocorrelacin. Si solo es distinto de cero el valor de la funcin de autocorrelacin en el primer retardo, el proceso debe ser MA(1), si fueran distintos los dos primeros retardos, sera un MA(2), y as sucesivamente.

13

2.5.

Los procesos de medias mviles y el efecto Slutzky

La hiptesis defendida en el presente manual es que los ciclos no pueden ser generados en la aleatoriedad. Es una hiptesis contradictoria con la de Slutzky. La hiptesis de Gottman, es favorable a Slutzky. Afirma ser posible obtener regularidad a partir de la irregularidad. Un ruido blanco es como una caja de Pandora a partir del cual es posible construir cualquier otra serie. Este efecto se denomina efecto Slutzky. Los economistas que trabajaban en el anlisis de la coyuntura, aplicaban con frecuencia procesos de medias mviles a las series de barmetros, por ejemplo a series mensuales, para eliminar la estacionalidad y percibir mejor los ciclos coyunturales. Una vez eliminada la tendencia de las series desestacionalizadas por medias mviles de 12 meses, se obtenan los ciclos de la coyuntura, base para el anlisis coyuntural. Este era el procedimiento bsico del Comit de Harvard. El efecto Slutzky, era una advertencia a tales analistas contra el peligro potencial, no contra un hecho establecido, de la posibilidad de descubrir ciclos causados artificialmente, sin contrapartida en el mundo real, por la utilizacin de medias mviles. El argumento de Slutzky es experimental, no deductivo ni racional. Su conclusin sera por tanto de valor contingente y particular, habiendo sido establecida tan solo como una mera posibilidad, que no cabra predicar a ningn ciclo concreto. No afirma que un ciclo econmico dado haya sido creado por esta va. Segn J. Klein, Slutzky, no pretenda cuestionar los ciclos econmicos, sino encontrarles una explicacin. En la interpretacin probabilstica, que niega los ciclos econmicos, la aceptacin de esta hiptesis ha servido para cuestionar las aproximaciones deterministas desarrolladas en el anlisis de la coyuntura con series histricas. Los econmetras, asumiendo la probabilidad, han venido considerando el efecto Slutzky, como un hecho probado, pasando de la posibilidad establecida por Slutzky, a considerar tal efecto como un hecho bien establecido. El efecto Slutzky, afirma que es posible que los ciclos econmicos hayan sido generados a partir de la aplicacin de medias mviles una serie puramente aleatoria en el tiempo. La clave de su hiptesis radica en determinar si el proceso al que se aplican medias mviles, es o no ruido blanco, duda que encuentra apoyo en la imposibilidad de un proceso de RB. Malinvaud, ilustra el argumento de Slutzky, incurriendo en el mismo vicio. Ilustra con un ejemplo (argumento experimental), la validez del efecto Slutzky, donde se pone de manifiesto la falsedad del razonamiento en el que descansa el efecto Slutzky. Aplica un proceso de medias mviles de orden 4 a una serie que supone, sin haberlo probado, ser puramente aleatoria. de rachas de valores del mismo signo. Es una evidencia que cuestiona la hiptesis de RB. Califica el proceso estacionario (supuestamente RB) como sin correlacin, no reproduciendo sin embargo, las autocorrelaciones. El fallo del argumento radica en el supuesto de aleatoridad de la serie inicial, es decir, del proceso RB, que no se cumple, lo que se confirma por una doble va:

Entre las dos, la supuesta de RB y la resultante de medias mviles, se aprecia la existencia

En el dominio del tiempo. Un proceso de RB debiera registrar autocorrelaciones nulas entodos los retardos.

En el de las periodicidades. Su periodograma debiera por definicin, registra unacontribucin constante (a la varianza) en todas las periodicidades.

14

CAPTULO 4IV.1. IV.2. IV.3. IV.4 IV.5 IV.6 Nelson

Proceso autorregresivo

Consideraciones generales Caractersticas de un proceso autorregresivo Funcin de autocorrelacin parcial Proceso ARMA Proceso ARIMA El problema de la no estacionariedad Tema 5. 5.1. 5.2. 5.3. 5.4. 5.5. 5.6. Proceso autorregresivo Consideraciones generales Caractersticas de un proceso autorregresivo Funcin de autocorrelacin parcial Proceso ARMA Procesos estocsticos estacionales Proceso ARIMA

1.

Consideraciones generales El otro tipo de proceso estocstico estacionario, basado en el supuesto de la existencia de RB, es el autorregresivo (AR). Establece una dependencia de Z no de un proceso de ruido blanco sino de su propia historia pasada.

2.

Caractersticas de un proceso autorregresivo El proceso autorregresivo ms simple es el de primer orden AR(1), que viene definido por: Zt = 1Zt1 + Vt En notacin compacta: Zt 1Zt1 = Vt (Zt 1BZt) = Vt (1 1B)Zt = Vt AR(B)Zt = Vt Un proceso estocstico estacionario AR(p) vendra expresado por: Zt = 1Zt1 + 2Zt2 + . . . + pZtp + Vt En notacin compacta: (1 1B 2B2 . . . pBp) Zt = Vt Un proceso autorregresivo puede interpretarse como un modelo de regresin mltiple, en el que el papel de los regresores corresponde a los valores retardados de la propia serie. Es obvio que dado que los valores retardados de la propia serie invalidan toda interpretacin con significado causal, nada se causa a si mismo, la estimacin de un AR se reduce a un problema de ajuste o de inferencia estocstica. La constante (trmino independiente) no coincide necesariamente con la media del proceso AR. Puede ilustrarse esta afirmacin con el proceso AR(1), al que se resta la media en ambos miembros: Zt = 1(Zt1 ) + Vt Zt = 1Zt1 1 + Vt Zt = 1Zt1 + ( 1) + Vt Zt = 1Zt1 + K + Vt Como K = (1 1)La constante K depende de la media de la serie, y del parmetro autorregresivo, 1

15

Aplicando la esperanza matemtica: E(Zt) = 1E(Zt1) + K + E(Vt) Es decir: = 1 + K = K / (1 1) Un proceso AR(1) puede transformarse en un MA(), lo que permite hablar de una relacin de dualidad entre ambos procesos. En efecto, Zt = 1jVtj = MA()Esta expresin permite obtener los primeros momentos y establecer la estacionariedad de un AR.

Aplicando la esperanza matemtica, se obtiene que la media se anula: E(Zt) = 1jE(Vtj) = 0 La varianza del proceso: Var (Zt) = E(Vt + 1Vt1 + 12Vt2 + . . . + 1jVtj + . . .)2 = 2 (1+ 12 + 14 + . . .) De modo que si |1| < 1, por considerarse la suma de los trminos de una progresin geomtrica Var (Zt) = 2 / (1 12) Tomando la varianza un valor finito e independiente det De manera que la media de Zt es independiente de t

La funcin de autocovarianza de un AR(1) viene dada por: Cu = Cov (Zt, Zt+u) = E(Vt + 1Vt1 + 12Vt2 + . .) E(Vt+u + 1Vt+u1 + 12Vt+u2 + . .) = = 2 1i1i+u para j = u + i Teniendo en cuenta las hiptesis respecto al ruido blanco, que para i=j E(Vti Vti) = 2 Anulndose para i j, la suma converge para |1u| < 1 Cov (Zt, Zt+u) = (2 1u) / (1 12) La funcin de autocorrelacin, vendra dada por: Ru = 1u Resultado obtenido para el coeficiente de autocorrelacin de primer ordende un proceso de Markov en trminos atemporales.

Esta expresin indica que la funcin de autocorrelacin de un AR(1) no se anula a partir del primer retardo como en el caso de un MA(1), dificultando con ello la identificacin del orden del proceso AR. Un resultado que se califica de sorprendente es que mientras un proceso AR(1) establece la correlacin para un perodo, la funcin de autocorrelacin, Ru = 1u, no se anula para u > 1. Se debe a que la correlacin entre valores sucesivos se extiende a un mayor nmero de retardos. Si Zt est correlacionada con Zt1, y Zt1 con Zt2, esta a su vez estar correlacionada con Zt. Esta dificultad puede obviarse mediante el estudio de la funcin de autocorrelacin parcial.

16

3.

Funcin de autocorrelacin parcial Calcula la correlacin entre Zt y Ztp despus de eliminar la influencia de Zt1 sobre Zt y Ztp. Equivale a la idea de eliminar la influencia de Zt1 mediante regresiones simples, y correlacionar las series libres de influencia de Zt1. Es decir, equivale a calcular: Zt = 1Zt1 Ztp = pZt1 Zt = Zt 1Zt1 Ztp = Ztp pZt1La correlacin simple entre Zt y Ztp, sera la autocorrelacin parcial.

En forma anloga se ira eliminando la influencia de los dems regresores entre (t2) y (tp1). A la sucesin de estos coeficientes para valores sucesivos del desfase u se le denomina funcin de autocorrelacin parcial. El clculo de los coeficientes de autocorrelacin parcial se puede basar en las ecuaciones de Yule-Walker. Se ilustra el procedimiento de clculo para un proceso AR(1). Multiplicando ambos miembros del proceso AR(1) por Zt1, y obteniendo la esperanza matemtica, resulta: E(Zt Zt1) = 1E(Zt1 Zt1) + E(Vt Zt1)Sustituyendo los valores, dividiendo por la varianza y teniendo en cuenta que el segundo trmino del segundo miembro es nulo:

R1 = 1R0 = 11De manera que el coeficiente de autocorrelacin parcial coincide con el coeficiente de autocorrelacin total en el primer retardo.

Se suele utilizar como notacin para el coeficiente de autocorrelacin parcial de orden i, ii. Si slo 11 0, el proceso sera un AR(1). Si 22 0, sera un AR(2) y as sucesivamente. Quiere ello decir, que la funcin de autocorrelacin parcial permite identificar el orden del proceso AR, dando respuesta a la indeterminacin establecida en la funcin de autocorrelacin total respecto al orden del proceso. La ecuacin de Yule-Walker, generalizada al orden p, es: Ru = 1Ru1 + 2Ru2 + . . . + pRupR1 R2 = ... Ru R0 R1 ... Ru1 R1 R0 ... Ru2 ... ... ... ... Ru1 Ru2 ... R0 11 22 ... uu

Permite calcular los coeficientes (parmetros) del proceso. Por ejemplo, se ilustra la obtencin del coeficiente de autocorrelacin parcial 22 a partir de los coeficientes de autocorrelacin total, R1 y R2: 11 = 22 1 R1 R1 11

R1 R2

El concepto d autocorrelacin parcial es generalizable a un proceso MA. Por ejemplo, para un MA(1), se obtienen los valores:11 = 1(1 12) 1 14 2 =2

12(1 12) 1 16

k =k

1k(1 12) 1 12(k+1)

De manera que la funcin de autocorrelacin parcial no se anulara para u >1.

17

Es un resultado fundamental que entre las funciones de funcin de autocorrelacin total y parcial de un AR y un MA se mantiene la relacin de dualidad establecida entre los procesos. La funcin de autocorrelacin parcial de un MA es anloga a la funcin de autocorrelacin total de un AR, y la funcin de autocorrelacin parcial de un AR es anloga a la funcin de autocorrelacin total de un MA. El orden del proceso en el MA viene determinado por la funcin de autocorrelacin total, mientras que la funcin de autocorrelacin parcial es la que determina el orden de un AR.

18

4.

Procesos ARMA A veces no se anulan las funciones de autocorrelacin total y parcial a partir de los primeros retardos. Cabe imaginar una situacin en la que ambas funciones de autocorrelacin decaen exponencialmente, y adems la funcin de autocorrelacin parcial, registra una alternancia de signos para los coeficientes sucesivos, siendo el decrecimiento hacia cero lento. En casos como este se considera que el proceso estocstico estacionario generador deber ser una combinacin de los componentes AR y MA. Se habla de procesos ARMA. El proceso ARMA ms sencillo es el ARMA(1,1), es decir, combina una proceso autorregresivo AR(1) y otro de medias mviles MA(1). Analticamente puede expresarse: Zt = 1Zt1 + Vt 1Vt1 En notacin compacta: (1 1B)Zt = (1 + 1B)Vt Como un proceso MA puede expresarse como un AR de orden infinito, supuesto que | 1| < 1, el proceso puede expresarse: Vt = (1 1B)Zt (1 + 1B)

La varianza de un proceso ARMA(1,1), viene dada por: C0 = 2(1 211 + 12) (1 12)

Es decir, aparece expresada en funcin de la varianza de V y de los parmetros de los componentes autorregresivo y de medias mviles.

Para u = 1, se obtiene el valor de la autocovarianza en el retardo de orden uno: C1 = 2(1 211) (1 1) (1 12)

De manera que depende de la varianza del proceso de RB, y de los parmetros del componente autorregresivo y de medias mviles.

Para u = 2, se obtiene el valor de la autocovarianza en el retardo de orden dos: C2 = 1C1 Que slo depende de la parte autorregresiva. En general, para u 2, se verifica que Cu = 1Cu1 La funcin de autocorrelacin, viene dada por: R1 = (1 11) (1 1) 1 211 + 12

Y para u 2: Ru = 1Ru1 La forma tpica de la funcin de autocorrelacin total de un ARMA(1,1) podra considerarse una exponencial decreciente, decrecimiento imputable a la parte AR que puede resultar atenuado por el componente MA. Se afirma haberse comprobado que un proceso ARMA(p,q) con valores bajos de p y q, es decir, procesos ARMA parsimoniosos, permiten alcanzar buenas representaciones de series observadas, transformadas en estacionarias. El trmino parsimonia, recoge la idea de simplicidad. A nivel elemental, puede utilizarse en las aplicaciones como criterio prctico, que el proceso identificado verifique la relacin p + q 2.

19

5.

Procesos estocsticos estacionales Los modelos estacionales generalizan el anlisis de los procesos estocsticos estacionarios con valores anuales a datos de periodicidad inferior al ao como meses y trimestres. Se distingue entre estacionariedad determinista y estocstica. En trminos intuitivos, la estacionariedad determinista presentara una variabilidad constante (se recomienda tratarla mediante variables cualitativas), mientras para la estacionariedad estocstica la amplitud de las fluctuaciones estacionales sera variable. La estacionariedad cambiante en el tiempo, debera ser aproximada mediante un modelo estocstico estacional, donde s indicara el orden de la estacionariedad: Zt = 1Zts + Vt La funcin de autocorrelacin, viene dada por: Ru = 1Rus Donde u = s, 2s, . . .En los dems retardos, si el proceso fuera tan solo estacional, la funcin de autocorrelacin sera nula. Para u = 0, toma el valor uno, pero en rigor, u = 0 no es un retardo.

Un AR(2) estacional viene dado por: Zt = 1Zts + 2Zt2s + Vt La funcin de autocorrelacin, viene dada por: Ru = 1Rus + 2Ru2s Zt = Vt 1Vts La funcin de autocorrelacin, viene dada por: Ru = 1 / (1 12) Zt = Vt 1Vts 2Vt2s La funcin de autocorrelacin, viene dada por: Ru = ( 1 + 12) / (1 + 12 + 22) Ru = ( 1) / (1 + 12 + 22) Un ARMA(1,1) estacional vendra dado por: Zt = 1Zts + Vt 1Vts La funcin de autocorrelacin, viene dada por: Ru = (1 11) (1 1) / (1 + 12 + 211) Ru = 1Rus Para u = s Para u = 2s Para u = s Para u = 2s Para u = s La MA(2) estacional vendra dado por: Siendo u = s, 2s, . . . Un MA(1) estacional vendra dado por:

Para la eliminacin de la estacionariedad de orden s, se puede emplear una diferencia estacional de orden s, aadiendo previamente un logaritmo para eliminar la no estacionariedad en varianza. Se puede eliminar simultneamente tendencia y estacionariedad mediante una diferencia regular de orden uno y otra estacional de orden doce (si los datos fuesen meses), o cuatro (si fuesen trimestres).

20

6.

Procesos ARIMA Dado que la mayora de las series histricas, no verifican la condicin de estacionariedad, se han formulado los procesos ARIMA, trmino que aade una I (inicial del vocablo integrado) a la expresin ARMA, indicando que el proceso estocstico es considerado no estacionario o integrado. En este caso, la notacin completa de un proceso ARIMA incluye (p, d, q) donde: p indica el orden el proceso autorregresivo AR. d el orden de la transformacin de diferencias, necesarias para alcanzar la estacionariedad. q el orden del proceso de medias mviles MA. Lo habitual en econometra de series temporales, es que se aplique una primera diferencia para conseguir la estacionariedad. La primera diferencia se puede aplicar a la serie en niveles si es no estacionaria en media, y a los logaritmos si fuera no estacionaria en varianza. Se procede transformando en estacionaria la serie histrica observada. Una vez alcanzada la estacionariedad (que significa convertir el proceso ARIMA en ARMA), se procede a la identificacin del proceso, que significara determinar los valores de p y q. Aunque desde el punto de vista formal, existen otras transformaciones como la de Box-Cox, que permiten considerar bajo una misma expresin diferentes tipos de transformaciones, en las aplicaciones se trabaja normalmente con las primeras diferencias. Un proceso no estacionario en trminos estocsticos, supone movimientos sistemticos, como tendencias y ciclos, pudiendo expresarse un proceso no estacionario como aquel cuyos primeros momentos son dependientes del tiempo histrico. El procedimiento propuesto habitual para transformar un proceso ARIMA en ARMA, ha sido aplicar diferencias sucesivas.

21

22

CAPTULO 6VI.1. VI.2. VI.3. VI.4 VI.5 Nelson

Inferencia estadstica en procesos estocsticos estacionarios

Introduccin Inferencia Identificacin Estimacin Validacin Tema 6. 6.1. 6.2. 6.3. 6.4. Inferencia estadstica en series temporales Introduccin Estimadores de los primeros momentos de un proceso estocstico estacionario Identificacin de procesos AR, MA y ARMA Estimacin de procesos estocsticos estacionarios 6.4.1. Estimacin de un AR 6.4.2. Estimacin de un MA 6.4.3. Estimacin de un proceso ARMA Validacin

6.5.

1.

Introduccin Por inferir se entiende el propsito de determinar las principales caractersticas del proceso estocstico, que desempea el papel de poblacin, a partir de la muestra. El nexo lgico entre los procesos estocsticos (poblacionales) y las muestras, se establece mediante los denominados teoremas de convergencia o teoremas lmites, que relacionan los estadsticos muestrales con los parmetros poblacionales. Puede considerarse como teorema principal de convergencia en series de tiempo, el de Wold: Todo proceso estacionario de segundo orden como mnimo puede ser representado como la suma de dos procesos incorrelacionados entre s, el uno determinista lineal, y el otro, indeterminista, que cabe representar mediante un proceso de medias mviles con input de ruido blanco. Un componente determinista lineal es, bsicamente, una serie trigonomtrica estocstica. Este resultado terico, ser vlido para todo proceso estocstico estacionario. Para cada serie de tiempo en particular, puede prevalecer: a) El componente indeterminista. Es el caso de la hiptesis probabilstica. Aleatorio significa representativo. Se asume que las series de tiempo observadas son muestras representativas de un proceso estocstico estacionario, cuya existencia como puntualiza Haavelmo, puede ser meramente hipottica. Una condicin para que una muestra pueda ser considerada representativa, es que las observaciones muestrales sean seleccionadas independientemente de la voluntad de quien toma la muestra. La independencia no es una condicin suficiente para que la muestra pueda ser considerada representativa. No obstante, la aleatoriedad se discute en series de tiempo, para la verificacin del criterio de independencia, o en trminos menos estrictos, de autocorrelacin nula. En el muestreo aleatorio, aplicado a series de tiempo, al suponer la inexistencia de movimientos sistemticos, puede considerarse que el orden de seleccin de las observaciones muestrales sera irrelevante, permitiendo con ello salvar aparentemente la objecin relativa a la no independencia de las observaciones.

23

En este punto Haavelmo seala: Pero no es necesario que las observaciones sean independientes y tengan la misma ley de probabilidad unidimensional. Es suficiente suponer que el conjunto total de las n observaciones puede considerarse como una observacin de n variables (o punto muestra) con una ley conjunta n dimensional de probabilidad; la existencia de la misma puede ser meramente hipottica. En este caso, se podra contrastar la hiptesis considerando esta ley de probabilidad conjunta y obtener inferencias por medio de un punto muestra (en n dimensiones). Haavelmo no demuestra que las series histricas (series de tiempo observadas) sean muestras aleatorias, sino tan solo afirma que si se desea aplicar la probabilidad, las series histricas ha de ser consideradas como muestras aleatorias. Bajo este supuesto, se considera que la teora de la inferencia asinttica desarrollada para datos atemporales puede ser aplicable a series de tiempo, merced a los resultados obtenidos por Mann y Wald. Una serie histrica de tamao T, no es considerada una muestra aleatoria de tamao T, sino un punto muestra (una nica observacin) relativa a T variables aleatorias. Bajo este supuesto, los estimadores muestrales en el tiempo, se interpretan como estimadores de los parmetros poblacionales en el espacio de los comportamientos. La condicin de estimadores deseables requiere la convergencia de los momentos muestrales a los momentos poblacionales, cuestin que se aborda en los denominados teoremas ergdicos. Afirman que los momentos muestrales de una serie de tamao T convergen en media cuadrtica a los momentos poblaciones para T. Significa que los momentos en el tiempo obtenidos a partir de una nica observacin en cada momento de tiempo, para cada una de las T variables aleatorias, tenderan a los momentos poblacionales en el espacio de los comportamientos. El supuesto de que el tamao de la serie tienda a infinito explicara que en las aplicaciones se puedan encontrar funciones de autocorrelacin muestrales que varen notoriamente en funcin del tamao de la serie de la funcin de autocorrelacin poblacional. Puntualiza Nerlove que este concepto no ha de confundirse con la estacionariedad. b) El componente determinista. Es el caso de la hiptesis basa en la periodicidad. El problema del muestreo se contempla de manera diferente. Puede hablarse no de muestreo aleatorio sino de muestreo en el tiempo. Si las series histricas representasen movimientos de las variables econmicas en el tiempo, cabe hablar de movimientos continuos tericos, que estaran siendo medidos en forma discreta en las series histricas. Como estas poseen naturaleza discreta, la medicin de los movimientos tericos continuos, puede verse como el resultado de un muestreo en el tiempo, espaciadas las observaciones histricas en intervalos de la misma duracin como puedan ser das, semanas, meses, trimestres o aos. Existe un teorema en el anlisis de Fourier que afirma que es posible reproducir en su totalidad una funcin ft (terica) a partir del conocimiento de muestra de ft, obtenidas de forma sistemtica en intervalos uniformes. No obstante, un muestreo que permita reconstruir la trayectoria de la serie histrica simulada, exigira muestrear sistemticamente en los mnimos y mximos para reproducir la trayectoria. Tal muestreo presupone conocer lo esencial de ciclos y tendencia de la serie. No sera suficiente muestrear al azar imponiendo la condicin de independencia para reconstruir la trayectoria de la serie ciclo-tendencia. Resulta difcil imaginar que los valores seleccionados al azar coincidieran con los mximos y mnimos. Cochran, seala que si en la poblacin existieran tendencias o ciclos, un muestreo sistemtico teniendo en cuenta el periodo de las oscilaciones sera ms preciso que un muestreo aleatorio.

24

La inferencia en proceso estocsticos estacionarios, tiene dos aspectos: la identificacin y la estimacin. 2. Estimadores de los primeros momentos de un proceso estocstico estacionario Un proceso estocstico poblacional se somete a la reduccin estadstica, estando considerada representada la sucesin de valores mediante las principales caractersticas como media, varianza y funcin de autocorrelacin. a) Un estimador insesgado de la media poblacional en el tiempo, viene dado por la media muestral, supuesto que la serie posea un tamao entre 1 y T. Considerando el tamao de la poblacin infinito, viene dado por la media aritmtica de las observaciones del proceso estocstico estacionario Zt: = E ( Zt 1 T ) = E(Zt) = = T T T

Como la esperanza matemtica de la distribucin en el muestreo de la media muestral sera igual a la media del proceso Zt, quedara justificada la propiedad de insesgadez de la distribucin en el muestreo de la media muestral.

En forma anloga se establecera la propiedad de consistencia de la media muestral, basada en la tendencia a cero de la varianza muestral: var () = 1 2 cov (t s) = T T2 2

R(ts)

Teniendo en cuenta que: Cov (u) = Var (u) R (u) Pudiendo expresarse en funcin del retardo de orden u: var () = 2 T2

(T |u|) Ru

=

2 u (1 ) Ru T T2

Para T tendiendo a infinito, si la expresin anterior tiene lmite finito, es decir si existiera varianza poblacional, la varianza muestral tendera a cero, con lo que la media muestral sera un estimador consistente con la media poblacional.

b) Un estimador de la funcin de autocovarianza poblacional viene dado por la funcin de autocovarianza muestral, pudiendo estar divididos los productos cruzados por T o por (T u). El estimador: Cu = 1 T| u| (Zt ) (Zt|u| )

Se considera insesgado asintticamente, no en trminos de distribucin finita, dado que se contempla el estimador de la media muestral en lugar de la verdadera media poblacional. Por otra parte como (Zt ) slo se extiende a T |u| valores, no se verificara con carcter necesario la propiedad de que la suma de las desviaciones a la media sea nula (Zt ). El estimador al poseer mayor error cuadrtico medio (ECM), siendo insesgado, poseera mayor varianza. Al estar dividida la covarianza por (T |u|), cu registrara mayores fluctuaciones.

25

Es posible utilizar el otro estimador de la funcin de autocovarianza, dividiendo por T: Cu = 1 T (Zt ) (Zt|u| )

Que siendo sesgado, poseera menor ECM. En el estimador para valores reducidos de u, el sesgo se considera pequeo, creciendo con el aumento en los valores de los retardos. Cuando u se acerca a T.

E (cu Cu) =

|u| C Tu

Este sesgo podra reducirse si proceso fuera estacionario dado que la funcin deautocovarianza debiera tender rpidamente a cero.

c) Un estimador de la funcin de autocorrelacin en el retardo u se obtiene a partir del cociente entre la autocovarianza (cu) en u y la varianza (c0): ru = cu c0

Debido a la dificultad de trabajar con la distribucin en el muestreo de proceso autocorrelacionados, los contrastes de hiptesis habituales consideran nicamente el proceso puramente aleatorio en el tiempo (RB). Se tienen en cuenta los siguientes resultados:

E (ru) 0 var (ru) 1 / T cov (ru, ru+h) 0Estos resultados equivaldran a considerar ru como una variable aleatoria con distribucin normal con caractersticas, (0,1). Establecido a priori, un nivel de confianza (por ejemplo del 95%), cabra contrastar la hiptesis nula de RB, suponiendo que el tamao de la muestra, T, fuera grande. Este contraste posee slo valor aproximado, estando basado en el supuesto de distribucin normal, en la que la hiptesis nula sea, ru = 0, frente a la hiptesis alternativa, ru 0. El procedimiento sigue la metodologa establecida por Neyman Pearson para la inferencia estocstica atemporal. Un contraste de significatividad, viene dado por (emprico):

ru 1 / TComo se trata de un contraste bilateral, el estadstico emprico, se compara en valor absoluto con el estadstico tabulado (la abscisa de una normal para un nivel de confianza del 95%, aproximadamente 2). Si el valor calculado (emprico) fuera inferior a 2, no se rechazara la hiptesis nula, es decir no se rechazara que ru = 0. Este procedimiento de contrastacin es generalizable a los coeficientes de autocorrelacin parcial, asumiendo que verifican supuestos similares:

E (uu) 0 var (uu) 1 / T cov (uu, uu) 0La hiptesis de nulidad del parmetro del proceso estocstico estacionario ha de interpretarse en trminos probabilsticos. Es decir, si en las aplicaciones, una vez calculado un correlograma de 20 valores, resultara que uno de los coeficientes fuese significativamente distinto de cero, se seguira aceptando la hiptesis de RB al nivel de confianza del 95%.

26

3.

Identificacin de procesos AR, MA y ARMA Establecidos los estimadores, sus valores permiten inferir los parmetros poblacionales e identificar la naturaleza del proceso ARMA. Se trata de descubrir el proceso estocstico estacionario generador de las muestras aleatorias. Se basa en el estudio de las funciones de autocorrelacin total y parcial muestrales. Por identificar se entiende especificar el proceso estocstico hipottico generador de la serie de tiempo observada. Supuesto que esta haya sido generada por un ARIMA(p, d, q), identificar significara determinar los valores de p, d y q. Una vez transformada la serie histrica observada en estacionaria mediante la utilizacin de un valor reducido de d, normalmente d = 1, se trata de especificar los valores de p y q, que determinan el orden de los procesos autorregresivo, AR(p), y de medias mviles MA(q). El instrumento analtico son las funciones de autocorrelacin muestrales, total y parcial, en la medida que se supone infieren adecuadamente los parmetros poblacionales. Una dificultad aadida cuando se trabaja con estimadores muestrales es que se requiere un valor elevado de T, nmero de observaciones de la serie histrica transformada en estacionaria. Se invoca como razn principal para la dificultad de identificar el proceso generador de la serie observada, la existencia de errores de muestreo, lo que implica aceptar el supuesto que las series histricas puedan considerarse muestras aleatorias. Aunque en teora, las funciones de autocorrelacin muestral, total o parcial, debieran permitir identificar por entero el proceso particular ARMA, no siempre es suficiente el conocimiento de las mismas para identificar el proceso generador de la serie observada. A veces, puede resolverse el problema de identificacin, a posteriori. Tras la estimacin iterativa de diferentes especificaciones alternativas, se elegira aquella en la que se obtiene un valor mnimo para la varianza. El fundamento metodolgico de este proceder sera la bondad del ajuste, lo que no necesariamente garantiza que coincida con el proceso estocstico verdadero, supuesto que existiera. En este principio, se sustenta el criterio de Akaike, basado en la varianza. Para un proceso AR(u), tomando u valores crecientes: FPE(u) = 2 T+u Tu

Siendo 2 el estimador mximo verosmil de la varianza del proceso de RB, calculada a partir de las discrepancias de la regresin.

Un estimador de la varianza de un proceso AR se puede calcular de forma alternativa, a partir de la expresin: 2 = (r0 + 1r1 + 2r2 + . . . + uru) Este criterio ha sido generalizado a los modelos MA y ARMA. No obstante, ha de tenerse presente la advertencia de Chatfield: Sin embargo, habra que reconocer claramente que cuando la variacin de la parte sistemtica de la serie de tiempo (por ejemplo, tendencia y estacionariedad) es la dominante, la efectividad de un modelo ARIMA resulta determinada principalmente por la transformacin inicial de diferencias y no por el proceso subsiguiente de ajuste. Se refiere a un ARIMA(p, d, q), y anticipa el problema economtrico ms reciente de la no estacionariedad.

27

El diagnstico de cuando un coeficiente de autocorrelacin se considera significativamente distinto de cero, se puede basar en el clculo del estadstico citado en el apartado anterior, si bien se sustituye el valor ru por el valor de la abscisa de la distribucin normal, es decir, se calcula directamente y se compara con el valor emprico de la autocorrelacin (ejemplo): 2 T = 2 = 0,167 143

La interpretacin sera considerar significativamente distintos de cero, aquellos coeficientes de autocorrelacin mayores en valor absoluto que 0,167 (retardos significativos sin que la funcin de autocorrelacin tienda rpidamente a cero: retardos estacionales).

28

4.

Estimacin de procesos estocsticos estacionarios La estimacin no se refiere a un proceso de RB, ya que este proceso no posee parmetros. Se refiere a los parmetros de un proceso ARIMA(p, d, q) (P, D, Q), suponiendo tras el proceso de identificacin, conocidos los valores de p, d, q, P, D y Q. Hay que distinguir entre la estimacin de la parte autorregresiva y la de medias mviles, en relacin con el mtodo a aplicar. En el caso de un proceso MA, no es aplicable el mtodo MCO. 4.1. Estimacin de un AR

Se expone la estimacin de un AR(1), expresando este proceso en desviaciones a las medias: zt = 1zt1 + Vt Para su estimacin se dispone de una serie histrica de T observaciones. Una diferencia principal con la estimacin de los modelos estructurales es que ahora Zt1 se considera una variable estocstica. Si las Vt no estuvieran autocorrelacionadas, ni correlacionadas con los valores retardados de Zt1, cabra considerar consistentes los estimadores MCO de un AR(1). Los resultados obtenidos en la inferencia atemporal, seguiran siendo vlidos asintticamente, como establecieron Mann y Wald. El criterio mnimo cuadrtico, implica minimizar las discrepancias cuadrticas, considerando el proceso en desviaciones a las medias: (zt 1zt1)2 = dt2 = D Se somete a la condicin de mnimo: D = 2 (zt 1zt1) zt1 = 0 1 Se obtiene: zt zt1 = 1 zt12 Siendo el estimador del parmetro autorregresivo de un AR(1) igual al coeficiente de autocorrelacin de primer orden: 1 = zt zt1 = zt12 zt zt1 / T zt12 / T = c1 = r1 c0

29

En forma anloga, se procedera a la estimacin de un AR(2), dado por: zt = 1zt1 + 2zt2 + Vt Minimizando la expresin: (zt 1zt1 2zt2)2 = dt2 = D D = 2 (zt 1zt1 2zt2) zt1 = 0 1 D = 2 (zt 1zt1 2zt2) zt2 = 0 2Se obtienen las ecuaciones normales, resultantes de igualar a cero las primeras derivadas.

Dividiendo por T, se obtienen las mismas ecuaciones expresadas en trminos de las autocovarianzas (incluida la varianza), c0, c1 y c2. c1 = 1c0 + 2c1 c2 = 1c1 + 2c0 Dividiendo por la varianza, c0, se obtienen las ecuaciones normales en funcin de las autocorrelaciones muestrales. r 1 = 1 + 2r 1 r2 = 1r1 + 2 A partir de ellas se pueden obtener, una vez conocidos los valores de las autocorrelaciones totales, los estimadores MCO. 2 = 1 = r2 r12 1 r12 r1 (1 r2) 1 r 12

Del conocimiento de los estimadores de los parmetros de un AR(2) y de los valores de la funcin de autocorrelacin total (Gottman), es posible obtener iterativamente los valores de un proceso de orden superior. El procedimiento seguido con los procesos AR(1) y AR(2) se basa en las ecuaciones de Yule Walker aplicadas a los valores muestrales, donde los ri se consideran datos y los i las incgnitas.

30

4.2.

Estimacin de un MA

En la estimacin de un proceso MA, no es posible aplicar mnimos cuadrados dado que la suma cuadrtica de las discrepancias no es una funcin lineal de los parmetros de la ecuacin que expresa el proceso de medias mviles. Una aproximacin intuitiva a la imposibilidad para estimar por MCO, puede ilustrarse con el ejemplo particular del proceso MA(1), expresado en desviaciones a las medias: Zt = Vt 1Vt1 Que permite expresar el proceso Vt como un AR(): Vt = Zt + 1Vt1 = Zt + 1(Zt1 + 1Vt1) = Zt + 1Zt1 + 12Vt2 = . . . = = Zt + 1Zt1 + 12Zt2 + . . . + 1t1Z1 + 1tV0A la ausencia de linealidad, se aade el desconocimiento del valor inicial, V0.

Se ilustra una alternativa, basada en un procedimiento iterativo, aplicando a un MA(1), con media distinta de cero y signo positivo para el parmetro: Zt = + Vt + 1Vt1 Aunque podra partirse de los valores obtenidos a partir de la funcin de autocorrelacin, dada por: b1 r1 = 1 + b12 Como la solucin de esta ecuacin cuadrtica dada por: r1b12 + r1 b1 = 0Permite obtener los valores para b1, solo se podra elegir aquella solucin que verifique la condicin de invertibilidad, es decir, la solucin compatible con |b1| < 0. Como un procedimiento tal no considera la informacin relativa a otras soluciones, se argumenta que el estimador sera no eficiente en trminos de inferencia estocstica, al no aprovechar toda la informacin muestral.

4.3

Estimacin de un proceso ARMA La estimacin de un proceso ARMA(1,1) encierra los problemas de la estimacin de los componentes AR y MA. La minimizacin de la suma cuadrtica de las discrepancias, viene dada por: (zt 1zt1 b1vt)2 = vt2Dependiendo de los valores iniciales de z0 y v0, que crecen con el orden del proceso, siendo p + q para un ARMA(p,q).

31

5.

Validacin Un anlisis complementario al contraste de la significatividad de cada valor individual de la funcin de autocorrelacin de la bondad de la aproximacin se realiza en lo que se conoce dentro de la metodologa Box-Jenkins como validacin, que pretende ser algo ms que un anlisis de la bondad del ajuste. A priori, no slo persigue la estimacin y contraste del modelo especificado sino obtener informacin adems sobre la direccin a seguir en las modificaciones sucesivas de la identificacin del proceso. En ltimo extremo, es un anlisis de la bondad del ajuste planteada en trminos de inferencia estocstica. Una primera aproximacin ad hoc, podra ser ir aumentando progresivamente los valores de p y q, es decir, el orden de los componentes del proceso ARMA. El proceso podra detenerse una vez que la varianza volviera a crecer. Las evidencias derivadas de la metodologa de la validacin en los procesos estocsticos estacionarios ARMA, sugieren la direccin en la que ha de modificarse la especificacin del proceso. A priori, podra ser contraproducente, un incremento simultneo de los ordenes p y q, pudiendo generar el denominado efecto redundancia, apareciendo coeficientes no significativos con errores estndar elevados. La validacin propiamente dicha se basa en el anlisis de la funcin de autocorrelacin total de las discrepancias (ajuste) de la regresin. Si las etapas de identificacin y de estimacin hubieren sido adecuadas, las discrepancias de la regresin, deberan comportarse como la imagen emprica de un proceso puramente aleatorio en el tiempo (RB). Con la funcin de autocorrelacin total, se realiza un anlisis individual de la significatividad de cada uno de los coeficientes. Chatfield, seala que este criterio ha de considerarse con cautela: Sin embargo el correlograma de las discrepancias posee propiedades algo diferentes. Por ejemplo, para un proceso AR(1) con = 0,7, los lmites para un 95% de confianza estn en 1,3 / T para r1, 1,7 / T para r2, y 2 / T para el resto de los rk. Adems del contraste individual, en la validacin se propone realizar un anlisis global, anlogo al basado en la F en los modelos estructurales. Est basado en la significatividad conjunta de los coeficientes de la funcin de autocorrelacin total, mediante el estadstico de Box-Pierce, cuya distribucin en el muestreo, se demuestra seguir una Ji cuadrado: Q = T ru2 2kpqSi todos los ru fuesen nulos, tambin lo sera la suma, indicando tratarse de un proceso temporal puramente aleatorio (RB). En caso de que algunos valores difieran de cero, el valor de la expresin se desviar de cero, positivamente, dado que los coeficientes de autocorrelacin total aparecen elevados al cuadrado. En trminos de inferencia, al tratarse de una suma de variable normales, con media cero y varianza 1/T, elevadas al cuadrado, se comprueba que se distribuyen segn una 2kpq, donde k indica el nmero de coeficientes de autocorrelacin calculados, p y q, los rdenes de los componentes autorregresivo y de medias mviles, que significaran prdida de grados de libertad. Para conocer el nivel de confianza del estadstico emprico, se pueden utilizar las tablas de la Jicuadrado, siendo su validez solo aplicable a muestras grandes.

El problema derivado de trabajar con tamaos moderados de la serie puede tratarse mediante estadstico debido a Ljung y Box: Q = T (T + 2) (T u)1 ru2 2kpq En general, se reconoce que ambos contrastes poseen potencia reducida. Una regla prctica de valor aproximado, que evita recurrir al empleo de tablas, es comparar el valor de Q con el nmero de grados de libertad disponibles. Si el valor del Q emprico fuese mayor que el nmero de grados, se rechazara la hiptesis nula de aleatoridad del proceso temporal.

32

CAPTULO 9IX.1. IX.2. IX.3. IX.4. IX.5. IX.6. Nelson

Anlisis espectral

Introduccin El concepto de espectro Relacin entre el periodograma y la funcin de autocovarianza Distribucin en el muestreo del periodograma Inconsistencia del periodograma Estimacin consistente del espectro Tema 7. 7.1. 7.2. 7.3. 7.4. Anlisis espectral Introduccin El concepto de espectro Relacin entre periodograma y funcin de autocovarianza Espectros de algunos procesos ARMA ms sencillos 7.4.1. Espectro de ruido blanco 7.4.2. Espectro de un MA(1) 7.4.3. Espectro de un AR(1) 7.4.4. Espectro de un AR(2) Forma espectral tpica de las series econmicas Distribucin en el muestreo del periodograma Inconsistencia del periodograma Estimacin consistente del espectro Conclusin

7.5. 7.6. 7.7. 7.8. 7.9.

1.

Introduccin El anlisis peridico (armnico o de Fourier), es fundamento analtico de la descomposicin de los ciclos empricos en ciclos tericos de periodicidades fijas. Los denominados mtodos de descomposicin, procederan primero descomponiendo la serie histrica en tendencia y ciclo, luego descomponiendo el ciclo emprico en ciclos peridicos (tericos). La idea bsica subyacente en el anlisis peridico consiste en imputar las regularidades observadas en los ciclos empricos (series histricas libres de tendencia o estacionarias), a la superposicin de ciclos tericos de diferentes periodicidades. El anlisis armnico, de Fourier o peridico, descansa en la hiptesis de periodicidades fijas. La estabilidad no radica en los valores de los coeficientes de Fourier, sino en las periodicidades de cada ciclo terico. Por ello, se calcula el periodograma, cuya formulacin analtica recoge formas diferentes. Se afirma, que los ciclos econmicos observados, registran recurrencias variables. El problema es no solo constatar el hecho, que es incuestionable, sino explicarlo. Segn el principio de superposicin, las recurrencias observadas en los ciclos empricos aparentemente como variables se explicaran en la superposicin de ciclos tericos de periodicidades diferentes. La diferencia en las periodicidades puede explicar que se puedan imputar irregularidades observadas a regularidades tericas. Frente a la hiptesis formal de la regularidad, basada en las periodicidades, se produce la hiptesis de la no regularidad, es decir, la hiptesis formal basada en la probabilidad. El anlisis espectral adopta este segundo punto de partida, suponiendo que las series histricas, una vez transformadas en estacionarias, estaran generadas a partir de un proceso aleatorio, pudiendo ser representado este no solo por sus funciones de autocorrelacin sino por su espectro poblacional.

33

Se considera como posible estimador del espectro, el periodograma. Las inferencias muestrales estocsticas relativas al espectro, se pueden basar en dos estimadores alternativos del espectro: bien el periodograma reinterpretado como un estimador muestral estocstico del espectro, bien la funcin de autocorrelacin total. De ah que se plantee, en trminos expositivos, la relacin entre periodograma y la funcin de autocovarianza (o autocorrelacin).

34

2.

El concepto de espectro El punto de partida del anlisis espectral de series de tiempo estacionarias es el anlisis armnico o de Fourier, se parte de una serie estacionaria Ct (libre de tendencia), que puede expresarse como la suma de k componentes cclicos peridicos (representacin del componente determinstico, mencionado en el teorema de Wold) y de un componente aleatorio (el componente indeterminstico), equivalente a un proceso de RB o un ruido autocorrelacionado (ARMA). Se reinterpreta Ct en trminos probabilistas, considerando un nmero de armnicos k < T/2, en lugar de llegar a k = T/2, introduciendo un componente estocstico Vt, componente que representara el resto de armnicos (movimientos peridicos) desde k+1 a T/2. Consideramos que un armnico representa un ciclo peridico. Se puede partir de la expresin ordinaria del anlisis armnico, modificada con la adicin de Vt: Ct = (p cos pw0t + bp sen pw0t) + VtSe supone que el proceso Vt, representara un proceso aleatorio en el tiempo, autocorrelacionado o RB, con distribucin normal. La frecuencia angular:

w0 = 2/TEstara expresada en radianes. El recproco de la frecuencia verdadera, no la angular, es el perodo, que vara entre T y 2. La letra p toma valores entre 1 y T/2, y pudiendo ponerse:

wp = pw0 La ecuacin es general en trminos cualitativos, dado que representa la suma de dos componentes. El primero, determinstico, que puede aproximarse numricamente por la suma (superposicin) de k componentes peridicos, el segundo, un componente aleatorio (indeterminstico), que puede aproximarse mediante un proceso ARMA. Para la hiptesis determinista, el componente aleatorio es considerado irrelevante, para la hiptesis estocstica, se supone inexistente el componente determinstico. Una de las formas en que cabe definir el periodograma, referido a un armnico de orden p, viene dada por: I(wp) = T(p2 + bp2)/4Representando (p2 + bp2)/ 2, la contribucin del ciclo de orden p a la varianza del proceso estacionario Ct (ciclo emprico). Para la interpretacin econmica, puede ser conveniente utilizar dicha expresin dividindola por la varianza de Ct.

En la interpretacin estocstica, el proceso Ct sera considerado aleatorio al ser funcin de Vt, por suposicin, un proceso estocstico estacionario de RB con distribucin normal. Aceptar la reinterpretacin estocstica del anlisis peridico, implica la negacin de la aplicabilidad del anlisis peridico a las series de tiempo, no solo a las series histricas: La razn bsica por la que el anlisis de Fourier quiebra cuando se aplica a series de tiempo, es que se basa en el supuesto de amplitudes, frecuencias y fases fijas. No ha de tenerse por sorprendente que sus mtodos necesiten adaptarse para tener en cuenta la naturaleza aleatoria de las series. Como E(Ct), esperanza del ciclo econmico, variara sistemticamente con el tiempo, resultado experimental que apoya la duda terica de si el concepto de media atemporal, es trasladable al tiempo, en el anlisis estocstico se considera que un ciclo peridico, no es estacionario.

35

La idea de espectro puede ilustrarse a partir de: Ct = (p cos pw0t + bp sen pw0t) + Vt Se hace tender k a infinito, lo que significa que el nmero de armnicos tiende a infinito y en consecuencia, la amplitud de cada armnico se hace infinitesimalmente pequea. Por esta va, se llega a una nueva forma de representacin de un proceso estocstico estacionario, dada por: Ct = cos wt du(w) + sen wt dv(w)Donde u(w) y v(w) se consideran dos procesos continuos con incrementos ortogonales, definidos en el recorrido (0, ). Equivale a interpretar la existencia de infinitos armnicos de amplitud infinitesimal. Cada periodo (frecuencia) de amplitud infinitesimal contribuira a la varianza del proceso estocstico.

A la expresin de la denomina representacin espectral del proceso. Como los procesos u(w) y v(w), se consideran de reducido inters aplicado, se utiliza en su lugar, una funcin F(w), denominada funcin de distribucin espectral del proceso estocstico. A la funcin de densidad, f(w), la derivada de F(w), se la denomina espectro.

36

3.

Relacin entre periodograma y funcin de autocovarianza El espectro puede expresarse tanto en funcin del periodograma como de la funcin de autocovarianza. Ambas expresiones constituyen formas cuadrticas de los valores del proceso estacionario. Se dice que ambos son pares de transformadas de Fourier, conteniendo la misma informacin. De manera que puede llegarse a una relacin analtica entre ambos conceptos.Ct indica el proceso estacionario. Cu expresa la funcin de autocovarianza.

En las aplicaciones, a partir de la funcin de autocovarianza, se puede calcular el periodograma. Es decir, se verifica que hay una relacin entre el periodograma, I(wp), y la funcin de autocovarianza. Se obtiene en primer lugar, la funcin de autocovarianza a partir de la definicin de periodograma: I(wp) = T (p2 + bp2) 4 = T [( 4 2 2 Ct cos pw0t )2 + ( Ct sen pw0t )2 ] T T

Teniendo en cuenta que los coeficientes de Fourier vienen dados por: p = (2/T) Ct cos pw0t bp = (2/T) Ct sen pw0t Restando a Ct su media : I(wp) = 1 (C0 + 2 Cu cos wpu)

Para u = 0, se obtiene el periodograma correspondiente al proceso de RB: I(wp) = C0 / = 2 / Siendo 2 la varianza del proceso de ruido blanco, Vt. Quiere decir que el periodograma de un proceso de RB sera constante para todo periodo (frecuencia, wp), de modo que en un proceso de RB, todas las periodicidades contribuiran por igual a la varianza del ciclo emprico, Ct. El periodograma de un proceso de RB sera igual en todas las periodicidades: 2/. En trminos grficos, significara que la contribucin de cada ciclo peridico podra representarse mediante una recta paralela al eje de los perodos, es decir, un espectro plano. Como los periodogramas, calculados para procesos supuestamente de RB, no son constantes sino presentan trayectorias fluctuantes en las diferentes periodicidades, ello da pi al criticismo principal desde el punto de vista de la inferencia estocstica, del periodograma como un estimador inadecuado del espectro plano correspondiente a un proceso de RB. Esta evidencia formal, se invoca como la explicacin de la inaplicabilidad del periodograma a series de tiempo.

En segundo lugar, se comprueba que: Cu = p2 cos wpu Para u = 0: C0 = p2Que expresa que la varianza total del proceso estacionario, es igual a la suma de las varianzas de cada armnico. En las aplicaciones, una vez conocidas las contribuciones de cada armnico, podra obtenerse mediante suma, la varianza total del proceso estacionario.

Puede expresarse la funcin de autocovarianza en trminos del espectro en forma continua: Cu = cos wu dF(w)Que utiliza la integral de Stieltjes, denominndose la representacin espectral del proceso. Se denomina tambin teorema de Wiener-Khintchine.

37

4.

Distribucin en el muestreo del periodograma El espectro puede estimarse, bien a partir del periodograma bien a partir de la funcin de autocovarianza (autocorrelacin). Establecido que un estimador alternativo del espectro viene dado por el periodograma, se sigue la necesidad de establecer la distribucin del muestreo de dicho estimador. El problema que se plantea en trminos analticos, es estimar f(w) a partir de I(wp). Se establece la distribucin en el muestreo del periodograma, partiendo de los coeficientes de Fourier, p y bp, para llegar a la de I(wp). Se demuestra que el periodograma de una periodicidad dada (correspondiente al armnico de orden p), sigue una Ji cuadrado: I(wp) = 22 En forma anloga, se obtendra que la distribucin de la media, sigue una 12: I(w0) = 12 Conocida la distribucin en el muestreo, es posible realizar inferencias estocsticas, es decir, construir intervalos de confianza y contrastar hiptesis relativas al espectro, f(w): La distribucin 2, permite considerar una F de Snedecor (distribucin estocstica atemporal), que compara la varianza de un armnico de orden p con la varianza del proceso de RB. La varianza de ste, supuesto que se hubieran estimado k armnicos, viene dada por: s2 = Ct2 T02 1/2 (p2 + bp2) T 2k 1

El estimador de la varianza se distribuye segn una:

(T 2k 1) s2/2 = 12(T 2k 1) De modo que el cociente de los estimadores de las varianzas correspondientes a cada ciclo peridico, corregidos por sus grados de libertad, puede considerarse que se distribuye segn una F de Snedecor con 2 y T 2k 1 grados de libertad. El contraste para un valor emprico superior al crtico tomado de las tablas, no rechazara la existencia de un ciclo determinstico.

38

5.

Inconsistencia del periodograma La inconsistencia significa que el periodograma es considerado un estimador inadecuado del espectro. Significara negar la hiptesis basada en periodicidad. En primer lugar, se establece la insesgadez asinttica, que resulta de: E(I(w)) f(w) TTeniendo en cuenta que el periodograma, considerado como estimador debiera tender al espectro, en cuanto parmetro poblacional, para T tendiendo a infinito. Se comprueba solo para el proceso de RB. Como se distribuye segn una 22, el argumento se basa en las caractersticas de dicha distribucin.

La esperanza de una 2 viene dada por: E(n2) = n De manera que: E(22) = E[I(wp) x 2/2] = 2 En consecuencia: E(I(wp)) = 22/2 = 2/De manera que la esperanza del estimador coincide con el valor del proceso poblacional, es decir, con la definicin de RB.

En segundo lugar, se establece la inconsistencia. Igualmente es conocido a partir de la distribucin en el muestreo Ji cuadrado, que la varianza de una distribucin Ji cuadrado, viene dada por: Var (n2) = 2n Que aplicada al periodograma, resulta: 2/2 = 4 Es decir: Var (I(wp)) = 44/42 = 4/2Como la varianza del periodograma, en el caso particular de un proceso de RB no dependera del tamao de la serie, no tendera a cero por mucho que aumentara dicho tamao. Esta expresin sera la justificacin de la inconsistencia. Si por definicin, el espectro de RB, es constante en todas las frecuencias (periodicidades), mientras los periodogramas estimados fluctan errticamente, quedara justificada la inadecuacin del periodograma, y en consecuencia, su abandono en el anlisis de series de tiempo.

La tesis de la inconsistencia depende de la validez de los siguientes supuestos: 1. La existencia de un proceso de RB, resultado de realizacin imposible en el campo continuo, no estando probada su existencia en el campo discreto. 2. Supuesto que existiera un proceso puramente aleatorio en el tiempo, sera necesario aceptar que las series histricas son muestras aleatorias de un proceso estocstico poblacional. 3. Que todo proceso estocstico estacionario posea un espectro. La interpretacin literal del periodograma, indica que hay picos, porque no todos los ciclos peridicos, contribuyen por igual a la varianza del proceso estacionario. Sera constante si todos contribuyeran por igual. Se supone sin prueba que un proceso aparentemente irregular, es RB. En consecuencia, puesto que los supuestos mencionados no estn probados, considero (Nelson lvarez) fundamentada la utilizacin del periodograma para la medicin de teoras econmicas.

39

6.

Estimacin consistente del espectro Se supone como alternativa para estimar consistentemente f(w), ponderar I(w) mediante una sucesin de pesos, denominados ventanas espectrales. El trmino ventana indicara la idea intuitiva de que se estara contemplando el especto verdadero f(w) a travs de las mismas. Se suele trabajar con un nmero reducido de ponderaciones, pongamos M < T, siendo denominado M, un valor de truncamiento. Es inmediato sealar que es arbitraria tanto la eleccin de las ponderaciones como del valor de M. Si M fuese elevado, el espectro podra seguir registrando un comportamiento errtico. Si M fuera pequeo, la varianza podra ser reducida, pero al precio de un sesgo mayor. Nunca es posible saber a priori, cuando M es grande o pequeo. Ponderar equivaldra a suavizar las fluctuaciones del periodograma. La propuesta es remplazar el estimador calificado como inconsistente por uno ponderado (suavizado). La estimacin consistente del espectro, asumiendo la inexistencia de componentes peridicos, se estable a partir bien de la funcin de autocovarianza, bien del periodograma. La idea bsica es que las fluctuaciones del periodograma imputadas a la inconsistencia, pueden eliminarse ponderando el periodograma. Es decir, una estimacin consistente del f(w) se basara en la propiedad muestral de insesgadez del periodograma: la media del espectro muestral (periodograma) estara prxima al verdadero valor del espectro poblacional. Por tanto, el periodograma en cuanto estimador muestral del espectro en las fluctuaciones armnicas proporcionara un estimador insesgado del espectro del proceso de RB. 6.1. Estimacin consistente del espectro basada en la funcin de autocovarianza

Partiendo de la forma espectral de las series econmicas estacionarias, parece lgico dar mayor peso a los primeros valores de la funcin de autocovarianza, resultando como estimador: f(w) = 1 [m0c0 + 2 mucu cos wpu]

Donde los mu representan las ponderaciones de las autocovarianzas cu. Es la misma expresin establecida anteriormente en la que varianza y autocovarianzas apareen ponderadas. Una regla prctica es elegir un valor de M tal que verifique que: 1/20 M/T 1/3 0,5 M/T 0,34

De los diferentes procedimientos propuestos, se mencionan varios: 1. El debido a Bartlett: u m = 1 Mu

2.

El de Tukey: 1 u m = [ 1 + cos ( )] 2 Mu

u = 0, 1, 2, . . .M

3.

El de Parzen: m = 16u

(

u ) + 6 M 2 )3

(

u ) M 3

0 u M/2 M/2 u M

m = 2u

(

1u M

An cuando los dos ltimos procedimientos registran ponderaciones similares, se reconoce cierta superioridad al sistema de Parzen, dado que evita valores negativos del

40

espectro, lo que careca de significado, dado que no pueden existir contribuciones negativas a la varianza en una banda de frecuencias.

41

6.2.

Estimacin consistente del espectro basada en el periodograma

Si en lugar de la funcin de autocovarianza, se utiliza para una estimacin consistente del espectro basada en el periodograma, sta viene dada por una expresin como: f*(w) = I(wp)/m Tomando en los casos particulares de las frecuencias 0 y , los valores: f*(0) = 2 I(wp)/m f*() = [I() + 2 I( w)] / mAl ser independientes los valores de I(wp), la varianza ser del orden (1/m), tendiendo con ello a cero para m grande.

42

43

CAPTULO 10Nelson Tema 8. 8.1. 8.2. 8.3. 8.4. 8.5.

Anlisis de la no estacionariedad y la regresin espuriaEl anlisis de la no estacionariedad y la regresin espuria

El camino aleatorio: un proceso estocstico no estacionario Concepto de tendencia estocstica Proceso de camino aleatorio: un proceso no estacionario Caractersticas del proceso de camino aleatorio Contrastes de races unitarias y cointegracin 8.5.1. Introduccin 8.5.2. Contrastes de races unitarias 8.5.3. Criticismos del contraste de races unitarias

1.

El camino aleatorio: un proceso estocstico no estacionario La no estacionariedad pasa a ser objeto directo del anlisis de series temporales. En la especificacin de los modelos ARIMA(p, d, q), d indicaba el orden de las diferencias necesarias para transformar una serie histrica en estacionaria. Un proceso ARIMA es no estacionario.Considera la serie histrica de precios de trigo, como no estacionaria, en su forma original. La no estacionariedad se corresponde con una tendencia creciente y unos ciclos, considerados como movimientos sistemticos. Aplicando una primera diferencia a la serie original se consideraba la serie diferenciada, estacionaria. Se aplica el logaritmo para conseguir una varianza aproximadamente constante de la serie de precios. La serie puede considerarse estacionaria en trminos estocsticos, dado que ni posee una tendencia ni ciclos, tan solo fluctuaciones irregulares.

Las series histricas observadas no suelen ser estacionarias, y para transformarlas en estacionarias, se les suelen aplicar primeras diferencias. Chatfield: Un tipo especial de filtrado, particularmente til para eliminar una tendencia, es diferenciar una serie de tiempo dada hasta que se convierta en estacionaria. Estas primeras diferencias dan lugar a un proceso estocstico estacionario, denominndose el proceso estocstico no estacionario previo a la diferenciacin, un camino aleatorio. Metodolgicamente, la econometra ha venido desarrollando una serie de cuestiones relacionadas con la no estacionariedad, como los procesos de camino aleatorio, los contrastes de races unitarias, las regresiones espurias, y la cointegracin.

44