Ensayos sobre la Granger...

94
Ensayos sobre la Granger Causalidad Carlos Vladimir Rodríguez Caballero División de Ciencias Económico Administrativas Universidad de Guanajuato Supervisor: Dr. Daniel Ventosa Santaulària Tesis presentada para obtener el grado de Maestro en Economía

Transcript of Ensayos sobre la Granger...

Ensayos sobre la Granger Causalidad

Carlos Vladimir Rodríguez Caballero

División de Ciencias Económico Administrativas

Universidad de Guanajuato

Supervisor: Dr. Daniel Ventosa Santaulària

Tesis presentada para obtener el grado de Maestro en Economía

Prefacio

En un célebre ensayo, el prominente filósofo, matemático y literato Bertrand Russell,[Russell 1912], demandaba que la palabra " causa" no siguiera siendopronunciada enla ciencia física. No obstante, a diferencia de su época, en la década de los sesentas, laspalabras " causalidad" y " causa" eran ampliamente usadas en los trabajosde los físicosmás reconocidos. Russell hizo énfasis en que se debía reemplazar el hablar de las causaspor aquellas relaciones funcionales, más propiamente hablando, reclamó el uso de lasecuaciones diferenciales. Ello obedecía al espíritu de la física clásica, donde el fenómenodebe ser entendido a niveles más fundamentales de lo que se hace hoy en día. En estesentido, uno tiene el sentimiento que en la física contemporánea la situación es más similar ausar la experiencia ordinaria, es decir, que no debería ser suficiente con aplicar leyes funda-mentales simples para derivar relaciones exactas, usualmente denominadasrelaciones causales.

El reinado de la mecánica Newtoniana, en los albores del Siglo XVIII y hasta finales delXIX donde encontró su apogeo, fue probablemente la razón por la que desde el punto de vistadel análisis filosófico, el estudio y debate de la causalidad fueran olvidados, justo en este lapsoy obedeciendo a la nueva física matemática de Newton, emergieron brillantes filósofos comoKant, Hegel, Schopenhauer, entre otros. En esta época la connotaciónde causalidad estabaemparentada intrínsecamente con la del determinismo.

No obstante, es muy importante establecer que la causalidad no es de índole deterministaestrictamente hablando. En las estructuras gramaticales de los idiomas nunca faltan expresio-nes como: " Su pésima conducción le terminará provocando un accidente" ,obedeciendo mása un espíritu probabilista que determinista, por otro lado, en situaciones como ésta, es evidenteque se están transmitiendo ciertas nociones causales. Al haber un gran número de locucionesde la misma índole cobra sentido el hecho de que la causalidad esté más emparentada conuna naturaleza probabilística. En la filosofía de la ciencia, la causalidad representa uno de lostópicos más activos, sin embargo, aún hoy en día, dicha línea de investigación está incompleta.Normalmente se indagan cuatro cuestiones: ¿Cuándo precisamente un evento especificorealmente causa a otro? ¿Cómo precisamente este mundo de concepciones mecánicas decausalidad está emparentado a aquel otro de concepciones contrafactuales? ¿Cómo podemostener causalidad en diferentes niveles (micro y macro) y cómo esos niveles están relacionados?Y ¿En qué sentido las relaciones causales caracterizan la realidad objetiva? Las primerastres cuestiones exigen una profundidad teórica, mientras la cuarta la exigedentro del ámbitofilosófico. No obstante, para todas ellas la probabilidad es de vital importancia.

El regreso de la probabilidad en el estudio de la causalidad tiene dos razones primordiales.La menor de ella fue que a partir del análisis contrafactual de la causalidadde Lewis, [Lewis

1973], se necesitó con urgencia retornar al tema. Sin embargo la razón principal fue quedespués de la conmoción de la física cuántica, que parecía negar la relación causal en elnivel microfísico, dio surgimiento a las teorías probabilísticas de causalidad,alrededor de1970. Dichas teorías resultaron ser más sofisticadas que los esfuerzoscorrespondientes enla parte determinista, por otro lado se encontraron resultados que la aproximaron más a lasciencias naturales y sociales. En este sentido, la causalidad dentro del marco probabilísticorápidamente tomaron la delantera con las incrustaciones teóricas provenientes de la causalidaden el sentido de Granger y la teoría bayesiana de grafos causales, quese han convertido en lasbases estándares del tema. Por ende cualquiera que sea el tema específico de investigación,la conexión intrínseca entre causalidad y probabilidad juega un papel fundamental y de sumaimportancia.

Uno de las tareas más importantes de la econometría es descubrir las diversas relacionescausales entre variables económicas y distinguirlas de relaciones asociativas, llamadas corre-laciones espurias. Sólo las relaciones causales son útiles para el asesoramiento sobre políticas,ya que contienen la reacción de las variables económicas de interés para las intervenciones depolítica.

Los econometristas desarrollaron dos diferentes formas de definir lo quees el efectocausal. Un concepto originado en la econometría de series de tiempo y el otro desde laesfera de la microeconometría y la estadística. El primero de ellos es debido a los traba-jos de Wiener, Granger y Sims, en los cuales la (no) causalidad es muy similar,sino esque es el mismo sentido, a (no) predictibilidad. Es decir, se considera que una variableno causa a otra variable, si el valor actual de la variable causal no ayuda a predecir losvalores futuros de las variables que podrían capturar los efectos de dicha causalidad. Estadeclaración está condicionada al conjunto de información disponible en cada punto del tiempo.

El fundamento de esta tesis gira en torno a esta concepción de causalidad.El resultadomatemático conocido como Granger causalidad ha sido de enorme relevancia en la modela-ción econométrica. Se han realizado diversos estudios macroecónomicosdonde la causalidadjuega un papel muy importante, ejemplo de ellos son los estudios de la demanda dedinero,[Hayo 1999], [Christiano 1988], entre otros, las relaciones entre los precios accionarios y elcrecimiento económico, [Foresti 2007], relaciones bilaterales entre consumo y el productointerno bruto entre países, [Guisan 2004], entre muchos otros.

Con el advenimiento de la teoría econométrica de series de tiempo no estacionarias ysu presencia inminente en diversas variables económicas, el uso y costumbre de la Grangercausalidad se ha visto mermada, pocas investigaciones han proseguido enla búsqueda de unamejor forma de someter el estudio de la causalidad entre variables económicasen presencia delos conocidos procesos de raíces unitarias.

Obedeciendo a este fin, la principal importancia de esta tesis concentra el estudio de laGranger causalidad cuando existe presencia de raíces unitarias en el proceso generador dedatos, no obstante para alimentar la relevancia de la investigación y poder alcanzar el clímaxde la investigación, el presente trabajo está dividido en tres capítulos con objetivos biendefinidos.

El primer capítulo, en su primera sección, reúne las ideas originales de la Granger causali-dad así como la construcción del marco teórico de la tesis; la segunda presenta el herramentalteórico necesario para poder estudiar formalmente la Granger causalidaden la sección final delprimer capítulo. La primera sección puede ser cubierta por todos los estudiantes interesados,mientras que las demás requerirán conocimientos básicos de análisis real.

La última subsección del primer capítulo presenta la prueba econométrica usada común-mente en las aplicaciones empiricas para después, en el segundo capítulo,poder analizar laspropiedades de la misma conforme la hipótesis alternativa y así poder probar la consisten-cia de la prueba. Estudiantes de niveles intermedios de matemáticas, actuaría yeconomíacon conocimientos de inferencia estadística pueden disfrutar la lectura sin mayor contratiempo.

Finalmente el tercer capítulo, alma del presente trabajo, aborda el problemade losprocesos de raíz unitaria en la modelación econométrica, esto con el objetivo de cimentarla importancia económica de los resultados subsiguientes que se basan en la búsqueda dedistribuciones asintóticas fiables para realizar inferencia estadística con laprueba de Grangercausalidad en presencia de procesos de raíz unitaria. Esta parte de la tesis pretende despertarinterés en investigadores tanto teóricos como aplicados y estudiantes de posgrado en economíacon orientación en econometría. No obstante, su lectura pudiera ser interesante para cualquierestudiante con conocimientos sólidos en series de tiempo no estacionarias y/o procesosestocásticos.

Las pruebas de los teoremas se han dejado como apéndices y pudieran resultar interesantespara los estudiantes de últimos semestres en carreras matemáticas con conocimientos deanálisis espectral y estudiantes de posgrado en matemáticas y economía.

Carlos Vladimir Rodríguez Caballero

Nowy Sacz, Polonia.

Índice general

Prefacio

1. Granger Causalidad 11.1. Revisión de literatura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2. Teoría espectral de procesos estocásticos. . . . . . . . . . . . . . . . . . . . . 10

1.2.1. Análisis de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.2.2. Espectro de un proceso estacionario. . . . . . . . . . . . . . . . . . . 131.2.3. Función de distribución espectral. . . . . . . . . . . . . . . . . . . . 141.2.4. Densidades espectrales y procesos ARMA. . . . . . . . . . . . . . . . 151.2.5. Análisis bivariado de dominio en las frecuencias. . . . . . . . . . . . 17

1.3. Relaciones causales en modelos econométricos. . . . . . . . . . . . . . . . . 191.3.1. Modelos de retroalimentación. . . . . . . . . . . . . . . . . . . . . . 191.3.2. Causalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.3.3. Modelo de dos variables. . . . . . . . . . . . . . . . . . . . . . . . . 211.3.4. Pruebas de Granger causalidad. . . . . . . . . . . . . . . . . . . . . . 24

2. Estadístico F bajo procesos Granger Causales 272.1. Procesos Granger causales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.1.1. Proceso generador de datos. . . . . . . . . . . . . . . . . . . . . . . . 272.1.2. Resultados asintóticos de procesos referentes aHa . . . . . . . . . . . 28

3. Granger Causalidad bajo procesos de raíz unitaria 353.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.2. Procesos de raíz unitaria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.2.1. Herramientas teóricas. . . . . . . . . . . . . . . . . . . . . . . . . . . 363.2.2. Regresión con una raíz unitaria. . . . . . . . . . . . . . . . . . . . . . 393.2.3. Regresión espuria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.3. Evidencia de raíces unitarias en series macroeconómicas. . . . . . . . . . . . 433.4. Granger causalidad espuria. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.4.1. Granger causalidad bajo procesos de raíces unitarias. . . . . . . . . . 47

Conclusiones 63

A. Pruebas matemáticas diversas 65A.1. Teorema de Herglotz (1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . 65A.2. Teorema (1.2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Índice general

A.3. Corolario (1.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66A.4. Teorema (1.3). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66A.5. Densidad espectral del proceso ARMA(p,q) (1.4). . . . . . . . . . . . . . . . 67A.6. Regresión de raíz unitaria (3.1). . . . . . . . . . . . . . . . . . . . . . . . . . 67

B. Pruebas del capítulo 2 69B.1. Prueba de los teoremas (2.1), (2.2) y (2.3). . . . . . . . . . . . . . . . . . . . 69B.2. Prueba del corolario (2.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

C. Pruebas del capítulo 3 75C.1. Prueba del teorema (3.2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75C.2. Prueba del teorema (3.3). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76C.3. Prueba del teorema (3.4). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77C.4. Prueba del teorema (3.5). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

Bibliografía 80

C 1

Granger Causalidad

1.1. Revisión de literatura

La identificación y análisis de las interrelaciones entre variables, series detiempo oprocesos estocásticos es un importante problema en una variedad de campos científicostales como la economía, la ingeniería, la física o la genética, entre muchos otros.Un interésparticular queda constituido en las interacciones dinámicas temporales entre las variables deinterés, las cuales ayudan a determinar el mecanismo causal de un sistema subyacente.

Por ejemplo, en neurociencias, el análisis de series de tiempo multivariadas provee unaestructura básica para analizar los patrones de las interacciones neuronales. Las señales sereflejan, debido a la actividad neuronal, en un electroencefalograma y han sido usadas paraentender diversos patrones de interacción entre distintas áreas del cerebro que son activadasdurante ciertas tareas. Lo anterior ha permitido mejorar el conocimiento científico y elentendimiento acerca del procesamiento neuronal de la información.

En este sentido, en [Liang 2000] se muestra, usando técnicas estadísticas espectrales(que más adelante será necesario también estudiar), la dinámica entre las distintas retroali-mentaciones y senderos laterales entre las múltiples áreas corticales de los simios duranteun procesamiento de patrones visuales y así mostrar las influencias causales de las áreascerebrales.

A primera instancia podría parecer un auténtico dédalo el porque de la importancia derelacionar la investigación de neurociencias con este trabajo que es de carácter econométrico.Sin embargo el hecho de que dos ramas tan alejadas se interesen por un mismofin resultaextrañamente fascinante.

El concepto probabilístico de causalidad está basado en la idea de que en el tiempo lacausa siempre precede a los efectos: Si una serie de tiempo causa a otra,el conocimiento delprimer proceso ayudaría a predecir los valores futuros del otro después de que hayan sidotomado en cuenta las influencias de otras variables. Sin embargo, debido a que el concepto nocuenta con una especificación a priori de un modelo causal, es particularmente adecuado parainvestigaciones empiricas tener una medida de asociación.

2 Capítulo 1. Granger Causalidad

Cabe destacar que se puede conducir a las llamadas causalidades espurias si una impor-tante variable relevante no es incluida en el ánalisis. En las series de tiempo económicas,especifica [Hsiao 1982], hay usualmente una dificultad en discriminar con precisión antevarias formas que parecen ser consistentes con la información de los datos, haciendo énfasisen los problemas que emergen de la colinealidad y la escasez de grados de libertad, entreotros. Es por ello que dicho autor plantea que es mejor el extraer la información usando unenfoque puramente de series de tiempo.

El enfoque más comúnmente usado para describir e inferir la dinámica o relación causal enseries de tiempo está basado en los modelos de vectores autorregresivos(VAR), introducidospor [Sims 1980] y el concepto de Granger causalidad, introducido por [Granger 1969]. Esteconcepto es pilar central en el presente trabajo y a lo largo del capítulo actual se explicarádetenidamente. No obstante, es interesante abordar el tema de causalidad desde perspectivas,ciertamente un poco alejadas, a las convencionales en el quehacer econométrico.

Un enfoque más intuitivo para resumir las relaciones dinámicas en diversossistemascomplejos es representarla mediante una gráfica o grafo, la cual está compuesta por unconjunto de vertices representando las variables y una flecha dirigida enun sentido estrictoa otra variable. De esta forma queda bien expresada la dinámica o la influencia causal entredichas variables.

La representación gráfica de estructuras causales se remonta a [Wright 1934], quienintrodujo un diagrama de trayectorias para la discusión de sistemas de ecuaciones linealesestructurales. A partir de este trabajo pionero y conforme la teoría de gráficas se fue desarro-llando a lo largo del Siglo XX, se avanzó en el estudio visual de la dependencia entre variablesen forma de series de tiempo para así evolucionar hasta los recientes trabajos en teoría degráficas de la causalidad.

Por ejemplo, [Pearl 1995] muestra como los modelos gráficos pueden ser usados parainferir no paramétricamente la causalidad entre variables. Sin embargo este tipo de avancesteóricos dependen de las propias suposiciones causales mostradas en el grafo, las cualesdeberían ser probadas en estudios observacionales.

Para el análisis de las relaciones dinámicas en series de tiempo multivariadas,[Eichler 2006] y [Eichler 2007], introducen diagramas causales para visualizar la estruc-tura autorregresiva de procesos débilmente estacionarios, lo que les permite codificar y proveeruna base ideal para analizar las relaciones Granger-causales entre las variables. Sin ahondarmás al respecto y solo a manera de ejemplo, en la figura (1.1) se muestra la estructura causalen un procesoVAR5(1).

1.1. Revisión de literatura 3

Figura 1.1: Diagrama causal asociado a un procesoVAR5(1) con ciertas condiciones parame-trales.

El diagrama indica, por ejemplo, que hay una retroalimentación cerrada entre las variablesX1 y X3. Por otro lado se ve que la variableX1 causa indirectamente aX4 conX3 como variablemoderadora1, así como la variableX5 causa aX4.

De esta forma, es como [Eichler 2006] describe un enfoque gráfico para visualizar yanalizar las relaciones causales en series de tiempo multivariadas. Dicho artículo se basa en elmismo concepto usado en econometría para estudiar la causalidad entre variables, esto es, laGranger causalidad.

Como se ha mencionado hasta ahora, debido al hecho de que en diversos campos cientí-ficos se cuenten con datos en forma de series de tiempo multivariadas, es natural preocuparsee investigar acerca de la interdependencia entre dichas series, ya sea de manera visual usandolos diagramas comentados, o de manera más cuantitativa usando funciones de correlación enel caso del dominio en el tiempo, o las denominadas funciones de coherencia con respecto adominio en las frecuencias, que más adelante se estudiarán.

En algunas situaciones interesantes, las medidas simétricas como la correlación o lacoherencia no son completamente satisfactorias, por ejemplo en neurociencias, como eneconomía, más allá de diseccionar los patrones entre las señales cerebrales, se requiereidentificar y luego dividir su conectividad funcional. Debido a ello es que muchos trabajos hancomenzado a considerar la influencia causal que una serie de tiempo (de una neurona) puedeejercer sobre otra.

Se puede rastrear el origen de esta idea básica en los trabajos de [Wiener 1956], quienconcibió la noción que, si la predicción de una serie de tiempo podía ser mejorada incorporan-do la información proveniente de la segunda, entonces la segunda serie tendría una influenciacausal sobre la primera. La idea de Wiener carecía de maquinaria para una implementaciónpráctica, y no fue hasta que [Granger 1969] formalizó la idea de predicción en el contexto deun modelo de regresión lineal.

1La variable moderadora (X3), en este ejemplo, desempeña un papel de variable independiente, quees secunda-ria, y su finalidad será determinar si afecta la relación de causalidad entre las variablesX1 y X4

4 Capítulo 1. Granger Causalidad

La Granger causalidad2 es un avance matemático por demás sobresaliente, cuya impor-tancia y necesidad en quehaceres científicos tan alejados cobra enorme relevancia. Dicho loanterior, es ya necesario comenzar a estudiarla.

En los cursos básicos de econometría, y en alguna ocasiones en el ejercicio profesional,comúnmente se considera una simple serie de tiempo estacionaria para poder estudiar suestructura y sus propiedades y, eventualmente, realizar pronósticos. Sin embargo, realmenteexisten pocos casos en los que se puedan considerar procesos estocásticos independientespara modelar alguna situación en particular. De hecho, suele ocurrir lo contrario: De acuerdocon la teoría de equilibrio general, usualmente se asume la fuerte interdependencia entrevariables; dicho de una manera más coloquial, se podría asumir que todo depende de todo lodemás. Entonces, naturalmente, la cuestión a resolver radica en las relaciones causales entrelas diferentes series de tiempo.

En principio, uno podría resolver esta pregunta de dos formas. Por unaparte se podríaasumir que el proceso generador de datos (de aquí en adelante se denotará como PGD) delas diferentes series de tiempo son independientes entre sí y así poder seguir una estrategiade abajo hacia arriba3 para poder obtener una dependencia causal entre los procesos. Esteenfoque estadístico es el usado en la propuesta seminal de Clive W.J. Granger [Granger 1969]4

y hoy es empleada regularmente por la mayoría de los econometristas, como ya se ha explicadocon anterioridad.

Esta alternativa estadística es una estrategia dearriba a abajo, la cual asume que losprocesos generadores de datos no son independientes y por ende, en un segundo paso, se debeinvestigar si alguna serie de tiempo específica es generada independientemente de algunaotra considerada. Este trabajo se desarrolla en el marco del estudio de lacausalidad bajo eseenfoque probabilístico.

Aunque el desarrollo matemático de la causalidad se ha realizado principalmente a lolargo del siglo XX, ésta ha intrigado a los filósofos por milenios. Destacan, en este largo

2Sería más apropiado llamarlo Wiener-Granger causalidad, por ser la idea sugerida por el matemático NorbertWiener. Sin embargo a lo largo del trabajo sólo se hará referencia a la Granger causalidad, debido al uso común deltérmino en la literatura econométrica.

3En este sentido, en una estrategia de abajo hacia arriba uno primero podría asumir que los procesos generadoresde datos son independientes entre sí, y en una segunda etapa, uno podría preguntarse si alguna serie de tiempoespecífica está relacionada a cada una de ellas

4Clive W.J. Granger fue uno de los economistas más importantes en el siglo XX, sus trabajos acerca de lacausalidad, la regresión espuria, procesos de memoria larga, procesos no-lineales, agregación y, la más importante,la teoría de cointegración, por la que obtuvo el premio Nóbel de Economíaen 2003, revolucionaron la econometríade series de tiempo, de tal forma que hoy no es posible concibirla sin todasesas teorías y métodos. Un excelenteobituario en su memoria puede ser encontrado en [Hendry 2009].

1.1. Revisión de literatura 5

periodo, pensadores como Aristóteles. Sin embargo, el origen del términode causalidadper sese remonta a Galileo Galilei y David Hume en el siglo XVII y XVIII respectivamente, siendouna relación cercana al término de causa-efecto.

Una variablex sería causal a una variabley si x pudiera ser interpretada como la causadey y/o y fuera un efecto dex. No obstante, la idea básica de un modelo causal en economíase encuentra en los trabajos de John Stuart Mill y Alfred Marshall [Marshall 1890] quienes,verbalmente aún, definieron la causalidad de la manera familiar, mediante la cláusula deceteris paribus: x causa ay si, manteniendo todo lo demás constante, cambios enx repercutenen cambios eny.

Esta idea intuitiva fue formalizada por Trygve Haavelmo ([Haavelmo 1943] y[Haavelmo 1944]) para distinguir entre correlaciones y causalidades en el contexto delos modelos de ecuaciones simultáneas de laCowles Commission. Trygve Haavelmo, a quiense le considera como el padre de la econometría moderna, fue el primero enformalizar lasideas probabilísticas en la econometría, mismas que le permitieron conjuntar los tres aspectosmás importantes en un modelo econométrico: definición, identificación y estimación.

Haavelmo también trabajó con modelos lineales en los cuales los efectos causales podríanser asimilados como parámetros del modelo. En otras palabras, si en un modelo lineal sencillocomoy = α0 + α1x+ u, α1 podría ser concebido como la cuantificación del efecto causal dexsobrey. Por ello, la definición de Haavelmo de causalidad obedece una relación del tipo: Si xes manipulado entoncesy variará.

Regresando a la definición de David Hume, ¿a partir de dónde se podría obtener dichainformación? En la econometría tradicional, cuando se distingue entre variables endógenasy exógenas (o predeterminadas), uno asume que tal información está,a priori, disponible.El problema surge cuando hay algún tipo de simultaneidad entre las variables, es decir, sies posible quex sea causal ay y, simultáneamente,y sea causal ax. Ciertas condiciones deorden en los sistemas de ecuaciones simultáneas econométricas muestran que las diferentesrelaciones pueden solamente ser identificadas mediante la incorporación deinformaciónadicional. Con respecto a ello es imposible determinar la dirección de la causalidad en lasrelaciones instantáneas entre diferentes variables si no hay tal información. En este caso, laúnica posibilidad es estimar una forma reducida del sistema.

En medida de lo posible, el análisis moderno de series de tiempo se abstiene de utilizarinformación exógena, por lo que la forma en que se aborda el problema deidentificación enla econometría tradicional se descarta. Por otro lado, la idea de causalidadestá estrechamenterelacionada con la de sucesión en el tiempo, debido a David Hume, quien señaló que la causaprecede siempre al efecto. La econometría tradicional ha adoptado esa manera de concebir la

6 Capítulo 1. Granger Causalidad

causalidad. Sin embargo, períodos largos de tiempo, representados poruna única observación(una observación por año) son quizá demasiado largos para asumir queun cambio en unavariable podría solamente influenciar a otras en el futuro (aquí cabe señalar, que, el análisis deseries de tiempo financieras, la frecuencia de las observaciones es muy alta, por lo que esteproblema no aplica en ese caso). Utilizando series de tiempo económicas, comopueden serdatos mensuales, se asume en muchos casos que cambios en una variable tendrán un impactoulterior en otras. Por lo tanto, es razonable utilizar la sucesión en el tiempo como un criteriopara descubrir si existe o no una relación causal entre dos series.

Si tal relación causal existe, debería ser posible explotarla para hacerpronósticos. Porejemplo, al trabajar con algún proceso autoregresivo de medias móviles (ARMA, por sussiglas en inglés), si se tiene que la información contenida en los valores pasados de la variablees óptimamente usada es posible generar excelentes pronósticos de corto plazo. Claramente laidentificación e inferencia en los modelos ARMA son desarrollos en esta dirección. En otraspalabras, six es causal ay, los valores actuales y rezagados dex deberían contener informaciónque podría ser usada para mejorar el pronóstico dey. Esto implica que la información no estácompletamente contenida únicamente en los valores actuales o rezagados dey. Si así no fuera,debería entonces ser suficiente trabajar con los propios valores dey.

De acuerdo a la definición de causalidad propuesta en 1969 por Clive W.J. Granger, queimplica formalmente que el futuro no puede causar al pasado, se examina si lapredicción delos valores futuros dey pueden ser mejorados si, por encima de los propios valores dey, losvalores actuales y rezagados dex son también tomados en cuenta.

Hay, sin embargo, otra razón por la que los valores rezagados de la variable correspondien-te sean tomados en cuenta cuando se estudia la causalidad. Aun habiendo estacionariedad depor medio, las variables económicas usualmente muestran un alto grado de persistencia. Estopodría conducir a inferencia espuria entre los procesosxt y yt, en caso de quext no tuvieraningún impacto sobreyt y ésta dependiera deyt−1 la cual no es incluida en la regresión.

Clive W. Granger and Paul Newbold, [Granger 1974], mostraron que una regresiónespuria puede surgir incluso si variables fuertemente autocorrelacionadas son generadasindependientemente entre si. Si los valores pasados de ambas variables son incluídos, el riesgodisminuye implicando una filtración entre las series de tiempo. Con respecto a la relacióncausal entre ambas series, solamente las inovaciones de la regresión serían las importantes.Debido a ello, [Schwert 1979] también se refiere a los resultados de las pruebas de causalidadcomo " el mensaje en las inovaciones".

De estas ideas, se podría concluir que es importante que las series de tiempo seanestacionarias para evitar el riesgo de obtener relaciones espurias. Encaso de no cumplirse

1.1. Revisión de literatura 7

esta condición, es necesario aplicar alguna transformación a las variables para convertirlas enestacionarias, asumiendo que al hacerlo se mantienen las relaciones de causalidad. Este hecho,limitante al trabajar con datos macroeconómicos, es el alma del presente trabajo.

Como se ha comentado, el concepto decausalidad en el sentido de Grangerno estáempatado con el término de causa-efecto, por lo que podría aun causar un poco de confusiónentender cual es esta diferencia. El siguiente ejemplo5 espera clarificar la idea de la Grangercausalidad.

Ejemplo 1.1. Considérese que una persona practica triatlón. Siendo una actividad altamentedesgastante, el triatlonista toma cierta bebida energética después de cada entrenamiento ocompetencia. Con E= entrenamiento y B= beber la mencionada bebida, una línea temporalde esta actividad está dada en el panel a) de la figura (1.2). Aquí no se tiene ninguna dificultaden determinar que el entrenamiento causa el consumo de la bebida energética. Pero ahorasupongamos que al triatlonista le toma unas horas recuperar fuerzas, así que ni siquieraabre una botella más en todo un día. Por otro lado supongamos que el triatlonista vive enuna ciudad que le permite practicar todos los días. Ahora su línea de tiempo se observacomo en el panel b) de la misma figura. Aun es cierto que E causa B, pero todos los díasB precede E. La noción decausa precede a los efectosconduciría a creer que ¡tomar labebida energética causa practicar triatlón!. Ahora bien, ¿de qué manerase podría clasificaresto? El problema es que tanto E como B son eventos regulares. Si uno pudiera encontraruna E irregular, y ver si una B la sigue, uno podría determinar que E causa B, como esmostrado en el panel c) de la figura (1.2). Entonces se podría definir lo siguiente: Si unaE inesperada pronostica B entonces se sabe que EcausaB. Esto resulta ser una de las va-rias definiciones equivalentes de lacausalidad en el sentido de Grangero Granger causalidad.

Debe entenderse que la Granger causalidad no es una causalidad en unsentido másfundamental debido a la posibilidad de otras variables. Six conduce ay con un rezago pero az con dos rezagos, entoncesy Granger causará az en un sistema bivariado. No obstante, nodebe entenderse que un cambio eny repercutirá en un cambio enz.

El hecho de que la Granger causalidad sea o no consistente con las definiciones formalesde causalidad ofrecidas por la filosofía de la ciencia es una pregunta abierta. En la mayoría delas definiciones, " causa" es similar en significado a " fuerza" o " producto" [Blalock 1961],lo cual no es claramente sinónimo de " predicción" . Es posible que la definición más cercanaa la causalidad en el sentido de Granger sea la ofrecida por Feigl: " causalidad es definida entérminos de predictibilidad de acuerdo a la ley" en [Feigl 1953].

5El cual está inspirado en un ejemplo de George Akerlof. [Akerlof 2009]

8 Capítulo 1. Granger Causalidad

Figura 1.2: Idea básica de la Granger causalidad.

Antes de estudiar los métodos de series de tiempo con los que se prueban las relacionescausales, vale la pena considerar la relación entre la Granger causalidad y otros conceptos decausalidad. [Wold 1954] abogó por la noción de cadenas causales entre variables, sirviendoéstas en la especificación de una estructura recursiva para un sistema de ecuaciones simultá-neas. Sin embargo, [Basmann 1965] mostró que es imposible identificar una única direcciónde causalidad cuando la relación entre variables es estrictamente contemporánea. Lo anterior,dicho sea de paso, contrasta fuertemente con el concepto de causalidaden el sentido deGranger ya expuesto.

A diferencia de los sistemas físicos, como el típico ciclo del agua, en los sistemas econó-micos los términos de ordenación temporal y causalidad no son sinónimos necesariamente.Un ejemplo claro es el hecho de que los agentes económicos toman decisionesbasándose enlas expectativas de lo que ocurrirá en el futuro; aquí es importante recalcar que la formaciónde las expectativas podría cambiar la interpretación de la Granger causalidad. El conceptode expectativas racionales, [Muth 1961], o de mercados eficientes, [Fama 1970], sugiere queeste problema ocurrirá cada vez que uno trate con un mercado con arbitraje, en el que losprecios reales se desvían de sus expectativas de una manera sistemática.Dicho de otro modo,la Granger causalidad no cambiaría en presencia de precios de mercado que no permitan laejecución de arbitraje rentable6, es decir que constituyan un equilibrio de arbitraje.

Como ejemplo a lo anterior, [Fama 1975], encontró que la tasa de retorno de los bonos deltesoro predicen las observaciones subsecuentes de la inflación. A su vez, [Nelson 1977] indicaque dicha tasa causa en el sentido de Granger a la inflación, debido a queagrega información

6Siendo una precondición para un equilibro económico general.

1.1. Revisión de literatura 9

significativa más allá de la contenida en los pasados de la propia inflación para predecirla. Sinembargo, [Schwert 1979] comenta que estos resultados empiricos son engañosos, y apuestamás a un sentido puro de causalidad entre los movimientos de los bonos y la inflación,comentando que las diferentes tasas de interés se ajustan con respecto a las expectativas de lainflación, por lo que la inflación causa (en el sentido usual) a la tasa de interés.

Como muestra el párrafo anterior, el concepto de Granger causalidad no concluye fuerte-mente en algunos casos. En [Zellner 1977] y [Zellner 1979] es posible encontrar una valiosadiscusión al respecto. Siendo la idea de este tipo de causalidad objeto de una fuerte controver-sia, ésta queda inmersa en una disputa filosófica. Por un extremo uno puede encontrar personasque creen que todo causa todo, y por el otro extremo, personas que niegan la existencia de todotipo de causalidad, ver [Zellner 1979]. Por si fuera poco, el econometrista Edward Leamer pre-fiere el término " precedencia" en vez de causalidad, mientras que Francis Diebold, prefiere eltérmino " causalidad predictiva" comentando7:

. . . the statement " yi causes yj" is just shorthand for the more precise, but longwinded,statement, " yi contains useful information for predicting yj (in the linear least squares sense),

over and above the past histories of the other variables in the system." To save space, wesimply say that yi causes yj .8

A pesar de sus escrupulosos detractores, existe una vasta literatura que se ha encargadode defender de manera contundente la causalidad en el sentido de Granger. Ejemplos de loanterior pueden encontrarse en,inter alia, [Granger 1988], [Granger 1980], [Newbold 1982],[Chamberlain 1982], [Geweke 1984], [Phillips 1988], [Florens 1982], [Florens 1985] y[Toda 1994]. La definición de causalidad ofrecida por Clive W. Granger ofrece un enfoquediseñado para determinar las relaciones causales entre las series de tiempoeconómicas. Noobstante, la utilidad de ésta en la conceptualización, construcción, estimacióny manipulaciónde modelos econométricos es independiente del debate en términos de consistencia quesuscita. [Geweke 1984] evalúa dicha utilidad mediante la revisión y la formalización dealgunos conceptos operacionales implicitos en la modelación econométrica.

Huelga decir que la literatura con respecto a la Granger causalidad no se limitaa los traba-jos citados en el párrafo anterior. Ésta, de hecho, es bastante extensa; [Pierce 1977] interpretalos resultados obtenidos en el artículo seminal de Granger y extiende tambiénlas definicionesde causalidad entre dos series de tiempo. Por otro lado [Pierce 1979], [Granger 1980] y[Dufour 1998] trabajan en la idea de la no causalidad. Una discusión más general deltema es dado por [Zellner 1988] que junto con las reseñas ofrecidas en [Liitkepohl 1991],

7[Diebold 2006]8La declaración de que "yi causa ayj" es solo una abreviación para el enunciado más preciso, pero prolijo," yi

contiene información útil para predeciryj (en el sentido de mínimos cuadrados lineales) más allá del pasado de lasdemás variables en el sistema." Para ahorrar espacio, simplemente sedice queyi causa ayj .

10 Capítulo 1. Granger Causalidad

[Geweke 1983] y [Gouriéroux 1990] comprenden una bibliografía conveniente para iniciar unestudio riguroso del tema.

Finalmente existe una literatura creciente trabajando en generalizaciones dela Grangercausalidad. Éstas apuntan al desarrollo del concepto bajo perspectivas no paramétricas[Diks 2006], no lineales [Marinazzo 2006] o mediante el paradigma bayesiano de la inferencia[Zou 2009].

Este trabajo estudia la posibilidad de encontrar resultados espurios y problemas deinferencia potenciales cuando se usa la causalidad en el sentido de Granger mediantetécnicas estadísticas estándar y bajo especificaciones particularmente relevantes del procesogenerador de datos. Existe también una marcada literatura al respecto: [Ohanian 1988],[Sims 1990], [Toda 1993] y más recientemente los trabajos desarrollados por [He 2001],[Hendry 2004], [Andersson 2005] y [Ventosa-Santaulària 2008]. Más adelante se realiza-rá un análisis al respecto, debido que son artículos inmaculadamente cercanos al trabajo actual.

Habiendo dado una perspectiva general acerca de la filosofía detrásde la causalidad y eldesarrollo de los estudios de causalidad en el sentido de Granger, es momento de comenzar apreparar el camino para definir formalmente la forma en que concibió Clive W.J. Granger queera idóneo estudiar la causalidad entre dos o más procesos estocásticos.Para ello será necesarioadentrarse a la teoría espectral de procesos estocásticos.

1.2. Teoría espectral de procesos estocásticos

In 1959, while at the University of Nottingham, I won a Harkness Fellowshipto study at anAmerican university of my choice. I wrote to several and had a reply fromOskar Morgensternat Princeton University inviting me to join a new time series project he was just starting. Onarrival at Princeton, I found that the project was essentially just Michio Hatanaka and me,although some others soon joined us. Apparently Morgenstern’s coauthor of the Theory of

Games and Economic Behavior, the eminent mathematician John Von Neumann, had insistedthat economists should be using Fourier techniques when analyzing their data. It was

immediately clear that he had Fourier transform ideas in mind, that is, the useof frequencydecompositions, which gives rise to spectral techniques.

Clive W.J. Granger (1964)

Las primeras apariciones de análisis espectral en el estudio de series detiempo macroeco-nómicas se remontan a la década de los sesenta del siglo pasado, motivadospor la necesidadde obtener un conocimiento más profundo de la estructura de las series y con fundamentoen el progreso de las técnicas de estimación espectral. Los primeros trabajos se enfocaronen el problema de procedimientos de ajuste estacional [Nerlove 1964] y en una estructura

1.2. Teoría espectral de procesos estocásticos 11

más general de los datos económicos [Granger 1966]. Los métodos espectrales cruzadosfueron introducidos en la literatura econométrica por [Granger 1964] y [Granger 1969], y hanayudado enormemente a interpretar las relaciones entre las variables económicas debido a quefacilita el estudio de la correlación entre las series.

En este sintético resumen, se presentarán los requerimentos teóricos de la Grangercausalidad desde el punto de vista que propuso originalmente su creador.

El análisis de series de tiempo que usa las funciones de autocorrelación y autocorrelaciónparcial para estudiar la evolución de una serie de tiempo a través de modelosparamétricosrecibe el nombre de análisis con dominio en el tiempo. Un enfoque alternativodescribe lafluctuación de la serie de tiempo en términos de un comportamiento sinusoidal en varias fre-cuencias recibe el nombre de análisis con dominio en frecuencias. Para estudiar esta últimaforma de analizar una serie de tiempo es fundamental conocer algunos conceptos básicos deanálisis de Fourier, que serán presentados en forma discreta para asífacilitar su comprensión.

1.2.1. Análisis de Fourier

Usualmente es más conveniente representar una función por un conjunto de funciones ele-mentales llamadas base tal que todas las funciones bajo estudio puedan ser escritas como unacombinación lineal de las funciones elementales en la base. Una forma muy útil de conjuntardichas funciones es con el uso de senos, cosenos y exponenciales complejas. Esta clase de estu-dios reciben el nombre de " Análisis de Fourier" en honor al célebre matemático francés J.B.J.Fourier, quien en 1807 aseguró que cualquier función periódica podría representada como unaserie de sinusoides armónicamente relacionadas.

1.2.1.1. Funciones ortogonales

Definición 1.1. Funciones ortogonales.Seanφk(t) y φ j(t) funciones complejas definidas en un dominioD, subconjunto de la rectareal. Las funciones en tiempo discretoφk(t) y φ j(t) definidas en un conjunto discreto se dicenortogonales si

t∈Dφk(t)φ

∗j (t)

= 0 para k , j,, 0 para k = j,

(1.1)

dondeφ∗j (t) denota el complejo conjugado deφ j(t).

En análisis de series de tiempo es muy común usar los siguientes sistemas de funcionesortogonales:

sen

(

2πktn

)

, cos

(

2πktn

)

: k = 0,1 . . . ,[n2

]

, y (1.2)

12 Capítulo 1. Granger Causalidad

ei2πkt/n : −n2+ 1 ≤ k ≤ n

2si n es par y− (n− 1)

2≤ k ≤ (n− 1)

2si n es impar

. (1.3)

Definición 1.2. Serie de Fourier.Dada una sucesión den números,zt, la serie de Fourier de la sucesiónzt está dada por lacombinación lineal de las funciones ortogonales trigonométricas dadas porel sistema (1.2).Esto es,

zt =

[n/2]∑

k=0

[

ak cos

(

2πktn

)

+ bk sen

(

2πktn

)]

, t = 1, . . . ,n. (1.4)

Dondeak y bk son llamados coeficientes de Fourier.

Usando propiedades trigonométricas ortogonales es posible encontrar los coeficientes deFourier, ver [Brockwell 2009].

Seaωk = 2πk/n, k = 0,1, . . . , [n/2] (frecuencias de Fourier). Usando el sistema de expo-nenciales complejas dadas en (1.3), es posible también escribir la serie de Fourier dezt como

zt =

∑(n−1)/2k=−(n−1)/2 ck eiωkt si n es impar,

∑n/2k=−n/2+1 ck eiωkt si n es par,

(1.5)

donde el coeficiente de Fourierck está dado por

ck =1n

n∑

t=1

zt e−iωkt. (1.6)

Las ecuaciones (1.4) y (1.5) implican que

zt =

[n/2]∑

k=0

(ak cosωkt + bk senωkt) ,

=

∑(n−1)/2k=−(n−1)/2 ck eiωkt si n es impar,

∑n/2k=−n/2+1 ck eiωkt si n es par.

(1.7)

Los coeficientes de Fourier pueden ser fácilmente determinados usando larelación deEuler eiω = cosω + i sen ω y las identidades senω = eiω−e−iω

2i y cosω = eiω−e−iω

2 . Ver[Brockwell 2009].

La importancia de los resultados hasta ahora expuestos radica en que se concluye quecualquier sucesión finita puede ser escrito como una combinación lineal de una sucesión desenos-cosenos o de exponenciales complejas.

1.2. Teoría espectral de procesos estocásticos 13

1.2.1.2. Transformada de Fourier

Considérese una función en tiempo discreto,zt de duración finita tal quezt = 0 para|t| > M.Es indispensable seguir el desarrollo en [Wei 1990]. Usando los resultados vistos en la sección(1.2.1.1) se puede encontrar que

zt =

2πf (ω) eiωtdω. (1.8)

Debido a quef (ω) eiωt, como función deω, es periódica con periodo 2π, el intervalo de integra-ción puede ser tomado como cualquier intervalo de longitud 2π. Es común tomar−π ≤ ω ≤ π.Por lo que, de (1.8), se obtiene:

zt =

∫ π

−πf (ω) eiωtdω, t = 0,±1,±2, . . . (1.9)

y

f (ω) =12π

∞∑

t=−∞zt e−iωt, −π ≤ ω ≤ π. (1.10)

La función f (ω) en (1.10) se le conoce como la transformada de Fourier dezt, mientras quezt

en (1.9) se denomina transformada inversa de Fourier def (ω).

En la contrucción anterior, se asumió quezt era una función arbitraria de duración finita.Sin embargo las ecuaciones (1.9) y (1.10) permanecen válidas para funciones más generales.Para el análisis de series de tiempo, es importante cuestionar la convergencia de una sumainfinita en (1.10). La condición para garantizar dicha convergencia es que la sucesión, zt, seaabsolutamente sumable, es decir

∑∞t=−∞ |zt| < ∞. Lo que permitirá, a la postre, que sea también

cuadrado integrable,∑∞

t=−∞ z2t < ∞.

1.2.2. Espectro de un proceso estacionario

La suscinta presentación de la transformada de Fourier en la sección (1.2.1.2) permiteabordar el estudio de series de tiempo con dominio en las frecuencias. De hecho, el espectrode un proceso estocástico estacionario es simplemente la transformada de Fourier de lafunción de autocovarianza de dicho proceso, la cual por cierto es justamente absolutamentesumable. Más aún, un proceso estacionario puede ser siempre representado por una función dedistribución espectral.

Seazt un proceso estocástico real con sucesión de autocovarianzas absolutamente sumableγk, entonces debido a los resultados de la sección (1.2.1.2), la transformada de Fourier deγk

14 Capítulo 1. Granger Causalidad

existe y usando (1.10) es igual a

f (ω) =12π

∞∑

k=−∞γk e−iωk (1.11)

=12πγ0 +

∞∑

k=1

γk cosωk, −π ≤ ω ≤ π, (1.12)

donde, a partir de (1.11), se han usado las propiedades deγk = γ−k, el valor en sen(0), el hechode que la función seno es impar y el coseno es par para obtener (1.12). La sucesiónγk puedeser recuperada def (ω) a través de la tranformada inversa de Fourier (1.9).

1.2.3. Función de distribución espectral

A menudo es más conveniente trabajar con procesos estacionarios complejos. Aunque losprocesos encontrados en la práctica son casi siempre de variable real,es matemáticamente mássimple en análisis espectral tratarlos como casos especiales de procesos de variable compleja.

Definición 1.3. El procesoxt es un proceso estocástico complejo estacionario siE |xt|2 < ∞,E [xt] es independiente det y E (xt+h xt) es independiente det.

Definición 1.4. La función de autocovarianzaγ(·) de un proceso estocástico complejo estacio-narioxt es

γ(h) = E (xt+h xt) − E (xt+h) E (xt) . (1.13)

Se puede probar fácilmente que (1.13) cumple conγ(0) > 0, |γ(h)| ≤ γ(0)∀h ∈ Z yγ(·) = γ(−h), es decir es una función hermitiana.

Para una función de autocovarianzaγk, definida en (1.13), siempre es posible obtener surepresentación espectral en términos de la integral de Fourier-Stieljes

γk =

∫ π

−πeiωkdF(ω), (1.14)

dondeF(ω) es conocida como la función de distribución espectral. La ecuación (1.14) esusualmente llamada como la representación espectral de una función de autocovarianzaγk.

El resultado anterior quedá exactamente tipificado en el siguiente teorema.

Teorema 1.1.Herglotz.Una funciónγ(·) compleja definida en los enteros es definida no negativa si y sólo si

γ(h) =∫ π

−πeiωkdF(ω) ∀h = 0,±1, . . . , (1.15)

1.2. Teoría espectral de procesos estocásticos 15

dondeF(·) es una función continua por la derecha, no decreciente y acotada en [−π, π] yF(−π) = 0. La función F es llamada lafunción de distribución espectralde γ y si F(λ) =∫ λ

−π f (ω) dω, −π ≤ λ ≤ π, entoncesf es llamada ladensidad espectraldeγ(·).Prueba en apéndice (A), sección (A.1).

Aunque la forma de definir la distribución espectral, mediante el teorema de Herglotz, esusada ampliamente, existe una forma alternativa de trabajar con una distribución espectral,definiéndola como

xt =

∫ π

−πeitωdzx(ω), (1.16)

la cual se le conoce como representación de Cramer.

El siguiente teorema es útil para encontrarF a partir deγ en algunos casos. De hecho, enel análisis de series de tiempo es indispensable, puesto queγ será la función de autocovarianzade un proceso ARMA(p,q).

Teorema 1.2.Si K(·) es cualquier función compleja en los enteros tal que∑∞

n=−∞ |K(n)| < ∞,entoncesK(h) =

∫ π

−π eiωk f (ω) d(ω) conh = 0,±1, . . ., dondef (λ) = 12π

∑∞n=−∞ einλK(n).

Prueba en apéndice (A), sección (A.2).

Corolario 1.1. Una función compleja absolutamente sumable,γ(·), definida en los enteros esla función de autocovarianza de un proceso estacionario si y sólo si

f (λ) =12π

∞∑

n=−∞e−inλγ(n) ≤ 0, λ ∈ [−π, π], (1.17)

en tal casof (·) es la densidad espectral deγ(·).Prueba en apéndice (A), sección (A.3).

1.2.4. Densidades espectrales y procesos ARMA

Teorema 1.3.Si yt es un proceso estocástico con media cero, posiblemente un proceso esta-cionario complejo con función de distribución espectralFy(·), y xt es el proceso

xt =

∞∑

j=−∞Ψ j yt− j , donde

∞∑

j=−∞|Ψ j | < ∞, (1.18)

entoncesxt es estacionario con función de distribución espectral

Fx(ω) =∫

(−π,ω)

∞∑

j=−∞Ψ j e−i jω

2

dFy(ω), −π ≤ ω ≤ π. (1.19)

16 Capítulo 1. Granger Causalidad

Prueba en apéndice (A), sección (A.4)

Si yt tiene densidad espectralfy(·) y si xt es definido por (1.18), entoncesxt tienetambién una densidad espectralfx(·) dada por

fx(ω) =∣

Ψ(

e−iω)

2fy(λ), (1.20)

dondeΨ(

e−iω)

=∑∞

j=−∞Ψ j e−i jω. El operadorΨ(B) =∑∞

j=−∞Ψ j Bj aplicado a

Ψ j

en (1.18)

se le denomina como filtro lineal de tiempo invariante con pesos

Ψ j

. La funciónΨ(

e−i∗)

se

le conoce como función de transferencia del filtro y al módulo cuadrático∣

Ψ(

e−i∗)

2como

función de transferencia de poder del filtro.

Con este resultado es inmediato el siguiente teorema.

Teorema 1.4.Densidad espectral del proceso ARMA(p,q).Seaxt un proceso ARMA(p,q) (no necesariamente causal y/o invertible) que satisface

φ(B) xt = θ(B) zt, zt ∼ RB(

0, σ2)

, (1.21)

dondeφ(z) = 1− φ1z− · · · − φpzp y θ(z) = 1+ θ1z+ · · · + θqzq no tienen ceros comúnes yφ(z)no tiene raíces en el círculo unitario. Entoncesxt tiene densidad espectral

fx(ω) =σ2

θ(

e−iω)

2

∣φ(

e−iω)∣

2, −π ≤ ω ≤ π. (1.22)

.

Prueba en apéndice (A), sección (A.5).

Del teorema anterior es posible obtener inmediatamente el espectro de un proceso de ruidoblanco, el cual es

fx(ω) =σ2

2π, −π ≤ ω ≤ π, (1.23)

siendo una línea completamente horizontal, lo cual indica que la contribución a lavarianzaen todas las frecuencias es la misma. De hecho, justamente de ahí viene el nombre deruidoblancoya que, como es bien conocido, la luz blanca es producida cuando el espectro de luz entodas las frecuencias es la misma.

Regresando a la ecuación (1.22), si el modelo es invertible, es decir las raíces deθq(B) = 0están fuera del círculo unitario,θq

(

eiω)

θq(

eiω)

no desaparecerá. Entonces la inversa def (ω)

1.2. Teoría espectral de procesos estocásticos 17

existe y está dada por

f −1(ω) =2πσ2

φp

(

eiω)

θq(

eiω)

2

, (1.24)

el cual puede ser visto como el espectro de un proceso ARMA(p,q). Aplicando la transformadainversa de Fourier def −1(ω), se obtiene

γ(I )k =

∫ π

−πf −1(ω) eiωk dω, (1.25)

la cual es conocida como la función de autocovarianza inversa. Naturalmente

ρ(I )k =

γ(I )k

γ(I )0

=1

γ(I )0

∫ π

−πf −1(ω)eiωk dω, (1.26)

es llamada como función de autocorrelación inversa. Esta puede ser usada como herramientade identificación de procesos ya que tiene características similares a las funciones de autoco-rrelación parcial.

1.2.5. Análisis bivariado de dominio en las frecuencias

Hasta ahora sólo se ha considerado el análisis espectral de una sola serie de tiempo, sinembargo Granger definió la causalidad que lleva su nombre trabajando condos o más procesos.Para simplificar la presentación, se considerará una serie de tiempo bivariadaXt = (xt1, xt2)′,con media cero y covarianzasγi j (h) = E

(

xt+h,i xt, j

)

que satisfaga

∞∑

k=−∞

∣γi j (h)∣

∣ < ∞ ∀ i, j = 1,2. (1.27)

Naturalmente, es posible extender los resultados a formas generales. El lector interesado lopuede encontrar en [Granger 1964], capítulo 4.

Definición 1.5. Espectro cruzado.Si Xt es una serie de tiempo bivariada con media 0y matriz de covarianzasΓ(·) que satisfaga(1.27), entonces la función

f12(ω) =12π

∞∑

k=−∞e−iωk γ12(h), ω ∈ [−π, π], (1.28)

es llamada espectro cruzado o densidad espectral cruzada dext1 y xt2. La matriz

f (ω) =12π

∞∑

k=−∞e−iωk Γ(h) =

[

f11(h) f12(h)f21(h) f22(h)

]

es llamada matriz de densidad espectral o la matriz del espectro deXt.

18 Capítulo 1. Granger Causalidad

Por facilidad de manejo en la notación así como para compaginarla con la del artículode Granger [Granger 1969], se denota la densidad espectral cruzada (1.28) entre dos seriesde tiempoxt y yt como fxy(ω) = 1

∑∞k=−∞ γxy(k)e−iωk, o como anteriormente se ha escrito

fxy(ω) = 12πγxy

(

e−iω)

. Especificamente,fxx(ω) = fx(ω) y fyy(ω) = fy(ω) son los espectrosparaxt y yt, respectivamente.

Es importante notar que aun cuandoγxy(k) sea real para procesos realesxt y yt, fxy(ω) serágeneralmente complejo debido a queγxy(k) , γxy(−k). Entonces, se puede escribir

fxy(ω) = cxy(ω) − i qxy(ω), (1.29)

dondecxy(ω) y −qxy(ω) son la parte real e imaginaria defxy(ω) respectivamente. Usando pro-piedades trigonométricas se puede escribir ambos términos como

cxy(ω) =12π

∞∑

k=−∞γxy(k) cos(ωk) (1.30)

y

qxy(ω) =12π

∞∑

k=−∞γxy(k) sen(ωk) . (1.31)

La función (1.30) es llamada co-espectro, mientras que (1.31) se le conoce como espectro decuadratura, dext y yt. Al ser difícil de interpretar las funciones (1.30) y (1.31), es posibleexpresar afxy(ω) en la forma polar

fxy(ω) = Axy(ω) eiφxy(ω), (1.32)

donde

Axy(ω) =∣

∣ fxy(ω)∣

∣ =[

c2xy(ω) + q2

xy(ω)]

12 (1.33)

y

φxy(ω) = tan−1[−qxy(ω)

cxy(ω)

]

. (1.34)

Las funcionesAxy(ω) y φxy(ω) son conocidas como amplitud cruzada y fase del espectro, res-pectivamente. Existen dos funciones más que usualmente son empleadas en el análisis de seriesde tiempo con dominio en las frecuencias: La función de ganancia (1.35) y la coherencia (1.36),que se definen como

Gxy(ω) =Axy(ω)

fx(ω)(1.35)

1.3. Relaciones causales en modelos econométricos 19

y

Cxy(ω) =

∣ fxy(ω)∣

2

fx(ω) fy(ω), (1.36)

respectivamente. La coherencia es usada para medir el grado con la cual dos series están rela-cionadas, mientras que la fase podría ser interpretada en términos de tiempo de rezago.

1.3. Relaciones causales en modelos econométricos

Clive W.J. Granger, [Granger 1969], investigó sobre las relaciones entre ciertas clases demodelos econométricos que implican retroalimentación y las funciones que se plantean en elanálisis espectral. Su gran aportación a la literatura econométrica, en este tema, como ya secomentó en la sección (1.1) fue la inclusión de una serie de definiciones y pruebas con res-pecto a la retroalimentación y causalidad entre series de tiempo. En el citado artículo, Grangerlogró probar, usando herramientas de análisis espectral [que en este trabajo se desarrollaron enla sección (1.2), especificamente en (1.2.3) y (1.2.5)], que el espectro cruzado de dos series detiempo puede ser descompuesto en dos partes, relacionada cada una en una sencilla seccióncausal de una situación de retroalimentación. Dicho de otra forma, para elcaso de dos varia-bles, mostró que el mecanismo de retroalimentación puede ser descompuesto en dos relacionescausales y que el espectro cruzado puede ser considerado como la suma de dos espectros cru-zados, cada uno estrechamente vinculado con una de las causalidades.Las secciones siguientestienen como objetivo presentar dichos resultados.

1.3.1. Modelos de retroalimentación

Asúmase que se tienen dos series de tiempo débilmente estacionarias,xt y yt, con mediascero. Un modelo de retroalimentación consiste en un conjunto de ecuacioneslineales en lascuales ambas series de tiempo son explicadas en términos presentes y pasados de ellas mismas.La parte no explicada por el modelo es incorporada por un vector de ruido blancoεt quesatisfaceE

[

ε′tεs

]

= 0 parat , s y E[

ε′tεs

]

= I parat = s, donde 0 es matriz de ceros e I esmatriz unitaria. Entonces un modelo de retroalimentación es de la forma

xt + b0 yt =∑m

j=1 a j xt− j +∑m

j=1 b j yt− j + ε′t ,

yt + c0 xt =∑m

j=1 c j xt− j +∑m

j=1 d j yt− j + ε′′t .

(1.37)

Si b0 = c0 = 0 entonces (1.37) será un modelo causal simple. En otro caso será un modelo concausalidad instantánea.

20 Capítulo 1. Granger Causalidad

1.3.2. Causalidad

Los métodos espectrales pueden llegar a ser bastante útiles al describir la relación entrevariables cuando alguna causa a otra. Sin embargo, en presencia de unproceso de retroali-mentación, como bien podría suceder cuando se usan variables económicas, la interpretaciónde la coherencia (1.36) y la fase (1.34) llega a ser demasiado dificultosa. Lo anterior fue larazón por la cual Granger ideó una serie de definiciones de causalidady retroalimentación quejustamente permiten probar su existencia.

Sea A un proceso estocástico estacionario,A representa el conjunto de valores pa-sados

At− j , j = 1,2, . . . ,∞

y ¯At representa el conjunto de valores pasados y presentes

At− j , j = 0,1,2, . . . ,∞

. AdemásA(k) representa el conjunto

At− j , j = k, k+ 1, . . . ,∞

. SeaPt(A | B) el predictor de mínimos cuadrados (insesgado y eficiente) deAt usando el conjuntode valoresBt. EntoncesPt (x | x ) es el mejor predictor dext usando solamente el pasado dext. La serie de error de predicción es denotada porǫt(A | B) = At − Pt(A | B). Finalmente,σ2(A | B) es la varianza deǫt(A | B).

Seaυt toda la información en el universo acumulado desde el tiempot−1 y seaυt −yt todaesta información excepto aquella de la serie especificadayt.

Definición 1.6. Causalidad.Si σ2(x | υ) < σ2 (

x | υ − y)

se dice quey está causando (Granger causando) ax ( ytGC→ xt ).

Se dice queyt está Granger causando axt si se es más capaz de predecirxt usando toda lainformación disponible que si la información exceptuando aquella deyt hubiera sido usada.

Definición 1.7. Retroalimentación.Si σ2 (x | υ ) < σ2 (

x | υ − y)

y σ2 ( y | υ) < σ2 (

y | υ − x)

se dice que está ocurriendo una

retroalimentación, la cual se denota comoyt ↔ xt. CuandoytGC→ xt y xt

GC→ yt se dice queexiste una retroalimentación entrext y yt.

Definición 1.8. Causalidad instantánea.Si σ2 (

x | υ, ¯y )

< σ2 (x | υ ) se dice que una causalidad instantánea está ocurriendo, se denota

ytGC→ xt. Es decir, el valor actual dext es predecido mejor si el valor presente deyt es incluido

en la predicción que si no lo fuera.

Definición 1.9. Causalidad rezagada.

Seam el rezago causal, siendo el mínimo valor dek, entonces siytGC→ xt, se define como cau-

salidad rezagada con rezagom si σ2 (x | υ − y(k)) < σ2 (x | υ − y(k+ 1)). Entonces el conocerlos valoresyt− j , j = 0,1, . . . ,m− 1 no serán de ayuda para mejorar la predicción dext.

Es importante hacer hincapié en que las definiciones (1.6, 1.7, 1.8, 1.9) han asumido quelas series de tiempo son estacionarias, por lo que la causalidad en el sentidode Granger bajo

1.3. Relaciones causales en modelos econométricos 21

una perspectiva no estacionaria no fue estudiada originalmente. Siendo que dicha situación noha sido explorada de manera sistemática, salvo contadas excepciones comoen [He 2001] ymediante simulaciones Monte Carlo en [Zapata 1988], este trabajo se adentra en el estudio dela Granger causalidad en presencia de procesos no estacionarios, especificamente aquellos deraíces unitarias.

Un punto relevante hasta aquí es que las definiciones anteriores exigen solamente el uso depredictores lineales, por lo que el mejor predictor lineal dext usando solamente el pasado dext y el pasado deyt será de la forma

Pt (x | x, y ) =∞∑

j=1

a j xt− j +

∞∑

j=1

b j yt− j ,

donde lasa j y losb j se eligen tales que minimicenσ2 (x | x, y ).

1.3.3. Modelo de dos variables

Seanxt y yt dos series de tiempo estacionarias con medias cero. Si se usa el siguienteoperadorLxt = xt−1 se tiene que a partir de (1.37), el modelo causal simple se puede escribircomo

xt = a(L) xt + b(L) yt + εt,

yt = c(L) xt + d(L) yt + ηt,(1.38)

dondea(L), b(L), c(L) y d(L) son series de potencias en L. Por ejemplo,a(L) =∑m

j=1 a jL j .

Usando la representación de Cramer (1.16) de las series,

xt =

∫ π

−πeitωdzx(ω), yt =

∫ π

−πeitωdzy(ω),

(lo mismo para los ruidos de cada uno de los modelos). De la misma forma se tiene quea(L)xt =

∫ π

−π eitωa(

e−iω)

dzx(ω) y las demás, siempre salvaguardando al proceso que se refiera.

Entonces, (1.38) es posible reexpresarlo como∫ π

−π eitω[(

1− a(

eiω))

dzx(ω) − b(

eiω)

dzy(ω) − dzε(ω)]

= 0,

∫ π

−π eitω[

−c(

eiω)

dzx(ω) +(

1− d(

eiω))

dzy(ω) − dzη(ω)]

= 0,(1.39)

a partir del cual

A

[

dzx

dzy

]

=

[

dzεdzη

]

, (1.40)

22 Capítulo 1. Granger Causalidad

dondeA =

[

1− a −b−c 1− d

]

escribiendoa (o en su caso b,c y d) comoa(

eiω)

, dzx = dzx(ω),

dzy = dzy(ω), dzε = dzε(ω) y dzη = dzη(ω).

Dado que el determinante de la matrizA es diferente de cero, entoncesA−1 existe, por loque

[

dzx

dzy

]

= A−1[

dzεdzη

]

. (1.41)

Ahora bien, por el teorema (1.1), la matriz espectral paraxt y yt es directamente obtenida desde

E

[

dzx

dzy

]

[

dzxdzy

]

.

Estas funciones son obtenidas directamente de (1.23), encontrando que el espectro está dadopor

fx(ω) = 12π∆

(

|1− d|2σ2ε + |b|2σ2

η

)

,

fy(ω) = 12π∆

(

|c|2σ2ε + |1− a|2σ2

η

)

,

(1.42)

donde∆ = |(1− a)(1− d) − bc|2. El espectro cruzado [véase la definición (1.5)] tiene la forma

Cr(ω) =1

2π∆

[

(1− d) cσ2ε + (1− a ) bσ2

η

]

.

Entonces es claro que el espectro cruzado puede ser escrito como la suma se dos componentes

Cr(ω) = C1(ω) +C2(ω), (1.43)

dondeC1(ω) = σ2ε

2π∆ (1− d) c y C2(ω) =σ2η

2π∆ (1− a ) b.

Si yt no está Granger causando axt entoncesb ≡ 0 y por tantoC2(ω) desaparece.Similarmente sixt no está Granger causando ayt entoncesc ≡ 0 lo que hará desaparecer lacontribución deC1(ω). Entonces es claro que el espectro cruzado puede ser descompuesto en

dos componentes Granger causales,xtGC→ yt y yt

GC→ xt.

Considere el ejemplo dondeyt no cause en el sentido de Granger axt (ytGC9 xt), entonces

Cr(ω) = C1(ω) y entonces la coherencia (1.36) y la fase (1.34) pueden ser analizadas de la

manera usual. Siendo quextGC→ yt,

C~xy(ω) =|C1(ω)|2

fx(ω) fy(ω)

1.3. Relaciones causales en modelos econométricos 23

podría ser considerado como una medida de la fuerza Granger causal entre estas variablesgraficadas en contra de la frecuencia. Granger denominó aC~xy(ω) como coherencia causal,siendo una generalización de la coherencia, (1.36). Del mismo modo definió la fase causalcomoφ ~xy(ω). Huelga decir que es claro que 0<

∣C~xy

∣ (ω) < 1.

Con objeto de mostrar el correcto funcionamiento de las definiciones anteriores,[Granger 1969] presenta un ejemplo de un sistema de retroalimentación, donde la coherenciacausal, tal y como está definida en ese mismo artículo, logra captar la correctacausalidad(léase Granger causalidad) entre las variables. También logra presentar que en un sistema decausalidad instantánea (1.37) las medidas de fuerza causal y fase pierden significado a pesarde las transformaciones ortogonales que suelen ser empleadas en los modelos de sistemas deecuaciones. Lo anterior hace al análisis espectral más robusto.

Si en el modelo (1.38), b ≡ 0 se tiene queYtGC9 Xt, entonces la mínima varianza del error

de predicción dext, σ2ε, será encontrado sólo usando el propio pasado de la misma variable,

ya que no podrá ser reducida usando el pasado deyt. Este es justamente el resultado que debeprobarse.

Si se toma la primera ecuación de (1.38), es claro queσ2ε (x | x, y ) = σ2

ε. Ahora bien,

siendo queytGC9 xt, entonces se debe buscarσ2

ε (x | x ), lo que para mantener la validez de lateoría presentada debería ser igual aσ2

ε.

Para obtener dicho resultado es necesario emplear el siguiente teorema.

Teorema 1.5.Fórmula de Kolmogorov.El error de predicción en media cuadrática de un proceso estocástico estacionarioxt es

σ2 = 2π exp

12π

∫ π

−πlog fω d(ω)

. (1.44)

La prueba se omite del presente trabajo pero puede ser consultada en [Brockwell 2009].

Ahora bien, se tienext = a(L)xt + εt, por lo que conforme al teorema (1.4), es claro que

fx(ω) = σ2ε

2π|1−a|2 .

Para continuar se necesita del siguiente resultado esencial de análisis espectral:

∫ π

−π log∣

∣1− αeiω∣

2dω = 0.

24 Capítulo 1. Granger Causalidad

Con lo cual al sustituirfx en la ecuación (1.44) y obtener que

σ2 = 2π exp

12π

∫ π

−π log σ2ε

2π|1−a|2 d(ω)

,

= 2π exp

12π

∫ π

−π log(

σ2ε

)

d(ω)

−∫ π

−π log |1− a|2 dω,

= 2π exp

12π

∫ π

−π log(

σ2ε

)

d(ω)

,

por la propiedad anterior. Después de resolver la integral trivial, se tiene queσ2 = σ2ε .

1.3.4. Pruebas de Granger causalidad

La teoría desarrollada por Clive W.J. Granger ha sido un parteaguas enel análisis de seriesde tiempo y su uso posterior en el estudio de relaciones causales entre procesos estocásticosen diversos campos de la ciencia. Hoy en día, el articulo seminal del tema hasido citado enmás de 5600 fuentes, sin embargo su popularidad no fue alcanzada hastaque se desarrollaronpruebas estadísticas que volvieron más sencilla la forma de estudiar dichas relaciones causales.

De otro modo, uno tendría que estudiar las relaciones Granger causales desde el enfoquede análisis espectral, lo cual (fuera del sector académico) podría resultar una completaperipecia.

Christopher A. Sims, [Sims 1972], fue el primero en tratar de probar una relación Grangercausal simple. Dicha prueba estuvo basada en representaciones de promedios móviles. Noobstante, se encontró con algunos problemas en su procedimiento lo que nopermitió quefuese exitosa dicha investigación. En 1976, Thomas J. Sargent, [Sargent 1976], propuso unprocedimiento el cual estaba directamente derivado de la definición de Granger causalidad.Es conocido usualmente como procedimiento directo de Granger. Larry D. Haugh y David A.Pierce, [Pierce 1977], propusieron una prueba estadística, popularizando a [Haugh 1976], lacual usaba los residuales de los modelos univariados parax y y. Cheng Hsiao, [Hsiao 1979],propuso un procedimiento para identificar y estimar modelos bivariados los cuales estabanbasados en representaciones autorregresivas y pudieran ser también interpretadas comopruebas Granger causales.

No obstante, en este trabajo se enfatizará en el procedimiento para probar la Granger cau-salidad descrita en la siguiente sección.

1.3.4.1. Prueba econométrica de Granger causalidad

Como fue explicado en la sección (1.3.3), las variablesx y y deben ser estacionarias.

Entonces, para probar quexGC9 y, se debe examinar si los valores rezagados dex en la

1.3. Relaciones causales en modelos econométricos 25

regresión dey sobre los valores rezagados dex e y reduce significativamente el error devarianza.

Asúmase que se tiene un proceso autorregresivo de ordenp, tanto enx como eny. Parapoder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguienteecuación debeser estimada:

xt = α0 + α1xt−1 + α2xt−2 + · · · + αpxt−p + β1yt−1 + β2yt−2 + · · · + βpyt−p + ut. (1.45)

Entonces una prueba F debe aplicarse para probar la hipótesis nula,

H0 : β1 = β2 = · · · = βp = 0. (1.46)

Como es bien conocido en la literatura econométrica, ver por ejemplo [Hamilton 1994], unaforma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresiónno restringida (1.45) (URSS, por sus siglas en inglés),

URSS =T

t=1

u2t ,

y compararla con la suma de residuales al cuadrado de una autorregresión univariada no res-tringida paraxt, (RRSS, por sus siglas en inglés)

RRSS =T

t=1

e2t ,

donde

xt = γ0 + γ1xt−1 + γ2xt−2 + · · · + γpxt−p + et (1.47)

es también estimada mediante MCO. Ahora bien, si

S ≡ (RRSS - URSS/P)URSS/(T − 2p− 1)

, (1.48)

es más grande que elα% del valor crítico para una distribuciónF(p,T − 2p− 1), entonces sedebe rechazar la hipótesis nula quey no Granger causa ax. La prueba estadística (1.48) tieneuna distribución F exacta para una regresión con regresores fijos y errores con distribuciónnormal.

En la literatura econométrica, usualmente la ecuación (1.47) recibe el nombre deregresiónrestringida, mientras que la ecuación (1.45) deregresión no restringida.

26 Capítulo 1. Granger Causalidad

A lo largo de este capítulo se ha insistido en reiteradas ocasiones en la importancia de laestacionariedad fuerte o débil que necesitan cumplir las series de tiempo trabajadas para poderdesarrollar el estudio de la causalidad en el sentido de Granger, ya seadesde la forma originalmostrada a lo largo de toda la sección (1.3.2) o bien desde el punto de vista práctico, mostradoen la sección (1.3.4).

El capítulo (3) se enfoca en la búsqueda del comportamiento de la Granger causalidaddesde el punto de vista econométrico, basado en la prueba (1.48) y levantando el supues-to de estacionariedad; intercambiándolo por otros másrealistas, al menos para la literaturamacroeconómica: procesos de raíz unitaria; éstos suelen representar adecuadamente distintosfenómenos (macro)económicos.

C 2

Estadístico F bajo procesos GrangerCausales

La sección anterior, en el primer capítulo, concluyó con la formalización dela pruebaeconométrica comúnmente usada para estudiar la causalidad en el sentido deGranger, que deaquí en adelante se denotará comoFGC. Se planteó que la distribución asintótica de la pruebabajo la hipótesis nula de no Granger causalidad tiene una distribuciónF exacta, puesto que, elestadístico de prueba (1.48) cuya fórmula es

S ≡ (RRSS - URSS/P)URSS/(T − 2p− 1)

,

tiene, tanto en el numerador como en en denominador dos variables que se comportan comoχ2

(bajoH0, claro está). En otras palabras, la distribución bajo la hipótesis nulaH0 correspondea la de laF, un resultado clásico en econometría.

No obstante lo anterior, como se comentó en el capítulo pasado, obtener estadistribuciónasintóticaF requiere que los procesos sean estacionarios e independientes. En este capítulo seestudiará el comportamiento deFGC asumiendo procesos estacionarios y que están relaciona-dos entre sí en el sentido de Granger, es decir, a un caso en el que la hipótesis alternativa,Ha,es la correcta.

2.1. Procesos Granger causales

A continuación, se estudia el comportamiento asintótico de la prueba estadísticabajo lasuposición de tener proceso Granger causales, lo que implica asumir que lahipótesis alter-nativa, (Ha), es la correcta. Se usará un mismo proceso generador de datos (PGD)pero laespecificación en la regresión cambiará.

2.1.1. Proceso generador de datos

Para el presente estudio se considerará el PGD,

zt = µz+ uz,t,

xt = µx + ux,t,

yt = βy1xt−1 + βy2zt−1 + uy,t.

(2.1)

28 Capítulo 2. Estadístico F bajo procesos Granger Causales

Los procesosxt y zt son procesos independientes I(0) alrededor deµx y µz respectivamente,mientras que el procesoyt es de igual forma I(0), pero es claramente dependiente en el tiempode los dos procesos anteriores, de hecho, con un rezago por simplicidad

De acuerdo con la definición (1.9), este PGD corresponde a la hipótesis alternativade Granger causalidad. Ambos procesos (xt, zt) con un rezago, Granger causan ayt. Elcomportamiento (simulado) de las series se observa en la figura (2.1).

0 50 100 150 200 250 300 350 400 450 500

Proceso x

t I(0) alrededor de µ

x=10

Proceso zt I(0) alrededor de µ

z=1

Proceso I(0) yt= 0.5 x

t + 0.5 z

t

µz = 1

µx = 10

Figura 2.1: Proceso generador de datos (2.1) conµx = 10,µz = 1 y β1 = β2 =0.5.

Para conocer el comportamiento de la Granger causalidad (bajoHa) se necesita tener lasexpresiones asintóticas de la regresión no restringida (1.45) y de la regresión restringida (1.47)que dio lugar al estadístico de prueba (1.48).

2.1.2. Resultados asintóticos de procesos referentes aHa

Teorema 2.1.Seaxt y zt procesos independientes I(0) con constantesµx y µz respectivamente.Sea el procesoyt = βy1xt−1 + βy2zt−1 + uy,t estacionario. Al estimar la regresiónyt = α1yt−1 +

α2xt−1 + u1,t, se obtiene:

1. α1p→ βy2 µz θ4 σ

2x

φ1 σ2x + φ2 σ

2y.

2.1. Procesos Granger causales 29

2. α2p→ θ1 σ

2x + µx θ4 σ

2y + β

2y2 µx θ4σ

2z

φ1 σ2x + φ2 σ

2y

.

3. σ21t

p→ θ2 σ2x + θ3 σy + β

4y2 µ

2x σ

2z

φ1 σ2x + µ

2x σ

2y + β

2y2 µ

2x σ

2z.

Siendo:θ1 ≡ 2β3

y1 µ2x + 3β2

y1 βy2 µx µz+ βy1 β2y2 µ

2z + β

3y1 + σ

2y βy1 + σ

2z βy1 β

2y2,

θ2 ≡ β2y1 β

2y2 µ

2z + 2β2

y1 µ2x σ

2y + 2βy1 βy2 µx µz σ

2y + 2β2

y2 µ2z σ

2y + β

2y1

σ2y + σ

2y + 2β2

y1 β2y2 µ

2x + σ

2z + 2βy1 β

3y2 µx µz σ

2z + 2β4

y2 µ2z

σ2z + β

2y1 β

2y2 σx σ

2z + 2β2

y2 σx σ2y σ

2z + β

4y2 σx σ

2z,

θ3 ≡ µ2x σy + 2β2

y2 µ2x σy σ

2z,

θ4 ≡ βy1 µx + βy2 µz,

φ1 ≡ 2β2y1 µ

2x + 2βy1 βy2 µx µz+ β

2y2 µ

2z + β

2y1 + σ

2y + β

2y2 σ

2z,

φ2 ≡ µ2x + σ

2z β

2y2 µ

2x.

Prueba en apéndice (B), sección (B.1).

La figura (2.2) muestra el comportamiento de la convergencia en probabilidad deσ21,t

considerando diversos valores de (µx, µz), (βy1 βy2) y (σ2x σ

2z).

Teorema 2.2.Seaxt y zt procesos independientes I(0) con constantesµx y µz respectivamente.Sea el procesoyt = βy1xt−1+βy2zt−1+uy,t estacionario. Al estimar la regresiónyt = α1yt−1+u2,t,se obtiene:

1. α1p→ φ3

(

σ2y + β

2y2 σ

2z

)

(βy1 µx + βy2 µz)2+ β2y1 σ

2x + σ

2y +β

2y2 σ

2z.

2. σ22t

p→ φ3

(

σ2y + β

2y2 σ

2z

)

(βy1 µx + βy2 µz)2+ β2y1 σ

2x + σ

2y + β

2y2 σ

2z.

Siendo:φ3 ≡ 2β2

y1 µ2x + 4βy1 βy2 µx µz + 2β2

y2 µ2z + β

2y1 σ

2x + σ

2y + β

2y2 σ

2z,t−1.

Prueba en apéndice (B), sección (B.1).

La figura (2.3) muestra el comportamiento de la convergencia en probabilidad deσ22,t

considerando variabilidades en (µx, µz), (βy1 βy2) y (σ2x,t−1 σ

2z,t−1). En el primer caso se observa

comoσ22,t reacciona levemente cuandoµx y µz tienen altos valores, no así si están próximos a

30 Capítulo 2. Estadístico F bajo procesos Granger Causales

cero. Cuando se encuentran altos valores enβy1 y βy2 se observa queσ22,t tiende a ser alto de

igual forma.

Teorema 2.3.Causalidad de Granger bajoHa. Parte 1.Seanxt y zt procesos independientes I(0) con constantesµx y µz respectivamente. Sea el procesoyt, I(0) de igual forma, generado desdeβy1xt−1 + βy2zt−1 + uy,t. Tomando los residuales alcuadrado de los teoremas (2.1) y (2.2), entonces, cuandoT → ∞ el estadísticoFGC es demagnitudOp(T).

Prueba en apéndice (B), sección (B.1).

Debido a las propiedades del estadístico de pruebaF, el signo del mismo es, por construc-ción, positivo. Ello implica que se rechaza la hipótesis nula de no Granger causalidad entre lasvariables definidas en los teoremas (2.1) y (2.2) conforme el tamaño de muestra aumenta.

Debido a este resultado se puede asegurar el buen funcionamiento de la prueba de Grangercausalidad ya que es posible discernir entre relaciones Granger causales y las que no lo sonconforme el tamaño de la muestra aumente. Claro está que se ha utilizado el PGD(2.1)específico de la sección (2.1.1) para estudiar el comportamiento bajo la hipótesis alternativa ypor ende no es posible generalizar el resultado.

Por otro lado, del teorema (2.3), es posible obtener un resultado particular. Al conservar elmismo PGD (2.1) y cambiar la regresión no restringida y restringida poryt = γ11zt−1+γ21xt−1+

u1,t y yt = γ12xt−1 + u2,t, respectivamente, se obtiene el siguiente corolario.

Corolario 2.1. Causalidad de Granger bajoHa. Parte 2. Seanxt y zt procesos indepen-dientes I(0) con constantesµx y µz respectivamente. Sea el procesoyt, I(0) de igual for-ma, generado desdeβy1xt−1 + βy2zt−1 + uy,t. Entonces al estimar la regresión no restringidayt = γ11zt−1+ γ21xt−1+u1,t, la restringidayt = γ12xt−1+u2,t y al tomar los residuales de dichasregresiones, se obtiene conformeT → ∞

1. De la regresión no restringida:

γ11p→ βy1.

γ21p→ βy2.

σ21t

p→ σ2y.

2. De la regresión restringida:

γ12p→ βy1µ

2x+βy2µxµz+βy1σ

2xt

µ2x+σ

2xt

.

2.1. Procesos Granger causales 31

Figura 2.2: Comportamiento de la convergencia en probabilidad deσ21,t ante variabilidades en

(µx, µz) (panel a), (βy1, βy2) (panel c) y (σ2x,t−1 σ

2z,t−1) (panel e). Los paneles b, d y f repre-

sentan las curvas de nivel correspondientes a las funciones bivariadas de los paneles a, c y e,respectivamente.

32 Capítulo 2. Estadístico F bajo procesos Granger Causales

Figura 2.3: Comportamiento de la convergencia en probabilidad deσ22,t ante variabilidades en

(µx, µz) (panel a), (βy1, βy2) (panel c) y (σ2x,t−1 σ

2z,t−1) (panel e). Los paneles b, d y f repre-

sentan las curvas de nivel correspondientes a las funciones bivariadas de los paneles a, c y e,respectivamente.

2.1. Procesos Granger causales 33

σ22t

p→ β2y2µ2zσ

2xt+µ

2xσ

2yt+σ

2xtσ

2yt+β

2y2µ

2xσ

2zt+β

2y2σ

2xtσ

2zt

µ2x+σ

2xt

.

3. EstadísticoFGC esOp(T).

Los resultados de la primera parte del teorema son directos. Los demás sonprobados en elapéndice (B), sección (B.2).

De igual forma que antes, debido a las propiedades de la estadística F se asegura queel signo de la divergencia es positivo; entonces se rechaza la hipótesisnula de no Grangercausalidad conforme el tamaño de muestra aumente.

La figura (2.4) muestra la velocidad con la que la estadísticaFGC rechaza su hipótesis nulaen presencia, en efecto, de procesos Granger causales.

0 5 10 15 20 25 30 35 40 45 5055%

60%

65%

70%

75%

80%

85%

90%

95%

100%

Tamaño de muestra

% d

e r

ech

azo

de

la

H0

(N

o G

ran

ge

r ca

usa

lida

d)

Procesos Granger causales (Parte 1)Procesos Granger causales (Parte 2)

Figura 2.4: Comportamiento de la hipótesis nula de la prueba de Granger causalidad en pre-sencia de procesos Granger causales del teorema (2.3) (línea roja) y del corolario (2.1) (línea

azul) con valoresµx = µz = βy1 = βy2 = 1, ux,t,uy,t,uz,tiid∼ N(0,1) y 10,000 repeticiones Monte

Carlo.

Como se puede observar, en la figura (2.4), si el econometrista contara con tan solo20 datos y el PGD (2.1) de los procesos fueran generados efectivamente como los de esteapartado, la prueba rechazaría efectivamente por encima del 95 % de lasveces, y datos por

34 Capítulo 2. Estadístico F bajo procesos Granger Causales

encima de 30 se estaría rechazando básicamente 100 % de las veces.

El alcance de los resultados de este capítulo deben entenderse correctamente. Se haprobado la consistencia de la prueba de Granger causalidad bajo una hipótesis alternativaespecificada en los PGD’s que se han utilizado. A través de este ejercicio se ha investigado quela prueba estadística de la causalidad en el sentido de Granger reaccionade excelente modo enpresencia de un par de simples especificaciones Granger causales. Esimportante, no obstante,recalcar que el PGD (2.1) que se usó, es sólo una de las muchas posibles relaciones Grangercausales. De hecho es debido a esta dificultad de modelación, por lo que seprefiere construirla hipótesis nula como no Granger causalidad.

La importancia de este capítulo radica en el hecho de que se puede afirmar que pruebaestadística para la Granger causalidad funciona correctamente en presencia de procesos esto-cásticos estacionarios. Es decir, la utilización deFGC para investigar la relación causal entredos variables económicas será valida si ambas series son estacionarias.En este sentido, el in-vestigador puede estar tranquilo al realizar dicha inferencia causal.

C 3

Granger Causalidad bajo procesos deraíz unitaria

3.1. Motivación

Hasta ahora se ha estudiado la Granger causalidad solamente bajo procesos estacionarios.En el capítulo1, tras una revisión de la literatura, se ahondó en la teoría espectral de procesosestocásticos para inquirir la forma en que había sido concebida en sus origenes, finalizandocon la presentación de la prueba econométrica más usual para llevarla a cabo. En el capítulo2 se estudió el comportamiento de la prueba bajo procesos Granger causales encontrándoseevidencia asintótica favorable.

El análisis de series de tiempo no estacionarias constituye, en gran medida, el eje deestudio de la macroeconometría moderna. Se le debe en gran medida a Clive W.Granger,quien subrayó el peligro que conduce los denominados procesos de raíz unitaria en el análisisde regresión clásico. En este capítulo, siguiendo esta línea de investigación, se somete bajoescrutinio el funcionamiento de la pruebaFGC en presencia de procesos de raíces unitarias.Se encuentra evidencia de la denominadacausalidad espuria, la cual es probada tras derivardistribuciones asintóticas no estándar y simular las distribuciones vía experimentos MonteCarlo bajo los PGD’s que en su momento se determinarán.

En la primera sección del capítulo se pretende coadyuvar al lector a que conozca demanera sucinta, la teoría probabilística que sostiene los desarrollos asintóticos subyacentes.La teoría asintótica no estándar de series de tiempo descansa sobre estos resultados.

Posterior a dicha introducción, se presentará un breve recorrido histórico en la búsquedade raíces unitarias en series macroeconómicas. Mediante ello se justifica plenamente el interés,en materia económica, por estudiar la Granger causalidad en presencia deprocesos no estacio-narios. No es éste un mero ejercicio teórico de aula, puesto que tiene incidencia en un debatemucho más amplio y con consecuencias considerables en lo que refiere a la macroeconometría.

36 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

3.2. Procesos de raíz unitaria

3.2.1. Herramientas teóricas

Definición 3.1. Caminata aleatoriaSeaxt generado de acuerdo axt = xt−1 + ut con t = 1,2, . . . , dondex0 = 0 y ut es i.i.d conE (ut) = 0 y 0< σ2 ≡ var(ut) < ∞. Entoncesxt es caminata aleatoria.

En econometría de series de tiempo, usualmente se prefiere trabajar con

xt = xt−1 + ut = xt−2 + ut−1 + ut

= x0 +∑t

s=1 us

=∑t

s=1 us (conx0 = 0)≡ ξt

1.

En econometría teórica estándar es bien sabido que, para asegurar queD−1/2n√

n(

βn − β0

) A∼N(0, I ), dondeDn ≡ M−1

n VnM−1n siendoMn ≡ E [X′X/n] y Vn ≡ var

(

n−1/2X′ε)

uniformementedefinidas positivas, se necesitan ciertos requisitos, y tan solo uno de elloses contar con

E∣

∣X2thi

1+δ< ∆ < ∞ para algúnδ > 0 y para todoh = 1, . . . , p, i = 1, . . . , k y t. Huelga decir la

importancia de este resultado en el análisis clásico.

Sin embargo, debido a la desigualdad de Jensen,2 una caminata aleatoriaxt no puede

satisfacerE∣

∣x2thi

1+δ< ∆ < ∞ para todo t. Por ello, en presencia de caminatas aleatorias los

resultados conocidos en la teoría asintótica estándar no son válidos.

Existe al menos un par de formas de solventar la disyuntiva anterior. Las más conocida esdiferenciar la serie, es decir, tomarut = xt − xt−1, la cual en este caso resulta ser estacionaria,por lo que los análisis posteriores se realizan de la forma convencional. Cuando se presenteel concepto de integración en cuanto a procesos de raíces unitarias, la idea de diferenciaciónsurgirá de manera muy intuitiva, no obstante, por ahora debe quedar claro que el número deveces que una serie deberá diferenciarse para obtener una nueva serie estacionaria dependerádel orden de integración, el cual en primeras instancias no se conoce.

La segunda opción es la de estudiar el comportamiento de los estimadores que no hagan usode dichas transformaciones, por lo que se trabaja directamente con las caminatas aleatorias oprocesos similares, como más adelante se entenderá. Para estudiar dichoscomportamientos esnecesario hacer uso del teorema de límite central funcional (TLCF), el cual extiende el teoremade límite central (TLC). Dicha extensión puede verse fácilmente como sigue: Considérese una

2E(

x2t

)1/2 ≤ E (|xt |r )1/r ∀ r ≥ 2.

3.2. Procesos de raíz unitaria 37

caminata aleatoriaxt, entonces

xn =

T∑

t=1

ut,

reescalando se obtiene

n−1/2xn/σ = n−1/2n

t=1

ut/σ.

De acuerdo al teorema de límite central de Lindeberg-Lévy,3 se obtiene

n−1/2xn/σd→ N(0,1).

Entonces, conforme aumenta el tamaño de muestra los valores del procesode caminataaleatoria son muestreados desde una distribución que está distribuida aproximadamentenormal.

Ahora, considérese solo una suma parcial

x[an] =

[an]∑

t=1

ut,

donde 1/n ≤ a < ∞ y [an] representa el más grande entero menor o igual aan. Para 0≤a < 1/n, defínasex[an] = x0 = 0, por lo que la suma parcial ahora está definida para todo0 ≤ a < ∞. Ahora defínase

Wn(a) ≡ n−1/2x[an]/σ

= n−1/2 ∑[an]t=1 ut/σ.

Ahora

Wn(a) = n−1/2[an]1/2

[an]−1/2[an]∑

t=1

ut/σ

,

y para una dado, el término entre las llaves obedece (ahora sí) el TLC y converge endistribución aN(0,1), mientras quen−1/2[an]1/2 converja aa1/2. Usualmente, por efectos desimplicidad en la notación, se escribeWn en vez deWn(a).

Al escribir Wn(a) es claro queWn es función aleatoria dea (de aquí el nombre de TLCF).Así como el TLC asegura la convergencia en distribución a la N(0,1) den−1/2xn/σ (el cual esposible escribirlo comoWn(1)), el TLCF hace su parte permitiendo que la función aleatoriaWn converga en límite aW.

3El teorema y demostración puede ser consultado en [White 2001], capítulo 5 página 114

38 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

El límite de la función aleatoria especificado por el TLCF es una generalización dela variable aleatoria normal estándar. Este límite es llamado proceso de Wiener omo-vimiento browniano. Para realizar una revisión intermedia de este proceso estocástico,ver [Øksendal 2003] y para una revisión más formal y exhaustiva, ver [Revuz 1999] y[Billingsley 2008].

En las referencias anteriores, el lector puede encontrar un sinnúmerode ejerciciosencaminados a conocer las propiedades que posee este proceso estocástico. Hay ciertosteoremas necesarios para entender y demostrar detalladamente el hecho de queWn converjaefectivamente aW. Por otro lado, se debe entender que las nociones generales en cuantoa laconvergencia estocástica para variables aleatorias resultan ser ahorainadecuadas. Sin embargodichas nociones pueden ser extendidas para el tratamiento de la convergencia deWn. Estaherramienta se le denomina convergencia débil, ver [White 2001] capítulo 7.

En teoría de la medida existen varias nociones de la convergencia de medidas, de unamanera general se puede hablar de convergencia fuerte y convergencia débil. A continuaciónse verán la necesidad de tales resultados, sin embargo por ahora vale la pena mencionar que[Phillips 1986] usa una notación referente a la convergencia débil () de las diversas fun-cionales de los procesos de Weiner y en otros artículos se acostumbra encontrar la notación

de convergencia en distribución (d→), lo cual matemáticamente hablando no ocasiona ningún

problema de interpretación, debido a la siguiente definición.

Definición 3.2. Convergencia débil de variables aleatorias.Si (Ω,F,P) es un espacio de probabilidad yXn, X : Ω → ℜ son variables aleatorias, se dicequeXn converge débilmente, o en distribución aX conformen→ ∞ si la sucesión de medidas(Xn) ∗ (P) converje debilmente aX ∗ (P) en el sentido de convergencia débil de medidas enX.

En el presente trabajo se usará la notación de convergencia en distribución (d→) para

deducir la convergencia a las distintas funcionales del proceso de Weiner, W(r).

Para estudiar los procesos de raíces unitarias aún se necesitan de un par de resultadosteóricos importantes: el teorema de límite central funcional y el teorema de mapeo continuo.[Billingsley 1999] presenta minuciosamente una serie de definiciones y resultados teóri-cos para llegar a dichos teoremas, conjuntamente, expone las demostraciones respectivas.[White 2001] sintetiza muchos de los resultados para dar forma al estudio de las raícesunitarias.

Aunque queda fuera del interés particular del presente trabajo, realizar un tratado exhaus-tivo de teoría de probabilidad para introducir al lector en el estudio de las raíces unitarias,se recomienda enfáticamente apoyarse en las referencias anteriores para todos aquellos quequisieran ahondar mucho más al respecto. Para aquellos que en primer término se encuentra

3.2. Procesos de raíz unitaria 39

estudiar directamente el problema de raíces unitarias desde el punto de vistade econometríade series de tiempo, puede apoyar su estudio en [Hamilton 1994].

3.2.2. Regresión con una raíz unitaria

El TLCF y el teorema de mapeo continuo dan las herramientas necesarias para poderestudiar modelos de regresión, es decir, permiten encontrar distribuciones asintóticas para losestimadores de mínimos cuadrados en presencia de procesos de raíces unitarias.

Aunque el profesor neozelandés Peter C.B. Phillips no fue el primero eninteresarse por elestudio de raíces unitarias (más adelante se tocará este punto), sí fue el primero en presentaruna elegante teoría asintótica respecto a ello. [Phillips 1986] desarrolla diversas expresionesasintóticas que son frecuentemente usadas al momento de trabajar con raíces unitarias.4 Estetrabajo, por supuesto, no es la excepción.

A manera de ejemplo, de como aquellas expresiones asintóticas pueden ser usadas, se tieneel siguiente teorema de [Phillips 1987], en extremo relevante.

Teorema 3.1.Regresión con raíces unitarias.Supóngase que se tiene

1. yt = xt β0 + εt, . . . , dondext = yt−1, β0 = 1, y y0 = 0;

2. Wnd→ W, dondeWn es definida porWn(a) ≡ n−1/2 ∑[an]

t=1 εt/σ, 0 ≤ a ≤ 1, donde

σ2 ≡ limn→∞var(

n−1/2 ∑nt=1 εt

)

es finito y no cero. Entonces

a) n−2 ∑nt=1 y2

t−1

d→ σ2∫ 10

W(a)2 da.

Si en adición

3. n−1 ∑nt=1 ε

2t

p→ τ2, 0 < τ2 < ∞.

Entonces

b) n−1 ∑nt=1 yt−1εt

d→(

σ2/2) (

W(1)2 − τ2/σ2)

;

c) n(

βn − 1) d→

[

∫ 10

W(a)2 da]−1

(1/2)(

W(1)2 − τ2/σ2)

;

4El artículo de Phillips pudiera resultar un poco complicado de digerir, paraello existe en la red una excelentelista de las expresiones asintóticas encontradas en la literatura, que permiteaminorar considerablemente el tiempode interpretación de resultados. En dicha liga se pueden encontrar diversos puentes estocásticos calculados por elpropio autor, ellos son de vital importancia al momento de operar bajo procesos de raíces unitarias. La liga es:http://www.ventosa-santaularia.com/

40 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

y

d) βnp→ 1.

Prueba en apéndice (A), sección (A.6).

Es importante comentar que cuandoyt es generado de acuerdo a las suposiciones 1 y 2del teorema (3.1), se dice queyt es un proceso integrado. Lleva esta connotación debido aqueyt =

∑nt=1 εt puede ser visto como una integral deεt, dondeεt obedece el TLCF. Los

procesos integrados son comúnmente llamados procesos de raíces unitarias y naturalmente esuna extensión de la caminata aleatoria, definida anteriormente, solo que no serequiere queεtsea i.i.d. De hecho, lo único que se requiere es queεt obedezca el TLCF.

Antes de continuar, y dado que a lo largo del trabajo será ampliamente usada, es necesa-rio definir el orden de magnitud de una sucesión en particular, sea determinista o estocástica.Las siguientes definiciones comparan el comportamiento de una sucesiónbT con el compor-tamiento de una potencia deT, por ejemploTn, donden se elige tal quebT y Tn crecensimilarmente.

Definición 3.3. Órdenes de magnitud. (Notación del mismo orden).

1. (Determinista). i) La sucesiónbT es a lo más de ordenTn, denotadobT = O(Tn), sipara algún número real finito∆ > 0, existe un entero finitoN tal que para todoT ≥ N,|T−nbT | < ∆. ii) La sucesiónbT es de orden más pequeño queTn, denotadobT = o(Tn),si para algún número real finitoδ > 0, existe un entero finitoN(δ) tal que para todoT ≥ N(δ), |T−nbT | < δ, es decir,T−nbT → 0.

2. (Convergencia casi segura). i) La sucesión aleatoriabT es a lo más de ordenTn

casi seguramente, denotadobT = Oc.s.(Tn), si existe∆ < ∞ y N < ∞ tal queP

[

T−nbT < ∆ ∀T ≥ N]

= 1. ii) La sucesión aleatoriabT es de orden más pequeño

queTn casi seguramente, denotadobT = oc.s.(Tn), si T−nbTc.s.→ 0.

3. (Convergencia en probabilidad). i) La sucesiónbT es a lo más de ordenTn en proba-bilidad, denotadobT = Op(Tn), si para cadaǫ > 0 existe una∆ǫ > 0 y Nǫ ∈ N, tal queP

ω :∣

∣T−nbT(ω)∣

∣ > ∆ǫ

< ǫ para todon ≥ Nǫ . ii) La sucesión aleatoriabT es de orden

más pequeño queTn en probabilidad, denotadobT = op(Tn), si T−nbTp→ 0.

El álgebra entre O, o,Oc.s., oc.s., Op y op, son análogos.

Regresando al teorema (3.1) es posible obtener varias conclusiones. Del inciso a), se debe

interpretar que∫ 10

W(a)2 da es una variable aleatoria, por ello la convergencia es marcada de

3.2. Procesos de raíz unitaria 41

esa forma, a diferencia con el caso estacionario dondeM ≡ E(

XtX′t

)

no es aleatorio yM esdefinida positiva.

Por otro lado, en el caso estacionario se tiene queE (Xtεt)p→ 0, sin embargo en el caso

de una raíz unitaria, se tiene (del segundo inciso) quen−1 ∑nt=1 xtεt = n−1 ∑n

t=1 yt−1εt convergeestocásticamente a una distribución no estándar, la cual es

(

σ2/2) (

W(1)2 − τ2/σ2)

.

Como es claro, los primeros dos incisos permiten encontrar la distribución asintótica noestándar del estimador de mínimos cuadrados, en c). Uno puede darse cuenta que ahora elestimador esOp(T), cuando en el caso estacionario esOp(T1/2), esto quiere decir queβn seestá colapsando a una tasa más rapidamente en el caso de raíz unitaria que en el estacionario.Esto recibe el nombre desuperconsistencia.

Finalmente la conclusión sobre el inciso d) radica en que a pesar de existir problemas de au-tocorrelación enεt, el estimadorβn es consistente paraβ0 = 1, a diferencia de la inconsistenciaverificada en el caso estacionario.

3.2.3. Regresión espuria

En la sección (3.2.1) se presentó el concepto general de un proceso de raíz unitaria,mientras que en la sección (3.2.2) se analizaron las diferencias existentes entre correr unaregresión bajo procesos estacionarios y bajo procesos de raíz unitaria. No obstante, suimportancia, al menos en cuestiones económicas, no ha sido discutido.

Para entender el concepto de regresión espuria, considérese queyt = yt−1+εt y xt = xt−1+ηtson procesos de raíz unitaria conεt y ηt i.i.d. e independientes entre sí. Por lo tanto lascaminatas aleatorias,yt y xt son independientes. Como antes, fíjesex0 = y0 = 0. Se puedeescribir formalmente una regresión parayt en términos dext formalmente como

yt = xtβ0 + ut,

dondeβ0 = 0 y ut = yt. Esto debido a la inexistencia de relación alguna entreyt y xt.

Sin embargo, cuando se estimaβn =(

∑nt=1 x2

t

)−1 ∑nt=1 xtyy, se encuentra queβn no es

consistente paraβ0 = 0 debido a su convergencia a una distribución no estándar en particular.Dicho de otro modo,βn es incapaz de revelar que no existe relación alguna entre dos raícesunitarias independientes.

La situación en la cualβn no converge en probabilidad a cero, bajo este tipo de pro-cesos estocásticos, fue primero considerado por [Yule 1926], sin embargo no fue hasta que[Granger 1974] detectaron los peligros que involucraban los procesos de raíz unitaria en

42 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

los modelos de regresión, usando experimentos Monte Carlo llegaron a lo que a la postredenominarían comoregresión espuria.

La figura (3.1) muestra, a través de un ejemplo, el fenómeno de la regresión espuria. Elpanel a) es generado mediante dos procesos estacionarios y en panelb) mediante dos procesosde raíz unitaria. Ambas dispersiones son totalmente diferentes y es claro queen el primerpanel la recta de regresión estimada (línea azul) indica la no relación lineal entre las variables,mientras que en el panel b) se podría encontrar alguna relación lineal ajustando un modelode regresión, aun siendo variables independientes, dando nacimiento a laidea de la regresiónespuria.

Figura 3.1: Diagrama de dispersión entre dos procesos estacionarios, panel a), y entre dos pro-cesos de raíces unitarias, panel b). La línea azul en el panel a) representa la recta de regresiónestimada indicando que no existe relación entre las variables generadas.

A pesar de que en sus inicios las relaciones espurias sólo eran encontradas bajo el estudio de

3.3. Evidencia de raíces unitarias en series macroeconómicas 43

procesos de raíz unitaria, como ya se comentó, la literatura es bastante amplia hoy en día y abar-ca una mayor generalidad de PGD’s que van desde los procesos de raíces unitarias hasta los pro-cesos de memoria larga y procesos estacionarios con tendencia ([Ventosa-Santaulària 2007]),y rompimiento en tendencia [Ventosa-Santaulària 2006]. Para aquellos lectores interesados enel tema, [Ventosa-Santaulària 2009a] describe los trabajos más importantes en este campo asícomo la conexión entre ellos y sus implicaciones economía aplicada. Con la misma finalidadpero haciendo uso de una explicación más detallada, [Ventosa-Santaulària 2009b], ofrece unavisión general explicando las implicaciones que tienen este tipo de procesosen la economíaaplicada sin dejar de lado importantes resultados que les pudiera interesar alos estadísticos yeconometristas teóricos.

3.3. Evidencia de raíces unitarias en series macroeconómicas

A partir de las simulaciones efectuadas en [Granger 1974], se reconoció que las serieseconómicas podrían estar gobernadas por procesos no estacionarios, especificamente de raízunitaria; ello significaría un cambio substancial en la forma de coincibir a la política econó-mica. Por eso la literatura econométrica se volcó en una búsqueda de evidencia estadísticade la existencia de raíces unitarias para descartar que la inferencia extraída de los modeloseconométricos fuera espuria.

La primera prueba estadística para detectar la presencia de raíz unitaria fue propuesta por[Dickey 1979] y se le conoce como prueba Dickey-Fuller. Hoy en día sigue siendo una de lasmás populares, si bien existen pruebas con mejores propiedades estadísticas. En realidad, laspruebas subyacentes que han surgido en la literatura, han extendido y generalizado el alcancede la prueba original de 1979.

La prueba estadística Dickey-Fuller no fue tan ampliamente difundida sino hasta queNelson y Plosser, [Nelson 1982], publicaron un influyente estudio macroeconómico. Endicho artículo, se encontró evidencia de raíz unitaria en todas las series—históricas—macroeconómicas de Estados Unidos (salvo la tasa de desempleo). La basede datos,construida por los autores, abarcaba 14 variables macroeconómicas cuya primera observaciónocurre en muchos casos a finales del Siglo XIX.

[Perron 1989] demostró que las pruebas Dickey-Fuller sufren pérdidas en la potenciaenpresencia de procesos que contengan rompimiento estructural en la tendencia. Ello desembo-caría en que la hipótesis nula de raíz unitaria no fuera rechazada satisfactoriamente. Perron usóel Crackbursátil de 1929 así como el choque petrolero de 1973, definiendo asíexógenamentelos cambios estructurales. Fue con base en ellos, así como en argumentos teóricos, que dedujoque los resultados de Nelson y Plosser, estaban sesgados hacia el excesivo no-rechazo de lahipótesis nula de raíz unitaria.

44 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

El supuesto de que los cambios estructurales fueran exógenos al modeloen la pruebaPerron 89, fue cambiado en [Zivot 1992] que lo consideró como una falla. Por ello Zivoty Andrews definieron solo un rompimiento de manera endógena y solo bajo la hipótesisalternativa de proceso estacionario. El resultado fue ampliado permitiendodos quiebresen [Lumsdaine 1997], mientras que [Perron 1997] permitió quiebres definidos de maneraendógena en la prueba Perron 89. En años más recientes, [Kapetanios 2005] generalizó laprueba de Zivot y Andrews a M quiebres, mientras que [Sanso 2006] retomó la idea originalde realizar pruebas conjuntas de Dickey-Fuller considerando quiebres.

La evidencia en favor de la raíz unitaria fue perdiendo peso conforme sefueron de-sarrollando los trabajos antes descritos, desembocando en una creencia de que las seriesmacroeconómicas seguían un proceso de tendencia con quiebre, sea uno en el caso deZivot y Andrews, dos como en Lumsdaine y Papell o hasta cinco en el caso de Kapetanios.Sin embargo, como se comenta en [Ventosa-Santaulària 2011], un proceso de raíz unitariacon deriva es un proceso que posee tanto una tendencia estocástica (entiéndase como raízunitaria) como una determinista, por lo que en dicho artículo se prueba estadísticamentesi las raíces unitarias tienen o no deriva, sabiendo de antemano que asintóticamente dichaderiva domina a la raíz unitaria por lo que la serie de tiempo estaría más cercanoa seguirun proceso estacionario con tendencia. En el caso de que dicha deriva presentara un quie-bre, entonces el proceso en cuestión se parecería más a una tendenciadeterminísta con quiebre.

Con la prueba propuesta por [Ventosa-Santaulària 2011] se regresa a una tendenciaen favor de la presencia de raíz unitaria en una gran cantidad de series macroeconómicaspertenecientes a la base (actualizada con datos hasta 1988) construida originalmente porNelson y Plosser.

La tabla (3.1) muestra el progreso en mencionada literatura.

3.4. Granger causalidad espuria

De manera semejante al término de regresión espuria, visto en la sección3.2.3, el inves-tigador puede verse sujeto a encontrar relaciones Granger causales cuando en realidad no lashay. Naturalmente, se dice que se está frente a unacausalidad espuria.

Definición 3.4(Granger causalidad espuria). Si la estadísticaFGC tiende a rechazar su hipóte-sis nula en presencia de dos procesos independientes e irrelevantesxt y yt, donde ninguno,uno o ambos son estacionarios.

Podría parecer un poco ambiguo el hecho de que no se especifique conclaridad que tipode procesos conllevan a la causalidad espuria, sin embargo no lo es. Existe literatura que ha

3.4.G

rangercausalidad

espuria45

XX

XX

XX

XX

XX

XX

VariablePrueba

N&P 82 P 89 Z&A 92 P 97 L&P 97 K 05 CiS&S 06 VSGZ 11

PIB real RU BTS BTS BTS BTSS BTSS BTS BTSPIB nominal RU BTS BTS BTS BTSS BTS BTS BTSPIB real per capita RU BTS BTS BTS BTSS BTSS RU BTSProducción industrial RU BTS BTS BTS BTSS BTS BTS RUcdEmpleo RU BTS BTS BTS BTSS BTSS RU RUcdTasa de desempleo I(0) I(0) I(0) I(0) I(0) BTSS BTS I(0)Deflactor del PIB RU BTS RU RU RU RU RU RUcd+qPrecio al consumidor RU RU RU RU RU RU RU RUsdSalarios nominales RU BTS RU BTS RU RU BTS RUcdSalarios reales RU BTS RU BTS RU RU RU RUcd+qM2 RU BTS RU BTS RU RU RU RUcdVelocidad RU RU RU RU RU RU RU RUsdTasa de interés RU RU RU RU RU RU BTS RUsdPrecios accionarios RU BTS BTS BTS RU RU RU RUsd

Tabla 3.1: Historial de la búsqueda de procesos de raíces unitarias en la base construida en [Nelson 1982] con las siguientes refe-rencias de artículos: N&P 82 de la prueba Dickey Fuller, P 89 de [Perron 1989], Z&A 92 de [Zivot 1992], P 97 de [Perron 1997],L&P 97 de [Lumsdaine 1997], K 05 de [Kapetanios 2005], CiS&S 06 de [Sanso 2006] y VSGZ 11 de [Ventosa-Santaulària 2011].Abreviaciones: I(0); Proceso Estacionario (Integrado de orden 0), RU; Raíz unitaria, RUsd; Raíz unitaria sin deriva, RUcd; Raízunitaria con deriva, RUcd+q; Raíz unitaria con deriva y quiebre, TS; Estacionario en tendencia, BTS; Estacionario en tendencia conquiebre y BTSS; Estacionario en tendencia con quiebres.

46 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

estudiado este peligroso detalle estadístico bajo diversos enfoques.

[Andersson 2005] demostró que la prueba de Granger causalidad tiende a rechazarsu hipótesis nula con mayor frecuencia de lo que debería si una de las dosvariables enestudio, pero no la otra, se mide con error. Lo anterior llevaría al investigador a concluirque la primer variable está manejando a la otra mientras que, de hecho, hay una relación deretroalimentación, como se definió en la ecuación (1.37).

Por otro lado, [McCrorie 2006], desde una perspectiva de tiempo continuo, identificóresultados espurios al probar la Granger causalidad en presencia deagregación temporal5. Asu vez demostró que la modelación en tiempo continuo ofrecía una fuerte basepara corregirlos efectos de esta.

Recientemente, [Ventosa-Santaulària 2008] probó que laFGC falla en no rechazar suhipótesis nula entre dos procesos independientes ya sean con rompimiento en la tendenciao rompimiento en la media, habiéndose diferenciados o no. En dicho artículo sesugiereque antes de estudiar la Granger causalidad se someta bajo escrutinio las pruebas de raícesunitarias en las que en su hipótesis alternativa existe un PGD asociado a procesos deterministascon rompimiento en tendencia, los cuales se explicaron en la sección (3.3).

El problema de la no estacionariedad, especificamente aquellos procesosintegrados o deraíz unitaria, representa un peligro latente, como bien se comentó en la sección (3.2.3). Por ellodiversos autores se han preocupado por investigar las consecuencias Granger causales que pu-dieran provocar, cuyos hallazgos no podían ser más relevantes y alarmantes; [Christiano 1988]mediante ejercicios de simulación encontró que en presencia de raíces unitarias con drift, laestadística de prueba bajo la nula resultaría en una distribución asintótica no estándar.

Los resultados que de este trabajo emanan en la búsqueda de devolverle ala Grangercausalidad la fuerza que le corresponde en el análisis econométrico. Dado los resultadosobtenidos en el capítulo1, sección1.3y en cierto modo con los del capítulo2, sección2.1, sepuede estar seguro de su desmedida utilidad cuando se trabaja con procesos estacionarios sinninguna de las irregularidades ya mencionadas, por ende no es que la haya perdido, sino quela presencia de raíces unitarias puede menguar circunstancialmente su buen funcionamiento.

Entonces, debido a la presencia ya inminente de raíces unitarias en importantes variablesmacroeconómicas, resumidas en la tabla3.1, es por lo que se debe estudiar el impacto de estetipo de procesos en la prueba de Granger causalidad.

5Se le conoce como agregación temporal a la inconsistencia existente entrelos intervalo de tiempo de las deci-siones de los agentes económicos y el muestreo realizado.

3.4. Granger causalidad espuria 47

3.4.1. Granger causalidad bajo procesos de raíces unitarias

Analizando la tabla3.1, se puede observar que existe una fuerte presencia de pro-cesos estacionarios con quiebre en tendencia (BTS) y raíces unitarias,para las cuales[Ventosa-Santaulària 2011] se ha encargado de definir el tipo al que pertenecen; sin deriva,con deriva y con deriva más quiebre. Ante estas afirmaciones, inferir lapotencial direcciónGranger causal entre cualquier par de estas variables macroeconómicas podría resultar en unejercicio de dudosa validez estadística .

Como se comentó en la sección pasada, [Ventosa-Santaulària 2008] demostró que laestadística de prueba, entre los PGD’s estudiados (BTS), eraOp(T), lo que conllevaba auna causalidad espuria aun con tamaños chicos de muestras. Este hecho representa un fuerteproblema en una parte de las variables macroeconómicas de la misma tabla3.1.

No obstante, aún está pendiente analizar el funcionamiento de la prueba bajo procesos deraíces unitarias. Este es el camino que se toma en el presente trabajo.

[He 2001] estudió de manera muy cercana esta incognita, demostró que la prueba de Gran-ger causalidad a menudo conlleva a una causalidad espuria entre dos procesos independientese irrelevantes,xt y yt, donde uno o ambos son no estacionarios. Encontró distribuciones noestándar de la estadísticaFGC considerando cierto tipo de PGD’s.

En mencionado trabajo, los autores consideraron las regresiones

yt = α1yt−1 + β1xt−1 + u1t,

xt = γ1xt−1 + δ1yt−1 + u2t,(3.1)

que difieren de las que comúnmente en la práctica econométrica se suelen manejar, las cualesson las regresiones1.45y 1.47. Con las que se trabajará.

Aunque pareciera no haber mucha diferencia entre ambos tipos de regresiones, de hecho sila hay en el sentido del enfoque que se usa para estudiar la Granger causalidad. La definición(1.6) de causalidad busca probar si es mejor o no utilizar la información de un segundoproceso estócástico para pronosticar al primero. Por ello, las regresiones1.45 y 1.47, en laprueba econométrica, están definidas siempre buscando expresar al mismo proceso, en esecasoxt, como variable independiente. No obstante hay una implicación alternativa delaGranger causalidad que actúa en sistemas VAR. Aunque no se hará más énfasis en ello, ellector interesado puede recurrir a [Hamilton 1994] página 303, para posteriormente adentrarsea [Toda 1993] y [Toda 1994], artículos en los cuales es posible seguir diversas referencias.

Zonglu Hea y Koichi Maekawa siguen este enfoque para probar la causalidad en el sentidode Granger, por ello que el modelo expresado (3.1), resulte ser un sistema VAR2(1), por lo que

48 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

al investigar siyG9 x, se tiene que probarβ1 = 0, siguiendo a [Toda 1993].

En este trabajo, se sigue la metodología econométrica que fue definida en la sección1.3.4.1.Por ello, es necesario advertir al investigador del posible uso de cualquiera de ambos procedi-mientos, ya que como se verá en la siguiente sección, las distribuciones no estándar difierenpor una distribuciónχ2 asociada al trabajo de Zonglu Hea y Koichi Maekawa. En [Toda 1993],Hiro Toda y Peter Phillips probaron que el estadístico de Wald en sistemas VARcuando haypresencia de raíces unitarias converge a unaχ2 más una distribución de raíz unitaria, es decir,no estándar. Por ello en los resultados de Zonglu Hea y Koichi Maekawa aparece la citadadistribución.

3.4.1.1. Raíz unitaria sin deriva

A partir de la base de Nelson y Plosser, [Nelson 1982], y gracias a la prueba VSG, en[Ventosa-Santaulària 2011], se podría considerar (con base en argumentos estadísticos) quevariables macroeconómicas como el precio al consumidor, la velocidad deldinero, la tasade interés y los precios accionarios siguen un proceso de raíz unitaria sinderiva. Por lo quecuando el investigador quiera probar una dirección Granger causalentre dichas variablesdeberá considerar los resultados aquí expuestos.

A continuación se asumirá que ambas variables son procesosI (1) sin deriva. Seaz= x, y:

zt = z0 + ξzt. (3.2)

De las regresiones1.45y 1.47, y debido a limitaciones computacionales, se considerará laespecificación más simple de la prueba de Granger causalidad. Esto es

yt = γ11yt−1 + γ12xt−1 + u1t, (3.3)

yt = γ21yt−1 + u2t. (3.4)

Donde la regresión no restringida está dada por3.3y la restringida por3.4.

El comportamiento de la pruebaFGC está dada por el siguiente teorema. El símbolod→

naturalmente significa convergencia en distribución,Wx ≡ Wx(r) y Wy ≡ Wy(r) denotan

proceso de Weiner estándar, ambos independientes. La integral estocástica∫ 10

es escrita como∫

para efectos de facilidad en la notación.

Teorema 3.2.Granger causalidad bajo procesos I(1) sin deriva.Seanxt y yt dos procesos estocásticos I(1) sin deriva generados por (3.2). Al estimar las regre-siones (3.3) y (3.4), y calcular la estadísticaFGC. Entonces, conformeT → ∞

3.4. Granger causalidad espuria 49

FGCd→

[

W2y

Wx dWy − 12

[

Wy(1)]2 − 1

WyWx

]2

W2y

[

W2y

W2x −

[∫

WyWx

]2] (3.5)

Prueba en apéndice (C), sección (C.1).

Del teorema (3.2) se tienen los siguientes comentarios:

Bajo H0, laFGC converge a una distribución no estándar no degenerada.

La distribución asintótica no estándar (3.5) no depende de ninguno de los parámetrosdesconocidos, por ello dicha distribución se dice que es asintótica pivotaly funcionapara hacer inferencia estadística.

Se tiene queFGC = Op(1) por lo que el investigador no necesita normalizar el estadísticode prueba.

La forma de la distribución asintótica es estimada no paramétricamente, y su kernel suavi-zado puede verse en la figura (3.2), en la misma figura uno puede constatar que la distribuciónmuestral converge a la asintótica conformeT → ∞. La figura (3.2) es obtenida tras simular laexpresión (3.5) y la estadísticaFGC 10,000 veces. En el panel inferior se puede observar lasfunción de distribución acumulada de ambas.

50 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

−5 0 5 10 15 20 250

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0 5 10 15 20 250

0.2

0.4

0.6

0.8

1

x

F(x)

Distribución muestralDistribución asintótica

Distribución muestralDistribución asintótica

Figura 3.2: Panel superior: Distribución asintótica para laFGC bajo dos procesos independien-tes I(1) sin deriva. Panel inferior: Función de distribución acumulada.

Los valores críticos también son calculados simulando la distribución asintótica,sonmostrados en la tabla (3.2).

En el capítulo2, teoremas (2.3) y (2.1), se obtuvo que bajo la hipótesis alternativa, laestadística de prueba de laFGC era Op(T) en ambos casos, es decir que diverge a tasa T,

3.4. Granger causalidad espuria 51

Nivel (α) 20 % 10 % 5 % 1 %Valor crítico 3.30 5.08 6.82 10.70

Tabla 3.2: Valores críticos asintóticos.

aunado a que el signo de divergencia siempre es positivo. Estos resultados también puedenser aplicados aquí. La idea anterior es inmediata en el sentido de que la hipótesis nula no hacambiado. Entonces, conforme el tamaño de muestra aumente se rechazará lahipótesis nula deno Granger causalidad entre dos procesos de raíz unitaria sin deriva,como se puede observaren la figura (3.3).

5 10 15 20 25 0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

H0: FGC

bajo procesos independientes I (1) sin drift

H1: FGC

bajo procesos Granger causales

Figura 3.3: Regiones de para la prueba de Granger causalidadFGC bajo dos procesos I(1) sinderiva.

Es importante mencionar que la distribución no estándar (3.5) es de cola más pesada que ladistribución F. La figura (3.4) muestra un comparativo entre ambas distribuciones. La distribu-ción no estándar es obtenida simulando 10,000 replicaciones, la distribuciónF es muestreadacon grados de libertad 1 y 9999, para emparejarla con el número de simulaciones de la primera.

52 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

5 10 15 20 25 30 350

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

Distribución no estándarDistribución F(1,9999)

Figura 3.4: Comparativo entre la distribución no estándar (3.5) y la distribución teórica F.

Propiedades en muestras finitas de la distribución no estándar (3.5)

Mediante un estudio Monte Carlo se presenta la efectividad de la prueba enunciada en elteorema (3.2). En cada uno de los casos el número de replicaciones es de 10,000 veces.

En la tabla (3.3) se muestra las variación de los valores críticos para algunas muestrasfinitas.

Como se puede observar en la tabla (3.3), los valores críticos disminuyen conforme eltamaño de muestra aumenta y pareciera que convergen a ciertos valores, sin embargo no aaquellos expuestos en la tabla (3.2). Esto significa que falta precisión al momento de estimarla cola de la distribución (3.5). Y aunque las funciones de distribución empiricas del panelinferior de la figura (3.2) parecieran dar una idea de ser exactamente iguales, basta hacer un

3.4. Granger causalidad espuria 53

Nivel (α) 20 % 10 % 5 % 1 %25 3,73 5,93 8,09 14,2850 3,49 5,34 7,17 10,89100 3,41 5,15 6,97 10,71250 3,43 5,13 6,94 10,57500 3,36 5,05 6,61 10,48

1,000 3,39 5,02 6,55 10,2810,000 3,32 4,97 6,52 10,13

Tabla 3.3: Valores críticos asintóticos. (10,000 repeticiones Monte Carlo)

acercamiento a la cola para ver sus diferencias. Ver figura (3.5).

Figura 3.5: Acercamiento en la cola de la distribución (3.5).

Se analizan las tasas de rechazo de la hipótesis nula para algunos valoresen las varianzasde las variables mediante un estudio Monte Carlo. En la tabla (3.4) se estudian considerandolasα0,5 de cada tamaño muestral obtenidos en la tabla (3.3). En la tabla (3.5) se considera elvalorα0,5 = 6,82 correspondiente al valor crítico de la distribución asintótica.

Los resultados a partir de la tabla (3.4) muestran que la prueba no es capaz de mantenerlas tasas de rechazo al menos al 5 %. De hecho hay un comportamiento errático conforme eltamaño de muestra aumenta, esto es debido a la pobre estimación que se tiene sobre la cola

54 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

σx σy 25 50 100 250 500 1000 100000.5 4.32 4.96 4.62 4.47 5.02 5.23 5.08

0.5 1 4.33 4.85 4.54 4.02 5.32 5.13 4.741.5 4.08 5.03 4.7 4.32 4.54 5.18 4.642 4.2 4.87 4.52 4.46 5.44 4.68 5.19

0.5 4.19 4.45 4.53 4.39 5.03 4.62 4.961 1 4.51 4.82 4.63 4.09 5.29 5.16 4.89

1.5 4.07 4.77 4.68 4.15 4.58 5.37 5.062 4.37 5.05 4.62 4.52 5.04 5.18 4.86

0.5 4.27 4.91 4.84 4.6 4.71 4.93 4.871.5 1 4.21 4.5 4.69 4.54 4.65 4.86 5.13

1.5 4.11 4.64 4.54 4.08 4.89 5.04 5.002 4.53 4.79 4.4 4.53 4.76 5.00 4.6

0.5 4.22 4.75 5.06 4.37 4.94 4.95 4.942 1 4.11 4.81 4.75 4.31 4.97 4.77 4.8

1.5 4.13 4.73 4.88 4.04 4.86 5.13 5.282 4.96 4.84 4.4 4.35 4.99 5.08 4.59

Tabla 3.4: Rechazos al 5 % (10,000 repeticiones Monte Carlo). Lasα0,5 son respectivas al 5 %de cada tamaño muestral de la tabla (3.3). Cantidades expresadas en porcentaje.

σx σy 25 50 100 250 500 1000 100000.5 6.43 5.76 4.68 4.59 4.48 4.56 4.51

0.5 1 6.78 5.35 4.83 4.28 4.26 4.47 4.461.5 6.67 5.52 5.23 4.40 4.60 4.47 3.972 6.89 5.38 5.02 4.57 4.79 4.61 4.24

0.5 6.98 5.61 4.82 4.83 4.30 4.45 4.071 1 6.83 5.56 4.54 4.46 4.54 4.42 4.03

1.5 7.05 5.51 4.98 4.77 4.80 4.32 4.172 6.53 5.24 4.87 4.35 4.28 4.11 4.27

0.5 6.52 5.24 5.00 4.30 4.40 4.56 4.401.5 1 6.84 5.43 4.89 4.43 4.22 4.52 4.20

1.5 6.6 5.43 4.93 4.54 4.56 4.20 4.312 6.75 6.06 5.31 4.46 4.51 4.32 4.61

0.5 7.06 5.32 4.91 4.71 4.93 4.65 4.192 1 6.42 5.57 5.17 4.79 4.56 4.34 4.54

1.5 6.87 5.93 4.80 4.65 4.67 4.13 4.512 6.81 5.49 5.15 4.37 4.67 4.59 4.32

Tabla 3.5: Rechazos al 5 % (10,000 repeticiones Monte Carlo).α0,5 = 6,82 correspondiente al5 % de la distribución asintótica. Cantidades expresadas en porcentaje.

3.4. Granger causalidad espuria 55

de la distribución. Sin embargo la tabla (3.5), al usar el valor crítico asintótico, demuestra lacapacidad de la prueba para mantener dicha tasa por abajo del 5 %, de manera general, conmuestras al menos tan pequeñas de 100 observaciones.

En ambas tablas, pero haciendo énfasis en la segunda por su ya comentada relevancia, sepuede observar que las tasas de rechazo no son fuertemente impactadasante cambios en lasvarianzas de las variables.

3.4.1.2. Raíz unitaria con deriva

De igual forma que en la sección (3.4.1.2), la tabla (3.1) muestra una fuerte presenciade variables macroeconómicas que siguen un comportamiento de raíz unitaria con deriva.[Ventosa-Santaulària 2011] identificó que la producción industrial, el empleo, los salariosnominales y el agregado monetario M2 siguen este tipo de proceso.

A continuación se asumirá que ambas variables son procesosI (1) con deriva. Seaz= x, y:

zt = z0 + µz t + ξzt (3.6)

Al igual que antes, debido a limitaciones computacionales, se considerará laespecificaciónmás simple de la prueba de Granger causalidad. La regresión no restringida está dada por3.3y la restringida por3.4.

El comportamiento de la pruebaFGC está dada por el siguiente teorema. La notación sesigue de la sección pasada.

Teorema 3.3.Granger causalidad bajo procesos I(1) con deriva.Seanxt y yt dos procesos estocásticos I(1) con deriva generados por (3.6). Al estimar las regre-siones (3.3) y (3.4), y calcular la estadísticaFGC. Entonces, conformeT → ∞

T−1FGC

d→−µ2

y

[

µxσy

(

2∫

Wy − 3∫

rWy

)

+ µyσx

(

3∫

rWx − 2∫

Wx

)]

µ2x µ

2y σ

2y ϑ1 + µx µ

3y σxσy ϑ2 + µ4

y σ2x ϑ3 + µ2

xσ4y ϑ4 + µx µyσxσ

3y ϑ5 + µ2

y σ2y σ

2x ϑ6, (3.7)

donde

ϑ1 = 4[∫

Wy

]2 −∫

W2y − 12

Wy

r Wy + 12[∫

r Wy

]2,

ϑ2 = 2∫

WxWy − 8∫

WxWy + 12∫

r Wx

Wy + 12∫

r Wy

Wx − 24∫

r Wx

r Wy,

ϑ3 = 4[∫

Wx

]2 −∫

W2x − 12

Wx

r Wx + 12[∫

r Wx

]2,

ϑ4 = 12[∫

r Wy

]2 − 4∫

W2y ,

ϑ5 =∫

WxWy − 24∫

r Wx

r Wy y

ϑ6 = 12[∫

r Wx

]2 − 4∫

W2x .

56 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

Prueba en apéndice (C), sección (C.2).

Del teorema (3.3) se deduce que:

Bajo H0, laFGC converge a una distribución no estándar no degenerada.

La distribución asintótica no estándar (3.5) depende de un conjunto de parámetros des-conocidosΘ = (µy, µx, σx y σy), por lo que no es asintótica pivotal y no sirve para hacerinferencia estadística.

FGC = Op(T).

El problema de que la distribución no estándar (3.7) no sea asintótica pivotal resulta serla necesidad de tener que calcular valores críticos para cada valor enΘ, lo cual limita en loabsurdo. Por supuesto que el investigador podría tomar fuertes suposiciones sobre dichosvalores, por ejemplo queΘ = (1,1,1,1) y entonces calcular dichos valores críticos, sinembargo mencionada sugerencia solo queda bajo criterio y decisión del investigador y nocomo sugerencia del presente trabajo.

Por otro lado, con respecto al tercer punto y siguiendo la definición (3.4), siendoque la estadística de prueba tiende a rechazar su hipótesis nula en presencia de dos pro-cesos independientes conforme el tamaño de muestra aumenta, entonces setiene que dosseries que siguen una raíz unitaria con deriva desembocarán en una Granger causalidad espuria.

Huelga decir que si el investigador no conoce este factor de normalización (como seespera) entonces al buscar la dirección Granger causal entrext y yt cuando ambas siguen un

proceso I(1) con deriva, entonces encontrará quexG→ y y y

G→ x, lo cual le hará pensar queestá ante un proceso de retroalimentación como el definido en la sección (1.3.1).

3.4. Granger causalidad espuria 57

Nivel (α) 20 % 10 % 5 % 1 %25 0.35 0.51 0.68 1.0650 0.22 0.31 0.40 0.57100 0.16 0.22 0.28 0.38250 0.12 0.17 0.21 0.27500 0.11 0.14 0.17 0.23

1,000 0.10 0.13 0.16 0.2010,000 0.10 0.13 0.15 0.18∞ 0.10 0.13 0.14 0.17

Tabla 3.6: Valores críticos muestrales y asintóticos conΘ = (1,1,1,1). (10,000 repeticionesMonte Carlo).

Ejemplo conΘ = (1,1,1,1)

Solo a manera de ejemplo, para conocer algunos valores críticos, la forma de la distri-bución no estándar (3.7) y un estudio en muestras finitas se considera el caso donde cadaparámetro es cercano a la unidad. Es posible considerar el hecho de que dicha suposición nosea tan descabellada paraσx y σy, pero no hay ninguna razón aparente para hacerlo enµx y µy.

De manera semejante a la sección (3.4.1.1), la figura (3.6) muestra la forma de la distribu-ción asintótica estimada no paramétricamente, en el panel inferior se presenta la función dedistribución acumulada empirica de la distribución (3.7) conΘ = (1,1,1,1). La figura (3.6) esobtenida tras simular la expresión (3.7) y la estadísticaFGC 10,000 veces.

La tabla (3.6) muestra los valores críticos en cada tamaño de muestra y asintóticos de ladistribución (3.7). El tamaño muestral denotado con el símbolo∞ representa los asintóticos.

Como se puede observar los valores críticos, a diferencia de los mostradosen la tabla (3.3),convergen a los asintóticos. Esto es debido a que la cola de la distribución (3.7) es mucho máspesada que la de (3.5), por lo que su estimación no contrae pérdida en la precisión.

Se estudió la frecuencia en la que rechaza la prueba de Granger causalidad si hipótesis nulaen presencia de dos procesos independientes I(1) con deriva. Considerando los valores críticosasintóticos de la tabla (3.6), se simularon dos escenarios: Uno fijando valores paraµy y µx yvariando las varianzasσx y σy, la segunda fue de manera inversa. Los resultados obtenidosno son presentados por no aportar información alguna de no ser que lastasas de rechazose mantienen por debajo del 5 % solo para los casos dondeΘ = (1,1,1,1), lo cual es com-prensible ya que los valores críticos tomados son, justamente, sobre estos valores parametrales.

58 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

−0.05 0 0.05 0.1 0.15 0.2 0.25 0.30

5

10

15

0 0.05 0.1 0.15 0.2 0.250

0.2

0.4

0.6

0.8

1

x

F(x

)

Distribución muestralDistribución asintótica

Distribución muestralDistribución asintótica

Figura 3.6: Panel superior: Distribución asintótica para laFGC bajo dos procesos independien-tes I(1) con deriva. Panel inferior: Función de distribución acumulada.

Lo anterior es de esperarse debido al problema de no contar con una distribución pivotal,de hecho, la tabla (3.7) sirve para constatar el radical cambio que impacta sobre los valorescríticos tanto muestrales como asintóticos al momento de hacer un pequeño cambioen losvalores deµx y µy.

3.4. Granger causalidad espuria 59

Nivel (α) 20 % 10 % 5 % 1 %25 0.92 1.47 2.10 3.9950 0.85 1.33 1.80 3.00100 0.84 1.25 1.72 2.77250 0.82 1.24 1.61 2.51500 0.82 1.21 1.60 2.45

1,000 0.81 1.18 1.59 2.4210,000 0.80 1.19 1.58 2.40∞ 0.80 1.19 1.58 2.39

Tabla 3.7: Valores críticos muestrales y asintóticos con (µx = µy = 10 yσx = σy = 1. (10,000repeticiones Monte Carlo).

3.4.1.3. Enfoques secundarios

Como ya se explicó en la sección (3.4.1.2), la distribución (3.7) no sirve para hacerinferencia estadística al no ser pivotal. Dada la necesidad de contar conuna que lo permita, seestudia el problema con enfoques secundarios.

Regresión con constante

Es natural pensar que como el PGD (3.6), al incluir una tendencia determinista, resulta sermás elaborado que (3.2), las especificaciones a estimar3.3y 3.4podrían ya no ser adecuadas,entonces uno podría suponer que para incluir dicha deriva en los procesos, se debería incluiruna constante en dichas regresiones.

Entonces, para el siguiente teorema se incluye dicha constante en las especificaciones. Estoes

yt = γ10+ γ11yt−1 + γ12xt−1 + u1t, (3.8)

yt = γ20+ γ21yt−1 + u2t. (3.9)

Donde la regresión no restringida está dada por3.8y la restringida por3.9.

Teorema 3.4.Granger causalidad bajo procesos I(1) con deriva y regresiones con constante.Seanxt y yt dos procesos estocásticos I(1) con deriva generados por (3.6). Al estimar las regre-siones (3.8) y (3.9), y calcular la estadísticaFGC. Entonces, conformeT → ∞

FGCd→ −µx σ

2y ϑ1 − µy σx σy ϑ2 − 4σ2

y Wy(1)∫

Wy

µ2x σ

2y ϑ3 + µx µy σx σy ϑ4 + µ

2y σ

2x ϑ5

(3.10)

60 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

donde

ϑ1 = 12

(

[

Wy(1)]2 − 1

)

− 6∫

Wy

r Wy,

ϑ2 =∫

Wx dWy +∫

Wx

[

2 Wy(1)+∫

Wy

]

+∫

r Wx

[∫

Wy − 6Wy(1)]

,

ϑ3 = 4(∫

Wy

)2 −∫

W2y − 12

Wy

rWy + 12(∫

rWy

)2,

ϑ4 = 12∫

wWx

(∫

Wy − 2∫

rWy

)

− 4∫

Wx

(

2∫

Wy − 3∫

rWy

)

y

ϑ5 = 4(∫

Wx

)2 −∫

W2x − 12

W− x∫

rWx + 12(∫

rWx

)2.

Prueba en apéndice (C), sección (C.3).

A pesar de que el teorema (3.4) implica queFGC = Op(1) no se puede evitar el hechode que la distribución no sea asintótica pivotal, por lo que este procedimiento no mejora elpresentado en la sección (3.4.1.2).

Regresiones con variables filtradas

Aquí se considera que el hecho de que al filtrar las variables por la siguiente regresiónzt = α + βt + uzt, entonces los residuales estimados siguen un proceso de raíz unitaria sinderiva. Debido a que la prueba funciona muy bien bajo procesos de raízunitaria sin deriva,entonces se espera es que al momento de filtrar las variables vuelva a funcionar la Grangercausalidad.

Teorema 3.5.Granger causalidad bajo procesos I(1) con deriva y filtro en el proceso.Seazt, con z = x, y, un proceso estocástico I(1) con deriva generado por (3.6), entonces alfiltrar el proceso mediante ˆuzt = zt − α − βt por el método de mínimos cuadrados y al estimarlas regresiones (3.3) y (3.4), y calcular la estadísticaFGC. Entonces, conformeT → ∞

T−1FGCd→ −

µ2y

[∫

Wx ϑ1 +∫

rWx ϑ2 − 2∫

Wy

WxWy

]

σ3yσx

[

W2y − 3

(∫

rWy

)2] [

µ2y

[

4(∫

Wy

)2ϑ3 + 4

W2yϑ4 + 12

(∫

rWy

)2ϑ5 +

WxWyϑ6

]

+ σ2yϑ7

] (3.11)

donde

ϑ1 = 2∫

W2y − 6

(∫

rWy

)2,

ϑ2 = −3∫

W2y + 6

rWy

Wy,

ϑ3 =∫

W2x − 3

(∫

rWx

)2,

ϑ4 = 4(∫

Wy

)2[

W2x − 3

(∫

rWx

)2]

+∫

W2y

[

4(∫

Wx

)2 −∫

W2x

(

1+ 12∫

rWy

)

−12∫

Wx

rWx

(

1− 2∫

rWy

)

+ 12(∫

rWx

)2]

,

3.4. Granger causalidad espuria 61

ϑ5 =∫

W2x −

(∫

Wx

)2,

ϑ6 = −8∫

Wx

Wy + 12∫

rWx

Wy + 12∫

Wx

rWy +∫

WxWy y

ϑ7 = −4∫

W2x

[

W2y − 3

(∫

rWy

)2]

+ 12(∫

rWx

)

[

(∫

rWx

)2 ∫

W2y − 2

rWy

WxWy

]

+4(∫

WxWy

)2.

Prueba en apéndice (C), sección (C.4).

Como se puede observar la distribución no estándar (3.11) tampoco resulta ser pivotal.

Regresiones con variables centradas

Finalmente se considera el hecho de centrar las variables antes de correr la Granger cau-salidad. Esperando que así se pueda romper el efecto de la deriva. Sin embargo, mediante unapequeña simulación, es posible darse cuenta que la forma de la distribución se mueve antepequeños cambios en los parámetros de los PGD’s, como se muestra en la figura (3.7).

−5 0 5 10 15 20 25 300

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

µ

y=µ

x=1 y σ

x=σ

y=1

µy=µ

x=0.5 y σ

x=σ

y=1

µy=µ

x=1 y σ

x=σ

y=2

µy=µ

x=0.5 y σ

x=σ

y=2

Figura 3.7: Simulación de la distribución muestral para distintos valores enµx, µy, σx, σy

62 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

Usando este enfoque, se debe considerar que un proceso I(1) conderivazt = z0 + µzt + ξz,tposee una media asintótica ¯z

a= Tµz

12 entonces el proceso generador de datos es

z∗t = z0 + µzt + ξzt − 12µzT. Luego se estiman las regresiones (3.3) y (3.4), y se calcula

el estadísticoFGC para obtener la figura (3.7). Se puede probar, de igual forma, que ladistribución asintótica no estándar de este problema no es pivotal.

De esta manera, el problema de encontrar una distribución asintótica pivotal para la esta-dísticaFGC no ha podido ser solventado, a pesar de las enfoques ya comentados; por ello, elinvestigador debe percatarse que calcular dicha prueba en presenciade procesos I(1) con derivalo llevará a realizar pésimas inferencias acerca de la dirección causal.

Conclusiones

El presente trabajo ha sido construido en dos facetas; la primera que comprende los doscapítulos iniciales y que representa un esfuerzo en inquirir de manera tan minuciosa comoes posible, esperando sea poco hirsuta, la literatura necesaria para dar un cuerpo completo ala Granger causalidad, congregando aspectos tanto filosóficos como econométricos, con lafinalidad de poder allegar este poderoso resultado matemático a todos los lectores interesados,percibiendo de antemano que dicho resultado no está desterrado solamentea fines económicos.

Por otro lado, se ha presentado la idea original de la Granger causalidad, que propusosu autor, con el objetivo de poder construirla formalmente, para lo que hasido inexora-blemente necesario tener en cuenta toda una gama de definiciones y resultados de teoríaespectral de procesos estocásticos. Aunque resulte ser por momentos un galimatías muyespinoso de disuadir. No obstante, a pesar del hecho de que dicha teoría matemática pudie-ra crear una animadversión, la realidad es que la curva de aprendizaje puede ser vencidaen poco tiempo, al menos lo necesario para disfrutar del artículo seminal deClive W.J. Granger.

Por otro lado, la segunda parte de la tesis, capítulo3, pretende estudiar un problema asazimportante en la econometría teórica y la economía aplicada; esto es analizar a detalle elcomportamiento de la Granger causalidad, usando la estadísticaFGC, en presencia de procesosde raíces unitarias. Huelga ya decir la necesidad de estudiar dichos procesos.

Se ha demostrado la existencia de una Granger causalidad espuria cuando las series detiempoxt y yt están gobernadas por procesos de raíces unitarias con o sin deriva,lo que ostentaun peligro real al momento de querer probar una parte esencial de la exogeneidad fuerte,necesaria para realizar pronosticos sin tener que preocuparse por laexistencia de procesos deretroalimentación entre las variables y posteriormente en la elaboración de política económica.Los resultados obtenidos advierten esta preocupación.

De manera paralela, se han obtenido diversas distribuciones no estándar paraFGC cuandolas variables son procesos I(1) con o sin deriva, no obstante solo se ha podido encontrar unadistribución pivotal para el segundo caso, para el que se han ofrecido sus propiedades enmuestras finitas para el investigador que las requiera.

Con respecto a la estadísticaFGC en presencia de procesos I(1) con deriva, se han estudiadocuatro diferentes enfoques con el objetivo de poder solventar la disyuntiva que manifiesta elno contar con una distribución pivotal, sin haberse logrado, lo que hastael momento deberíaalertar al investigador en el uso de la Granger causalidad bajo estas condiciones.

64 Capítulo 3. Granger Causalidad bajo procesos de raíz unitaria

Es indispensable mencionar que la investigación actual abre posibilidades de perfecciona-miento, iniciando con la necesidad de tener que encontrar una distribución asintótica deseablepara poder realizar inferencia estadística para el último caso. Por otro lado, hay un resultadoevidentemente necesario para continuar con esta línea de investigación y esel estudiar elcomportamiento deFGC en presencia de procesos I(1) con deriva más quiebre. Ello es debidoa los resultados obtenidos en la tabla (3.1). En este trabajo no se ha estudiado debido a laslimitaciones encontradas con los procesos I(1) con deriva.

Una posible extensión del presente trabajo es resolver los problemas acaecidos medianteel uso de técnicas de remuestreo, como pudieran ser usando métodos de bootstrap o desubmuestreo. Dichas ideas pudieran ser parte de futuros trabajos personales.

A A

Pruebas matemáticas diversas

A.1. Teorema de Herglotz (1.1)

Si γ(·) tiene la representación (1.15) entonces, por propiedades mencionadas es funciónhermitiana. Además siar ∈ C y tr ∈ Z, r = 1, . . . ,n, entonces

∑nr,s=1 ar γ (tr − ts) as =

∫ π

−π∑n

r,s=1 ar as exp[iω (tr − ts)] dF(ω) =∫ π

−π∣

∑nr=1 ar exp[iωtr ]

2dF(ω) ≤ 0, tal queγ(·) es

también definida no negativa y función de autocovarianza.

De manera inversa, supóngase queγ(·) es una función no negativa en los enteros. Entoncessi se define

fN(ω) = 12πN

∑Nr,s=1 e−iωrγ(r − s)eiωs

= 12πN

|m|<N (N − |m|) e−iωmγ(m),

es inmediato ver que debido a la no negatividad deγ(·) que fN(ω) ≤ 0 ∀ω ∈ (−π, π].

SeaFN(·) la función de distribución correspondiente a la densidadfN(·) I(−π,π](·). EntoncesFN(λ) = 0, λ ≤ −π, FN(λ) = FN(π), λ ≥ −π, y

FN(λ) =∫ λ

−πfN(ω) dω, −π ≤ λ ≤ π.

Entonces para cualquier enteroh,∫ π

−πeiωk dFN(ω) =

12π

|m|<N

(

1− |m|N

)

γ(m)∫ π

−πeiω(k−m) d(ω),

es decir∫ π

−πeiωk dFN(ω) =

(

1− |k|N)

γ(k), |k| < N

0, en otro caso(1.1)

ComoFN(π) =∫ π

−π dFN(ω) ≤ γ(0) < ∞ ∀N, entonces se puede aplicar el Teorema de Hellypara deducir que hay una función de distribuciónF y una subsucesión

FNk

de la sucesiónFN tal que para cualquier función continuag acotada,

∫ π

−πg(ω)dFNk(ω)→

∫ π

−πg(ω)dF(ω) conformek→ ∞. (1.2)

66 Apéndice A. Pruebas matemáticas diversas

ReemplazandoN por Nk en (1.1) y conk→ ∞, se obtiene

γ(k) =∫ π

−πeiωk dFω,

el cual es la representación espectral requerida deγ(·)

A.2. Teorema (1.2)

∫ π

−π eiωk f (ω) d(ω) =∫ π

−π12π

∑∞n=−∞ ei(h−n)ω K(n) dω

= 12π

∑∞n=−∞ K(n)

∫ π

−π ei(h−n)ω d(ω)

= K(h),

como el único elemento no cero es el primero para el cualn = h. Por el Teorema de Fubini setiene

∫ π

−π(1/2π)∑∞

n=−∞∣

∣eiω(h−n)K(n)∣

∣ d(ω) < ∞ puesto que∑∞

n=−∞ |K(n)| < ∞.

A.3. Corolario (1.1)

Primero supóngase que se tiene una función de autocovarianzaγ(·). Comoγ(·) es definidano negativa y de sumabilidad absoluta,

0 ≤ fN(λ) = 12πN

∑Nr,s=1 e−iωrγ(r − s)eiωs

= 12πN

|m|<N

(

1− |m|N

)

eiωmγ(m)

→ f (λ) conformeN→ ∞

De manera contrariaf ≤ 0, −π ≤ λπ. También debido al teorema (1.2), se tieneγ(k) =∫ π

−π eiωk f (ω) d(ω), k = 0,±1, . . .. Entoncesf (·) es la función de densidad espectral deγ(·).Por otra parte si se asume solamente queγ(·) es de sumabilidad absoluta, el teorema (1.2)permite escribirγ(k) =

∫ π

−π eiωk f (ω) d(ω). Si f (ω) ≤ 0 entonces esta integral está de la forma

de la ecuación (1.15) con F(λ) =∫ λ

−π f (ω) d(ω). Esto implica queγ(·) es una función deautocovarianza con función de densidad espectralf .

A.4. Teorema (1.3)

xt es un proceso estacionario con media cero y función de autocovarianza

E (xt+hxt) =∞∑

j,k=−∞Ψ jΨkγx(h− j + k), h = 0,±1, . . . .

A.5. Densidad espectral del proceso ARMA(p,q) (1.4) 67

Usando la representación espectral deγx(·) se puede escribir

γx(h) =∑∞

j,k=∞Ψ jΨk

∫ π

−π ei(h− j+k)ω dFx(ω)

=∫ π

−π(

∑∞j=∞Ψ je−i jω

) (

∑∞j=∞ Ψkeihω

)

dFx(ω)

=∫ π

−π eihω∣

∑∞j=∞Ψ je−i jω

2dFx(ω),

lo cual inmediatamente identificaFx(·) definido por la ecuación (1.19) como la función dedistribución espectral dext.

A.5. Densidad espectral del proceso ARMA(p,q) (1.4)

La solución estacionaria del proceso ARMA(p,q) (1.21) puede ser escrito comoxt =∑∞

j=−∞Ψ jzt− j , donde∑∞

j−∞∣

∣Ψ j

∣ < ∞. Comozt tiene densidad espectralσ2/2π, el teorema(1.3) implica quext tiene una densidad espectral. Entonces siκt = φ(B)xt = θ(B)zt y aplican-do el teorema (1.3), se obtiene

fκ(λ) =∣

φ(

e−iλ)

2fx(λ) =

θ(

e−iλ)

2fz(λ). (1.3)

Comoφ(

e−iλ)

, 0 para todoλ ∈ [−π, π] se puede dividir (1.3) por∣

φ(

e−iλ)

2para obtener la

ecuación (1.22).

A.6. Regresión de raíz unitaria (3.1)

a) Obsérvese quen−1/2 ∑nt=1 y2

t−1 puede reescribirse en términos deWn(a − t − 1) ≡n1/2yt−1/σ = n1/2 ∑t−1

s=1 ǫs/σ, donde at−1 = (t − 1)/n, tal que n2 ∑nt=1 y2

t−1 =

σ2n−1 ∑nt=1 Wn(at−1)2. Debido a queWn(a) es constante para (t − 1)/n ≤ a < t/n, se tiene

que

n−1 ∑nt=1 Wn(at−1)2 =

∑nt=1

∫ t/n

(t−1)/nWn(a)2 da

=∫ 10

Wn(a)2 da

Debido al teorema de mapeo continuo se tieneh (Wn) =∫ 10

Wn(a)2 da. Por lo que se sigue que

h (Wn)→ σ2∫ 10

W(a)2 da, como se había afirmado.

b) Debido a queyt−1 = σn1/2 Wn(at−1), se tiene

n−1n

t=1

yt−1ǫt = σn−1/2 Wn(at−1)ǫt.

68 Apéndice A. Pruebas matemáticas diversas

AhoraWn(at) =Wn(at−1) + n−1/2ǫt/σ, por lo que

Wn(at)2 =Wn(at−1)2 + n−1ǫ2t /σ

2 + 2n−1/2Wn(at−1)ǫt/σ.

Entoncesσn−1/2Wn(at−1)ǫt = (1/2)σ2(

Wn(at)2 −Wn(at−1)2)

− (1/2)n−1ǫ2t .

Sustituyendo se obtiene

n−1 ∑nt=1 yt−1ǫt = (σ2/2)

∑nt=1 Wn(at)2 −Wn(at−1)2 − (1/2)n−1 ∑n

t=1 ǫ2t

= (σ2/2)Wn(1)2 − (1/2)n−1 ∑nt=1 ǫ

2t .

Por el teorema de límite central funcional se tiene queWn(1)2 → W(1)2 y por tanto

n−1 ∑nt=1 ǫ

2t

p→ τ2. Se sigue, entonces, que

n−1 ∑

t=1 nyt−1ǫt → (σ2/2)W(1)2 − τ2/2

= (σ2/2)(W(1)2 − τ2/σ2).

c) Se tiene

n(

βn − 1)

= n[

(

∑nt=1 y2

t−1

)−1 ∑nt=1 yt−1yt −

(

∑nt=1 y2

t−1

)−1 ∑nt=1 y2

t−1

]

= n(

∑nt=1 y2

t−1

)−1 [

∑nt=1 yt−1 (yt − yt−1)

]

=(

n2 ∑nt=1 y2

t−1

)−1n−1 ∑n

t=1 yt−1ǫt.

Por a)y b) se obtiene:

n(

βn − 1)

=(

n2 ∑nt=1 y2

t−1

)−1n−1 ∑n

t=1 yt−1ǫt

→(

∫ 10

W(a)2 da)−1

(1/2)(

W(1)2 − τ2/σt

)

.

d) Se tiene De c), se tiene quen(

βn − 1)

= Op(1). Entonces,βn − 1 = n−1(

n(

βn − 1))

=

o(1)Op(1) = op(1), como se había afirmado.

A B

Pruebas del capítulo2

A continuación se presenta una forma de obtener los resultados probabilísticos de losprocesos generadores de datos (2.1) y las especificaciones del teorema (2.3) y corolario (2.1).

La demostración de la prueba se realiza con la ayuda de un programa escrito en Mathema-tica 7. Los programas se desarrollan de la siguiente forma:

1. Se escriben las expresiones asintóticas necesarias para estimar los parámetros de la re-gresión restringida y no restringida.

2. Vía los métodos usuales de mínimos cuadrados ordinarios(

(X′X)−1X′Y)

, se calculan lasexpresiones asintóticas para la regresión restringida.

3. Usando las expresiones obtenidas desde 2) se calcula la expresión asintótica de la sumade residuales al cuadrado para formar la expresión RRSS.

4. Se repite el paso 2) y 3) pero para la regresión no restringida.

5. Se calcula la expresión asintótica del estadístico F de Granger.

B.1. Prueba de los teoremas (2.1), (2.2) y (2.3)

ClearAll;ClearAll;ClearAll;

(*Σxt−1*) Sxt1 = Mx ∗ T + Uxt1 ∗ T12 ;(*Σxt−1*) Sxt1 = Mx ∗ T + Uxt1 ∗ T12 ;(*Σxt−1*) Sxt1 = Mx ∗ T + Uxt1 ∗ T12 ;

(*Σzt−1*) Szt1= Mz ∗ T + Uzt1∗ T12 ;(*Σzt−1*) Szt1= Mz ∗ T + Uzt1∗ T12 ;(*Σzt−1*) Szt1= Mz ∗ T + Uzt1∗ T12 ;

(*Σyt*)Syt = By1 ∗ Sxt1+ By2 ∗ Szt1+(

Uyt1 ∗ T12 + uy

)

;(*Σyt*)Syt = By1 ∗ Sxt1+ By2 ∗ Szt1+(

Uyt1 ∗ T12 + uy

)

;(*Σyt*)Syt = By1 ∗ Sxt1+ By2 ∗ Szt1+(

Uyt1 ∗ T12 + uy

)

;

(*Σxt−2*) Sxt2 = Mx ∗ T +(

Uxt1 ∗ T12 − ux1

)

;(*Σxt−2*) Sxt2 = Mx ∗ T +(

Uxt1 ∗ T12 − ux1

)

;(*Σxt−2*) Sxt2 = Mx ∗ T +(

Uxt1 ∗ T12 − ux1

)

;

(*Σzt−2*) Szt2= Mz ∗ T +(

Uzt1∗ T12 − uz1

)

;(*Σzt−2*) Szt2= Mz ∗ T +(

Uzt1∗ T12 − uz1

)

;(*Σzt−2*) Szt2= Mz ∗ T +(

Uzt1∗ T12 − uz1

)

;

(*Σyt−1*) Syt1 = By1 ∗ Sxt2+ By2 ∗ Szt2+ Uyt1 ∗ T12 ;(*Σyt−1*) Syt1 = By1 ∗ Sxt2+ By2 ∗ Szt2+ Uyt1 ∗ T12 ;(*Σyt−1*) Syt1 = By1 ∗ Sxt2+ By2 ∗ Szt2+ Uyt1 ∗ T12 ;

(*Σxt−2Ux,t−1B1*)Sxt2Uxt1= Mx ∗ Uxt1 ∗ T1/2 + Uxt2Uxt1∗ T1/2;(*Σxt−2Ux,t−1B1*)Sxt2Uxt1= Mx ∗ Uxt1 ∗ T1/2 + Uxt2Uxt1∗ T1/2;(*Σxt−2Ux,t−1B1*)Sxt2Uxt1= Mx ∗ Uxt1 ∗ T1/2 + Uxt2Uxt1∗ T1/2;

(*Σzt−2Ux,t−1B2*)Szt2Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uzt2Uxt1∗ T1/2;(*Σzt−2Ux,t−1B2*)Szt2Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uzt2Uxt1∗ T1/2;(*Σzt−2Ux,t−1B2*)Szt2Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uzt2Uxt1∗ T1/2;

(*Σyt−1Ux,t−1A1*)Syt1Uxt1= By1 ∗ Sxt2Uxt1+ By2 ∗ Szt2Uxt1+ Uxt1Uyt1∗ T1/2;(*Σyt−1Ux,t−1A1*)Syt1Uxt1= By1 ∗ Sxt2Uxt1+ By2 ∗ Szt2Uxt1+ Uxt1Uyt1∗ T1/2;(*Σyt−1Ux,t−1A1*)Syt1Uxt1= By1 ∗ Sxt2Uxt1+ By2 ∗ Szt2Uxt1+ Uxt1Uyt1∗ T1/2;

(*Σxt−1yt−1*)Sxt1yt1= Mx ∗ Syt1+ Syt1Uxt1;(*Σxt−1yt−1*)Sxt1yt1= Mx ∗ Syt1+ Syt1Uxt1;(*Σxt−1yt−1*)Sxt1yt1= Mx ∗ Syt1+ Syt1Uxt1;

(*Σxt−2Ux,t−1B1*)Sxt2Uzt1= Mx ∗ Uzt1∗ T1/2 + Uxt2Uzt1∗ T1/2;(*Σxt−2Ux,t−1B1*)Sxt2Uzt1= Mx ∗ Uzt1∗ T1/2 + Uxt2Uzt1∗ T1/2;(*Σxt−2Ux,t−1B1*)Sxt2Uzt1= Mx ∗ Uzt1∗ T1/2 + Uxt2Uzt1∗ T1/2;

(*Σzt−2Ux,t−1B2*)Szt2Uzt1= Mz ∗ Uzt1∗ T1/2 + Uzt2Uzt1∗ T1/2;(*Σzt−2Ux,t−1B2*)Szt2Uzt1= Mz ∗ Uzt1∗ T1/2 + Uzt2Uzt1∗ T1/2;(*Σzt−2Ux,t−1B2*)Szt2Uzt1= Mz ∗ Uzt1∗ T1/2 + Uzt2Uzt1∗ T1/2;

70 Apéndice B. Pruebas del capítulo2

(*Σyt−1Uz,t−1A1*)Syt1Uzt1= By1 ∗ Sxt2Uzt1+ By2 ∗ Szt2Uzt1+ Uyt1Uzt1∗ T1/2;(*Σyt−1Uz,t−1A1*)Syt1Uzt1= By1 ∗ Sxt2Uzt1+ By2 ∗ Szt2Uzt1+ Uyt1Uzt1∗ T1/2;(*Σyt−1Uz,t−1A1*)Syt1Uzt1= By1 ∗ Sxt2Uzt1+ By2 ∗ Szt2Uzt1+ Uyt1Uzt1∗ T1/2;

(*Σyt−1zt−1*)Syt1zt1= Mz ∗ Syt1+ Syt1Uzt1;(*Σyt−1zt−1*)Syt1zt1= Mz ∗ Syt1+ Syt1Uzt1;(*Σyt−1zt−1*)Syt1zt1= Mz ∗ Syt1+ Syt1Uzt1;

(*Σxt−2Ux,t−2(C1)*)Sxt2Uxt2=(

Mx ∗(

Uxt1 ∗ T1/2 − ux1)

+ U2xt1∗ T − u2x1)

;(*Σxt−2Ux,t−2(C1)*)Sxt2Uxt2=(

Mx ∗(

Uxt1 ∗ T1/2 − ux1)

+ U2xt1∗ T − u2x1)

;(*Σxt−2Ux,t−2(C1)*)Sxt2Uxt2=(

Mx ∗(

Uxt1 ∗ T1/2 − ux1)

+ U2xt1∗ T − u2x1)

;

(*Σzt−2Ux,t−2(C2)*)Szt2Uxt2= Mz ∗(

Uxt1 ∗ T1/2 − ux1)

+ Uxt2Uzt2∗ T1/2;(*Σzt−2Ux,t−2(C2)*)Szt2Uxt2= Mz ∗(

Uxt1 ∗ T1/2 − ux1)

+ Uxt2Uzt2∗ T1/2;(*Σzt−2Ux,t−2(C2)*)Szt2Uxt2= Mz ∗(

Uxt1 ∗ T1/2 − ux1)

+ Uxt2Uzt2∗ T1/2;

(*Σxt−2Uz,t−2(C3)*)Sxt2Uzt2= Mx ∗(

Uzt1∗ T1/2 − uz1)

+ Uxt2Uzt2∗ T1/2;(*Σxt−2Uz,t−2(C3)*)Sxt2Uzt2= Mx ∗(

Uzt1∗ T1/2 − uz1)

+ Uxt2Uzt2∗ T1/2;(*Σxt−2Uz,t−2(C3)*)Sxt2Uzt2= Mx ∗(

Uzt1∗ T1/2 − uz1)

+ Uxt2Uzt2∗ T1/2;

(*Σzt−2Uz,t−2(C4)*)Szt2Uzt2=(

Mz ∗(

Uzt1∗ T1/2 − uz1)

+ U2zt1∗ T − u2z1)

;(*Σzt−2Uz,t−2(C4)*)Szt2Uzt2=(

Mz ∗(

Uzt1∗ T1/2 − uz1)

+ U2zt1∗ T − u2z1)

;(*Σzt−2Uz,t−2(C4)*)Szt2Uzt2=(

Mz ∗(

Uzt1∗ T1/2 − uz1)

+ U2zt1∗ T − u2z1)

;

(*Σyt−1Ux,t−2(B1)*)Syt1Uxt2= By1 ∗ Sxt2Uxt2+ By2 ∗ Szt2Uxt2+ Uxt2Uyt1∗ T1/2;(*Σyt−1Ux,t−2(B1)*)Syt1Uxt2= By1 ∗ Sxt2Uxt2+ By2 ∗ Szt2Uxt2+ Uxt2Uyt1∗ T1/2;(*Σyt−1Ux,t−2(B1)*)Syt1Uxt2= By1 ∗ Sxt2Uxt2+ By2 ∗ Szt2Uxt2+ Uxt2Uyt1∗ T1/2;

(*Σyt−1Uz,t−2(B2)*)Syt1Uzt2= By1 ∗ Sxt2Uzt2+ By2 ∗ Szt2Uzt2+ Uzt2Uyt1∗ T1/2;(*Σyt−1Uz,t−2(B2)*)Syt1Uzt2= By1 ∗ Sxt2Uzt2+ By2 ∗ Szt2Uzt2+ Uzt2Uyt1∗ T1/2;(*Σyt−1Uz,t−2(B2)*)Syt1Uzt2= By1 ∗ Sxt2Uzt2+ By2 ∗ Szt2Uzt2+ Uzt2Uyt1∗ T1/2;

(*Σxt−2Uy,t−1(B3)*)Sxt2Uyt1= Mx ∗ Uyt1 ∗ T1/2 + Uxt2Uyt1∗ T1/2;(*Σxt−2Uy,t−1(B3)*)Sxt2Uyt1= Mx ∗ Uyt1 ∗ T1/2 + Uxt2Uyt1∗ T1/2;(*Σxt−2Uy,t−1(B3)*)Sxt2Uyt1= Mx ∗ Uyt1 ∗ T1/2 + Uxt2Uyt1∗ T1/2;

(*Σzt−2Uy,t−1(B4)*)Szt2Uyt1= Mz ∗ Uyt1 ∗ T1/2 + Uzt2Uyt1∗ T1/2;(*Σzt−2Uy,t−1(B4)*)Szt2Uyt1= Mz ∗ Uyt1 ∗ T1/2 + Uzt2Uyt1∗ T1/2;(*Σzt−2Uy,t−1(B4)*)Szt2Uyt1= Mz ∗ Uyt1 ∗ T1/2 + Uzt2Uyt1∗ T1/2;

(*Σyt−1xt−2(A1)*)Sxt2yt1= Mx ∗ Syt1+ Syt1Uxt2;(*Σyt−1xt−2(A1)*)Sxt2yt1= Mx ∗ Syt1+ Syt1Uxt2;(*Σyt−1xt−2(A1)*)Sxt2yt1= Mx ∗ Syt1+ Syt1Uxt2;

(*Σyt−1zt−2(A2)*)Syt1zt2= Mz ∗ Syt1+ Syt1Uzt2;(*Σyt−1zt−2(A2)*)Syt1zt2= Mz ∗ Syt1+ Syt1Uzt2;(*Σyt−1zt−2(A2)*)Syt1zt2= Mz ∗ Syt1+ Syt1Uzt2;

(*Σyt−1Uy,t−1(A3)*)Syt1Uyt1= By1 ∗ Sxt2Uyt1+ By2 ∗ Szt2Uyt1+ U2yt1∗ T;(*Σyt−1Uy,t−1(A3)*)Syt1Uyt1= By1 ∗ Sxt2Uyt1+ By2 ∗ Szt2Uyt1+ U2yt1∗ T;(*Σyt−1Uy,t−1(A3)*)Syt1Uyt1= By1 ∗ Sxt2Uyt1+ By2 ∗ Szt2Uyt1+ U2yt1∗ T;

(*Σy2t−1*)S2yt1= By1 ∗ Sxt2yt1+ By2 ∗ Syt1zt2+ Syt1Uyt1;(*Σy2t−1*)S2yt1= By1 ∗ Sxt2yt1+ By2 ∗ Syt1zt2+ Syt1Uyt1;(*Σy2t−1*)S2yt1= By1 ∗ Sxt2yt1+ By2 ∗ Syt1zt2+ Syt1Uyt1;

(*Σxt−1Ux,t−1(C1)*)Sxt1Uxt1= Mx ∗ Uxt1 ∗ T1/2 + U2xt1∗ T;(*Σxt−1Ux,t−1(C1)*)Sxt1Uxt1= Mx ∗ Uxt1 ∗ T1/2 + U2xt1∗ T;(*Σxt−1Ux,t−1(C1)*)Sxt1Uxt1= Mx ∗ Uxt1 ∗ T1/2 + U2xt1∗ T;

(*Σzt−1Ux,t−1(C2)*)Szt1Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uxt1Uzt1∗ T1/2;(*Σzt−1Ux,t−1(C2)*)Szt1Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uxt1Uzt1∗ T1/2;(*Σzt−1Ux,t−1(C2)*)Szt1Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uxt1Uzt1∗ T1/2;

(*Σxt−1Uz,t−1(C3)*)Sxt1Uzt1= Mx ∗ Uzt1∗ T1/2 + Uxt1Uzt1∗ T1/2;(*Σxt−1Uz,t−1(C3)*)Sxt1Uzt1= Mx ∗ Uzt1∗ T1/2 + Uxt1Uzt1∗ T1/2;(*Σxt−1Uz,t−1(C3)*)Sxt1Uzt1= Mx ∗ Uzt1∗ T1/2 + Uxt1Uzt1∗ T1/2;

(*Σzt−1Uz,t−1(C4)*)Szt1Uzt1= Mz ∗ Uzt1∗ T1/2 + U2zt1∗ T;(*Σzt−1Uz,t−1(C4)*)Szt1Uzt1= Mz ∗ Uzt1∗ T1/2 + U2zt1∗ T;(*Σzt−1Uz,t−1(C4)*)Szt1Uzt1= Mz ∗ Uzt1∗ T1/2 + U2zt1∗ T;

(*ΣytUx,t−1(B1)*)SytUxt1= By1 ∗ Sxt1Uxt1+ By2 ∗ Szt1Uxt1+ Uxt1Uyt ∗ T1/2;(*ΣytUx,t−1(B1)*)SytUxt1= By1 ∗ Sxt1Uxt1+ By2 ∗ Szt1Uxt1+ Uxt1Uyt ∗ T1/2;(*ΣytUx,t−1(B1)*)SytUxt1= By1 ∗ Sxt1Uxt1+ By2 ∗ Szt1Uxt1+ Uxt1Uyt ∗ T1/2;

(*ΣytUz,t−1(B2)*)SytUzt1= By1 ∗ Sxt1Uzt1+ By2 ∗ Szt1Uzt1+ Uzt1Uyt∗ T1/2;(*ΣytUz,t−1(B2)*)SytUzt1= By1 ∗ Sxt1Uzt1+ By2 ∗ Szt1Uzt1+ Uzt1Uyt∗ T1/2;(*ΣytUz,t−1(B2)*)SytUzt1= By1 ∗ Sxt1Uzt1+ By2 ∗ Szt1Uzt1+ Uzt1Uyt∗ T1/2;

(*Σxt−1Uy,t(B3)*)Sxt1Uyt= Mx ∗(

Uyt1 ∗ T1/2 + uy)

+ Uxt1Uyt ∗ T1/2;(*Σxt−1Uy,t(B3)*)Sxt1Uyt= Mx ∗(

Uyt1 ∗ T1/2 + uy)

+ Uxt1Uyt ∗ T1/2;(*Σxt−1Uy,t(B3)*)Sxt1Uyt= Mx ∗(

Uyt1 ∗ T1/2 + uy)

+ Uxt1Uyt ∗ T1/2;

(*Σzt−1Uy,t(B4)*)Szt1Uyt= Mz ∗(

Uyt1 ∗ T1/2 + uy)

+ Uzt1Uyt∗ T1/2;(*Σzt−1Uy,t(B4)*)Szt1Uyt= Mz ∗(

Uyt1 ∗ T1/2 + uy)

+ Uzt1Uyt∗ T1/2;(*Σzt−1Uy,t(B4)*)Szt1Uyt= Mz ∗(

Uyt1 ∗ T1/2 + uy)

+ Uzt1Uyt∗ T1/2;

(*Σyt−1xt−2(A1)*)Sxt1yt = Mx ∗ Syt+ SytUxt1;(*Σyt−1xt−2(A1)*)Sxt1yt = Mx ∗ Syt+ SytUxt1;(*Σyt−1xt−2(A1)*)Sxt1yt = Mx ∗ Syt+ SytUxt1;

(*Σyt−1zt−2(A2)*)Sytzt1= Mz ∗ Syt+ SytUzt1;(*Σyt−1zt−2(A2)*)Sytzt1= Mz ∗ Syt+ SytUzt1;(*Σyt−1zt−2(A2)*)Sytzt1= Mz ∗ Syt+ SytUzt1;

(*ΣytUy,t (A3)*)SytUyt = By1 ∗ Sxt1Uyt+ By2 ∗ Szt1Uyt+ (U2yt1∗ T + u2y);(*ΣytUy,t (A3)*)SytUyt = By1 ∗ Sxt1Uyt+ By2 ∗ Szt1Uyt+ (U2yt1∗ T + u2y);(*ΣytUy,t (A3)*)SytUyt = By1 ∗ Sxt1Uyt+ By2 ∗ Szt1Uyt+ (U2yt1∗ T + u2y);

(*Σy2t *)S2yt = By1 ∗ Sxt1yt+ By2 ∗ Sytzt1+ SytUyt;(*Σy2t *)S2yt = By1 ∗ Sxt1yt+ By2 ∗ Sytzt1+ SytUyt;(*Σy2t *)S2yt = By1 ∗ Sxt1yt+ By2 ∗ Sytzt1+ SytUyt;

(*Σxt−1Ux,t−1(B1)*)Sxt1Uxt1= Mx ∗ Uxt1 ∗ T1/2 + U2xt1∗ T1;(*Σxt−1Ux,t−1(B1)*)Sxt1Uxt1= Mx ∗ Uxt1 ∗ T1/2 + U2xt1∗ T1;(*Σxt−1Ux,t−1(B1)*)Sxt1Uxt1= Mx ∗ Uxt1 ∗ T1/2 + U2xt1∗ T1;

(*Σzt−1Ux,t−1(B2)*)Szt1Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uxt1Uzt1∗ T1/2;(*Σzt−1Ux,t−1(B2)*)Szt1Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uxt1Uzt1∗ T1/2;(*Σzt−1Ux,t−1(B2)*)Szt1Uxt1= Mz ∗ Uxt1 ∗ T1/2 + Uxt1Uzt1∗ T1/2;

(*ΣytUx,t−1(A1)*)SytUxt1 = By1 ∗ Sxt1Uxt1+ By2 ∗ Szt1Uxt1+ Uxt1Uyt ∗ T1/2;(*ΣytUx,t−1(A1)*)SytUxt1 = By1 ∗ Sxt1Uxt1+ By2 ∗ Szt1Uxt1+ Uxt1Uyt ∗ T1/2;(*ΣytUx,t−1(A1)*)SytUxt1 = By1 ∗ Sxt1Uxt1+ By2 ∗ Szt1Uxt1+ Uxt1Uyt ∗ T1/2;

(*Σxt−1yt*)Sxt1yt = Mx ∗ Syt+ SytUxt1;(*Σxt−1yt*)Sxt1yt = Mx ∗ Syt+ SytUxt1;(*Σxt−1yt*)Sxt1yt = Mx ∗ Syt+ SytUxt1;

(*Σxt−1Uy,t(B1)*)Sxt1Uyt= Mx ∗(

Uyt1 ∗ T1/2 + uy)

+ Uxt1Uyt ∗ T1/2;(*Σxt−1Uy,t(B1)*)Sxt1Uyt= Mx ∗(

Uyt1 ∗ T1/2 + uy)

+ Uxt1Uyt ∗ T1/2;(*Σxt−1Uy,t(B1)*)Sxt1Uyt= Mx ∗(

Uyt1 ∗ T1/2 + uy)

+ Uxt1Uyt ∗ T1/2;

(*Σzt−1Uy,t(B2)*)Szt1Uyt= Mz ∗(

Uyt1 ∗ T1/2 + uy)

+ Uzt1Uyt∗ T1/2;(*Σzt−1Uy,t(B2)*)Szt1Uyt= Mz ∗(

Uyt1 ∗ T1/2 + uy)

+ Uzt1Uyt∗ T1/2;(*Σzt−1Uy,t(B2)*)Szt1Uyt= Mz ∗(

Uyt1 ∗ T1/2 + uy)

+ Uzt1Uyt∗ T1/2;

(*Σyt−1Uy,t(A1)*)Syt1Uyt = By1 ∗ Sxt1Uyt+ By2 ∗ Szt1Uyt+ Uyt1Uyt ∗ T1/2;(*Σyt−1Uy,t(A1)*)Syt1Uyt = By1 ∗ Sxt1Uyt+ By2 ∗ Szt1Uyt+ Uyt1Uyt ∗ T1/2;(*Σyt−1Uy,t(A1)*)Syt1Uyt = By1 ∗ Sxt1Uyt+ By2 ∗ Szt1Uyt+ Uyt1Uyt ∗ T1/2;

(*Σyt−1yt*)Syt1yt = By1 ∗ Sxt1yt1+ By2 ∗ Syt1zt1+ Syt1Uyt;(*Σyt−1yt*)Syt1yt = By1 ∗ Sxt1yt1+ By2 ∗ Syt1zt1+ Syt1Uyt;(*Σyt−1yt*)Syt1yt = By1 ∗ Sxt1yt1+ By2 ∗ Syt1zt1+ Syt1Uyt;

(*Σx2t−1*)S2xt1= Mx ∗ Sxt1+ Sxt1Uxt1;(*Σx2t−1*)S2xt1= Mx ∗ Sxt1+ Sxt1Uxt1;(*Σx2t−1*)S2xt1= Mx ∗ Sxt1+ Sxt1Uxt1;

(* REGRESION NO RESTRINGIDA*)(* REGRESION NO RESTRINGIDA*)(* REGRESION NO RESTRINGIDA*)

(*yt = αyt−1 + βyxt−1 + UNRT*)(*yt = αyt−1 + βyxt−1 + UNRT*)(*yt = αyt−1 + βyxt−1 + UNRT*)

Myy =

(

S2yt1 Sxt1yt1Sxt1yt1 S2xt1

)

; Vyy =

(

Syt1ytSxt1yt

)

;Myy =

(

S2yt1 Sxt1yt1Sxt1yt1 S2xt1

)

; Vyy =

(

Syt1ytSxt1yt

)

;Myy =

(

S2yt1 Sxt1yt1Sxt1yt1 S2xt1

)

; Vyy =

(

Syt1ytSxt1yt

)

;

B.1. Prueba de los teoremas (2.1), (2.2) y (2.3) 71

iMyy = Inverse[Myy];iMyy = Inverse[Myy];iMyy = Inverse[Myy];

Paramy1= iMyy .Vyy;Paramy1= iMyy .Vyy;Paramy1= iMyy .Vyy;

Py10= Factor[Expand[Extract[Paramy1, 1,1]]];Py10= Factor[Expand[Extract[Paramy1, 1,1]]];Py10= Factor[Expand[Extract[Paramy1, 1,1]]];Py11num= Numerator[Py10];Py11num= Numerator[Py10];Py11num= Numerator[Py10];

Ky1 = Exponent[Py11num,T];Ky1 = Exponent[Py11num,T];Ky1 = Exponent[Py11num,T];

Aynum= Limit[

Expand[

Py11num/

TKy1]

,T → ∞]

;Aynum= Limit[

Expand[

Py11num/

TKy1]

,T → ∞]

;Aynum= Limit[

Expand[

Py11num/

TKy1]

,T → ∞]

;

Py11den= Denominator[Py10];Py11den= Denominator[Py10];Py11den= Denominator[Py10];

Ky2 = Exponent[Py11den,T];Ky2 = Exponent[Py11den,T];Ky2 = Exponent[Py11den,T];

Ayden= Limit[

Expand[

Py11den/

TKy2]

,T → ∞]

;Ayden= Limit[

Expand[

Py11den/

TKy2]

,T → ∞]

;Ayden= Limit[

Expand[

Py11den/

TKy2]

,T → ∞]

;

Aypar= Factor[

Expand[

(Aynum/Ayden)∗ TKy1

TKy2

]]

Aypar= Factor[

Expand[

(Aynum/Ayden)∗ TKy1

TKy2

]]

Aypar= Factor[

Expand[

(Aynum/Ayden)∗ TKy1

TKy2

]]

Py20= Factor[Expand[Extract[Paramy1, 2,1]]];Py20= Factor[Expand[Extract[Paramy1, 2,1]]];Py20= Factor[Expand[Extract[Paramy1, 2,1]]];Py22num= Numerator[Py20];Py22num= Numerator[Py20];Py22num= Numerator[Py20];

Ky3 = Exponent[Py22num,T];Ky3 = Exponent[Py22num,T];Ky3 = Exponent[Py22num,T];

Bynum= Limit[

Expand[

Py22num/

TKy3]

,T → ∞]

;Bynum= Limit[

Expand[

Py22num/

TKy3]

,T → ∞]

;Bynum= Limit[

Expand[

Py22num/

TKy3]

,T → ∞]

;

Py22den= Denominator[Py20];Py22den= Denominator[Py20];Py22den= Denominator[Py20];

Ky4 = Exponent[Py22den,T];Ky4 = Exponent[Py22den,T];Ky4 = Exponent[Py22den,T];

Byden= Limit[

Expand[

Py22den/

TKy4]

,T → ∞]

;Byden= Limit[

Expand[

Py22den/

TKy4]

,T → ∞]

;Byden= Limit[

Expand[

Py22den/

TKy4]

,T → ∞]

;

Bypar= Factor[

Expand[

(Bynum/Byden)∗ TKy3

TKy4

]]

Bypar= Factor[

Expand[

(Bynum/Byden)∗ TKy3

TKy4

]]

Bypar= Factor[

Expand[

(Bynum/Byden)∗ TKy3

TKy4

]]

P30= Factor[

Expand[

S2yt+ Aypar2 ∗ S2yt1+ Bypar2 ∗ S2xt1...P30= Factor[

Expand[

S2yt+ Aypar2 ∗ S2yt1+ Bypar2 ∗ S2xt1...P30= Factor[

Expand[

S2yt+ Aypar2 ∗ S2yt1+ Bypar2 ∗ S2xt1...

−2 ∗ Aypar∗ Syt1yt− 2 ∗ Bypar∗ Sxt1yt+ 2 ∗ Aypar∗ Bypar∗ Sxt1yt1]];−2 ∗ Aypar∗ Syt1yt− 2 ∗ Bypar∗ Sxt1yt+ 2 ∗ Aypar∗ Bypar∗ Sxt1yt1]];−2 ∗ Aypar∗ Syt1yt− 2 ∗ Bypar∗ Sxt1yt+ 2 ∗ Aypar∗ Bypar∗ Sxt1yt1]];

P30num= Numerator[P30];P30num= Numerator[P30];P30num= Numerator[P30];

K5 = Exponent[P30num,T];K5 = Exponent[P30num,T];K5 = Exponent[P30num,T];

Wnum= Factor[

Limit[

Expand[

P30num/

TK5]

,T → ∞]]

;Wnum= Factor[

Limit[

Expand[

P30num/

TK5]

,T → ∞]]

;Wnum= Factor[

Limit[

Expand[

P30num/

TK5]

,T → ∞]]

;

P30den= Denominator[P30];P30den= Denominator[P30];P30den= Denominator[P30];

K6 = Exponent[P30den,T];K6 = Exponent[P30den,T];K6 = Exponent[P30den,T];

Wden= Factor[

Limit[

Expand[

P30den/

TK6]

,T → ∞]]

;Wden= Factor[

Limit[

Expand[

P30den/

TK6]

,T → ∞]]

;Wden= Factor[

Limit[

Expand[

P30den/

TK6]

,T → ∞]]

;

Wpar2= Factor[

Expand[

T−1 ∗ (Wnum/Wden)∗ TK5

TK6

]]

Wpar2= Factor[

Expand[

T−1 ∗ (Wnum/Wden)∗ TK5

TK6

]]

Wpar2= Factor[

Expand[

T−1 ∗ (Wnum/Wden)∗ TK5

TK6

]]

Wpar= Factor[

Expand[

(Wnum/Wden)∗ TK5

TK6

]]

;Wpar= Factor[

Expand[

(Wnum/Wden)∗ TK5

TK6

]]

;Wpar= Factor[

Expand[

(Wnum/Wden)∗ TK5

TK6

]]

;

(* REGRESION RESTRINGIDA*)(* REGRESION RESTRINGIDA*)(* REGRESION RESTRINGIDA*)

MRxx = S2yt1;MRxx = S2yt1;MRxx = S2yt1;

Vxx = Syt1yt;Vxx = Syt1yt;Vxx = Syt1yt;

ParamR1= Vxx/MRxx;ParamR1= Vxx/MRxx;ParamR1= Vxx/MRxx;

PR10= Factor[Expand[ParamR1]];PR10= Factor[Expand[ParamR1]];PR10= Factor[Expand[ParamR1]];

PR11num= Numerator[PR10];PR11num= Numerator[PR10];PR11num= Numerator[PR10];

KR1 = Exponent[PR11num,T];KR1 = Exponent[PR11num,T];KR1 = Exponent[PR11num,T];

ARnum= Limit[

Expand[

PR11num/

TKR1]

,T → ∞]

;ARnum= Limit[

Expand[

PR11num/

TKR1]

,T → ∞]

;ARnum= Limit[

Expand[

PR11num/

TKR1]

,T → ∞]

;

PR11den= Denominator[PR10];PR11den= Denominator[PR10];PR11den= Denominator[PR10];

KR2 = Exponent[PR11den,T];KR2 = Exponent[PR11den,T];KR2 = Exponent[PR11den,T];

72 Apéndice B. Pruebas del capítulo2

ARden= Limit[

Expand[

PR11den/

TKR2]

,T → ∞]

;ARden= Limit[

Expand[

PR11den/

TKR2]

,T → ∞]

;ARden= Limit[

Expand[

PR11den/

TKR2]

,T → ∞]

;

ARpar= Factor[

Expand[

(ARnum/ARden)∗ TKR1

TKR2

]]

;ARpar= Factor[

Expand[

(ARnum/ARden)∗ TKR1

TKR2

]]

;ARpar= Factor[

Expand[

(ARnum/ARden)∗ TKR1

TKR2

]]

;

PR30= Factor[

Expand[

S2yt+ ARpar2 ∗ S2yt1− 2 ∗ ARpar∗ Syt1yt]]

;PR30= Factor[

Expand[

S2yt+ ARpar2 ∗ S2yt1− 2 ∗ ARpar∗ Syt1yt]]

;PR30= Factor[

Expand[

S2yt+ ARpar2 ∗ S2yt1− 2 ∗ ARpar∗ Syt1yt]]

;

PR30num= Numerator[PR30];PR30num= Numerator[PR30];PR30num= Numerator[PR30];

KR5 = Exponent[PR30num,T];KR5 = Exponent[PR30num,T];KR5 = Exponent[PR30num,T];

WRnum= Factor[

Limit[

Expand[

PR30num/

TKR5]

,T → ∞]]

;WRnum= Factor[

Limit[

Expand[

PR30num/

TKR5]

,T → ∞]]

;WRnum= Factor[

Limit[

Expand[

PR30num/

TKR5]

,T → ∞]]

;

PR30den= Denominator[PR30];PR30den= Denominator[PR30];PR30den= Denominator[PR30];

KR6 = Exponent[PR30den,T];KR6 = Exponent[PR30den,T];KR6 = Exponent[PR30den,T];

WRden= Factor[

Limit[

Expand[

PR30den/

TKR6]

,T → ∞]]

;WRden= Factor[

Limit[

Expand[

PR30den/

TKR6]

,T → ∞]]

;WRden= Factor[

Limit[

Expand[

PR30den/

TKR6]

,T → ∞]]

;

WRpar2= Factor[

Expand[

T−1 ∗ (WRnum/WRden)∗ TKR5

TKR6

]]

WRpar2= Factor[

Expand[

T−1 ∗ (WRnum/WRden)∗ TKR5

TKR6

]]

WRpar2= Factor[

Expand[

T−1 ∗ (WRnum/WRden)∗ TKR5

TKR6

]]

WRpar= Factor[

Expand[

(WRnum/WRden)∗ TKR5

TKR6

]]

WRpar= Factor[

Expand[

(WRnum/WRden)∗ TKR5

TKR6

]]

WRpar= Factor[

Expand[

(WRnum/WRden)∗ TKR5

TKR6

]]

(*F GRANGER*)(*F GRANGER*)(*F GRANGER*)

PGC= Factor[

Expand[

(WRpar−Wpar)∗(

Wpar∗ T−1)−1

]]

;PGC= Factor[

Expand[

(WRpar−Wpar)∗(

Wpar∗ T−1)−1

]]

;PGC= Factor[

Expand[

(WRpar−Wpar)∗(

Wpar∗ T−1)−1

]]

;

PGCnum= Numerator[PGC];PGCnum= Numerator[PGC];PGCnum= Numerator[PGC];

KGC1= Exponent[PGCnum,T];KGC1= Exponent[PGCnum,T];KGC1= Exponent[PGCnum,T];

FGCnum= Factor[

Limit[

Expand[

PGCnum/

TKGC1]

,T → ∞]]

;FGCnum= Factor[

Limit[

Expand[

PGCnum/

TKGC1]

,T → ∞]]

;FGCnum= Factor[

Limit[

Expand[

PGCnum/

TKGC1]

,T → ∞]]

;

PGCden= Denominator[PGC];PGCden= Denominator[PGC];PGCden= Denominator[PGC];

KGC2= Exponent[PGCden,T];KGC2= Exponent[PGCden,T];KGC2= Exponent[PGCden,T];

FGCden= Factor[

Limit[

Expand[

PGCden/

TKGC2]

,T → ∞]]

;FGCden= Factor[

Limit[

Expand[

PGCden/

TKGC2]

,T → ∞]]

;FGCden= Factor[

Limit[

Expand[

PGCden/

TKGC2]

,T → ∞]]

;

FGCpar= Factor[

Expand[

(FGCnum/FGCden)∗ TKGC1

TKGC2

]]

FGCpar= Factor[

Expand[

(FGCnum/FGCden)∗ TKGC1

TKGC2

]]

FGCpar= Factor[

Expand[

(FGCnum/FGCden)∗ TKGC1

TKGC2

]]

B.2. Prueba del corolario (2.1)

ClearAll;ClearAll;ClearAll;(*Σxt−1A1*)Sx = Mx ∗ T + Ux ∗ T1/2;(*Σxt−1A1*)Sx = Mx ∗ T + Ux ∗ T1/2;(*Σxt−1A1*)Sx = Mx ∗ T + Ux ∗ T1/2;(*Σxt−1Ux,t−1A2*)SxUx = Mx ∗ Ux ∗ T1/2 + U2x ∗ T;(*Σxt−1Ux,t−1A2*)SxUx = Mx ∗ Ux ∗ T1/2 + U2x ∗ T;(*Σxt−1Ux,t−1A2*)SxUx = Mx ∗ Ux ∗ T1/2 + U2x ∗ T;(*Σx2

t−1*) S2x = Mx ∗ Sx+ SxUx;(*Σx2t−1*) S2x = Mx ∗ Sx+ SxUx;(*Σx2t−1*) S2x = Mx ∗ Sx+ SxUx;

(*Σzt−1A1*)Sz = Mz ∗ T + Uz ∗ T1/2;(*Σzt−1A1*)Sz = Mz ∗ T + Uz ∗ T1/2;(*Σzt−1A1*)Sz = Mz ∗ T + Uz ∗ T1/2;(*Σzt−1Uz,t−1A2*)SzUz= Mz ∗ Uz ∗ T1/2 + U2z∗ T;(*Σzt−1Uz,t−1A2*)SzUz= Mz ∗ Uz ∗ T1/2 + U2z∗ T;(*Σzt−1Uz,t−1A2*)SzUz= Mz ∗ Uz ∗ T1/2 + U2z∗ T;(*Σz2

t−1*) S2z= Mz ∗ Sz+ SzUz;(*Σz2t−1*) S2z= Mz ∗ Sz+ SzUz;(*Σz2t−1*) S2z= Mz ∗ Sz+ SzUz;

(*Σxt−1Uz,t−1A1*)SxUz = Mx ∗ Uz ∗ T1/2 + UxUz ∗ T1/2;(*Σxt−1Uz,t−1A1*)SxUz = Mx ∗ Uz ∗ T1/2 + UxUz ∗ T1/2;(*Σxt−1Uz,t−1A1*)SxUz = Mx ∗ Uz ∗ T1/2 + UxUz ∗ T1/2;(*Σxt−1zt−1*) Sxz = Mz ∗ Sx+ SxUz;(*Σxt−1zt−1*) Sxz = Mz ∗ Sx+ SxUz;(*Σxt−1zt−1*) Sxz = Mz ∗ Sx+ SxUz;(*Σxt−1Uy,tA1*)SxUyt = Mx ∗

(

Uy ∗ T1/2 + uy)

+ UxUyt ∗ T1/2;(*Σxt−1Uy,tA1*)SxUyt = Mx ∗(

Uy ∗ T1/2 + uy)

+ UxUyt ∗ T1/2;(*Σxt−1Uy,tA1*)SxUyt = Mx ∗(

Uy ∗ T1/2 + uy)

+ UxUyt ∗ T1/2;(*Σxt−1yt*) Sxyt = By1 ∗ S2x+ By2 ∗ Sxz+ SxUyt;(*Σxt−1yt*) Sxyt = By1 ∗ S2x+ By2 ∗ Sxz+ SxUyt;(*Σxt−1yt*) Sxyt = By1 ∗ S2x+ By2 ∗ Sxz+ SxUyt;(*Σzt−1Uy,tA1*)SzUyt = Mz ∗

(

Uy ∗ T1/2 + uy)

+ UzUyt ∗ T1/2;(*Σzt−1Uy,tA1*)SzUyt = Mz ∗(

Uy ∗ T1/2 + uy)

+ UzUyt ∗ T1/2;(*Σzt−1Uy,tA1*)SzUyt = Mz ∗(

Uy ∗ T1/2 + uy)

+ UzUyt ∗ T1/2;(*Σzt−1yt*) Szyt = By1 ∗ Sxz+ By2 ∗ S2z+ SzUyt;(*Σzt−1yt*) Szyt = By1 ∗ Sxz+ By2 ∗ S2z+ SzUyt;(*Σzt−1yt*) Szyt = By1 ∗ Sxz+ By2 ∗ S2z+ SzUyt;(*Σxt−1Uy,tB1*)SxUyt = Mx ∗

(

Uy ∗ T1/2 + uyt)

+ UxUyt ∗ T1/2;(*Σxt−1Uy,tB1*)SxUyt = Mx ∗(

Uy ∗ T1/2 + uyt)

+ UxUyt ∗ T1/2;(*Σxt−1Uy,tB1*)SxUyt = Mx ∗(

Uy ∗ T1/2 + uyt)

+ UxUyt ∗ T1/2;

(*Σxt−1Uy,tB2*)SzUyt= Mz ∗(

Uy ∗ T1/2 + uyt)

+ UzUyt ∗ T1/2;(*Σxt−1Uy,tB2*)SzUyt= Mz ∗(

Uy ∗ T1/2 + uyt)

+ UzUyt ∗ T1/2;(*Σxt−1Uy,tB2*)SzUyt= Mz ∗(

Uy ∗ T1/2 + uyt)

+ UzUyt ∗ T1/2;(*ΣytUy,tA1*)SytUyt = By1 ∗ SxUyt+ By2 ∗ SzUyt+ U2y ∗ T + u2y;(*ΣytUy,tA1*)SytUyt = By1 ∗ SxUyt+ By2 ∗ SzUyt+ U2y ∗ T + u2y;(*ΣytUy,tA1*)SytUyt = By1 ∗ SxUyt+ By2 ∗ SzUyt+ U2y ∗ T + u2y;(*Σy2

t *)S2yt = By1 ∗ Sxyt+ By2 ∗ Szyt+ SytUyt;(*Σy2t *)S2yt = By1 ∗ Sxyt+ By2 ∗ Szyt+ SytUyt;(*Σy2t *)S2yt = By1 ∗ Sxyt+ By2 ∗ Szyt+ SytUyt;

B.2. Prueba del corolario (2.1) 73

(* REGRESION NO RESTRINGIDA*)(* REGRESION NO RESTRINGIDA*)(* REGRESION NO RESTRINGIDA*)

Myy =

(

S2x SxzSxz S2z

)

; Vyy =

(

SxytSzyt

)

;Myy =

(

S2x SxzSxz S2z

)

; Vyy =

(

SxytSzyt

)

;Myy =

(

S2x SxzSxz S2z

)

; Vyy =

(

SxytSzyt

)

;

iMyy = Inverse[Myy];iMyy = Inverse[Myy];iMyy = Inverse[Myy];Paramy1= iMyy .Vyy;Paramy1= iMyy .Vyy;Paramy1= iMyy .Vyy;Py10= Factor[Expand[Extract[Paramy1, 1,1]]];Py10= Factor[Expand[Extract[Paramy1, 1,1]]];Py10= Factor[Expand[Extract[Paramy1, 1,1]]];Py11num= Numerator[Py10];Py11num= Numerator[Py10];Py11num= Numerator[Py10];Ky1 = Exponent[Py11num,T];Ky1 = Exponent[Py11num,T];Ky1 = Exponent[Py11num,T];Aynum= Limit

[

Expand[

Py11num/

TKy1]

,T → ∞]

;Aynum= Limit[

Expand[

Py11num/

TKy1]

,T → ∞]

;Aynum= Limit[

Expand[

Py11num/

TKy1]

,T → ∞]

;Py11den= Denominator[Py10];Py11den= Denominator[Py10];Py11den= Denominator[Py10];Ky2 = Exponent[Py11den,T];Ky2 = Exponent[Py11den,T];Ky2 = Exponent[Py11den,T];Ayden= Limit

[

Expand[

Py11den/

TKy2]

,T → ∞]

;Ayden= Limit[

Expand[

Py11den/

TKy2]

,T → ∞]

;Ayden= Limit[

Expand[

Py11den/

TKy2]

,T → ∞]

;

Aypar= Factor[

Expand[

(Aynum/Ayden)∗ TKy1

TKy2

]]

Aypar= Factor[

Expand[

(Aynum/Ayden)∗ TKy1

TKy2

]]

Aypar= Factor[

Expand[

(Aynum/Ayden)∗ TKy1

TKy2

]]

Py20= Factor[Expand[Extract[Paramy1, 2,1]]];Py20= Factor[Expand[Extract[Paramy1, 2,1]]];Py20= Factor[Expand[Extract[Paramy1, 2,1]]];Py22num= Numerator[Py20];Py22num= Numerator[Py20];Py22num= Numerator[Py20];Ky3 = Exponent[Py22num,T];Ky3 = Exponent[Py22num,T];Ky3 = Exponent[Py22num,T];Bynum= Limit

[

Expand[

Py22num/

TKy3]

,T → ∞]

;Bynum= Limit[

Expand[

Py22num/

TKy3]

,T → ∞]

;Bynum= Limit[

Expand[

Py22num/

TKy3]

,T → ∞]

;Py22den= Denominator[Py20];Py22den= Denominator[Py20];Py22den= Denominator[Py20];Ky4 = Exponent[Py22den,T];Ky4 = Exponent[Py22den,T];Ky4 = Exponent[Py22den,T];Byden= Limit

[

Expand[

Py22den/

TKy4]

,T → ∞]

;Byden= Limit[

Expand[

Py22den/

TKy4]

,T → ∞]

;Byden= Limit[

Expand[

Py22den/

TKy4]

,T → ∞]

;

Bypar= Factor[

Expand[

(Bynum/Byden)∗ TKy3

TKy4

]]

Bypar= Factor[

Expand[

(Bynum/Byden)∗ TKy3

TKy4

]]

Bypar= Factor[

Expand[

(Bynum/Byden)∗ TKy3

TKy4

]]

P30= Factor[

Expand[

S2yt+ Aypar2 ∗ S2x+ Bypar2 ∗ S2z− 2 ∗ Aypar∗ Sxyt...P30= Factor[

Expand[

S2yt+ Aypar2 ∗ S2x+ Bypar2 ∗ S2z− 2 ∗ Aypar∗ Sxyt...P30= Factor[

Expand[

S2yt+ Aypar2 ∗ S2x+ Bypar2 ∗ S2z− 2 ∗ Aypar∗ Sxyt...−2 ∗ Bypar∗ Szyt+ 2 ∗ Aypar∗ Bypar∗ Sxz]];−2 ∗ Bypar∗ Szyt+ 2 ∗ Aypar∗ Bypar∗ Sxz]];−2 ∗ Bypar∗ Szyt+ 2 ∗ Aypar∗ Bypar∗ Sxz]];P30num= Numerator[P30];P30num= Numerator[P30];P30num= Numerator[P30];K5 = Exponent[P30num,T];K5 = Exponent[P30num,T];K5 = Exponent[P30num,T];Wnum= Factor

[

Limit[

Expand[

P30num/

TK5]

,T → ∞]]

;Wnum= Factor[

Limit[

Expand[

P30num/

TK5]

,T → ∞]]

;Wnum= Factor[

Limit[

Expand[

P30num/

TK5]

,T → ∞]]

;P30den= Denominator[P30];P30den= Denominator[P30];P30den= Denominator[P30];K6 = Exponent[P30den,T];K6 = Exponent[P30den,T];K6 = Exponent[P30den,T];Wden= Factor

[

Limit[

Expand[

P30den/

TK6]

,T → ∞]]

;Wden= Factor[

Limit[

Expand[

P30den/

TK6]

,T → ∞]]

;Wden= Factor[

Limit[

Expand[

P30den/

TK6]

,T → ∞]]

;

Wpar= Factor[

Expand[

T−1 ∗ (Wnum/Wden)∗ TK5

TK6

]]

Wpar= Factor[

Expand[

T−1 ∗ (Wnum/Wden)∗ TK5

TK6

]]

Wpar= Factor[

Expand[

T−1 ∗ (Wnum/Wden)∗ TK5

TK6

]]

(* REGRESION RESTRINGIDA*)(* REGRESION RESTRINGIDA*)(* REGRESION RESTRINGIDA*)MRxx = S2x;MRxx = S2x;MRxx = S2x;Vxx = Sxyt;Vxx = Sxyt;Vxx = Sxyt;ParamR1= Vxx/MRxx;ParamR1= Vxx/MRxx;ParamR1= Vxx/MRxx;PR10= Factor[Expand[ParamR1]];PR10= Factor[Expand[ParamR1]];PR10= Factor[Expand[ParamR1]];PR11num= Numerator[PR10];PR11num= Numerator[PR10];PR11num= Numerator[PR10];KR1 = Exponent[PR11num,T];KR1 = Exponent[PR11num,T];KR1 = Exponent[PR11num,T];ARnum= Limit

[

Expand[

PR11num/

TKR1]

,T → ∞]

;ARnum= Limit[

Expand[

PR11num/

TKR1]

,T → ∞]

;ARnum= Limit[

Expand[

PR11num/

TKR1]

,T → ∞]

;PR11den= Denominator[PR10];PR11den= Denominator[PR10];PR11den= Denominator[PR10];KR2 = Exponent[PR11den,T];KR2 = Exponent[PR11den,T];KR2 = Exponent[PR11den,T];ARden= Limit

[

Expand[

PR11den/

TKR2]

,T → ∞]

;ARden= Limit[

Expand[

PR11den/

TKR2]

,T → ∞]

;ARden= Limit[

Expand[

PR11den/

TKR2]

,T → ∞]

;

ARpar= Factor[

Expand[

(ARnum/ARden)∗ TKR1

TKR2

]]

ARpar= Factor[

Expand[

(ARnum/ARden)∗ TKR1

TKR2

]]

ARpar= Factor[

Expand[

(ARnum/ARden)∗ TKR1

TKR2

]]

74 Apéndice B. Pruebas del capítulo2

PR30= Factor[

Expand[

S2yt+ ARpar2 ∗ S2x− 2 ∗ ARpar∗ Sxyt]]

;PR30= Factor[

Expand[

S2yt+ ARpar2 ∗ S2x− 2 ∗ ARpar∗ Sxyt]]

;PR30= Factor[

Expand[

S2yt+ ARpar2 ∗ S2x− 2 ∗ ARpar∗ Sxyt]]

;PR30num= Numerator[PR30];PR30num= Numerator[PR30];PR30num= Numerator[PR30];KR5 = Exponent[PR30num,T];KR5 = Exponent[PR30num,T];KR5 = Exponent[PR30num,T];WRnum= Factor

[

Limit[

Expand[

PR30num/

TKR5]

,T → ∞]]

;WRnum= Factor[

Limit[

Expand[

PR30num/

TKR5]

,T → ∞]]

;WRnum= Factor[

Limit[

Expand[

PR30num/

TKR5]

,T → ∞]]

;PR30den= Denominator[PR30];PR30den= Denominator[PR30];PR30den= Denominator[PR30];KR6 = Exponent[PR30den,T];KR6 = Exponent[PR30den,T];KR6 = Exponent[PR30den,T];WRden= Factor

[

Limit[

Expand[

PR30den/

TKR6]

,T → ∞]]

;WRden= Factor[

Limit[

Expand[

PR30den/

TKR6]

,T → ∞]]

;WRden= Factor[

Limit[

Expand[

PR30den/

TKR6]

,T → ∞]]

;

WRpar= Factor[

Expand[

T−1 ∗ (WRnum/WRden)∗ TKR5

TKR6

]]

WRpar= Factor[

Expand[

T−1 ∗ (WRnum/WRden)∗ TKR5

TKR6

]]

WRpar= Factor[

Expand[

T−1 ∗ (WRnum/WRden)∗ TKR5

TKR6

]]

(*F GRANGER*)(*F GRANGER*)(*F GRANGER*)

PGC= Factor[

Expand[

(PR30− P30)∗(

P30∗ T−1)−1

]]

;PGC= Factor[

Expand[

(PR30− P30)∗(

P30∗ T−1)−1

]]

;PGC= Factor[

Expand[

(PR30− P30)∗(

P30∗ T−1)−1

]]

;

PGCnum= Numerator[PGC];PGCnum= Numerator[PGC];PGCnum= Numerator[PGC];KGC1= Exponent[PGCnum,T];KGC1= Exponent[PGCnum,T];KGC1= Exponent[PGCnum,T];FGCnum= Factor

[

Limit[

Expand[

PGCnum/

TKGC1]

,T → ∞]]

;FGCnum= Factor[

Limit[

Expand[

PGCnum/

TKGC1]

,T → ∞]]

;FGCnum= Factor[

Limit[

Expand[

PGCnum/

TKGC1]

,T → ∞]]

;PGCden= Denominator[PGC];PGCden= Denominator[PGC];PGCden= Denominator[PGC];KGC2= Exponent[PGCden,T];KGC2= Exponent[PGCden,T];KGC2= Exponent[PGCden,T];FGCden= Factor

[

Limit[

Expand[

PGCden/

TKGC2]

,T → ∞]]

;FGCden= Factor[

Limit[

Expand[

PGCden/

TKGC2]

,T → ∞]]

;FGCden= Factor[

Limit[

Expand[

PGCden/

TKGC2]

,T → ∞]]

;

FGCpar= Factor[

Expand[

(FGCnum/FGCden)∗ TKGC1

TKGC2

]]

FGCpar= Factor[

Expand[

(FGCnum/FGCden)∗ TKGC1

TKGC2

]]

FGCpar= Factor[

Expand[

(FGCnum/FGCden)∗ TKGC1

TKGC2

]]

A C

Pruebas del capítulo3

Al igual que el apéndice (B) las demostraciones de las pruebas del capítulo (3) se realizan con laayuda de un programa escrito en Mathematica 7 y se desarrollan con la misma metodología ya explicadaen el apéndice pasado.

C.1. Prueba del teorema (3.2)

ClearAll;ClearAll;ClearAll;S2y= Y02 ∗ T + E2y∗ T2 + 2 ∗ Y0 ∗ Ey ∗ T

32 ;S2y= Y02 ∗ T + E2y∗ T2 + 2 ∗ Y0 ∗ Ey ∗ T32 ;S2y= Y02 ∗ T + E2y∗ T2 + 2 ∗ Y0 ∗ Ey ∗ T32 ;

S2x= X02 ∗ T + E2x∗ T2 + 2 ∗ X0 ∗ Ex ∗ T32 ;S2x= X02 ∗ T + E2x∗ T2 + 2 ∗ X0 ∗ Ex ∗ T32 ;S2x= X02 ∗ T + E2x∗ T2 + 2 ∗ X0 ∗ Ex ∗ T32 ;

Syy= Y02 ∗ T + 2 ∗ Y0 ∗ Ey ∗ T32 + Y0 ∗ Uy ∗ T

12 + E2y∗ T2 + EUy ∗ T;Syy= Y02 ∗ T + 2 ∗ Y0 ∗ Ey ∗ T

32 + Y0 ∗ Uy ∗ T

12 + E2y∗ T2 + EUy ∗ T;Syy= Y02 ∗ T + 2 ∗ Y0 ∗ Ey ∗ T

32 + Y0 ∗ Uy ∗ T

12 + E2y∗ T2 + EUy ∗ T;

Syx= Y0 ∗ X0 ∗ T + Y0 ∗ Ex ∗ T32 + X0 ∗ Ey ∗ T

32 + Eyx ∗ T2;Syx= Y0 ∗ X0 ∗ T + Y0 ∗ Ex ∗ T

32 + X0 ∗ Ey ∗ T

32 + Eyx ∗ T2;Syx= Y0 ∗ X0 ∗ T + Y0 ∗ Ex ∗ T

32 + X0 ∗ Ey ∗ T

32 + Eyx ∗ T2;

Sytx= Y0 ∗ X0 ∗ T + X0 ∗ Ey ∗ T32 + X0 ∗ Uy ∗ T

12 + Y0 ∗ Ex ∗ T

32 + Eyx ∗ T2 + ExUy ∗ T;Sytx= Y0 ∗ X0 ∗ T + X0 ∗ Ey ∗ T

32 + X0 ∗ Uy ∗ T

12 + Y0 ∗ Ex ∗ T

32 + Eyx ∗ T2 + ExUy ∗ T;Sytx= Y0 ∗ X0 ∗ T + X0 ∗ Ey ∗ T

32 + X0 ∗ Uy ∗ T

12 + Y0 ∗ Ex ∗ T

32 + Eyx ∗ T2 + ExUy ∗ T;

S2yt= Y02 ∗ T + E2y∗ T2 + U2y ∗ T + 2 ∗ Y0 ∗ Ey ∗ T32 + 2 ∗ Y0 ∗ Uy ∗ T

12 + 2 ∗ EUy ∗ T;S2yt= Y02 ∗ T + E2y∗ T2 + U2y ∗ T + 2 ∗ Y0 ∗ Ey ∗ T

32 + 2 ∗ Y0 ∗ Uy ∗ T

12 + 2 ∗ EUy ∗ T;S2yt= Y02 ∗ T + E2y∗ T2 + U2y ∗ T + 2 ∗ Y0 ∗ Ey ∗ T

32 + 2 ∗ Y0 ∗ Uy ∗ T

12 + 2 ∗ EUy ∗ T;

Syt= Y0 ∗ T + Uy ∗ T12 + Ey ∗ T

32 ;Syt= Y0 ∗ T + Uy ∗ T

12 + Ey ∗ T

32 ;Syt= Y0 ∗ T + Uy ∗ T

12 + Ey ∗ T

32 ;

(* Regresión no restringida *)(* Regresión no restringida *)(* Regresión no restringida *)

Mxx =

(

S2y SyxSyx S2x

)

;Mxx =

(

S2y SyxSyx S2x

)

;Mxx =

(

S2y SyxSyx S2x

)

;

Vxy =

(

SyySytx

)

;Vxy =

(

SyySytx

)

;Vxy =

(

SyySytx

)

;

iMxx = Inverse[Mxx];iMxx = Inverse[Mxx];iMxx = Inverse[Mxx];Param1= iMxx .Vxy;Param1= iMxx .Vxy;Param1= iMxx .Vxy;P10= Factor[Expand[Extract[Param1, 1,1]]];P10= Factor[Expand[Extract[Param1, 1,1]]];P10= Factor[Expand[Extract[Param1, 1,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P40= Factor

[

Expand[

S2yt+ P102 ∗ S2y+ P202 ∗ S2x− 2 ∗ P10∗ Syy− 2 ∗ P20∗ SytxP40= Factor[

Expand[

S2yt+ P102 ∗ S2y+ P202 ∗ S2x− 2 ∗ P10∗ Syy− 2 ∗ P20∗ SytxP40= Factor[

Expand[

S2yt+ P102 ∗ S2y+ P202 ∗ S2x− 2 ∗ P10∗ Syy− 2 ∗ P20∗ Sytx+2 ∗ P10∗ P20∗ Syx]];+2 ∗ P10∗ P20∗ Syx]];+2 ∗ P10∗ P20∗ Syx]];

(*Regresión restringida*)(*Regresión restringida*)(*Regresión restringida*)Mxxr = S2y;Mxxr = S2y;Mxxr = S2y;Vxyr = Syy;Vxyr = Syy;Vxyr = Syy;iMxxr = Mxxr∧(−1);iMxxr = Mxxr∧(−1);iMxxr = Mxxr∧(−1);Param1r= iMxxr ∗ Vxyr;Param1r= iMxxr ∗ Vxyr;Param1r= iMxxr ∗ Vxyr;P10r= Factor[Expand[Param1r]];P10r= Factor[Expand[Param1r]];P10r= Factor[Expand[Param1r]];P40r= Factor

[

Expand[

S2yt+ P10r2 ∗ S2y− 2 ∗ P10r∗ Syy]]

;P40r= Factor[

Expand[

S2yt+ P10r2 ∗ S2y− 2 ∗ P10r∗ Syy]]

;P40r= Factor[

Expand[

S2yt+ P10r2 ∗ S2y− 2 ∗ P10r∗ Syy]]

;

(* F GRANGER *)(* F GRANGER *)(* F GRANGER *)

76 Apéndice C. Pruebas del capítulo3

RRSS= P40r;RRSS= P40r;RRSS= P40r;URSS= P40;URSS= P40;URSS= P40;FG= Factor[Expand[(RRSS− URSS)/(URSS/(T − 1))]];FG= Factor[Expand[(RRSS− URSS)/(URSS/(T − 1))]];FG= Factor[Expand[(RRSS− URSS)/(URSS/(T − 1))]];FGnum= Numerator[FG];FGnum= Numerator[FG];FGnum= Numerator[FG];K7 = Exponent[FGnum,T];K7 = Exponent[FGnum,T];K7 = Exponent[FGnum,T];Wnum= Factor

[

Limit[

Expand[

FGnum/

TK7]

,T → ∞]]

;Wnum= Factor[

Limit[

Expand[

FGnum/

TK7]

,T → ∞]]

;Wnum= Factor[

Limit[

Expand[

FGnum/

TK7]

,T → ∞]]

;FGden= Denominator[FG];FGden= Denominator[FG];FGden= Denominator[FG];K8 = Exponent[FGden,T];K8 = Exponent[FGden,T];K8 = Exponent[FGden,T];Wden= Factor

[

Limit[

Expand[

FGden/

TK8]

,T → ∞]]

;Wden= Factor[

Limit[

Expand[

FGden/

TK8]

,T → ∞]]

;Wden= Factor[

Limit[

Expand[

FGden/

TK8]

,T → ∞]]

;

Wpar= Factor[

Expand[

(Wnum/Wden)∗ TK7

TK8

]]

Wpar= Factor[

Expand[

(Wnum/Wden)∗ TK7

TK8

]]

Wpar= Factor[

Expand[

(Wnum/Wden)∗ TK7

TK8

]]

C.2. Prueba del teorema (3.3)

ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;

Sy= Y ∗ T +My ∗ St+ Ey ∗ T32 ;Sy= Y ∗ T +My ∗ St+ Ey ∗ T32 ;Sy= Y ∗ T +My ∗ St+ Ey ∗ T32 ;

Sy1= (Y−My) ∗ T +My ∗ St+ Ey ∗ T32 − Uy ∗ T

12 ;Sy1= (Y−My) ∗ T +My ∗ St+ Ey ∗ T

32 − Uy ∗ T

12 ;Sy1= (Y−My) ∗ T +My ∗ St+ Ey ∗ T

32 − Uy ∗ T

12 ;

Sx= X ∗ T +Mx ∗ St+ Ex ∗ T32 ;Sx= X ∗ T +Mx ∗ St+ Ex ∗ T32 ;Sx= X ∗ T +Mx ∗ St+ Ex ∗ T32 ;

Sy2= Y2 ∗ T +My2 ∗ St2+ Ey2∗ T2 + 2 ∗ Y ∗My ∗ St+ 2 ∗ Y ∗ Ey ∗ T32 + 2 ∗My ∗ Eyt ∗ T

52 ;Sy2= Y2 ∗ T +My2 ∗ St2+ Ey2∗ T2 + 2 ∗ Y ∗My ∗ St+ 2 ∗ Y ∗ Ey ∗ T

32 + 2 ∗My ∗ Eyt ∗ T

52 ;Sy2= Y2 ∗ T +My2 ∗ St2+ Ey2∗ T2 + 2 ∗ Y ∗My ∗ St+ 2 ∗ Y ∗ Ey ∗ T

32 + 2 ∗My ∗ Eyt ∗ T

52 ;

Sx2= X2 ∗ T +Mx2 ∗ St2+ Ex2∗ T2 + 2 ∗ X ∗Mx ∗ St+ 2 ∗ X ∗ Ex ∗ T32 + 2 ∗Mx ∗ Ext ∗ T

52 ;Sx2= X2 ∗ T +Mx2 ∗ St2+ Ex2∗ T2 + 2 ∗ X ∗Mx ∗ St+ 2 ∗ X ∗ Ex ∗ T

32 + 2 ∗Mx ∗ Ext ∗ T

52 ;Sx2= X2 ∗ T +Mx2 ∗ St2+ Ex2∗ T2 + 2 ∗ X ∗Mx ∗ St+ 2 ∗ X ∗ Ex ∗ T

32 + 2 ∗Mx ∗ Ext ∗ T

52 ;

Syuy= Y ∗ Uy ∗ T12 +My ∗ Uyt ∗ T

32 + Eyuy∗ T;Syuy= Y ∗ Uy ∗ T

12 +My ∗ Uyt ∗ T

32 + Eyuy∗ T;Syuy= Y ∗ Uy ∗ T

12 +My ∗ Uyt ∗ T

32 + Eyuy∗ T;

Sy12= Sy2+My2 ∗ T + Uy2 ∗ T − 2 ∗My ∗ Sy− 2 ∗ Syuy+ 2 ∗My ∗ Uy ∗ T12 ;Sy12= Sy2+My2 ∗ T + Uy2 ∗ T − 2 ∗My ∗ Sy− 2 ∗ Syuy+ 2 ∗My ∗ Uy ∗ T12 ;Sy12= Sy2+My2 ∗ T + Uy2 ∗ T − 2 ∗My ∗ Sy− 2 ∗ Syuy+ 2 ∗My ∗ Uy ∗ T12 ;

Syt= Y ∗ St+My ∗ St2+ Eyt ∗ T52 ;Syt= Y ∗ St+My ∗ St2+ Eyt ∗ T52 ;Syt= Y ∗ St+My ∗ St2+ Eyt ∗ T52 ;

Sxt= X ∗ St+Mx ∗ St2+ Ext ∗ T52 ;Sxt= X ∗ St+Mx ∗ St2+ Ext ∗ T52 ;Sxt= X ∗ St+Mx ∗ St2+ Ext ∗ T52 ;

SyEy= Y ∗ Ey ∗ T32 +My ∗ Eyt ∗ T

52 + Ey2∗ T2;SyEy= Y ∗ Ey ∗ T

32 +My ∗ Eyt ∗ T

52 + Ey2∗ T2;SyEy= Y ∗ Ey ∗ T

32 +My ∗ Eyt ∗ T

52 + Ey2∗ T2;

Syy1= Y ∗ Sy− Y ∗My ∗ T − Y ∗ Uy ∗ T12 −My2 ∗ St+My ∗ Syt−My ∗ Uyt ∗ T

32 + SyEySyy1= Y ∗ Sy− Y ∗My ∗ T − Y ∗ Uy ∗ T

12 −My2 ∗ St+My ∗ Syt−My ∗ Uyt ∗ T

32 + SyEySyy1= Y ∗ Sy− Y ∗My ∗ T − Y ∗ Uy ∗ T

12 −My2 ∗ St+My ∗ Syt−My ∗ Uyt ∗ T

32 + SyEy

−My ∗ Ey ∗ T32 − Eyuy∗ T;−My ∗ Ey ∗ T32 − Eyuy∗ T;−My ∗ Ey ∗ T32 − Eyuy∗ T;

SxEy= X ∗ Ey ∗ T32 +Mx ∗ Eyt ∗ T

52 + Exy ∗ T2;SxEy= X ∗ Ey ∗ T

32 +Mx ∗ Eyt ∗ T

52 + Exy ∗ T2;SxEy= X ∗ Ey ∗ T

32 +Mx ∗ Eyt ∗ T

52 + Exy ∗ T2;

SxUy= X ∗ Uy ∗ T12 +Mx ∗ Uyt ∗ T

32 + Exuy∗ T;SxUy= X ∗ Uy ∗ T

12 +Mx ∗ Uyt ∗ T

32 + Exuy∗ T;SxUy= X ∗ Uy ∗ T

12 +Mx ∗ Uyt ∗ T

32 + Exuy∗ T;

Sxy= Y ∗ Sx+My ∗ Sxt+ SxEy;Sxy= Y ∗ Sx+My ∗ Sxt+ SxEy;Sxy= Y ∗ Sx+My ∗ Sxt+ SxEy;Sxy1= Sxy−My ∗ Sx− SxUy;Sxy1= Sxy−My ∗ Sx− SxUy;Sxy1= Sxy−My ∗ Sx− SxUy;

(* Regresión no restringida *)(* Regresión no restringida *)(* Regresión no restringida *)

MxNR =

(

Sy12 Sxy1Sxy1 Sx2

)

; XTY =

(

Syy1Sxy

)

;MxNR =

(

Sy12 Sxy1Sxy1 Sx2

)

; XTY =

(

Syy1Sxy

)

;MxNR =

(

Sy12 Sxy1Sxy1 Sx2

)

; XTY =

(

Syy1Sxy

)

;

iMxNR = Inverse[MxNR];iMxNR = Inverse[MxNR];iMxNR = Inverse[MxNR];Param1= iMxNR.XTY;Param1= iMxNR.XTY;Param1= iMxNR.XTY;P30= Factor[Expand[Extract[Param1, 1,1]]];P30= Factor[Expand[Extract[Param1, 1,1]]];P30= Factor[Expand[Extract[Param1, 1,1]]];P40= Factor[Expand[Extract[Param1, 2,1]]];P40= Factor[Expand[Extract[Param1, 2,1]]];P40= Factor[Expand[Extract[Param1, 2,1]]];P50= Factor

[

Expand[

Sy2+ P302 ∗ Sy12+ P402 ∗ Sx2− 2 ∗ P30∗ Syy1− 2 ∗ P40∗ SxyP50= Factor[

Expand[

Sy2+ P302 ∗ Sy12+ P402 ∗ Sx2− 2 ∗ P30∗ Syy1− 2 ∗ P40∗ SxyP50= Factor[

Expand[

Sy2+ P302 ∗ Sy12+ P402 ∗ Sx2− 2 ∗ P30∗ Syy1− 2 ∗ P40∗ Sxy+2 ∗ P30∗ P40∗ Sxy1]];+2 ∗ P30∗ P40∗ Sxy1]];+2 ∗ P30∗ P40∗ Sxy1]];

(*Regresión restringida*)(*Regresión restringida*)(*Regresión restringida*)Param2= Sy12−1 ∗ Syy1;Param2= Sy12−1 ∗ Syy1;Param2= Sy12−1 ∗ Syy1;P60= Factor[Expand[Param2]];P60= Factor[Expand[Param2]];P60= Factor[Expand[Param2]];

C.3. Prueba del teorema (3.4) 77

P70= Factor[

Expand[

Sy2+ P602 ∗ Sy12− 2 ∗ P60∗ Syy1]]

;P70= Factor[

Expand[

Sy2+ P602 ∗ Sy12− 2 ∗ P60∗ Syy1]]

;P70= Factor[

Expand[

Sy2+ P602 ∗ Sy12− 2 ∗ P60∗ Syy1]]

;

(* F GRANGER *)(* F GRANGER *)(* F GRANGER *)

P80= Factor[

Expand[

(P70− P50)∗(

P50∗ T−1)−1

]]

;P80= Factor[

Expand[

(P70− P50)∗(

P50∗ T−1)−1

]]

;P80= Factor[

Expand[

(P70− P50)∗(

P50∗ T−1)−1

]]

;

P81num= Numerator[P80];P81num= Numerator[P80];P81num= Numerator[P80];K15 = Exponent[P81num,T];K15 = Exponent[P81num,T];K15 = Exponent[P81num,T];Fnum= Factor

[

Limit[

Expand[

P81num/

TK15]

,T → ∞]]

;Fnum= Factor[

Limit[

Expand[

P81num/

TK15]

,T → ∞]]

;Fnum= Factor[

Limit[

Expand[

P81num/

TK15]

,T → ∞]]

;P82den= Denominator[P80];P82den= Denominator[P80];P82den= Denominator[P80];K16 = Exponent[P82den,T];K16 = Exponent[P82den,T];K16 = Exponent[P82den,T];Fden= Factor

[

Limit[

Expand[

P82den/

TK16]

,T → ∞]]

;Fden= Factor[

Limit[

Expand[

P82den/

TK16]

,T → ∞]]

;Fden= Factor[

Limit[

Expand[

P82den/

TK16]

,T → ∞]]

;

Fpar= Factor[

Expand[

(Fnum/Fden)∗ TK15

TK16

]]

Fpar= Factor[

Expand[

(Fnum/Fden)∗ TK15

TK16

]]

Fpar= Factor[

Expand[

(Fnum/Fden)∗ TK15

TK16

]]

C.3. Prueba del teorema (3.4)

ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;

Sx1= Mx ∗ St−Mx ∗ T + Ex ∗ T32 ;Sx1= Mx ∗ St−Mx ∗ T + Ex ∗ T32 ;Sx1= Mx ∗ St−Mx ∗ T + Ex ∗ T32 ;

Sy1= My ∗ St−My ∗ T + Ey ∗ T32 ;Sy1= My ∗ St−My ∗ T + Ey ∗ T32 ;Sy1= My ∗ St−My ∗ T + Ey ∗ T32 ;

Sy= My ∗ St+ Ey ∗ T32 + Uy ∗ T

12 ;Sy= My ∗ St+ Ey ∗ T

32 + Uy ∗ T

12 ;Sy= My ∗ St+ Ey ∗ T

32 + Uy ∗ T

12 ;

Sy12= My2 ∗ St2+My2 ∗ T + Ey2∗ T2 − 2 ∗My2 ∗ St+ 2 ∗My ∗ Eyt ∗ T52 − 2 ∗My ∗ Ey ∗ T

32 ;Sy12= My2 ∗ St2+My2 ∗ T + Ey2∗ T2 − 2 ∗My2 ∗ St+ 2 ∗My ∗ Eyt ∗ T

52 − 2 ∗My ∗ Ey ∗ T

32 ;Sy12= My2 ∗ St2+My2 ∗ T + Ey2∗ T2 − 2 ∗My2 ∗ St+ 2 ∗My ∗ Eyt ∗ T

52 − 2 ∗My ∗ Ey ∗ T

32 ;

Sx12= Mx2 ∗ St2+Mx2 ∗ T + Ex2∗ T2 − 2 ∗Mx2 ∗ St+ 2 ∗Mx ∗ Ext ∗ T52 − 2 ∗Mx ∗ Ex ∗ T

32 ;Sx12= Mx2 ∗ St2+Mx2 ∗ T + Ex2∗ T2 − 2 ∗Mx2 ∗ St+ 2 ∗Mx ∗ Ext ∗ T

52 − 2 ∗Mx ∗ Ex ∗ T

32 ;Sx12= Mx2 ∗ St2+Mx2 ∗ T + Ex2∗ T2 − 2 ∗Mx2 ∗ St+ 2 ∗Mx ∗ Ext ∗ T

52 − 2 ∗Mx ∗ Ex ∗ T

32 ;

Sy2= My2 ∗ St2+ Ey2∗ T2 + Uy2 ∗ T + 2 ∗My ∗ Eyt ∗ T52 + 2 ∗My ∗ Uyt ∗ T

32 + 2 ∗ Eyuy∗ T;Sy2= My2 ∗ St2+ Ey2∗ T2 + Uy2 ∗ T + 2 ∗My ∗ Eyt ∗ T

52 + 2 ∗My ∗ Uyt ∗ T

32 + 2 ∗ Eyuy∗ T;Sy2= My2 ∗ St2+ Ey2∗ T2 + Uy2 ∗ T + 2 ∗My ∗ Eyt ∗ T

52 + 2 ∗My ∗ Uyt ∗ T

32 + 2 ∗ Eyuy∗ T;

Syt= My ∗ St2+ Eyt ∗ T52 + Uyt ∗ T

32 ;Syt= My ∗ St2+ Eyt ∗ T

52 + Uyt ∗ T

32 ;Syt= My ∗ St2+ Eyt ∗ T

52 + Uyt ∗ T

32 ;

Sy1t= My ∗ St2−My ∗ St+ Eyt ∗ T52 ;Sy1t= My ∗ St2−My ∗ St+ Eyt ∗ T52 ;Sy1t= My ∗ St2−My ∗ St+ Eyt ∗ T52 ;

Sx1t= Mx ∗ St2−Mx ∗ St+ Ext ∗ T52 ;Sx1t= Mx ∗ St2−Mx ∗ St+ Ext ∗ T52 ;Sx1t= Mx ∗ St2−Mx ∗ St+ Ext ∗ T52 ;

Sy1x1= My ∗ Sx1t−My ∗ Sx1+Mx ∗ Eyt ∗ T52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2;Sy1x1= My ∗ Sx1t−My ∗ Sx1+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2;Sy1x1= My ∗ Sx1t−My ∗ Sx1+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2;

Syy1= My ∗ Sy1t+My ∗ Eyt ∗ T52 −My ∗ Ey ∗ T

32 + Ey2∗ T2 +My ∗ Uyt ∗ T

32 −My ∗ Uy ∗ T

12Syy1= My ∗ Sy1t+My ∗ Eyt ∗ T

52 −My ∗ Ey ∗ T

32 + Ey2∗ T2 +My ∗ Uyt ∗ T

32 −My ∗ Uy ∗ T

12Syy1= My ∗ Sy1t+My ∗ Eyt ∗ T

52 −My ∗ Ey ∗ T

32 + Ey2∗ T2 +My ∗ Uyt ∗ T

32 −My ∗ Uy ∗ T

12

+Eyuy∗ T;+Eyuy∗ T;+Eyuy∗ T;Syx1= My ∗ Sx1t+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2 +Mx ∗ Uyt ∗ T

32 −Mx ∗ Uy ∗ T

12Syx1= My ∗ Sx1t+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2 +Mx ∗ Uyt ∗ T

32 −Mx ∗ Uy ∗ T

12Syx1= My ∗ Sx1t+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2 +Mx ∗ Uyt ∗ T

32 −Mx ∗ Uy ∗ T

12

+Exuy∗ T;+Exuy∗ T;+Exuy∗ T;

(* Regresión no restringida *)(* Regresión no restringida *)(* Regresión no restringida *)

MxNR =

T Sy1 Sx1Sy1 Sy12 Sy1x1Sx1 Sy1x1 Sx12

; VxyNR =

SySyy1Syx1

;MxNR =

T Sy1 Sx1Sy1 Sy12 Sy1x1Sx1 Sy1x1 Sx12

; VxyNR =

SySyy1Syx1

;MxNR =

T Sy1 Sx1Sy1 Sy12 Sy1x1Sx1 Sy1x1 Sx12

; VxyNR =

SySyy1Syx1

;

iMxNR = Inverse[MxNR];iMxNR = Inverse[MxNR];iMxNR = Inverse[MxNR];Param1= iMxNR.VxyNR;Param1= iMxNR.VxyNR;Param1= iMxNR.VxyNR;P10= Factor[Expand[Extract[Param1, 1,1]]];P10= Factor[Expand[Extract[Param1, 1,1]]];P10= Factor[Expand[Extract[Param1, 1,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P30= Factor[Expand[Extract[Param1, 3,1]]];P30= Factor[Expand[Extract[Param1, 3,1]]];P30= Factor[Expand[Extract[Param1, 3,1]]];P40= Factor

[

Expand[

Sy2+ P102 ∗ T + P202 ∗ Sy12+ P302 ∗ Sx12P40= Factor[

Expand[

Sy2+ P102 ∗ T + P202 ∗ Sy12+ P302 ∗ Sx12P40= Factor[

Expand[

Sy2+ P102 ∗ T + P202 ∗ Sy12+ P302 ∗ Sx12−2 ∗ P10∗ Sy− 2 ∗ P20∗ Syy1− 2 ∗ P30∗ Syx1+ 2 ∗ P10∗ P20∗ Sy1+ 2 ∗ P10∗ P30∗ Sx1−2 ∗ P10∗ Sy− 2 ∗ P20∗ Syy1− 2 ∗ P30∗ Syx1+ 2 ∗ P10∗ P20∗ Sy1+ 2 ∗ P10∗ P30∗ Sx1−2 ∗ P10∗ Sy− 2 ∗ P20∗ Syy1− 2 ∗ P30∗ Syx1+ 2 ∗ P10∗ P20∗ Sy1+ 2 ∗ P10∗ P30∗ Sx1+2 ∗ P20∗ P30∗ Sy1x1]];+2 ∗ P20∗ P30∗ Sy1x1]];+2 ∗ P20∗ P30∗ Sy1x1]];

(* Regresión restringida *)(* Regresión restringida *)(* Regresión restringida *)

78 Apéndice C. Pruebas del capítulo3

MxR =

(

T Sy1Sy1 Sy12

)

; VxyR =

(

SySyy1

)

;MxR =

(

T Sy1Sy1 Sy12

)

; VxyR =

(

SySyy1

)

;MxR =

(

T Sy1Sy1 Sy12

)

; VxyR =

(

SySyy1

)

;

iMxR = Inverse[MxR];iMxR = Inverse[MxR];iMxR = Inverse[MxR];Param2= iMxR.VxyR;Param2= iMxR.VxyR;Param2= iMxR.VxyR;P50= Factor[Expand[Extract[Param2, 1,1]]];P50= Factor[Expand[Extract[Param2, 1,1]]];P50= Factor[Expand[Extract[Param2, 1,1]]];P60= Factor[Expand[Extract[Param2, 2,1]]];P60= Factor[Expand[Extract[Param2, 2,1]]];P60= Factor[Expand[Extract[Param2, 2,1]]];P70= Factor

[

Expand[

Sy2+ P502 ∗ T + P602 ∗ Sy12− 2 ∗ P50∗ Sy− 2 ∗ P60∗ Syy1P70= Factor[

Expand[

Sy2+ P502 ∗ T + P602 ∗ Sy12− 2 ∗ P50∗ Sy− 2 ∗ P60∗ Syy1P70= Factor[

Expand[

Sy2+ P502 ∗ T + P602 ∗ Sy12− 2 ∗ P50∗ Sy− 2 ∗ P60∗ Syy1+2 ∗ P50∗ P60∗ Sy1]];+2 ∗ P50∗ P60∗ Sy1]];+2 ∗ P50∗ P60∗ Sy1]];

(* F GRANGER *)(* F GRANGER *)(* F GRANGER *)F10= Factor

[

Expand[

(P70− P40)/(

P40∗ T−1) ]]

;F10= Factor[

Expand[

(P70− P40)/(

P40∗ T−1) ]]

;F10= Factor[

Expand[

(P70− P40)/(

P40∗ T−1) ]]

;F10num= Numerator[F10];F10num= Numerator[F10];F10num= Numerator[F10];K15 = Exponent[F10num,T];K15 = Exponent[F10num,T];K15 = Exponent[F10num,T];F11num= Factor

[

Limit[

Expand[

F10num/

TK15]

,T → ∞]]

;F11num= Factor[

Limit[

Expand[

F10num/

TK15]

,T → ∞]]

;F11num= Factor[

Limit[

Expand[

F10num/

TK15]

,T → ∞]]

;F10den= Denominator[F10];F10den= Denominator[F10];F10den= Denominator[F10];K16 = Exponent[F10den,T];K16 = Exponent[F10den,T];K16 = Exponent[F10den,T];F11den= Factor

[

Limit[

Expand[

F10den/

TK16]

,T → ∞]]

;F11den= Factor[

Limit[

Expand[

F10den/

TK16]

,T → ∞]]

;F11den= Factor[

Limit[

Expand[

F10den/

TK16]

,T → ∞]]

;

Fstat= Factor[

Expand[

(F11num/F11den)∗ TK15

TK16

]]

Fstat= Factor[

Expand[

(F11num/F11den)∗ TK15

TK16

]]

Fstat= Factor[

Expand[

(F11num/F11den)∗ TK15

TK16

]]

C.4. Prueba del teorema (3.5)

ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;ClearAll; St= 12 ∗

(

T2 + T)

; St2= 16 ∗

(

2 ∗ T3 + 3 ∗ T2 + T)

;

Sx1= Mx ∗ St−Mx ∗ T + Ex ∗ T32 ;Sx1= Mx ∗ St−Mx ∗ T + Ex ∗ T32 ;Sx1= Mx ∗ St−Mx ∗ T + Ex ∗ T32 ;

Sy12= My2 ∗ St2+My2 ∗ T + Ey2∗ T2 − 2 ∗My2 ∗ St+ 2 ∗My ∗ Eyt ∗ T52 − 2 ∗My ∗ Ey ∗ T

32 ;Sy12= My2 ∗ St2+My2 ∗ T + Ey2∗ T2 − 2 ∗My2 ∗ St+ 2 ∗My ∗ Eyt ∗ T

52 − 2 ∗My ∗ Ey ∗ T

32 ;Sy12= My2 ∗ St2+My2 ∗ T + Ey2∗ T2 − 2 ∗My2 ∗ St+ 2 ∗My ∗ Eyt ∗ T

52 − 2 ∗My ∗ Ey ∗ T

32 ;

Sx12= Mx2 ∗ St2+Mx2 ∗ T + Ex2∗ T2 − 2 ∗Mx2 ∗ St+ 2 ∗Mx ∗ Ext ∗ T52 − 2 ∗Mx ∗ Ex ∗ T

32 ;Sx12= Mx2 ∗ St2+Mx2 ∗ T + Ex2∗ T2 − 2 ∗Mx2 ∗ St+ 2 ∗Mx ∗ Ext ∗ T

52 − 2 ∗Mx ∗ Ex ∗ T

32 ;Sx12= Mx2 ∗ St2+Mx2 ∗ T + Ex2∗ T2 − 2 ∗Mx2 ∗ St+ 2 ∗Mx ∗ Ext ∗ T

52 − 2 ∗Mx ∗ Ex ∗ T

32 ;

Sy2= My2 ∗ St2+ Ey2∗ T2 + Uy2 ∗ T + 2 ∗My ∗ Eyt ∗ T52 + 2 ∗My ∗ Uyt ∗ T

32 + 2 ∗ Eyuy∗ T;Sy2= My2 ∗ St2+ Ey2∗ T2 + Uy2 ∗ T + 2 ∗My ∗ Eyt ∗ T

52 + 2 ∗My ∗ Uyt ∗ T

32 + 2 ∗ Eyuy∗ T;Sy2= My2 ∗ St2+ Ey2∗ T2 + Uy2 ∗ T + 2 ∗My ∗ Eyt ∗ T

52 + 2 ∗My ∗ Uyt ∗ T

32 + 2 ∗ Eyuy∗ T;

Syt= My ∗ St2+ Eyt ∗ T52 + Uyt ∗ T

32 ;Syt= My ∗ St2+ Eyt ∗ T

52 + Uyt ∗ T

32 ;Syt= My ∗ St2+ Eyt ∗ T

52 + Uyt ∗ T

32 ;

Sy1t= My ∗ St2−My ∗ St+ Eyt ∗ T52 ;Sy1t= My ∗ St2−My ∗ St+ Eyt ∗ T52 ;Sy1t= My ∗ St2−My ∗ St+ Eyt ∗ T52 ;

Sx1t= Mx ∗ St2−Mx ∗ St+ Ext ∗ T52 ;Sx1t= Mx ∗ St2−Mx ∗ St+ Ext ∗ T52 ;Sx1t= Mx ∗ St2−Mx ∗ St+ Ext ∗ T52 ;

Sy1x1= My ∗ Sx1t−My ∗ Sx1+Mx ∗ Eyt ∗ T52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2;Sy1x1= My ∗ Sx1t−My ∗ Sx1+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2;Sy1x1= My ∗ Sx1t−My ∗ Sx1+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2;

Syy1= My ∗ Sy1t+My ∗ Eyt ∗ T52 −My ∗ Ey ∗ T

32 + Ey2∗ T2 +My ∗ Uyt ∗ T

32 −My ∗ Uy ∗ T

12Syy1= My ∗ Sy1t+My ∗ Eyt ∗ T

52 −My ∗ Ey ∗ T

32 + Ey2∗ T2 +My ∗ Uyt ∗ T

32 −My ∗ Uy ∗ T

12Syy1= My ∗ Sy1t+My ∗ Eyt ∗ T

52 −My ∗ Ey ∗ T

32 + Ey2∗ T2 +My ∗ Uyt ∗ T

32 −My ∗ Uy ∗ T

12

+Eyuy∗ T;+Eyuy∗ T;+Eyuy∗ T;Syx1= My ∗ Sx1t+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2 +Mx ∗ Uyt ∗ T

32 −Mx ∗ Uy ∗ T

12Syx1= My ∗ Sx1t+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2 +Mx ∗ Uyt ∗ T

32 −Mx ∗ Uy ∗ T

12Syx1= My ∗ Sx1t+Mx ∗ Eyt ∗ T

52 −Mx ∗ Ey ∗ T

32 + Eyx ∗ T2 +Mx ∗ Uyt ∗ T

32 −Mx ∗ Uy ∗ T

12

+Exuy∗ T;+Exuy∗ T;+Exuy∗ T;

(* Regresión no restringida *)(* Regresión no restringida *)(* Regresión no restringida *)

MxNR =

Sy12 Sy1x1 Sy1tSy1x1 Sx12 Sx1tSy1t Sx1t St2

; VxyNR =

Syy1Syx1Syt

;MxNR =

Sy12 Sy1x1 Sy1tSy1x1 Sx12 Sx1tSy1t Sx1t St2

; VxyNR =

Syy1Syx1Syt

;MxNR =

Sy12 Sy1x1 Sy1tSy1x1 Sx12 Sx1tSy1t Sx1t St2

; VxyNR =

Syy1Syx1Syt

;

iMxNR = Inverse[MxNR];iMxNR = Inverse[MxNR];iMxNR = Inverse[MxNR];Param1= iMxNR.VxyNR;Param1= iMxNR.VxyNR;Param1= iMxNR.VxyNR;P10= Factor[Expand[Extract[Param1, 1,1]]];P10= Factor[Expand[Extract[Param1, 1,1]]];P10= Factor[Expand[Extract[Param1, 1,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P20= Factor[Expand[Extract[Param1, 2,1]]];P30= Factor[Expand[Extract[Param1, 3,1]]];P30= Factor[Expand[Extract[Param1, 3,1]]];P30= Factor[Expand[Extract[Param1, 3,1]]];

C.4. Prueba del teorema (3.5) 79

P40= Factor[

Expand[

Sy2+ P102 ∗ Sy12+ P202 ∗ Sx12+ P302 ∗ St2− 2 ∗ P10∗ Syy1P40= Factor[

Expand[

Sy2+ P102 ∗ Sy12+ P202 ∗ Sx12+ P302 ∗ St2− 2 ∗ P10∗ Syy1P40= Factor[

Expand[

Sy2+ P102 ∗ Sy12+ P202 ∗ Sx12+ P302 ∗ St2− 2 ∗ P10∗ Syy1−2 ∗ P20∗ Syx1− 2 ∗ P30∗ Syt+ 2 ∗ P10∗ P20∗ Sy1x1+ 2 ∗ P10∗ P30∗ Sy1t+ 2 ∗ P20∗ P30∗ Sx1t]];−2 ∗ P20∗ Syx1− 2 ∗ P30∗ Syt+ 2 ∗ P10∗ P20∗ Sy1x1+ 2 ∗ P10∗ P30∗ Sy1t+ 2 ∗ P20∗ P30∗ Sx1t]];−2 ∗ P20∗ Syx1− 2 ∗ P30∗ Syt+ 2 ∗ P10∗ P20∗ Sy1x1+ 2 ∗ P10∗ P30∗ Sy1t+ 2 ∗ P20∗ P30∗ Sx1t]];

(* Regresión restringida *)(* Regresión restringida *)(* Regresión restringida *)

MxR =

(

Sy12 Sy1tSy1t St2

)

; VxyR =

(

Syy1Syt

)

;MxR =

(

Sy12 Sy1tSy1t St2

)

; VxyR =

(

Syy1Syt

)

;MxR =

(

Sy12 Sy1tSy1t St2

)

; VxyR =

(

Syy1Syt

)

;

iMxR = Inverse[MxR];iMxR = Inverse[MxR];iMxR = Inverse[MxR];Param2= iMxR.VxyR;Param2= iMxR.VxyR;Param2= iMxR.VxyR;P50= Factor[Expand[Extract[Param2, 1,1]]];P50= Factor[Expand[Extract[Param2, 1,1]]];P50= Factor[Expand[Extract[Param2, 1,1]]];P60= Factor[Expand[Extract[Param2, 2,1]]];P60= Factor[Expand[Extract[Param2, 2,1]]];P60= Factor[Expand[Extract[Param2, 2,1]]];P70= Factor

[

Expand[

Sy2+ P502 ∗ Sy12+ P602 ∗ St2− 2 ∗ P50∗ Syy1− 2 ∗ P60∗ SytP70= Factor[

Expand[

Sy2+ P502 ∗ Sy12+ P602 ∗ St2− 2 ∗ P50∗ Syy1− 2 ∗ P60∗ SytP70= Factor[

Expand[

Sy2+ P502 ∗ Sy12+ P602 ∗ St2− 2 ∗ P50∗ Syy1− 2 ∗ P60∗ Syt+2 ∗ P50∗ P60∗ Sy1t]];+2 ∗ P50∗ P60∗ Sy1t]];+2 ∗ P50∗ P60∗ Sy1t]];

(* F GRANGER *)(* F GRANGER *)(* F GRANGER *)F10= Factor

[

Expand[

(P70− P40)/(

P40∗ T−1) ]]

;F10= Factor[

Expand[

(P70− P40)/(

P40∗ T−1) ]]

;F10= Factor[

Expand[

(P70− P40)/(

P40∗ T−1) ]]

;F10num= Numerator[F10];F10num= Numerator[F10];F10num= Numerator[F10];K15 = Exponent[F10num,T];K15 = Exponent[F10num,T];K15 = Exponent[F10num,T];F11num= Factor

[

Limit[

Expand[

F10num/

TK15]

,T → ∞]]

;F11num= Factor[

Limit[

Expand[

F10num/

TK15]

,T → ∞]]

;F11num= Factor[

Limit[

Expand[

F10num/

TK15]

,T → ∞]]

;F10den= Denominator[F10];F10den= Denominator[F10];F10den= Denominator[F10];K16 = Exponent[F10den,T];K16 = Exponent[F10den,T];K16 = Exponent[F10den,T];F11den= Factor

[

Limit[

Expand[

F10den/

TK16]

,T → ∞]]

;F11den= Factor[

Limit[

Expand[

F10den/

TK16]

,T → ∞]]

;F11den= Factor[

Limit[

Expand[

F10den/

TK16]

,T → ∞]]

;

Bibliografía

[Akerlof 2009] G.A. Akerlof and P.J. Klenow.Comments and discussion. Brookings Papers on Eco-nomic Activity, vol. 2009, no. 1, pages 322–332, 2009. (Citado en página7.)

[Andersson 2005] J. Andersson.Testing for Granger causality in the presence of measurement errors.Economics Bulletin, vol. 3, no. 47, pages 1–13, 2005. (Citado en página10y 46.)

[Basmann 1965] RL Basmann.A note on the statistical testability of ’explicit causal chains’ against theclass of’interdependent’models. Journal of the American Statistical Association, pages 1080–1093, 1965. (Citado en página8.)

[Billingsley 1999] P. Billingsley. Convergence of probability measures. Wiley-Interscience, 1999.(Citado en página38.)

[Billingsley 2008] P. Billingsley. Probability and measure. Wiley-India, 2008. (Citado en página38.)

[Blalock 1961] H.M. Blalock. Causal inferences in nonexperimental research. University of NorthCarolina Press Chapel Hill, 1961. (Citado en página7.)

[Brockwell 2009] P.J. Brockwell and R.A. Davis. Time series: theory and methods. Springer Verlag,2009. (Citado en página12y 23.)

[Chamberlain 1982] G. Chamberlain.The general equivalence of Granger and Sims causality. Econo-metrica: Journal of the Econometric Society, vol. 50, no. 3,pages 569–581, 1982. (Citado enpágina9.)

[Christiano 1988] L.J. Christiano and L. Ljungqvist.Money does Granger-cause output in the bivariatemoney-output relation. Journal of Monetary Economics, vol. 22, no. 2, pages 217–35, 1988.(Citado en página46.)

[Dickey 1979] D.A. Dickey and W.A. Fuller.Distribution of the estimators for autoregressive timeseries with a unit root. Journal of the American statistical association, vol. 74,no. 366, pages427–431, 1979. (Citado en página43.)

[Diebold 2006] F.X. Diebold. Elements of forecasting. Thomson, 2006. (Citado en página9.)

[Diks 2006] C. Diks and V. Panchenko.A new statistic and practical guidelines for nonparametricGranger causality testing. Journal of Economic Dynamics and Control, vol. 30, no. 9-10, pages1647–1669, 2006. (Citado en página10.)

[Dufour 1998] J.M. Dufour and E. Renault.Short run and long run causality in time series: theory.Econometrica, vol. 66, no. 5, pages 1099–1125, 1998. (Citado en página9.)

[Eichler 2006] M. Eichler. Graphical modelling of multivariate time series. Arxiv preprintmath/0610654, 2006. (Citado en página2 y 3.)

[Eichler 2007] M. Eichler.Granger causality and path diagrams for multivariate time series. Journalof Econometrics, vol. 137, no. 2, pages 334–353, 2007. (Citado en página2.)

Bibliografía 81

[Fama 1970] E.F. Fama.Efficient capital markets: A review of theory and empirical work. Journal offinance, vol. 25, no. 2, pages 383–417, 1970. (Citado en página 8.)

[Fama 1975] E.F. Fama.Short-term interest rates as predictors of inflation. The American EconomicReview, vol. 65, no. 3, pages 269–282, 1975. (Citado en página 8.)

[Feigl 1953] H. Feigl. Notes on causality. Readings in the Philosophy of Science, pages 408–418,1953. (Citado en página7.)

[Florens 1982] JP Florens and M. Mouchart.A note on noncausality. Econometrica: Journal of theEconometric Society, vol. 50, no. 3, pages 583–591, 1982. (Citado en página9.)

[Florens 1985] J.P. Florens and M. Mouchart.A linear theory for noncausality. Econometrica: Journalof the Econometric Society, vol. 53, no. 1, pages 157–175, 1985. (Citado en página9.)

[Foresti 2007] P. Foresti.Testing for Granger causality between stock prices and economic growth.MPRA Paper, 2007. (Citado en el prólogo.)

[Geweke 1983] J. Geweke, R. Meese and W. Dent.Comparing alternative tests of causality in temporalsystems: Analytic results and experimental evidence. Journal of Econometrics, vol. 21, no. 2,pages 161–194, 1983. (Citado en página10.)

[Geweke 1984] J. Geweke.Inference and causality in economic time series models. Handbook ofEconometrics, vol. 2, pages 1101–1144, 1984. (Citado en página 9.)

[Gouriéroux 1990] C. Gouriéroux and A. Monfort. Séries temporelles et modèles dynamiques. Econo-mica Paris, 1990. (Citado en página10.)

[Granger 1964] C.W.J. Granger, M. Hatanaka and CWJ Granger. Spectral analysis of economic timeseries, volume 299. Princeton university press New Jersey,1964. (Citado en página11y 17.)

[Granger 1966] CWJ Granger.The typical spectral shape of an economic variable. Econometrica:Journal of the Econometric Society, vol. 34, no. 1, pages 150–161, 1966. (Citado en página11.)

[Granger 1969] CWJ Granger.Investigating causal relations by econometric models and cross-spectralmethods. Econometrica: Journal of the Econometric Society, vol. 37, no. 3, pages 424–438,1969. (Citado en página2, 3, 4, 11, 18, 19y 23.)

[Granger 1974] C.W.J. Granger and P . Newbold.Spurious regressions in econometrics. Journal ofEconometrics, vol. 2, no. 2, pages 111–120, 1974. (Citado enpágina6, 41y 43.)

[Granger 1980] C.W.J. Granger.Testing for causality: A personal viewpoint. Journal of EconomicDynamics and Control, vol. 2, pages 329–352, 1980. (Citado en página9.)

[Granger 1988] C.W.J. Granger.Some recent development in a concept of causality. Journal of econo-metrics, vol. 39, no. 1-2, pages 199–211, 1988. (Citado en página9.)

[Guisan 2004] M.C. Guisan.A Comparison of Causality Tests Applied to the Bilateral Relationshipbetween Consumption and GDP in the USA and Mexico. International Journal of Applied Eco-nometrics and Quantitative Studies, vol. 1, no. 1, pages 115–130, 2004. (Citado en el prólogo.)

[Haavelmo 1943] T. Haavelmo.The statistical implications of a system of simultaneous equations.Econometrica, Journal of the Econometric Society, vol. 11,no. 1, pages 1–12, 1943. (Citado enpágina5.)

82 Bibliografía

[Haavelmo 1944] T. Haavelmo.The probability approach in econometrics. Econometrica: Journal ofthe Econometric Society, vol. 12, 1944. (Citado en página5.)

[Hamilton 1994] J.D. Hamilton. Time series analysis. Princeton Univ Pr, 1994. (Citado en página25,39y 47.)

[Haugh 1976] L.D. Haugh.Checking the independence of two covariance-stationary time series: aunivariate residual cross-correlation approach. Journal of the American Statistical Association,vol. 71, no. 354, pages 378–385, 1976. (Citado en página24.)

[Hayo 1999] B. Hayo.Money-output Granger causality revisited: an empirical analysis of EU coun-tries. Applied Economics, vol. 31, pages 1489–1501, 1999. (Citado en el prólogo.)

[He 2001] Z. He and K. Maekawa.On spurious Granger causality. Economics Letters, vol. 73, no. 3,pages 307–313, 2001. (Citado en página10, 21y 47.)

[Hendry 2004] D.F. Hendry.Causality and Exogeneity in Non-stationary Economic Time Series. Newdirections in macromodelling, page 21, 2004. (Citado en página 10.)

[Hendry 2009] D.F. Hendry and M. Hashem Pesaran.In memory of Clive Granger: an advisory boardmember of the journal. Journal of Applied Econometrics, vol. 24, no. 6, pages 871–873, 2009.(Citado en página4.)

[Hsiao 1979] C. Hsiao.Autoregressive modeling of Canadian money and income data. Journal of theAmerican Statistical Association, vol. 74, no. 367, pages 553–560, 1979. (Citado en página24.)

[Hsiao 1982] C. Hsiao.Autoregressive modeling and causal ordering of economic variables. Journalof Economic Dynamics and Control, vol. 4, pages 243–259, 1982. (Citado en página2.)

[Kapetanios 2005] G. Kapetanios.Unit-root testing against the alternative hypothesis of upto m struc-tural breaks. Journal of Time Series Analysis, vol. 26, no. 1, pages 123–133, 2005. (Citado enpágina44y 45.)

[Lewis 1973] D. Lewis. Causation. The Journal of Philosophy, pages 556–567, 1973. (Citado enelprólogo.)

[Liang 2000] H. Liang, M. Ding, R . Nakamura and S.L. Bressler. Causal influences in primate cerebralcortex during visual pattern discrimination. Neuroreport, vol. 11, no. 13, page 2875, 2000.(Citado en página1.)

[Liitkepohl 1991] H. Liitkepohl. Introduction to multiple time series analysis. Berlin et al, 1991.(Citado en página9.)

[Lumsdaine 1997] R.L. Lumsdaine and D.H. Papell.Multiple trend breaks and the unit-root hypothesis.Review of Economics and Statistics, vol. 79, no. 2, pages 212–218, 1997. (Citado en página44y 45.)

[Marinazzo 2006] D. Marinazzo, M. Pellicoro and S. Stramaglia. Nonlinear parametric model forGranger causality of time series. Physical Review E, vol. 73, no. 6, page 66216, 2006. (Citadoen página10.)

[Marshall 1890] A. Marshall. The Principles of Economics. History of Economic Thought Books,1890. (Citado en página5.)

Bibliografía 83

[McCrorie 2006] J.R. McCrorie and M.J. Chambers.Granger causality and the sampling of economicprocesses. Journal of econometrics, vol. 132, no. 2, pages 311–336, 2006. (Citado en página46.)

[Muth 1961] J.F. Muth. Rational expectations and the theory of price movements. Econometrica:Journal of the Econometric Society, vol. 29, no. 3, pages 315–335, 1961. (Citado en página8.)

[Nelson 1977] C.R. Nelson and G.W. Schwert.Short-term interest rates as predictors of inflation: Ontesting the hypothesis that the real rate of interest is constant. The American Economic Review,pages 478–486, 1977. (Citado en página8.)

[Nelson 1982] C.R. Nelson and C.R. Plosser.Trends and random walks in macroeconmic time series::Some evidence and implications. Journal of monetary economics, vol. 10, no. 2, pages 139–162,1982. (Citado en página43, 45y 48.)

[Nerlove 1964] M.Ñerlove.Spectral analysis of seasonal adjustment procedures. Econometrica: Jour-nal of the Econometric Society, vol. 32, no. 3, pages 241–286, 1964. (Citado en página10.)

[Newbold 1982] P . Newbold.Causality testing in economics. Time Series Analysis: Theory andPractice, vol. 1, no. 1, pages 701–716, 1982. (Citado en página9.)

[Ohanian 1988] L.E. Ohanian.The spurious effects of unit roots on vector autoregressions: A MonteCarlo study. Journal of Econometrics, vol. 39, no. 3, pages 251–266, 1988. (Citado en pági-na10.)

[Øksendal 2003] B.K. Øksendal. Stochastic differential equations: an introduction with applications.Springer Verlag, 2003. (Citado en página38.)

[Pearl 1995] J. Pearl.Causal diagrams for empirical research. Biometrika, vol. 82, no. 4, page 669,1995. (Citado en página2.)

[Perron 1989] P. Perron.The great crash, the oil price shock, and the unit root hypothesis. Econome-trica, vol. 57, no. 6, pages 1361–1401, 1989. (Citado en página43y 45.)

[Perron 1997] P. Perron.Further evidence on breaking trend functions in macroeconomic variables*1. Journal of Econometrics, vol. 80, no. 2, pages 355–385, 1997. (Citado en página44y 45.)

[Phillips 1986] P.C.B. Phillips.Understanding spurious regressions in econometrics. Journal of eco-nometrics, vol. 33, no. 3, pages 311–340, 1986. (Citado en página38y 39.)

[Phillips 1987] P.C.B. Phillips.Time series regression with a unit root. Econometrica, vol. 55, no. 2,pages 277–301, 1987. (Citado en página39.)

[Phillips 1988] P.C.B. Phillips.Reflections on Econometric Methodology. Economic Record, vol. 64,no. 4, pages 344–359, 1988. (Citado en página9.)

[Pierce 1977] D.A. Pierce and L.D. Haugh.Causality in temporal systems: Characterization and asurvey. Journal of Econometrics, vol. 5, no. 3, pages 265–293, 1977. (Citado en página9 y 24.)

[Pierce 1979] D.A. Pierce and L.D. Haugh.The characterization of instantaneous causality: A com-ment. Journal of Econometrics, vol. 10, no. 2, pages 257–259, 1979. (Citado en página9.)

[Revuz 1999] D. Revuz and M. Yor. Continuous martingales andBrownian motion. Springer Verlag,1999. (Citado en página38.)

84 Bibliografía

[Russell 1912] B. Russell.On the notion of cause. Proceedings of the Aristotelian Society, vol. 13,pages 1–26, 1912. (Citado en el prólogo.)

[Sanso 2006] A. Sanso.Joint hypothesis specification for unit root tests with a structural break. TheEconometrics Journal, vol. 9, no. 2, pages 196–224, 2006. (Citado en página44y 45.)

[Sargent 1976] T.J. Sargent.A classical macroeconometric model for the United States. The Journalof Political Economy, vol. 84, no. 2, pages 207–237, 1976. (Citado en página24.)

[Schwert 1979] G.W. Schwert.Tests of Causality. Three Aspects of Policy and Policymaking: Know-ledge, Data and Institutions, Amsterdam, North-Holland, 1979. (Citado en página6 y 9.)

[Sims 1972] C.A. Sims.Money, Income, and Causality. The American Economic Review, vol. 62,no. 4, pages 540–552, 1972. (Citado en página24.)

[Sims 1980] C.A. Sims. Macroeconomics and reality. Econometrica: Journal of the EconometricSociety, vol. 48, no. 1, pages 1–48, 1980. (Citado en página2.)

[Sims 1990] C.A. Sims, J.H. Stock and M.W. Watson.Inference in linear time series models with someunit roots. Econometrica: Journal of the Econometric Society, vol. 58, no. 1, pages 113–144,1990. (Citado en página10.)

[Toda 1993] H.Y. Toda and P.C.B. Phillips.The spurious effect of unit roots on vector autoregressions::An analytical study. Journal of Econometrics, vol. 59, no. 3, pages 229–255, 1993. (Citado enpágina10, 47y 48.)

[Toda 1994] H.Y. Toda and P.C.B. Phillips.Vector autoregression and causality: a theoretical overviewand simulation study. Econometric Reviews, vol. 13, no. 2, pages 259–285, 1994. (Citado enpágina9 y 47.)

[Ventosa-Santaulària 2006] D. Ventosa-Santaulària and A.E. Noriega. Spurious Regression UnderBroken-Trend Stationarity. Journal of Time Series Analysis, vol. 27, no. 5, pages 671–684,2006. (Citado en página43.)

[Ventosa-Santaulària 2007] D. Ventosa-Santaulària and A.E. Noriega.Spurious Regression and Tren-ding Variables. Oxford Bulletin of Economics and Statistics, vol. 69, no. 3, pages 439–444,2007. (Citado en página43.)

[Ventosa-Santaulària 2008] D. Ventosa-Santaulària and J.E. Vera-Valdés.Granger-causality in the pre-sence of structural breaks. Economics Bulletin, vol. 3, no. 61, pages 1–14, 2008. (Citado enpágina10, 46y 47.)

[Ventosa-Santaulària 2009a] D. Ventosa-Santaulària.Spurious Regression. Journal of Probability andStatistics, vol. 2009, pages 1–27, 2009. (Citado en página43.)

[Ventosa-Santaulària 2009b] D. Ventosa-Santaulària. Spurious regression in time-series econometrics.VDM Verlag, 2009. (Citado en página43.)

[Ventosa-Santaulària 2011] D. Ventosa-Santaulària and M.Gómez-Zaldívar.Testing for a Determinis-tic Trend When There is Evidence of Unit Root. Journal of Time Series Econometrics, vol. 2,no. 2, page 3, 2011. (Citado en página44, 45, 47, 48y 55.)

[Wei 1990] W.W.S. Wei. Time series analysis. Univariate andMultivariate Methods. Addison-WesleyReading, MA, 1990. (Citado en página13.)

Bibliografía 85

[White 2001] H. White. Asymptotic theory for econometricians. Academic Press Orlando, Florida,2001. (Citado en página37y 38.)

[Wiener 1956] N. Wiener.The theory of prediction. Modern mathematics for engineers, Series, vol. 1,pages 125–139, 1956. (Citado en página3.)

[Wold 1954] H. Wold.Causality and econometrics. Econometrica: Journal of the Econometric Society,vol. 22, no. 2, pages 162–177, 1954. (Citado en página8.)

[Wright 1934] S. Wright. The method of path coefficients. The Annals of Mathematical Statistics,vol. 5, no. 3, pages 161–215, 1934. (Citado en página2.)

[Yule 1926] G.U. Yule.Why do we sometimes get nonsense-correlations between Time-Series?–a studyin sampling and the nature of time-series. Journal of the royal statistical society, vol. 89, no. 1,pages 1–63, 1926. (Citado en página41.)

[Zapata 1988] H.O. Zapata, M.A. Hudson and P. Garcia.Identifying Causal Relationships BetweenNonstationary Stochastic Processes: An Examination of Alternative Approaches in Small Sam-ples. Western Journal of Agricultural Economics, vol. 13, no. 02, 1988. (Citado en página21.)

[Zellner 1977] A. Zellner.Comments on time series and causal concepts in business cycle research.New methods in business cycle research.Minneapolis: Federal Reserve Bank of Minneapolis,1977. (Citado en página9.)

[Zellner 1979] A. Zellner.Causality and econometrics. In Carnegie-Rochester Conference Series onPublic Policy, volume 10, pages 9–54. Elsevier, 1979. (Citado en página9.)

[Zellner 1988] A. Zellner.Causality and causal laws in economics. Journal of Econometrics, vol. 39,no. 1-2, pages 7–21, 1988. (Citado en página9.)

[Zivot 1992] E. Zivot and D.W.K. Andrews.Further evidence on the great crash, the oil-price shock,and the unit-root hypothesis. Journal of business and economic statistics, vol. 20, no. 1, pages25–44, 1992. (Citado en página44y 45.)

[Zou 2009] C. Zou and J. Feng.Granger causality vs. dynamic Bayesian network inference:a compa-rative study. BMC bioinformatics, vol. 10, no. 1, page 122, 2009. (Citadoen página10.)

A los que nunca pudieron regresar a casa.A ustedes: Porque el tiempo, la soledad y el frío me ha enseñado a respetar sus memorias.

Cada monumento y memorial recorrido, a pesar de la adversidad climatológica,ha sido un simple esfuerzo en su honor, con el deseo de que sus huellas

imborrables sirvan de esperanza para que nunca vuelva a ocurrir.