Resumen 2 Parte

31
RESUMEN 2° PARTE ECONOMETRÍA SEMESTRE OTOÑO 2014 PROFESOR: EDINSON PÉREZ B. 1

Transcript of Resumen 2 Parte

Page 1: Resumen 2 Parte

RESUMEN 2° PARTE

ECONOMETRÍA

SEMESTRE OTOÑO 2014

PROFESOR: EDINSON PÉREZ B.1

Page 2: Resumen 2 Parte

MODELO CLÁSICO DE REGRESIÓN LINEAL (MCRL)

1. Lineal en los parámetros. La esperanzacondicional de Y es una función lineal de Xi

2. Valores fijos de X, independientes del término de

error cov(Xi, mi) = o. El supuesto implica que losvalores de X son No estocásticos. Se requierecov(X, m)=0

3. El valor medio de la perturbación mi es igual a

cero los valores positivos de mi se cancelan con los

valores negativos de mi los factores noincluidos en el modelo no afectansistemáticamente el valor de la media de Y. 2

SUPUESTOS DEL MODELO

Page 3: Resumen 2 Parte

4. Homoscedasticidad o varianza de mi es constante

Var(mi ) =s2.

5. No hay autocorrelación entre las perturbaciones.

la correlación entre dos mi y mj cualesquiera es cero

Cov(mi;mj)=0, osea las perturbaciones son

aleatorias e independientes entre sí.

6. El número de observaciones N debe ser mayor que el

número de parámetros bi a estimar (condición

matemática para resolver ecuaciones).

3

MODELO CLÁSICO DE REGRESIÓN LINEAL (MCRL)

SUPUESTOS

Page 4: Resumen 2 Parte

7. Los valores X en una muestra determinada NO

deben ser todos iguales, porque

(b1=Sxiyi/Sxi2parámetros indeterminados).

Además, no puede haber valores atípicos de la

variable X.

8. No debe haber colinealidad exacta entre las

variables X. No hay relación lineal exacta

entre X2 y X3.

9. No hay sesgo de especificación. El modelo

está especificado correctamente.

4

MODELO CLÁSICO DE REGRESIÓN LINEAL (MCRL)

SUPUESTOS

Page 5: Resumen 2 Parte

Usamos estadígrafo F con (k-1) y (N-k) grados delibertad, porque nos permite probar la hipótesisnula H0 de que ninguna de las variablesexplicativas conjuntamente ayuda a explicar lavariable Y.

Si Fc>Ft rechazamos H0; por lo tanto, todas lasvariables independientes contribuyen a explicar lavariable Y.

5

PRUEBA DE SIGNIFICANCIA GLOBAL DEL MODELO

MODELO DE REGRESIÓN MÚLTIPLE

ESTIMACIÓN MCO

Page 6: Resumen 2 Parte

Cuando comparamos dos modelos de regresión con lamisma variable dependiente debemos usar R2 corregidopor sus gl.

Es importante señalar que, al comparar dos modelos conbase R2, ajustado o no, el tamaño de la muestra N y lavariable dependiente deben ser los mismos; lasvariables explicativas pueden adoptar cualquier forma.

Nuestro objetivo no debe ser buscar R2 elevado perse, sino más bien obtener estimadores confiables de losverdaderos coeficientes de regresión poblacional quepermitan realizar inferencia estadística sobre ellos. 6

BONDAD DEL AJUSTE

MODELO DE REGRESIÓN MÚLTIPLE

ESTIMACIÓN MCO

Page 7: Resumen 2 Parte

Para evaluar la contribución incremental denuevas variables a un modelo, aparte del R2

ajustado, se usa el análisis formal ANOVA (testF):

Si Fc>Ft rechazamos H0; por lo tanto las variablesincorporadas contribuyen a mejorar la predicciónde variable Y.

7

CONTRIBUCIÓN INCREMENTAL DE UNA NUEVA VARIABLE

MODELO DE REGRESIÓN MÚLTIPLE

ESTIMACIÓN MCO

Page 8: Resumen 2 Parte

Cuando un modelo de regresión tiene

algunas restricciones, en esos casos

aplicamos MCR. El Test F nos permitirá

decidir cuál de los modelos conviene

mantener, sea este el restringido (R) o no

restringido (NR).

Si Fc>Ft rechazamos H0, significa aceptar

el modelo NR.8

MODELO DE REGRESIÓN MÚLTIPLE

MÍNIMOS CUADRADO RESTRINGIDOS (MCR)

Page 9: Resumen 2 Parte

Los 2 modelos de variables cualitativas son: ANOVA

que usa sólo variables cualitativas y ANCOVA con

variables cualitativas y cuantitativas.

Si una variable cualitativa con m-categorías, sólo hay

que agregar (m−1) variables dicótomas

Para cada variable cualitativa, el número de variables

dicótomas introducidas debe ser una menos que las

categorías de esa variable.

Todas las comparaciones se hacen respecto de la

categoría de comparación que se refleja en b1. 9

MODELOS CON VARIABLES DICOTÓMICAS

Page 10: Resumen 2 Parte

Si la multicolinealidad es perfecta entre lasvariables independientes los coeficientes deregresión serán indeterminados y sus erroresestándares infinitos.

Si la multicolinealidad es imperfecta loscoeficientes de regresión, aunque seandeterminados, poseerán grandes erroresestándar, los coeficientes no podrán serestimados con gran precisión.

La multicolinealidad No Aplica para variablesindependientes No Lineales, por ejemplo lafunción de producción Cobb-Douglas o unafunción de costo marginal. 10

MULTICOLINEALIDAD

NATURALEZA

Page 11: Resumen 2 Parte

Método de recolección de datos: muestras en unintervalo demasiado limitado de valores.

Restricciones en el modelo: Por ejemplo, el consumode electricidad con el ingreso y el tamaño de lasviviendas.

Especificación del modelo: por ejemplo, cuando laespecificación funcional no corresponde a la del marcoteórico.

Modelo sobredeterminado: esto sucede cuando elmodelo tiene más variables explicativas (X) que elnúmero de observaciones (N).

Elección de la muestra: en el sentido que, aunque lasvariables X no estén linealmente co-relacionadas en lapoblación, pueden estarlo en una muestra en particular.

11

CAUSAS

MULTICOLINEALIDAD

Page 12: Resumen 2 Parte

Con multicolinealidad imperfecta los estimadoresMCO siguen siendo MELI, puesto quecontinúan siendo insesgados, con varianzamínima.

No obstante que los estimadores son MELI,presentan varianzas y covarianzas grandesque dificultan la estimación precisa.

Los intervalos de confianza tienden a ser muchomás amplios, lo cual propicia una aceptación másfácil de la H0, invalidando los test t.

12

MULTICOLINEALIDAD

CONSECUENCIA

Page 13: Resumen 2 Parte

13

MULTICOLINEALIDAD

Page 14: Resumen 2 Parte

R2 elevado y pocas test t significativas.

Altas correlaciones entre parejas de regresoras X.

Regresiones auxiliares (regresiones entre las X) para

detectar R2 elevados.

“Regla de Klein” si en alguna regresión auxiliar R2

(entre las X’s) > R2 (con Y)síntoma colinealidad alta.

FIV superior a 10

Diagramas de dispersión entre pares de variables.14

MULTICOLINEALIDAD

MÉTODO DE DETECCIÓN PRÁCTICO

Page 15: Resumen 2 Parte

Siendo un problema inherente a la muestra, a vecesno es posible corregir el problema.. sólo mejorar lamuestra…. datos nuevos.

Si se cuenta con información previa, entonces usarla(investigación anterior, la teoría, etc.).

Combinar datos de corte transversal y series detiempo.

Eliminar una(s) variable(s), cuidando no introducirsesgo de especificación.

Transformar variables (p.ej. primeras diferencias enseries de tiempo y razones per cápita). 15

¿QUÉ HACER?

MULTICOLINEALIDAD

Page 16: Resumen 2 Parte

Curva de Aprendizaje: p. ej. Caso dactilógrafas

Cambio comportamiento: p.ej. a medida que aumentaingreso aumenta la discrecionalidad de su uso

Común en estudios de corte transversal es que seanalizan grupos de diferentes tamaños: empresas, ingresospersonas, consumo.

Los Datos como fuente causa: datos de corte transversal técnica recolección de datos Incorrecta transformación de los datos presencia de datos atípicos. N pequeño.

Errores en la especificación del modelo (omisiónvariables relevantes, forma funcional, incorrectatransformación datos):

16

HETEROSCEDASTICIDAD

•E(mi2)=s2

homoscedasticidad•E(mi

2)=si2heteroscedasticidadCAUSAS

Page 17: Resumen 2 Parte

•Los estimadores MCO siguen siendo lineales, insesgados

y consistentes, es decir, al aumentar N el estimador tiende

a su valor verdadero

•Sin embargo, los estimadores β’s dejan de ser de

varianza mínima, pierden propiedad de eficiencia

inferencia estadística que realicemos puede estar errada

•El problema surge porque el Su2/(N-k) deja de ser un

estimador insesgado de s; el sesgo puede ser positivo o

negativo

17

CONSECUENCIAS

HETEROSCEDASTICIDAD

•E(mi2)=s2

homoscedasticidad•E(mi

2)=si2heteroscedasticidad

^

Page 18: Resumen 2 Parte

Observación de los residuos mi2 vs Yi estimado y

también sobre X

Antecedentes de estudios previos: corte transversal la

heteroscedasticidad suele estar presente.

Prueba de Park

lnm2 = a + b lnXi + ni

Si b es estadísticamente significativoHeteroscedasticidad

Prueba de Glejser (útil para muestras grandes)

Sugiere regresión sobre los valores absolutos de m.

Prueba de White: Considera como potenciales

variables explicativas de heteroscedasticidad a todas

las variables X del modelo principal. 18

HETEROSCEDASTICIDAD

^

MÉTODO DE DETECCIÓN PRÁCTICO Y FORMAL

^

Page 19: Resumen 2 Parte

Si conocemos s2i aplicamos MCG (mínimos cuadrados

generalizados/ponderados)Yi = b1X0i+b2X2i+mi / 1/si

Yi/si = b1X0i/si+b2X2i/si+ mi/si,

Estimadores obtenidos serán MELI de varianza constante

Cuando se conoce patrón de s2i se transforma la

información para reflejar los tipos específicos de

heteroscedasticidad, para que en datos transformados

no haya heteroscedasticidad.

Cuando se desconoce s2i y la muestra es grande se

usa método de White para obtener estimadores de las

varianzas y errores estándar que sean consistentes para

así aplicar MCO. 19

HETEROSCEDASTICIDAD

¿QUÉ HACER?

Page 20: Resumen 2 Parte

Inercia de las Macrovariables.

Errores especificación del modelo yconstrucción de datos.

Manipulación inadecuada de datos:promedios, interpolaciones, extrapolaciones, etc.

Transformación inadecuada: la autocorrelaciónpuede inducirse como resultado de transformar elmodelo original.

Fenómeno de la Telaraña.

Rezagos.20

CAUSAS

AUTOCORRELACIÓN

cov(ui , uj |xi , xj ) = E(uiuj ) ≠ 0 i≠j

Page 21: Resumen 2 Parte

Los estimadores serán lineales e insesgados, pero

no tendrán varianza mínima.

Se amplían los intervalos de confianza aceptar

equivocadamente la H0

Si usamos MCO el área aceptación H0 se amplíe.

Los test t y F dejan de ser válidos y, de aplicarse, es

probable que conduzcan a conclusiones erróneas.

Es posible que la Var (u) estimada se subestime, por

lo que el R2 puede ser artificialmente alto. Este

efecto también se trasmite a las Var (b)ee

sesgados.21

AUTOCORRELACIÓN

cov(ui , uj |xi , xj ) = E(uiuj ) ≠ 0 i≠jCONSECUENCIAS

Page 22: Resumen 2 Parte

Corregimos aplicando MCG con

AR(1): ut=rut-1+et que incorpora la

autocorrelación de los errores:

Esta corrección genera estimadores MELI.

22

AUTOCORRELACIÓN

¿QUÉ HACER?

Page 23: Resumen 2 Parte

Observación de los residuos

Pruebas de las Rachas.

Prueba “d” de Durbin-Watson

d ≈ 2[1- r]si r= 0 d = 2 no hay autocorrelación

si r= 1 d = 0 hay autocorrelación positiva

si r=-1 d = 4 hay autocorrelación negativa

23

DETECCIÓN

AUTOCORRELACIÓN

Page 24: Resumen 2 Parte

Prueba “d” de Durbin-Watson. Se define como la razón de la

suma de las diferencias al cuadrado de los residuos sucesivos sobre la SCR

d ≈ 2[1- r]

24

DETECCIÓN

AUTOCORRELACIÓN

Autocorrelación

PositivaSin Autocorrelación

Autocorrelación

Negativa

Page 25: Resumen 2 Parte

Si conocemos r (coeficiente de correlación de 1er orden).

La solución consiste en transformar la regresión en

diferencias rezagadas (ut = rut−1 + εt ):

Yt = β1 + β2Xt + ut (1)

Yt−1 = β1 + β2Xt−1 + ut−1 (2)

rYt−1 = rβ1 + rβ2Xt−1 + rut−1 (2’) multiplicando por r

Yt -rYt−1 = β1(1-r) + β2(Xt -rXt−1) + et (3) = (1) - (2’)

Y*t = β*

1 + β2X*t + et

et satisface supuestos MCOlos estimadores serán MELI

25

¿QUÉ HACER?

AUTOCORRELACIÓN

Page 26: Resumen 2 Parte

Si no conocemos r

Aplicar primeras diferencias:

Yt -Yt−1 = β2(Xt -Xt−1) + et = DY t = β2 DXt + et

La transformación de primeras diferencias puede resultar

adecuada si el coeficiente de autocorrelación es muy alto, por

ejemplo, superior a 0,8 (d muy bajo).

Estimar ρ si no podemos utilizar la

transformación de primeras diferencias:

r ≈1−d/2 estimador

Estimarlo por regresión

Procedimiento iterativo de Cochrane-Orcutt, 26

¿QUÉ HACER?

AUTOCORRELACIÓN

^

Page 27: Resumen 2 Parte

Omisión variables X relevantes

Inclusión de variables superfluas

Errores de medición

Incorrecta especificación funcional

27

ERRORES DE ESPECIFICACIÓN DEL MODELO

Page 28: Resumen 2 Parte

RESUMEN DE EFECTOS DE ERRORES ESPECIFICACIÓN

28

ERRORES DE ESPECIFICACIÓN DEL MODELO

Page 29: Resumen 2 Parte

Errores de medición

En la variable dependiente (Y) las varianzas

estimadas son más grandes que cuando no existen

tales errores de medición, aunque sus

estimadores son insesgados.

En las variables independientes (X) producen

estimadores sesgados e inconsistentes, es

decir, permanecen sesgados aunque el tamaño de

la muestra aumente indefinidamente.

29

ERRORES EN ESPECIFICACIÓN DEL MODELO

Page 30: Resumen 2 Parte

Incorrecta Especificación Funcional

Los errores de especificación funcional sonasimilables a los cometidos por omitir variablesrelevantes en que los estimadores MCO seránsesgados e inconsistentes.

30

ERRORES EN ESPECIFICACIÓN DEL MODELO

Page 31: Resumen 2 Parte

La utilidad de examinar la gráfica de residuos es clara: si

hay errores de especificación, los residuos presentan

patrones distinguibles.

Las pruebas usuales t o F. Ayudan a averiguar la relevancia

verdadera de una o más variables explicativas.

El estadístico d de Durbin-Watson. También se usa para

detectar errores de especificación de modelos

Prueba RESET de Ramsey. Su utilidad radica en que sirve

como indicador general no es particularmente buena para

detectar alguna alternativa específica para un modelo propuesto. 31

DETECCIÓN

ERRORES EN ESPECIFICACIÓN DEL MODELO