Modelo de regresión simple: Y = 1 + 2 X + u Ahora, demostraremos que el estimador ordinario de...

20
Modelo de regresión simple: Y = 1 + 2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente en un modelo de regresión no tiene sesgo. (unbiased) 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN i i i i i u a X X Y Y X X b 2 2 2

Transcript of Modelo de regresión simple: Y = 1 + 2 X + u Ahora, demostraremos que el estimador ordinario de...

Page 1: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente en un modelo de regresión no tiene sesgo. (unbiased)

1

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

ii

i

ii uaXX

YYXXb 222

Page 2: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Vimos en una presentación anterior que el coeficiente de la pendiente se puede descomponer en el valor real y una suma ponderada de los valores del término de error. weighted sum of the values of the disturbance term.

2

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 3: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Por lo tanto, el valor esperado de b2 es igual al valor esperado de 2 y el valor esperado de la suma ponderada de los valores del término de error.

3

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

2

22

22

iiii

ii

uEauaE

uaEEbE

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 4: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

2 es fijo, por lo que no es afectado por las expectativas. La primera regla del valor esperado (capítulo de revisión) indica que la expectativa de una suma de varias cantidades es igual a la suma de sus expectativas.

4

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

2

22

22

iiii

ii

uEauaE

uaEEbE

iinnnnii uaEuaEuaEuauaEuaE ...... 1111

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 5: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Ahora para cada i, E(aiui) = aiE(ui). Este es un paso realmente importante y sólo lo podemos llevar a cabo con el Modelo A.

5

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

2

22

22

iiii

ii

uEauaE

uaEEbE

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 6: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Bajo el Modelo A, estamos asumiendo que los valores de X en las observaciones no son aleatorios. Por lo que cada ai no es eleatoria dado que sólo es una combinación de los valores de X.

6

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

2

22

22

iiii

ii

uEauaE

uaEEbE

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 7: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

De este modo puede ser tratado como constante, permitiendo que la saquemos de la expectativa usando la segunda regla del valor esperado (capítulo de la revisión).

7

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

2

22

22

iiii

ii

uEauaE

uaEEbE

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 8: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Bajo el supuesto, A.3, E(ui) = 0 para toda i, yel estimador es insesgado. La prueba de la imparcialidad del estimador del intercepto se dejará como un ejercicio.

8

ii

i

ii uaXX

YYXXb 222

2XX

XXa

j

ii

2

22

22

iiii

ii

uEauaE

uaEEbE

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 9: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Es importante notar que los estimadores OLS de los parámetros no son los únicos insesgados. Daremos ejemplos de otros.

9

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 10: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Alguien que nunca ha oído hablar de análisis de regresión, viendo un diagrama de dispersión de una muestra de observaciones, podría estimar la pendiente uniendo la primera y la última observaciones, y dividiendo el aumento en la altura por la distancia horizontal entre ellas. 10

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

Y

Y1

X1 Xn

Yn

X

Yn – Y1

Xn – X1

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 11: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Por lo tanto, el estimador es (Yn–Y1) dividido entre (Xn–X1). Investigaremos si está sesgado o no.

11

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

Y

Y1

X1 Xn

Yn

X

Yn – Y1

Xn – X1

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 12: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Para hacer esto, comenzaremos substituyendo los compoenetes Y en la expresión.

12

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

Y

Y1

X1 Xn

Yn

X

nnn uXY 21

11211 uXY

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 13: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Los términos 1 se anulan y el resto de la expresión se simplifica como se muestra. Así hemos descompuesto este estimador en dos componentes, el valor real y un término de error. Esta descomposición es paralela a la del estimador OLS, pero el término del error es diferente. 13

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 14: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Ahora tomamos expectativas para investigar imparcialidad.

14

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

211

2

1

122

)(1

)()(

uuEXX

XXuu

EEbE

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 15: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple : Y = 1 + 2X + u

El denominador del término de error puede sacarse porque los valores de X no son aleatorios.

15

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

211

2

1

122

)(1

)()(

uuEXX

XXuu

EEbE

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 16: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Dado el supuesto A.3, las expectativas de un y u1 son cero. Por lo tanto, a pesar de ser naïve, este estimador no está sesgado..

16

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

211

2

1

122

)(1

)()(

uuEXX

XXuu

EEbE

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 17: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Es intuitivamente fácil saber que no preferiremos el estimador naïve sobre el OLS. A diferencia del OLS, que toma cuenta de cada observación, emplea solamente la primera y la última, por lo que está perdiendo la mayor parte de la información en la muestra.

17

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

211

2

1

122

)(1

)()(

uuEXX

XXuu

EEbE

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 18: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

El estimador naïve será sensible al valor del término de error u en esas dos observaciones, mientras que el estimador OLS combina todo los valores del término de error y aprovecha la posibilidad de que, hasta cierto punto, se anulen.

18

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

211

2

1

122

)(1

)()(

uuEXX

XXuu

EEbE

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 19: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Modelo de regresión simple: Y = 1 + 2X + u

Con mayor rigor, puede ser demostrado que la variación de población del estimador naïve es mayor que la del estimador OLS, y que el estimador naïve es por lo tanto menos eficiente.

19

1

12

1

112

1

112121

1

12

XX

uu

XX

uuXX

XX

uXuX

XX

YYb

n

n

n

nn

n

nn

n

n

211

2

1

122

)(1

)()(

uuEXX

XXuu

EEbE

nn

n

n

INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Page 20: Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for personal use.

01.07.06