Análisis de regresión lineal. Inferencia

67
Análisis de regresión lineal. Inferencia Tema 4 Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Transcript of Análisis de regresión lineal. Inferencia

Page 1: Análisis de regresión lineal. Inferencia

Análisis de regresión lineal. Inferencia

Tema 4

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 2: Análisis de regresión lineal. Inferencia

Supuestos

Supuesto 1 Tiene dos partes,

1.1 Linealidad: 𝑌 = 𝛽0 + 𝛽1𝑋1 +⋯+ 𝛽𝑘𝑋𝑘 + 𝜀

1.2 No multicolinealidad perfecta: (X’X) es de rango completo

Las variables pueden ser no lineales …

La multicolinealidad perfecta impediría el cálculo de (X’X)-1

y por tanto de𝛃 = 𝐗′𝐗

− 1(𝐗′𝐘)

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 3: Análisis de regresión lineal. Inferencia

Supuestos

Supuesto 2: Esperanza condicionada nula o exogeneidad:

Otros factores incluidos en i no están correlacionados con Xi, es decir dado Xi, la esperanza del error es cero. El resto de los factores puede influir pero

su efecto neto es nulo. Implica E(Yi|Xi)=0+1X1.

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2

3

4

5

6

7

0 1 2 3 4 5 6

X

Y

( ) = =0 1,2,...,i i i nX

Page 4: Análisis de regresión lineal. Inferencia

Supuestos

Supuesto 3: Muestra aleatoria: (X1i, X2i …, Xki, Yi), son i.i.d.

Es un supuesto sobre la forma en la que la muestra ha sido extraída. En el ejemplo de los fertilizantes, si asignamos aleatoriamente el tratamiento (fertilizante), podemos suponer que el conjunto de parcelas con fertilizante y el de parcelas sin fertilizante, son iguales por todo lo demás.

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 5: Análisis de regresión lineal. Inferencia

Supuestos

Supuesto 4: Para series de tiempo no suele cumplirse supuesto anterior. El concepto equivalente es el de estacionaridad

- La función de distribución conjunta no cambia con el tiempo, y

- A medida que el desfase temporal aumenta las variables tienden a la independencia

Con estos cuatro supuestos, ya podemos obtener un resultado

importante, en concreto la insesgadez de 𝛃𝑀𝐶𝑂

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 6: Análisis de regresión lineal. Inferencia

Decimos que un estimador መ𝛽𝑗 es insesgado si,

El sesgo de un estimador es la diferencia entre መ𝛽𝑗 y 𝛽𝑗

La insesgadez nos indica que el estimador MCO j está centrado en el parámetro poblacional j. Es una propiedad exacta.

( ) =ˆ j j

Insesgadez del estimador MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 7: Análisis de regresión lineal. Inferencia

Diferencia entre un estimador sesgado y uno insesgado

Concepto de sesgo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Estimador insesgado: E( )=

.0

.1

.2

.3

.4

.5

Page 8: Análisis de regresión lineal. Inferencia

.0

.1

.2

.3

.4

.5

b

Diferencia entre un estimador sesgado y uno insesgado

Concepto de sesgo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Estimador sesgado: E( )=b. Sesgo=b− > 0

Sesgo

Page 9: Análisis de regresión lineal. Inferencia

El estimador MCO es insesgado

En regresión simple 𝑌𝑖 = 𝛽0+ 𝛽1𝑋𝑖 + 𝜀𝑖,

Entonces,

Insesgadez del estimador MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2

1 1

1 12 2 2 2

( )ˆ i i i i i i i i i i

i i i i

x y x x x x x

x x x x

+ += = = = +

1 1 12 2

1 12

ˆ( | ) |

( | )

i i i i

i i

i i

i

x xE X E E X

x x

x E X

x

= + = +

= + =

Page 10: Análisis de regresión lineal. Inferencia

El estimador MCO es insesgado

En regresión múltiple,

Insesgadez del estimador MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

1

1

1

ˆ( ) [ ( ) | ]

[( ) | ]

) ( | )

E E

E

E

= + =

= +

= + =

β | X β X'X X' X

β X'X X' X

β X'X X' X β

1 1 1ˆ ( ) ( ) ( ) ( ) − − −= = + = +β X'X X'Y X'X X' Xβ β X'X X'

Page 11: Análisis de regresión lineal. Inferencia

En una regresión simple, usamos como estimador de la pendiente,

Estudiar el sesgo

Otros estimadores

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

11

1

ˆ n

n

Y Y

X X

−=

Page 12: Análisis de regresión lineal. Inferencia

Supuesto 5: Grandes atípicos poco frecuentes

Con los supuestos anteriores podemos encontrar la distribución asintótica del estimador MCO. Dos resultados fundamentales en este sentido son,

Ley de los grandes números. Bajo ciertas condiciones, la media de una muestra de Y, Ῡ, converge en probabilidad a la media poblacional, (además sabemos que 𝜎 ത𝑌 = 𝜎𝑌/ 𝑛)

Teorema Central del Límite: Si (Y1, Y2, …, Yn) es una muestra aleatoria con E(Y)= y var(Y) = 2, entonces cuando n tiende a infinito,

Supuestos

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) ( )4 40 , 0ji iX Y

( )( )

20,1dn nY Y

n Nn

− −= ⎯⎯→

Page 13: Análisis de regresión lineal. Inferencia

La aplicación de la LGN y el TCL permite afirmar, bajo los supuestos anteiores, que si n es grande la distribución del estimador MCO es aproximadamente normal,

La ventaja de este resultado es que se obtiene con un conjunto mínimo de supuestos. Si la muestra es grande, la distribución asintótica proporciona una aproximación bastante precisa.

El inconveniente es que exige elevados tamaños muestrales. En la práctica se considera que para n > 100 se puede emplear la distribución normal.

Distribución asintótica del estimador

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )2

ˆ

ˆ

ˆˆ , o (0,1)

j

j

j jd d

j jN N

−⎯⎯→ ⎯⎯→

Page 14: Análisis de regresión lineal. Inferencia

Distribución asintótica de መ𝛽1 en reg. simple.

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Sabemos que መ𝛽1 − 𝛽1 =σ 𝑥𝑖𝜀𝑖σ 𝑥1

2 =𝑛−1 σ 𝑥𝑖𝜀𝑖

𝑛−1 σ 𝑥12 =

ത𝑣𝑖

𝑣𝑎𝑟(𝑋𝑖)

▪ ҧ𝑣𝑖 es una media y por el TCL ത𝑣𝑖

𝜎ഥ𝑣→ 𝑁 0,1 con 𝜎ത𝑣

2 = Τ𝜎𝑣2 𝑛

▪ Por tanto ҧ𝑣𝑖 → 𝑁 0, 𝑣𝑎𝑟( ҧ𝑣𝑖) (por S5 𝑣𝑎𝑟( ҧ𝑣𝑖) existe y es finita)

▪ Y ത𝑣𝑖

𝑣𝑎𝑟(𝑋𝑖)→ 𝑁 0,

𝑣𝑎𝑟(ത𝑣𝑖)

𝑣𝑎𝑟 𝑋𝑖2 = 𝑁 0,

𝑣𝑎𝑟(𝑣𝑖)

𝑛 𝑣𝑎𝑟 𝑋𝑖2

▪ Como መ𝛽1 = 𝛽1 +ത𝑣𝑖

𝑣𝑎𝑟(𝑋𝑖), se deduce que,

▪ መ𝛽1→𝑑𝑁 𝛽1,

𝑣𝑎𝑟(𝑣𝑖)

𝑛 𝑣𝑎𝑟 𝑋𝑖2

Page 15: Análisis de regresión lineal. Inferencia

Varianza de . Bajo los supuestos anteriores, es posible demostrar que en regresión simple, Yi = 0+ 1Xi+i,

Propiedades de los estimadores MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

1

2

ˆ1 2

var( )1ˆvar( )[var( )]

i i

i

x

n x

= =

1

Page 16: Análisis de regresión lineal. Inferencia

Consistencia. Decimos que un estimador es consistente si,

Abreviadamente,

A medida que n crece, መ𝛽 está cada vez más cerca de y en el límite coinciden

Propiedades de los estimadores MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )ˆ ˆ, 0, Pr | | 0p

n nsi → − =

ˆlim nn

=

Page 17: Análisis de regresión lineal. Inferencia

Consistencia del estimador MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

n=50

n=100

n=10

Page 18: Análisis de regresión lineal. Inferencia

Teniendo en cuenta la insesgadez, la consistencia del estimador MCO se deduce de,

Propiedades de los estimadores MCO

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

1

2

ˆ1 2

var( )1ˆvar( )[var( )]

i i

i

x

n x

= =

Page 19: Análisis de regresión lineal. Inferencia

Supuesto 6. Homoscedasticidad, o varianza de los errores constante,

Supuestos adicionales (MCRL)

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) 2var i =X

homocedasticidad heterocedasticidad

X1X2

X3

X1 X2 X3

Page 20: Análisis de regresión lineal. Inferencia

Supuesto 7. No autocorrelación: los errores no están autocorrelacionados,

Teniendo en cuenta estos dos supuestos adicionales, la varianza de 𝛃 queda

Supuestos adicionales (MCRL)

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) ( )cov , | 0,t s t sE t s = X X

( )( ) ( )( )

( )

1 1

1 1 1 1

1 1 2 1

ˆ ˆ ' | ( ) ( ) ' |

) ( ) | ( ) ( ) ( )

( )( ) ( ) ( )

E E

E E

E

− −

− − − −

− − −

=

= =

= =

β -β β -β X X'X X'ε X'X X'ε X

X'X X'εε'X X'X X X'X X' εε' X X'X

εε' X'X X'X X'X X'X

Page 21: Análisis de regresión lineal. Inferencia

Además puede demostrarse el siguiente teorema

Teorema de Gauss-Markov.

Bajo los supuestos anteriores los estimadores MCO son lineales, insesgadosy óptimos (ELIO): no hay ningún otro estimador lineal e insesgado, que tenga menos varianza que el estimador MCO.

No excluye que pueda haber estimadores con menos varianza, pero serán sesgados o no lineales

Supuestos adicionales (MCRL)

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 22: Análisis de regresión lineal. Inferencia

El estimador MCO es un estimador lineal. Para verlo, consideremos el

modelo de regresión simple 𝑌𝑖 = 𝛽0+ 𝛽1𝑋𝑖 + 𝜀𝑖 ,

Por ejemplo,

መ𝛽 es un estimador lineal

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

1 2 2ˆ , donde

i i ii i i

i i

x y xw y w

x x = = =

Xi Yi xi yi xi2 xiyi

1 1 -2 -1 4 2

3 2 0 0 0 0

5 3 2 1 4 2

9 6 8

1 2

4ˆ 0.58

i i

i

x y

x = = =

31 21 1 1 2 2 3 3 1 2 32 2 2

ˆ

1 1 2 2 4( 2) 0 (2) 0 0.5

8 8 8 8 8

i i i

xx xw y w y w y y y y

x x x = + + = + +

− = − + + = + + = =

Page 23: Análisis de regresión lineal. Inferencia

𝛃𝑀𝐶𝑂 = (𝐗′𝐗)−1𝐗′𝐘 = 𝐀𝐘 definimos otro estimador lineal e insegado𝛃# = 𝐃 + 𝐀 𝐘, D es una matriz de constantes

i. Se deduce 𝛃#= 𝛃 + 𝐃𝐗𝛃 + (𝐃 + 𝐀)𝜀 y 𝐸 𝛃# = 𝛃 + 𝐃𝐗𝛃 𝐃𝐗=0

ii. 𝛃#= 𝛃 + 𝐃 + 𝐀 𝜀 = 𝛃 + 𝐂𝜀 𝛃# − 𝛃 = 𝐂𝜀

iii. 𝐸 (𝛃# − 𝛃)(𝛃# − 𝛃)′ = 𝐸 𝐂𝜀𝜀′𝐂′ =𝐂𝐸 𝜀𝜀′ 𝐂′ = 𝜎𝜀2𝐂𝐂′

iv. 𝑣𝑎𝑟 𝛃# = 𝜎𝜀2 𝐃𝐃′ + 𝐃𝐀′ + 𝐀𝐃′ + 𝐀𝐀′

v. Pero 𝐃𝐀′ = 𝐃𝐗(𝐗′𝐗)−1= 0 = 𝐀′𝐃

vi. 𝑣𝑎𝑟 𝛃# = 𝜎𝜀2 𝐃𝐃′ + 𝐀𝐀′ = 𝜎𝜀

2𝐃𝐃′ + 𝜎𝜀2𝐀𝐀′

vii. Y 𝜎𝜀2𝐀𝐀′ = 𝜎𝜀

2(𝐗′𝐗)−1𝐗′𝐗(𝐗′𝐗)−1= 𝜎𝜀2(𝐗′𝐗)−1= 𝑣𝑎𝑟 𝛃

viii. 𝑣𝑎𝑟 𝛃# = 𝜎𝜀2𝐃𝐃′ + 𝑣𝑎𝑟 𝛃 (csqd)

Teorema de Gauss Markov (demostración)

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Page 24: Análisis de regresión lineal. Inferencia

Supuesto 8

Normalidad: los errores se distribuyen de forma normal con media nula y varianza constante,

i→ N(0, 2)

Con el supuesto de normalidad,

• La distribución de los estimadores es exactamente normal,

• Los estimadores MCO son los de menor varianza entre la clase de los estimadores insesgados, lineales o no lineales

Supuestos adicionales (MCRL)

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )2ˆ ,jj jN →

Page 25: Análisis de regresión lineal. Inferencia

Hemos visto que,

Tenemos todos los elementos para hacer inferencia.

Pero en , no es conocido. Podemos sustituirlo por su estimador insesgado,

Pero entonces la distribución del estadístico cambia y

Contraste individual o de la t

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

ˆ(0,1)

ˆvar( )

j j

j

N

−→

1 12

1

ˆ

ˆˆvar( )nt

−→

2ˆ1n k

=− −

ε'ε

2 1ˆvar( ) ( )−=β X'X 2

Page 26: Análisis de regresión lineal. Inferencia

Contraste individual o de la t

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )

( )

( ) ( )

1 1 1 1

2 2 22

2

1 1

2

221 1

1 1

2222 2

2

2

ˆ ˆ

/ ˆ/

2

ˆ( )

ˆ / 2

ˆ( ) ˆ / / (0,1)

ˆ / /

1

1 2ˆ / 2

i ii

i

i

ii

n

nii

xx

n

x

n

xx N

tnn

− −

−=

−−

= = = →−−

Lo ilustramos para la regresión simple,

Page 27: Análisis de regresión lineal. Inferencia

En general,

Es una matriz cuadrada y simétrica,

Varianza de 𝛃

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2 1ˆ ˆvar( ) ( )−=β X'X

12 1· 1

21 2· 1

1·1 1·2

11

22

1· 1

k

k

k kk k

a aa

aa a

a a a + +

+

+

+ +

Page 28: Análisis de regresión lineal. Inferencia

En general,

Es una matriz cuadrada y simétrica,

Varianza de 𝛃

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2 1ˆ ˆvar( ) ( )−=β X'X

12 1· 1

21 2· 1

1·1 1·2

11

22

1· 1

k

k

k kk k

a aa

aa a

a a a + +

+

+

+ +

Page 29: Análisis de regresión lineal. Inferencia

En general,

Es una matriz cuadrada y simétrica,

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2 1ˆ ˆvar( ) ( )−=β X'X

12 1· 1

21 2· 1

1

11

22

1··1 1·2 1k k

k

k

k k

a a

a a

a

a

a

a

a

+

+

+ + + +

Covarianzas

Varianzas

Varianza de 𝛃

Page 30: Análisis de regresión lineal. Inferencia

Para estimar,

Disponemos de una muestra de 526 individuos y,

𝐗𝐗 =526 6608

87040, (𝐗′𝐗)−1=

.041107 −.003121.000248

,

𝐗′𝐘 =853.8411059.64

, 𝐘′𝐘 = 1534.34, 𝑆𝐶𝑅 = 120,73 𝑦 ത𝑌 = 1.6233

Obtener,

a) La estimación de la ecuación de salarios

b) El coeficiente de determinación

c) El estimador de la varianza de los errores

d) Las varianzas y covarianzas de los estimadores

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

0 1log( )i i iSalario Educ = + +

Varianza de 𝛃

Page 31: Análisis de regresión lineal. Inferencia

a) 𝛃 =.041107 −.003121

.000248853.8411059.64

=0.580.08

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Varianza de 𝛃. Ejemplo

Page 32: Análisis de regresión lineal. Inferencia

a) 𝛃 =.041107 −.003121

.000248853.8411059.64

=0.580.08

b) SCT = σ𝑖 𝑌𝑖 − ത𝑌 2 = 𝐘′𝐘 − 𝑛ത𝑌2 = 148.29 y,

𝑅2 = 1 −𝑆𝐶𝑅

𝑆𝐶𝑇= 1 −

120.73

148.29= 0.186

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Varianza de 𝛃. Ejemplo

Page 33: Análisis de regresión lineal. Inferencia

a) 𝛃 =.041107 −.003121

.000248853.8411059.64

=0.580.08

b) SCT = σ𝑖 𝑌𝑖 − ത𝑌 2 = 𝐘′𝐘 − 𝑛ത𝑌2 = 148.29 y,

𝑅2 = 1 −𝑆𝐶𝑅

𝑆𝐶𝑇= 1 −

120.73

148.29= 0.186

c) ො𝜎𝜀2 =

𝑆𝐶𝑅

𝑛−2=

120.73

526−2= 0.2304

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Varianza de 𝛃. Ejemplo

Page 34: Análisis de regresión lineal. Inferencia

a) 𝛃 =.041107 −.003121

.000248853.8411059.64

=0.580.08

b) SCT = σ𝑖 𝑌𝑖 − ത𝑌 2 = 𝐘′𝐘 − 𝑛ത𝑌2 = 148.29 y,

𝑅2 = 1 −𝑆𝐶𝑅

𝑆𝐶𝑇= 1 −

120.73

148.29= 0.186

c) ො𝜎𝜀2 =

𝑆𝐶𝑅

𝑛−2=

120.73

526−2= 0.2304

d) ෞ𝑣𝑎𝑟 𝛃 = ො𝜎𝜀2(𝐗′𝐗)−1= 0.2304

.041107 −.003121.000248

ෞ𝑣𝑎𝑟 መ𝛽0 = 0.2304 ∗ 0.041107 = 9.47 · 10−3

ෞ𝑣𝑎𝑟 መ𝛽1 = 0.2304 ∗ 0.000248 = 5.71 · 10−5

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Varianza de 𝛃. Ejemplo

Page 35: Análisis de regresión lineal. Inferencia

Como ya hemos visto,

Para contratar hipótesis sobre el procedimiento es siempre el mismo:

a) Formulamos las hipótesis nula y alternativa H0: j=h, H1: j h

b) Elegimos un significatividad, y miramos el valor crítico en tablas

c) Calculamos el valor del estadístico bajo la hipótesis nula

d) Rechazamos H0 en un contraste a dos colas (H1: jh) si,

Contraste individual bilateral

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )

− −

− 1. /2

ˆ

ˆj

n k

j

ht

ee

( 1)

ˆ(0,1)

ˆ( )

j j a

n k

j

t Nee

− +

−→ ⎯⎯→

Page 36: Análisis de regresión lineal. Inferencia

Gráficamente,

Contraste individual bilateral

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

-t20 . 0,025 =–2,08 t20.0,025 = 2,080

No rechazo

H0

Área=0,95

Rechazo H0

Área= 0,025

Rechazo H0

Área= 0,025

La estimación de la demanda de pollos es (variables en logs; p = precio, y = renta y errores estándar entre paréntesis),

2ˆ 2.03 0.38 0.45 , 0.98, 23

(0.12) (0.064) (0.025)i i iq p y R N= − + = =

Page 37: Análisis de regresión lineal. Inferencia

A veces interesa contrastar si el parámetro poblacional es negativo.

La hipótesis nula será, H0: j = 0, frente a la hipótesis alternativa, H0: j < 0. Es un contraste de una cola o unilateral.

En el ejemplo anterior del pollo,

H0: 1 = 0

H1: 1 < 0

Como −0,38/0.064 = −5.94<−1.72, se rechaza H0

Contraste individual unilateral

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )

− −0 1.

ˆRe H :

ˆj

n k

j

chazamos si tee

0-t21.0,05 = –1,72

No rechazo

H0

Área=0,95

Rechazo H0

Área= 0,05 2ˆ 2.03 0.38 0.45 , 0.98, 23

(0.12) (0.064) (0.025)i i iq p y R N= − + = =

Page 38: Análisis de regresión lineal. Inferencia

Si nos interesa contrastar si el parámetro poblacional es positivo.

La hipótesis nula será, H0: j = 0, frente a la hipótesis alternativa, H1: j > 0. Es un contraste de una cola.

En el ejemplo anterior del pollo,

H0: 2 = 0

H1: 2 > 0

Como 0,45/0,025 = 18, rechazamos H0

Contraste individual unilateral

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )

− −0 1.

ˆRe H :

ˆj

n k

j

chazamos si tee

t27.0,05 = 1,720

No rechazo H0

Área=0,95

Rechazo H0

Área= 0,052ˆ 2.03 0.38 0.45 , 0.98, 23

(0.12) (0.064) (0.025)i i iq p y R N= − + = =

Page 39: Análisis de regresión lineal. Inferencia

Si nos interesa contrastar si el parámetro poblacional distinto de un valor determinado, la hipótesis nula será, H0: j = k, frente a la hipótesis alternativa, H1: j k. Es contraste es de dos colas.

En ejemplo anterior quiero contrastar que la elasticidad demanda-renta es 0,5:

H0: 2 = 0,5

H1: 2 0,5

No se puede rechazar H0

Contraste individual o de la t

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )

− −

−0 1. /2

ˆRe H :

ˆj

n k

j

kchazamos si t

ee

-t27. 0,025 =–2,08 t27.0,025 = 2,080

No rechazo H0

Área=0,95 Rechazo H0

Área= 0,025

Rechazo H0

Área= 0,0252ˆ 2.03 0.38 0.45 , 0.98, 23

(0.12) (0.064) (0.025)i i iq p y R N= − + = =

0.45 0.52

0.025

−= −

Page 40: Análisis de regresión lineal. Inferencia

Puesto que el número de observaciones es mayor que 100, podemos aproximar la tempírica a una N(0,1). Los valores de tablas para un contraste de dos colas son: al 10% Z0,05 = 1,64, al 5% Z0,025 = 1,96 y al 1% Z0,005 = 2,58.

El t empírico en todos los casos es mayor en términos absolutos a los valores críticos incluso al 1% de significatividad. Para los estudios -4,40 (-0,11/0,025); -9,27 para los ingresos (-0,62/0,067) y 2,8 para GINI (0,014/0,005). De manera que los parámetros son significativamente distintos de cero con el 99% de confianza.

Contraste individual o de la t. Ejemplo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )( ) ( ) ( )

( )( )

= − − + +

= = =

0,437 0,023 0,054 0,005

2 2

ˆln 8,92 0,11 0,62ln 0,014

144, 0,8408, 0,8374

i i i imortalidad estudios ingreso GINI

n R R

Page 41: Análisis de regresión lineal. Inferencia

En la práctica, teniendo en cuenta que para un nivel =0.05,

Operando tenemos,

Para el 95%, = 0,05 con n grande t 1,96, de manera que,

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Intervalos de confianza

( ) ( ) − − − −− + 1. /2 1. /2ˆ ˆ ˆ ˆ

j j n k j j j n kee t ee t

( )

− − − −

− − = − =

1. /2 1. /2

ˆPr 1 0.95

ˆj j

n k n k

j

t tee

( ) =

ˆ ˆPr 1.96 0.95j jee

Page 42: Análisis de regresión lineal. Inferencia

Un intervalo del 95% para los estudios vendrá dado por,

El intervalo también sirve para contrastar hipótesis sobre el valor de 1: no se rechazará ninguna hipótesis que postule 1 para un valor que caiga dentro del intervalo

Intervalos de confianza

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )( ) ( ) ( )

( )( )

= − − + +

= = =

0,437 0,023 0,054 0,005

2 2

ˆln 8,92 0,11 0,62ln 0,014

144, 0,8408, 0,8374

i i i imortalidad estudios ingreso GINI

n R R

( )10.11Pr 1.96 1.96 0.95 0.155, 0.065

0.023

− − − = − −

Page 43: Análisis de regresión lineal. Inferencia

Restricciones lineales que implican una única combinación lineal. Por ejemplo, H0: βi + βj = k, frente a la hipótesis H1: βi + βj k (test bilateral) puede contrastarse con el estadístico

Necesitamos 𝑐𝑜𝑣( መ𝛽𝑖 , መ𝛽𝑗) …

Rechazaremos H0 si el estadístico empírico es superior (en valor absoluto) al crítico en tablas para el nivel de significatividad elegido.

También pueden plantearse test a una cola H1: βi± βj > k ó H1: βi± βj < k

Restricciones lineales con la t

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

ˆ ˆ ˆ ˆ( ) ( )

ˆ ˆ ˆ ˆ ˆ ˆvar( ) var( ) var( ) 2cov( )

i j i j

i j i j i j

k kt

+ − + −= =

+ + + +

Page 44: Análisis de regresión lineal. Inferencia

Por ejemplo,

Y sabemos que es,

Entonces podemos contrastar hipótesis del tipo H0: 1= 41 …

Restricciones lineales con la t

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2ˆlog( ) 0.284 0.092 0.004 0.022 , 316, 526

(.104) (.007) (.0017) (.003)

sal educ exper ant R N= + + + = =

C EDUC EXPER TENURE

C 0.010856 -0.000729 -8.66E-05 2.93E-05

EDUC -0.000729 5.37E-05 3.96E-06 -2.56E-06

EXPER -8.66E-05 3.96E-06 2.97E-06 -2.70E-06

TENURE 2.93E-05 -2.56E-06 -2.70E-06 9.57E-06

2 1ˆ ( ) −X'X

1 3526 4

1 3 1 3

ˆ ˆ( 4 ) (0)0.265

ˆ ˆ ˆ ˆvar 16var 2*4cov( )t

− −= =

+ −

Page 45: Análisis de regresión lineal. Inferencia

Por ejemplo, sea la regresión

Queremos contrastar la hipótesis conjunta . Entonces la ecuación restringida será

Estimadas ambas, obtenemos las respectivas SCR: SCRNR y SCRR y,

Con los supuestos del modelo SCR/g.l. 2(g.l.) y 2m/ 2

n-k-1 es una Fm, n-k-1

Restricciones lineales múltiples

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

0 1 1 2 2 3 3 4 4i i i i i iY X X X X = + + + + +

0 3 4: 0H = =

0 1 1 2 2i i i iY X X = + + +

, 1

( ) / ( º )

/ ( 1)

R NRm n k

NR

SCR SCR m n restriccionesF

SCR n k− −

− ==

− −

Ec. restringida

Ec. no restringida

Page 46: Análisis de regresión lineal. Inferencia

Si tenemos en cuenta que,

Podemos despejar SCRR y SCRNR en la expresión anterior y obtener

Esta es la versión del contraste expresado en función del R2 de las regresiones restringida e irrestricta

La equivalencia se basa en el supuesto de que la variable dependiente es la misma en ambas regresiones. En otro caso la SCT no sería la misma y los estadísticos no serían equivalentes (solo valdría el primer estadístico).

Restricciones lineales múltiples

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2 21 y 1 NRRR NR

SCRSCRR R

SCT SCT= − = −

2 2

, 1 2

( ) /

(1 ) /( 1)

NR Rm n k

NR

R R mF

R n k− −

−=

− − −

Page 47: Análisis de regresión lineal. Inferencia

En el ejemplo del café (p. 139)

Para contrastar que renta y precio del té no son significativos (H0: 3 =4 =0),

la ecuación restringida proporciona SCR = 0.087749 y R2=0.6490 y.

En este caso la variable dependiente es la misma y por tanto podemos usar cualquiera de las dos versiones,

El valor crítico en tablas al 5%, es 3,35: se rechaza la hipótesis nula

Restricciones lineales múltiples

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2,27

2,27

(0.087749 0.0686) / 23.77

0.0686 / 27

(0.7256 0.6490) / 23.76

(1 0.7256) / (32 4 1)

F

F

−= =

−= =

− − −

2ˆ 4.63 0.92 0.81 0.03 0.41 , 0.0686, 0.7256leche teq p q p yd SCR R= − − + + + = =

Page 48: Análisis de regresión lineal. Inferencia

En el ejemplo de la demanda de café (p. 139),

Contrastar H0: 3 =4 =0. La estimación de la ecuación restringida es,

Y el estadístico de contraste,

El valor crítico en tablas al 5%, es 3,35: se rechaza la hipótesis nula

Restricciones lineales múltiples

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2,27

2,27

(0.7256 0.6490) / 23.76,

(1 0.7256) /(32 4 1)

(0.087749 0.0686) / 23.77

0.0686 / 27

F

F

−= =

− − −

−= =

2ˆ 4.63 0.92 0.81 _ 0.03 _ 0.41 , 32, 0.7256, 0.0686tY pre q leche pre te renta n R SCR= − − + + + = = =

2ˆ 0.583 0.92 0.63 _ , 32, 0.649, 0.0877tY pre q leche n R SCR= − − + = = =

Page 49: Análisis de regresión lineal. Inferencia

Lo que se contrasta es que todas las variables explicativas excepto la constante son nulas (k restricciones). La ecuación restringida es entonces,

En este caso y por tanto el estadístico de contraste queda,

Igualmente, en la otra versión del contraste, SCRR = SCT y,

Este test es proporcionado automáticamente por todos los programas

Significatividad global de la regresión

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2 2 2

, 1 2 2

( ) / /

(1 ) /( 1) (1 ) /( 1)

NR R NRk n k

NR NR

R R k R kF

R n k R n k− −

−= =

− − − − − −

0i iY = +

, 1

( ) / /

/( 1) /( 1)

NR NRk n k

NR NR

SCT SCR k SCE kF

SCR n k SCR n k− −

−= =

− − − −

2 0RR =

Page 50: Análisis de regresión lineal. Inferencia

Significatividad global de la regresión

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

Modelo 1: MCO, usando las observaciones 1998:1-2005:4 (T = 32)

Variable dependiente: l_C_CAFE

Coeficiente Desv. Típica Estadístico t valor p

const −4.63813 2.24050 −2.070 0.0481 **

l_P_CAFE −0.916131 0.119049 −7.695 <0.0001 ***

l_C_LECHE 0.810837 0.137982 5.876 <0.0001 ***

l_P_TE 0.0334966 0.0183417 1.826 0.0789 *

l_RENTA 0.411943 0.231127 1.782 0.0859 *

Media de la vble. dep. −0.575564 D.T. de la vble. dep. 0.089807

Suma de cuad. residuos 0.068601 D.T. de la regresión 0.050406

R-cuadrado 0.725622 R-cuadrado corregido 0.684973

F(4, 27) 17.85106 Valor p (de F) 2.82e-07

Log-verosimilitud 52.91698 Criterio de Akaike −95.83396

Criterio de Schwarz −88.50528 Crit. de Hannan-Quinn −93.40471

rho 0.031733 Durbin-Watson 1.868547

Page 51: Análisis de regresión lineal. Inferencia

Para q=2, n-k-1=28 y significatividad del 0,05, F2.28.0,05=3,34. Calculamos el estadístico,

Como el valor empírico es mayor que 3,35 rechazamos la hipótesis nula: las variables de la regresión son conjuntamente significativas.

Significatividad global de la regresión

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) ( )( )

( )( ) = + + +

= = =

0,265 0,045 0,086

2 2

ˆ0,72 0,59ln 0,41ln

31, 0,9937, 0,9932

t t t tPIB empleo capital

n R R

= =−

− −

2,28

0,9937

2 22081 0,9937

31 2 1

F

Por ejemplo, la estimación de una función de producción, es

Page 52: Análisis de regresión lineal. Inferencia

Significatividad global de la regresión

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )( ) ( ) ( )

( )( )

= − − + +

= = =

***

0,437 0,023 0,054 0,005

0,005

2 2

ˆln 8,92 0,11 0,62ln 0,014

144, 0,8408, 0,8374

i i i imortalidad estudios ingreso GINI

n R R

El contraste de significatividad conjunto será,

− − = = =− − − −

2

, 1 2

/ 0.84 /3245

(1 )/( 1) (1 0.84)/140k n k

R kF

R n k

Page 53: Análisis de regresión lineal. Inferencia

A veces las restricciones que queremos contrastar son más complicadas. Volviendo al ejemplo del café,

Supongamos que deseamos contrastar la hipótesis conjunta

Entonces la ecuación restringida será,

Formulada la ecuación restringida, la estimamos y procedemos de igual forma. La variable dependiente sigue siendo la misma en ambas regresiones: podemos emplear las dos versiones del test

Restricciones lineales múltiples

0 2 4

3

: 2·

0

H

=

=

0 1 1 2 2 3 3 4 4t t t t t tY X X X X = + + + + +

( )0 1 1 4 2 4 4 0 1 1 4 2 42 2t t t t t t t t tY X X X X X X = + + + + = + + + +

Page 54: Análisis de regresión lineal. Inferencia

La ecuación restringida arroja el siguiente resultado,

Por tanto,

No podemos rechazar la hipótesis nula al ser el valor del estadístico menor que 3,35.

Restricciones lineales múltiples

2

1 2 4ˆ 4.42 0.89 0.39(2 ), 0.691, 0.07736t t t tY X X X R SCR= − − + + = =

2,27

2,27

(0.7256 0.691) / 21.71,

(1 0.7256) /(32 4 1)

(0.07736 0.0686) / 21.72

0.0686 / 27

F

F

−= =

− − −

−= =

Page 55: Análisis de regresión lineal. Inferencia

Consideremos ahora la hipótesis,

Entonces la ecuación restringida será . Para estimar esta ecuación la escribimos de la forma,

Y tras estimarla resulta SCR = 0.729 y R2 = 0.354 . Entonces,

La forma R2 del test ahora no es válida: la variable dependiente de la ecuación restringida, Yt−X1t, no es la misma que la de la irrestricta, Yt

Restricciones lineales múltiples

0 1

3

: 1

0

H

=

=

0 1 2 2 4 4t t t t tY X X X = + + + +

1 0 2 2 4 4t t t t tY X X X − = + + +

2,27

2,27

(0.0729 0.0686) / 20.846, pero

0.0686 / 27

(0.7256 0.354) / 218.28!!

(1 0.7256) /(32 4 1)

F

F

−= =

−= =

− − −

Page 56: Análisis de regresión lineal. Inferencia

Con el 5% y dos colas, el valor crítico es 2,05 (t27.0,025 = 2,05). Los valores empíricos de contraste son respectivamente: -7,73 para el pcafé; 5,87 para la qleche; 1,64 pte y 1,78 para la YD. De manera que pte y YD no son significativamente distintas de cero con ese nivel de confianza puesto que sus valores empíricos son menores que el crítico. Nos preguntamos si son conjuntamente significativas al 5%. Para ello realizamos la ecuación restringida:

Planteamos las siguiente hipótesis:H0: pte = YD = 0. Frente a H1 = no se cumple H0.

Ejemplo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )( ) ( )

( )( )

( )( )

( )( )

( ) = − − + + + +

= = =

2,240 0,119 0,137 0,018 0,231

2 2

ˆln 4,63 0,92ln 0,81ln 0,03ln 0,41ln

32, 0,7256, 0,6850

café café leche te tNRq p q p YD

n R R

( )( ) ( )

( )( )

( ) = − − + + = =2

0,200 0,126 0,116

ˆln 0,58 0,92ln 0,62ln ,  n 32, 0,6490café café leche tRq p q R

−= =

− − −2.27.0,05

(0,7256 0,6490) / 23,769 3,35

(1 0,7256) / (32 5 1)F

rechazamos la hipótesis nula y el pte y la YD son conjuntamente significativas

Page 57: Análisis de regresión lineal. Inferencia

El valor crítico de dos colas (H1: β ≠ 0) al 5% es 2,05 (t28.0,025), y 2,76 al 1% (t28.0,005). Ambos parámetros son significativos incluso al 1% puesto que las t empíricas son mayores: 13,11 para el empleo y 4,77 en el capital.

Podemos contrastar si la función de consumo presenta rendimientos constantes como predice la teoría. Utilizando la t, la hipótesis alternativa es H1: β1 + β2 ≠ 1. La t empírica es:

(0,59+0,41-1)/(0,0452+0,0862+2·0,007489)0,5=0

de manera que no podemos rechazar la hipótesis nula de rendimientos constantes (H0: β1 + β2 = 1) puesto que el valor empírico es menor que el crítico.

De igual manera podemos recurrir a la F, para ello sustituimos en el modelo β1 = 1 - β2 y realizando operaciones sencilla calculamos el modelo restringido (MCR).

Ejemplo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) ( )( )

( )( )

( ) ( )

= + + +

= = = = =

0,265 0,045 0,086

2 2

ˆln( ) 0,72 0,59ln 0,41ln

31, 0,9937, 0,9932, 0,014094,cov ln ,ln 0,00749

t t t tNRPIB empleo capital

n R R SCR empleo capital

lnPIB

t

empleot

æ

èç

ö

ø÷ = 0,76

0,111( )+0,60

0,023( )ln

capitalt

empleot

æ

èç

ö

ø÷

n= 31,R2 = 0,9584,R 2 = 0,9570,SCR = 0,014108

Cuyo valor crítico es 4,20 (F1.28.0,05) el valor empírico es: [(0,014108-0,014094)/1]/[0,014094/28]=0,027 de manera que no rechazamos la hipótesis nula de rendimientos constantes. En este caso el contraste de la F no se puede hacer a partir de los coeficientes de determinación puesto que la variable explicada es diferente en la ecuación restringida.

Page 58: Análisis de regresión lineal. Inferencia

La predicción es una de las aplicaciones del modelo de regresión

Para valores conocidos (o hipotéticos) de las variables explicativas X (X0), podemos elaborar dos tipos de pronósticos,

-Sobre el valor esperado de Y0, E(Y0|X0)

-Sobre el valor de Y0

El cálculo de los pronósticos es inmediato: si X1= c1, …, Xk = ck,

Este valor es un pronóstico tanto de E(Y0|X0) como de Y0

Predicción

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

= + + +00 1 1

ˆ ˆ ˆˆ ... k kY c c

Page 59: Análisis de regresión lineal. Inferencia

La predicción debe venir acompañada de alguna medida de la incertidumbre asociada a la misma

Para ello necesitamos una medida del error que será diferente si Ŷ0 se toma como un pronóstico de E(Y0|X0) o de Y0 (más incertidumbre)

En el primer caso,

Nótese que E(e0)=0 (insesgadez). Además

Predicción

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

= − = + + + − − − −

= − + − + + −

0 0 0 00 1 1 0 1 1

0 0 1 1 1

ˆ ˆ ˆˆ ( | ) ... ...

ˆ ˆ ˆ( ) ( ) ... ( )

k k k k

k k k

e Y E Y c c c c

c c

X

0 2 0 1 0var( ) [ '( ) ]e −= X X'X X

Page 60: Análisis de regresión lineal. Inferencia

En el segundo caso,

Dada la insesgadez de los estimadores MCO y el supuesto de media nula del error, se sigue que el pronóstico es un estimador insesgado

Además, las fórmulas anteriores nos permiten calcular fácilmente intervalos de confianza para la predicción: Ŷ0 t/2ee(e0)

Predicción

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) ( )

− −

= − = + + + − − − − −

= − + − + + − −

= + = +

0 0 0 00 1 1 0 1 1

00 0 1 1 1

1 10 2 0 0 2 2 0 0

ˆ ˆ ˆˆ* ... ...

ˆ ˆ ˆ( ) ( ) ... ( ) ,

var( * ) ' 1 '

k k k k

k k k

e Y Y c c c c

c c

e X X'X X X X'X X

Page 61: Análisis de regresión lineal. Inferencia

Una forma fácil de calcular el error estándar en el primer caso, es,

De aquí despejamos 0 y lo sustituimos en la ecuación original,

para obtener,

Si estimamos, la constante y su error estándar, nos dan lo que buscamos. Además, ya hemos visto,

Predicción

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

= + + +00 1 1( | ) ... k kE Y X c c

= +0 0 0 2var( * ) var[ ( | )]e E Y X

= + + + +0 1 1 ... k k iY X X

= + − + + − +01 1 1( | ) ( ) ... ( )k k kY E Y X X c X c

Page 62: Análisis de regresión lineal. Inferencia

Volvamos al ejemplo del café. Estimamos hasta 2005q3 y elaboramos un pronóstico para 2005q4 sabiendo que los valores de las explicativas en este periodo son respectivamente, 1.756, 2.560, 1.8219 y 8.5763. La predicción será entonces,

Por lo tanto el pronóstico es ln(qcafé) = −0,5775 y el error estándar de la predicción,

El intervalo del 95% queda, −0,57750,0559·2,056

Predicción

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )( ) ( )

( )( )

( )( )

( )( )

( )= − − − + − + − + −

= = = =

0 0 0 0

0.022 0,122 0,141 0,018 0,239

2 2

ˆln 0.5775 0,92ln 0,81ln 0,03ln 0,41ln

31, 0,7256, 0,6834, 0.06859

café café leche te teq p p q q p p YD YD

n R R SCR

( )0 0 2 0 2ˆ ˆˆ ˆvar( ) var( ) var( ) 0.022 0.00264 0.00312 0.00312 0.055861

SCRY Y ee

n k

= + = + = + = = =

− −

Page 63: Análisis de regresión lineal. Inferencia

Dado que la estimación es,

Lo lógico sería que el pronóstico en valores originales, fuese,

Sin embargo esta estimación es incorrecta y debe ser corregida por el término exp( 2/2). En este caso,

exp( 2/2)= exp[0.5*SCR/27]=exp(0.00127) = 1.001

Predicción

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

0ln( ) 0.5775Y = −

0 exp( 0.5775) 0.561Y = − =

Page 64: Análisis de regresión lineal. Inferencia

Para una empresa con 2 millones de beneficios la predicción puntual del salario de alta dirección es 296,898 miles de euros (296,362+0,267993·2).

Normalmente los programas especializados muestran el error estándar de predicción. También podemos realizar la predicción de la siguiente forma:

El término constante es la predicción para unos beneficios de 2m.

Predicción. Ejemplo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( ) ( )= +

= = = =

74,362 0,026

2 2

296,362 0,267993

31, 0,7856, 0,7782, 3.514.341.

i iSalarios Benficios

n R R SCR

( )

( )

( )= + −

= = = =

74,334 0,026

55,999 0,057

2 2

296,898 0,267993 2

31, 0,7856, 0,7782, 3.514.341.

i iSalarios Benficios

n R R SCR

→ → 296,898 2.045 74,334 (144,88;448,91)IC predicción media

Page 65: Análisis de regresión lineal. Inferencia

Para una empresa con 2 millones de beneficios la predicción del salario de alta dirección 296.362+0.27·2=296.898

Alternativamente

El término constante es la predicción para unos beneficios de 2m. El intervalo de confianza del 95% será,

296.89874,33·2.045 = (144.89, 448,9)

Predicción. Ejemplo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

2296.362 0.27 , 31 0.78(74.36) (0.026)

Salario Beneficio n R= + = =

2296.898 0.27( 2), 31 0.78(74.33) (0.026)

Salario Beneficio n R= + − = =

Page 66: Análisis de regresión lineal. Inferencia

En el 2005.4: pcafé = 5,79; qleche = 12,93; pte = 6,18; YD = 5304.

Escenario de crisis económica: –Δ10%YD manteniéndose el resto constante.

Cuya exponencial es 0,525 [exp(-0,645)].

Predicción que podemos hacer directamente en porcentaje, una caída del 10% en la YD implica (aprox.) una caída del 4,1% (0,41·10) de la cantidad.

También podríamos realizar predicciones para distintos escenarioscambiando conjuntamente precios, cantidades y renta disponible.

Predicción. Ejemplo

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )( ) ( )

( )( )

( )( )

( )( )

( ) = − − + + + +

= = =

2,240 0,119 0,137 0,018 0,231

2 2

ˆln 4,63 0,92ln 0,81ln 0,03ln 0,41ln

32, 0,7256, 0,685

café café leche te tNRq p q p YD

n R R

( ) ( )( )

( )( )

( )( )

( )( )= − − + + + = −

2,240 0,119 0,137 0,018 0,231

ˆln( ) 4,63 0,92ln 5,79 0,81ln 12,93 0,03ln 6,18 0,41ln 5305 0,9 0,645p

Page 67: Análisis de regresión lineal. Inferencia

Es normal asociar la predicción con la con el comportamiento futuro de las variables

Para evaluar la capacidad predictiva del modelo se suele utilizar:

Raíz cuadrada del error cuadrático medio:

Error medio absoluto:

Porcentaje del error medio en términos absolutos:

U de Theil:

;

Predicción con series temporales

Econometría y predicción Matilla, M., Pérez, P. y Sanz, B. McGraw Hill

( )=

= −0

20 0

01

n

t tt

RECM y yn

=

= −0

0 0

01

1 ˆn

t tt

EMA Y Yn

=

−=

0 0 0

0 01

ˆ1100

nt t

i t

Y YPEMA

n Y

( )

( ) ( )

=

= =

=

+

0

0 0

20 0

01

220 0

0 01 1

1 ˆ

1 1 ˆ

n

t tt

n n

t tt t

Y Yn

U

Y Yn n

( ) ( ) ( ) ( )=

− = − + − + −0

0 0 0 0

22 20 0 0 0 0

ˆ ˆ01

restodiferencia dediferencia de varianzas medias

1 ˆ ˆ 2 1n

t t t t Y Y Y Yt

Y Y Y Y S S r S Sn