Departamento de Informática Universidad Técnica Federico Santa María
-
Upload
caldwell-morton -
Category
Documents
-
view
42 -
download
8
description
Transcript of Departamento de Informática Universidad Técnica Federico Santa María
Departamento de InformáticaUniversidad Técnica Federico Santa María
Departamento de InformáticaUniversidad Técnica Federico Santa María
EconometríaEconometríaEconometríaEconometría
Capitulo II
Héctor Allende O.
Estructura del Estructura del CursoCursoEstructura del Estructura del CursoCurso
1.- Introducción.2.- Modelos de Asociación (Regresión) 2.1 Construcción de Modelos de Regresión 2.2 Verificación de Supuestos: Linealidad, Normalidad, Homocedasticidad, Independencia, etc 2.3 Contraste de Hipótesis y Estimación, en modelos de regresión.3.- Modelos de clasificación 3.1 Árboles de Clasificación 3.2 Clasificación Bayesiana 3.3 Clasificación no parámetrica4.- Modelos Estadísticos de Series de Tiempo 4.1 Suavizamiento Exponencial, Modelos Adaptivos 4.2 Modelos ARIMA, GARCH, ARMAX, ARFIMA, etc5.- Modelos de Regresión libre ( Redes Neuronales, Series de Tiempo6.-Aplicaciones y uso de software
Héctor Allende O. 3
Modelo de Regresión
Modelo de Regresión Modelo Explicativo Estático
Supuestos básicos
yij, uij : variables aleatorias dependiente ; 0, 1: Parámetros y
xi : variable explicativa determinística.
Supuestos distribucionales.
1. E[uij]=0.
2. Var[uij]=2, cte independiente de x. Perturbación es homocedástica.
3. uijN(0,2).
4. E[uij ukh]=0, (i,j)(k,h)
) lEstructura (Hipótesis 10 ijiij uxy
Héctor Allende O. 4
1. 1- E[yij / xi]= 2- Var[yij]= 2.
2. 3 - f (yij / xi) es normal 4- Las observaciones son independientes entre
si
1.2 Estimación de parámetros.
1.2.1 Método de Máxima Verosimilitud. Función de Verosimilitud.
iiiiijiij xxyExyuxy 101010ˆˆˆˆˆ
.ˆ previstoValor observadoValor Residuo iijij yye
n
iij
iijij
yL
xyExpy
1
210
210
2102
210
,,,log,,
21
2
1,,,
ix10
Héctor Allende O. 5
Derivando L( ) con respecto a los parámetros :
y
1.2.2 Método de Mínimos Cuadrados.
21
10
,ˆ
ˆˆ
xS
yxCov
xy
2ˆ
,,
22
2210
210
,
210
10
n
eS
exyM
xyMinLMaximizar
ijR
ijiij
iij
n
eij2
2̂
Héctor Allende O.
))(,(0 00
^
VN
Distribución de los Parámetros
))(,(1 11
^
VN
Héctor Allende O. 7
1.3.1 Propiedades de
1̂
2
2
1
11
ˆ
ˆ
xnSVar
E
2
2
11 ,RnS
N
x
R
Sn
StIC
ˆˆ
confianza de Intervalos
2111
1.3 Propiedades de los estimadores.
Héctor Allende O. 888
1.3.2 Propiedades de
0̂
2
2
20
00
1ˆ
ˆ
xnS
x
nVar
E
2
2
200
1,
RnS
x
nN
2
2
2101 1ˆ
ˆ
confianza de Intervalos
x
R
Sx
n
StIC
Héctor Allende O. 999
1.3.3 Propiedades de
2ˆRS
22ˆ
ˆ4
2
22
nSVar
SE
R
R
2
22
2
n
ije
2
2
2
221
2
1
ˆ2;
ˆ
confianza de Intervalos
RR SnSIC
Héctor Allende O. 10
Prueba de hipótesis.
Estadístico
Para la región crítica P(F(1,n-2) C )=1-, se rechaza H0 para F0>C.
0: v/s0: 1110 HH
2
2
2
ˆExplicadaVariación
ˆExplicada noVariación
TotalVariación Sea
yynVE
yyVNE
yyVT
ii
iij
i jij
22
221
0 ˆˆ
ˆ
RR
x
S
VE
S
nSF
..2,1 lgnF
1.4 Contraste de regresión.
Héctor Allende O. 11
Prueba de hipótesis.
Estadístico de Prueba:
Para la región crítica P(F(d-2,n-d) C )=1-, se rechaza H0 para F0>C.
i101i100 x: v/sx: iijiij xyEHxyEHSean
22
212
0 ˆ
ˆ
S
SF ..,2 lgdndF
ˆ :linealidad de hipótesis lasin ón perturbaci la de Varianza
2
ˆˆ :rectas lasy medias las entre Varianza
2
22
2
212
dn
yyS
d-
yynS
iij
iii
1.5 Contraste de linealidad.
Héctor Allende O.
Transformaciones
TransformacionesSea yi = h ( xi ) con i = 1,...,n
1. Lineales yi = axi + b
y = ax + bSy = a Sx
2. No lineales yi = ln xi = h( xi )
y = h(x) + h”(x) SX2
Sy2 Sx
2 h’ (x)2
i.e. y = ln x - ( Sx2 / x2 )
Sy2 ( Sx
2 / x2 ) = CV 2
2
1
2
1
Héctor Allende O.
Relaciones LinealizablesRelaciones Linealizables
1. y = K x ln y = a0 + a1 ln x2. y = K ( / x ) y = a0 a1 x-1
3. y = K ex ln y = a0 + a1 x
4. y = K e-/x ln y = a0 + a1 x-1
5. yt = K + cos t y = a0 + a1 xt
siendo xt = cos t
6. y() = y - 1 = a0 + a1 x
y-1 dy = a1 w = dy dx dx
ln w = ln a1 + ( 1 - ) ln y
Héctor Allende O.
Ejemplo de Regresión SimpleEjemplo de Regresión Simple
t 0 1 2 3 4 5 6
V(t) 30 60 46 32 10 4 1720 40 26 14 8
20 12
V(t) 25 40 46 29 12 6 17
Sea xt = sen t yt = V(t)
Luego y(t) = a + b xt + ut
t
ttbaba
bxayminbaQmin 2
,,)(),(
Héctor Allende O.
3,25ˆˆ xbya 202 xS
yxb
),cov(ˆ
12762 yS 45222 ,)ˆ( tt yy
% de Ajuste del Modelo =
%%,ˆ
981009801 2
2
y
t
S
e
Héctor Allende O. 16
Tiene por objeto contrastar a posteriori las hipótesis de linealidad del modelo. Es especialmente importante cuando se tiene un solo valor de la variable y para cada valor de la variable de control x.
El analisis de los residuos se utiliza para verificar:
•Si su distribución es aproximadamente normal.•Si su variabilidad es constante y no depende de x.•Si presentan evidencia de una relación no lineal.•Si existen observaciones atípicas o hetereogéneas.
1.6 Análisis de residuos.
Héctor Allende O. 17
Si el diagrama de dispersión de las dos variables a investigar presenta claro indicios de no linealidad, se tiene que acudir a transformar las variables
Transformaciones Box-Cox (1964).Esta familia es útil para conseguir linealidad cuando la relación es monótona.
Estimación de máxima verosimilitud para ( ).Suponga m=0 y un tal que transforme la variable en normal.
1.7 Transformaciones en regresión simple.
0 ln
0 ,0 1
λmx
-m, xmλmx
x
2
222
1
1
2
1
1
2
1ln1ln
22ln
2,,
2
12
2
ii
x
xx
nnL
xexf
Héctor Allende O.
Para obtener el máximo en L(,2 ,) se fija :
Sea la media geométrica de las observaciones:
Definiendo
Se obtiene
Donde VNE() es la variabilidad no explicada en una regresión de Z() sobre x.
11ˆ
1ˆ
22
ixn
x
xn
x
ixn
x ln1
ln
xxz
x
xz ln0 ;
11
VNEn
L
zzn
L i
ln2
ln2
2
Héctor Allende O.
1.7.2 Transformaciones para conseguir homocedasticidad.
Luego si deseamos que Sz= k constante. Entonces debe verificarse:
Suponga que la relación observada es . Entonces:
1.7.3 Consecuencia de las transformaciones.
Sea la transformación El estimador E[y/x], será sesgado con sesgo proporcional a
lavarianza de la perturbación.
yhSSyhz yz ' ,
yS
kyh '
yS y
1' ykydykyh
uaxy
Héctor Allende O. 20
1.8.1 Estimaciones de las medias condicionales.
Intervalo de confianza para las medias.
Estimaciones de las medias condicionales.
Se desea prever el valor de y para x=xh. Intuitivamente
Criterio de predicción. Error cuadrático medio mínimo
1.8 Predicción.
222
2
10
1
1ˆ
ˆ ˆˆ
ˆˆ
hh
ii
hh
hhhh
hh
xxn
xxn
yVar
xyEmxyE
xxyy
hhRhh StymIC ˆˆ)( 2
hh xy 10ˆˆˆ
22 ~~ yxyExyVarxyyE
Héctor Allende O.
Intervalo de Confianza
Intervalo de Confianza
para las observaciones
Coeficiente de Correlación.
Coeficiente de determinación:
Coeficiente de correlación:
Relación entre y r :
]1ˆˆ[)( 2 hhRhh StyyI
2
2
2 ˆ
yy
yy
VTVE
Ri
i
yxSSyxCov
rR,2 r
2ˆRS
21
2
2ˆ21
y
R
nSSn
r
Héctor Allende O.
1.11 Inferencia sobre el coeficiente de correlación.
Utilizando la transformación de Fisher:
Si (x,y) es una normal bivariada, entonces Z es
Donde es el verdadero coeficiente de correlación de la población.
1. La prueba =0 1 =0. 2.
r
rZ
1
1ln
2
1
221
2
r
nrtn
3
1);
121
1ln
2
1)
n
ZVariin
ZEi
),( ZVZEN