Análisis de datos y Estadística Avanzada -...

12
Análisis de datos y Estadística Avanzada Máster Interuniversitario de Astrofísica UCM+UAM Tema 4: Regresión lineal simple Javier Gorgas y Nicolás Cardiel Departamento de Astrofísica y Ciencias de la Atmósfera Facultad de Ciencias Físicas Universidad Complutense de Madrid Tema 4: Regresión lineal simple () Análisis de datos y Estadística Avanzada 1 Curso 2010/2011 1 / 29 Esquema 1 Introducción Análisis de regresión Tipos de regresión 2 Regresión lineal simple Tratamiento clásico Tratamiento avanzado 6 métodos de ajuste por mínimos cuadrados Tema 4: Regresión lineal simple () Análisis de datos y Estadística Avanzada 2 Curso 2010/2011 2 / 29

Transcript of Análisis de datos y Estadística Avanzada -...

Análisis de datos y Estadística AvanzadaMáster Interuniversitario de Astrofísica UCM+UAM

Tema 4: Regresión lineal simple

Javier Gorgas y Nicolás CardielDepartamento de Astrofísica y Ciencias de la Atmósfera

Facultad de Ciencias Físicas

Universidad Complutense de Madrid

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 1Curso 2010/2011 1 / 29

Esquema

1 IntroducciónAnálisis de regresiónTipos de regresión

2 Regresión lineal simpleTratamiento clásicoTratamiento avanzado6 métodos de ajuste por mínimos cuadrados

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 2Curso 2010/2011 2 / 29

Introducción Análisis de regresión

¿Qué es la regresión?El término regresión fue acuñado por Francis Galton en el siglo XIX parareferirse a fenómenos biológicos: los descendientes de progenitores

excepcionales son, en promedio, menos excepcionales que los progenitores, y

más parecidos a sus ancestros más distantes (Galton utilizó el término reversion

al hablar de guisantes en 1877, y regression al referirse a la altura de humanosen 1885).

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 3Curso 2010/2011 4 / 29

Introducción Análisis de regresión

Análisis de regresiónEl análisis de regresión es un intento de examinar la relación que existe entreuna variable dependiente (variable respuesta) y un conjunto de variablesindependientes (predictores).

El modelo matemático que establece dicha relación es la ecuación de regresión.

La variable dependiente se modela como una variable aleatoria.

La ecuación de regresión contiene una serie de parámetros de regresión(“constantes”) que establecen la relación cuantitativa entre las variablesindependientes y la dependiente. Estos parámetros se estiman a partir de datos.

Los parámetros de un modelo de regresión pueden estimarse de variasmaneras, por ejemplo utilizando

el método de mínimos cuadrados (OLS, del inglés ordinary least squares)el método de máxima verosimilitudtécnicas bayesianas. . .

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 4Curso 2010/2011 5 / 29

Introducción Tipos de regresión

Regresión lineal y no linealRegresión lineal: la relación entre la respuesta Y (variable dependiente) y las variablesindependientes Xi es lineal

Y = β0 + β1X1 + β2X2 + . . . + βnXn.

En este sentido, una relación del tipo

Y = β0 + β1X + β2X 2

también es lineal (lineal en X y X 2), aunque la representación gráfica no sea una línearecta.Algunos problemas no lineales pueden linealizarse realizando una transformaciónadecuada. Por ejemplo

Y = abX

se linealiza tomando logaritmos a ambos lados, es decir

ln(Y) = ln(a) + ln(b)X .

Regresión no lineal: aquella en la que la relación entre la respuesta y las variablesindependientes no es una función lineal o linealizable.

En este tema vamos a concentrarnos en la regresión lineal simple: Y = α + βX .

¿Simple? ¡En absoluto!

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 5Curso 2010/2011 7 / 29

Regresión lineal simple Tratamiento clásico

Ejemplo de diagrama de dispersión. Los datos corresponden a las medidasde dispersión de velocidades y luminosidad en una muestra de 40 galaxiaselípticas realizadas por Schechter P.L. (1980).

Cuando en un diagrama de dispersión los datos se distribuyen aproximadamente a lo largo de unalínea reacta ajustaremos una recta de regresión. La regresión de y sobre x vendrá dada entoncespor y = a + bx, con a y b dos parámetros a determinar. Gráficamente, a será la ordenada en elorigen y b la pendiente de la recta.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 6Curso 2010/2011 9 / 29

Regresión lineal simple Tratamiento clásico

¿Cómo se determina la recta de regresión? (Método de mínimos cuadrados)Se minimiza la suma de los cuadrados de las distancias entrelos valores yi y los valores dados por la recta:

y∗i = a + bxi

di = y∗i − yi (≡residuo)

M =NX

i=1d2

i =NX

i=1(y∗i − yi)

2

M =NX

i=1(a + bxi − yi)

2

8<

:

∂M∂a =

P2(a + bxi − yi) = 0

∂M∂b =

P2(a + bxi − yi)xi = 0

8<

:

P(a + bxi − yi) = 0

P(axi + bx2

i − xiyi) = 0

8<

:

aN + bP

xi =P

yi

aP

xi + bP

x2i =

Pxiyi

∆ =

˛̨˛̨˛̨

NP

xi

Pxi

Px2

i

˛̨˛̨˛̨ = N

Xx2

i −“X

xi”2

a =1

˛̨˛̨˛̨

Pyi

Pxi

Pxiyi

Px2

i

˛̨˛̨˛̨ =

Px2

iP

yi −P

xiP

xiyi

NP

x2i − (

Pxi)2

b =1

˛̨˛̨˛̨

NP

yi

Pxi

Pxiyi

˛̨˛̨˛̨ =

NP

xiyi −P

xiP

yi

NP

x2i − (

Pxi)2

x =

Pxi

Ny y =

Pyi

N

b =1NP

xiyi − x y1NP

x2i − x2

y = a + bx y a = y− bx

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 7Curso 2010/2011 10 / 29

Regresión lineal simple Tratamiento clásico

Covarianza y coeficientes de regresiónLas expresiones para los parámetros de la recta de regresión se pueden simplificar más introduciendo una importante definición.Se define la covarianza de una muestra bidimensional a

Cov ≡ s2xy =

PNi=1(xi − x)(yi − y)

N − 1(1)

Desarrollando esta expresión se puede llegar a una fórmula simplificada para calcularla

s2xy =

P(xi − x)(yi − y)

N − 1=

P(xiyi − xyi − xiy + x y)

N − 1=

=

Pxiyi − x

Pyi − y

Pxi + Nx y

N − 1=

=

Pxiyi − xNy− yNx + Nx y

N − 1=

Pxiyi − Nx y

N − 1.

De la misma forma se puede desarrollar la expresión para la varianza de x e y

s2x =

P(xi − x)2

N − 1=

P(x2

i − 2xix + x2)

N − 1=

Px2

i − 2xP

xi + Nx2

N − 1=

Px2

i − 2Nx2 + Nx2

N − 1=

Px2

i − Nx2

N − 1.

s2y =

P(yi − y)2

N − 1=

P(y2

i − 2yiy + y2)

N − 1=

Py2

i − 2yP

yi + Ny2

N − 1=

Py2

i − 2Ny2 + Ny2

N − 1=

Py2

i − Ny2

N − 1.

Usando estas definiciones, podemos reescribir la expresión para la determinación de la pendiente de la recta de regresióny = a + bx como

byx =s2xy

s2x

=Cov

s2x

,

donde escribimos byx para subrayar que es la recta de regresión de y sobre x.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 8Curso 2010/2011 11 / 29

Regresión lineal simple Tratamiento clásico

¿Regresión de y sobre x o de x sobre y?De igual manera se puede obtener la recta de regresión de x sobre y (x = a + by), minimizando en este caso las distanciashorizontales (x∗i − xi) a la recta. El resultado es que el coeficiente de regresión de x sobre y (denotado por bxy ) y la rectaresultante se pueden escribir

bxy =Cov

s2y

Nótese que ambas rectas de regresión no coinciden en general y que ambas se cortan en el punto (x, y).

y− y =Cov

s2x

(x− x) ; x− x =Cov

s2y

(y− y)

Ambos coeficientes de regresión tienen el mismo signo (el signo de la covarianza, ya que las varianzas siempre son positivas).Esto implica que las dos rectas de regresión serán a la vez ascendentes o descendentes.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 9Curso 2010/2011 12 / 29

Regresión lineal simple Tratamiento clásico

Coeficiente de correlación linealLa correlación estudia el grado de asociación o dependencia entre las dos variables. Estudiar la correlación significa analizarhasta qué punto es significativa la dependencia de una variable con la otra.

Aunque la covarianza nos informa del grado (y signo) de la correlación, su utilización está limitada por el hecho de que dependede las unidades de medida en que se trabaje.

Para construir una medida adimensional hay que dividir la covarianza por un término con sus mismas dimensiones. De estamanera se define el coeficiente de correlación lineal

r =s2xy

sxsy=

Cov

sxsy.

Es fácil mostrar que el coeficiente de correlación se relaciona con los coeficientes de regresión mediante

byx = rsy

sxy bxy = r

sx

sy

y, de hecho,

r =Cov

sxsy=

vuutCov

s2x

Cov

s2y

=q

byx bxy .

No es difícil demostrar que

r2 =

P(y∗i − y)2

P(yi − y)2

=VE

VT=

Variaci«on explicada

Variaci«on total.

donde r2 se define como el coeficiente de determinación.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 10Curso 2010/2011 13 / 29

Regresión lineal simple Tratamiento clásico

Varianza residualUn concepto relacionado con el coeficiente de correlación es el de varianza residual, la cual permite estimar la variación de losdatos originales respecto a la recta de regresión que se ha ajustado,

s2r =

Pni=1(yi − y∗i )2

n− 2=

Pni=1(yi − a− bxi)

2

n− 2.

La relación entre la varianza residual y el coeficiente de determinación es

s2r =

n− 1

n− 2s2y (1− r2).

Interpretación del coeficiente de correlación1 r = 0. En este caso, por las relaciones vistas en el apartado anterior, es claro que se cumple

r = 0 ⇒ Cov = 0 ; byx = bxy = 0 ; s2r � s2

y .

Es decir, en este caso, al ser la covarianza nula no existirá correlación. Además las pendientes de la rectas de regresiónde y sobre x y de x sobre y serán nulas, es decir sus orientaciones serán horizontal y vertical respectivamente. Por otraparte, al ser la varianza residual aproximadamente igual a la varianza de y, la dispersión de la variable y no se veráreducida al ajustar la recta de regresión.

2 r = 1. Es claro que en este caso se cumple que la varianza residual es nula (s2r = 0), por lo que no habrá dispersión de

los puntos respecto a la recta y todos se situaran sobre ella. En este caso tendremos una dependencia funcional entreambas variables y una correlación positiva, o directa, perfecta. Además las dos rectas de regresión (de y sobre x y de xsobre y) coincidirán.

3 r = −1. Al igual que en el caso anterior todos los puntos se situarán sobre la recta y la correlación será negativa, oinversa, perfecta.

4 0 < r < 1. En este caso, la correlación será positiva pero no perfecta. Evidentemente la correlación (y la covarianza)será mejor cuanto más se acerque r a 1.

5 −1 < r < 0. De la misma manera tendremos una correlación negativa tanto mejor cuanto más próximo esté r a−1.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 11Curso 2010/2011 14 / 29

Regresión lineal simple Tratamiento clásico

Inferencia sobre la regresión lineal clásicaHemos partido de la hipótesis básica

Y = α + βX

Pero nosotros contamos con unas “observaciones” que tan solo nos proporcionan la ecuación de regresión lineal ajustada o de lamuestra

y∗i = a + bxi

por lo que a es una estimación de α y b es una estimación de β. Diferentes muestras nos proporcionará distintas estimacionesde los parámetros α y β.

En la aproximación clásica (ver apuntes de primero) se muestra que, bajo la hipótesis de que los errores en las medidas nodependen del valor de la variable independiente x, las incertidumbres asociadas a los coeficientes de la regresión son

σ2a = σ2

1

N+

x2

(N − 1)s2x

!= σ2

PNi=1 x2

i

NPN

i=1(xi − x)2

(suma de dos términos: error en la ordenada media y el incremento del error al alejarnos del origen x = 0)

σ2b =

σ2

(N − 1)s2x

(inversamente proporcional al rango en x y proporcional al error intrínseco de las medidas; lógicamente disminuye con N)

σ2 es la varianza de Y , cuyo estimador insesgado viene dado por la varianza residual

s2r =

PNi=1(yi − a− bxi)

2

N − 2

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 12Curso 2010/2011 15 / 29

Regresión lineal simple Tratamiento clásico

Debilidades de la regresión lineal

Tanto la recta de regresión como el coeficiente de correlación no son robustos, en elsentido de que resultan muy afectados por medidas particulares que se alejen mucho dela tendencia general.No hay que olvidar que el coeficiente de correlación no es más que una medida resumen.En ningún caso puede substituir al diagrama de dispersión, que siempre habrá queconstruir para extraer más información. Formas muy diferentes de la nube de puntospueden conducir al mismo coeficiente de correlación.El que en un caso se obtenga un coeficiente de correlación bajo no significa que no puedaexistir correlación entre las variables. De lo único que nos informa es de que la correlaciónno es lineal (no se ajusta a una recta), pero es posible que pueda existir una buenacorrelación de otro tipo.Un coeficiente de correlación alto no significa que exista una dependencia directa entrelas variables. Es decir, no se puede extraer una conclusión de causa y efecto basándoseúnicamente en el coeficiente de correlación. En general hay que tener en cuenta quepuede existir una tercera variable escondida que puede producir una correlación que, enmuchos casos, puede no tener sentido.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 13Curso 2010/2011 16 / 29

Regresión lineal simple Tratamiento clásico

Recta de regresión cuando hay incertidumbres (Método de mínimos cuadrados)Si además de los datos (xi, yi) se tiene una estimación de lasincertidumbres en yi, que llamaremos σi, se puede realizarun proceso similar, minimizando ahora la suma pesada de loscuadrados de las distancias entre los valores yi y los valoresdados por la recta:

y∗i = a + bxi

di = y∗i − yi

M =NX

i=1

d2i

σ2i

=NX

i=1

(y∗i − yi)2

σ2i

M =NX

i=1

„ a + bxi − yi

σi

«2

8>><

>>:

∂M∂a =

Ph2“ a+bxi−yi

σi

” “1

σi

”i= 0

∂M∂b =

Ph2“ a+bxi−yi

σi

” “ xiσi

”i= 0

8<

:

P(a + bxi − yi)/σ2

i = 0

P(axi + bx2

i − xiyi)/σ2i = 0

8<

:

aP

1/σ2i + b

Pxi/σ2

i =P

yi/σ2i

aP

xi/σ2i + b

Px2

i /σ2i =

Pxiyi/σ2

i

∆ =

˛̨˛̨˛̨

P1/σ2

iP

xi/σ2i

Pxi/σ2

iP

x2i /σ2

i

˛̨˛̨˛̨ =

X 1

σ2i

X x2i

σ2i− X xi

σ2i

!2

a =1

˛̨˛̨˛̨

Pyi/σ2

iP

xi/σ2i

Pxiyi/σ2

iP

x2i /σ2

i

˛̨˛̨˛̨ =

P x2i

σ2i

P yiσ2

i−P xi

σ2i

P xiyiσ2

i∆

b =1

˛̨˛̨˛̨

P1/σ2

iP

yi/σ2i

Pxi/σ2

iP

xiyi/σ2i

˛̨˛̨˛̨ =

P 1σ2

i

P xiyiσ2

i−P xi

σ2i

P yiσ2

i∆

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 14Curso 2010/2011 17 / 29

Regresión lineal simple Tratamiento clásico

¿Incertidumbre en la predicción?No es posible hacer una estimación inmediata de la incertidumbre en y = a + bx sin tener en cuenta las covarianzas (a y b sedeterminan a partir de los mismos datos, por lo que están correlacionados). Sin embargo, considerando que

y0 = a(xi, yi, σi) + b(xi, yi, σi)x0,

a la hora de estimar incertidumbres en la predicción podemos considerar que y0 = f (yi), por lo que

(∆y0)2 =NX

j=1

∂y

∂yj

!2

σ2j ,

donde

∂y

∂yj=

PN

i=1x2i

σ2i

!1

σ2j− PN

i=1xiσ2

i

!xjσ2

j

∆+

PN

i=11

σ2i

!xjσ2

j− PN

i=1xiσ2

i

!1

σ2j

∆x0,

siendo

∆ =NX

i=1

1

σ2i

NX

i=1

x2i

σ2i−

0

@NX

i=1

xi

σ2i

1

A2

.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 15Curso 2010/2011 18 / 29

Regresión lineal simple Tratamiento avanzado

La importancia de las incertidumbresEl método de regresión lineal clásico es una aproximación demasiado simplista. En lapráctica uno tiene que enfrentarse inevitablemente con incertidumbres en lasmedidas y con la posibilidad de que la hipótesis básica Y = α + βX se vea afectadapor factores adicionales.

Conviene distinguir diferentes situaciones:1 Problemas en los que la dispersión de los datos dominan sobre cualquier

incertidumbre de medida (¡la dispersión es real!): ver Isobe et al. (1990), y Babuy Feigelson (1992).

2 Problemas en los que dominan las incertidumbres en las medidas: verFeigelson y Babu (1992; tratan ajustes pesados, y modelos de regresióntruncados —faltan datos por encima/debajo de unos límites— y con datoscensurados —cotas—).

3 Problemas en los que importan tanto las incertidumbres en las medidas como ladispersión intrínseca: ver Akritas y Bershady (1996; incluyen un método quepermite tratar errores en ambas variables y que dicho error esté correlacionado).

En este tema vamos a revisar únicamente el primer caso. Consultar las referenciaspara las otras dos situaciones.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 16Curso 2010/2011 20 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Alternativas cuando la dispersión intrínseca de los datos domina

Podemos emplear diferentes métodos cuando lo único que conocemos son (xi, yi)(asumimos que la dispersión intrínseca domina sobre las incertidumbres de las me-didas). Ver descripción detallada en Isobe et al. (1990) y Babu y Feigelson (1992).

Tratamiento asimétrico de X e YOLS(Y|X): método clásico en el que se minimizala distancia en Y (caso a en la figura).

OLS(X|Y): similar al anterior, pero se minimiza la

distancia en X (caso b en la figura).

Tratamiento simétrico de X e YOLS-bisector: ajuste que bisecciona OLS(Y|X) yOLS(X|Y).Orthogonal regression: minimiza la distanciaperpendicular a la recta (caso c en la figura).Reduced major axis: minimiza la suma de lasdistancias en X e Y (caso d en la figura).

OLS-mean: media de OLS(Y|X) y OLS(X|Y).

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 17Curso 2010/2011 22 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 18Curso 2010/2011 23 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 19Curso 2010/2011 24 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Guía para el astrónomo (I)Los diferentes métodos proporcionan coeficientes de regresiónque son, desde un punto de vista teórico, distintos, por lo que noproporcionan estimaciones diferentes de una misma cantidad.Salvo que tengamos un conocimiento a priori sobre los datos (e.g.no existen residuos en la dirección X) o la pregunta científica aresponder (e.g. predicción de Y a partir de medidas de X), encuyo caso puede ser preferible emplear OLS(Y|X), en general nohay una base matemática para preferir un método frente a otro.Las incertidumbres en OLS(Y|X) que proporcionan lasestimaciones clásicas (Bevington 1969) no son realmentecorrectas (requieren demasiadas restricciones que normalmenteno se dan: e.g. residuos en Y independientes de X). Mejor lasfórmulas derivadas en Isobe et al. (1990).

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 20Curso 2010/2011 25 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Babu y Feigelson (1992)

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 21Curso 2010/2011 26 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Guía para el astrónomo (II)Las simulaciones de Monte Carlo (ver Babu y Feigelson 1990)muestran

El método estándar OLS(Y|X) funciona muy bien y deberíafavorecerse cuando hay una clara distinción entre las variablesdependiente e independiente.A la hora de tratar de forma simétrica las variables, el OLS-bisectory el reduced major axis tienen menores varianzas que laorthogonal regression y que el OLS-mean.Un problema con el reduced major axis es que la pendiente que sedetermina no depende de la correlación de la población (esinvariante de escala)⇒ el OLS-bisector parece la mejor alternativa.

Las fórmulas para estimar las incertidumbres en los 6 métodosdescritos funcionan bien cuando N es grande. Para N ≤ 50 lasestimaciones no convergen adecuadamente. ¿Solución?Jackknife o bootstrap.

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 22Curso 2010/2011 27 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Jackknife1

Este método consiste en generar, a partir de muestras de N elementos, N submuestras de N − 1elementos, eliminando en cada una de estas submuestras secundarias un elemento (podemoshacerlo de forma consecutiva, eliminando el primer elemento en la primera muestra, el segundoen la segunda muestras, y así sucesivamente.

Bootstrap2

Es una generalización del método anterior, en el cual se generan muestras secundarias de Nelementos, seleccionando los elementos de forma aleatoria a partir de la muestra original, peropermitiendo repetir valores. De esta forma, una fracción aleatoria de los valores iniciales apare-cerán duplicados (∼ 1/e � 37%).

⇒ Estos métodos no dan información a partir de la nada. Nos dan información que descono-cíamos previamente (ver Press et al. 2002).

1 Podemos traducirlo como pequeña navaja o navaja de bolsillo.2 El nombre se debe a la aparente capacidad del método de conseguir algo aparentemente imposible (sacar de donde no hay).En Las increíbles aventuras del Barón Munchhausen, Rudolph Erich Raspe cuenta que en cierta ocasión el Barón logró escaparde una muerte segura al salir volando tirando de los cordones de sus propias botas (en inglés “[. . . ] he thought to pull himself up

by his own bootstraps”).

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 23Curso 2010/2011 28 / 29

Regresión lineal simple 6 métodos de ajuste por mínimos cuadrados

Referencias (orden cronológico)Bevington P.R., Data reduction and error analysis for the physical sciences,1969, McGraw-HillIsobe T. et al., Linear regression in Astronomy. I., 1990, ApJ, 364, 104Babu G.J., Feigelson E.D., Analytical and Monte Carlo comparisons of six

different linear squares fits, 1992, Comm. Statit. Comput. Simul., 21(2), 533Feigelson E.D., Babu G.J., Linear regression in Astronomy. II, ApJ, 397, 55Arkitas M.G., Bershady M.A., Linear regression for astronomical data with

measurement errors and intrinsic scatter, 1996, ApJ, 470, 706

Press W.H., et al., Numerical Recipes in Fortran 77, 2002, Cambridge UniversityPress

Tema 4: Regresión lineal simple (♣) Análisis de datos y Estadística Avanzada 24Curso 2010/2011 29 / 29