Presentación sobre funciones generadoras de momentos explicación
-
Upload
diegofrade -
Category
Documents
-
view
21 -
download
2
description
Transcript of Presentación sobre funciones generadoras de momentos explicación
Estadística II
Miguel Angel Méndez
ITESM
1 de febrero de 2015
Miguel Angel Méndez Estadística II 1/36
Función de masa de probabilidad conjunta discreta
La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de
probabilidad esta colocada en cada valor posible de X . La función
de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par
de valores (x , y)
De�nición.
Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad
conjunta p(x , y) se de�ne para cada par (x , y) como
p(x , y) = P(X = x ,Y = y)
donde
1 p(x , y) ≥ 0
2∑
x
∑y p(x , y) = 1
Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑
(x ,y)∈A p(x , y)
Miguel Angel Méndez Estadística II 2/36
Función de masa de probabilidad conjunta discreta
La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de
probabilidad esta colocada en cada valor posible de X . La función
de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par
de valores (x , y)
De�nición.
Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad
conjunta p(x , y) se de�ne para cada par (x , y) como
p(x , y) = P(X = x ,Y = y)
donde
1 p(x , y) ≥ 0
2∑
x
∑y p(x , y) = 1
Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑
(x ,y)∈A p(x , y)
Miguel Angel Méndez Estadística II 2/36
Función de masa de probabilidad conjunta discreta
La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de
probabilidad esta colocada en cada valor posible de X . La función
de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par
de valores (x , y)
De�nición.
Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad
conjunta p(x , y) se de�ne para cada par (x , y) como
p(x , y) = P(X = x ,Y = y)
donde
1 p(x , y) ≥ 0
2∑
x
∑y p(x , y) = 1
Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑
(x ,y)∈A p(x , y)
Miguel Angel Méndez Estadística II 2/36
Ejemplo.
Si las v.a.'s X y Y tienen la siguiente función de masa de
probabilidad, entonces
Tabla: Distribución de probabilidad conjunta
HHHHHHx
y0 100 200
100 .20 .10 .20
250 .05 .15 .30
p(100, 100) = P(X = 100 yY = 100) = .10P(Y ≥ 100) =p(100, 100) + p(250, 100) + p(100, 200) + p(250, 200) = 0.75
Miguel Angel Méndez Estadística II 3/36
Función de masa de probabilidad marginal
Una vez que conocemos la función de masa de probabilidad
conjunta de las dos v.a.'s X y Y es posible obtener la distribución
de una sola de estas varaibles.
De�nición.
La función de masa de probabilidad marginal de X , denotada
por pX (x), esta dada por
pX (x) =∑y
p(x , y) ∀x
De manera similar, la función de masa de probabilidad
marginal de Y es
pY (y) =∑x
p(x , y) ∀y .
Miguel Angel Méndez Estadística II 4/36
Función de masa de probabilidad marginal
Una vez que conocemos la función de masa de probabilidad
conjunta de las dos v.a.'s X y Y es posible obtener la distribución
de una sola de estas varaibles.
De�nición.
La función de masa de probabilidad marginal de X , denotada
por pX (x), esta dada por
pX (x) =∑y
p(x , y) ∀x
De manera similar, la función de masa de probabilidad
marginal de Y es
pY (y) =∑x
p(x , y) ∀y .
Miguel Angel Méndez Estadística II 4/36
Función de masa de probabilidad marginal
Una vez que conocemos la función de masa de probabilidad
conjunta de las dos v.a.'s X y Y es posible obtener la distribución
de una sola de estas varaibles.
De�nición.
La función de masa de probabilidad marginal de X , denotada
por pX (x), esta dada por
pX (x) =∑y
p(x , y) ∀x
De manera similar, la función de masa de probabilidad
marginal de Y es
pY (y) =∑x
p(x , y) ∀y .
Miguel Angel Méndez Estadística II 4/36
Del ejemplo anterior
Tabla: Distribución de probabilidad conjunta y marginal
HHHH
HHxy
0 100 200 pX (x)
100 .20 .10 .20 .50
250 .05 .15 .30 0.50
pY (y) .25 .25 .50 1
Ahora veamos la función de densidad conjunta para v.a.'s continuas
X y Y :
Miguel Angel Méndez Estadística II 5/36
Del ejemplo anterior
Tabla: Distribución de probabilidad conjunta y marginal
HHHH
HHxy
0 100 200 pX (x)
100 .20 .10 .20 .50
250 .05 .15 .30 0.50
pY (y) .25 .25 .50 1
Ahora veamos la función de densidad conjunta para v.a.'s continuas
X y Y :
Miguel Angel Méndez Estadística II 5/36
Función de densidad de probabilidad conjunta
De�nición.
Sean X y Y v.a.'s continuas. Un función de densidad de
probabilidad conjunta para estas dos v.a.'s es una función
satisfaciendo:
1 f (x , y) ≥ 0
2∫∞−∞
∫∞−∞ f (x , y)dxdy = 1
Entonces para cualquier conjunto A en R2
P[(X ,Y ) ∈ A] =
∫∫Af (x , y)dxdy
En particular, si A es un rectángulo bidimensional
{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces
P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =
∫ b
a
∫ d
cf (x , y)dydx
Miguel Angel Méndez Estadística II 6/36
Función de densidad de probabilidad conjunta
De�nición.
Sean X y Y v.a.'s continuas. Un función de densidad de
probabilidad conjunta para estas dos v.a.'s es una función
satisfaciendo:
1 f (x , y) ≥ 0
2∫∞−∞
∫∞−∞ f (x , y)dxdy = 1
Entonces para cualquier conjunto A en R2
P[(X ,Y ) ∈ A] =
∫∫Af (x , y)dxdy
En particular, si A es un rectángulo bidimensional
{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces
P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =
∫ b
a
∫ d
cf (x , y)dydx
Miguel Angel Méndez Estadística II 6/36
Función de densidad de probabilidad conjunta
De�nición.
Sean X y Y v.a.'s continuas. Un función de densidad de
probabilidad conjunta para estas dos v.a.'s es una función
satisfaciendo:
1 f (x , y) ≥ 0
2∫∞−∞
∫∞−∞ f (x , y)dxdy = 1
Entonces para cualquier conjunto A en R2
P[(X ,Y ) ∈ A] =
∫∫Af (x , y)dxdy
En particular, si A es un rectángulo bidimensional
{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces
P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =
∫ b
a
∫ d
cf (x , y)dydx
Miguel Angel Méndez Estadística II 6/36
Ejemplo.
Un banco dispone tanto de una ventanilla para automovilistas como deuna vantanilla normal. En un día seleccionado al azar, sea X = laproporción de tiempo que la ventanilla para automovilistas está en uso yY = la proporción de tiempo que la ventanilla normal está en uso.Entonces el conjunto de valores posibles de (X ,Y ) es el rectánguloD = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}. Suponga que la densidad deprobabilidad conjunta de (X ,Y ) está dada por
f (x , y) =
{6
5(x + y2) 0 ≤ x ≤ 1, 0 ≤ y ≤ 1,
0 o.c .
1 Veri�car que f (x , y) es una función de densidad de probabilidadlegítima
2 Calcular la probabilidad que ninguna ventanilla esté ocupada más deun cuarto del tiempo, i.e. P(0 ≤ X ≤ 1
4, 0 ≤ Y ≤ 1
4)
Miguel Angel Méndez Estadística II 7/36
Función de densidad de probabilidad marginal
De�nición.
Las funciones de densidad de probabilidad marginal de X y Y ,
denotadas por fX (x) y fY (y), están dadas por
fX (x) =
∫ ∞−∞
f (x , y)dy ∀ −∞ < x <∞
fY (y) =
∫ ∞−∞
f (x , y)dx ∀ −∞ < y <∞
Ejemplo.
Del ejemplo anterior calcule las funciones de densidad marginal.
¾Cuál es el signi�cado de estas marginales?.
Miguel Angel Méndez Estadística II 8/36
Función de densidad de probabilidad marginal
De�nición.
Las funciones de densidad de probabilidad marginal de X y Y ,
denotadas por fX (x) y fY (y), están dadas por
fX (x) =
∫ ∞−∞
f (x , y)dy ∀ −∞ < x <∞
fY (y) =
∫ ∞−∞
f (x , y)dx ∀ −∞ < y <∞
Ejemplo.
Del ejemplo anterior calcule las funciones de densidad marginal.
¾Cuál es el signi�cado de estas marginales?.
Miguel Angel Méndez Estadística II 8/36
Ejemplo.
Sean X y Y v.a.'s con función de densidad conjunta
f (x , y) =
{24xy 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x + y ≤ 1
0 o.c .
1 Determine si f (x , y) es una función de densidad de
probabilidad.
2 Sea A = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x + y ≤ .5}.Encuentre P[(X ,Y ) ∈ A]
3 Encuentre fX (x)
Miguel Angel Méndez Estadística II 9/36
variables aleatorias independientes
En ocasiones el valor observado de una de las dos variables X y Yda información sobre el valor de la otra variable, i.e. existe
dependencia entre las dos variables. Veamos cuando no se da el
caso:
De�nición.
Se dice que dos v.a.'s X y Y son independientes si por cada par
de valores x y y
p(x , y) = pX (x) · pY (y) cuando X y Y son discretas
o
f (x , y) = fX (x) · fY (y) cuando X y Y son continuas
Si lo anterior no se satisface con todos los pares (x , y), entonces se
dice que X y Y son dependientes.
Miguel Angel Méndez Estadística II 9/36
variables aleatorias independientes
En ocasiones el valor observado de una de las dos variables X y Yda información sobre el valor de la otra variable, i.e. existe
dependencia entre las dos variables. Veamos cuando no se da el
caso:
De�nición.
Se dice que dos v.a.'s X y Y son independientes si por cada par
de valores x y y
p(x , y) = pX (x) · pY (y) cuando X y Y son discretas
o
f (x , y) = fX (x) · fY (y) cuando X y Y son continuas
Si lo anterior no se satisface con todos los pares (x , y), entonces se
dice que X y Y son dependientes.
Miguel Angel Méndez Estadística II 9/36
Ejemplo.
Sean X y Y v.a.'s con función de densidad conjunta dada por
Tabla: Distribución de probabilidad conjunta y marginal
HHHH
HHxy
0 100 200 pX (x)
100 .20 .10 .20 .50
250 .05 .15 .30 .50
pY (y) .25 .25 .50 1
¾Son X y Y independientes?
Solución:
p(100, 100) = .10 6= (.5)(.25) = pX (100) · pY (100)
de modo que X y Y no son independientes
Miguel Angel Méndez Estadística II 10/36
Ejemplo.
Sean X y Y v.a.'s con función de densidad conjunta dada por
Tabla: Distribución de probabilidad conjunta y marginal
HHHH
HHxy
0 100 200 pX (x)
100 .20 .10 .20 .50
250 .05 .15 .30 .50
pY (y) .25 .25 .50 1
¾Son X y Y independientes?
Solución:
p(100, 100) = .10 6= (.5)(.25) = pX (100) · pY (100)
de modo que X y Y no son independientes
Miguel Angel Méndez Estadística II 10/36
Observación.
Se puede demostrar que X y Y son independientes si
f (x , y) = g(x)h(y)
y la región de densidad positiva (el dominio de f ) debe ser un
rectángulo con sus lados paralelos a los ejes coordenados.
También si X y Y son v.a.'s independientes, se deduce que:
P(a ≤ X ≤ b, c ≤ Y ≤ d) = P(a ≤ X ≤ b) · P(c ≤ Y ≤ d)
Miguel Angel Méndez Estadística II 11/36
Observación.
Se puede demostrar que X y Y son independientes si
f (x , y) = g(x)h(y)
y la región de densidad positiva (el dominio de f ) debe ser un
rectángulo con sus lados paralelos a los ejes coordenados.
También si X y Y son v.a.'s independientes, se deduce que:
P(a ≤ X ≤ b, c ≤ Y ≤ d) = P(a ≤ X ≤ b) · P(c ≤ Y ≤ d)
Miguel Angel Méndez Estadística II 11/36
Distribución exponencial
Una v.a. X tiene distribución exponencial cuando su función de
densidad es
f (x ;λ) =
{λe−λx , x ≥ 0
0 o.c .
µ = 1/λ σ2 = 1/λ2
y
F (x , λ) =
{0 x < 0
1− e−λx x ≥ 0
Miguel Angel Méndez Estadística II 12/36
Distribución exponencial
Una v.a. X tiene distribución exponencial cuando su función de
densidad es
f (x ;λ) =
{λe−λx , x ≥ 0
0 o.c .
µ = 1/λ σ2 = 1/λ2
y
F (x , λ) =
{0 x < 0
1− e−λx x ≥ 0
Miguel Angel Méndez Estadística II 12/36
Distribución exponencial
Una v.a. X tiene distribución exponencial cuando su función de
densidad es
f (x ;λ) =
{λe−λx , x ≥ 0
0 o.c .
µ = 1/λ σ2 = 1/λ2
y
F (x , λ) =
{0 x < 0
1− e−λx x ≥ 0
Miguel Angel Méndez Estadística II 12/36
La independencia de dos variables aleatorias es más útil cuando la
descripción del experimento en estudio sugiere que X y Y no tienen
ningún efecto entre ellas. Entonces, una vez que las funciones masa
de probabilidad y de densidad de probabilidad marginales han sido
especi�cadas, la función masa de probabilidad conjunta o la función
de densidad de probabilidad conjunta es simplemente el producto
de dos funciones marginales.
Ejemplo.
Suponga que las duraciones de dos componentes son
independientes entre sí y que la distribución exponencial de la
primera duración es X1 con parámetro λ1 = 1/1000, mientras que
la distribución exponencial de la segunda es X2 con parámetro
λ2 = 1/200. Determine
1 La función de densidad conjunta
2 La probabilidad de que ambas duraciones sean de por lo menos
1500 horas. (0.0639)
Miguel Angel Méndez Estadística II 13/36
La independencia de dos variables aleatorias es más útil cuando la
descripción del experimento en estudio sugiere que X y Y no tienen
ningún efecto entre ellas. Entonces, una vez que las funciones masa
de probabilidad y de densidad de probabilidad marginales han sido
especi�cadas, la función masa de probabilidad conjunta o la función
de densidad de probabilidad conjunta es simplemente el producto
de dos funciones marginales.
Ejemplo.
Suponga que las duraciones de dos componentes son
independientes entre sí y que la distribución exponencial de la
primera duración es X1 con parámetro λ1 = 1/1000, mientras que
la distribución exponencial de la segunda es X2 con parámetro
λ2 = 1/200. Determine
1 La función de densidad conjunta
2 La probabilidad de que ambas duraciones sean de por lo menos
1500 horas.
(0.0639)
Miguel Angel Méndez Estadística II 13/36
La independencia de dos variables aleatorias es más útil cuando la
descripción del experimento en estudio sugiere que X y Y no tienen
ningún efecto entre ellas. Entonces, una vez que las funciones masa
de probabilidad y de densidad de probabilidad marginales han sido
especi�cadas, la función masa de probabilidad conjunta o la función
de densidad de probabilidad conjunta es simplemente el producto
de dos funciones marginales.
Ejemplo.
Suponga que las duraciones de dos componentes son
independientes entre sí y que la distribución exponencial de la
primera duración es X1 con parámetro λ1 = 1/1000, mientras que
la distribución exponencial de la segunda es X2 con parámetro
λ2 = 1/200. Determine
1 La función de densidad conjunta
2 La probabilidad de que ambas duraciones sean de por lo menos
1500 horas. (0.0639)
Miguel Angel Méndez Estadística II 13/36
Más de dos variables aleatorias
De�nición.
Si X1,X2, . . . ,Xn son v.a.'s discretas, la función masa de
probabilidad conjunta es la función
p(x1, x2, . . . , xn) = P(X1 = x1,X2 = x2, . . . ,Xn = xn)
Si las variables son continuas, la función de densidad de
probabilidad conjunta de X1,X2, . . . ,Xn es la función
f (x1, x2, . . . , xn) de modo que para n intervalos cualesquiera
[a1, b1], . . . , [an, bn],
P(a1 ≤ X1 ≤ b1, . . . , an ≤ Xn ≤ bn)
=
∫ b1
a1
. . .
∫ bn
an
f (x1, . . . , xn)dxn . . . dxx1
Miguel Angel Méndez Estadística II 14/36
Más de dos variables aleatorias
De�nición.
Si X1,X2, . . . ,Xn son v.a.'s discretas, la función masa de
probabilidad conjunta es la función
p(x1, x2, . . . , xn) = P(X1 = x1,X2 = x2, . . . ,Xn = xn)
Si las variables son continuas, la función de densidad de
probabilidad conjunta de X1,X2, . . . ,Xn es la función
f (x1, x2, . . . , xn) de modo que para n intervalos cualesquiera
[a1, b1], . . . , [an, bn],
P(a1 ≤ X1 ≤ b1, . . . , an ≤ Xn ≤ bn)
=
∫ b1
a1
. . .
∫ bn
an
f (x1, . . . , xn)dxn . . . dxx1
Miguel Angel Méndez Estadística II 14/36
Distribución multinomial
Un experimento es multinomial si se tienen:
n ensayos idénticos e independientes,
cada ensayo se tienen uno de r posibles resultados,
la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .
Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),
La función de masa de probabilidad conjunta de X1, . . . ,Xn es:
p(x1, . . . , xr ) =
{n!
x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n
0 o.c .
El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.
Ejemplo.
Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.
9!3!2!2!1!1! (
1
6)3( 1
6)2( 1
6)2( 1
6)1( 1
6)1( 1
6)0 = 9!
3!2!2! (1
6)9
Miguel Angel Méndez Estadística II 15/36
Distribución multinomial
Un experimento es multinomial si se tienen:
n ensayos idénticos e independientes,
cada ensayo se tienen uno de r posibles resultados,
la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .
Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),
La función de masa de probabilidad conjunta de X1, . . . ,Xn es:
p(x1, . . . , xr ) =
{n!
x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n
0 o.c .
El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.
Ejemplo.
Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.
9!3!2!2!1!1! (
1
6)3( 1
6)2( 1
6)2( 1
6)1( 1
6)1( 1
6)0 = 9!
3!2!2! (1
6)9
Miguel Angel Méndez Estadística II 15/36
Distribución multinomial
Un experimento es multinomial si se tienen:
n ensayos idénticos e independientes,
cada ensayo se tienen uno de r posibles resultados,
la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .
Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),
La función de masa de probabilidad conjunta de X1, . . . ,Xn es:
p(x1, . . . , xr ) =
{n!
x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n
0 o.c .
El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.
Ejemplo.
Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.
9!3!2!2!1!1! (
1
6)3( 1
6)2( 1
6)2( 1
6)1( 1
6)1( 1
6)0 = 9!
3!2!2! (1
6)9
Miguel Angel Méndez Estadística II 15/36
Distribución multinomial
Un experimento es multinomial si se tienen:
n ensayos idénticos e independientes,
cada ensayo se tienen uno de r posibles resultados,
la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .
Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),
La función de masa de probabilidad conjunta de X1, . . . ,Xn es:
p(x1, . . . , xr ) =
{n!
x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n
0 o.c .
El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.
Ejemplo.
Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.
9!3!2!2!1!1! (
1
6)3( 1
6)2( 1
6)2( 1
6)1( 1
6)1( 1
6)0 = 9!
3!2!2! (1
6)9
Miguel Angel Méndez Estadística II 15/36
Ejemplo.
Cuando se utiliza cierto método para recolectar un volumen �jo de
muestras de roca en una región, existen cuatro tipos de roca. Sean
X1,X2 y X3 la proporción por volumen de los tipos de roca 1, 2 y 3
en una muestra aleatoriamente seleccionada (la proporción de la
roca 4 es 1− X1 − X2 − X3 de modo que una v.a. X4 sería
redundante). Si la función de masa de probabilidad conjunta de
X1,X2,X3 es
f (x1, x2, x3) =
{kx1x2(1− x3) 0 ≤ x1, x2, x3 ≤ 1, x1 + x2 + x3 ≤ 1
0 0.c .
1 Determine el valor de k
2 Calcule la probabilidad de que las rocas 1 y 2 integren más del
50% de la muestra
solución: k = 144 y p = 0.6066
Miguel Angel Méndez Estadística II 16/36
Independencia de mas de dos v.a.'s
De�nición.
Se dice que las v.a.'s X1,X2, . . . ,Xn son independientes si para
cada par, cada terna, y así sucesivamente, la función de masa de
probabilidad conjunta o función de densidad de probabilidad
conjunta es igual al producto de funciones de masa de probabilidad
conjuntas o funciones de densidad de probabilidad conjunta para
pares, ternas y así sucesivamente.
Miguel Angel Méndez Estadística II 17/36
Distribuciones condicionales
De�nición.
Sean X y Y v.a.'s continuas con fdpc f (x , y) y fdp marginal fX (x).Entonces para toda x de X con el cual fX (x) > 0, la función
condicional de densidad de probabilidad condicional de Y dado que
X = x es
fY |X (y |x) =f (x , y)
fX (x)−∞ < y <∞
Si X y Y son v.a.'s discretas se reemplazan las funciones de
densidad por funciones de masa de probabilidad.
Miguel Angel Méndez Estadística II 18/36
Ejemplo.
Un banco dispone tanto de una ventanilla para automovilistas como deuna vantanilla normal. En un día seleccionado al azar, sea X = laproporción de tiempo que la ventanilla para automovilistas está en uso yY = la proporción de tiempo que la ventanilla normal está en uso.Entonces el conjunto de valores posibles de (X ,Y ) es el rectánguloD = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}. Suponga que la densidad deprobabilidad conjunta de (X ,Y ) está dada por
f (x , y) =
{6
5(x + y2) 0 ≤ x ≤ 1, 0 ≤ y ≤ 1,
0 o.c .
De este ejemplo hemos calculado fX (x) =6
5x + 2
5
1 Calcule la densidad de probabilidad de Y dado que X = 0.8.
2 Determine la probabilidad que la ventanillla esté ocupada cuandomucho la mitad del tiempo dado que X = 0.8.
Miguel Angel Méndez Estadística II 19/36
De�nición:
Sean X y Y v.a.'s conjuntamente distribuidas con función masa de
probabilidad p(x , y) o función de densidad de probabilidad f (x , y)ya sea que las variables sean discretas o continuas. Entonces el
valor esperado de una función h(X ,Y ) denotada E [h(X ,Y )] oµh(X ,Y ) está dada por
E [h(X ,Y )] =
{ ∑x
∑y h(x , y) · p(x , y) si X y Y son discretas∫∞
−∞∫∞−∞ h(x , y) · f (x , y)dxdy si X y Y son continuas
Miguel Angel Méndez Estadística II 20/36
Ejemplo.
Considere que Y1 y Y2 tienen una densidad conjunta dada por
f (y1, y2) =
{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0, o.c .
Encuentre E (Y1Y2).
Solución:
E (Y1Y2) =
∫1
0
∫1
0
y1y2(2y1)dy1dy2 =1
3
Miguel Angel Méndez Estadística II 21/36
Ejemplo.
Considere que Y1 y Y2 tienen una densidad conjunta dada por
f (y1, y2) =
{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0, o.c .
Encuentre E (Y1Y2).
Solución:
E (Y1Y2) =
∫1
0
∫1
0
y1y2(2y1)dy1dy2 =1
3
Miguel Angel Méndez Estadística II 21/36
Observemos lo siguiente:
E (Y1) =
∫ ∞−∞
∫ ∞−∞
y1f (y1, y2)dy2dy1
=
∫ ∞−∞
y1
∫ ∞−∞
f (y1, y2)dy2dy1 =
∫ ∞−∞
y1f1(y1)dy1
Ejemplo.
Sean Y1 y Y2 v.a.'s con función de densidad
f (y1, y2) =
{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .
Encuentre V (Y1).
Solución: Veri�que primero que E (Y k1) = 2
k+2 y luego
V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.
Miguel Angel Méndez Estadística II 22/36
Observemos lo siguiente:
E (Y1) =
∫ ∞−∞
∫ ∞−∞
y1f (y1, y2)dy2dy1
=
∫ ∞−∞
y1
∫ ∞−∞
f (y1, y2)dy2dy1 =
∫ ∞−∞
y1f1(y1)dy1
Ejemplo.
Sean Y1 y Y2 v.a.'s con función de densidad
f (y1, y2) =
{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .
Encuentre V (Y1).
Solución: Veri�que primero que E (Y k1) = 2
k+2 y luego
V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.
Miguel Angel Méndez Estadística II 22/36
Observemos lo siguiente:
E (Y1) =
∫ ∞−∞
∫ ∞−∞
y1f (y1, y2)dy2dy1
=
∫ ∞−∞
y1
∫ ∞−∞
f (y1, y2)dy2dy1 =
∫ ∞−∞
y1f1(y1)dy1
Ejemplo.
Sean Y1 y Y2 v.a.'s con función de densidad
f (y1, y2) =
{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .
Encuentre V (Y1).
Solución: Veri�que primero que E (Y k1) = 2
k+2 y luego
V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.
Miguel Angel Méndez Estadística II 22/36
Teorema.
Sean c una constante y g(x , y), g1(x , y), g2(x , y) funciones de
Y1,Y2 v.a's. Entonces
1 E (c) = c
2 E [cg(Y1,Y2)] = cE [g(Y1,Y2)]
3 E [g1(Y1,Y2) + g2(Y1,Y2)] = E [g1(Y1,Y2)] + E [g2(Y1,Y2)]
Miguel Angel Méndez Estadística II 23/36
Teorema.
Sean Y1 y Y2 v.a.'s independientes y sean g(Y1) y h(Y2) funciones
sólo de Y1 y Y2 respectivamente. Entonces
E [g(Y1)h(Y2)] = E [g(Y1)]E [h(Y2)]
siempre que existan los valores esperados.
Demostración.
Usar la hipótesis de independencia: f (y1, y2) = fY1(y1)fY2(y2)
Ejemplo.
Suponga que Z ∼ N(0, 1), Y1 ∼ χ2(ν1) y Y2 ∼ χ2(ν2). Además
suponga que Z ,Y1 y Y2 son independientes.
1 De�na W = Z/√Y1. Encuentre E (W ) y V (W ). ¾Que
suposiciones se necesitan acerca del valor de ν1?.
2 De�na U = Y1/Y2. Encuentre E (U) y V (U). ¾Que
suposiciones acerca de ν1 y ν2 se necesitan?.Miguel Angel Méndez Estadística II 24/36
La covarianza
La covarianza es una medida del grado de variación de dos variables
aleatorias respecto a sus respectivas medias. El dato es necesario
para determinar si existe dependencia entre ambas variables y para
estimar el coe�ciente de correlación lineal.
De�nición.
Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la
covarianza de Y1 y Y2 es
Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]
Una manera alterna para calcular la covarianza:
Teorema.
Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces
Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)
Miguel Angel Méndez Estadística II 25/36
La covarianza
La covarianza es una medida del grado de variación de dos variables
aleatorias respecto a sus respectivas medias. El dato es necesario
para determinar si existe dependencia entre ambas variables y para
estimar el coe�ciente de correlación lineal.
De�nición.
Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la
covarianza de Y1 y Y2 es
Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]
Una manera alterna para calcular la covarianza:
Teorema.
Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces
Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)
Miguel Angel Méndez Estadística II 25/36
La covarianza
La covarianza es una medida del grado de variación de dos variables
aleatorias respecto a sus respectivas medias. El dato es necesario
para determinar si existe dependencia entre ambas variables y para
estimar el coe�ciente de correlación lineal.
De�nición.
Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la
covarianza de Y1 y Y2 es
Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]
Una manera alterna para calcular la covarianza:
Teorema.
Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces
Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)
Miguel Angel Méndez Estadística II 25/36
Algunas observaciones con respecto de la covarianza:
Entre mayor sea el valor absoluto de la covarianza mayor será
la dependencia lineal entre Y1 y Y2.
Los valores positivos indican que Y1 aumenta cuando Y2
aumenta y los valores negativos indican que Y1 disminuye
cuando Y2 aumenta
Un valor de cero indica que las variables son no
correlacionadas y que no hay dependencia lineal entre Y1 y Y2.
Miguel Angel Méndez Estadística II 26/36
Ejemplo.
Una cia. de nueces comercializa latas de nueces combinadas quecontienen almendras, nueces acajú y cacahuates. Suponga que el pesoneto de cada lata es exactamente de 1lb, pero la contribución al peso decada tipo de nuez es aleatoria. Como los tres pesos suman 1, un modelode probabilidad conjunta de dos cualquiera da toda la informaciónnecesaria sobre el peso del tercer tipo. Sea X el peso de las almendras enuna lata seleccionada y Y el peso de las nueces de acajú. Entonces laregión de densidad positiva es D = {(x , y) : 0 ≤ x , y ≤ 1, x + y ≤ 1} y lafunción de densidad de probabilidad conjunta de (X ,Y )
f (x , y) =
{24xy 0 ≤ x , y ≤ 1, x + y ≤ 10 o.c .
Encontrar la covarianza de X e Y
solución: Cov(X ,Y ) = 2
15− 2
5
2
5= − 2
75
Miguel Angel Méndez Estadística II 27/36
Ejemplo.
Una cia. de nueces comercializa latas de nueces combinadas quecontienen almendras, nueces acajú y cacahuates. Suponga que el pesoneto de cada lata es exactamente de 1lb, pero la contribución al peso decada tipo de nuez es aleatoria. Como los tres pesos suman 1, un modelode probabilidad conjunta de dos cualquiera da toda la informaciónnecesaria sobre el peso del tercer tipo. Sea X el peso de las almendras enuna lata seleccionada y Y el peso de las nueces de acajú. Entonces laregión de densidad positiva es D = {(x , y) : 0 ≤ x , y ≤ 1, x + y ≤ 1} y lafunción de densidad de probabilidad conjunta de (X ,Y )
f (x , y) =
{24xy 0 ≤ x , y ≤ 1, x + y ≤ 10 o.c .
Encontrar la covarianza de X e Ysolución: Cov(X ,Y ) = 2
15− 2
5
2
5= − 2
75
Miguel Angel Méndez Estadística II 27/36
Una di�cultad de utilizar la covarianza como medida absoluta de
variación es el que su valor depende de la escala de medición, i.e. es
difícil determinar si una covarianza particular es grande o
pequeña.
El problema se resuelve si estandarizamos su valor y
usamos el coe�ciente de correlación ρ:
De�nición.
El coe�ciente de correlación de X y Y , denotado por
Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por
ρX ,Y =Cov(X ,Y )
σX · σY
Miguel Angel Méndez Estadística II 28/36
Una di�cultad de utilizar la covarianza como medida absoluta de
variación es el que su valor depende de la escala de medición, i.e. es
difícil determinar si una covarianza particular es grande o
pequeña.El problema se resuelve si estandarizamos su valor y
usamos el coe�ciente de correlación ρ:
De�nición.
El coe�ciente de correlación de X y Y , denotado por
Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por
ρX ,Y =Cov(X ,Y )
σX · σY
Miguel Angel Méndez Estadística II 28/36
Una di�cultad de utilizar la covarianza como medida absoluta de
variación es el que su valor depende de la escala de medición, i.e. es
difícil determinar si una covarianza particular es grande o
pequeña.El problema se resuelve si estandarizamos su valor y
usamos el coe�ciente de correlación ρ:
De�nición.
El coe�ciente de correlación de X y Y , denotado por
Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por
ρX ,Y =Cov(X ,Y )
σX · σY
Miguel Angel Méndez Estadística II 28/36
La siguiente proposición muestra que ρ remedia el defecto de la
covarianza y también suguiere cómo reconocer la existencia de una
fuerte relación lineal.
Proposición.
1 Si a y c son ambas positivas o negativas,
Corr(aX + b, cY + d) = Corr(X ,Y )
2 Para dos v.a.'s cualesquiera X y Y ,
−1 ≤ Corr(X ,Y ) ≤ 1
Demostración:(2) : Demuestre que [E (XY )]2 ≤ E (X 2)E (Y 2)(sugerencia: E [(tX − Y )2] ≥ 0)
Miguel Angel Méndez Estadística II 29/36
La siguiente proposición muestra que ρ remedia el defecto de la
covarianza y también suguiere cómo reconocer la existencia de una
fuerte relación lineal.
Proposición.
1 Si a y c son ambas positivas o negativas,
Corr(aX + b, cY + d) = Corr(X ,Y )
2 Para dos v.a.'s cualesquiera X y Y ,
−1 ≤ Corr(X ,Y ) ≤ 1
Demostración:(2) : Demuestre que [E (XY )]2 ≤ E (X 2)E (Y 2)(sugerencia: E [(tX − Y )2] ≥ 0)
Miguel Angel Méndez Estadística II 29/36
Proposición.
1 Si X y Y son independientes, entonces ρ = 0, pero ρ = 0 no
implica independencia.
2 ρ = 1 o ρ = −1 si y sólo si Y = aX + b con algunos números
a y b con a 6= 0.
Demostración: (2) para el regreso utilizar la v.a.
U =X − E (X )
σX− Y − E (Y )
σY
Miguel Angel Méndez Estadística II 30/36
Estimación puntual
El proposito de la estadística es usar la información de una
muestra para hacer inferencias acerca de la población de la
cual se toma la muestra.
Debido a que las poblaciones están caracterizadas por medidas
descriptivas numéricas llamadas parámetros, el objetivo de
muchas investigaciones estadísticas es calcular el valor de uno
o más parámetros relevantes.
Parámetros importantes relevantes son la media poblacional, la
varianza y la deviación estándar.
Al parámetro de interés le llamaremos párametro objetivo en el
experimento.
La información de la muestra se puede utilizar para calcular el
valor de una estimación puntual, una estimación de intervalo o
ambas. En cualquier caso, la estimación real se logra con el
uso de un estimador del parámetro objetivo.
Miguel Angel Méndez Estadística II 31/36
Estimación puntual
El proposito de la estadística es usar la información de una
muestra para hacer inferencias acerca de la población de la
cual se toma la muestra.
Debido a que las poblaciones están caracterizadas por medidas
descriptivas numéricas llamadas parámetros, el objetivo de
muchas investigaciones estadísticas es calcular el valor de uno
o más parámetros relevantes.
Parámetros importantes relevantes son la media poblacional, la
varianza y la deviación estándar.
Al parámetro de interés le llamaremos párametro objetivo en el
experimento.
La información de la muestra se puede utilizar para calcular el
valor de una estimación puntual, una estimación de intervalo o
ambas. En cualquier caso, la estimación real se logra con el
uso de un estimador del parámetro objetivo.
Miguel Angel Méndez Estadística II 31/36
Estimación puntual
El proposito de la estadística es usar la información de una
muestra para hacer inferencias acerca de la población de la
cual se toma la muestra.
Debido a que las poblaciones están caracterizadas por medidas
descriptivas numéricas llamadas parámetros, el objetivo de
muchas investigaciones estadísticas es calcular el valor de uno
o más parámetros relevantes.
Parámetros importantes relevantes son la media poblacional, la
varianza y la deviación estándar.
Al parámetro de interés le llamaremos párametro objetivo en el
experimento.
La información de la muestra se puede utilizar para calcular el
valor de una estimación puntual, una estimación de intervalo o
ambas. En cualquier caso, la estimación real se logra con el
uso de un estimador del parámetro objetivo.
Miguel Angel Méndez Estadística II 31/36
Estimación puntual
El proposito de la estadística es usar la información de una
muestra para hacer inferencias acerca de la población de la
cual se toma la muestra.
Debido a que las poblaciones están caracterizadas por medidas
descriptivas numéricas llamadas parámetros, el objetivo de
muchas investigaciones estadísticas es calcular el valor de uno
o más parámetros relevantes.
Parámetros importantes relevantes son la media poblacional, la
varianza y la deviación estándar.
Al parámetro de interés le llamaremos párametro objetivo en el
experimento.
La información de la muestra se puede utilizar para calcular el
valor de una estimación puntual, una estimación de intervalo o
ambas. En cualquier caso, la estimación real se logra con el
uso de un estimador del parámetro objetivo.
Miguel Angel Méndez Estadística II 31/36
Estimación puntual
El proposito de la estadística es usar la información de una
muestra para hacer inferencias acerca de la población de la
cual se toma la muestra.
Debido a que las poblaciones están caracterizadas por medidas
descriptivas numéricas llamadas parámetros, el objetivo de
muchas investigaciones estadísticas es calcular el valor de uno
o más parámetros relevantes.
Parámetros importantes relevantes son la media poblacional, la
varianza y la deviación estándar.
Al parámetro de interés le llamaremos párametro objetivo en el
experimento.
La información de la muestra se puede utilizar para calcular el
valor de una estimación puntual, una estimación de intervalo o
ambas. En cualquier caso, la estimación real se logra con el
uso de un estimador del parámetro objetivo.
Miguel Angel Méndez Estadística II 31/36
De�nición.
Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.
Ejemplo.
Por ejemplo, la media muestral
Y =1
n
n∑i=1
Yi
es un posible estimador puntual de la media poblacional µ
Miguel Angel Méndez Estadística II 32/36
De�nición.
Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.
Ejemplo.
Por ejemplo, la media muestral
Y =1
n
n∑i=1
Yi
es un posible estimador puntual de la media poblacional µ
Miguel Angel Méndez Estadística II 32/36
De�nición.
Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.
Ejemplo.
Por ejemplo, la media muestral
Y =1
n
n∑i=1
Yi
es un posible estimador puntual de la media poblacional µ
Miguel Angel Méndez Estadística II 32/36
Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias
de los valores de las estimaciones obtenidas en muestreo
repetido y observar como se agrupa esta distribución
alrededor del parámetro objetivo.
Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂
Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.
Miguel Angel Méndez Estadística II 33/36
Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias
de los valores de las estimaciones obtenidas en muestreo
repetido y observar como se agrupa esta distribución
alrededor del parámetro objetivo.
Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂
Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.
Miguel Angel Méndez Estadística II 33/36
Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias
de los valores de las estimaciones obtenidas en muestreo
repetido y observar como se agrupa esta distribución
alrededor del parámetro objetivo.
Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂
Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.
Miguel Angel Méndez Estadística II 33/36
De�nición.
Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un
estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está
sesgado
De�nición.
El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.
Miguel Angel Méndez Estadística II 34/36
De�nición.
Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un
estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está
sesgado
De�nición.
El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.
Miguel Angel Méndez Estadística II 34/36
De�nición.
Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un
estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está
sesgado
De�nición.
El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.
Miguel Angel Méndez Estadística II 34/36
La �gura siguiente muestra dos posibles distribuciones
muestrales para los estimadores puntuales insesgados para un
parámetro objetivo θ.Preferiríamos un estimador con una distribución del tipo (b)porque una varianza pequeña garantiza que, en un muestreo
repetido, una fracción mas alta de valores de θ̂2 estará �cerca�
de θ.Por consiguiente, además de preferir un estimador insesgado,
necesitamos que la varianza de la distribución del estimador
sea lo mas pequeña posible.
Miguel Angel Méndez Estadística II 35/36
Mas que usar el sesgo y la varianza de un estimador puntual para
caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio
del cuadrado de la distancia entre el estimador y su parámetro
objetivo.
De�nición.
El error cuadrático medio de un estimador puntual θ̂ es
MSE (θ̂) = E [(θ̂ − θ)2].
El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del
estimador θ̂, se puede demostrar que
MSE (θ̂) = V (θ̂)− [B(θ̂)]2.
Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.
Miguel Angel Méndez Estadística II 36/36
Mas que usar el sesgo y la varianza de un estimador puntual para
caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio
del cuadrado de la distancia entre el estimador y su parámetro
objetivo.
De�nición.
El error cuadrático medio de un estimador puntual θ̂ es
MSE (θ̂) = E [(θ̂ − θ)2].
El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del
estimador θ̂, se puede demostrar que
MSE (θ̂) = V (θ̂)− [B(θ̂)]2.
Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.
Miguel Angel Méndez Estadística II 36/36
Mas que usar el sesgo y la varianza de un estimador puntual para
caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio
del cuadrado de la distancia entre el estimador y su parámetro
objetivo.
De�nición.
El error cuadrático medio de un estimador puntual θ̂ es
MSE (θ̂) = E [(θ̂ − θ)2].
El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del
estimador θ̂, se puede demostrar que
MSE (θ̂) = V (θ̂)− [B(θ̂)]2.
Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.
Miguel Angel Méndez Estadística II 36/36
Mas que usar el sesgo y la varianza de un estimador puntual para
caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio
del cuadrado de la distancia entre el estimador y su parámetro
objetivo.
De�nición.
El error cuadrático medio de un estimador puntual θ̂ es
MSE (θ̂) = E [(θ̂ − θ)2].
El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del
estimador θ̂, se puede demostrar que
MSE (θ̂) = V (θ̂)− [B(θ̂)]2.
Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.
Miguel Angel Méndez Estadística II 36/36