Post on 20-Dec-2015
description
2
Mapa conceptual
ESTADÍSTICA Conceptos
Básicos Estadística Descriptiva
Población Muestra
PROBABILIDAD Conceptos Básicos
Distribuciones de Probabilidad
Distribuciones en el Muestreo
Desigualdad de Tchebysheff, Ley de los grandes Números,
Teorema Central del Limite.
INFERENCIA
Estimación Prueba de Hipótesis para una y dos
poblaciones
Parámetro Estimador
Discretas, Binomial, otras
Continuas, Normal, ji-cuadrado, t de
Student
Puntual Por intervalos
5
1. Conocer la población, la distribución que sigue la variable poblacional y el parámetro p a estimarLa población es el universo compuesto por M elementos o individuos del quese desea conocer el valor de determinado parámetro p
Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá unnuevo producto?Si la variable aleatoria X se define como “disposición a consumir el nuevoproducto”, su distribución será Bernoulli de parámetro p desconocido
2. Determinar la aproximación que se va a utilizar para la determinación del parámetro poblacional a partir de la información muestralLa muestra es la parte de la población compuesta por n elementos, n<M, de la que se pretende extraer conclusiones generalizables para la población, con un margen de error
Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá unnuevo producto?Aproximación: % de los n individuos dispuestos a consumir el producto
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA
Pasos:
6
3. Extracción de la muestra aleatoriaUna m.a. está compuesta por v.a. i.i.d.: a) las v.a. están idénticamente distribuidas, lo que no implica que midan lo mismoni que tomen lo mismos valores: b) las v.a son independientes, lo que implica que el valor que toma una variable esindependiente del que tome otra
{ }1 nX ,...,X
iX XF F (t)=
4. Obtener la muestra o datos { }1 nx ,..., x
5. Elegir el estadístico muestralDefinición de estadístico muestral: cualquier función de los elementos de lamuestra (por tanto variable aleatoria) que informa sobre el parámetro a determinar
Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá unnuevo producto?
Estadístico muestral: El parámetro poblacional p es la media de la variablealeatoia poblacional X. El estadístico muestral apropiado será la media muestral
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA
[ ] pXE =
7
6. Obtención del valor para el parámetro desconocido
Teoría de la estimaciónEstimación puntual
Estimación por intervalos
7. Realizar afirmaciones sobre el valor del parámetro o sobre la distribuciónpoblacional susceptibles de ser refutadas
Contrastaste de hipótesisParamétricas
Simples
Compuestas
No Paramétricas
PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA
8
ESTADÍSTICOS Y DISTRIBUCIONES MUESTRALESDe la extracción de la muestra (método de muestreo) y de la elección delestadístico muestral dependerá la calidad de los resultados respecto a laaproximación al parámetro poblacional
PROPIEDADES DEL ESTADÍSTICO MUESTRAL
1. Es una variable aleatoria y, como tal, susceptible de cualquier medida estadística
2. Proviene de la muestra, con lo que sólo sirve para extraer aproximaciones al verdadero valor del parámetro poblacional desconocido
3. A mayor tamaño muestral, menor incertidumbre en la aproximación
10
Notación
MUESTRAALEATORIA
Momentos muestrales: desconocidos, no constantesn
kk i
i 1
1M Xn =
= ∑ 2 2n nX, , SΣ
POBLACIÓNMomentos poblacionales: desconocidos, constantes
kkm E X =
2, µ σ
MUESTRA
Valor estimado del momento muestral: conocidos,constantes
nk
k ii 1
1m̂ xn =
= ∑ 2 2n n
ˆˆx, , SΣ
Relación entre momentos muestrales y momentos poblacionales 2
kVar Mnσ
=
k kE M m =
Se espera que el k-ésimo momento muestral coincida con el k-ésimo momento poblacional La varianza del k-ésimo momento muestral es la varianza poblacional dividida por n
13
TEORÍA DE LA ESTIMACIÓNSea X una v.a.
¿Cómo se determina el valor de γ?
Conjunto paramétrico: Γ
Restringir el conjunto paramétrico
Definición de estimador(estadístico muestral) Muestra
Cálculo de la estimación
Estimaciónpuntual
Estimaciónpor intervalos
Γ̂
γ̂
14
MÉTODOS DE OBTENCIÓN DE ESTIMADORES
MÉTODO DE LA MÁXIMA VEROSIMILTUD (MV)
El estimador se obtiene maximizando la función de verosimilitud L (probabilidad
de observar la muestra observada para cada valor asignado al parámetro)
a) Caso unidimensional (un parámetro a estimar). Ya sea el caso discreto o continuo, se deberá derivar la función L respecto al parámetro desconocido.
( )( )
( )
n
ii 1n
X ii 1
P X x , caso discretoL
f x , caso continuo
=
=
=γ =
∏
∏
El valor que maximice esta función (la estimación) coincidirá con aquel para el que la probabilidad de observar la muestra realmente observada sea máxima
Los estimadores MV son los más usados porque basan la estimación en la información muestral (función de verosimilitud) y porque cumplen algunas propiedades deseables
b) Caso bidimensional (dos parámetros a estimar). Ya sea el caso discreto o continuo, se deberá derivar la función L respecto a los dos parámetros desconocidos.
15
Procedimiento
Sea X una variable aleatoria cuya distribución de probabilidaddepende del parámetro desconocido θ. Sea la función dedensidad de probabilidad de la población f(x,θ).
1. Se toma una muestra aleatoria x1, x2, ..., xn de observacionesindependientes y se calcula la densidad conjunta de la muestra:la función de verosimilitud y se expresa como:
( )∏=
=
⋅⋅⋅=n
iin
nn
xf, θ,...,xL(x
, θf(x... , θ f(x, θf(x, θ,...,xL(x
11
211
,)
))))
θ
16
MVθ̂
L
θ̂
Si de una población cualquiera hemos obtenido una muestra particular, es razonable pensar que la muestra obtenida era la que mayor probabilidad tenía de ser escogida.
Valor del estimador máxima verosimilitud
Funciónmáxima verosimilitud
17
Si los valores posibles de θ son discretos, el procedimientoes evaluar L(x,θ) para cada valor posible y elegir el valor deθ para el cual L alcanza su máximo.
Por otro lado, si L(x,θ) es diferenciable se puede maximizarL sobre el rango de valores posibles de θ obteniéndosecondiciones de primer y segundo orden.
2. En la práctica es más fácil maximizar el logaritmo de lafunción de verosimilitud. Como la función logaritmo es unatransformación monótona, maximizar L(x,θ) es equivalente amaximizar Ln(L(x,θ)).
18
3. Derivamos respecto al parámetro-objetivo.
4. Igualamos a cero para encontrar el máximo de la función
5. Verificamos la condición de máximo
19
EjercicioSupongamos que los tiempos de fallos de ciertascomponentes electrónicas, X, provienen de unadistribución exponencial de parámetro θ. Dada unamuestra de n componentes, obtenga el E.M.V. de θ.
20
SoluciónLa función de densidad es:
Y se dispone de los tiempos de fallo de ncomponentes elegidas al azar x1, x2,…, xn.
La función de verosimilitud está dada por:
21
Resolviendo la ecuación de verosimilitud
se concluye que el EMV para θ por esteprocedimiento viene dado por
29
EL MÉTODO DE LOS MOMENTOS
Fue introducido por K. Pearson y es el método general más antiguo y sencillopara la obtención de estimadores de parámetros poblacionales. En algunasocasiones se suele utilizar para obtener una primera aproximación de losestimadores. Este método consiste en igualar tantos momentos muestralescomo parámetros haya que estimar, a los correspondientes momentospoblacionales, que son funciones de los parámetros desconocidos, yresolviendo el sistema de ecuaciones resultante tendríamos los estimadores delos parámetros.
Procedimiento
39
Realizada la estimación de un parámetro cabepreguntarse:
• ¿ Es exacta la estimación?
• ¿Es probable que la estimación sea alta o baja?
• ¿Con otra muestra se obtendría el mismo resultado, obastante diferente?
• ¿La calidad de un procedimiento de estimación mejorabastante si la estadística de la muestra es menos variable einsesgada a la vez?
40
El estimador es un estadístico muestra, y, como tal, es cualquier función de la muestra. Portanto, y aunque los derivados de alguno de los métodos de estimación sean siempre másapropiados, dependiendo del parámetro desconocido, la elección del estimador generará unamejor o peor aproximación al verdadero valor del parámetro. De ahí, la importancia dedefinir propiedades de los estimadores que permitan realizar la elección del estimador deforma más adecuada. Un estimador será mejor cuantas más propiedades cumpla.
1. Insesgadez
n n
ˆ ˆDefinición : es insesgado si E
ˆ ˆ ˆ ˆSi E : b( ) E (sesgo de )
ˆ ˆ ˆSi lím b( ) 0 lím E es asintóticamente insesgado→∞ →∞
Γ Γ = γ Γ ≠ γ Γ = Γ − γ Γ
Γ = ⇔ Γ = γ ⇒ Γ
Propiedades de los estimadores
Estima exactamente
43
[ ] θγ
γ ˆ),(lnˆ12
⇒
∂
∂=Γ
−
yfnEVar
Nota:
a) Si es eficiente
b) Sean dos estimadores de . Se llama
eficiencia relativa de a:
21 θθ ~ˆ y θ
12 θθ ˆ/~ rc
( ) ( )( )1
212 θ
θθθ ˆ
~ˆ,~
ECMECMef =
48
EjemploDemostrar que dada una población N(µ, σ2) se verifica que la mediamuestral es un estimador eficiente de la media poblacional µ
SoluciónEn efecto
X
2
2)(21
ln2
1ln);(ln σµ
πσµ
−−
+=x
exf
2
2)(21
21ln
σµ
πσ−
−=x
2);(ln(
σµ
µµ −
=∂
∂ xxf
49
−
=
∂
∂ 2
2
2);(ln(
σµ
µµ XnExfnE
( )[ ]24 µ
σ−= XEn
22
44 )(σ
σσσ
nnXVarn===
nxfnE
XVarVar2
2);(ln(
1)()ˆ( σ
µµ
µ =
∂
∂==
Luego
54
3. Consistencia
( )
( )( )
( )
P
n
m.c P
2 nm.c n
n
n
ˆ ˆ ˆDefinición : es un estimador consistente de 0 : lím P 0
ˆ ˆ ˆSi es consistenteˆlím Var ˆ es un eˆ ˆSi lím E 0 ECM 0
ˆlím b
→∞
→∞→∞
→∞
→∞
Γ γ ⇔ ∀ε > Γ − γ > ε = ⇔ Γ→γ
Γ→γ ⇒ Γ→γ ⇒ Γ
Γ Γ Γ→γ ⇔ Γ − γ = ⇒ → ⇔ ⇒ Γ
stimador
fuertementeconsistente