Estadistica inferencial
-
Author
patricio1022 -
Category
Education
-
view
854 -
download
4
Embed Size (px)
Transcript of Estadistica inferencial

PROBABILIDAD
CONCEPTO Y DEFINICIÓNPROPIEDADESPROBABILIDAD CONDICIONADAINDEPENDENCIA DE SUCESOS
DAGOBERTO SALGADO HORTA

CONCEPTOSExperiencia aleatoria: aquella experiencia afectada por las leyes del azar:
impredecibilidadregularidad estadística.
Resultado elemental de una experiencia aleatoria.Suceso: conjunto de resultados elementales de una experiencia aleatoria. A veces se le llama también resultado.Espacio muestral: conjunto de sucesos asociados a una experiencia aleatoria.P
RO
BA
BIL
IDA
D: C
ON
CE
PTO
S

CONCEPTO DE PROBABILIDAD
DEFINICIÓN DE LAPLACE:
LA PROBABILIDAD DE UN SUCESO ASOCIADO A UNA EXPERIENCIA ALEATORIA ES EL COCIENTE ENTRE EL NÚMERO DE RESULTADOS ELEMENTALES FAVORABLES Y EL NÚMERO DE RESULTADOS ELEMENTALES POSIBLES QUE PUEDEN DARSE
PR
OB
AB
ILID
AD
: CO
NC
EP
TO

CONCEPTO DE PROBABILIDAD
DEFINICIÓN FRECUENCIALISTA:
PROBABILIDAD DE UN SUCESO ASOCIADO A UNA EXPERIENCIA ALEATORIA ES EL COCIENTE ENTRE EL NÚMERO DE VECES QUE SE PRESENTA ESE SUCESO Y EL NÚMERO DE ENSAYOS REALIZADOS CUANDO EL NÚMERO DE ENSAYOS CRECE INDEFINIDAMENTE
PR
OB
AB
ILID
AD
: CO
NC
EP
TO

CONCEPTO DE PROBABILIDAD
DEFINICIÓN SUBJETIVA:
LA PROBABILIDAD DE UN SUCESO ES EL GRADO DE CREENCIA QUE SE TIENE EN QUE ESE SUCESO ES CIERTO.
PR
OB
AB
ILID
AD
: CO
NC
EP
TO

DEFINICIÓN
Un número P asociado a un resultado de una experiencia aleatoria es una probabilidad si cumple los siguientes axiomas:
Todo suceso tiene una probabilidad no negativa.P(A)≥0
La probabilidad del suceso seguro es 1P(E)=1
La probabilidad de la unión de cualquier grupo de sucesos disjuntos es la suma de las probabilidades de cada uno de esos sucesos.
P(∪Ai)=∑P(Ai) con Ai∩Aj=∅PR
OB
AB
ILID
AD
: DE
FIN
ICIÓ
N

PROPIEDADESLa probabilidad del suceso imposible es 0: P(∅)=0Una probabilidad nunca puede ser menor que 0 ni mayorque 1: 0≤P(A)≤1Si un suceso A incluye a un suceso B, la probabilidad de Asiempre es mayor o igual que la de B: Si B⊂A ⇒ P(B)≤P(A)La probabilidad del suceso complementario es:
P( )=1-P(A)La probabilidad de la unión de dos sucesos es:P(A∪B)=P(A)+P(B)-P(A∩B)Y en general podemos decir que:
i=1,2,...,nPR
OB
AB
ILID
AD
: PR
OP
IED
AD
ES
A
⎟⎟⎠
⎞⎜⎜⎝
⎛−+⋅⋅⋅+∩+=⎟⎟
⎠
⎞⎜⎜⎝
⎛ −∑∑∑ ∩∪i
i1n
i jji
ii
iI AP)1()AA(P)A(PAP

PROBABILIDAD CONDICIONADA
CON ELLA SE PRETENDE VALORAR EL EFECTO QUE TIENE SOBRE LA PROBABILIDAD DE UN SUCESO EL HECHO DE DISPONER DE INFORMACIONES PARCIALES SOBRE EL MISMO
SE DEFINE COMO “PROBABILIDAD DEL SUCESO B CONDICIONADA A QUE HA OCURRIDO EL SUCESO A” A LA SIGUIENTE
P(B/A) = P(A∩B) / P(A)
PR
OB
AB
ILID
AD
CO
ND
ICIO
NA
DA

SUCESOS INDEPENDIENTES
DOS SUCESOS SE DICEN INDEPENDIENTES SI EL CONOCIMIENTO DE QUE HA OCURRIDO UNO DE ELLOS NO MODIFICA LA PROBABILIDAD DEL OTRO:
P(B/A) = P(B)P(A/B) = P(A)
P(A∩B) = P(A) P(B)
IND
EP
EN
DE
NC
IA D
E S
UC
ES
OS

TEOREMA DE BAYESTE
OR
EM
A D
E B
AYE
S
))P(B/AP(A )P(B/A )P(A /B)P(Aii
iii Σ
=
Si los Ai son una partición del espacio muestral y el suceso B es de probabilidad no nula, se cumple:
LOS Ai SUELEN INTERPRETARSE COMO LAS CAUSAS U ORÍGENES DE B, QUE A SU VEZ ES EL RESULTADO O CONSECUENCIA DE ALGUNO(S) DE LOS Ai
EL TEOREMA DE BAYES PERMITE EVALUAR LA PROBABILIDAD DE LAS CAUSAS VISTO EL EFECTO

OTROS COMENTARIOS SOBRE PROBABILIDAD
Sucesos independiente y sucesos excluyentes no es lo mismo.La reunión de sucesos equivale al “o” lógico, la disyunción no exclusiva:
A ∪ B = A o B = [o A, o B, o ambos]La intersección de sucesos equivale al “y” lógico, la conjunción:
A ∩ B = A y B = [A y B simultáneamente]Método del árbol para la solución de problemas de probabilidad:Es una representación gráfica de la secuencia de acontecimientos que definen el problema estudiado
VAR
IOS

VARIABLES ALEATORIAS
CONCEPTO Y TIPOSCARACTERIZACIÓNPRINCIPALES DISTRIBUCIONES DE PROBABILIDADAPROXIMACIONES

VARIABLE ALEATORIA
LLAMAREMOS ALEATORIA A AQUELLA VARIABLE QUE TOMA
VALORES INFLUIDA POR EL AZAR
PODRÍAMOS CONTRAPONER VARIABLES Y FENOMENOS
DETERMINISTAS CON VARIABLES Y FENÓMENOS ALEATORIOS
VAR
IAB
LES
ALE
ATO
RIA
S

TIPOS DE VARIABLE ALEATORIA
DISCRETA:Toma valores de un conjunto discreto y cada
valor posible xi tiene asignada una probabilidad p(xi)
CONTINUA:Toma valores en un conjunto continuo y la distribución de la probabilidad a lo largo del
mismo viene dada por una función f(x)
VAR
IAB
LES
ALE
ATO
RIA
S

FUNCIONES:
p(xi) se llama función de probabilidad
f(x) se llama función de densidad
F(x) se llama función de distribución:F(x) = P(X ≤ x)
existe para variables discretas (F(xi)) o continuas
VAR
IAB
LES
ALE
ATO
RIA
S

FUNCION DE PROBABLIDAD
Asignar probabilidades en una variable discreta significa definir P(xi) en cada punto de la variable cumpliéndose:
P(xi) ≥ 0 ∀i
ΣP(xi) = 1
VAR
IAB
LES
ALE
ATO
RIA
S

¿Qué probabilidad hay de que aparezcan X uds defectuosas en una muestra de 10, cuando la producción tiene un 30% de defectuosas?
Event prob.,Tria0.3,10
Binomial Distribution
x0 1 2 3 4 5 6 7 8 9 10
0
0.05
0.1
0.15
0.2
0.25
0.3
VAR
IAB
LES
ALE
ATO
RIA
S

FUNCIÓN DE DENSIDADEn el caso continuo la caracterización de la variable se realiza mediante la FUNCIÓN DE DENSIDAD f(x)
Para comprender su significado puede ser útil recurrir a la analogía mecánica:
La distribución de probabilidad es similar a una distribución de masa, y en el caso unidimensional la distribución de la masa a lo largo del eje es imagen de la distribución de la probabilidad. Al igual que la masa en un punto es nula, también lo es la probabilidad en un punto: ambas requieren intervalos para tomar valores no nulos
VAR
IAB
LES
ALE
ATO
RIA
S

¿Cómo se distribuye la longitud de las barras de una pata de mesa de tubo metálico cortado? El valor objetivo es 850 mm.
Mean,Std. dev.850,4
Normal Distribution
x
dens
ity
820 830 840 850 860 870 8800
0.02
0.04
0.06
0.08
0.1
VAR
IAB
LES
ALE
ATO
RIA
S

¿Qué porcentaje de las unidades producidas está entre 848 y 855 mm?
VAR
IAB
LES
ALE
ATO
RIA
S

FUNCIÓN DE DENSIDAD
Entre otros requisitos, una función de densidad f(x) de una variable aleatoria continua debe cumplir:
VAR
IAB
LES
ALE
ATO
RIA
S
∫+∞
∞−=1)( dxxf
f(x) ≥ 0 ∀x

FUNCIÓN DE DISTRIBUCIÓNEn variables discretas se cumple que:
VAR
IAB
LES
ALE
ATO
RIA
S
∑≤
=Xx
ii
)x(P)X(F
En variables continuas se cumple que:
dxxFdxf
dxxfxFx
)()(
)()(
=
= ∫ ∞−

Función de distribución en variable discreta.
Event prob.,Trial0.3,10
Binomial Distribution
x
cum
ulat
ive
prob
abili
ty
0 2 4 6 8 100
0.2
0.4
0.6
0.8
1
Mean,Std. dev.850,4
Normal Distribution
x
cum
ulat
ive
prob
abili
ty
830 840 850 860 8700
0.2
0.4
0.6
0.8
1
Función de distribución en variable continua.
VAR
IAB
LES
ALE
ATO
RIA
S

PARÁMETROS DE UNA DISTRIBUCIÓN
Son similares a los estudiados en estadística descriptiva.Son de cuatro tipos:
PAR
ÁM
ETR
OS - Parámetros de Posición- Parámetros de Dispersión- Parámetros de Asimetría- Parámetros de Curtosis

VALOR MEDIO (MEDIA)
Describe la posición de la variable aleatoria X (es decir, su orden de magnitud)
si x es variable discreta
si x es variable continua
En la analogía mecánica es el centro de gravedad de la distribución
PAR
ÁM
ETR
OS
E x x P xi ii
( ) ( )= ∑
E x x f x dx( ) ( )= ∫− ∞+ ∞

VARIANZADescribe el grado de dispersión de la variable
si x es variable discreta
si x es variable continua
Su raíz cuadrada es la desviación típica σ
PAR
ÁM
ETR
OS
∑ −=σ )()( 22ii xPmx
∫∞+∞−
−=σ dxxfmx )()( 22
En la analogía mecánica es el momento de inercia de la distribución

DISTRIBUCIONES DE PROBABILIDAD
ALGUNAS VARIABLES ALEATORIAS PRESENTAN COMPORTAMIENTOS CARACTERÍSTICOS QUE SON ESTÁNDARES DE FRECUENTE USOUNA DISTRIBUCIÓN DE PROBABILIDAD SE CARACTERIZA POR UNA FUNCIÓN DE DISTRIBUCIÓN DADA
en el caso discreto se caracterizan también por la función de probabilidad, en el caso continuo por la función de densidad
DIS
TRIB
UC
ION
ES
DE
PR
OB
AB
ILID
AD

PRINCIPALES DISTRIBUCIONES DE PROBABILIDAD
LAS MÁS IMPORTANTES DENTRO DEL ÁMBITO DE LA CALIDAD SON LAS SIGUIENTES:
VARIABLES DISCRETASDISTRIBUCIÓN HIPERGEOMÉTRICADISTRIBUCIÓN BINOMIALDISTRIBUCIÓN DE POISSON
VARIABLES CONTINUASDISTRIBUCIÓN NORMALDISTRIBUCIÓN χ2
DISTRIBUCIÓN tDISTRIBUCIÓN F
DIS
TRIB
UC
ION
ES
DE
PR
OB
AB
ILID
AD

DISTRIBUCIÓN HIPERGEOMÉTRICAConsidérese:
Una población formada por N individuos.Una muestra extraída al azar de esa población y formada por n individuos.Una cierta característica A que identifica a D de los individuos de la población, con lo que p=D/N es la proporción de individuos con esa característica.La variable X que representa al número de individuos de la muestra que tienen esa característica A.
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S

DISTRIBUCIÓN HIPERGEOMÉTRICAD
ISTR
IBU
CIO
NE
S D
ISC
RE
TAS
nN-DA
AX
X = H(N, n, p)
D
N

DISTRIBUCIÓN HIPERGEOMÉTRICAEN ESTAS CONDICIONES, DIREMOS QUE LA VARIABLE X SIGUE UNA DISTRIBUCIÓN HIPERGEOMÉTRICA DE PARÁMETROS N, n, p:
X ≡ H (N, n, p) x = {0, 1, 2, … n}SUS CARACTERÍSTICAS SON:
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S
⎟⎟⎠
⎞⎜⎜⎝
⎛
⎟⎟⎠
⎞⎜⎜⎝
⎛−−
⎟⎟⎠
⎞⎜⎜⎝
⎛
=
nN
xnDN
xD
xP )(
)1(1
)(
)(
2 ppnN
nNx
npxE
−−−
=σ
=

DISTRIBUCIÓN BINOMIALConsidérese:
Una población formada por ∞ individuos.Una muestra extraída al azar de esa población y formada por n individuos.Una cierta característica A que identifica a una proporción p de individuos de la población.La variable X que representa al número de individuos de la muestra que tienen esa característica A.
EN ESTAS CONDICIONES, DIREMOS QUE LA VARIABLE X SIGUE UNA DISTRIBUCIÓN BINOMIAL DE PARÁMETROS n, p:
X ≡ B (n, p) x = {0, 1, 2, … n}
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S

DISTRIBUCIÓN BINOMIAL
P P P PP
P
P
PP
PP
P
X = Número de defectuosas en la muestra
X ≡ B(n,p)
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S

DISTRIBUCIÓN BINOMIALX ≡ B (n, p)
x = {0, 1, 2, … n}
SUS CARACTERÍSTICAS SON:
P(x) = px (1-p)n-x
E(x) = n p σ2(x) = n p (1-p)
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S
⎟⎟⎠
⎞⎜⎜⎝
⎛xn

DISTRIBUCIÓN de POISSONConsidérese:
Una muestra de tamaño infinito extraída al azar de una población.Una cierta característica A que se presenta con una probabilidad muy pequeña (→0) en los individuos de la población.Un promedio finito λ de individuos de la muestra con esa característica.La variable X que representa al número de individuos de la muestra que tienen esa característica A.
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S

DISTRIBUCIÓN de POISSON
Poisson
Se aplican mucho en análisis de defectos superficiales, donde la probabilidad de que aparezca un defecto en un punto concreto es muy baja, hay muchos puntos posibles donde aparecer el defecto y tenemos un promedio de defectos determinado.
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S

DISTRIBUCIÓN de POISSONEN ESTAS CONDICIONES, DIREMOS QUE
LA VARIABLE X SIGUE UNA DISTRIBUCIÓN DE POISSON DE
PARÁMETRO λ:
X ≡ Ps (λ) x = {0, 1, 2, …}
SUS CARACTERÍSTICAS SON:
P(x) = (e-λ λx) / x!
E(x) = λ σ2(x) = λ
DIS
TRIB
UC
ION
ES
DIS
CR
ETA
S

APROXIMACIONES ENTRE LAS DISTRIBUCIONES DISCRETAS
H(N,n,p)
B(n,p)
Ps(λ)
N/n ≥ 10 N→∞
n ≥ 50
p < 0.1
np ≤ 5*
n → ∞
p → 0
np = λ

DISTRIBUCIÓN NORMALES LA MÁS IMPORTANTE Y ÚTIL DE LAS DISTRIBUCIONES CONTINUAS E INCLUSO, BAJO CIERTAS CONDICIONES, DE LAS DISCRETAS.
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
FUE DESCRITA POR GAUSS, Y SE DENOMINA TAMBIÉN DISTRIBUCION GAUSSIANA

DISTRIBUCIÓN NORMALUNA VARIABLE NORMAL DE PARÁMETROS m, σSE DEFINE POR SU FUNCIÓN DE DENSIDAD:
DIREMOS ENTONCES QUE X ≡ N (m, σ) con x ∈ ]-∞, +∞[
SUS CARACTERÍSTICAS SON:E(x) = m σ2(x) = σ2
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
( )2
2
2
21)( σ
−−
πσ=
mx
exf

DISTRIBUCIÓN NORMAL TIPIFICADA
SE LLAMA NORMAL TIPIFICADA N (0, 1) A AQUELLA EN QUE:
m = 0 σ = 1
LA FUNCIÓN DE DENSIDAD QUEDA AHORA:
LA FUNCIÓN DE DISTRIBUCIÓN DE LA NORMAL TIPIFICADA ESTÁ TABULADA, PUES LA INTEGRAL QUE LA DEFINE A PARTIR DE f(x) NO TIENE PRIMITIVA
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
2
2
21)(
x
exf−
π=

TABLA DE LA NORMAL TIPIFICADA
LA TABLA DA VALORES DE F(x) ENTRANDO CON EL VALOR DE x
A ESTA FUNCIÓN DE DISTRIBUCIÓN SE LE LLAMA CON FRECUENCIA φ(x)
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS

TABLA DE LA NORMAL TIPIFICADA
P(z<1.75) = 0.9599

TABLAS DE LA NORMALEL CÁLCULO DE LA FUNCIÓN DE DISTRIBUCIÓN EN UNA NORMAL GENERAL REQUERIRÍA INTEGRAR LA FUNCIÓN
DE DENSIDAD NUMERICAMENTE O DISPONER DE UNA TABLA PARA CADA N(m,σ)
EN LUGAR DE ELLO, SE PREFIERE UN PROCEDIMIENTO LLAMADO TIPIFICACIÓN QUE CONSISTE EN CONVERTIR LA NORMAL N(m,σ) EN UNA NORMAL N(0,1) Y EMPLEAR
LAS TABLAS DE ESTA NORMAL TIPIFICADA:
Si x ≡ N (m, σ)
z = ≡ N (0, 1)
con lo cual sólo es necesaria una tabla para calcular probabilidades en la distribución normal.
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
x m−σ

http://www.umd.umich.edu/casl/socsci/econ/StudyAids/JavaStat/CentralLimitTheorem.html
Normal tipificada

X=N(850,4) ¿P(846.5 < X <855)?
)25.1(4
850855)855(
)875.0(4
8505.846)5.846(
φ=⎟⎠⎞
⎜⎝⎛ −
≤=≤
−φ=⎟⎠⎞
⎜⎝⎛ −
≤=≤
ZPXP
ZPXPP = 0.8944 – 0.1894
P = 0.705

DISTRIBUCIÓN χ2 de PEARSON
SE DEFINE LA VARIABLE CHI CUADRADO CON n GRADOS DE LIBERTAD () COMO LA SUMA DE
LOS CUADRADOS DE n VARIABLES ALEATORIAS NORMALES TIPIFICADAS
INDEPENDIENTES
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
ESTÁ DEFINIDA COMO NO NEGATIVA
SU FUNCIÓN DE DENSIDAD ES ASIMÉTRICA
22
...1)1,0(
ni
i
i
ZXniNZ
χ==
==
∑

DISTRIBUCIÓN χ2
X= χ29 P(X>2.7) = χ2
9,0.10=0.975 14.684

DISTRIBUCIÓN
t de STUDENT
SE DEFINE COMO EL COCIENTE ENTRE UNA NORMAL TIPIFICADA Y LA RAIZ CUADRADA DE
UNA CHI CUADRADO DIVIDIDA POR SUS GRADOS DE LIBERTAD, AMBAS
INDEPENDIENTES :
donde : z = N(0,1), = Chi cuadrado con n g.l.
E(tn) = 0 D2(tn) = n/(n-2)DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
t zn
nn
=χ2 /
χn2
tn ∈]-∞, + ∞[

DISTRIBUCIÓN t de STUDENT
P(X>1.44)= t6,0.01=0.10 3.143X=t6

Next time you have a beer, thank William Gosset, and next time you perform a t-test, have a Guiness.
DISTRIBUCIÓN
t de STUDENT
(La próxima vez que tomes una cerveza, agradéceselo a William Gosset, y la próxima vez que use la distribución t de Student, tómate una Guiness.)
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS

DISTRIBUCIÓN F de SNEDECORSE DEFINE COMO EL COCIENTE DE DOS CHI CUADRADOS INDEPENDIENTES DIVIDIDAS POR SUS GRADOS DE LIBERTAD :
DIS
TRIB
UC
ION
ES
CO
NTI
NU
AS
Fnnn n
n
n1 2
12
1
22
2,
/
/=
χ
χ
•Toma valores no negativos
•Su función de densidad es asimétrica
•Su función de distribución se obtiene de tablas

DISTRIBUCIÓN F de SNEDECOR
X ≡ F3,10 P(X>6.6)= 0.01

DISTRIBUCIÓN F de SNEDECOR
X ≡ F3,10 F3,10(0.05)= 3.71

APROXIMACIONES ENTRE VARIABLES
n > 50p < 0.1np < 5
2nχ tn
Fn n1 2,
NORMAL
B (n, p) Ps(np) =
Ps(λ)
H (N, n, p)
(N /n) >10
λ>5*
np > 5*
n>30 n>30n1>30 n2>30

binomial a normal
http://www.ruf.rice.edu/%7Elane/stat_sim/normal_approx/index.html

INFERENCIA ESTADÍSTICA
CONCEPTODISTRIBUCIONES EN EL MUESTREOTIPOS DE INFERENCIA ESTADÍSTICAESTIMACION PUNTUALESTIMACION POR INTERVALOSCONTRASTE DE HIPÓTESIS

INFERENCIA ESTADÍSTICACONJUNTO DE TÉCNICAS
ESTADÍSTICAS QUE NOS PERMITEN EXTRAER CONCLUSIONES A
PARTIR DE DATOS MUESTRALES
INFE
RE
NC
IA E
STA
DÍS
TIC
A
?

INFERENCIA ESTADÍSTICA
TÉCNICAS DE INFERENCIA :
ESTIMACIÓNPUNTUALPOR INTERVALOS
CONTRASTE DE HIPÓTESISSOBRE PARÁMETROSSOBRE DISTRIBUCIONES
INFE
RE
NC
IA E
STA
DÍS
TIC
A

DISTRIBUCIONES EN EL MUESTREO
Los parámetros de una población no suelen ser conocidos.Su estudio requiere la toma de muestra y su ‘estimación’ a través de métodos estadísticos.Al estar calculados en base a información muestral (sujeta a variaciones aleatorias) estos parámetros muestrales son variables aleatorias.
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O

DISTRIBUCIONES EN EL MUESTREO
POBLACION PARÁMETROS POBLACIONALESVALORES EXACATOS PERO DESCONOCIDOSCONSTANTE
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
MUESTRA PARÁMETROS MUESTRALESVALORES APROXIMADOS PERO CONOCIDOSVARIABLE ALEATORIA

DISTRIBUCIÓN DE LA MEDIA MUESTRAL
La media muestral se calcula mediante:
media y varianza de la media muestral son:
es decir:la media poblacional de la media muestralcoincide con la media poblacional de X.La varianza de la media muestral decrece conel tamaño de muestra
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
∑=
=n
1i
i
nXx
μ=)(xEn
xD2
2 )( σ=

DISTRIBUCIÓN DE LA MEDIA MUESTRAL
Si la variable es normal, se cumple:
Aunque X no fuera una distribución Normal, si n es lo suficientemente grande, según el Teorema de Lindenberg-Levy, la media muestral seguiría teniendo una distribución normal.
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
⎟⎠⎞
⎜⎝⎛ σμ≡⇒σμ≡
nNxNx ,),(
http://www.umd.umich.edu/casl/socsci/econ/StudyAids/JavaStat/CentralLimitTheorem.html

DISTRIBUCIÓN DE LA VARIANZA MUESTRAL
La varianza muestral se determina mediante:
Características en poblaciones normales:
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
∑=
− −−
=n
1i
2i2
1n 1n)xX(s∑
=
−=
n
1i
2i2
n n)xX(s
[ ] 221 σ=−nsE[ ] 22
n n1nsE σ⋅
−=
21n2
21ns)1n(
−− χ≡
σ⋅−2
1n2
2nsn
−χ≡σ⋅

DISTRIBUCIÓN DE LA DIFERENCIA DE MEDIAS MUESTRALES
Si tenemos X1=N(μ1,σ1) y X2=N(μ2,σ2)
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
⎟⎠⎞⎜
⎝⎛ +μ−μ=− σσ
2
22
1
21,2121 nnNxx

DISTRIBUCIÓN DEL COCIENTE DE VARIANZAS MUESTRALES
Si tenemos dos variables aleatorias independientes con distribuciones normales X1=N(μ1,σ1) y X2=N(μ2,σ2) la distribución del cociente entre sus varianzas muestrales es:
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
1n,1n22
22
21
21
21F
/s/s
−−=σσ

DISTRIBUCIÓN DE LA PROPORCIÓN MUESTRAL
Si X=B(n,p), la media y la varianza de laproporción muestral son
Si X=Ps(λ) la media y la varianza de laproporción muestral son
DIS
TRIB
UC
ION
ES
EN
EL
MU
ES
TRE
O
p)p̂(E =n
)p1(p)p̂(D2 −⋅=
np)p̂(D2 =p)p̂(E =

ESTIMACIÓN PUNTUAL
SE PRETENDE AVERIGUAR EL VALOR DE UN PARÁMETRO DE UNA DISTRIBUCIÓN
COMO ESTIMACIÓN DE LOS PARÁMETROS POBLACIONALES SE USAN LOS CORRESPONDIENTES
ESTADÍSTICOS MUESTRALES
ES
TIM
AC
IÓN
PU
NTU
AL

ESTIMACIÓN PUNTUALCARACTERÍSTICA DESEABLES EN UN ESTIMADOR:
DEBE SER INSESGADODEBE TENER VARIANZA MÍNIMADEBE SER CONSISTENTE
POR EJEMPLO :
MEDIA POBLACIONAL .................. MEDIA MUESTRALVARIANZA POBLACIONAL ........... ID. MUESTRAL (n-1)PROPORCIÓN POBLACIONAL ..... ID MUESTRAL
ES
TIM
AC
IÓN
PU
NTU
AL

ESTIMACIÓN POR INTERVALOS DE CONFIANZA
SE PRETENDE ENCONTRAR UN INTERVALO TAL QUE CONTENGA CON UNA PROBABILIDAD DADA AL VALOR VERDADERO DEL PARÁMETRO ESTIMADO:
HALLAR DOS ESTADÍSTICOS L1 Y L2 TALES QUE DEFINEN UN INTERVALO [L1, L2] QUE INCLUYE AL VALOR VERDADERO DEL PARÁMETRO CON
PROBABILIDAD (1- α)
1 - α = NIVEL DE CONFIANZA
α = NIVEL DE SIGNIFICACIÓN
INTE
RVA
LOS
DE
CO
NFI
AN
ZA
Intervalos de confianza

POBLACIONES NORMALESPara la media de una población normalde varianza conocida:
de varianza desconocida:
INTE
RVA
LOS
DE
CO
NFI
AN
ZA
x zn
± ασ
2
x t snn± −1
2α /

POBLACIONES NORMALESPara la diferencia de medias de dos poblaciones normales de varianzas conocidas:
de varianzas desconocidas, pero iguales:
( )x x zn n1 2
2
12
1
22
2− ± +α
σ σ
( )
( ) ( )
/x x t Sn n
S n s n sn n
n n1 2 1 2 12
1 2
2 1 12
2 22
1 2
1 1
1 12
− ± +
=− + −
+ −
+ −α
INTE
RVA
LOS
DE
CO
NFI
AN
ZA

POBLACIONES NORMALESPara la varianza de una población normal:
Para la razón de varianzas de dos poblaciones normales:
INTE
RVA
LOS
DE
CO
NFI
AN
ZA
( ) , ( )
, ,
n s n s
n n
− −⎡
⎣
⎢⎢⎢
⎤
⎦
⎥⎥⎥− − −
1 12
1 2
2
2
1 1 2
2χ χα α
s sF
s sFn n n n
12
22
1 1 2 12
12
22
1 1 2 11 2
/ , /
,/
,( / )
− − − −−
⎡
⎣
⎢⎢
⎤
⎦
⎥⎥α α

POBLACIONES BINOMIALES
Con aproximación a la Normal (np>5)
Método exacto:Usar gráfica, entrando con p (estimada) y n y leyendo Li y Ls.
INTE
RVA
LOS
DE
CO
NFI
AN
ZA
nppzp )ˆ1(ˆˆ
2
−± α

TEST DE HIPÓTESISSE PRETENDE COMPROBAR SI SE VERIFICAN DETERMINADAS HIPÓTESIS ESTABLECIDAS SOBRE EL VALOR DE ALGÚN PARÁMETRO DE UNA DISTRIBUCIÓN O SOBRE LA PROPIA DISTRIBUCIÓN DE UNA VARIABLE, Y HACERLO CON UN RIESGO DE ERROR MEDIBLE
LA CERTEZA NO ES POSIBLE DADO EL CARÁCTER ALEATORIO DE LA INFORMACIÓN EMPLEADA
TES
T D
E H
IPÓ
TES
IS

ELEMENTOS DE UN TEST DE HIPÓTESIS: HIPÓTESIS
HIPÓTESIS NULA (H0)ES LA QUE SE DESEA COMPROBAR(Suele ir asociada a lo que e considera situación correcta o normal)
TES
T D
E H
IPÓ
TES
IS
HIPÓTESIS NULA (H1)SUELE SER LA CONTRARIA DE LA HIPÓTESIS NULA(Con frecuencia va asociada a la situación incorrecta o no deseada)

ELEMENTOS DE UN TEST DE HIPÓTESIS: HIPÓTESIS
HIPÓTESIS SIMPLE / COMPUESTALa zona donde es cierta se reduce a un punto o a más de uno:m=120 m>120
TES
T D
E H
IPÓ
TES
IS
HIPÓTESIS UNILATERAL / BILATERALLa zona donde es cierta se define a un solo lado o a los dos de un cierto valor:m≠120 m>120

ELEMENTOS DE UN TEST DE HIPÓTESIS: ERRORES
ERROR TIPO IRECHAZAR LA HIPÓTESIS NULA CUANDO ES CIERTA(falsa alarma)
TES
T D
E H
IPÓ
TES
IS
ERROR TIPO IIACEPTAR LA HIPÓTESIS NULA CUANDO ES FALSA(no suena la alarma cuando debiera hacerlo)

ELEMENTOS DE UN TEST DE HIPÓTESIS: RIESGOS
NIVEL DE SIGNIFICACIÓNES LA PROBABILIDAD DE RECHAZAR LA HIPÓTESIS NULA CUANDO ES CIERTAES LA PROBABILIDAD DE ERROR TIPO ISE REPRESENTA POR α Y SE LE LLAMA RIESGO DEL FABRICANTE
TES
T D
E H
IPÓ
TES
IS
LA PROBABILIDAD DE ERROR TIPO II SE REPRESENTA POR β Y SE LE LLAMA RIESGO DEL COMPRADOR

TEST SOBRE LA MEDIA
Hipótesis nula simple contra alternativa bilateral (H0 : m=m0 H1 : m ≠ m0), supuesta σ desconocida.
TES
T D
E H
IPÓ
TES
IS
nsmxtCalcular
/:.1 0−
=
2/1
α−nt una de valor el con t Comparar2.
0n H rechazará sett si :Decidir3. 2/1
α−>

TEST SOBRE LA MEDIA
Hipótesis nula simple contra alternativa unilateral (H0 : m=m0 H1 : m > m0), supuesta σ desconocida
TES
T D
E H
IPÓ
TES
IS
nsmxtCalcular
/:.1 0−
=
α−1nt una de valor el con t Comparar2.
0n H rechazará sett si :Decidir3. α−> 1

TEST DE IGUALDAD DE DOS MEDIAS
Hipótesis nula simple contra alternativa bilateral (H0 : m1=m2 H1 : m1 ≠ m2), supuestas las σdesconocidas pero iguales
TES
T D
E H
IPÓ
TES
IS
2)1()1(
21
222
2112
−+−+−=
nnsnsnS:ponderadamediavarianzalaObtener 1.
21
1121
nnSxxt Calcular2.+
−=
2/221
α−+nnt una de valor el con t Comparar3.
0nn H rechazará sett si :Decidir4. 2/221
α−+>

TEST SOBRE LA VARIANZAHipótesis nula simple contra alternativa bilateral (H0 : σ=σ0 H1 : σ ≠ σ0)
TES
T D
E H
IPÓ
TES
IS
Se obtendrá un intervalo de confianza en torno a S y se comprobará si σ0queda incluida en el mismo :
0nn
0 H aceptará sesnsn Si⎥⎥⎦
⎤
⎢⎢⎣
⎡
χ−
χ−
∈σαα −−−
21,1
2
2,1
2
22
)1(,)1(

TEST SOBRE LA VARIANZA
Hipótesis nula simple contra alternativa unilateral (H0 : σ=σ0 H1 : σ > σ0)
TES
T D
E H
IPÓ
TES
IS
2,1 α−χn tablas de Leer 2.
20
22 )1(
σ−
=χsn Obtener1.
0n H aceptará seSi 2,1
2.3 α−χ≤χ

TEST SOBRE LA VARIANZA
Hipótesis nula simple contra alternativa unilateral (H0 : σ=σ0 H1 : σ < σ0)
TES
T D
E H
IPÓ
TES
IS
21,1 α−−χn tablas de Leer 2.
20
22 )1(
σ−
=χsn Obtener1.
0n H aceptará seSi 21,1
2.3 α−−χ≥χ

TEST DE IGUALDAD DE VARIANZAS
Hipótesis nula simple contra alternativa unilateral (H0 : σ1=σ2 H1 : σ1>σ2), siendo s1 la desv. típica muestral mayor
TES
T D
E H
IPÓ
TES
IS
22
21.1
ssFCalcular =
α−− 1,1 21
.2 nnF tablas de Leer
0nn H rechazará se FFSiDecidir α−−> 1,1 21
:.3

TEST SOBRE LA PROPORCIÓN
H0(p=p0) vs H1(p≠p0) (Binomial)
H0(p=p0) vs H1(p>p0) (Binomial)
H0(p1=p2) vs H1(p1≠p2) (Binomial)
con
{ }002/0002/0 qnpznpxqnpznpA αα +≤≤−=
{ }000 qnpznpxA α+≤=
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
≤+⋅
−= α 2/
n1
n1
21 zp̂
p̂p̂A21
21
2211
nnp̂np̂np̂
+−
=

TEST SOBRE LA POISSON
H0(p=p0) vs H1(p≠p0) (Poisson)
H0(p=p0) vs H1(p>p0) (Poisson)
{ }02/002/0 npznpxnpznpA αα +≤≤−=
{ }00 npznpxA α+≤=

TAMAÑOS DE MUESTRA
Las muestras necesarias para proceder a estimar los parámetros de una distribución deben ser calculadas de modo que se garantice la adecuada precisión y confiabilidad de las estimaciones.En todo caso, debe garantizarse la aleatoriedad de la muestra.

MUESTREO EN POBLACIONES FINITASEstimación de la media (normal)
Estimación de la proporción (binomial)
Estimación de la media (poisson)
Nz
N)1N(zn 22
2/2
222/
σ⋅+
ε⋅−σ⋅
=α
α
N)qp(z
N)1N(
)qp(zn 22/
2
22/
⋅⋅+
ε⋅−⋅⋅
=α
α
Nz
N)1N(zn 2
2/2
22/
λ⋅+
ε⋅−λ⋅
=α
α

MUESTREO EN POBLACIONES INFINITASEstimación de la media (normal)
Estimación de la proporción (binomial)
Estimación de la media (poisson)
22/zn ⎟
⎠⎞
⎜⎝⎛
ε⋅σ
≥ α
2
2/zpqn ⎟⎟⎠
⎞⎜⎜⎝
⎛
ε⋅
≥ α
2
2/zpn ⎟⎟⎠
⎞⎜⎜⎝
⎛
ε⋅
≥ α

TAMAÑO DE MUESTRA EN TEST DE HIPÓTESIS
El más importante de ellos es para el contraste de hipótesis es H0(μ=μ0) vs H1(μ≠μ0). Entonces el tamaño de muestra se calcula mediante:
22/
dzz
n ⎟⎟⎠
⎞⎜⎜⎝
⎛ +≥ βα
