Estadistica

75
1 Curso bianual de Ginecología. Sociedad de Ginecología y Obstetricia de Misiones. Posadas 2008 Bioestadística Bioq. María de Luján Calcagno Facultad de Farmacia y Bioquímica UBA [email protected]

description

Curso Ginecologia Modulo I

Transcript of Estadistica

Page 1: Estadistica

11

Curso bianual de Ginecología.

Sociedad de Ginecología y

Obstetricia de Misiones.

Posadas 2008

Bioestadística

Bioq. María de Luján Calcagno

Facultad de Farmacia y Bioquímica

UBA

[email protected]

Page 2: Estadistica

22

ESTADÍSTICA(BIOESTADÍSTICA)

2) ESTADÍSTICADESCRIPTIVA

(ANÁLISIS EXPLORATORIO)

3) INFERENCIA ESTADÍSTICA

1) DISEÑO DE LA

INVESTIGACIÓN

Page 3: Estadistica

33

VARIABLE OBSERVADA

X

OBJETIVO: OBTENER CONCLUSIONES BIOLÓGICAS PARA UNA POBLACIÓN A PARTIR DE DATOS DE UNA

MUESTRA

POBLACIÓN DE INDIVIDUOS

POBLACIÓN DE OBSERVACIONES

MUESTRA DE INDIVIDUOS(tamaño n)

UNIDAD EXPERIMENTAL

MUESTRA DE OBSERVACIONES

(n datos)

OBSERVACIÓN INDIVIDUAL

Esquema: Dra. Delia Garrido

VARIABLE OBSERVADA X

VARIABLE OBSERVADA X

Page 4: Estadistica

44

VARIABLES

ALEATORIAS

CUALITATIVAS(CATEGÓRICAS)

CUANTITATIVAS(NUMÉRICAS)

NOMINALES

ORDINALES

DISCRETAS

CONTINUAS

Page 5: Estadistica

55

NOMINALES: Registran la presencia de un atributo. Mutuamente excluyentes y exhaustivas.1) Dicotómicas: Sexo, Grupo (Normales vs. SOP).2) Más de dos categorías: Grupo sanguíneo (O, A, B, AB); No fumador-ex

fumador-fumador.

ORDINALES: Reflejan un orden natural entre las categorías.Estadio de cáncer de mama: I, II, III, IV (II no es el doble de grave que I)

DISCRETAS: Sólo toman valores en un conjunto finito o infinito numerable; surgen de conteos.Número de nódulos; número de partos (4 partos es el doble de 2 partos); número de hematíes en 1 ml.

CONTINUAS: Pueden tomar infinitos valores en un rango, no se pueden numerar; suelen surgir de mediciones o cálculos.Peso; altura; nivel de una hormona en sangre.

Ejemplos:

Page 6: Estadistica

66

OBJETIVO: OBTENER CONCLUSIONES BIOLÓGICAS PARA UNA POBLACIÓN A PARTIR DE DATOS DE UNA

MUESTRA

POBLACIÓN DE OBSERVACIONES

v.a. X

MUESTRA DE OBSERVACIONES

(tamaño n)

ESTADÍSTICOS DE LA MUESTRA:

Media muestral

Varianza muestral Desviación estándar muestral Mediana de la muestra Proporción de un atributo en la muestra

μ̂=X

22 σ̂=SσS ˆ

θ̂=Mπ̂=P

PARÁMETROS DE LA POBLACIÓN:

Esperanza o media de X = Varianza de X =

Desviación estándar de X = =Mediana poblacional = Proporción de un atributo =

2σ2σ

^ Léase: estimador de…

Page 7: Estadistica

77

VARIABLE OBSERVAD

A

OBJETIVO: OBTENER CONCLUSIONES BIOLÓGICAS PARA UNA POBLACIÓN A PARTIR DE DATOS DE UNA

MUESTRA

POBLACIÓN DE

INDIVIDUOS

POBLACIÓN DE OBSERVACIONE

S

MUESTRA DE INDIVIDUOS

UNIDAD EXPERIMENT

AL

MUESTRA DE OBSERVACIONE

S

OBSERVACIÓN INDIVIDUAL

VARIABLE OBSERVADA

VARIABLE OBSERVADA

INFERENCIAESTADÍSTICA

CONCLUSIÓN BIOLÓGICA

ESTADÍSTICA DESCRIPTIVA

Page 8: Estadistica

88

Algunos estadísticos muestrales:

Media muestral (medida de tendencia central):

∑ni

iix

nˆx

=

1=

1=μ=

0

2

4

6

8

10

12

5,6=x

6,3=x

0

2

4

6

8

10

12

5,6=x

6,3=x

FSH 1 FSH 2FSH 3 FSH 4

1- Para variables numéricas:

Muestras de tamaño n = 8

Medias: 6,5 3,6 6,5 3,6

FSH 2

2,3

2,5

2,8

3,4

3,6

4,5

4,8

4,8

FSH 1

4,8

5,4

6,3

6,7

6,8

6,9

7,6

7,8

FSH 3

1

2,1

4,3

6,7

7,6

8,4

10,5

11,2

FSH 4

0,2

1

1,8

2,3

2,5

4,8

7,2

9,2

Page 9: Estadistica

99

Varianza muestral:

( )=σ2 2n=i

1=ii

2 xx1n

1ˆ=s ∑_

_

Desviación estándar:

2=σ= sˆs

VAR (FSH 1) = 1,05

VAR (FSH 2) = 1,04

VAR (FSH 3) = 13,91

VAR (FSH 4) = 10,03

DS (FSH 1) = 1,02

DS (FSH 2) = 1,02

DS (FSH 3) = 3,73

DS (FSH 4) = 3,17

Medidas de dispersión:

Coeficiente de variación:

xs

CV =

Coeficiente de variación %:

100= *xs

%CV

Page 10: Estadistica

1010

Mediana muestral:(otra medida de tendencia central)

Se ordenan los n datos de menor a mayor y la mediana es el valor central (si n es impar), o el promedio de los dos valores centrales (si n es par).

756=2

86+76=θ= ,

,,ˆmMediana

FSH 1 4,8 5,4 6,3 6,7 6,8 6,9 7,6 7,8

Rango o recorrido:(otra medida de dispersión)

Rango = X Máx – X mín

Informamos: Media (DS) o (cuando corresponde, según la distribución de la variable): Mediana (Mínimo; Máximo)

o bien (Xmín ; Xmáx)

Page 11: Estadistica

1111

Proporción de un atributo:

nf

muestraladeTamaño

sucesoalfavorablesCasosˆprelativaFrecuencia ==Π==

2- Para variables categóricas:

Frecuencia absoluta = f = es la cantidad de veces que ocurre el suceso de interés al efectuar n veces el experimento. O bien, es la cantidad de casos favorables al suceso de interés cuando se observa una muestra de tamaño n.

Algunos estadísticos muestrales:

Page 12: Estadistica

1212

0,21

3,94

7,66

11,38

15,11F

SH

(m

UI/

mL

)Box Plot variable FSH en mujeres normales

Mediana

Media

Cuantil 0,25 = 25% percentilo

Cuantil 0,75 = 75% percentilo

Máximo

Mínimo

Gráfico de Cajas y Bigotes para variables numéricas continuas:

Cuantil 0,05

Cuantil 0,95

Page 13: Estadistica

1313

-1,31

7,01

15,34

23,67

32,00F

SH

(m

UI/m

L)

Box plot variable FSH en mujeres con SOP

Page 14: Estadistica

1414

Normal SOP

Grupo

-1,31

7,01

15,34

23,67

32,00F

SH

-BIO

AR

S

6,39

4,58

6,39

4,58

FSH en mujeres normales y con SOP

Page 15: Estadistica

1515

0,04 1,74 3,43 5,12 6,81 8,51 10,20 11,89 13,58 15,28

FSH (mUI/mL)

0,00

0,07

0,13

0,20

0,26F

recu

enci

a re

lati

vaFSH en mujeres normales

HISTOGRAMA

Este hueco no aparece

en el box plot

X

Y

Page 16: Estadistica

1616

0,04 1,74 3,43 5,12 6,81 8,51 10,20 11,89 13,58 15,28

FSH (mUI/mL)

0,00

0,07

0,13

0,20

0,26fr

ecu

enci

a re

lati

vaFSH en mujeres normales

Ajuste: Normal (6,69, 8,73)

X

Y

Page 17: Estadistica

1717

-1,71 2,21 6,12 10,03 13,94 17,86 21,77 25,68 29,59 33,51

FSH (mUI/mL)

0,00

0,13

0,26

0,39

0,52fr

ec

ue

nc

ia r

ela

tiv

aFSH en mujeres con SOP

Ajuste: Normal (5,35, 18,75)

X

Y

Page 18: Estadistica

1818

N (μ;σ2)

2)σ

μ X-(

21

2e

πσ2

1=)X(f

- Parámetros poblacionales (un ejemplo):

3=σ=)X(DS

9=σ=)X(Var

6=μ=)X(E2

El área bajo la curva es igual a 1. La curva es simétrica respecto de X =

X

Y

Page 19: Estadistica

1919

N (μ;σ2)

•Las probabilidades se calculan como áreas bajo la curva.•El área bajo la curva es igual a 1. •La curva es simétrica respecto de X = •Entre ± se encuentran aproximadamente el 68% de las observaciones.•Entre ±2 se encuentran aproximadamente el 95% de las observaciones.•Entre ±3 se encuentra aproximadamente el 97,5% de las observaciones.

- +

- 2 + 2

- 3 + 3

Page 20: Estadistica

2020

-6 -4 -1 1 4 6 8 11 13 16 18

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40

De

ns

ida

d

( )2σ;μNX˜

nσ;μNX

2

˜ ( )

X: Media de muestras de tamaño n

(n=9 en este caso).

X

Y

Page 21: Estadistica

2121

Y N (; ), entonces ˜ ( )1;0N

μX=Z

-˜X

nσ2

Variable aleatoria Normal Estandarizada:

Si X N (; ), entonces˜2σ ( )1;0N

σμX

=Z -˜

Y, además, cualquiera sea la distribución de X, si n es suficientemente grande,

);(n

NX2

~ Teorema Central del Límite

Page 22: Estadistica

2222

Pero:

_

-6 -5 -3 -2 -1 0 1 2 3 5 6Variable T

0,00

0,10

0,20

0,30

0,40

De

ns

ida

d

Distribución T de Student

n-1 = 9-1 = 8 grados de libertad

Si X N (; ),y media de muestras de tamaño n, entonces

2σ X

1nT

nS

μX=T ˜ -

Page 23: Estadistica

2323

Muchas veces, si la desviación estándar S es muy grande, vemos que informan el error estándar de la media. NO ES CORRECTO, pues el estimador de la precisión con la que se mide la variable X es la desviación estándar de X (Recordemos que )σS ˆ

N (; ), entonces ˜ ( )1;0N

μX=Z

-˜X

nσ2

Vimos que:

ESMn

SMSE ˆ

Error estándar de la Media: es la desviación estándar de la media

Page 24: Estadistica

2424

Estimación por Intervalos de Confianza

Con los estimadores puntuales de los parámetros sólo sabemos que, si la muestra fue bien tomada, estamos cerca del parámetro. Cuán cerca, o con qué precisión fue hecha la estimación, lo informan los intervalos de confianza. Son de la forma:

C (L.Inf< Parámetro desconocido < L.Sup) = 1- 1- se fija, en general, en 0,95 (o 95%)

Ejemplo: En una muestra de 9 mujeres normales, la media de FSH fue de 6,69 UI/mL y la desviación estándar fue de 2,95 UI/mL. Queremos construir un intervalo de confianza del 95% de confianza. La fórmula es, en este caso:

ns*t±x 8;975,0 995,2*306,2±69,6

C (4,42 < < 8,96) = 0,95

6,69 ± 2,27

Page 25: Estadistica

2525

0 10 20 30 40 50 60 70 80 90 100

Intervalos

-0,06

0,94

1,95

2,95

3,96

4,97

5,97

6,98

7,98

8,99

9,99

11,00

Med

iaIntervalos de confianza para la media

Cobertura: 95,00%

Page 26: Estadistica

2626

Inferencia estadística: Prueba de hipótesisAhora se quieren poner a prueba hipótesis respectivas a los parámetros desconocidos de la población. Por ejemplo, ¿se puede suponer que la muestra que dio una media de 6,69 pertenece a una población que tiene esperanza = 6? (Hipótesis nula); ¿o la población de la cual proviene esa muestra tiene una esperanza mayor que 6? (Hipótesis alternativa)Estas hipótesis las escribimos así:

6>μ:H

6=μ:H

1

0

FSH (mUI/mL)0,00

0,10

0,20

0,30

0,40

Den

sid

ad

x

0=6

)6=μ(X 0H0

En esta situación I, es muy probable que la muestra pertenezca a esta población

En esta situación II, es muy improbable que la muestra pertenezca a esta población

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40

De

nsi

da

d

0 = 6

)6=μ(X 0H0

x

Suponiendo que conocemos y que es igual a 3:

Situación I: Situación II:

01

00

μμH

μμH

:

:En general:

Page 27: Estadistica

2727

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40D

en

sid

ad

Área a la derecha de = muy grande

x

Situación 1:

Aquí, si rechazo H0, tengo

una probabilidad de equivocarme demasiado grande, porque hay una gran probabilidad de que la muestra pertenezca a esta población. ¿Me conviene

rechazar H0 con una

probabilidad tan grande de equivocarme? ¡NO!

Situación 2:

Aquí, si rechazo H0, la

probabilidad de equivocarme es prácticamente cero porque hay una probabilidad casi nula de que la muestra pertenezca a esta población.

¿Me conviene rechazar H0 con

una probabilidad tan pequeña de equivocarme? ¡SÍ!

)6=μ(X 0H0

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40

De

ns

ida

d

)6=μ(X 0H0

Área a la derecha de 0

x

Page 28: Estadistica

2828

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40

De

ns

ida

d

críticoX

05,0=)críticoValorX(P ≥ = Nivel de significación

del test

¿Entonces?; ¿cuál es el límite?; ¿a partir de qué valor de media rechazo H0 o no me animo a rechazar H0?

Ese valor es el que deja en la zona de rechazo un área de a lo sumo 0,05, o 5%(en problemas biológicos)

El nivel de significación es una “declaración de principios” que se hace, en un paper, en la sección Materiales y métodos (Métodos estadísticos): “se considerará significativa una probabilidad de error menor que el 5%”…

Zona de rechazoZona de aceptación

Page 29: Estadistica

2929

En nuestro ejemplo, la probabilidad P de equivocarnos al afirmar que la esperanza de la población es mayor que 6, vale 0,2451; y es mayor que 0,05. Por lo tanto, no podemos rechazar la hipótesis de que nuestra muestra pertenece a una población de esperanza = 6.

Ésta es la P de los papers

2,40 3,01 3,63 4,24 4,86 5,47 6,09 6,70 7,31 7,93 8,54 9,16 9,7710,3911,00

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40

Den

sida

d

_Normal(6;1): P(X>6,69)=0,2451

696= ,muestraladex

P = 0,2451

Page 30: Estadistica

3030

*Si se conoce : de N(; 2/n) a N (0;1)

*Si no se conoce :

de N(; 2/n) a Tn-1

El estadístico de prueba es el “termómetro” que detecta cuándo la hipótesis nula no es válida.

);(N

n

XE 10σ

μ= 0

_

˜

10μ

= nT

nS

XE

_

˜ -

(Diapositiva 21)

(Diapositiva 22)

Sin embargo, para simplificar, y para poder calcular las probabilidades, los estadísticos muestrales, como la media, en este caso, se estandarizan y se convierten en el ESTADÍSTICO DE PRUEBA. Es decir: la diferencia entre el estimador del parámetro y el Estadístico de prueba es sólo un cambio de escala. Por ejemplo:

Page 31: Estadistica

3131

Así, la P también es el área de la zona de rechazo calculada a partir del Estadístico de prueba E.

2,40 3,01 3,63 4,24 4,86 5,47 6,09 6,70 7,31 7,93 8,54 9,16 9,7710,3911,00

FSH (mUI/mL)

0,00

0,10

0,20

0,30

0,40

Den

sid

ad

_Normal(6;1): P(X>6,69)=0,2451

69,6=muestraladex

P = 0,2451

690=93

6696= ,

/

,EDonde

_

1=9

3

-5,0 -4,3 -3,6 -2,9 -2,1 -1,4 -0,7 0,0 0,7 1,4 2,1 2,9 3,6 4,3 5,0Variable

0,00

0,10

0,20

0,30

0,40

Den

sida

d

Normal(0,1): p(Z > 0,69)=0,2451

P = 0,2451

Est. de prueba E = 0,69

Z

Page 32: Estadistica

3232

-5,00 -4,17 -3,33 -2,50 -1,67 -0,83 0,00 0,83 1,67 2,50 3,33 4,17 5,00

Variable

0,00

0,10

0,20

0,30

0,40

Den

sida

d

Normal(0,1):Área en la cola izquierda = 0,0500

Test de cola izquierda:

01

00

μ<μ:H

μ=μ:H

Test de dos colas:

01

00

μ≠μ:H

μ=μ:H

-5,00 -4,00 -3,00 -2,00 -1,00 0,00 1,00 2,00 3,00 4,00 5,00

Variable Z

0,00

0,10

0,20

0,30

0,40

Den

sida

d

Normal(0,1): Área en las colas = 0,0500

Page 33: Estadistica

3333

RealidadH0 verdadera H0 falsa

Decisió

n

“Acepto” H0 Acierto

Error de tipo II = Prob. de

cometerlo (no se conoce)

Rechazo H0

Error de tipo I = Prob. de

cometerlo(Nivel de

significación: lo fija el experimentador)

Acierto: Potencia del test1- = Probabilidad

de ocurrencia

Esquema de las decisiones en un test de hipótesis:

Page 34: Estadistica

3434

Entonces, resumamos las definiciones de los errores y aciertos:

Probabilidad de cometer error de tipo I (): La probabilidad de rechazar H0 siendo verdadera. Es el nivel de significación del test. Es la probabilidad de error que el investigador fija antes de el investigador fija antes de analizar los resultadosanalizar los resultados. Es el máximo error que está dispuesto a cometer en la decisión.

Probabilidad de cometer error de tipo II (): La probabilidad de “aceptar” H0 siendo falsa. No se puede calcular, a menos que se fije una alternativa.

Potencia ( = 1-): La probabilidad de rechazar H0 siendo falsa. Es la capacidad de un test de detectar diferencias verdaderas.

La P de los papers es:* La probabilidad exacta de equivocarse al rechazar H0. * El nivel justo de significación.* El área de la zona de rechazo calculada exactamente a partir del estadístico de prueba (se calcula después de que se tomaron los se calcula después de que se tomaron los datosdatos).

Page 35: Estadistica

3535

Variable

0,00

0,10

0,20

0,30

0,40

De

nsi

da

d

críticoX0 1

En un test de cola derecha, donde H0: = 0 y H1: > 0 , supongamos una alternativa 1

0HbajoX 1HbajoX

Potencia = 1-

Nivel de significación =

Error de tipo II =

Zona de rechazoZona de aceptación

Page 36: Estadistica

3636

Relación entre Intervalo de confianza y Test de Hipótesis

Volviendo a nuestro ejemplo:

C (4,42 < < 8,96) = 0,95

Si ahora planteamos las hipótesis:

6≠μ:H

6=μ:H

1

0

Vemos que el intervalo de confianza del 95% contiene al valor 6. Por lo tanto, se podría decir que tenemos una confianza del 95% de que el verdadero valor de pueda ser 6. Entonces, no nos atrevemos a rechazar la hipótesis = 6.

Si, por el contrario, el valor 6 no perteneciera al intervalo, tendríamos que rechazar la hipótesis de que = 6, y la probabilidad de error de esa afirmación sería del 5% ( = 0,05).

Este razonamiento vale para cualquier intervalo de confianza

Page 37: Estadistica

3737

Cómo se organizan las bases de datos:

•Un número de identificación correlativo ayuda a ordenar la base

•Cada fila es un caso o paciente o registro

•Cada columna (o campo) es una variable

•Las variables categóricas pueden ir en letras o números, según el software

Page 38: Estadistica

3838

Test de Shapiro-Wilks para normalidad de una variable

continua:H0: La variable sigue una distribución normal

H1: La variable no sigue una distribución normal

Para decidir que la variable sigue razonablemente una

distribución normal, la P debe ser mayor que 0,20

Page 39: Estadistica

3939

Normal SOP

Grupo

-1,31

7,01

15,34

23,67

32,00F

SH

-BIO

AR

S

6,39

4,58

6,39

4,58

FSH en mujeres normales y con SOP

Dos muestras:

Page 40: Estadistica

4040

Para analizar dos muestras independientes, automáticamente se piensa en el test de Student:

Page 41: Estadistica

4141

p(Var Hom) en la salida del programa de la diapositiva anterior es la P del test de homogeneidad de varianzas de Fisher, cuyas hipótesis son:

22

211

22

210

σ≠σ:H

σ=σ:H

Los supuestos del test de Student para muestras independientes son:*Independencia de las variables*Normalidad de ambas variables*Homogeneidad de varianzas

Lo ideal es no rechazar H0 para que se cumpla la hipótesis de

homogeneidad de varianzas (pero no a cualquier precio). Entonces, la P debería ser como mínimo mayor que 0,10 para no rechazar la hipótesis de homogeneidad de varianzas.

Luego de inactivar el outlier

Page 42: Estadistica

4242

En el ejemplo sospechábamos que las mujeres con SOP pueden tener valores de FSH menores que las normales. Automáticamente pensamos en el test de Student para muestras independientes. Pero ¡OJO!Encontramos dos problemas graves:

1* Se vio (test de Shapiro-Wilks para normales y SOP) que, para el grupo de mujeres normales, la variable sigue una distribución razonablemente Normal o Gaussiana. Pero para el grupo SOP, no.

2* La P de la prueba de varianzas homogéneas era 0,0339, menor que 0,05, debido a la presencia de fuertes outliers. Luego de inactivar el outlier, la P resulta mayor que 0,10. Es decir que la heterogeneidad de varianzas se debía al outlier.

Entonces, si queremos comparar los grupos y verificar que en el grupo SOP los valores de FSH son menores que en las mujeres normales, ¿qué método aplicamos? Si usamos un test que compara medias, seguramente sobrevaluaremos los valores de FSH en las mujeres con SOP.

Page 43: Estadistica

4343

Para estos casos, cuando ni aun con una transformación de los datos se

logra la distribución normal, se desarrollaron los:

MÉTODOS NO PARAMÉTRICOS

Ventajas:

* No exigen que las variables tengan distribución alguna. A lo sumo,

algunos piden distribuciones simétricas.

* Se pueden aplicar cuando hay pocos datos.

* Son robustos respecto a outliers.

Desventajas:

* Tienen menos potencia que los tests no paramétricos.

* No utilizan toda la información de la variable; sólo se basan en el

rango de los datos.

* Hay pocos tests no paramétricos desarrollados.

Page 44: Estadistica

4444

Test de Wilcoxon-Mann Whitney:

Si bien es un test de menor potencia que los paramétricos, aquí detectó una diferencia que no detectó el test de Student porque no se cumplían las suposiciones para el test de Student. Esos datos outliers del grupo SOP desplazaron la media hacia valores mayores, que solaparon la diferencia.

Media (1) 6,69

Media (2) 5,35

Page 45: Estadistica

4545

Análisis de la varianza (ANOVA)

Es el procedimiento estadístico que se utiliza cuando se desean comparar I medias de variables aleatorias que siguen distribución normal. Si I=2, el Anova es equivalente al test de Student. Las hipótesis que se contrastan son:

H0 : μ1 = μ2 = … = μI

H1 : no todas las μi son iguales

Causas o fuentes de variación:

Grupo o tratamiento diferente

(Variación controlada)

Diferencias individuales, errores de medición de la variable,

efecto del medio ambiente, etc.(Variación no controlada y/o no

controlable)

Page 46: Estadistica

4646

Y.._

Y1.

_Y2.

_Y3.

_

Variación Entre grupos (CME) >> Variación Dentro de grupos (CMD)

Veamos las fuentes de variación en las dos situaciones:

Y1.

_Y2.

_Y3.

_

Y.._

II) H0 es verdadera:

Variación Entre grupos (CME) Variación Dentro de grupos (CMD)

I) H0 es falsa (el caso más extremo: todas las medias diferentes):

Page 47: Estadistica

4747

La particularidad del ANOVA es que utiliza un cociente de

varianzas (Varianza entre grupos dividido la varianza dentro de

los grupos)

para contrastar igualdad de medias. Si la variación entre las I

medias de grupos o tratamientos es mayor que la variación entre

observaciones dentro de los tratamientos (donde la única causa

de variación es un error aleatorio no controlable pues pertenecen

a un mismo grupo), entonces se rechazará la hipótesis nula de

igualdad de las medias poblacionales.

)(;)1( InIDENTRO

ENTRE FCM

CMpruebadeoEstadístic ~

Page 48: Estadistica

4848

¿Por qué no usar un test de Student para cada par de comparaciones cuando queremos comparar I medias?

Recordemos el nivel de significación de un test, que es el error que se comete al rechazar la hipótesis nula de igualdad.Si aplicamos un test de Student por cada par de medias, y en cada rechazo cometemos error de tipo I, al rechazar varias hipótesis el error puede llegar a ser muy grande.

Pero, ¿y si se rechaza la hipótesis nula?, ¿cómo sé cuáles son las medias que difieren?

Para eso se desarrollaron los tests a posteriori del ANOVA, que sí comparan las medias de a pares, pero que usan un estimador de la varianza combinado entre todos los datos y no sólo de un par de tratamientos, como ocurriría con un test de Student para cada par de medias.

Page 49: Estadistica

4949

Variables categóricas: Tablas de contingencia

H0: Las variables que definen filas y columnas de la tabla son independientesH1: Las variables que definen las filas y columnas de la tabla no son independientes

n

columnadeTotal*filadeTotal=celdacadadeesperadaFrecuencia

El valor tan pequeño de la P permite afirmar que la prevalencia de hipertensión dentro de las fumadoras (33,0%) es significativamente diferente de la prevalencia dentro de las no fumadoras (22,8%)

Page 50: Estadistica

5050

La P del test de Chi-cuadrado de Pearson, o del test de Máxima

Verosimilitud (MV), o del test exacto de Fisher (diapositiva anterior) es

muy pequeña, mucho menor que 0,05. Por lo tanto, podemos concluir,

con muy baja probabilidad de error, que el hecho de fumar y la

hipertensión no son independientes, o, en otras palabras, que la

proporción de hipertensas es significativamente diferente (mayor) en

mujeres fumadoras (33,0%) que en no fumadoras (22,8%).

El test de Chi cuadrado tiene dos supuestos:

* No debe haber ninguna frecuencia esperada (esperada bajo la

suposición de independencia) menor que 1.

* No debe haber más del 20% de celdas con frecuencias esperadas (ver

Tabla de frecuencias esperadas) menores que 5.

Si alguno de estos requerimientos no se cumple, hay que usar el test

exacto de Irwin-Fisher.

Page 51: Estadistica

5151

También puede interesar establecer cuánta más oportunidad de ser hipertensa tiene una mujer que fuma con respecto a una que no fuma.A este índice se lo llama ODDS RATIO (OR), o cociente de odds.

El ODDS es el cociente entre la probabilidad de tener el evento dividida por la probabilidad de no tenerlo (para un mismo grupo, por ejemplo, las fumadoras):

El ODDS para las no fumadoras:

327161

488327488161

)()(

hipertensasernoP

hipertensaserPOddsfum

642190

832642832190

)()(

hipertensasernoP

hipertensaserPOdds fumno

Page 52: Estadistica

5252

El ODDS RATIO (OR) para las fumadoras con respecto a las no fumadoras:

66,1190*327642*161

642190327161

)()(

fumadorasnoODDS

fumadorasODDSOR

Interpretación: En esta muestra, una mujer que es fumadora tiene 1,66 veces (el 66% más) la oportunidad de ser hipertensa que una mujer que no es fumadora.

Como este OR es un estimador del valor verdadero en la población, se puede encontrar el intervalo de confianza del 95% cuyos límites contienen, con esa confianza, al verdadero valor del parámetro.

En este ejemplo:

C (1,30 < OR poblacional < 2,13) = 0,95

El intervalo de confianza no incluye al valor 1; por lo tanto, se puede afirmar, con un nivel de significación del 5%, que el OR poblacional es diferente de 1. ¿Por qué importa el 1? Porque si vale 1 los Odds para los dos grupos son iguales.

Page 53: Estadistica

5353No fumadoras Fumadoras0,00

8,38

16,75

25,13

33,51

Po

rce

nta

je

Hipertensión en fumadoras

Hipertensión en fumadoras

0

5

10

15

20

25

30

35

No fumadoras Fumadoras

Po

rce

nta

je

Gráficos de barras para variables categóricas

InfoStat

Excel

Page 54: Estadistica

5454

FUMADORAS

NO FUMADORAS

Hipertensas (33%)

Hipertensas (23%)

No hipertensas (67%)

No hipertensas (77%)

Gráficos de sectores o “torta” para variables categóricas

Page 55: Estadistica

5555

Problemas de Correlación:

1 2 3 4 5 6 7 8 9

16

14

12

10

8

6

4

2

0

irmadsgrupo=0

irm

ab

a

Coeficiente de correlación de Pearson r = 0,8074; P<0,0001

Coeficiente de correlación por rangos de Spearman rs= 0,7911; P<0,0001

Hipótesis nula H0 : ρ = 0Hipótesis alternativa H1 : ρ 0

Page 56: Estadistica

5656

0

0,2

0,4

0,6

0,8

1

1,2

1,4

1,6

1,8

0 5 10 15 200

0,2

0,4

0,6

0,8

1

1,2

1,4

1,6

1,8

0 5 10 15 20

0

5

10

15

20

25

30

35

0 5 10 15 20

0

5

10

15

20

25

30

35

0 5 10 15 20

r Pearson = 1r Pearson = 0,68

r Pearson =-1

r Pearson =-0,67

r Spearman = 1 r Spearman = 0,67

r Spearman =-1

r Spearman =- 0,65

Page 57: Estadistica

5757

0

2

4

6

8

10

12

0 5 10 15 20 25 30 35

r Pearson = 0,62

0

2

4

6

8

10

12

0 10 20 30 40 50 60

r Pearson =- 0,62

0

2

4

6

8

10

12

0 5 10 15 20 25

r Pearson =-0,07

r Spearman = 0,62

r Spearman =-0,58

r Spearman =-0,04

0

10

20

30

40

50

60

0 2 4 6 8 10 12 14

r Pearson = 0,87

r Spearman = 1

Page 58: Estadistica

5858

Problemas de Concordancia:

Se utilizan cuando se quiere saber si dos métodos concuerdan, si miden lo mismo, si son “intercambiables”

Page 59: Estadistica

5959

Gráficos de Bland y Altman en mujeres normales

El 0 pertenece al intervalo construido con las diferencias: los dos métodos son concordantes.

El 1 pertenece al intervalo construido con los cocientes (ratios): los dos métodos son concordantes. 0 2 4 6 8 10 12 14

2,4

2,2

2,0

1,8

1,6

1,4

1,2

1,0

0,8

0,6

0,4

AVERAGE of irmaba and irmadsgrupo=0

RA

TIO

of

irm

ab

a a

nd

irm

ad

sMean

1,48

-1.96 SD

0,73

+1.96 SD

2,23

0 2 4 6 8 10 12 14

7

6

5

4

3

2

1

0

-1

-2

AVERAGE of irmaba and irmadsgrupo=0

irm

ab

a -

irm

ad

s

Mean

2,1

-1.96 SD

-1,5

+1.96 SD

5,8

Page 60: Estadistica

6060

Gráficos de Bland y Altman en mujeres con SOP

El 0 pertenece al intervalo construido con las diferencias: los dos métodos son concordantes.

El 1 pertenece al intervalo construido con los cocientes (ratios): los dos métodos son concordantes. 0 5 10 15 20 25 30

3,5

3,0

2,5

2,0

1,5

1,0

0,5

0,0

AVERAGE of irmaba and irmadsgrupo=1

RA

TIO

of

irm

ab

a a

nd

irm

ad

s

Mean

1,53

-1.96 SD

0,47

+1.96 SD

2,59

0 5 10 15 20 25 30

20

15

10

5

0

-5

AVERAGE of irmaba and irmadsgrupo=1

irm

ab

a -

irm

ad

s

Mean

1,8

-1.96 SD

-3,1

+1.96 SD

6,7

Page 61: Estadistica

6161

Prueba versus Grupo

Grupo

0

Normales

1

SOP

Prueba Normal a b a+b

Prueba Patológica c d c+d

a + c b + d n)%*

dbd

( 100+

Sensibilidad = Es la proporción de verdaderos positivos

)%*ca

a( 100

+Especificidad = Es la proporción de

verdaderos negativos

Sensibilidad y especificidad en Pruebas diagnósticas:

Page 62: Estadistica

6262

irmaba

0 20 40 60 80 100

100

80

60

40

20

0

100-Specificity

Se

ns

itiv

ity

Curvas ROC (Receiver Operating Characteristics):

Punto de corte = 5,85Sensibilidad = 73,6%Especificidad = 64,3%

Page 63: Estadistica

6363

Curvas ROC (Continuación):

El intervalo de confianza no contiene al 0,5

P < 0,05

Cuanto más se aparta de 0,5 el área, mejor capacidad de discriminación entre los dos grupos tiene la prueba diagnóstica.

Page 64: Estadistica

6464

El punto de corte que rinde el mejor compromiso entre Sensibilidad (73,58%) y Especificidad (64,29%)

Curvas ROC (Continuación):

Page 65: Estadistica

6565

Esquema de métodos estadísticos para comparación de grupos:Una muestra para contrastar un parámetro:

a) Variables numéricas:

Paramétricos:

• Test de Gauss para una media (H0: = 0)

(la muestra debe tener distribución normal y la varianza de la

población debe ser conocida, o un n muy grande para poder usar la

Normal)

• Test de Student para una media (H0: = 0)

(la variable debe tener distribución normal)

No paramétricos:

• Test del signo (es un test para la mediana) (H0: = 0)

(cuando la variable no sigue una distribución normal)

• Test de rangos signados de Wilcoxon (H0: = 0)

(se necesita que la variable tenga distribución simétrica)Nota: cuantos menos supuestos o requerimientos tiene un test, menor es su potencia

Page 66: Estadistica

6666

Una muestra para contrastar un parámetro:

b) Variables categóricas:

• Test de Gauss para una proporción (H0: = 0)

El número esperado de éxitos n*0 y de fracasos n*(1-0) debe ser

mayor que 5 (n suficientemente grande).

• Test exacto para una proporción (Test Binomial) (H0: = 0)

(No tiene restricciones)

Esquema de métodos estadísticos para comparación de grupos (cont):

Page 67: Estadistica

6767

Dos muestras INDEPENDIENTES para comparar dos parámetros:

Variables numéricas:

Paramétricos:

• Test de Student para diferencia de medias (H0: 1= 2)

(las variables deben ser independientes, tener ambas distribución

normal y tener varianzas homogéneas. Es el de mayor

potencia cuando se cumplen los supuestos)

• Test de Fisher de homogeneidad de varianzas (H0: 12 = 2

2)

(permite corroborar razonablemente la suposición de homogeneidad

de varianzas, necesaria para el test de Student anterior; en este

caso, conviene que la P sea mayor que 0,10)

No paramétricos:

• Test de Wilcoxon-Mann Whitney (H0: 1 = 2)

(Ambas muestras provienen de poblaciones con la misma

distribución (box-plots de ambas muestras revelan distribuciones

muy parecidas))

• Prueba de la mediana (H0: 1 = 2)

(Cuando los box-plots de ambas muestras revelan distribuciones

muy diferentes. Tiene menor potencia que el test de Mann-Whitney)

Esquema de métodos estadísticos para comparación de grupos (cont):

Page 68: Estadistica

6868

Dos variables categóricas:

• Test de Gauss para diferencia de proporciones (H0: 1 = 2)

(Las muestras deben ser aleatorias, independientes, y la cantidad

esperada de éxitos y fracasos deben ser mayores que 5)

Métodos para variables categóricas arregladas en tablas de

contingencia

(H0: las variables que definen filas y columnas de la tabla son

independientes)

•Test de Chi-cuadrado

(No debe haber ninguna casilla con frecuencia esperada menor que 1

ni más del 20% de las casillas con frecuencia esperada menor que 5)

•Test G de máxima verosimilitud:

Es equivalente al test de Chi-cuadrado. Permite particionar cuando

alguna variable tiene más de dos categorías.

•Test exacto de Fisher o de Irwin-Fisher:

Calcula la P exacta de error al afirmar que hay dependencia entre las

variables que definen filas y columnas. No tiene restricciones para su

uso.

Page 69: Estadistica

6969

Esquema de métodos estadísticos para comparación de grupos (cont):Dos muestras DEPENDIENTES o APAREADAS para comparar dos

parámetros:

Variables numéricas:

Paramétricos:

• Test de Student para muestras apareadas (H0: 1= 2; o bien 1- 2 =

0; o bien d = 0)

(las variables deben ser dependientes (en el mismo individuo o en

individuos apareados), su diferencia debe tener distribución normal.

Es el de mayor potencia si se cumplen los supuestos)

No paramétricos:

• Prueba de Wilcoxon para muestras apareadas (H0: 1 = 2; o bien 1-

2= 0; o bien d = 0)

(La variable diferencia no sigue una distribución normal pero el box-

plot revela una distribución simétrica)

• Test del signo (H0: 1 = 2; o bien 1 - 2= 0; o bien d = 0)

(No se requiere ni normalidad ni simetría; tiene menor potencia que

la prueba de Wilcoxon)

Page 70: Estadistica

7070

Esquema de métodos estadísticos para comparación de grupos (cont):

Más de dos muestras INDEPENDIENTES para comparar I medias o

tratamientos:

Variables numéricas:

Paramétricos:

• Análisis de la varianza de un criterio o factor (ANOVA) (H0: 1 = 2 = …

= I)

(los grupos deben ser independientes, todas las variables deben ser

normales y las varianzas deben ser homogéneas; I mayor o igual que

2)

• Test del F máximo para homogeneidad de varianzas (H0: σ12= σ2

2= …

= σI2)

• Test de Levene para homogeneidad de varianzas (H0: σ12= σ2

2= … =

σI2)

• Test de Bartlett para homogeneidad de varianzas (H0: σ12= σ2

2= … =

σI2)

No paramétricos:

• Test de Kruskal-Wallis (H0: 1 = 2 = … = I)

(cuando no se cumplen los supuestos del ANOVA, ni aun luego de

alguna transformación)

Page 71: Estadistica

7171

Esquema de métodos estadísticos para comparación de grupos (cont):

Más de dos muestras DEPENDIENTES para comparar I medias o

tratamientos:

Variables numéricas:

Paramétricos:

• Análisis de la varianza de un criterio o factor con medidas repetidas

(ANOVA) (H0: 1 = 2 = … = I)

(las mediciones que se efectúan en el mismo individuo no son

independientes, pero hay independencia entre los individuos; las

variabes deben ser normales; I mayor o igual que 2; si I=2 es

equivalente al test de Student para muestras apareadas)

No paramétricos:

• Test de Friedman (H0: 1 = 2 = … = I)

(cuando no se cumplen los supuestos del ANOVA)

Page 72: Estadistica

7272

SOFTWARE:

Software gratis (free):

http://freestatistics.altervista.org/stat.php (Instat, Epi Info, entre muchos otros)

www.medcalc.be(MedCalc, sólo 25 sesiones gratis)

Software con excelente relación costo-beneficio (se puede usar en versión “demo”):

www.infostat.com.ar(InfoStat, desarrollado por la Universidad Nacional de Córdoba, Facultad de Agronomía)

Page 73: Estadistica

7373

BIBLIOGRAFÍA:

LOS QUE TIENEN CASI DE TODO:

•Garrido, D., Sarchi, M. I., Elementos de Bioestadística. Facultad de Farmacia y Bioquímica. U.B.A. 1988.

•Dawson, Beth, Trapp, Robert, Bioestadística médica. Editorial El Manual Moderno. México. Cuarta Edición. 2005.

•Sokal, R. R., Rohlf, F. J., Biometría. Principios y métodos estadísticos en la investigación biológica. H. Blume Ediciones. 1979.

•Pagano, M., Gauvreau,K. Fundamentos de Bioestadística. Thomson Learning. México. 2001.

•Box, G., Hunter, W., Hunter, J. Estadística para investigadores. Introducción al diseño de experimentos, análisis de datos y construcción de modelos. Editorial Reverté, S.A. Barcelona. 1993.

•Macchi, Ricardo. Introducción a la Estadística en Ciencias de la Salud. Editoral Médica Panamericana. 1ra. ed., 2da. reimpres. Buenos Aires. 2005.

Page 74: Estadistica

7474

BIBLIOGRAFÍA (continuación):

•Kuehl, Robert. Diseño de experimentos. Thomson Learning. México. 2003

•García, R. O., Inferencia estadística y diseño de experimentos. Eudeba. 2004.

SOBRE TEMAS ESPECÍFICOS:

•Agresti, Alan. Categorical Data Analysis. John Wiley & Sons, Inc. New York. 1990.

•Lee, Elisa. Statistical Methods for Survival Data Analysis. John Wiley & Sons, Inc. New York. 1992.

•Winer, B. J., Brown, D. R., Michels, K. M., Statistical principles in experimental design. Editorial McGraw-Hill Book Company. 1991. (La Biblia del ANOVA)

•César Pérez López. Muestreo estadístico. Conceptos y problemas resueltos. Pearson Educación S.A. Prentice Hall. Madrid. 2005.

•Montgomery, D.; Peck, E.; Vining, G. Introducción al análisis de regresión lineal. Compañía Editorial Continental. México. 2005.

Page 75: Estadistica

7575

¡Muchas gracias!