Estadística -...

9
Estadística DR. JORGE THIERER 1, MTSAC – Módulo 7 – Fascículo Nº 2 – 2011 1 Director del Área de Docencia de la Sociedad Argentina de Cardiología Unidad de Insuficiencia Cardíaca CEMIC MTSAC Miembro Titular de la Sociedad Argentina de Cardiología. Contenidos Comparaciones entre medias o proporciones de uno o dos grupos Variables cuantitativas Distribución normal La prueba de la t Distribución no normal Transformación Pruebas no paramétricas Prueba de rangos señalados de Wilcoxon Prueba de la suma de rangos de Wilcoxon o prueba de Mann-Whitney ¿Pruebas paramétricas o no paramétricas? Variables cualitativas Prueba de chi cuadrado Prueba exacta de Fisher Prueba de McNemar Bibliografía Abreviaturas EEM Error estándar de la media GL Grados de libertad Comparaciones entre medias o proporciones de uno o dos grupos ___________ En este capítulo nos referiremos a las situaciones más habituales en la práctica cotidiana de la in- vestigación y las pruebas estadísticas empleadas en dichas circunstancias. Recurriremos para la explicación a muchos de los conceptos ya expli- cados en entregas previas, por lo que sugerimos releerlas para una comprensión cabal. Como ya vimos anteriormente, el objetivo general de los estudios de investigación, en cual- quiera de sus diseños, es establecer si existe dife- rencia estadísticamente significativa en alguna/s variable/s de un grupo de observaciones respecto de la población, o bien entre dos o más grupos. Como se recordará, y por convención, se entien- de por diferencia estadísticamente significativa aquella que ocurre con una probabilidad de de- berse al azar menor de 0,05 (p < 0,05), aunque en ocasiones puede requerirse un valor de p < 0,01. Como ya hemos visto también, las variables que comparamos pueden ser cuantitativas o cualita- tivas. Veremos entonces someramente cuáles son

Transcript of Estadística -...

Page 1: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

77Estadística

Estadística

Dr. Jorge Thierer1, MTSAC

– Módulo 7 – Fascículo Nº 2 – 2011

1 Director del Área de Docencia de la Sociedad Argentina de Cardiología Unidad de Insuficiencia Cardíaca CEMICMTSAC Miembro Titular de la Sociedad Argentina de Cardiología.

Contenidos

– Comparaciones entre medias o proporciones de uno o dos grupos

– Variables cuantitativas

– Distribución normal

– La prueba de la t

– Distribución no normal

– Transformación

– Pruebas no paramétricas

– Prueba de rangos señalados de Wilcoxon

– Prueba de la suma de rangos de Wilcoxon o prueba de Mann-Whitney

– ¿Pruebas paramétricas o no paramétricas?

– Variables cualitativas

– Prueba de chi cuadrado

– Prueba exacta de Fisher

– Prueba de McNemar

– Bibliografía

AbreviaturasEEM Error estándar de la media GL Grados de libertad

Comparaciones entre medias o proporciones de uno o dos grupos___________

En este capítulo nos referiremos a las situaciones más habituales en la práctica cotidiana de la in-vestigación y las pruebas estadísticas empleadas en dichas circunstancias. Recurriremos para la explicación a muchos de los conceptos ya expli-cados en entregas previas, por lo que sugerimos releerlas para una comprensión cabal.

Como ya vimos anteriormente, el objetivo general de los estudios de investigación, en cual-

quiera de sus diseños, es establecer si existe dife-rencia estadísticamente significativa en alguna/s variable/s de un grupo de observaciones respecto de la población, o bien entre dos o más grupos. Como se recordará, y por convención, se entien-de por diferencia estadísticamente significativa aquella que ocurre con una probabilidad de de-berse al azar menor de 0,05 (p < 0,05), aunque en ocasiones puede requerirse un valor de p < 0,01. Como ya hemos visto también, las variables que comparamos pueden ser cuantitativas o cualita-tivas. Veremos entonces someramente cuáles son

Page 2: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

78 – Módulo 7 – Fascículo Nº 2 – 2011

las pruebas estadísticas empleadas al considerar las diferentes variables, en qué condiciones se emplean y cuál es la lógica subyacente, en el caso de comparar dos grupos (Figura 1). Dejaremos para una próxima entrega la comparación de tres o más grupos.

Variables cuantitativas___________

En este caso, la prueba que se ha de utilizar depen-de de la distribución de los datos, específicamente de si la distribución es normal o no lo es.

Distribución normalRecordemos algunos conceptos ya expresados previamente. Si la distribución es normal, los datos se expresan como media y desviación es-tándar; en virtud del teorema del límite central, todas las medias de una variable determinada están dispersas en torno de la media poblacional en forma gausiana (distribución muestral de medias) y su medida de dispersión es el error estándar de la media (EEM). El EEM es en cada caso igual a la desviación estándar poblacional (s) dividida por la raíz cuadrada del número de observaciones.

EEM = s / √ n

Como ya hemos visto, la distancia a la que en cada caso una media se encuentra de la media po-blacional en esa distribución muestral se expresa con el número z. El valor de z surge de dividir la

Fig. 1. Pruebas estadísticas empleadas en la comparación de dos grupos.

diferencia entre la media de nuestra muestra y la media global (X – µ) por el EEM.

z = X – µ / EEM

El valor de z es entonces a cuántos EEM de la media global se encuentra una media en par-ticular. Entre valores de z de + y –1,96 (esto es, entre + y –1,96 EEM) está comprendido el 95% de los valores de las medias de la distribución. Todo lo que queda por fuera de ese 95% está en el área de rechazo y, por ende, se entiende que si z es > 1,96 o < –1,96, la media de nuestra muestra es estadísticamente diferente de la media poblacional con un valor de p < 0,05. De igual modo, si la distancia expresada en térmi-nos de z de una media determinada respecto de la distribución de probabilidades de otra es > 1,96 o < –1,96, podemos decir que las medias pertenecen a distribuciones diferentes con un valor de p < 0,05.

Ahora bien, existe un problema. Cuando nos referimos a z, en el cálculo del EEM interviene s, que es la desviación estándar poblacional. Y lo cierto es que no conocemos s, conocemos apenas la desviación estándar de nuestra muestra, s. ¿Cómo hacemos entonces para trabajar? Surge entonces la distribución t. Al igual que z, t mide la distancia a la que una media determinada se encuentra de la media poblacional, o una media de otra, sólo que tomando en cuenta para el cálculo del EEM el valor de s y no el de s.

EEM = s / √ n t = X – µ / EEM

Se entiende que s es un buen estimador de s, es decir que a partir de s podemos estimar s, pero teniendo en cuenta los grados de libertad (GL), que son iguales en el caso de una muestra al número de observaciones – 1 (n – 1).

GL = n – 1

¿Qué representan en este caso los grados de libertad? Supongamos que tenemos 10 valores de colesterol y decimos que el promedio de ellos

Page 3: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

79Estadística

Fig. 2. Distribuciones de probabilidad z y t.

es de 212 mg/dl. De esta afirmación surge que la suma de los 10 valores debe ser 2.120; ahora bien, es claro que podríamos establecer libremente el valor de 9 de esos 10 valores, pero que el décimo tendría que ser sólo el que, dados los 9 valores previos, permitiera alcanzar una suma de 2.120. Por eso decimos que entre 10 observaciones hay 9 GL, y entre 100, 99.

Cuanto menor es la muestra, menor es el número de GL, y menos confiable es como es-timador de s. Por eso, porque la confiabilidad es menor, es que en la distribución t el área de rechazo está más alejada de la media central; así, por ejemplo, si n es 11 (y por lo tanto GL es 10), el valor crítico de t que engloba el 95% central de las observaciones es + y –2,22; si n es 41, el valor de t necesario es + o –2,02.

La distribución t, como podemos ver en la Figura 2, es de colas más anchas y altas que la distribución de z. A medida que n aumenta, la distribución t tiende a ser similar a z, y el valor de t tiende a acercarse a 1,96 para señalar la separación entre el área de no rechazo y el área de rechazo de la hipótesis nula. Por eso, con n alto, podemos usar la prueba de la t o considerar z. Ahora bien, como la prueba de la t se aplica a cualquier n mientras la distribución sea normal, es la prueba usada para comparar medias cual-quiera que sea el valor de n. Rara vez se refiere haber usado z en las publicaciones y, repetimos, sólo cuando el n es muy grande.

La prueba de la t

La prueba de la t (también llamada prueba de Student, por el seudónimo que empleó su crea-dor, Gossett, para publicarla) es entonces aquella a la que se recurre para determinar si una media hallada es estadísticamente diferente de otra cuando la distribución de los datos es normal. Si la distancia entre ambas (en términos de EEM) es mayor en términos absolutos (sin importar el signo) que el valor de t crítico correspondiente al número de GL que separa el área de no rechazo de la de rechazo, hay diferencia con significación estadística.

Básicamente pueden plantearse tres situa-ciones:a) Se compara la media de nuestra muestra con

la media poblacional. Por ejemplo, sabemos que la hemoglobina promedio en varones jó-venes es de 13 g/dl. Tenemos una muestra de 69 varones con una media de hemoglobina de 12,4 g/dl. ¿Pertenecen a la distribución nor-mal de hemoglobina, o es “significativamente diferente”? Se usa entonces la prueba de la t para una muestra con 68 GL.

b) En un grupo de observaciones se mide una variable antes y después de una intervención. Por ejemplo, peso corporal antes y después de una dieta, tensión arterial sistólica antes y después de un tiempo de tratamiento con un antihipertensivo. Como resulta obvio, las observaciones antes y después no son independientes: el valor de la observación “pos” está influido para cada individuo por la observación “pre”. Por ejemplo, si el peso de un individuo antes de la dieta era de 92 kg, es imposible que luego de un mes de cumplimien-to de dieta hipocalórica sea de 120 kg o de 48 kg. Quiere decir que el peso “antes” de alguna manera determina la probabilidad de tener determinado peso “después”. Este principio se repite para cada uno de los integrantes del grupo. Por eso se dice que las observaciones están apareadas y la prueba de la t que se em-plea es la prueba de la t para datos apareados. Hace hincapié en la diferencia en cada par de observaciones apareadas entre el primero y el segundo valor. Se obtiene así una diferencia

Page 4: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

80 – Módulo 7 – Fascículo Nº 2 – 2011

media, o media de las diferencias, que tiene como medida de dispersión un error estándar de la diferencia. Si el cociente entre la dife-rencia media y su error estándar arroja un valor de t mayor que el crítico para el número de GL, entonces hay diferencia significativa entre el antes y el después.

c) Se comparan dos grupos de observaciones independientes. Por ejemplo, la edad prome-dio de 100 internados en unidad coronaria con la de 88 internados en terapia intensiva. ¿Son significativamente más jóvenes unos u otros? ¿O no? Como vemos, se trata de observaciones independientes: la edad de los integrantes de un grupo no depende de la del otro. La prueba empleada en este caso es la prueba de la t para datos independientes. El número de GL que determina el valor crítico de t es igual a la suma del número de observaciones en cada grupo menos 2 (GL = n1 + n2 – 2). En este ejemplo será 186. Un paso previo a la utilización de la prueba es la determinación de si las varianzas de ambos grupos son similares o muy diferentes. Para ello se determina el valor de F, igual a la raíz cuadrada del cociente entre la varianza mayor y la menor. Una tabla de F establece si el valor hallado, considerando el n de cada grupo, permite establecer que las varianzas son o no significativamente diferentes. De acuerdo con lo hallado, se usa la prueba de la t para datos independientes con varianzas iguales o desiguales. En este último caso, la prueba se torna más exigente y pide un valor de t mayor para determinar que las medias son diferentes.

Distribución no normalConsideremos ahora lo que sucede cuando la dis-tribución de los datos es claramente no normal. No podemos, por definición, expresar los datos como media y desviación estándar. Debemos ex-presarlos como mediana y rango intercuartil. Por lo tanto, no es la prueba de la t la que podemos emplear. Algunos valores biológicos muestran más frecuentemente distribución no gausiana cuando se hacen muchas determinaciones; los

valores de NT-proBNP, PCR o leptina son ejemplos claros. ¿Qué hacer en este caso? Hay dos opciones: transformación y pruebas no paramétricas.

Transformación

La primera opción es la llamada transforma-ción, a la que ya nos referimos en otra entrega: emplear en vez de los valores obtenidos su raíz cuadrada o el valor elevado al cuadrado, o su logaritmo. Sucede en algunos casos que esta transformación matemática permite lograr una distribución normal y hace factible entonces usar una prueba paramétrica como la prueba de la t. Así, entonces, compararemos no los valores de NT-proBNP de dos grupos, sino los de sus valores logarítmicos. La ventaja de considerar parámetros es, como ya vimos, que podemos ubicar cada valor dentro de una distribución. La desventaja es que no estamos comparando valores biológicos, sino los obtenidos por un artificio matemático, muchas veces no comprensibles en forma intuitiva.

Pruebas no paramétricas

El empleo de las llamadas pruebas no para-métricas constituye la segunda opción. Estas pruebas se basan en considerar no el valor de la variable de las observaciones, sino su posición al ordenarlos de menor a mayor. La posición se denomina rango, no en el sentido de diferencia entre el valor mayor y el menor, sino en el de ubicación en una escala (pensemos en el rango de cada integrante dentro del ejército o en una empresa). No existe una prueba no paramétrica para comparar una variable de una muestra con la norma poblacional; sí para comparar observa-ciones apareadas o dos grupos independientes.

Prueba de rangos señalados de Wilcoxon

Cuando la comparación se hace en el marco de observaciones apareadas se emplea la prueba de rangos señalados de Wilcoxon. Básicamente, se ordenan las diferencias entre la segunda ob-servación y la primera de menor a mayor. Cada diferencia recibe, de acuerdo con su valor abso-luto, un número de orden o rango. La diferencia más exigua recibe el rango 1, la siguiente el 2 y así sucesivamente. Si dos diferencias son iguales

Page 5: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

81Estadística

se les da el mismo número de rango, equivalente al promedio de los rangos que ocupan (p. ej., si hay dos diferencias iguales en posición 8 y 9, se les adjudica a ambas el rango 8,5 y a la siguiente se le adjudica el rango 10). Si la diferencia es positiva (segunda observación mayor que la primera), el rango se señala con un signo +; si la diferencia es negativa (segunda observación menor que la primera), el rango se señala con un signo –. La lógica que subyace a la prueba es que si no hay diferencia significativa entre las observaciones apareadas “antes” y “después”, las diferencias con rango positivo tenderán a cancelarse con las de rango negativo (porque azarosamente habrá pacientes con diferencias positivas y otros con diferencia negativas); esto es que la suma de los rangos positivos será igual en valor absoluto a la suma de los rangos negativos. La prueba esta-dística nos dirá si ello no es así y si el valor de la suma en uno u otro sentido es estadísticamente significativo.

Prueba de la suma de rangos de Wilcoxon o

prueba de Mann-Whitney

En el caso de observaciones de dos grupos inde-pendientes se emplea la prueba de la suma de rangos de Wilcoxon o prueba de Mann-Whitney. Se ordenan los valores mezclados de ambos grupos de menor a mayor, y a cada valor se le otorga un rango: 1 al menor de todos y así sucesivamente. Nuevamente, si hubiera observa-ciones iguales se les da el mismo rango. Se procede luego a sumar el valor de los rangos de cada gru-po. La lógica subyacente es que si los grupos son similares, la suma de los rangos de ambos grupos debe ser similar. Lógicamente, al haber diferencia en el número de observaciones en ambos grupos, es esperable que la suma de rangos sea mayor en el grupo con más observaciones. Pero aun así, matemáticamente se puede determinar cuánto debería dar la suma de rangos en ambos grupos, proporcional al número de observaciones, si los grupos fueran similares: es el valor esperado de la suma de rangos en cada grupo. Si la suma de rangos observada diverge de la esperada, la prue-ba nos dice si la diferencia entre lo observado y lo esperado es estadísticamente significativa.

En las Figuras 3 y 4 puede verse un ejemplo. Supongamos que tenemos dos grupos de 7 obser-vaciones cada uno de tensión arterial sistólica (Figura 3). Si las ordenamos de menor a mayor, los rangos correspondientes a cada observación son los que aparecen a la derecha de cada valor, en azul (Figura 4). Si hay 14 observaciones, y por ende 14 posiciones o rangos, la suma de las 14 posiciones es 1 + 2 + 3 … + 14 = 105. Si no hubiera diferencia entre ambos grupos, la suma de rangos en cada uno debería ser similar, con un valor de 52,5 (105/2) o con escasa diferencia entre ambos. En este caso vemos que la suma de rangos es bien distinta; la prueba estadística nos dirá si esta diferencia entre lo esperado y lo observado alcanza significación estadística.

Fig. 4. Ejemplo de prueba no paramétrica.

Fig. 3. Ejemplo de prueba no paramétrica.

Page 6: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

82 – Módulo 7 – Fascículo Nº 2 – 2011

¿Pruebas paramétricas o no paramétricas?

Como vimos, si la distribución de los datos es normal podemos emplear la prueba de la t, una prueba paramétrica. Si la distribución es no normal, usaremos una prueba no paramétrica. Según algunos autores, cuando n es menor de 30 es preferible usar pruebas no paramétricas, porque el supuesto de normalidad es más difícil de cumplir. Con n mayor de 30, y sobre todo si n es mayor de 100, aun con distribución no clara-mente normal puede usarse la prueba de la t. Sin embargo, con distribución claramente no normal y aun cuando n fuera alto, debe usarse una prueba no paramétrica.

Ahora bien, vale la pena aclarar que con datos de distribución normal también pueden usarse pruebas no paramétricas, es decir que este tipo de prueba siempre es utilizable, cualquiera que sea la distribución de los datos. Ello elimina la necesidad de verificar y cumplir con el supuesto de normalidad. En los últimos años hemos asistido a una tendencia creciente a presentar los datos en grandes estudios, y aun cuando el n sea alto, como mediana y rango; por lo tanto, ha aumentado la utilización de las pruebas no paramétricas para verificar significación estadística.

Variables cualitativas___________

Recordemos que las variables cualitativas se expresan como proporciones (qué parte del total de las observaciones presenta determinada carac-terística) y en general esa proporción se expresa como porcentaje. En el caso de la comparación de una variable cualitativa entre dos grupos se puede emplear la llamada aproximación z, o la prueba de chi cuadrado. Nos referiremos a esta última por tratarse de la que se utiliza casi universalmente. Para entender la lógica de la prueba recurriremos a un ejemplo.

Prueba de chi cuadradoSupongamos que en dos grupos de pacientes, dia-béticos y no diabéticos, exploramos la prevalencia de disfunción renal entendida como la presencia de una depuración de creatinina menor de 60 ml/min. Presentamos los datos en una tabla (Figu-

ra 5) de dos filas (disfunción renal sí o no) por dos columnas (diabetes sí o no). Tenemos en los márgenes los números totales correspondientes a cada categoría, a los que denominamos frecuencias marginales. Así, contamos con 150 diabéticos, de los cuales 60 tienen disfunción renal, y los com-paramos con 400 no diabéticos, de los que 120 presentan disfunción renal. En total, 550 pacien-tes, 180 con disfunción y 370 sin ella. La pregunta que nos hacemos es si la proporción de disfunción renal en los diabéticos es significativamente dife-rente de la que presentan los no diabéticos.

Si la condición de diabetes y la disfunción renal fueran independientes, si no hubiera asociación entre ellas, cabría esperar que la proporción de disfunción renal fuera similar en ambos grupos. La proporción de disfunción renal que se ve en to-tal en nuestros 550 pacientes (180/550), el 32,7%, debería darse por igual entre los diabéticos y los no diabéticos. Si fuera así, entre los 150 diabéticos debería haber 49 pacientes con disfunción renal (el 32,7% de 150) y entre los 400 no diabéticos, 131 deberían tener dicha patología. Como vemos en la Figura 6, entonces, en cada celda de nuestra tabla las frecuencias observadas difieren de las esperadas. ¿Esa diferencia entre lo observado y lo esperado tiene significación estadística? La prueba de chi cuadrado responde esta pregunta trabajando con la diferencia en cada celda entre lo observado y lo esperado. Y lo hace en cada celda elevando al cua-drado la diferencia entre lo observado y lo esperado y dividiendo por el valor esperado (Figura 7). Por último se procede a sumar los resultados obtenidos en las 4 celdas y se obtiene un número que es el valor de chi cuadrado, en este caso 5,01 (Figura 8).

La prueba de chi cuadrado, al igual que la de la t, considera los grados de libertad. En una tabla de 2 × 2, y estando determinadas las frecuencias marginales, sólo una de las 4 celdas puede cambiar el número de observaciones, ya que para llegar a sumar lo que corresponde a la frecuencia marginal, las otras 3 sólo pueden presentar un valor deter-minado. Por ejemplo, con las mismas frecuencias marginales de la tabla, si el número de diabéticos con disfunción renal en vez de 60 hubiera sido 50, por fuerza, para sumar 150 diabéticos, el número de diabéticos sin disfunción debería ser 100; el

Page 7: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

83Estadística

número de no diabéticos con disfunción renal debería haber subido a 130 para sumar los 180 de la frecuencia marginal y, por fuerza también, el valor de la cuarta celda debería haber sido 270. Es decir que en una tabla de 2 × 2 el número de GL es 1, y en forma general, en cualquier tabla:

GL = (número de filas – 1) (número de columnas – 1)

Una tabla o el programa de estadística señala para cada número de GL y el valor de chi cuadrado el valor correspondiente de p. Para 1 GL, un valor de p < 0,05 se da cuando chi cuadrado es mayor de 3,84. Por eso concluimos que, en este ejemplo, la prevalencia de disfunción renal en la diabetes es significativamente diferente de la verificada en los no diabéticos.

Fig. 5. Ejemplo de prueba de chi cuadrado: frecuencias observadas.

Fig. 6. Ejemplo de prueba de chi cuadrado: frecuencias esperadas.

Page 8: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

84 – Módulo 7 – Fascículo Nº 2 – 2011

Prueba exacta de FisherUna situación especial se produce cuando la muestra es pequeña; si el número total de obser-vaciones es menor de 20, o el valor esperado en una de las celdas es menor de 5, se recurre a otra prueba, la prueba exacta de Fisher.

Prueba de McNemarPor último, nos referiremos a la situación par-ticular en que se comparan proporciones apa-readas. Supongamos que tenemos un grupo de 100 sujetos, de los cuales 40 son hipertensos, y los sometemos a dieta hiposódica. Tres meses

Fig. 7. Ejemplo de prueba de chi cuadrado: diferencia entre frecuencias observadas y es-peradas elevada al cuadrado y dividida por el valor esperado.

Fig. 8. Ejemplo de prueba de chi cuadrado: suma de los resultados.

Page 9: Estadística - educacion.sac.org.areducacion.sac.org.ar/pluginfile.php/2977/mod_page/content/2/6_-_Dr... · Estadística 79 Fig. 2. Distribuciones de probabilidad z y t. es de 212

85Estadística

después hacemos un nuevo control tensional. Pueden darse cuatro situaciones, es decir, cuatro posibilidades de pares de observaciones según la condición “antes” y “después” de la intervención: a) hipertenso antes y después, b) hipertenso antes y no hipertenso después, c) no hipertenso antes, hipertenso después, d) no hipertenso ni antes ni después. Para saber si la intervención fue exitosa, en realidad los pares que nos interesan son los correspondientes a las condiciones b) y c): aque-llos en los que hubo cambios. Si la intervención es útil, es de esperar que las observaciones en el par b) sean significativamente mayores que en el

c); si no es así, b) y c) no serán estadísticamente diferentes. La prueba que explora la diferencia entre proporciones apareadas es la prueba de McNemar.

Bibliografía___________

– Dawson Saunders B, Trapp R. Bioestadística médica. México: El Manual Moderno, SA de CV; 1993.

– Hennekens C, Buring J. Epidemiology in medicine. Philadelphia, PA, 19106, USA: Lippincott Williams & Wilkins; 1987.

– Henquin R. Introducción a la epidemiología y la es-tadística. Buenos Aires: Elaleph.com; 2006.