1. Generalidades sobre los diferentes tipos de estudios en ... · Finalmente nos detendremos en la...

29
1 Parte 1. Diseño de estudios en investigación clínica. Autor: Santiago Perez Lloret En este módulo nos ocuparemos en primer lugar de los diseños en investigación clínica, de sus segos. Finalmente nos detendremos en la pruebas de confrontación de hipótesis. 1. Generalidades sobre los diferentes tipos de estudios en investigación clínica. La investigación biomédica provee evidencia que el médico debe combinar con su experiencia y con los deseos del paciente para tomar una decisión. Como todo sujeto que toma decisiones, el médico adopta conductas en un ámbito de riesgo: todos los tratamientos, incluida la aplicación de vacunas, tienen tantos efectos adversos como beneficios, pero no administrarlos a tiempo puede ser grave y las herramientas diagnósticas imperfectas pueden llevar a tomar innecesariamente conductas de riesgo en sujetos libres la patología sospechada, para citar algunos ejemplos. En estas situaciones, las decisiones deben sustentarse firmemente en el peso de la evidencia (weight of evidence), es decir en la información disponible al momento de la toma de la decisión. Desde el punto de vista científico, el concepto se refiere al resumen ordenado de la evidencia científica, como pueden ser las revisiones sistemáticas o los meta- análisis, y a los métodos disponibles para producirlos. Sin embargo, el progreso diario de la ciencia produce un amplio caudal evidencia cuya calidad suele ser heterogénea. Así, ¿a qué nos referimos cuando hablamos de la calidad de la

Transcript of 1. Generalidades sobre los diferentes tipos de estudios en ... · Finalmente nos detendremos en la...

1

Parte 1. Diseño de estudios en investigación clínica.

Autor: Santiago Perez Lloret

En este módulo nos ocuparemos en primer lugar de los diseños en investigación

clínica, de sus segos. Finalmente nos detendremos en la pruebas de confrontación

de hipótesis.

1. Generalidades sobre los diferentes tipos de estudios en investigación clínica. La investigación biomédica provee evidencia que el médico debe combinar con su

experiencia y con los deseos del paciente para tomar una decisión. Como todo

sujeto que toma decisiones, el médico adopta conductas en un ámbito de riesgo:

todos los tratamientos, incluida la aplicación de vacunas, tienen tantos efectos

adversos como beneficios, pero no administrarlos a tiempo puede ser grave y las

herramientas diagnósticas imperfectas pueden llevar a tomar innecesariamente

conductas de riesgo en sujetos libres la patología sospechada, para citar algunos

ejemplos. En estas situaciones, las decisiones deben sustentarse firmemente en el

peso de la evidencia (weight of evidence), es decir en la información disponible al

momento de la toma de la decisión.

Desde el punto de vista científico, el concepto se refiere al resumen ordenado de

la evidencia científica, como pueden ser las revisiones sistemáticas o los meta-

análisis, y a los métodos disponibles para producirlos. Sin embargo, el progreso

diario de la ciencia produce un amplio caudal evidencia cuya calidad suele ser

heterogénea. Así, ¿a qué nos referimos cuando hablamos de la calidad de la

2

evidencia? Pues bien, es la serie de atributos que nos permiten confiar en menor o

mayor grado en los resultados obtenidos en los diferentes estudios.

Estos conceptos deben ser tenidos en cuenta al diseñar un estudio, ya que

hacerlo implica imaginar y planificar la manera en que los diferentes sesgos serán

evitados y cómo podrán interpretarse los resultados a pesar de los sesgos que no

pudieron ser eliminados. Así, la calidad de un estudio está determinada por la

forma en que dicho estudio fue diseñado y conducido. Más aún, así como la

anatomía determina la fisiología, el diseño básico del estudio determina la máxima

calidad que se podrá alcanzar con ese diseño. Esto ha permitido elaborar

jerarquías de calidad de la evidencia en función del tipo de estudio considerado,

como se describe en la siguiente tabla

Grado Evidencia obtenida de

I Al menos 1 estudio clínico aleatorizado controlado bien

diseñado.

II-1 Estudio clínico no aleatorizado bien diseñado.

II-2 Estudios de cohortes o caso-control bien diseñados.

II-3 Series temporales múltiples con o sin intervención o de

experiencias clínicas no controladas importantes.

III Estudios descriptivos, recomendaciones de comités de

expertos, opiniones personales.

En resumen, un estudio bien diseñado ha de plantear los criterios y formas con las

que hemos de seleccionar a los sujetos participantes, los procedimientos, la

clasificación de las exposiciones y los desenlaces o eventos, las formas en que

recogeremos y trataremos los datos, la identificación de las llamadas “variables

3

confusoras” o “confounding” y el “número de sujetos a incluir”, atendiendo a lograr

una cierta precisión en el momento de realizar la inferencia estadística.

Un diseño no puede estar ajeno a la naturaleza de la pregunta científica que

enfrentamos ni de la etapa del método científico en la que tal pregunta se inscribe.

De acuerdo entonces con lo arriba dicho, hemos de reconocer la siguiente

clasificación de estudios:

Reproducido de: Características de los tipos de estudios más frecuentes en

investigación clínica. Santiago Perez Lloret, Daniel Vigo, Claudio Gonzalez. Arch

Neurol Neuroc Neuropsiquiatr 2008; 15 (1): 25-33

4

Desde luego existen otras formas de clasificación. Sin embargo, para

homogeneizar nuestra comunicación, tomaremos esta taxonomía como válida a

efectos de este módulo.

Con el objeto de acortar la extensión del presente módulo 3 en razón del tiempo

con el cual disponemos, hemos de enfocarnos a la consideración de los estudios

de cohortes, los de casos y controles, los ensayos clínicos y nos introduciremos a

los principales aspectos de los métodos meta-analíticos.

2. Estudios de Cohortes.

Una “cohorte” es un conjunto de individuos que comparte una característica

común. Un estudio de cohorte/s ha de tener por objeto evaluar la morbilidad o la

mortalidad observada en uno o más grupos de individuos inicialmente indemnes

de la enfermedad (desenlace) bajo análisis, definidos en base a su exposición o

no a un determinado factor (variable exposición).

Como es natural, este tipo de estudio requiere la observación de los sujetos a lo

largo de cierto tiempo entre la inclusión y el posible desarrollo del evento o

desenlace. Por tanto, los estudios de cohortes serán siempre longitudinales.

Si tomamos una cohorte y la seguimos un tiempo suficiente, será posible en ella

determinar la “incidencia” del evento en los sujetos que la integran. Por tanto, es

común que el objetivo de un estudio de cohortes consista en la comparación de la

incidencia del desenlace en los expuestos a un determinado factor, versus la

incidencia del mismo desenlace en los no expuestos a ese factor. Es razonable

entonces que el Riesgo Relativo sea una medida natural de la fuerza de la

asociación de uso habitual en los estudios de cohortes.

Los estudios de cohortes pueden ser prospectivos o retrospectivos. En los

estudios retrospectivos, las exposiciones y los desenlaces relevantes ya se han

dado, es decir, han sucedido en el pasado. Pero no importa si se trata de estudios

5

prospectivos o retrospectivos, la selección de los sujetos se fundamenta en la

exposición, es decir, en la condición de estar o no expuesto al supuesto factor

etiológico. Por ello las bases metodológicas de todo estudio de cohortes tienen

que ver con la naturaleza longitudinal de la evaluación del estado de salud, y la

selección basada en exposición. Es importante consignar que la exposición al

factor sospechoso es una condición natural; no es el resultado de una intervención

del observador. Ello es muy importante a efectos de distinguir los estudios de

cohortes de los experimentales o de intervención.

La eficiencia de los estudios de cohortes guarda una relación importante con la

frecuencia del evento o desenlace de mayor interés. Si bien un estudio de

cohortes permite evaluar la asociación entre una exposición y uno o varios

posibles desenlaces, es conveniente definir la importancia que asignamos a cada

desenlace; ¿consideramos la mortalidad por cualquier causa nuestro desenlace de

mayor interés?, o bien ¿es la mortalidad de causa cardiovascular la más

importante? Es fundamental tener en cuenta que cuando la frecuencia de los

eventos de mayor interés es muy baja, el rinde de este tipo de estudio puede ser

limitado. Si el desenlace (“endpoint”) cuya incidencia procuramos evaluar es muy

raro, podríamos vernos obligados a seguir un número muy importante de personas

durante un período muy prolongado para quizás detectar un número muy bajo de

casos, de eventos de interés. Ello deriva en costos a menudo insostenibles y exige

recursos difíciles de proveer.

Se acepta en general la existencia de cohortes fijas o “cerradas” y cohortes

dinámicas o “abiertas”. En una cohorte fija, sólo los sujetos presentes en el

momento de constitución de la cohorte son incluidos en el estudio. Se trata de

grupos fijos de sujetos seguidos desde un momento hasta un punto final. Por

ejemplo, podríamos seguir a todos los empleados de una empresa presentes en la

misma en el momento de constitución de la encuesta. En un proceso dinámico de

reclutamiento, siguiendo el ejemplo anterior, todo nuevo trabajador que cumpla los

6

criterios de selección puede ser incorporado al estudio durante un período

determinado. Además de la naturaleza del proceso de selección, la condición de

exposición definida al momento del ingreso del sujeto en una cohorte fija se

considera invariable a lo largo del estudio, en tanto que una cohorte dinámica

puede admitir variaciones en la intensidad de la exposición (por ejemplo, la

condición de fumador puede variar a lo largo del seguimiento, y ello es admisible

en un proceso de análisis dinámico).

La constitución de una cohorte.

Los siguientes aspectos deben ser considerados a efectos de constituir una

cohorte apropiada:

1. Identificación de la población.

Se deberá establecer de antemano la “población blanco” del estudio. Esta es

definida como la población a la que se podrán aplicar los resultados del estudio.

Esta definición deberá ser tomada en cuenta al momento de diseñar el

procedimiento de recolección de la muestra, teniendo en cuenta que la misma

debe ser representativa de dicha población.

2. Establecimiento de criterios de inclusión.

2.a) La exposición debe ser claramente definida y debe ser de intensidad

suficiente como para justificar el estudio de su asociación con el desenlace. La

determinación de la intensidad apropiada de la exposición suele ser un problema

de difícil resolución en algunos contextos particulares. En Epidemiología, es muy

importante establecer la relación dosis / respuesta que caracteriza a la asociación

entre la exposición y el evento; esta es otra razón por la que definir correctamente

la intensidad de la exposición resulta fundamental.

7

2.b) La inexistencia del evento o desenlace de interés al inicio del estudio debe ser

un requisito importante en el proceso de selección. En ocasiones, el desenlace en

estudio no es otro que el empeoramiento de una condición preexistente; entonces,

es crucial definir cuál es el estado preexistente que no constituye el “evento”

objetivo de nuestro estudio actual.

2.c) Debe tomarse posición acerca de las variables confusoras y la conducta a

seguir en relación con ellas en el proceso de selección. Supongamos que

procuramos estudiar la asociación entre sedentarismo y desarrollo de accidente

cerebrovascular (ACV). Como el sedentarismo es más frecuente en obesos que

en no obesos, así como lo es el desarrollo de ACV, podríamos considerar a la

obesidad como una variable confusora sobre la asociación que estamos

estudiando. Ahora bien; ¿cómo procederé? ¿excluiré a los obesos, de modo de

evitar “confundir” el efecto del sedentarismo con el de la obesidad? Si así procedo,

no constituiré una muestra demasiado alejada de la población, que desde luego

incorpora obesos entre los sedentarios?. La toma de posición respecto de

restringir el ingreso de sujetos que presentan ciertas variables potencialmente

confusoras es un requisito previo al inicio del estudio.

2.d) En definitiva, se supone que, idealmente, el grupo “expuesto” debería:

i) Estar verdaderamente expuesto (y esto debe ser claramente definido, no

deben existir dudas acerca de lo que significa estar expuesto);

ii) Ser representativo de una población definible y elegible;

iii) La información necesaria debe ser recogida en este grupo con la misma

facilidad y debe ser de tan buena calidad como la obtenida en el grupo de

no expuestos.

8

2.e) Debe definirse si se incluirá de manera fija o dinámica

¿Cómo seleccionar correctamente a los sujetos expuestos y a los no

expuestos?

En primer lugar diremos que cuando hemos de investigar la asociación entre la

exposición a un factor y uno o más eventos, y las potenciales variables confusoras

no son completamente conocidas, el grupo expuesto será un subconjunto de una

población elegible y los no expuestos, una muestra no expuesta representativa de

la misma población. No se recomienda en este caso el “matching” o apareamiento.

Aquí, el control de los factores confusores se llevará a cabo en el análisis

estadístico de los datos. A este diseño de cohortes, preferible cuando estudiamos

la asociación entre un factor y diversos “endpoints” le llamamos “no apareado con

controles internos” (“unmatched, internal controls”).

Por otro lado, cuando procuramos estudiar la asociación entre una exposición y un

evento específico, y las variables confusoras principales son conocidas, los

expuestos serán un subconjunto de una población elegible y los no expuestos

podrán ser sujetos apareados con los expuestos para los potenciales factores

confusores. A este tipo de diseño se lo denomina “apareado con controles

internos”.

Finalmente, cuando no sea posible obtener controles internos, es decir, sujetos

provenientes de la misma población elegible, los expuestos pueden ser sujetos

provenientes de una población expuesta a un alto nivel de exposición y los no

expuestos pueden provenir de otra población con bajo o ningún nivel de

exposición. A este tipo de diseño se lo conoce como “cohortes con controles

externos”.

9

3. La correcta definición del evento. Ello es importantísimo a efectos de evitar

sesgos de clasificación. En necesario tener en cuenta que el desenlace, evento o

“endpoint” puede ser de naturaleza “simple” o bien “combinada” (“aggregate

endpoints”). En efecto, cuando un evento o suceso claro y fácilmente definible se

da en la cohorte con una frecuencia suficiente, podemos emplearlo como punto

final de calidad apropiada. Por ejemplo, puede que si estudiamos una cohorte de

sujetos en prevención secundaria de enfermedad coronaria, la manifestación de

un nuevo infarto podría ser un endpoint apropiado para la evaluación de su

asociación con algún factor de riesgo. Ahora bien; es posible que en ciertas

cohortes el infarto no se desarrolle con gran frecuencia (ej. prevención primaria) y

debamos explorar el uso de endpoints combinados: por ejemplo “desarrollo de

infarto (fatal o no fatal), o angina inestable, o accidente cerebrovascular”. Claro

está que cualquier sujeto que desarrolle un infarto, una angina inestable o un ACV

habrá alcanzado el punto final; ello aumenta el numerador en la incidencia. Desde

luego, paga el precio de la heterogeneidad fisiopatológica, etiopatogénica y

evolutiva:¿no estaremos introduciendo en la misma “bolsa” a casos muy distintos,

considerando a todos ellos como “eventos equiparables”?.

4. Establecimiento del número efectivo de la cohorte y de la duración del

seguimiento. Desde luego, la potencia del estudio es una función del número de

sujetos a incluir. Pero no es este el único aspecto a definir: ¿cuánto tiempo

debemos seguir a los sujetos a efecto de que el estudio realmente resulte útil? En

realidad, la unidad generatriz de la potencia de un estudio de cohortes es el

número de persona-años “útiles” que hemos de tomar en consideración.

10

¿Cómo evaluaremos el efecto de un factor causal sobre la ocurrencia

evento?

Pues bien, en los estudios de cohortes, utilizaremos el Riesgo Relativo.

Repasemos su cálculo y significado mediante un ejemplo.

Ejemplo

Como recordaremos, el Riesgo Relativo será: 1.53 / 0.36 =

4.25 (pueden existir diferencias según el número de

decimales empleados en los cálculos).

¿Existe exceso o reducción de riesgo frente a la exposición

a la vacuna?

La exposición parece incrementar el riesgo de hepatitis. De

hecho, el exceso de riesgo puede ser calculado como: (RR –

1) x 100 = 325%.

Se evaluaron en un distrito el desarrollo de casos de una forma de

hepatitis entre los ancianos internados en instituciones de cuidado

geriátrico expuestos y no expuestos a una vacuna antiinfluenza de

reciente desarrollo:

Casos de

hepatitis

Número de

persona-años

Incidencia (%)

Vacunados 6 393 1.53

No vacunados 7 1939 0.36

Total 13 2332 0.56

11

El intervalo de confianza del 95% que corresponde a este

riesgo relativo es:

1.17 – 14.69 (puede diferir según el método que se emplee

para su evaluación). Por tanto, la asociación resulta

significativa.

La diferencia de riesgos (llamada también “riesgo

atribuible”) será:

1.53 – 0.36 = 1.17 x 100 persona-años –1

El riesgo atribuible, cuando se divide por el riesgo absoluto

en expuestos, da lugar a la “proporción atribuible en

expuestos”, en este caso:

1.17 / 1.53 = 0.76 ó 76%

¿Qué ocurre cuando poseemos más de un posible factor causal?

12

Sigamos, pues, este ejemplo con cierto detalle. En ausencia de ambos factores, la

incidencia de la hepatopatía es, digamos, 2.9 por mil. Ahora bien; en vacunados,

dentro del período estudiado (por ejemplo 1 año), la incidencia se eleva a 8.7 por

Supongamos que, en un intento de reevaluar los hallazgos del estudio de

hepatotoxicidad por la vacuna antiinfluenza, se repite el estudio en otro

distrito. El trabajo se lleva a cabo en población mayor de 60 años, no

internada, y se recaban datos relacionados con consumo de alcohol

(alcoholismo) en esta muestra, obteniéndose los siguientes resultados:

Casos de

hepatitis (por

mil persona-

años

Riesgo

Relativo

Riesgo

atribuible (por

mil persona-

años

No

vacunados,

no

alcohólicos

2.9 1.0 0 (referencia)

Vacunados,

no

alcohólicos

8.7 3.0 5.9

No

vacunados,

alcohólicos

13.1 4.5 10.2

Vacunados

alcohólicos 38.9 13.4 36.0

13

mil; es decir, el riesgo relativo será 8.7 / 2.9 = 3. En alcohólicos no vacunados, el

mismo tipo de hepatopatía presenta una incidencia de 13.1 por mil; el riesgo

relativo será 13.1 / 2.9 = 4.5.

Es interesante plantearnos (si no conociéramos el resultado de la última fila) ¿cuál

sería el valor esperable de hepatopatía si los dos factores (vacunación y

alcoholismo) estuvieran presentes? Aquí existen “a priori” dos posibles formas

posibles responder a esa pregunta antes de conocer el valor de la última fila:

El modelo aditivo:

Consiste en suponer que el resultado de la última fila (vacunados alcohólicos)

debiera ser la consecuencia de la suma de los riesgos atribuibles más el valor de

“riesgo basal” (es decir, el valor de la incidencia del evento en no expuestos a

ninguno de los dos factores). Así: 2.9 por mil + 5.9 por mil + 10.9 por mil = 19.7 por

mil; el riesgo relativo debiera ser, si tal modelo fuera el correcto, 19.7 / 2.9 = 6.8.

El modelo multiplicativo:

Sin embargo, podría suceder que la incidencia en la última fila no resultara

compatible con la simple suma de las incidencias de las restantes. Si la vacuna

incrementa el riesgo 3 veces (RR=3), y el alcoholismo 4.5 veces (RR=4.5), podría

ser concebible que el riesgo de la exposición a ambos factores fuera: 3 x 4.5 =

13.5. Como vemos en el ejemplo, este es el caso en la situación estudiada.

Como vemos, la intervención conjunta de dos factores potencialmente causales

puede incrementar el riesgo de manera aditiva o multiplicativa. Ambos tipos de

sinergismo se presentan en la práctica y, la presunción del modelo que ha de

asumir la exposición múltiple tiene connotaciones matemáticas y de interpretación

epidemiológica relevantes. No será el objeto de esta sesión profundizar en tales

14

aspectos, sino simplemente introducir al lector en la materia, haciéndole prever las

potenciales consecuencias de la exposición a más de un posible factor causal.

3. Estudios de Casos y controles.

En los estudios de casos y controles comparamos la frecuencia de una exposición

anterior a un determinado factor o variable (exposición) en un grupo de sujetos

que presentan una determinada enfermedad o evento (los “casos”), versus la

frecuencia de la exposición a ese mismo factor entre un grupo de sujetos que no

presentan la enfermedad o evento (los “controles”).

Así como en los estudios de cohortes es posible estudiar la asociación de una

determinada exposición con uno o más eventos de interés, en los estudios de

casos y controles es posible estudiar la asociación entre un evento particular y

varias posibles exposiciones.

Una característica importante de los estudios de casos y controles es que resultan

especialmente útiles cuando la frecuencia del evento de interés es baja. Además,

por lo común, los estudios de casos y controles suelen requerir tiempos menores

para la obtención de resultados que los estudios de cohortes, con menores costos.

En los estudios de cohortes, la definición de cada sujeto participante se hace de

acuerdo con su condición de “expuesto” o “no expuesto”. En los estudios de casos

y controles, la definición se hace sobre la base de considerar al sujeto como

portador del evento (caso) o no portador del evento (control).

15

En un estudio de cohortes, este es el sentido de la selección:

Evento SI Evento NO

Exposición SI

A B

Exposición NO

C D

Por tanto, la ocurrencia de los cocientes A / (A + B) y C / (C + D) es natural; la

frecuencia de eventos es, idealmente, de ocurrencia natural como una

consecuencia de la exposición o no al factor. Al inicio podemos saber cuántos

expuestos y cuántos no expuestos tenemos; los eventos se darán o no con el

transcurso del tiempo.

En los estudio de casos y controles, el sentido de la selección es el siguiente:

Evento SI Evento NO

Exposición SI

A B

Exposición NO

C D

Es decir: seleccionamos casos y los controles, y comparamos la frecuencia de

exposición entre ellos. Como comprenderemos, los cocientes A / (A + B) y C / (C

+ D) no son de ocurrencia natural; si elegimos un control por cada caso, los

denominadores (A + B) y (C + D) han de tener un valor distinto del que tendrían si

seleccionáramos 10 controles por cada caso.

16

La medida del efecto en los estudios de casos y controles no puede ser, por tanto

el Riesgo Relativo. Será, en cambio, el Odds Ratio (OR).

Los casos.

En un estudio de casos y controles, los casos pueden ser “incidentes” o

“prevalentes”. Es siempre preferible que, en lo posible, los casos hayan sido

diagnosticados recientemente, es decir sean casos “incidentes”. Los casos que

han sido diagnosticados hace mucho tiempo (“prevalentes”), si bien pueden ser

fáciles de obtener y, de este modo, pueden incrementar el tamaño muestral

rápidamente, tropiezan con varios problemas. En efecto; si la enfermedad fuera

potencialmente mortal ¿no existirá una razón -por nosotros desconocida-, por la

que estos “casos prevalentes” son particularmente resistentes, es decir, una razón

especial que justifique su supervivencia? y si la enfermedad se cura en un tiempo

razonable, ¿por qué ellos no han curado aún? y los casos prevalentes más graves

¿serán accesibles por nosotros o se habrán dirigido a centros de mayor

complejidad en busca de atención especializada? En fin, siempre es posible hallar

objeciones a un trabajo que incluya casos prevalentes. Lamentablemente, no

siempre es fácil incluir casos incidentes, y, en ocasiones, ni siquiera es fácil

concebir ese tipo de casos. Por ejemplo; supongamos que se trata de casos de

obesidad: ¿cuándo decimos que el caso es incidente? O en diabetes tipo 2, aun

en los casos de reciente diagnóstico, ¿la enfermedad ha comenzado hace poco?

Como vemos, no siempre es fácil elegir los casos más seguros para nuestro

estudio.

Los casos pueden ser individuos con la enfermedad o evento de interés obtenidos

a partir de una población definida elegible, por ejemplo un distrito o una ciudad,

durante un período (base primaria), o bien pueden resultar un subconjunto de las

personas con la enfermedad que han sido estudiadas en una institución médica en

un período (base secundaria). Como se comprenderá, los casos obtenidos a partir

17

de una base secundaria pueden estar afectados por sesgos de derivación: es

decir, según el grado de complejidad del centro médico en consideración, la

severidad y otras características de la enfermedad o evento en estudio.

Es común que en la literatura internacional veamos referirse a los estudios casos y

controles como “community-based” o “institution-based”, y a la vez, que los casos

hayan sido o no apareados (o emparejados) con los controles respecto de algunas

variables potencialmente confusoras (“matched” o “unmatched”).

Los controles.

Debemos tener presente la importancia de una correcta clasificación de lo que es

un caso y de lo que entenderemos por control en el contexto de un estudio

particular. Si por dificultades diagnósticas o de otro tipo, incluyéramos dentro del

grupo control a sujetos que en realidad son casos, los resultados se sesgarían

hacia la nulidad de la asociación (“efecto dilución”). Esto es muy posible cuando la

enfermedad es frecuente, y el riesgo de este tipo de sesgo es menos común

cuando la entidad es rara. Por ello insistiremos una vez más en la importancia de

distinguir correctamente “caso” de “control”.

Los grupos control no suelen ser “grupos naturales”, sino que resultan de un

constructo necesario elaborado por el investigador. Ello suele ser fuente de

sesgos que deben minimizarse.

Un tipo particularmente interesante de estudio casos y controles es el llamado

“casos y controles anidado en una cohorte”. Aquí, los casos son sujetos que han

desarrollado el evento mientras eran seguidos en un estudio de cohortes, y los

controles, una muestra de sujetos sin el evento provenientes del mismo estudio.

Compartiendo la misma base, estos estudios suelen ofrecer menos tendencia a

sesgos de selección.

18

El apareamiento, emparejamiento o matching.

Consiste en seleccionar uno o más controles que se asemejen a un caso.

Pretende equilibrar la proporción de casos y controles por cada categoría de cada

una de las variables por las que se aparea. Pretende de este modo controlar la

influencia de confusores.

Sin embargo, desde luego, no podrá estudiarse el efecto sobre la enfermedad de

las variables por las cuales se aparea. Y puede producirse, en ocasiones, el

llamado efecto de sobreapareamiento: debemos aparear sólo por potenciales

confusores, evitar el apareamiento excesivo.

Algunos sesgos en estudios de casos y controles.

Tres tipos de sesgos que afectan la determinación de la frecuencia de exposición

deben tenerse especialmente en consideración en los estudios de casos y

controles:

1. Cuando signos o síntomas tempranos dan origen a intervenciones terapéuticas,

puede ser difícil registrar la frecuencia de exposición, porque la misma puede

haber sido modificada, en términos de intensidad, por recomendación del médico.

2. Es por lo general más fácil que el enfermo (caso) recuerde la exposición a un

determinado factor que su correspondiente control (sesgo de rememoración o de

“recall”).

3. En los casos, puede existir una tendencia exagerada hacia la búsqueda de la

exposición respecto de los controles. Como es natural, muchas veces “forzamos”

la exploración con mayor énfasis en aquellos sujetos a los que sabemos enfermos,

respecto de quienes no lo están.

19

4. El ensayo clínico.

Como hemos adelantado en la sesión primera, el ensayo clínico es un

experimento éticamente justificado llevado a cabo en seres humanos.

En este experimento, la variable independiente de mayor relevancia es la

exposición a un agente cuya introducción en el sistema resulta de la intervención

deliberada del observador.

La o las variables dependientes pueden ser una o múltiples, de naturaleza cuali o

cuantitativa.

Como también hemos mencionado, tres principios rigen el ensayo clínico:

1. El principio de comparación;

2. El principio de significación, y,

3. El principio de causalidad.

Desde el punto de vista de sus objetivos, los ensayos clínicos pueden ser

clasificados de la siguiente forma:

a) Aquellos que procuran identificar una diferencia relevante entre categorías de la

variable intervención;

b) Aquellos que procuran establecer la existencia de “equivalencia” entre las

categorías de la intervención.

La búsqueda de diferencias relevantes entre las categorías de la variable

independiente (por ejemplo, diferencia en la incidencia de infección entre

vacunados –una de las categorías de la variable independiente- y no vacunados –

la otra categoría), define un objetivo típico de numerosos ensayos clínicos llevados

a cabo a lo largo de la historia. Conviene insistir aquí en un aspecto central de

esta búsqueda de diferencias relevantes: no es lo mismo detectar una diferencia

clínicamente relevante que una estadísticamente significativa. Idealmente, una

20

diferencia es importante desde el punto de vista científico cuando asume las dos

condiciones (esto es, relevancia clínica y significación estadística).

Desde un punto de vista estadístico, y de manera puramente intuitiva, podríamos

hallar dos configuraciones para nuestra hipótesis en los estudios que procuran

identificar diferencias entre las categorías de la intervención:

* Una hipótesis nula (H0), de la forma “no existe diferencia entre las categorías de

la intervención”;

* Una hipótesis alterna (H1), de la forma “existe diferencia entre las categorías de

la intervención”.

El proceso del ensayo clínico debiera perseguir el interés de rechazar o no la H0.

Es decir, la conclusión del estudio clínico deberá ser: 1) se puede rechazar H0,

eso quiere decir que ambas intervenciones tienen efectos diferentes o 2) no se

puede rechazar H0, lo que significa que el estudio no ha arrojado evidencia

suficiente como para poder aseverar que ambas intervenciones producen efectos

diferentes.

En los estudios de “equivalencia”, siguiendo la teoría desarrollada por Schuirmann

y colaboradores, las hipótesis asumen las siguientes conformaciones:

* H0 : Las categorías de la intervención NO SON equivalentes (ejemplo: “las dos

drogas no son equivalentes”).

* H1 : Las categorías de la intervención SON equivalentes (ejemplo: “las dos

drogas son equivalentes”).

Continuando con el razonamiento anterior, el estudio clínico puede tener 2

conclusiones posibles: 1) se puede rechazar H0, aseverando por tanto que las dos

21

drogas son equivalentes, o 2) no se puede rechazar H0, lo que implica que no hay

evidencia suficiente para aseverar que ambas drogas tienen efectos diferenciales.

Las diferencias entre ambos enfoques son sutiles pero de gran importancia.

Obsérvese que la opción “aceptar H0” no está presente en ningún caso. Esto es

así porque corrientemente se considera que si un estudio científico no ha podido

obtener suficiente evidencia para demostrar lo que se pretendía demostrar, otro

estudio podrá hacerlo en el futuro. Así, si no podemos rechazar H0, concluimos

justamente eso “que no hay suficiente evidencia como para rechazar H0”. Por

ejemplo, respecto de la situación anterior, resulta inmediatamente obvio que nunca

podremos demostrar que dos intervenciones son equivalentes. Debemos a

Schuirmann y colaboradores la elaboración de la teoría estadística que permite

evaluar la equivalencia entre intervenciones y que ya hemos expuesto.

En la consideración de cualquier ensayo clínico, los siguientes aspectos son muy

relevantes:

1. ¿Cuál/es es/son la/s pregunta/s a responder? ¿Son ellas suficientemente

importantes? ¿Son susceptibles de ser respondidas a través de este tipo de

investigación? ¿Estamos explorando la existencia de diferencias o de

equivalencia?

2. ¿Cómo se ha de estructurar el diseño del estudio? ¿Cuál es el plan?

3. Sujetos a estudiar:

3.1. Criterios de selección: de inclusión y de exclusión

3.2. Diseño y toma de la muestra

22

4. Variables a estudiar:

4.1. Variable predictora / Exposición (tratamientos)

4.2. “Outcomes” o resultados (variable dependiente, de naturaleza cuali o

cuantitativa)

4.3. Variables confusoras

5. Control de las fuentes de error:

5.1. Control del error aleatorio y cálculo del tamaño muestral

5.2. Control de sesgos

Algunos de los sesgos comúnmente cometidos en los ensayos clínicos se ubican

entre los siguientes:

* Selección

* Procedimientos

* Exclusión arbitraria post-ingreso

* Pérdida selectiva de datos

* Sospecha diagnóstica o de exposición (sospecha de que el evento se

desarrollará más probablemente en el sujeto tratado menos intensivamente)

* Adopción de definiciones retroactivas

El diseño del ensayo clínico, como el diseño de cualquier experimento clásico,

implica:

1. El diseño de los tratamientos (categorías de la variable intervención);

2. El diseño de los procedimientos para el control de errores;

3. El diseño de la muestra y de los procedimientos de observación y recolección

de resultados.

23

En relación con el diseño de los tratamientos, la primera pregunta es: ¿él o los

tratamientos? La respuesta no es sencilla. Por lo general, la respuesta debiera ser

“los tratamientos”. Desde el inicio hemos sostenido la importancia del principio de

comparación. ¿Es mi tratamiento igual o mejor que...?. Volveremos a este punto

más adelante. Sin embargo, debemos señalar que cuando se trata de fases

iniciales del estudio de un fármaco (fase I de la Farmacología Clínica) se admite la

administración a voluntarios sanos de un único tratamiento a efectos de explorar

algunos aspectos muy específicos y relevantes (seguridad, cinética en voluntarios

sanos, etc).

La existencia de otros tratamientos, además del que se halla bajo estudio, o de

tratamiento y placebo –si correspondiere- , es muy importante porque:

a) Como hemos dicho, sostiene el principio de comparación;

b) Limita el error de inferencia atribuible a expectativas del paciente, de su familia

o del médico; los cambios introducidos por la evolución espontánea de la

enfermedad, el fenómeno de “regresión a la media” (es decir el fenómeno por el

cual los sujetos que están más gravemente afectados por una condición

determinada muestran la tendencia en el curso del tiempo a mostrar valores más

cercanos a la media de la población), etc.

Además del tratamiento activo bajo estudio, debemos considerar la constitución

como control de uno o más de los siguientes grupos concurrentes:

1. Placebo.

2. No tratamiento.

3. Otro activo diferente del que se halla en estudio.

4. Dosis diferente o régimen de administración distinto del mismo activo bajo

estudio.

24

Respecto del control de errores, múltiples aspectos deben ser tenidos en

consideración. Uno de ellos, de enorme importancia, radica en la asignación

aleatoria de los sujetos a cada grupo o randomización. Este procedimiento:

a) Limita los sesgos de selección promovidos por la subjetividad (“prefiero a este

paciente para éste tratamiento y no a aquél...”)

b) Tiende a equilibrar la distribución e influencia de factores confusores

desconocidos

c) La randomización estratificada o en bloques ayuda a equilibrar la distribución

de factores pronósticos distintos de la intervención.

Otro procedimiento vinculado al control de errores consiste en el establecimiento

de “ciegos”. Las técnicas de cegamiento (ciego simple, doble o triple), tienden a

poner límites a la subjetividad, a las expectativas de parte del paciente, su familia

o del médico y a los llamados sesgos de evaluación o información. Este sesgo

consiste en tender a evaluar de manera diferente a aquellos sujetos a los que

sabemos expuestos a tratamientos clásicos o supuestamente menos efectivos.

Existen diversos diseños de ensayos clínicos. Por su importancia, sólo haremos

referencia a tres de estos tipos de diseño, probablemente los más frecuentemente

empleados: diseño de grupos paralelos, diseño cruzado y ensayo clínico factorial.

La teoría sobre la que se fundamentan los dos primeros tipos de diseño (grupos

paralelos y cruzados) es la del “nesting” o “anidamiento”. En efecto, se dice que

en los diseños de grupos paralelos, los pacientes “anidan” dentro de cada grupo al

que ha sido asignado; en cambio, se define a los diseños cruzados como “non-

nested”.

En el diseño de grupos paralelos, los pacientes son asignados a alguno de los

múltiples tratamientos (al menos dos), donde son seguidos hasta la finalización del

25

estudio. Los pacientes son aleatoriamente asignados a un tratamiento. En estos

estudios, existen dos fuentes de variación claramente identificables: la variación

interindividual y la intraindividual. La primera hace referencia a las diferencias que

podemos encontrar entre los dos grupos, que en este tipo de estudios debería ser

debida a las diferentes intervenciones aplicadas. Por otro lado, los sujetos de cada

grupo pueden variar en relación a su estado de base y en este caso, puede que la

variación sea debida al tratamiento aunque también puede deberse a otras

causas.

En los estudios cruzados, los pacientes son randomizados a una determinada

secuencia; por ejemplo, algunos de ellos primero reciben la droga X y luego la Y, y

otros, primero la Y y luego la X. Pero precisamente por ello, se elimina una fuente

de variación: la interindividual, dado que todos los sujetos han de recibir ambos

tratamientos. Por ello se sostiene que requieren en principio un tamaño muestral

menor que el exigible para un estudio de grupos paralelos. Sin embargo, los

estudios cruzados tienen sus problemas:

a) los diseños cruzados no pueden ser empleados en enfermedades que pueden

curar con la primera secuencia de tratamiento, o cuando su variabilidad es muy

amplia;

b) puede verificarse el traslado del efecto de un tratamiento al siguiente período;

por ejemplo, los efectos del tratamiento X podrían extenderse al período en el que

el sujeto es tratado con Y. Ello se conoce como “carry-over effect” y para limitarlo,

suele disponerse entre ambos tratamientos un período de lavado o “wash-out”. Sin

embargo, la duración de este período es a veces difícil de estimar con seguridad.

c) Cuando un paciente abandona el estudio en un período, su pérdida tiene un

efecto mayor al del abandono de un sujeto en un estudio de grupos paralelos;

d) son más largos que un estudio de grupos paralelos comparable;

26

Los diseños factoriales exploran el efecto conjunto de más de un tratamiento. Por

ejemplo:

Droga A NO Droga A

Droga B N1 N2

NO Droga B N3 N4

Donde N es el número de pacientes en cada caso.

Como vemos, los estudios factoriales permite estudiar el efecto de ambas drogas

(A y B) aisladas, pero también administradas en forma conjunta, lo que permite

estudiar un eventual sinergismo.

5. Sesgos en investigación clínica

Un sesgo, en sentido amplio y palabras sencillas, es una desviación de la verdad.

En otras palabras, son factores que distorsionan la relación real entre un factor y

un evento y generan resultados que no reflejan dicha relación. Cuando analizamos

el resultado de un estudios de investigación, deberemos tener siempre en cuenta

que un sesgo puede ser una explicación alternativa a la relación causal entre el

factor y el evento estudiados. De esta manera, luego de excluir todas las causas

posibles de sesgos podremos concluir que dicho estudio provee evidencia

convincente acerca de la presencia o ausencia de una relación causal entre el

factor y el evento en estudio.

Los sesgos afectan la validez interna y externa de los estudios. La validez interna

de un estudio es la capacidad que tiene dicho estudio de detectar la relación

causal que se está buscando. La validez externa hace referencia a la posibilidad

de extrapolar los resultados obtenidos a la población blanco. Todos los estudios

27

sufren de sesgos, el desafío del investigador es minimizarlos o si ocurren,

identificarlos, reportarlos y poder identificar sus efectos sobre el resultado. Sin

embargo, conviene agregar que los estudios observacionales presentan sesgos

que muchas veces son difíciles de solucionar. Por el contrario, los estudios

clínicos aleatorizados controlados con placebo tienen mínimos sesgos, siempre

que sean bien diseñados y conducidos.

A continuación comentaremos dichos sesgos, comenzando con tres ejemplos.

Ejemplo 1

Se lleva a cabo un estudio prospectivo del tipo cohortes, en

21.076 trabajadores de una empresa automotriz. Se observa

que la exposición a un determinado factor presente en su

ámbito laboral reduce el riesgo de una cierta enfermedad,

cuando se los compara con 24.507 personas de la población

general.

Pero, ¿son los trabajadores comparables con la población general?;¿no podría

deberse la diferencia a que en esa empresa el examen de ingreso pre-laboral es

extremadamente estricto y, por tanto, suelen presentar un mejor estado de salud

que la gente que proviene de la población general, aun cuando se la ajusta por

sexo y edad?...

28

Ejemplo 2

En un ensayo clínico, 6435 pacientes con diabetes mellitus

tipo 2 son expuestos aleatoriamente a uno de los siguientes

tratamientos: uno intensivo (Int) y otro convencional (Conv)

–menos intenso-. Se espera una reducción de los valores de

hemoglobina glicosilada sustancialmente mayor en el grupo

Int. Se pretende además conocer si el tratamiento Int retarda

la progresión de la lesión microvascular de la retina

(retinopatía), cuando se lo compara con Conv. Por razones

de practicidad, el estudio es abierto: tanto el médico como

el paciente saben a qué grupo pertenece.

Al final del estudio, los diabéticos incluidos en Int presentan una menor tasa de

progresión hacia retinopatía. Pero, ¿qué tal si, al conocer que un paciente está en

el grupo Conv, los médicos tienen la tendencia a buscar con mayor detenimiento

la presencia de lesión vascular?

29

Ejemplo 3

En un estudio de casos y controles se pretende conocer la

asociación entre la presencia de artritis reumatoidea (AR) y

los antecedentes familiares de la misma enfermedad. Los

casos son pacientes con AR; los controles, personas de la

población general.

Se detecta que la frecuencia de historia familiar es mayor en los pacientes con AR.

Pero, ¿no es más fácil recordar (o aun recabar) el antecedente entre los sujetos

efectivamente enfermos que en personas por lo demás sanas?...

Conclusión

En el próximo documento nos ocuparemos de los sesgos en

investigación clínica. Recuerde que el objetivo del

investigador es diseñar y conducir estudios que presenten

la menor cantidad posibles de sesgos, siempre tratando de

evitar aquellos que resultan fatales para el estudio. No

olvidemos que el objetivo de todo estudio es intentar arribar

a los objetivos propuestos.