anovacap

22
1 ANÁLISIS DE LA VARIANZA 1.- Introducción ....................................................................................................................2 2.- Hipótesis y análisis estadístico .......................................................................................2 3.- Aplicación práctica. Cálculo manual ..............................................................................6 4. -Aplicación práctica. SPSS ..............................................................................................9 5.- Comparaciones a posteriori ..........................................................................................14 6. - Componentes de variación...........................................................................................18 7. -Tamaño de efecto..........................................................................................................21 Carlos Camacho Universidad de Sevilla

description

analisis de varianza

Transcript of anovacap

  • 1

    ANLISIS DE LA VARIANZA

    1.- Introduccin ....................................................................................................................2 2.- Hiptesis y anlisis estadstico .......................................................................................2 3.- Aplicacin prctica. Clculo manual ..............................................................................6 4. -Aplicacin prctica. SPSS ..............................................................................................9 5.- Comparaciones a posteriori ..........................................................................................14 6. - Componentes de variacin...........................................................................................18 7. -Tamao de efecto..........................................................................................................21

    Carlos Camacho

    Universidad de Sevilla

  • 2

    ANLISIS DE LA VARIANZA

    1.- Introduccin

    Podemos considerar el anlisis de la varianza (ANOVA) como una generalizacin del contraste de medias. En el contraste de medias comparbamos 2 medias, ahora podemos comparar 2 o ms. En este sentido incluye el contraste de medias, que tambin puede realizarse mediante el anlisis de la varianza, aunque por su simplicidad y facilidad de clculo se aconseja el contraste de medias para cuando comparamos 2 medias.

    Supongamos que en lugar de comparar nios con nias en matemticas, que es lo que haramos en el contraste de medias, quisiramos comparar raza (blancos, negros e hispanos) en la mencionada prueba de matemticas. Aqu ya tendramos 3 medias, y aunque nada impedira realizar 3 contrastes de medias por separado (blanco con negros, blanco con hispanos y negros con hispanos), est claro que este procedimiento puede resultar laborioso, especialmente si hay una cierta cantidad de medias, como 4 o 5. En este sentido, el ANOVA presenta la ventaja que en un nico anlisis ya podemos determinar si las medias son iguales o no. Saber cules no lo son en caso de que no lo sea, ya es otra cosa, como veremos.

    El contraste se denomina anlisis de la varianza (y no contraste o anlisis de medias, por ejemplo) porque analizando la varianza de las medias ya podemos saber si ests son iguales o no. Si la varianza de las medias observadas es mayor que la esperada por azar desde la perspectiva de la hiptesis nula (todas las medias proceden de poblaciones iguales) supondremos que son diferentes. Lo explicamos.

    2.- Hiptesis y anlisis estadstico

    Supongamos que tenemos k medias observadas en k muestras. Nos preguntamos si tales medias son iguales, o su equivalente en trminos estadsticos, si proceden de poblaciones con igual media. Como en toda prueba de decisin estadstica, tenemos 2 posibles hiptesis:

    Hiptesis nula (H0):

    Las k medias proceden de k poblaciones caracterizadas por la misma media

    1 = 2 = 3 . = Hiptesis alternativa (H1):

    Las k medias proceden de k poblaciones no todas caracterizadas por la misma media

    1 2 3 .

  • 3

    Obsrvese que la Hiptesis alternativa indica que no todas las medias son iguales, que no equivale a decir que todas son distintas. Basta que una sea diferente y el resto iguales para que ya no se cumpla la Hiptesis nula.

    En trminos matemticos se trata de comparar la varianza observada de las medias con la varianza que debera haber si todas las medias procediesen de poblaciones con igual media.

    Con respecto a la varianza observada de las medias tenemos que:

    2 = ( )2

    1

    1 Siendo: : La media del grupo : La media total Y respecto a la varianza de las medias procedentes de poblaciones con igual media, se sabe que la distribucin muestral de medias de tamao n extradas de una cierta poblacin con media y varianza 2 tiene por valor:

    2 = 2

    Tenemos pues, dos varianzas: la varianza de las medias observadas y la varianza que tendran las medias si stas procediesen de poblaciones con igual media (que es equivalente a decir que de una misma poblacin).

    La prueba estadstica que nos permite comparar varianzas es la F de Snedecor (tambin Fisher-Snedecor). Se trata de calcular el cociente entre dos varianzas dadas y determinar si ambas varianzas proceden de poblaciones con igual varianza. Para ello se calcula la distribucin muestral de cocientes de varianzas procedentes de poblaciones con igual varianza, y se comprueba si el cociente entre las dos varianzas objeto de nuestro estudio se encuentra dentro de esta distribucin muestral.

    F de Snedecor

  • 4

    Como se sabe hay dos procedimientos, uno prehistrico, reflejado en la figura anterior, consistente en marcar una ciertas fronteras y decidir aceptar o rechazar la Ho si el cociente est dentro o fuera de estas fronteras y el segundo, ms realista, consistente en calcular la probabilidad exacta de pertenencia de tal cociente. Mientras que en primero podramos concluir con el impreciso discurso de con un riesgo mximo de equivocarnos del 0.05 (o 0.01), (y que puede ser en realidad 0.0499 o bien 0.000001), en el segundo especificaramos con toda precisin la probabilidad de equivocarnos en tal decisin.

    Calculemos, pues, el cociente entre estas dos varianzas:

    = 2 2

    = 2 2

    En cuanto al numerador, ya hemos indicado la expresin de la varianza de las medias, que no es ms que la varianza normal y corriente, pero en lugar de aplicarse a puntuaciones individuales se aplican a medias. Y en cuanto al denominador hay que decir que la varianza poblacional es desconocida si slo trabajamos con muestras. Lo que hacemos (desde la Ho: todas las muestras proceden de poblaciones iguales) es estimar la varianza poblacional a partir de las varianzas muestrales. Si tenemos varias muestras, lo razonable es la media de esas varianzas. Por tanto:

    2 = 2=1

    Haciendo operaciones: 2 = 2

    =1

    = 2=1

    1=1

    = 2=1

    ( 1) = 2=1

    =1

    =1

    Por tanto:

    = 2 2

    = 2 2

    = ( )2=1 1

    2=1 =1

    Cuyo numerador expresa la varianza entre las medias de los grupos multiplicado por el nmero de individuos por grupo. El resultado ser la varianza de los distintos individuos entre las medias de los grupos. Si elegimos la media de cada grupo como su valor representativo, entonces dicho numerador refleja la varianza de los individuos entre los grupos. Se denomina, por ello, varianza intergrupo. Tambin se suele denominar, varianza debida a los tratamientos, si los grupos son el resultado de aplicar diferentes tratamientos. Por otro lado, si nos encontramos en un contexto experimental, la denominaremos varianza experimental. O bien, si estamos hablando, en un sentido ms amplio, de un cierto modelo a contrastar, varianza explicada por el modelo.

  • 5

    En denominador indica cmo varan los datos, por trmino medio, dentro de los distintos grupos. Por esta razn se conoce como varianza intragrupo. Si suponemos que los sujetos de un grupo han sido sometidos todos ellos al mismo tratamiento, la variabilidad entre ellos ser debida a aquellas variables que no hemos podido controlar en nuestra investigacin; por lo que tambin se suele llamar (especialmente en contexto experimental), varianza del error. Desde el punto de vista del modelo que estamos ensayando, varianza no explicada. Tambin tiene denominaciones tales como varianza debida al azar, varianza aleatoria o varianza residual, todos ellas correspondientes al mismo concepto En base a lo expuesto pueden ofrecerse diferentes perspectivas en el anlisis de la varianza. Si entendemos el cociente F como el cociente entre la varianza intergrupo y la varianza intragrupo, nos planteamos entonces, si los sujetos varan ms entre grupo y grupo que dentro de los grupos. Si sucediera que los individuos variaran ms de grupo a grupo que dentro de los mismos grupos, ser indicativo que los grupos son distintos entre s, lo que traducido en trminos estadsticos reflejara que dichos grupos proceden de diferentes poblaciones. Si nos planteamos el cociente entre la varianza experimental (o debida a los tratamientos) y la varianza debida al error, concluiremos, de ser este cociente significativo, que los tratamientos son efectivos, que la experimentacin ha mostrado diferencias significativas, que dominan sobre el componente de error (lo que se encuentra fuera de control experimental). Por ltimo, si estamos hablando de un cierto modelo (psicolgico, social, biolgico etc.) y el cociente F es significativo concluiremos que la parte que explica nuestro modelo es mayor que aquella parte que la parte queda sin explicar, y que por tanto, nuestro modelo es vlido Denominaremos al numerador de la varianza intergrupo, suma de cuadrados intergrupo. Expresa el cuadrado de las desviaciones de los individuos, en cuanto grupo, de la media total. Esto es:

    .. = ( )2=1

    Su denominador hace referencia a los grados de libertad intergrupo:

    . . = 1 Igualmente, el numerador de la varianza intragrupo expresa el cuadrado de las desviaciones de los individuos respecto a la media de su grupo. Se denomina suma de cuadrados intragrupo:

    .. = 2=1

    =1

    y el denominador de la varianza intragrupo corresponder a los grados de libertad intragrupo:

    . . =

  • 6

    3.- Aplicacin prctica. Clculo manual

    En este apartado para una mayor comprensin del planteamiento realizado procederemos a resolver un problema de anlisis de la varianza mediante clculo a mano. En el siguiente aparatado lo haremos mediante SPSS y mostraremos las equivalencias.

    Ejemplo1.- Supongamos que tenemos tres grupos de estudiantes de matemticas a los que hemos aplicado tres mtodos de enseanza distintos: A, B y C. Tenemos los siguientes resultados:

    A B C _____________

    6 5 7 7 6 6 6 5 6 5 5 7 4 4 8 5 5 8 7 5 7 5 6 6

    _____________

    Podemos considerar que existen diferencias entre los distintos mtodos de enseanza?

    SOL:

    Apliquemos (1):

    = ( )2=1 1

    2=1 =1

    Calculemos en primer lugar las medias:

    = = 6 + 7 + 6 + 5 + 4 + 5 + 7 + 58 = 458 = 5.625

    = = 5 + 6 + 5 + 5 + 4 + 5 + 5 + 68 = 418 = 5.125

    = = 7 + 6 + 6 + 7 + 8 + 8 + 7 + 68 = 558 = 6.875

  • 7

    La media total ser:

    = = 5.625 + 5.125 + 6.8753 = 17.6253 = 5.875 Y la varianza de las medias:

    2 = ( )2=1

    1 = (5.625 5.875)2 + (5.125 5.875)2 + (6.875 5.875)22 = 1.6252 = 0.8125

    Y en relacin a las varianzas de los grupos:

    2 = ( )2=1

    1 = (6 5.625)2 + (7 5.625)2 + (6 5.625)2 + + (5 5.625)27 = 7.8757 = 1.125

    2 = ( )2=1

    1 = (5 5.125)2 + (6 5.125)2 + (5 5.125)2 + + (6 5.125)27 = 2.8777 = 0.411

    2 = ( )2=1

    1 = (7 6.875)2 + (6 6.875)2 + (6 6.875)2 + + (6 6.875)27 = 4.8727 = 0.696

    = ( )2=1 1

    2=1 =1 = 8 1.625/2(7.875 + 2.877 + 4.872)/21 = 13/215.624/21 = 6.50.744 = 8.737

    Hemos desglosados detalladamente las operaciones para ver ms claramente los elementos implicados y tambin para una mayor comprensin de tabla de resultados que ms tarde obtendremos con el SPSS. De Acuerdo con esto, de la anterior expresin tenemos lo siguiente:

    = 13 = 2 = 15.624 = 21 = 6.5 = 0.744 () = 8.737 Para comprobar la efectividad de los mtodos de enseanza, tenemos los dos procedimientos mencionado anteriormente. El primero consiste en comparar el valor F obtenido con la frontera que hemos indicado, que marca el lmite de aceptacin/rechazo de la Ho. Este lmite depende del valor de F

  • 8

    obtenido y de los grados de libertad de la varianza intergrupo e intragrupo. En este caso, el valor F es 8.737 y los grados de libertad intergrupo, 2 y la intragrupo, 21. Hemos de comparar, pues con (8.737,2,21). Buscamos en las tablas de F de Snedecor:

    Observamos que su valor es 3.47. Por tanto, 8.737 > 3.47. En consecuencia, rechazamos la Ho con un riesgo de equivocarnos (mximo) de 0.05. Como hemos dicho este procedimiento slo indica el riesgo mximo posible, pero no el real. Si hemos de ser ms precisos, ya que no tenemos el SPSS para que nos lo haga, recurriremos a tablas estadsticas on line:

    La probabilidad que de dos poblaciones con igual varianza extraigamos por azar una varianza que sea 8.737 veces mayor que la otra (o ms) es 0.0017. Como es mucha casualidad que justamente esta vez sea ese caso, concluimos que esas dos varianzas no proceden de dos poblaciones con igual varianza, pero para no pillarnos los dedos, porque podra ocurrir, ponemos la coletilla de con un riesgo de equivocarnos de 0.0017, que son las veces que podra ocurrir por azar. Aqu ya andamos con ms precisin, no decimos que como mximo es 0.05, sino que concretamos bastante ms.

  • 9

    4.- Aplicacin prctica. SPSS

    Retomemos estos datos y realicemos ahora los clculos con SPSS. Veremos la equivalencia con los anlisis previos. El formato de los datos ha de ser una primera columna, que hace referencia a la variable mtodo de enseanza con 3 niveles: 1, 2 y 3. La segunda columna son las puntaciones en matemticas:

    Procedemos de la siguiente manera:

    Y a continuacin:

  • 10

    Los resultados:

    Obsrvese que los resultados son equivalentes a los que ya vimos anteriormente, y que volvemos a mostrar:

    = ( )2=1 1

    2=1 =1 = 8 1.625/2(7.875 + 2.877 + 4.872)/21 = 13/215.624/21 = 6.50.744 = 8.737

    En cuanto a la probabilidad, si hacemos doble clic sobre su valor de significacin:

    Obtendremos exactamente el mismo valor de 0.0017

  • 11

    La salida anterior es la ms simple que nos proporciona el SPSS, pero tenemos opciones para mejorarla. La primera hace referencia a los supuestos del modelo, que son exactamente los mismos que los del contraste de medias, esto es, normalidad de los grupos en las poblaciones orgenes e igualdad de varianzas en esasmismas poblaciones. La primera no es muy restrictiva y podemos obviarla con muestras grandes, y con muestras chicas tampoco hay que preocuparse mucho por cuanto el error no suele ir ms all de 0.06 o 0.07 que no se puede decir que sea tan distinto del 0.05 de la probabiliad que establece la Ho en el supuesto de normalidad. De hecho en el ANOVA de SPSS no se contempla el supuesto de normalidad. Habitualmente los recursos son grficos, lo que ya indica que el ojmetro es practicamente suficiente como medida de normalidad. No obstante uno puede irse a Descriptivos/Exploratorio donde podr aplicar la pruebas ms rigurosas de Kolmogov y Shapiro. En el caso de no cumplirse el supuesto de normalidad para el ANOVA se aplica la prueba no paramtrica de Kruskal Wallis.

    La exigencia de igualdad de varianzas es algo ms restrictiva, aunque tampoco demasiado, en el sentido de que las pruebas paramtricas son bastantes robustas en la violacin de sus supuestos. No obstante, dada su mayor importancia ya se contempla en el SPSS. En caso de no existir igualdad de varianzas se aplica la prueba de Welch. Y la prueba para comprobar la igualdad de varianzas es, como se sabe, la prueba de Levene.

    En este sentido podemos mejorar nuestro anlisis de la siguiente manera:

    Marcamos Opciones:

  • 12

    Obtenemos, adems de la tabla de anlisis de varianza, ya mostrada:

    Se ofrecen los descriptivos habituales, como la media y la desviacin tipo (o estndar). Los errores tipo (o estndar) son precisamente las desviaciones tipo de las distintas distribuciones de medias, que tienen espcial inters en los contrastes. Los intervalos de confianza nos dicen que por ejemplo, en el mtodo A el 95% de las medias oscilan entre 4.73827 y 6.51173 puntos. Esto ya es de por s un indicador (con ciertas precauciones) para comprobar si las medias observadas proceden o no de poblaciones iguales. As, si comparamos el mtodo A con el B vemos que sus intervalos de confianza se solapan bastante, lo que nos indica que hay posibles poblaciones comunes de donde podra proceder, por tanto no podramos concluir que el mtodo A y el B sean diferentes. Por el contrario, si comparamos el mtodo B con el C, vemos que no hay solpamiento en sus intervalos de confianza, lo que nos indicarn que no habr poblaciones comunes de donde puedan proceder y enconsecuencia concluyamos que sus poblaciones orgenes son diferentes, o sea, que los mtodos B y C difieren.

  • 13

    La prueba de Levene sobre igualdad de varianzas:

    Se cumple la igualdad de varianzas. Aunque no es necesaria, aplicamos la prueba de Welch, que es la alternativa al ANOVA cuando no se cumple homocedasticidad:

    Y obtenemos un resultado equivalente a la prueba paramtrica del ANOVA.

    Aparte de ello, una salida grfica para las medias, que ya es una cierta aproximacin en la toma de decisiones:

    El grfico nos sugiere que el mtodo C es ms efectivo, pero hay que verlo analticamente.

  • 14

    5.- Comparaciones a posteriori

    La prueba anterior del anlisis de la varianza es una prueba genrica, denominada mnibus, que slo nos indica si todas las medias son iguales o no. Si lo son, se cumple la Ho, y no hay que seguir ms adelante porque ya sabemos que todas las medias son iguales. Si no se cumple, lo que se concluye es que no son todas iguales, lo que no significa que sean todas diferentes. Basta que una no lo sea aunque lo sean todas las dems para rechazar la Ho. Por esta razn, cuando esto sucede hay que proceder a una segunda prueba para decidir, cuales son diferentes y cules son iguales. Es lo que se llama comparaciones a posteriori o post hoc. Se comparan todas las medias dos a dos y se observan cules son diferentes.

    El problema de los contrastes post hoc, es que no se hace uno sino unos cuantos e incluso pueden ser bastantes. En el caso que nos ocupa slo hay 3 posibles contrastes (A-B, A-C y B-C), lo que corresponde a la siguiente frmula: k*(k-1)/2, que aqu ser 3*2/3 = 3, pero si tuviramos 5 grupos ya la cosa se complicara y seran 5*4/2 = 10. El problema de cuando se hacen varios contrastes es que es ms probable que resulte uno significativo cuando no lo es, lo que significa que aumenta nuestra probabilidad de tomar decisiones equivocadas. Si tiramos diez monedas muchas veces es ms probable obtener alguna vez 8 caras que si la tiramos slo una vez. De la misma manera que si un alumno se presenta a un examen de eleccin mltiple varias veces, ser ms probable que alguna de ellas apruebe por azar.

    Si nuestra probabilidad de equivocarnos es mayor del 0.05 (o 0.01) que suponamos, hemos de efectuar correcciones para volver a nuestra probabilidad de partida. Bsicamente consiste en aumentar la exigencia de nuestra prueba, aunque en el caso del alumno, lo dejaremos.

    La lgica de todo ello es como sigue. Si efectuamos un nico contraste la probabilidad de no equivocarnos ser 1 , pero si realizamos n contrastes independientes, la probabilidad de no equivocarnos ser entonces (1 ). En consecuencia, la probabilidad de equivocarnos alguna vez ser 1 (1 ). Por ejemplo, si operamos con un nivel = 0.05 y realizamos 6 contrastes, la probabilidad de equivocarnos alguna vez ser 1 (1 0.5)6 = 0.302, valor muy superior a 0.05. Qu hemos de hacer si queremos que se mantenga nuestro 0.05 de probabilidad de equivocarnos durante varios ensayos?. Pues hemos de modificar el valor de para que en el total de los contrastes nuestra probabilidad de error sea 0.05, que es lo establecido (mejor, convenido). En el caso de estos 6 ensayos: 1 (1 )6 = 0.05 Despejando tenemos que:

    = 1 1 0.056 = 0.0085 Esto es, en el caso de los 6 ensayos hemos de partir de una valor de = 0.0085 para que al final nos equivoquemos en el valor de = 0.05. Este procedimiento se denomina correccin de Bonferroni.

    Como este clculo puede resultar laborioso, tenemos una frmula alternativa no tan precisa pero bastante aceptable:

    =

  • 15

    Donde

    : valor de por contrate (Per Comparation) : valor de para el total (FamilyWise) C: nmero de comparaciones

    As en nuestro caso:

    = = 0.056 = 0.0083

    En este sentido, el SPSS ofrece toda un conjunto de contrastes. El ms sencillo se denomina DMS (Diferencia Mnima Significativa). Est basada en la t de Student y no efecta ninguna correccin (hay que decir que no todos los investigadores estn de acuerdo con estas correcciones). El procedimiento a seguir es:

    Hacemos clic en Post hoc:

  • 16

    Y seleccionamos DMS. El resultado:

    El mtodo C es diferente al A y el B, pero el A y el B no son diferentes entre ellos. Si queremos aplicar Bonferroni:

  • 17

    Los resultados:

    Obsrvese que es coincidente con el procedimiento DMS de Tukey, pero las probabilidades hay que multiplicarlas por 3 (tantas como contrastes realizados). Obsrvese, por ejemplo, que 0.778 = 3*0.259. Al efectuar 3 contrastes pasamos de una probabilidad de equivocarnos de 0.259 con Tukey a 0.778 con Bonferroni.

    Hay que decir que hay bastantes autores inventando contrastes post hoc, cada uno arreglando lo que no arregla el otro, pero para no perdernos, mencionemos uno de especial inters que es el de Sheff, que tambin efecta correcciones sobre (tambin llamado error tipo 1):

  • 18

    Cuyo resultado es:

    Similar a Bonferroni.

    6.- Componentes de variacin

    Vamos a plantear ahora el anlisis de la varianza como un cierto modelo explicativo de la realidad. De esta manera las pruebas estadsticas son modelos que intentan explicar (hasta cierta medida) una determinada parcela de la realidad. Visto as, tenemos que:

    REALIDAD = MODELO + ERROR

    Los modelos estadsticos no siempre son completos y siempre hay una parte que se nos pierde, pero tambin hay que decir que hay una cierta parte que explica y que esa parte podemos cuantificarla y hacernos una idea de la calidad de nuestro modelo. Veremos en las siguientes lneas que la parcela que

  • 19

    nos interesa estudiar presenta una cierta variabilidad en sus datos de inters, y que de esa variabilidad (variabilidad total) conseguimos explicar una parte (variabilidad explicada), que queremos sea lo mayor posible, pero lamentablemente nos queda un resto sin explicar (variabilidad no explicada). De esta forma:

    = + Por ejemplo en relacin a los datos con los que estamos trabajando:

    Tenemos en el primer grfico las puntuaciones de los sujetos en los diferentes mtodos de enseanza, y en el segundo grficos, la puntuacin media en tales mtodos.

    Tomemos el mtodo C. Vamos a seleccionar el primer sujeto, que ha obtenido 7 puntos y vamos a descomponer su distancia respecto a la media total y luego explicaremos que significa cada una de estas distancias. Tenemos que: (7 5.875) = (7 6.875) + (6.875 5.875) Los nombres de estas distancias son los siguientes:

    = + La idea es la siguiente. Imaginemos que aplicamos los tres tratamientos a estos 24 sujetos y a una persona ajena, que no sabe nada de la investigacin (slo el conjunto de datos, pero sin saber qu puntuacin corresponde a quin), se le pregunta cul ser la puntuacin del primer sujeto del grupo C. Si no sabe nada, lo ms razonable es dar la media del conjunto de datos, esto es, 5.875. En ausencia de informacin de los mtodos de enseanza, esta persona se ha equivocado: (7 5.875) = 1.125 Ahora le comunicamos que el sujeto en cuestin (sigue sin saber quin es) pertenece al grupo C y que la gente de ese grupo han sido sometidos s un mtodo de enseanza, cuya media es 6.875. Igual que antes, lo ms razonable es dar le media del grupo de pertenencia, por tanto dicha persona afirmar que lo ms probable es esa media. En este caso, con la informacin de los mtodos de enseanza, el error ha sido:

  • 20

    (7 6.875) = 0.125 Cuando no saba nada de los mtodos de enseanza dijo 5.875 y cuando conoci el proyecto de investigacin ya dijo 6.875. Est claro que la informacin de los mtodos de enseanza ha permitido mejorar su pronstico en: (6.875 5.875) = 1 Podemos decir entonces que la desviacin total es el error en ausencia de informacin, la desviacin explicada es la ganancia que hemos tenido gracias a la aplicacin de los mtodos de enseanza, y la desviacin no explicada es la que no logramos todava explicar con tales mtodos. As pues: (7 5.875) = (7 6.875) + (6.875 5.875) 1.125 = 0.125 + 1 Como hemos dicho antes:

    = + Ya ms formalmente, para el sujeto i del tratamiento j:

    ( ) = + Y para el conjunto de los sujetos, se demuestra:

    2 = 2 + 2

    Esto es:

    = + Que son los indicadores de los distintos componentes de variabilidad:

    = + A partir de esta igualdad podemos obtener un estadstico de extraordinaria importancia, que nos ayudar a entender en trminos sencillos la capacidad explicativa del modelo del anlisis de la varianza. Este estadstico, denominado 2 hace referencia a la proporcin de variabilidad (o variacin) explicada. Esto es:

    2 = .. .. = 2 2

  • 21

    En el caso del ANOVA, la suma de cuadrados explicada es precisamente la intergrupo o la debida a los tratamientos, mientras que la no explicada equivale a la intragrupo (dentro de los grupos). As pues, retomando la tabla del ANOVA:

    Tenemos que:

    2 = 2

    2 = 1328.625 = 0.4541 Podemos afirmar que los mtodos de enseanza explican un 45.41% de la variabilidad obtenida en matemticas. Y la proporcin no explicada ser 1 0.4541 = 0.5459, esto es, el 54.59%.

    7.- Tamao de efecto

    Apliquemos la siguiente expresin:

    = 2 1 2 = 0.4541 1 0.4541 = 0.9121 Tomemos como referencia la siguiente tabla:

    Valor superior a 0.40. Efecto grande.

  • 22