Curso Spss Tercera Parte

download Curso Spss Tercera Parte

of 21

Transcript of Curso Spss Tercera Parte

  • 8/13/2019 Curso Spss Tercera Parte

    1/21

    Juan Manuel Llopis Marn (2009-2012) 62

    TEMA - 7

    COMPARACIN DE MS DE DOS MUESTRASINDEPENDIENTES: ANLISIS DE VARIANZA (ANOVA)

    Y ALTERNATIVAS1.- Introduccin

    Los diseos bsicos o unifactoriales con ms de dos muestras (grupos)independientes son una extensin de los diseos con dos grupos independientes yavisto. Por tanto, esta estructura de investigacin queda caracterizada por un nicofactor o variable independiente que adoptar tres o ms niveles. La principalventaja de este diseo respecto al diseo de dos grupos independientes es quepermite obtener una informacin ms precisa acerca de la relacin funcional entrela variable independiente y la variable dependiente.

    En este tema se va a tratar el Procedimiento de Anlisis de la Varianza (ANOVA). ElANOVA es un procedimiento de contraste de hiptesis. Concretamente, es unaprueba de contraste de medias que compara simultneamente dos o ms medias.Permite contrastar la hiptesis nula de que las diferencias encontradas entre lasmedias de diferentes grupos o niveles de una variable independiente no difierenentre s ms de lo que cabra esperar por efecto del azar. Se denomina Anlisis deVarianza porque es un procedimiento que permite dividir la variabilidad de lavariable dependiente en dos o ms componentes, cada uno de los cuales puede seratribuido a una fuente (variable o factor) identificable. Por tanto, el ANOVA se sueleutilizar para decidir si las diferencias que encontramos en nuestros datos, en lavariable dependiente, una vez se han aplicado los niveles de la(s) variable(s)independiente(s), pueden ser atribuidas, con el margen de error delimitado por el

    nivel de significacin, al efecto de dicha(s) variable(s) independiente(s), o al efectode factores aleatorios o azarosos.

    2.- Supuestos que deben cumplir los datos para poder analizarlos medianteel modelo de ANOVA

    Para poder aplicar correctamente el ANOVA a un conjunto de datos procedentes dela aplicacin de un diseo concreto, dichos datos deben satisfacer los siguientessupuestos bsicos:

    (1) Normalidad: las puntuaciones de los diversos grupos en la variabledependiente (VD) se deben distribuir normalmente, lo que implica que sonmuestras representativas de poblaciones con distribucin normal en esa VD. ElANOVA es robusto al incumplimiento de este supuesto, no obstante, si la muestraes pequea es conveniente evaluarlo.(2) Homocedasticidad: las varianzas poblacionales de los diversos grupos enla VD han de ser homogneas (iguales), lo que implica que tambin lo sean lasvarianzas muestrales. El ANOVA es robusto al incumplimiento de este supuesto contamaos muestrales iguales en todos los grupos y no muy pequeos. No obstante,es aconsejable evaluarlo. Se puede hacer al mismo tiempo que se ejecuta elProcedimiento para el ANOVA, como se ver en los ejemplos.(3) Independencia de la observaciones: las puntuaciones de los diversosgrupos en la VD han de ser independientes, lo que asegura que la razn entre lavarianza debida al efecto de la(s) VI(s) y la varianza debida al efecto del error, sigauna distribucin F de Snedecor con el alfa nominal estipulado y los grados de

    libertad asociados al numerador y al denominador de dicha razn. El ANOVA NO esrobusto al incumplimiento de este supuesto, que se suele incumplir prcticamente

  • 8/13/2019 Curso Spss Tercera Parte

    2/21

    Juan Manuel Llopis Marn (2009-2012) 63

    siempre que los datos proceden de diseos con medidas repetidas. En estos casos,es necesario tener en cuenta otras opciones que se comentarn en el ejemplo deldiseo unifactorial con medidas repetidas.(4) Nivel de medida de la VD: estrictamente, la variable dependiente debeestar medida en una escala de razn o de intervalo.

    3.- El Procedimiento Anlisis de Varianza en SPSSEl procedimiento para realizar un ANOVA en SPSS vara en funcin del tipo dediseo que se haya aplicado en el estudio cuyos datos queramos analizar. Portanto, en este tema vamos a ver cmo realizar e interpretar un ANOVA para undiseo unifactorial multigrupos (entregrupos).

    4.- ANOVA para un Diseo Unifactorial Multigrupos (muestrasindependientes)

    4.1. Supuesto prctico. En un Instituto de Secundaria se plante una discusinen torno a los mtodos ms adecuados para explicar la asignatura de Geografa. Elgrupo de profesores ms conservador era partidario de continuar con la explicacin

    convencional, basada en el estudio sobre el texto. Los innovadores estabandivididos entre dos opiniones: unos eran partidarios de utilizar el estudio de campo,mientras que otros eran partidarios de la utilizacin de ordenadores yrepresentaciones grficas del terreno. Los llamaremos tradicionales, ecolgicos einformticos, respectivamente. Los tradicionales pensaban que su mtodopedaggico producira mejores resultados que los restantes. Los innovadoresestaban de acuerdo en que sus mtodos produciran mejores resultados que el delos tradicionales, pero discrepaban sobre cul de los dos mtodos innovadores serams efectivo: los ecolgicos pensaban que el estudio de campo y los informticoscrean que la utilizacin del ordenador. Despus de ponerse de acuerdo en unmtodo de evaluacin del rendimiento, decidieron comparar el efecto de cadamtodo durante un curso completo. Utilizaron para ello una muestra formada por

    30 alumnos, que fueron asignados aleatoriamente a cada uno de los tres mtodos,formando grupos de 10 alumnos.Fichero Multigrupos.sav.

    4.2. Editor de datos, instrucciones y tipo de anlisis

    Una vez se han introducido los datos en el Editor de datos, en primer lugar, antesde realizar el ANOVA, es conveniente comprobar si los datos que tenemos cumplenlos supuestos necesarios. Normalidad: por ejemplo, mediante el Procedimiento

    Analizar>Estadsticos Descriptivos>Explorar. Homocedasticidad: se evala en elmismo procedimiento que el ANOVA, no es necesario hacerlo antes.Independencia: como los datos proceden de un diseo de grupos aleatorios, laspuntuaciones se consideran independientes y, por tanto, no es necesario evaluareste supuesto. Nivel de medida: la escala de medida que se utiliza es adecuada.Para ejecutar el ANOVA, se elige Analizar>Comparar medias>ANOVA de un factor.

  • 8/13/2019 Curso Spss Tercera Parte

    3/21

    Juan Manuel Llopis Marn (2009-2012) 64

    En esta ventana, se deben indicar la variable dependiente y la independiente:introducimos la VD rendimiento (rend) en Dependientes y la VI (mtodo) en

    Factor. Este procedimiento tiene tres posibilidades adems de realizar la pruebaglobal del ANOVA: Contrastes, Post hoc y Opciones.Tanto la opcin Contrastes como la opcin Post hoc se utilizan para realizarcomparaciones mltiples adicionales a la prueba de ANOVA. La opcin Opcionespermite seleccionar estadsticos descriptivos, la prueba de Levene para comprobarel supuesto de homocedasticidad, grfico para las medias y permite controlar eltratamiento de valores perdidos, tambin permite obtener los valores de dosestadsticos (Brown-Forsythe y Welch) que son preferibles al estadstico F deSnedecor cuando no se cumple el supuesto de homocedasticidad.

    La opcin Contrastes: se utiliza habitualmente si tenemos hiptesis previasacerca del comportamiento de las variables y queremos realizar comparacionesentre los grupos, guiadas por nuestras hiptesis tericas, o realizar anlisis detendencia si la VI es una variable cuantitativa con intervalos iguales entre susniveles. Permite realizar varios contrastes, tanto simples como complejos,pudindose plantear un conjunto de contrastes ortogonales. Para realizar loscontrastes entre medias mediante este procedimiento es necesario asignarcoeficientes adecuados a cada contraste que se vaya a realizar. Hay que tener encuenta que la suma de los coeficientes para cada contraste deber ser cero. Ennuestro ejemplo, podemos plantear dos contrastes ortogonales, por ejemplo, elprimero, el mtodo tradicional frente al mtodo ecolgico e informticoconsiderados conjuntamente (coeficientes: 2, -1, -1), y el segundo, el mtodoecolgico frente al informtico (coeficientes: 0, 1, -1). Los coeficientes se debenintroducir uno a uno respetando el orden establecido para el contraste y pulsarAadir despus de cada entrada. El orden de entrada es importante porque se

    corresponde con el orden de las categoras de la variable independiente o factor.Una vez se han introducido los coeficientes para el primer contraste, pulsarSiguiente para introducir los correspondientes al segundo contraste. DespusContinuar para volver a la ventana principal.

  • 8/13/2019 Curso Spss Tercera Parte

    4/21

    Juan Manuel Llopis Marn (2009-2012) 65

    La opcin Post hoc: se utiliza habitualmente cuando no partimos de hiptesisclaras acerca del comportamiento de las variables y, una vez que el ANOVA haindicado que existen diferencias estadsticamente significativas entre los grupos,queremos realizar todas las comparaciones posibles entre ellos para obtener lamxima informacin. La ventana de comparaciones mltiples permite elegir entredistintos estadsticos para realizar las comparaciones. Casi todos realizancomparaciones simples, entre pares de medias, a excepcin de la prueba deScheff. Es aconsejable seleccionar dos de ellos y comprobar si coinciden losresultados, en este sentido, dos buenas opciones pueden ser la prueba deBonferroni y la de Tukey, para el caso de que no se incumpla el supuesto dehomocedasticidad, y las pruebas T3 o C de Dunnett, si se incumple.

    4.3. Resultados e InterpretacinEn primer lugar, aparecen los descriptivos y la prueba para evaluar el supuesto deigualdad de varianzas que solicitamos en la ventana Opciones.

  • 8/13/2019 Curso Spss Tercera Parte

    5/21

    Juan Manuel Llopis Marn (2009-2012) 66

    Como se puede ver en la tabla, el resultado de la prueba indica que se puedeasumir la igualdad de varianzas de las puntuaciones de los tres grupos implicados.

    A continuacin, aparece la tabla resumen del ANOVA para las variables que hemosindicado. El resultado indica que existen diferencias estadsticamente significativasentre los grupos.

    Seguidamente, la salida proporciona la informacin correspondientes a la opcinContrastes: una tabla con los coeficientes que hemos especificado para loscontrates ortogonales que desebamos realizar, y otra con el resultado de dichoscontrastes. Recordemos que los contrastes que especificamos mediante loscoeficientes eran: el primero, el mtodo tradicional frente al mtodo ecolgico einformtico considerados conjuntamente (coeficientes: 2, -1, -1), y el segundo, elmtodo ecolgico frente al informtico (coeficientes: 0, 1, -1).

    Dado que se ha asumido igualdad de varianzas, los resultados adecuados son los dela primera fila de la tabla. Estos resultados indican que podemos rechazar la H0para el primer contraste, pero no para el segundo. Es decir, que existen diferenciasestadsticamente significativas entre la puntuacin media de los alumnos a los quese les ha aplicado el mtodo tradicional y la media conjunta de los alumnos a losque se les han aplicado los otros dos mtodos. En concreto, si miramos las medias,podemos ver que el rendimiento medio del grupo tradicional es menor que la mediaconjunta de los otros dos grupos. Sin embargo, el resultado del segundo contrasteindica que las diferencias entre las medias de los grupos ecolgico e informtico noresultan estadsticamente significativas, por lo que esa diferencia debe ser atribuidaal efecto del azar. No podemos, por tanto, decir que uno de estos dos mtodos

    produzca un mayor rendimiento que el otro, aunque s que en conjunto, producenun mejor rendimiento que el mtodo tradicional.

  • 8/13/2019 Curso Spss Tercera Parte

    6/21

  • 8/13/2019 Curso Spss Tercera Parte

    7/21

  • 8/13/2019 Curso Spss Tercera Parte

    8/21

    Juan Manuel Llopis Marn (2009-2012) 69

    La salida bsica es:

    Lo que nos lleva a concluir que existen diferencias entre los grupos considerados.La novedad sobre los procedimientos no paramtricos vistos anteriormente se

    establece en que debemos explorar entre qu grupos se encuentra esas diferencias.En este caso no tenemos pruebas no paramtricas a posteriori, por lo queprocederemos a realizar tantas pruebas U de Mann-Whitney como comparacionesse deseen realizar. Teniendo en cuenta que se corrige el nivel de significacin enfuncin de, por ejemplo, la correccin de Bonferroni (/n de comparaciones), en

    nuestro caso 0,05/3 =0,0167. Si ejecutamos Analizar>Pruebas No paramtricas>2muestras independientes, para cada una de las comparaciones, obtenemos queexisten diferencias entres los tres grupos considerados.

  • 8/13/2019 Curso Spss Tercera Parte

    9/21

  • 8/13/2019 Curso Spss Tercera Parte

    10/21

    Juan Manuel Llopis Marn (2009-2012) 71

    La salida bsica es:

    Lo que nos lleva a concluir que existen diferencias entre los grupos considerados.Como hemos indicado anteriormente, debemos explorar entre qu grupos seencuentran esas diferencias.En este caso no tenemos pruebas no paramtricas a posteriori, por lo queprocederemos a realizar tantas pruebas Chi-Cuadrado como comparaciones sedeseen realizar. Teniendo en cuenta que hay que corregir el nivel de significacinen funcin de, por ejemplo, la correccin de Bonferroni que vuelve a establecerseen 0,05/3 =0,0167. Si ejecutamos Analizar>Estadsticos Descriptivos>Tablas deContingencia, para cada una de las comparaciones, obtenemos que existendiferencias entre el grupo bajo y medio (Edad = 1, 2), pero no entre los gruposbajo y alto (Edad = 1, 3), ni entre los grupos medio y alto (Edad = 2, 3).

    Para poder realizar las comparaciones, debemos seleccionar los niveles de lavariable edad.Datos>Seleccionar casos. Luego debemos establecer la opcin Si sesatisface la condicin siguientes:

    edad = 1 OR edad = 2edad = 1 OR edad = 3

    edad = 2 OR edad = 3

    Despus de realizar cada una de las selecciones, ejecutamos Analizar>EstadsticosDescriptivos>Tablas de Contingencia, eligiendo el estadstico Chi-Cuadrado. Losresultados son:

  • 8/13/2019 Curso Spss Tercera Parte

    11/21

  • 8/13/2019 Curso Spss Tercera Parte

    12/21

    Juan Manuel Llopis Marn (2009-2012) 73

    TEMA - 8

    COMPARACIN DE MS DE DOS MUESTRASDEPENDIENTES: ANLISIS DE VARIANZA CON

    MEDIDAS REPETIDAS (ANOVA MR) Y ALTERNATIVAS1.- Caractersticas fundamentales de los diseos con medidas repetidas

    En los diseos de investigacin con medidas repetidas, denominados tambinintrasujetos, a diferencia de los diseos de grupos que se han visto en el temaanterior, cada uno de los sujetos o participantes en la investigacin es sometido atodos los niveles de las variables independientes. Por tanto, cada sujeto tendrtantas puntuaciones como niveles tenga la variable independiente del estudio, en elcaso de un diseo bsico o unifactorial, o como condiciones experimentales sehayan generado, en el caso de un diseo factorial. Es decir, tendremos mspuntuaciones que sujetos participantes en el estudio en cuestin.

    2.- Anlisis de Varianza para un Diseo Unifactorial con Medidas Repetidas

    Al igual que en los diseos anteriores, antes de aplicar el modelo de anlisis de lavarianza a los datos de un determinado estudio, es necesario evaluar los supuestosde aplicacin. Los supuestos de Normalidad y Homogeneidad de varianzas(homocedasticidad) se tienen que evaluar, para este tipo de diseos, previamente ala ejecucin del procedimiento que realiza el ANOVA, como se indicarposteriormente en el ejemplo. Nos pararemos en el supuesto de independencia delas observaciones, ya que es muy importante en los diseos MR.

    En el caso de los diseos con medidas repetidas, dado que son los mismos sujetos

    los que reciben cada una de las condiciones experimentales, es muy probable queaparezca correlacin entre sus puntuaciones y, por tanto, que se incumpla estesupuesto (independencia de las observaciones), que es el ms importante delANOVA. El incumplimiento de este supuesto repercute gravemente en losresultados arrojados por la prueba F, ya que no es robusta ante observacionescorrelacionadas. Concretamente, la correlacin entre las puntuaciones provoca unsesgo positivo en la prueba F, aumentando la probabilidad de cometer errores tipoI. Es decir, aumenta la probabilidad de encontrar resultados estadsticamentesignificativos cuando, realmente, no lo son. Sin embargo, se ha demostrado quepara que el comportamiento de la prueba F sea adecuado, es suficiente con elcumplimiento del denominado supuesto de esfericidad. As que, en la prctica, elsupuesto de independencia de los errores es reemplazado por la asuncin o

    supuesto de esfericidad1

    .

    Por lo tanto, para analizar los datos procedentes de un diseo MR mediante elmodelo univariado de Anlisis de Varianza (ANOVA), ser necesario comprobar sien dichos datos se cumple el supuesto de esfericidad, siempre que la(s) VI(s)implicada(s) tengan ms de dos niveles2.

    Uno de los test ms utilizados para evaluar el supuesto de esfericidad es la W deMauchly (1940). Esta prueba la aporta por defecto la salida que el SPSSproporciona al analizar datos con medidas repetidas mediante el procedimiento

    Analizar>Modelo Lineal General>Medidas Repetidas.

    Interpretacin del test de Mauchly: para que se pueda asumir el supuesto deesfericidad, se debe mantener la H0 (esfericidad), entonces, los datos se puedenanalizar mediante el modelo univariado de ANOVA sin correr el riesgo de obtener

  • 8/13/2019 Curso Spss Tercera Parte

    13/21

    Juan Manuel Llopis Marn (2009-2012) 74

    un valor sesgado de la prueba F. Sin embargo, si se rechaza la H 0, el supuesto deesfericidad no se puede mantener y, por tanto, el modelo univariado de ANOVA noes apropiado para analizar los datos3.

    En el caso de que NO se pueda mantener el supuesto de esfericidad, se hanpropuesto varias opciones para analizar los datos, tres de las cuales las proporciona

    el procedimiento Analizar>Modelo Lineal General>Medidas Repetidas por defecto:

    (1) Utilizar comparaciones especficas (anlisis de tendencias) entrelos niveles de la(s) variables independientes en lugar de la pruebageneral del ANOVA; ya que estas comparaciones no requieren laesfericidad. Esta opcin puede ser adecuada slo cuando la VI seacuantitativa, los niveles estn igual de espaciados entre s e intereseconocer el patrn de la evolucin de los valores de la VD. Se sueleutilizar casi exclusivamente cuando la VI es el paso del tiempo. Elprograma SPSS las denomina Pruebas de contrastes intra-sujetos.

    (2) Mantener el modelo univariado de ANOVA con ajustes sobre los

    grados de libertad asociados al numerador (variabilidad debida al efectodel tratamiento) y al denominador (variabilidad debida al error) de laprueba F, compensando de esta manera el sesgo positivo de la prueba Fbajo ausencia de esfericidad. Los ajustes se realizan mediante elparmetro psilon. El programa SPSS proporciona tres valores parapsilon, que aparecen en la salida en la misma tabla que el test deMauchly. Tambin proporciona las tablas resumen de los ANOVASajustados junto con los resultados para cuando se asume la esfericidad,en la tabla denominada Pruebas de los efectos intra-sujetos. Serecomienda el de Greenhouse-Geisser, ya que habitualmente proporcionavalores menos extremos.

    (3) Utilizar una aproximacin multivariada sobre las medidasrepetidas (MANOVA), que no requiere el cumplimiento del supuesto deesfericidad. Bajo este modelo, cada una de las medidas que se registranen cada sujeto de forma repetida, se consideran como una variabledependiente diferente. Esta opcin aparece la primera en la salida, y sedenomina Contrastes multivariados.

    De las tres opciones, las ms utilizadas son la segunda y la tercera. Sin embargo,una aproximacin no es mejor que otra como regla general.

    Criterios para decidir entre la aproximacin univariada o la aproximacinmultivariada

    El modelo multivariado tiene como ventaja respecto al univariado los ajustes sobrelos grados de libertad que asegura, matemticamente, la igualdad entre el error detipo I y el nominal fijado a priori, mientras que el univariado slo aproxima dichos

    valores. Sin embargo, el modelo multivariado requiere que se cumpla el supuestode normalidad multivariada para que los resultados sean correctos.

    Por otra parte, hay que tener en cuenta el tamao muestral. As, Maxwell y Delaney(1990) recomiendan la aproximacin multivariada siempre que se cumpla elsupuesto de normalidad multivariada y el nmero de sujetos no sea excesivamentepequeo, en concreto, n debera superar en 10 el nmero de medidas repetidaspara que este modelo tenga una elevada potencia (otros autores recomiendansuperarlo en al menos 20). Pero si n es escasamente superior al nmero demedidas repetidas, entonces el modelo univariado tiene mayor potencia que elmultivariado.

  • 8/13/2019 Curso Spss Tercera Parte

    14/21

  • 8/13/2019 Curso Spss Tercera Parte

    15/21

    Juan Manuel Llopis Marn (2009-2012) 76

    Aparece la ventana Definicin de factor(es) de medidas repetidas, en el que hayque introducir el nombre del factor o VI con medidas repetidas (por defecto aparece

    factor 1, lo cambiamos por Alcohol), as como el nmero de niveles que tiene,en nuestro caso 3. Pinchamos Aadir y despus Definir.

    Aparecer entonces la ventana Medidas Repetidas, en la que es necesario definir oespecificar los niveles de la VI que se desean contrastar. Para ello, se marca elprimer nivel de la ventana de la izquierda, y se pasa a la ventana de la derecha, acontinuacin se hace lo mismo con el segundo y con el tercero.

    Seleccionamos Opciones, y en la ventana que aparece, pinchamos sobre la VI

    Alcohol y la pasamos a la ventana de la derecha (Mostrar las medias para:)para poder pedir el anlisis de factores principales y ajustar mediante la correccinde Bonferroni. Como en este estudio slo tenemos una VI, el programa comparartodos los niveles de esa VI entre ellos. Recordemos que este anlisis solamentetiene sentido interpretarlo si el ANOVA previo indica que existen diferenciasestadsticamente entre los niveles considerados.

  • 8/13/2019 Curso Spss Tercera Parte

    16/21

    Juan Manuel Llopis Marn (2009-2012) 77

    2.3.- Resultados

    En primer lugar, la salida proporciona los estadsticos descriptivos.

    A continuacin, presenta la tabla resumen para el Anlisis de Varianza Multivariado(MANOVA). Despus, el resultado de la prueba de esfericidad de Mauchly y la tablaresumen del ANOVA univariado.

    El resultado de la prueba de Mauchly indica que no se incumple el supuesto deesfericidad, por tanto, es mejor (ms potente) el ANOVA que el MANOVA, y dentrode esta segunda tabla, los resultados para las sumas de cuadrados, grados delibertad, etc. adecuados son los que corresponden a Esfericidad asumida. Elresultado del ANOVA, por tanto, indica que existen diferencias estadsticamentesignificativas en los aciertos obtenidos entre los tres niveles de alcoholemia. Larespuesta a la pregunta entre qu niveles concretamente? nos la proporciona el

    anlisis de factores principales que solicitamos en Opciones y que aparece en latabla Comparaciones por pares.

  • 8/13/2019 Curso Spss Tercera Parte

    17/21

    Juan Manuel Llopis Marn (2009-2012) 78

    Como se puede ver en la tabla, las diferencias estadsticamente significativas en elnmero de aciertos se encuentran entre el primer nivel (0 gramos de alcohol) y elsegundo (0,5 gramos de alcohol), as como entre el primero y el tercero (1 gramode alcohol). Remitindonos a las puntuaciones medias de cada nivel, vemos que elmayor nmero de aciertos corresponde a 0 gramos de alcohol en sangre. Sinembargo, no se han encontrado diferencias estadsticamente significativas entre elnivel segundo y el tercer. Por tanto, no podemos afirmar, con estos datos, que ladisminucin de 0,5 gramos de alcohol en sangre, respecto de 1 gramo, produzcamejoras en el nmero de aciertos que obtienen los sujetos en la tarea desimulacin de conduccin de automviles.

    3.- Alternativas para datos categricos

    3.1. Contrastes para ms de dos muestras relacionadas (datos ordinales)

    Es similar al ANOVA de un factor con medidas repetidas o intrasujetos. Las ventajasfundamentales respecto al ANOVA es que no necesita establecer supuestos sobrelas poblaciones (normalidad y homocedasticidad) y permite trabajar con datosordinales. La prueba ms utilizada es la de Friedman, aunque el SPSS nos ofreceuna prueba adicional que nos lleva a conclusiones similares, esta es la W de Kendall(coeficiente de concordancia). Veamos un ejemplo:

    En investigaciones sobre la memoria se ha intentado estudiar el efectodistorsionante del paso del tiempo. En un estudio, a un grupo de 9 sujetos se les

    present una historia escrita que deban memorizar durante 20 minutos. Trasdistintos momentos se les dijo que escribieran en un papel la historia, siendo estaevaluada por un grupo de expertos. Los momentos de medida se sucedieron a unahora, un da, una semana y un mes. Podemos afirmar que el paso del tiempoinfluye sobre la calidad del recuerdo? El nivel de significacin se establece en 0,05.Fichero: Friedman.sav

    Para responder a esta pregunta con ayuda del SPSS; Analizar>Pruebas Noparamtricas>K muestras relacionadas. Introducimos las diferentes medidas en laventana Variables de contraste y seleccionamos Friedman y W de Kendall.

  • 8/13/2019 Curso Spss Tercera Parte

    18/21

    Juan Manuel Llopis Marn (2009-2012) 79

    La salida bsica es:

    Lo que nos lleva a concluir que existen diferencias entre las medidas consideradas.

    A su vez se puede tomar como una aproximacin a la medida del tamao del efectola W de Kendall (coeficiente de concordancia), que se comporta como un coeficientede correlacin que oscila entre 0 - 1. Al igual que realizamos en temas anteriores,la novedad se establece en que debemos explorar entre qu grupos se encuentranesas diferencias.

    En este caso, el SPSS no proporciona pruebas no paramtricas a posteriori, por loque procederemos a realizar tantas pruebas Wilcoxon (para datos continuos)como comparaciones se deseen realizar. Teniendo en cuenta que hay que corregirel nivel de significacin en funcin de, por ejemplo, la correccin de Bonferroni(/n de comparaciones), en nuestro caso 0,05/6 = 0,0083. Si ejecutamos

    Analizar>Pruebas No paramtricas>2 muestras relacionadas, y solicitamos la

    prueba de Wilcoxon para los 6 pares posibles de comparaciones, obtenemos queexisten diferencias entre una hora y una semana y entre una hora y un mes, perono el resto de medidas consideradas.

  • 8/13/2019 Curso Spss Tercera Parte

    19/21

    Juan Manuel Llopis Marn (2009-2012) 80

    3.2. Contrastes para ms de dos muestras relacionadas (Datos nominales)

    Nos permite contrastar hiptesis sobre la igualdad de ms de dos proporciones paramuestras dependientes con medidas cualitativas o nominales donde se suelenutilizar como medida las proporciones. La prueba ms utilizada es la Q de Cochrany se suele aplicar a diseos de medidas repetidas donde la VD o variable derespuesta slo puede tomar dos valores (variable dicotmica).

    Ejemplo: Un psiclogo quiere averiguar si las 4 preguntas de un test que haconstruido tienen o no la misma dificultad. Para ello, selecciona aleatoriamente unamuestra de 10 sujetos que responden a las 4 preguntas. Se puede afirmar que laspreguntas difieren en dificultad? El nivel de significacin se establece en 0,05.Fichero: QCochran.sav.

    Para responder a esta pregunta con ayuda del SPSS; Analizar>Pruebas Noparamtricas>K muestras relacionadas. Introducimos las diferentes medidas encontrastar variables y pulsamos Q de Cochran.

  • 8/13/2019 Curso Spss Tercera Parte

    20/21

    Juan Manuel Llopis Marn (2009-2012) 81

    La salida bsica es:

    Lo que nos lleva a concluir que existen diferencias entre las preguntasconsideradas. Si seguimos la lgica vista en el punto anterior, procederemos arealizar tantas pruebas de McNemar (para datos dicotmicos) comocomparaciones se deseen realizar, con la correccin de Bonferroni (/n de

    comparaciones), en este caso vuelve a ser 0,05/6 =0,0083. Si ejecutamosAnalizar>Pruebas No paramtricas>2 muestras relacionadas, y solicitamos laprueba de McNemar para los 6 pares posibles de comparaciones, obtenemos que noexisten diferencias en dificultad entre las preguntas.

  • 8/13/2019 Curso Spss Tercera Parte

    21/21