ANALISIS DE DATOSANALISIS DE DATOS
ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVAE INFERENCIALE INFERENCIAL
CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA
POBLACIÓNPOBLACIÓN: es el conjunto de todos los elementos que cumplen : es el conjunto de todos los elementos que cumplen
ciertas propiedades, entre las cuales se desea estudiar un determinado ciertas propiedades, entre las cuales se desea estudiar un determinado
fenómeno fenómeno UNIVERSO UNIVERSO
SEGÚN LA FINITUD:SEGÚN LA FINITUD: Población finitaPoblación finita: se conoce el número exacto de todos los elementos que : se conoce el número exacto de todos los elementos que
componen el conjuntocomponen el conjunto
Población infinitaPoblación infinita: en el supuesto que no se puedan conocer todos los elementos : en el supuesto que no se puedan conocer todos los elementos
que componen el conjuntoque componen el conjunto
SEGÚN LA MUESTRA ESCOGIDASEGÚN LA MUESTRA ESCOGIDA Población objetoPoblación objeto: es aquella en la que se desea estudiar cierta información: es aquella en la que se desea estudiar cierta información
Población inferencialPoblación inferencial: es aquella para la cual se hacen inferencias, no : es aquella para la cual se hacen inferencias, no
necesariamente válidasnecesariamente válidas
ESCALAS DE MEDIDAESCALAS DE MEDIDA NIVELES DE MEDIDA DE LAS VARIABLES* NIVELES DE MEDIDA DE LAS VARIABLES*
MUESTRAMUESTRA: si la población es un conjunto, la : si la población es un conjunto, la muestra es un subconjunto de ésta.muestra es un subconjunto de ésta.
INDIVIDUOINDIVIDUO: se identifica al individuo de una : se identifica al individuo de una población o de una muestra como cada uno de los población o de una muestra como cada uno de los elementos que la componen y de los cuales elementos que la componen y de los cuales obtenemos cierta información mensurable del obtenemos cierta información mensurable del fenómeno que se desea estudiar.fenómeno que se desea estudiar.
Podemos considerar individuo un ser humano, un Podemos considerar individuo un ser humano, un animal, o un evento, por ejemplo acudir a animal, o un evento, por ejemplo acudir a consulta, etc.consulta, etc.
CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA
CARÁCTERCARÁCTER: es la propiedad o cualidad que presentan los : es la propiedad o cualidad que presentan los elementos de una población que se desea estudiarelementos de una población que se desea estudiar Caracteres cualitativos:Caracteres cualitativos: son aquellos que no pueden medirse son aquellos que no pueden medirse
numéricamente, es decir, que no pueden cuantificarse.numéricamente, es decir, que no pueden cuantificarse. Caracteres cuantitativos:Caracteres cuantitativos: son aquellos que pueden medirse son aquellos que pueden medirse
numéricamente, es decir, pueden cuantificarsenuméricamente, es decir, pueden cuantificarse
Modalidad o clase de un carácter: son las distintas formas en Modalidad o clase de un carácter: son las distintas formas en las que dicho carácter puede presentarse.las que dicho carácter puede presentarse.
Ej: el carácter sexo presenta dos modalidades hombre y mujer.Ej: el carácter sexo presenta dos modalidades hombre y mujer.
CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA
La La frecuencia absolutafrecuencia absoluta de una modalidad de un carácter es de una modalidad de un carácter es el número de elementos en estudio que presentan esa el número de elementos en estudio que presentan esa modalidad de ese carácter.modalidad de ese carácter.
La La frecuencia relativafrecuencia relativa de una modalidad de un carácter es el de una modalidad de un carácter es el cociente entre la frecuencia absoluta de dicha modalidad y cociente entre la frecuencia absoluta de dicha modalidad y el número total de elementos que constituyen la muestra.el número total de elementos que constituyen la muestra.
Porcentaje de una modalidad: se obtiene multiplicando la Porcentaje de una modalidad: se obtiene multiplicando la frecuencia relativa por 100.frecuencia relativa por 100.
CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA
NIVELES DE MEDIDA DE LAS VARIABLESNIVELES DE MEDIDA DE LAS VARIABLES
Medición supone establecer una regla para hacer Medición supone establecer una regla para hacer corresponder los números con las formas en las que se corresponder los números con las formas en las que se presenta una característica de los objetos o individuos.presenta una característica de los objetos o individuos.
Con niveles de medida nos referimos a las formas en que se Con niveles de medida nos referimos a las formas en que se emplean los números:emplean los números: NominalNominal:: asignar números supone etiquetar o poner nombres. asignar números supone etiquetar o poner nombres.
Los objetos difieren entre sí.Los objetos difieren entre sí. OrdinalOrdinal:: establecemos una ordenación, creciente o decreciente, establecemos una ordenación, creciente o decreciente,
entre los objetos. Sabemos que es mayor o menor, pero no entre los objetos. Sabemos que es mayor o menor, pero no cuánto.cuánto.
Intervalo:Intervalo: las distancias numéricas iguales suponen distancias las distancias numéricas iguales suponen distancias idénticas respecto a la cualidad que se está midiendo.idénticas respecto a la cualidad que se está midiendo.
Razón:Razón: a las características del nivel de medida de intervalo, se a las características del nivel de medida de intervalo, se añade la existencia del cero absoluto (cero supone ausencia de añade la existencia del cero absoluto (cero supone ausencia de rasgo medido), no hay valores negativos.rasgo medido), no hay valores negativos.
ESCALAS DE MEDIDAESCALAS DE MEDIDA
ESCALAS DE ESCALAS DE MEDIDAMEDIDA
OPERACIONES OPERACIONES LÓGICASLÓGICAS
CONDICIONESCONDICIONES ESTADÍSTICOS ESTADÍSTICOS APLICABLESAPLICABLES
NominalNominal Establecer la igualdad Establecer la igualdad o desigualdado desigualdad
PermutaciónPermutación FrecuenciasFrecuencias
ModaModa
Coefic. De contigenciaCoefic. De contigencia
OrdinalOrdinal Determinar lo >, lo =, Determinar lo >, lo =, o lo <o lo <
Mantenimiento del Mantenimiento del ordenorden
MedianaMediana
PercentilesPercentiles
Correlación linealCorrelación lineal
De intervaloDe intervalo Determinar la Determinar la igualdad o diferencia igualdad o diferencia de intervalode intervalo
Unidad constanteUnidad constante Media aritméticaMedia aritmética
Desviación típicaDesviación típica
CorrelacionesCorrelaciones
De razón o De razón o proporciónproporción
Establecer igualdad Establecer igualdad de razonesde razones
Cero absolutoCero absoluto Media geométricaMedia geométrica
Media armónicaMedia armónica
Coeficiente de variaciónCoeficiente de variación
ANÁLISIS VALIDEZ Y ANÁLISIS VALIDEZ Y FIABILIDAD DE LA MEDIDAFIABILIDAD DE LA MEDIDA
Análisis de la FiabilidadAnálisis de la Fiabilidad
La precisión o fiabilidad de una medida: ausencia de variabilidad.
Una medición es fiable cuando se obtienen resultados iguales en mediciones sucesivas.
Medición de temperatura: 36º, 30º, 40º (no es fiable).
Orígenes de la variabilidad:
1.Variabilidad atribuible al procedimiento (instrumentos, pruebas, cuestionarios, etc).
2.Variabilidad debida a discrepancias entre los observadores (variaciones inter‑observador e intra‑observador).
3.Variabilidad por cambios en las características sometidas a medición (variaciones biológicas, conductuales, ambientales, etcétera),
La fiabilidad se valora realizando dos o más mediciones independientes del mismo atributo y comparando luego los hallazgos.
Análisis de la FiabilidadAnálisis de la Fiabilidad
La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una forma de medición nueva.
Se deben realizar esfuerzos para hacer más fiable la información recogida, pero más que intentar conseguir una fiabilidad total, se debe poder cuantificar el grado de error cometido en la medición.
Cuando en el diseño de un estudio se planifique la medición de las variables seleccionadas, se deben adoptar medidas para conseguir una mínima variabilidad en los resultados.
¿Cómo?:
- definiciones operativas claras,
- instrucciones precisas sobre la recogida de información,
- entrenamiento de los observadores,
- procedimientos de medidas estándar previamente utilizados y
- técnicas de enmascaramiento.
Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cualitativascualitativas
Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado Cohen + coeficiente de contingencia + prueba Chi-cuadrado
Coincidieron 20 negativos en el test1 tb son negativos en el test2.
20 + en test 1 también son + en el test2.
No coincidieron 5 + en test 1 después en test 2 son negativos
No coincidieron 5 negativos en test 1 después en test 2 son +
Tuvo en total 40 coincidencias (20 ++ y 20 --) y 10 no coincidencias (5+- y 5 -+)
Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)
Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cualitativascualitativas
Chi-cuadrado indica si una medición coincide con la otra o no.
Analizar/ Escalas / Análisis de fiabilidadAnalizar/ Escalas / Análisis de fiabilidad
Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cuantitativascuantitativas
La matriz de correlaciones indica que existe una alta relación entre las mediciones, o sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.
Analizar/ Escalas / Análisis de fiabilidadAnalizar/ Escalas / Análisis de fiabilidad
Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cuantitativascuantitativas
Medida de adecuación muestral de Kaiser-Meyer-Olkin.
,752
Prueba de esfericidad de Bartlett
Chi-cuadrado aproximado
64,101
gl 10
Sig. ,000
Componente
1
PRETEST dolor cabeza-cuello
,771
PRETEST dolor columna dorsal
,773
PRETEST dolor columna lumbar
,589
PRETEST dolor MM.II.
,555
PRETEST dolor MM.SS.
,852
VALIDEZ Y FIABILIDADVALIDEZ Y FIABILIDAD
DE LA ESCALA DE MEDIDADE LA ESCALA DE MEDIDA
Analizar/ Reducción de datos / Análisis factorial / Analizar/ Reducción de datos / Análisis factorial / KMO y prueba de esfericidad de Barlett KMO y prueba de esfericidad de Barlett
Análisis de la Variabilidad Análisis de la Variabilidad (varianza) de una medición(varianza) de una medición
Identificar un pequeño número de factores que explique la mayoría de la varianza observada.
Kaiser-Meyer-Olkin contrasta si las correlaciones parciales entre las variables son pequeñas (% de varianza en mis variables generada por esos factores).
La prueba de esfericidad de Bartlett me indica si mis variables están relacionadas o no.
Gráfico de sedimentación: varianza asociada a cada factor. Típicamente muestra la clara ruptura entre la pronunciada pendiente de los factores más importantes y el descenso gradual de los restantes (los sedimentos).
ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVAUNIVARIANTEUNIVARIANTE
Una Una distribución de frecuenciasdistribución de frecuencias consiste en consiste en
presentar deforma ordenada todos los valores que presentar deforma ordenada todos los valores que
contiene la variable objeto de estudio, así como la contiene la variable objeto de estudio, así como la
frecuencia con que aparecenfrecuencia con que aparecen
En el SPSS: En el SPSS:
ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVA
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Una serie de datos quedan perfectamente definidos si se dan sus tablas de Una serie de datos quedan perfectamente definidos si se dan sus tablas de
frecuencias o se realizan unas representaciones gráficas adecuadasfrecuencias o se realizan unas representaciones gráficas adecuadas..
A veces es más simple y suficientemente representativo obtener unas A veces es más simple y suficientemente representativo obtener unas
medidas que los resumamedidas que los resuma..
A tales medidas se les denominaA tales medidas se les denomina medidas de distribución de frecuencias.medidas de distribución de frecuencias.
medidas de tendencia central,medidas de tendencia central,
medidas de posición,medidas de posición,
medidas de dispersión ymedidas de dispersión y
medidas de forma.medidas de forma.
ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVA
ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVA
MEDIDAS DEMEDIDAS DE
TENDENCIATENDENCIA
CENTRALCENTRAL
• MediaMedia
• MedianaMediana
• ModaModa
MEDIDAS DEMEDIDAS DE
DISPERSIÓN oDISPERSIÓN o
VARIABILIDADVARIABILIDAD
• Desviación típicaDesviación típica
• VarianzaVarianza
• AmplitudAmplitud
MEDIDAS MEDIDAS
DE FORMADE FORMA
• AsimetríaAsimetría
• CurtosisCurtosis
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos
Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar
MEDIDAS DEMEDIDAS DE
POSICIÓNPOSICIÓN
• MedianaMediana
•CuartilesCuartiles
•DecilesDeciles
•CentilesCentiles
•PercentilesPercentiles
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
• MEDIA: se define como el valor obtenido como MEDIA: se define como el valor obtenido como
resultado de sumar todas las puntuaciones y resultado de sumar todas las puntuaciones y
dividir por el número de las mismas.dividir por el número de las mismas.
Para su cálculo, los datos han de estar medidos, al Para su cálculo, los datos han de estar medidos, al
menos, en una escala de intervalo.menos, en una escala de intervalo.
Solo para variables cuantitativas.Solo para variables cuantitativas.
Estadísticos
Área_de_contacto_pié_izquierdo48
0
126,6731
124,2000
80,08a
6080,31
Válidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Semostrará el menor de los valores.
a.
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
MEDIANA: es el valor MEDIANA: es el valor perteneciente o noperteneciente o no a la muestra a la muestra que divide en dos partes iguales un que divide en dos partes iguales un
conjunto de puntuaciones.conjunto de puntuaciones.
Deja tantas observaciones por debajo como por encima de él.Deja tantas observaciones por debajo como por encima de él.
Es el percentil 50Es el percentil 50
Su cálculo es posible cuando los datos se miden en escala ordinal, al menos (variables Su cálculo es posible cuando los datos se miden en escala ordinal, al menos (variables
cuantitativas).cuantitativas).
La mediana en un número de datos impar, corresponde al valore centralLa mediana en un número de datos impar, corresponde al valore central ..
Cuando el número de observaciones es par, la mediana es el promedio de las dos Cuando el número de observaciones es par, la mediana es el promedio de las dos
observaciones centrales.observaciones centrales.
La mediana es una medida de tendencia central queLa mediana es una medida de tendencia central que
no es sensible a los valores atípicos (a diferencia de lano es sensible a los valores atípicos (a diferencia de la
media).media).
Estadísticos
Área_de_contacto_pié_izquierdo48
0
126,6731
124,2000
80,08a
6080,31
Válidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Semostrará el menor de los valores.
a.
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
MODA: es el valor que más se repite dentro de un MODA: es el valor que más se repite dentro de un
conjunto de puntuaciones.conjunto de puntuaciones.
Valor con mayor frecuencia absoluta.Valor con mayor frecuencia absoluta.
Si varios valores comparten la mayor frecuencia de Si varios valores comparten la mayor frecuencia de
aparición, cada una de ellas es una moda.aparición, cada una de ellas es una moda.
SPSS da la + pequeña de esas modas múltiples.SPSS da la + pequeña de esas modas múltiples.
Se calcula con cualquiera de losSe calcula con cualquiera de los
niveles de medida (variables cuali-niveles de medida (variables cuali-
tativas o cuantitativas).tativas o cuantitativas).
Estadísticos
Área_de_contacto_pié_izquierdo48
0
126,6731
124,2000
80,08a
6080,31
Válidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Semostrará el menor de los valores.
a.
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
Suma: es la suma o total de todos los Suma: es la suma o total de todos los
valores, a lo largo de todos los casos que valores, a lo largo de todos los casos que
no tengan valores perdidosno tengan valores perdidos . .
Estadísticos
Área_de_contacto_pié_izquierdo48
0
126,6731
124,2000
80,08a
6080,31
Válidos
Perdidos
N
Media
Mediana
Moda
Suma
Existen varias modas. Semostrará el menor de los valores.
a.
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
La mediana es menos sensible que la media a la variación de las observaciones La mediana es menos sensible que la media a la variación de las observaciones
muestralesmuestrales..
La media está muy influenciada por observaciones muy grandes o muy pequeñas con La media está muy influenciada por observaciones muy grandes o muy pequeñas con
relación a las restantes que componen la muestra, y sin embargo la mediana no.relación a las restantes que componen la muestra, y sin embargo la mediana no.
La mediana es el fundamento de diversas técnicas estadísticas, pero el número de La mediana es el fundamento de diversas técnicas estadísticas, pero el número de
estas es mucho menor que el de las técnicas basadas en la mediaestas es mucho menor que el de las técnicas basadas en la media..
La mediana es más recomendable que la media cuando la distribución de frecuencias La mediana es más recomendable que la media cuando la distribución de frecuencias
es muy asimétrica, es decir, cuando existen una o muy pocas observaciones en uno es muy asimétrica, es decir, cuando existen una o muy pocas observaciones en uno
de los extremos.de los extremos.
La media no debe ser calculada cuando las observaciones no sean numéricas.La media no debe ser calculada cuando las observaciones no sean numéricas.
La moda tiene el inconveniente de no ser necesariamente única.La moda tiene el inconveniente de no ser necesariamente única.
En el caso de variables cualitativas y dado que este tipo de datos no permite el cálculo En el caso de variables cualitativas y dado que este tipo de datos no permite el cálculo
ni de la media ni de la mediana, el cálculo de la moda es forzoso.ni de la media ni de la mediana, el cálculo de la moda es forzoso.
Las unidades en que vienen expresadas la media, mediana y moda corresponden a las Las unidades en que vienen expresadas la media, mediana y moda corresponden a las
de la variables en estudio.de la variables en estudio.
MEDIDAS DE DISPERSIÓNMEDIDAS DE DISPERSIÓN
DESVIACIÓN TÍPICA: es la raíz cuadrada de la varianza.DESVIACIÓN TÍPICA: es la raíz cuadrada de la varianza.
VARIANZA: VARIANZA: suma de los cuadrados de las desviaciones respecto a la media suma de los cuadrados de las desviaciones respecto a la media
dividida por el número de casos menos 1dividida por el número de casos menos 1..
Es el promedio de las desviaciones de lasEs el promedio de las desviaciones de las
puntuaciones respecto a la media aritmética.puntuaciones respecto a la media aritmética.
Ejemplo: podemos obtener una media de 5 con los siguientes datos: Ejemplo: podemos obtener una media de 5 con los siguientes datos: 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay
mayor variabilidad. ¿pero como podemos medir la variabilidad?mayor variabilidad. ¿pero como podemos medir la variabilidad?
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos
Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar
Indican si los valores de las observaciones (si los valores de las modalidades de un carácter) se encuentran muy próximas entre sí o muy dispersas.
MEDIDAS DE DISPERSIÓNMEDIDAS DE DISPERSIÓN
AMPLITUD: es la diferencia entre el valor máximo y el AMPLITUD: es la diferencia entre el valor máximo y el
mínimo de un conjunto de puntuacionesmínimo de un conjunto de puntuaciones. .
Mínimo. Valor más pequeño de una variable numéricaMínimo. Valor más pequeño de una variable numérica..
Máximo. El mayor valor de una variable numéricaMáximo. El mayor valor de una variable numérica..
Error Típico de la media. Medida de cuánto puede variar el Error Típico de la media. Medida de cuánto puede variar el
valor de la media de una muestra a otra, extraídas éstas de valor de la media de una muestra a otra, extraídas éstas de
la misma distribuciónla misma distribución..
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos
Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar
MEDIDAS DE DISPERSIÓNMEDIDAS DE DISPERSIÓN
Todas las medidas de dispersión son siempre positivasTodas las medidas de dispersión son siempre positivas..
Todas las medidas de dispersión se anulan cuando todas las observaciones Todas las medidas de dispersión se anulan cuando todas las observaciones
muestrales son idénticas.muestrales son idénticas.
La amplitud presenta el inconveniente de utilizar únicamente dos La amplitud presenta el inconveniente de utilizar únicamente dos
observaciones: las dos más extremas.observaciones: las dos más extremas.
La varianza tiene el inconveniente de tener como unidades las de la variable La varianza tiene el inconveniente de tener como unidades las de la variable
original al cuadrado. Esta es la razón por la que se emplea la desviación original al cuadrado. Esta es la razón por la que se emplea la desviación
típicatípica..
La varianza y la desviación típica son muy sensibles a la variación de cada La varianza y la desviación típica son muy sensibles a la variación de cada
una de las observaciones, ya que su valor depende de todos y cada uno de una de las observaciones, ya que su valor depende de todos y cada uno de
los valores de los datos obtenidos en la muestralos valores de los datos obtenidos en la muestra..
La varianza y la desviación típica son fundamentos de muchas técnicas La varianza y la desviación típica son fundamentos de muchas técnicas
estadísticasestadísticas..
No se recomienda el uso de la varianza o de la desviación típica en aquellos No se recomienda el uso de la varianza o de la desviación típica en aquellos
casos en los que no se recomiende el uso de la media como medida de casos en los que no se recomiende el uso de la media como medida de
tendencia centraltendencia central..
MEDIDAS DE FORMAMEDIDAS DE FORMA
Estas medidas nos informan sobre la distribución de las Estas medidas nos informan sobre la distribución de las puntuacionespuntuaciones
Describen la forma y la simetría de mi distribución de datos.Describen la forma y la simetría de mi distribución de datos. Dos medidas: (Dos medidas: (asimetríaasimetría y curtosis) y curtosis)
ASIMETRÍAASIMETRÍA:: Si valores de media, mediana y moda coinciden Si valores de media, mediana y moda coinciden distribución simétricadistribución simétrica Cuando se alejan hacia la izda Cuando se alejan hacia la izda asimetría negativaasimetría negativa Hacia la dcha Hacia la dcha asimetría positivaasimetría positiva
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos
Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar
Estadísticos
Área_de_contacto_pié_izquierdo48
0
,173
,343
,077
,674
Válidos
Perdidos
N
Asimetría
Error típ. de asimetría
Curtosis
Error típ. de curtosis
MEDIDAS DE FORMAMEDIDAS DE FORMA
ASIMETRÍAASIMETRÍA:: Una distribución que tenga una asimetría Una distribución que tenga una asimetría positivapositiva significativa tiene una significativa tiene una
cola derecha largacola derecha larga.. Una distribución que tenga una asimetría Una distribución que tenga una asimetría negativanegativa significativa tiene una significativa tiene una
cola izquierda largacola izquierda larga.. Un valor de la asimetría mayor que el doble de su error típico se asume Un valor de la asimetría mayor que el doble de su error típico se asume
que indica una desviación de la simetríaque indica una desviación de la simetría.. Cuando al trazar una vertical, en el diagrama de barras o histograma, de Cuando al trazar una vertical, en el diagrama de barras o histograma, de
una variable (discreta o continua) por la media, esta vertical es el eje de una variable (discreta o continua) por la media, esta vertical es el eje de simetría, la distribución es simétricasimetría, la distribución es simétrica..
Simétrica, cuando a ambos lados de la media aritmética haya el mismo Simétrica, cuando a ambos lados de la media aritmética haya el mismo nº de valores de la variable, equidistantes de dicha media dos a dos, y nº de valores de la variable, equidistantes de dicha media dos a dos, y tales que cada par de valores equidistantes tiene la misma frecuencia tales que cada par de valores equidistantes tiene la misma frecuencia absoluta.absoluta.
MEDIDAS DE FORMAMEDIDAS DE FORMA
Cálculo de la ASIMETRÍACálculo de la ASIMETRÍA::
coeficiente de FISHER (coeficiente de FISHER (gg11):): Si gSi g11 > 0 > 0 la distribución será asimétrica positiva o a derechas la distribución será asimétrica positiva o a derechas
(desplazada hacia la derecha).(desplazada hacia la derecha). Si gSi g11 < 0 < 0 la distribución será asimétrica negativa o a izquierdas la distribución será asimétrica negativa o a izquierdas
(desplazada hacia la izquierda).(desplazada hacia la izquierda). Si gSi g11 = 0 = 0 la distribución será simétricala distribución será simétrica..
coeficiente de PEARSON (Ap):coeficiente de PEARSON (Ap): solo es cierto cuando la distribuciónsolo es cierto cuando la distribución
tiene las siguientes condiciones: Unimodal,tiene las siguientes condiciones: Unimodal,
campaniforme y moderada o ligeramente asimetrica. campaniforme y moderada o ligeramente asimetrica.
MEDIDAS DE FORMAMEDIDAS DE FORMA
CURTOSISCURTOSIS: : Medida del grado en que las observaciones están agrupadas en torno al Medida del grado en que las observaciones están agrupadas en torno al
punto centralpunto central Nos indica el apuntamiento o escarpamiento de la distribución de Nos indica el apuntamiento o escarpamiento de la distribución de
puntuaciones.puntuaciones.
Analizar/ Estadísticos descriptivos/ Frecuencias oAnalizar/ Estadísticos descriptivos/ Frecuencias o
Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos
Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar
Estadísticos
Área_de_contacto_pié_izquierdo48
0
,173
,343
,077
,674
Válidos
Perdidos
N
Asimetría
Error típ. de asimetría
Curtosis
Error típ. de curtosis
MEDIDAS DE POSICIÓNMEDIDAS DE POSICIÓN
Estas medidas nos informan de la situación de una puntuación Estas medidas nos informan de la situación de una puntuación
respecto al grupo en el que se encuentra incluído.respecto al grupo en el que se encuentra incluído. MedianaMediana: es tb una medida de tendencia central, aquí divide la distribución : es tb una medida de tendencia central, aquí divide la distribución
de la variable en dos partes iguales.de la variable en dos partes iguales.
Cuartiles:Cuartiles: son los 3 valores que divide en 4 partes idénticas el conjunto de son los 3 valores que divide en 4 partes idénticas el conjunto de
puntuacionespuntuaciones
DecilesDeciles: son los 9 valores que divide en 10 partes idénticas el conjunto de : son los 9 valores que divide en 10 partes idénticas el conjunto de
puntuacionespuntuaciones
Centiles:Centiles: es dividir la distribución de la variable en 100 partes iguales es dividir la distribución de la variable en 100 partes iguales
99 valores, 99 valores, pertenecientes o no a la distibución de datos,pertenecientes o no a la distibución de datos, que dividen a esta en 100 que dividen a esta en 100
partes igualespartes iguales..
Percentiles:Percentiles: es asignar a un valor de la variable el porcentaje de individuos es asignar a un valor de la variable el porcentaje de individuos
que deja por debajo de él.que deja por debajo de él.
Tales medidas son información de las m ésimas (por ciento, décimas Tales medidas son información de las m ésimas (por ciento, décimas
y cuartas) partes del total de puntuaciones del grupo.y cuartas) partes del total de puntuaciones del grupo.
MEDIDAS DE POSICIÓNMEDIDAS DE POSICIÓN
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar
Estadísticos
edad52
0
47,30
55,00
62,00
66,75
Válidos
Perdidos
N
5
25
50
75
Percentiles
Estadísticos
edad52
0
55,00
62,00
66,75
Válidos
Perdidos
N
25
50
75
Percentiles
Estadísticos
edad52
0
50,30
54,60
55,00
55,00
57,20
62,00
64,00
65,10
66,75
68,00
70,00
Válidos
Perdidos
N
10
20
25
30
40
50
60
70
75
80
90
Percentiles
MEDIDAS DE POSICIÓNMEDIDAS DE POSICIÓN
Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias
Estadísticos
edad52
0
55,00
62,00
66,75
Válidos
Perdidos
N
25
50
75
Percentiles
eda d
1 1,9 1,9 1,9
1 1,9 1,9 3,8
1 1,9 1,9 5,8
1 1,9 1,9 7,7
1 1,9 1,9 9,6
1 1,9 1,9 11,5
3 5,8 5,8 17,3
1 1,9 1,9 19,2
6 11,5 11,5 30,8
3 5,8 5,8 36,5
2 3,8 3,8 40,4
2 3,8 3,8 44,2
1 1,9 1,9 46,2
1 1,9 1,9 48,1
5 9,6 9,6 57,7
2 3,8 3,8 61,5
5 9,6 9,6 71,2
2 3,8 3,8 75,0
1 1,9 1,9 76,9
3 5,8 5,8 82,7
1 1,9 1,9 84,6
4 7,7 7,7 92,3
1 1,9 1,9 94,2
1 1,9 1,9 96,2
2 3,8 3,8 100,0
52 100,0 100,0
45
46
48
49
50
51
52
54
55
56
57
58
60
61
62
64
65
66
67
68
69
70
71
72
76
Total
VálidosFrecuencia Porcentaje
Porcentajeválido
Porcentajeacumulado
LA DISTRIBUCIÓN NORMALLA DISTRIBUCIÓN NORMAL
Abraham de Moivre (1667-1754)Abraham de Moivre (1667-1754)
Carl Friedrich Gauss (1777-1855)Carl Friedrich Gauss (1777-1855)
PROPIEDADES DE LA DISTRIBUCIÓN NORMALPROPIEDADES DE LA DISTRIBUCIÓN NORMAL
Tiene una única moda, que coincide con su media y su Tiene una única moda, que coincide con su media y su mediana.mediana.
La curva normal es asintótica al eje de abscisas (área total La curva normal es asintótica al eje de abscisas (área total bajo la curva es = 1)bajo la curva es = 1)
Es simétrica con respecto a su media.Es simétrica con respecto a su media. La distancia entre la línea trazada en la media y el punto de La distancia entre la línea trazada en la media y el punto de
inflexión de la curva es igual a una desviación típica.inflexión de la curva es igual a una desviación típica. El área bajo la curva comprendido entre los valores situados El área bajo la curva comprendido entre los valores situados
aproximadamente a dos desviaciones estándar de la media aproximadamente a dos desviaciones estándar de la media es igual a 0,95.es igual a 0,95.
La forma de la campana de Gauss depende de los La forma de la campana de Gauss depende de los parámetros: media y desviación típicaparámetros: media y desviación típica
DISTRIBUCIÓN NORMAL ESTÁNDARDISTRIBUCIÓN NORMAL ESTÁNDAR
Corresponde a una distribución de media 0 y varianza 1.Corresponde a una distribución de media 0 y varianza 1.
CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD
Determina si se ajusta a una normal o no (paramétrica o no paramétrica). Esto determina el tipo de pruebas estadísticas a desarrollar, para establecer
correlaciones o contrastar hipótesis que establezcan la existencia de una relación causa efecto.
Los coeficientes de asimetría de Fisher y de Pearson indican si una distribución se ajusta a una normal ( = 0).
Existen tres pruebas estadísticas que nos permiten determinar si una distribución de datos se ajusta a una normal o no:
el test de Kolmogorov-Smirnov para una muestra (en el SPSS Analizar/ Pruebas no paramétricas/ K-S de 1 muestra) (variables cuantitativas).
El test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors (en el SPSS Analizar/ Estadísticos descriptivos/ Explorar se abre un cuadro de diálogo en el que podemos meternos en la pestaña “gráficos”, una vez que entramos en gráficos marcamos la cuadrícula “Gráficos con pruebas de normalidad”). (variables cuantitativas).
CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD
Coeficiente de asimetría de FisherCoeficiente de asimetría de Fisher
Test de Kolmogorov-SmirnovTest de Kolmogorov-Smirnov
Analizar/ Pruebas no paramétricas/ K-S de 1 muestraAnalizar/ Pruebas no paramétricas/ K-S de 1 muestra
Las variables pretest, Las variables pretest, postest e índice de mejora postest e índice de mejora no se distribuyen de forma no se distribuyen de forma normal.normal.
Tendremos que usar pruebas no paramétricas (aunque si el tamaño de la muestra es grande la “violación” de los supuestos paramétricos es tolerable.
Sig. mayor de 0,05 se ajusta a la normal. Menor a 0,05 no se ajusta a la normal.
Variables cuantitativas
CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD
Test de Kolmogorov-SmirnovTest de Kolmogorov-Smirnov
Analizar/ Pruebas no paramétricas/ K-S de 1 muestraAnalizar/ Pruebas no paramétricas/ K-S de 1 muestra
La variable número de sesiones en todos los casos La variable número de sesiones en todos los casos no se no se distribuyen de forma normal.distribuyen de forma normal.
Pero los grado I y grado II Pero los grado I y grado II si se distribuyen de forma normalsi se distribuyen de forma normal
Variables cuantitativas
CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD
Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidadGráficps con prueba de normalidad
Test de Kolmogorov-Smirnov con un nivel de Test de Kolmogorov-Smirnov con un nivel de significación de Lillieforssignificación de Lilliefors
CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov con un nivel de Test de Kolmogorov-Smirnov con un nivel de significación de Lillieforssignificación de Lilliefors
Valor observado20018016014012010080
Des
v. d
e n
orm
al
0,75
0,50
0,25
0,00
-0,25
Gráfico Q-Q normal sin tendencias de Área_de_contacto_pié_izquierdo
Valor observado20018016014012010080
No
rma
l es
pe
rad
o
4
2
0
-2
-4
Gráfico Q-Q normal de Área_de_contacto_pié_izquierdo
Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidadGráficps con prueba de normalidad
REPRESENTACIÓN GRÁFICA REPRESENTACIÓN GRÁFICA DE LA INFORMACIÓNDE LA INFORMACIÓN
CONDICIONES GENERALES QUE CONDICIONES GENERALES QUE DEBEN CUMPLIRDEBEN CUMPLIR
• Deben indicar claramente las escalas y Deben indicar claramente las escalas y unidades de medida.unidades de medida.
• Deben explicarse por sí solas.Deben explicarse por sí solas.
• Deben contribuir a clarificar el material Deben contribuir a clarificar el material presentadopresentado..
GRÁFICO DE SECTORES GRÁFICO DE SECTORES Y GRÁFICO DE BARRAS Y GRÁFICO DE BARRAS
Analizar/ Estadísticos descriptivos/ Frecuecias/ GráficosAnalizar/ Estadísticos descriptivos/ Frecuecias/ Gráficos
Se pueden emplear en variables cuantitativas, Se pueden emplear en variables cuantitativas, pero forzosamente en las cualitativaspero forzosamente en las cualitativas
Gráfico de Sectores: Contribución de las Gráfico de Sectores: Contribución de las partes a un todo (frecuencia o %). El ángulo partes a un todo (frecuencia o %). El ángulo central es proporcional a la frecuencia central es proporcional a la frecuencia absoluta.absoluta.
Gráfico de Barras: muestra la Gráfico de Barras: muestra la frecuencia de cada valor como una frecuencia de cada valor como una barra diferente permitiendo comparar barra diferente permitiendo comparar las categorías de forma visual las categorías de forma visual (frecuencia o %).(frecuencia o %).
HISTOGRAMAHISTOGRAMA
Representación de una variable cuantitativa que muestra la concentración relativa de los datos a lo largo de diferentes intervalos o secciones de la escala en la que están medidos dichos datos.
Cuentan con barras, pero se representan a lo largo de una escala de intervalos iguales
La altura de cada barra es el recuento de los valores que están dentro del intervalo para una variable cuantitativa.
Los histogramas muestran la forma, el centro y la dispersión de la distribución.
El histograma se construye sobre unos ejes de coordenadas.
Se señalan en el eje horizontal los distintos extremos de los intervalos de clase, y en el eje vertical las frecuencias relativas partidas por las amplitudes de cada intervalo.
A partir de esto se construyen rectángulos yuxtapuestos, cuyas bases son los diferentes intervalos de clase y cuya altura es el cociente de la frecuencia relativa entre la amplitud del intervalo.
POLÍGONO DE FRECUENCIASPOLÍGONO DE FRECUENCIAS
El polígono de frecuencias resulta de la unión mediante una línea quebrada de los puntos medios de las bases superiores de los rectángulos de un histograma.
No es aplicable a las variables cualitativas
CAJA Y BIGOTESCAJA Y BIGOTES
En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y los valores extremos.
La caja central registra los valores comprendidos entre los percentiles del 25 (borde inferior de la caja) al 75 (borde superior de la caja).
La línea negra que viene remarcada se corresponde con el percentil 50 o mediana.
Los bigotes representan los casos máximo y mínimo.
(ojo cuando aparezca un * no se corresponden con mínimo y máximo).
DIAGRAMA DE TALLO Y HOJAS DIAGRAMA DE TALLO Y HOJAS
Tallo Hojas
GRÁFICO DE NORMALIDADGRÁFICO DE NORMALIDAD
Valor observado20018016014012010080
Des
v. d
e n
orm
al
0,75
0,50
0,25
0,00
-0,25
Gráfico Q-Q normal sin tendencias de Área_de_contacto_pié_izquierdo
DIAGRAMA DE BARRAS AGRUPADASDIAGRAMA DE BARRAS AGRUPADASY BARRAS DE ERRORY BARRAS DE ERROR
GRÁFICO DE LÍNEASGRÁFICO DE LÍNEASY DIAGRAMA DE DISPERSIÓNY DIAGRAMA DE DISPERSIÓN
DOS DIAGRAMAS DE LÍNEAS SUPERPUESTOSDOS DIAGRAMAS DE LÍNEAS SUPERPUESTOSY DIAGRAMA DE DISPERSIÓN Y DIAGRAMA DE DISPERSIÓN (REGRESIÓN LOGÍSTICA)(REGRESIÓN LOGÍSTICA)
ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVABIVARIANTEBIVARIANTE
RELACIÓN ENTRERELACIÓN ENTREVARIABLES Y REGRESIÓNVARIABLES Y REGRESIÓN
El establecimiento de El establecimiento de la la correlacióncorrelación supone supone el primer paso para el primer paso para predecir una variable predecir una variable a partir de la otra.a partir de la otra.
Fuerte relacióndirecta.
30
40
50
60
70
80
90
100
140 150 160 170 180 190 200
Correlación positivaCorrelación positiva Correlación negativaCorrelación negativa
IncorrelaciónIncorrelación
Cierta relacióninversa
0
10
20
30
40
50
60
70
80
140 150 160 170 180 190 200
Incorrelación
30
80
130
180
230
280
330
140 150 160 170 180 190 200
COEFICIENTES DE CORRELACIÓNCOEFICIENTES DE CORRELACIÓN
Si las dos variables son:Si las dos variables son:
Distribuciones Paramétricas (de intervalo u ordinal):Distribuciones Paramétricas (de intervalo u ordinal):
coeficiente de correlación de Pearsoncoeficiente de correlación de Pearson
Distribuciones No Paramétricas (de intervalo u ordinal)Distribuciones No Paramétricas (de intervalo u ordinal): :
coeficiente de correlación Spearmancoeficiente de correlación Spearman
Variables Nominales:Variables Nominales: coeficiente de contingenciacoeficiente de contingencia
Analizar/ Estadísticos descriptivos/ Tablas de contingenciaAnalizar/ Estadísticos descriptivos/ Tablas de contingencia
Analizar/ Correlaciones/ Analizar/ Correlaciones/ BivariadasBivariadas
Analizar/ Correlaciones/ Analizar/ Correlaciones/ BivariadasBivariadas
COEF. CORREL. DE PEARSON COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS)(VARIABLES CUANTITATIVAS PARAMÉTRICAS)
Medida de la asociación lineal entre dos variablesMedida de la asociación lineal entre dos variables..
Sus valores se encuentran comprendidos entre -1 y 1.Sus valores se encuentran comprendidos entre -1 y 1.
El signo del coeficiente indica la dirección de la relación y su valor absoluto indica El signo del coeficiente indica la dirección de la relación y su valor absoluto indica
la fuerzala fuerza..
Los valores mayores indican que la relación es más estrechaLos valores mayores indican que la relación es más estrecha..
Un Un valor positivovalor positivo indica que a puntuaciones por encima de la media en una de las indica que a puntuaciones por encima de la media en una de las
variables le corresponden puntuaciones también por encima de la media en la variables le corresponden puntuaciones también por encima de la media en la
otra variable, y viceversa.otra variable, y viceversa.
Un Un valor negativovalor negativo señala que a puntuaciones por encima de la media en una de señala que a puntuaciones por encima de la media en una de
las variables le corresponden puntuaciones también por debajo de la media en la las variables le corresponden puntuaciones también por debajo de la media en la
otra variable, y viceversa.otra variable, y viceversa.
Un Un valor igual o cercano a cerovalor igual o cercano a cero indica que indica que no existe relación linealno existe relación lineal entre las entre las
variables, aunque puede existir cualquier otro tipo de relación no lineal.variables, aunque puede existir cualquier otro tipo de relación no lineal.
Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas
Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas
COEF. CORREL. DE PEARSON COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS)(VARIABLES CUANTITATIVAS PARAMÉTRICAS)
COEF. CORREL. RHO DE SPEARMAN COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)(VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)
Versión no paramétrica del coeficiente de correlación de PearsonVersión no paramétrica del coeficiente de correlación de Pearson
Se basa en los rangos de los datos en lugar de hacerlo en los valores realesSe basa en los rangos de los datos en lugar de hacerlo en los valores reales..
Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el
supuesto de normalidadsupuesto de normalidad..
El signo del coeficiente indica la dirección de la relación y el valor absoluto del El signo del coeficiente indica la dirección de la relación y el valor absoluto del
coeficiente de correlación indica la fuerza de la relación entre las variables.coeficiente de correlación indica la fuerza de la relación entre las variables.
Los valores absolutos mayores indican que la relación es mayorLos valores absolutos mayores indican que la relación es mayor..
Es el coeficiente de correlación de Pearson, pero aplicado después de transformar las Es el coeficiente de correlación de Pearson, pero aplicado después de transformar las
puntuaciones originales en rangos.puntuaciones originales en rangos.
Toma valores entre -1y 1,Toma valores entre -1y 1, y se interpreta igual que el coeficiente de correlación de y se interpreta igual que el coeficiente de correlación de
Pearson.Pearson.
Se utiliza como alternativa al de Pearson cuando las variables estudiadas son Se utiliza como alternativa al de Pearson cuando las variables estudiadas son
ordinales y/o se incumple el supuesto de normalidadordinales y/o se incumple el supuesto de normalidad..
Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas
Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas
COEF. CORREL. RHO DE SPEARMAN COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)(VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA
Permiten establecer si existe correlación entre:Permiten establecer si existe correlación entre:
Dos variables cualitativas nominales (dicotómicas etc). Dos variables cualitativas nominales (dicotómicas etc).
Cualquiera de las 2 puede ir en columnas o filas.Cualquiera de las 2 puede ir en columnas o filas.
Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir
en columnas o filas.en columnas o filas.
Una variable cuantitativa y otra nominal. Mejor poner la Una variable cuantitativa y otra nominal. Mejor poner la
cuantitativa en las filas y la cualitativa en las columnas.cuantitativa en las filas y la cualitativa en las columnas.
Entramos en el SPSS EN Analizar/ Estadísticos descriptivos/ Tablas de Entramos en el SPSS EN Analizar/ Estadísticos descriptivos/ Tablas de
Contingencia. En el cuadro de diálogo que se abre seleccionamos la variable que Contingencia. En el cuadro de diálogo que se abre seleccionamos la variable que
queremos que vaya en las columnas y cual en las filas. Después entramos en la queremos que vaya en las columnas y cual en las filas. Después entramos en la
pestaña pestaña estadísticosestadísticos que nos permite 3 opciones fundamentalmente. que nos permite 3 opciones fundamentalmente.
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA
Permite obtener el estadístico Chi-cuadrado. Permite obtener el estadístico Chi-cuadrado.
Permite obtener correlaciones (coeficiente de correlación de Pearson Permite obtener correlaciones (coeficiente de correlación de Pearson
o Rho de Spearman).o Rho de Spearman).
En el caso de comparar En el caso de comparar DOS VARIABLES NOMINALESDOS VARIABLES NOMINALES pedimos el pedimos el
coeficiente de contingencia.coeficiente de contingencia.
Medida de asociación basada en chi-cuadradoMedida de asociación basada en chi-cuadrado..
El valor siempre está comprendido entre 0 y 1 (también puede ser El valor siempre está comprendido entre 0 y 1 (también puede ser
negativo)negativo)..
El valor 0 indica que no hay asociación entre las variables.El valor 0 indica que no hay asociación entre las variables.
Valores cercanos a 1 indican que hay gran relación entre las variables.Valores cercanos a 1 indican que hay gran relación entre las variables.
TABLAS DE CONTIGENCIA TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES NOMINALES)(CORRELACIONANDO DOS VARIABLES NOMINALES)
Ejemplo: matriz faltar a clase (si o no) según sexo (26 hombres frente Ejemplo: matriz faltar a clase (si o no) según sexo (26 hombres frente
a 26 mujeres).a 26 mujeres).
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO DOS VARIABLES ORDINALES)(CORRELACIONANDO DOS VARIABLES ORDINALES)
En el caso de comparar dos variables ordinales pedimos en En el caso de comparar dos variables ordinales pedimos en Analizar/ Analizar/
Estadísticos descriptivos/ Tablas de Contingencia/ Estadísticos Estadísticos descriptivos/ Tablas de Contingencia/ Estadísticos “ordinal” el “ordinal” el
coeficiente Gamma.coeficiente Gamma.
Gamma es una medida de asociación simétrica entre dos variables Gamma es una medida de asociación simétrica entre dos variables
ordinales cuyo valor siempre está comprendido entre -1 y 1ordinales cuyo valor siempre está comprendido entre -1 y 1..
Los valores próximos a 1, en valor absoluto, indican una fuerte relación Los valores próximos a 1, en valor absoluto, indican una fuerte relación
entre las dos variablesentre las dos variables..
Los valores próximos a cero indican que hay poca o ninguna relación Los valores próximos a cero indican que hay poca o ninguna relación
entre las dos variables.entre las dos variables.
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO DOS VARIABLES ORDINALES)(CORRELACIONANDO DOS VARIABLES ORDINALES)
Ejemplo: matriz ingresos Ejemplo: matriz ingresos
(ninguno, escasos, (ninguno, escasos,
moderados o elevados) moderados o elevados)
según edad del sujeto según edad del sujeto
(niño, adolescente, joven, (niño, adolescente, joven,
adulto joven, adulto adulto joven, adulto
mediana edad).mediana edad).
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO DOS VARIABLES ORDINALES)(CORRELACIONANDO DOS VARIABLES ORDINALES)
Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) según edad del Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) según edad del
sujeto (niño, adolescente, joven, adulto joven, adulto mediana edad).sujeto (niño, adolescente, joven, adulto joven, adulto mediana edad).
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE
DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)
Cuando una variable es categórica y la otra es cuantitativa Cuando una variable es categórica y la otra es cuantitativa empleamos el estadístico “Eta”.empleamos el estadístico “Eta”.
La variable categórica debe codificarse numéricamente.La variable categórica debe codificarse numéricamente.
Eta. Medida de asociación cuyo valor siempre está comprendido Eta. Medida de asociación cuyo valor siempre está comprendido entre 0 y 1.entre 0 y 1.
El valor 0 indica que no hay asociación entre la variable de fila (la El valor 0 indica que no hay asociación entre la variable de fila (la cuantitativa) y de columna (la cualitativa nominal).cuantitativa) y de columna (la cualitativa nominal).
Los valores cercanos a 1 indican que hay gran relación entre las Los valores cercanos a 1 indican que hay gran relación entre las variables.variables.
Se calculan dos valores de eta: uno trata la variable de las columnas Se calculan dos valores de eta: uno trata la variable de las columnas como una variable de intervalo; el otro trata la variable de las filas como una variable de intervalo; el otro trata la variable de las filas como una variable de intervalo.como una variable de intervalo.
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE
DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)
Ejemplo: matriz piernas (relación entre el ángulo tibio-tarsiano anterior con el suelo Ejemplo: matriz piernas (relación entre el ángulo tibio-tarsiano anterior con el suelo o ángulo Rebollo y la longitud del miembro inferior medida como variable nominal o ángulo Rebollo y la longitud del miembro inferior medida como variable nominal dicotómica: pierna corta o larga)dicotómica: pierna corta o larga)..
TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA
Las Tablas de Contingencia, además de todo lo Las Tablas de Contingencia, además de todo lo
anterior, nos permiten obtener otros muchos anterior, nos permiten obtener otros muchos
estadísticos, entre ellos el estadísticos, entre ellos el ÍNDICE KAPPA DE ÍNDICE KAPPA DE
COHENCOHEN que ya hemos comentado y que nos que ya hemos comentado y que nos
permite calcular la permite calcular la FIABILIDAD DE LA FIABILIDAD DE LA
MEDICIÓN DE UNA VARIABLE MEDICIÓN DE UNA VARIABLE
CUALITATIVACUALITATIVA..
ESTADÍSTICA INFERENCIALESTADÍSTICA INFERENCIAL
HIPÓTESIS ESTADÍSTICASHIPÓTESIS ESTADÍSTICAS
Cuando investigamos, buscamos generalizar los resultados, Cuando investigamos, buscamos generalizar los resultados, lo cual va a ser posible con la estadística inferencial.lo cual va a ser posible con la estadística inferencial.
Partimos de Partimos de hipótesis científicashipótesis científicas, que son traducidas a , que son traducidas a hipótesis estadísticas.hipótesis estadísticas.
Las hipótesis estadísticas son Las hipótesis estadísticas son PROPOSICIONES ACERCAPROPOSICIONES ACERCA de parámetros de la población, tales como la de parámetros de la población, tales como la mediamedia, , varianza, correlación, etc.varianza, correlación, etc.
Dos tipos de hipótesis estadísticas:Dos tipos de hipótesis estadísticas: Hipótesis nula (HHipótesis nula (H00):): generalmente supone la negación de la generalmente supone la negación de la
hipótesis de contraste.hipótesis de contraste.
Hipótesis alternativa (HHipótesis alternativa (H11):): supone la afirmación de la hipótesis supone la afirmación de la hipótesis
que deseamos someter a contraste.que deseamos someter a contraste.
Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)HH00 IH ≤ IM IH ≤ IM HH1 1 IH > IM IH > IM
Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)HH00 IH ≤ IM IH ≤ IM HH1 1 IH > IM IH > IM
DECISIÓN ESTADÍSTICADECISIÓN ESTADÍSTICA
Basándonos en la distribución muestral del estadístico de contraste Basándonos en la distribución muestral del estadístico de contraste podemos conocer cuál es el valor esperado para esa distribución bajo podemos conocer cuál es el valor esperado para esa distribución bajo la hipótesis nula. En consecuencia, compararíamos nuestro valor la hipótesis nula. En consecuencia, compararíamos nuestro valor observado con el esperado para decidir si rechazamos o no la observado con el esperado para decidir si rechazamos o no la hipótesis nula.hipótesis nula.
Región de rechazo:Región de rechazo: región formada por los valores que se alejan del valor región formada por los valores que se alejan del valor esperado bajo Hesperado bajo H00..
Región de aceptación:Región de aceptación: región formada por los valores que no se alejan región formada por los valores que no se alejan tanto del valor esperado bajo Htanto del valor esperado bajo H0.0.
Valores críticos:Valores críticos: valores del estadístico de contraste que delimitan la región valores del estadístico de contraste que delimitan la región del rechazodel rechazo
Contraste bilateral:Contraste bilateral: cuando los valores se alejan de lo esperado bajo H cuando los valores se alejan de lo esperado bajo H00, ,
por ser muy grandes y por ser muy pequeños.por ser muy grandes y por ser muy pequeños.
Contraste unilateral:Contraste unilateral: cuando los valores se alejan de lo esperado bajo cuando los valores se alejan de lo esperado bajo
HH00, solo por ser muy grandes o sólo por ser muy pequeños., solo por ser muy grandes o sólo por ser muy pequeños.
Nivel de significación:Nivel de significación: probabilidad probabilidad de que una muestra genere un valor de que una muestra genere un valor
del estadístico de contraste que esté del estadístico de contraste que esté dentro de la región de rechazodentro de la región de rechazo..
Nivel de confianza:Nivel de confianza: probabilidadprobabilidad de que una muestra genere un valor del de que una muestra genere un valor del
estadístico de contraste que esté fuera de la región de rechazo, es decir estadístico de contraste que esté fuera de la región de rechazo, es decir
que esté que esté dentro de la región de aceptacióndentro de la región de aceptación (1- (1-αα ). ).
DECISIÓN ESTADÍSTICADECISIÓN ESTADÍSTICA
DECISIÓN ESTADÍSTICA
Cuatro situaciones posibles al realizar un test de hipótesis:Cuatro situaciones posibles al realizar un test de hipótesis:
RealidadRealidad
HH0 0 verdadero Hverdadero H1 1
FalsoFalso
HH00 Falso Falso
HH1 1 verdaderoverdadero
Decisión que Decisión que toma el toma el
investigador investigador
Acepto HAcepto H0 0
Rechazo HRechazo H11
AciertoAcierto
Error Error ββ
OO
De Tipo IIDe Tipo II
Rechazo HRechazo H00
Acepto HAcepto H11
Error Error αα
O O
De Tipo IDe Tipo I
AciertoAcierto
(Potencia (Potencia ӨӨ ) )
DECISIÓN ESTADÍSTICA
Error Error αα:: Probabilidad de aceptar HProbabilidad de aceptar H11 siendo falsa. siendo falsa.
Error Error ββ: : Probabilidad de aceptar la HProbabilidad de aceptar la H00 siendo falsa. siendo falsa.
Ejemplo: realizo un test para saber si los sujetos de la muestra Ejemplo: realizo un test para saber si los sujetos de la muestra padecen una patología determinada.padecen una patología determinada.
HH00: No padecer la enfermedad. H: No padecer la enfermedad. H11: Padecer la enfermedad.: Padecer la enfermedad.
Error Error αα probabilidad de que el test de positivo y el paciente realmente probabilidad de que el test de positivo y el paciente realmente no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.
Al valor 1- Al valor 1- αα se le denomina NIVEL DE CONFIANZA. se le denomina NIVEL DE CONFIANZA.
Error Error ββ, el test me ha dado negativo y el paciente padece realmente la , el test me ha dado negativo y el paciente padece realmente la enfermedad. Es lo que denominamos FALSO NEGATIVO.enfermedad. Es lo que denominamos FALSO NEGATIVO.
Al valor 1- Al valor 1- ββ se le denomina “POTENCIA DEL CONTRASTE”. se le denomina “POTENCIA DEL CONTRASTE”.
PROCESO DE DECISIÓN ESTADÍSTICAPROCESO DE DECISIÓN ESTADÍSTICA
1.1. Formular hipótesis nula (HFormular hipótesis nula (H00) y alternativa (H) y alternativa (H11))
2.2. Fijar el nivel de significación (0,05 o 0,01)Fijar el nivel de significación (0,05 o 0,01)
3.3. Elegir el estadístico adecuado de contraste (t-student ...)Elegir el estadístico adecuado de contraste (t-student ...)
4.4. Determinar el valor del estadístico de contrasteDeterminar el valor del estadístico de contraste
5.5. Comprobar si el valor observado este dentro de la región de Comprobar si el valor observado este dentro de la región de
aceptación (es decir que es < o > que aceptación (es decir que es < o > que αα o lo que es lo mismo o lo que es lo mismo
que este por encima o por debajo del nivel de significación 1- que este por encima o por debajo del nivel de significación 1-
αα).).
6.6. Decidir si se rechaza o se mantiene la HDecidir si se rechaza o se mantiene la H0 0 (si me sale 0,02 (si me sale 0,02
acepto la Hacepto la H11 y rechazo la H y rechazo la H00).).
7.7. Interpretar el resultado de acuerdo con el problemaInterpretar el resultado de acuerdo con el problema
NIVEL DE SIGNIFICACIÓNNIVEL DE SIGNIFICACIÓN
NIVEL DE SIGNIFICACIÓN NIVEL DE SIGNIFICACIÓN “p” “p”
El El nivel de significaciónnivel de significación fija el fija el límitelímite máximo que puede máximo que puede
tomar esta “p”, mientras que el tomar esta “p”, mientras que el grado de significacióngrado de significación es la es la
probabilidad (el %) exacta de que habiendo aparecido estos probabilidad (el %) exacta de que habiendo aparecido estos
valores sea cierta la Hvalores sea cierta la H00
¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?
SUPUESTOS PARAMÉTRICOSSUPUESTOS PARAMÉTRICOS
Pruebas paramétricas:Pruebas paramétricas: referidas a parámetros referidas a parámetros poblacionales. SIGUEN LA NORMAL.poblacionales. SIGUEN LA NORMAL.
Pruebas no paramétricas:Pruebas no paramétricas: no hacen ningún supuesto no hacen ningún supuesto acerca de la forma en la que fue extraída la muestra de la acerca de la forma en la que fue extraída la muestra de la población. NO SIGUEN LA NORMAL.población. NO SIGUEN LA NORMAL.
SUPUESTOS PARAMÉTRICOS:SUPUESTOS PARAMÉTRICOS:
1.1. Las variables han de ser CUANTITATIVAS continuas o discretas, Las variables han de ser CUANTITATIVAS continuas o discretas,
medidas, al menos, en una escala de intervalo.medidas, al menos, en una escala de intervalo.
2.2. La muestra procede de una población en la que las variables La muestra procede de una población en la que las variables
SIGUEN una distribución NORMAL.SIGUEN una distribución NORMAL.
3.3. Se cumple la homocedasticidad de varianzas (es decir IGUALDAD Se cumple la homocedasticidad de varianzas (es decir IGUALDAD
DE VARIANZAS).DE VARIANZAS).
4.4. La MUESTRA tiene un tamaño GRANDE La MUESTRA tiene un tamaño GRANDE (≥ 30)(≥ 30)
¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?
SUPUESTOS PARAMÉTRICOSSUPUESTOS PARAMÉTRICOS
SUPUESTOS PARAMÉTRICOS:SUPUESTOS PARAMÉTRICOS:
5. Las observaciones son independientes entre sí.5. Las observaciones son independientes entre sí.
La selección de un caso cualquiera de la población con La selección de un caso cualquiera de la población con
miras a incluirlo en la muestra no debe afectar a las miras a incluirlo en la muestra no debe afectar a las
posibilidades de incluir a cualquier otro caso, y la posibilidades de incluir a cualquier otro caso, y la
puntuación que se asigne a un caso cualquiera no debe puntuación que se asigne a un caso cualquiera no debe
influir en la puntuación que se asigne a cualquier otro influir en la puntuación que se asigne a cualquier otro
caso.caso.
¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?
Las pruebas estadísticas de carácter PARAMÉTRICO son MÁS Las pruebas estadísticas de carácter PARAMÉTRICO son MÁS
PODEROSAS para rechazar la cuando HPODEROSAS para rechazar la cuando H00 debe ser rechazada. debe ser rechazada.
Las PRUEBAS NO PARAMÉTRICAS son menos poderosas para Las PRUEBAS NO PARAMÉTRICAS son menos poderosas para
rechazar la cuando Hrechazar la cuando H00 debe ser rechazada, pero ofrecen la debe ser rechazada, pero ofrecen la
ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS
SUPUESTOS PARAMÉTRICOS.SUPUESTOS PARAMÉTRICOS.
Las variables cuantitativas pueden ser paramétricas o no Las variables cuantitativas pueden ser paramétricas o no
paramétricas.paramétricas.
Las variables cualitativas difícilmente pueden ser paramétricas.Las variables cualitativas difícilmente pueden ser paramétricas.
Prueba T de StudentPrueba T de Student
Para una muestraPara una muestra
Para muestras independientesPara muestras independientes
Para muestras relacionadasPara muestras relacionadas
ANOVA de un factorANOVA de un factor
PRUEBAS PARAMÉTRICASPRUEBAS PARAMÉTRICAS
Analizar/ Comparar medias/ …Analizar/ Comparar medias/ …
El procedimiento Prueba T para una muestra contrasta si la media El procedimiento Prueba T para una muestra contrasta si la media
de una sola variable difiere de una constante especificada. de una sola variable difiere de una constante especificada.
Ejemplos. Un investigador desea comprobar si la puntuación media del Ejemplos. Un investigador desea comprobar si la puntuación media del
coeficiente intelectual de un grupo de alumnos difiere de 100.coeficiente intelectual de un grupo de alumnos difiere de 100.
O bien, un fabricante de copos de cereales puede tomar una muestra de O bien, un fabricante de copos de cereales puede tomar una muestra de
envases de la línea de producción y comprobar si el peso medio de las envases de la línea de producción y comprobar si el peso medio de las
muestras difiere de 1 Kg con un nivel de confianza al 95%.muestras difiere de 1 Kg con un nivel de confianza al 95%.
Prueba T de Student para una Prueba T de Student para una muestramuestra
Analizar/ Comparar medias/ Prueba T para una muestraAnalizar/ Comparar medias/ Prueba T para una muestra
Ejemplo: comparo si el número de sesiones que reciben los sujetos difiere Ejemplo: comparo si el número de sesiones que reciben los sujetos difiere
de 9.de 9.
Prueba T de Student para una Prueba T de Student para una muestramuestra
Analizar/ Comparar medias/ Prueba T para una muestraAnalizar/ Comparar medias/ Prueba T para una muestra
La La Prueba T para muestras independientes compara las medias de dos grupos de casos de una Prueba T para muestras independientes compara las medias de dos grupos de casos de una
variablevariable..
LLos sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la os sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la
respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factoresrespuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores..
Este caso no ocurre si se comparan los ingresos medios para hombres y mujeresEste caso no ocurre si se comparan los ingresos medios para hombres y mujeres. . El sexo de una El sexo de una
persona no se asigna aleatoriamentepersona no se asigna aleatoriamente..
Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una
diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar
sometidas a la influencia de factores como los estudios (y no solamente el sexo).sometidas a la influencia de factores como los estudios (y no solamente el sexo).
La prueba emplea una variable de agrupación con dos valores para separar los casos en dos La prueba emplea una variable de agrupación con dos valores para separar los casos en dos
grupos.grupos.
La variable de agrupación puede ser numérica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta La variable de agrupación puede ser numérica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta
(como sí y no)(como sí y no). . También puede usar una variable cuantitativa, como la edad, para dividir los casos También puede usar una variable cuantitativa, como la edad, para dividir los casos
en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de
menos de 21 años y otro de más de 21)menos de 21 años y otro de más de 21)
Prueba T de Student para Prueba T de Student para muestras independientesmuestras independientes
Analizar/ Comparar medias/ Prueba T para muestras independientesAnalizar/ Comparar medias/ Prueba T para muestras independientes
Prueba T de Student para Prueba T de Student para muestras independientesmuestras independientes
Analizar/ Comparar medias/ Prueba T para muestras independientesAnalizar/ Comparar medias/ Prueba T para muestras independientes
Ejemplo: analizo el número de sesiones que son necesarias para que Ejemplo: analizo el número de sesiones que son necesarias para que
desaparezca el dolor al aplicar TENS continuo frente a TENS pulsátil.desaparezca el dolor al aplicar TENS continuo frente a TENS pulsátil.
Prueba T de Student para Prueba T de Student para muestras relacionadasmuestras relacionadas
Analizar/ Comparar medias/ Prueba T para muestras relacionadasAnalizar/ Comparar medias/ Prueba T para muestras relacionadas
El procedimiento Prueba T para muestras relacionadas compara las El procedimiento Prueba T para muestras relacionadas compara las
medias de dos variables de un solo grupomedias de dos variables de un solo grupo..
El procedimiento calcula las diferencias entre los valores de las El procedimiento calcula las diferencias entre los valores de las
dos variables de cada caso y contrasta si la media difiere de 0.dos variables de cada caso y contrasta si la media difiere de 0.
Ejemplo. En un estudio sobre la efectividad analgésica de una Ejemplo. En un estudio sobre la efectividad analgésica de una
corriente TENS, se evalúa el dolor (escala E.V.A.) a todos los corriente TENS, se evalúa el dolor (escala E.V.A.) a todos los
pacientes al comienzo del estudio (PRETEST), se les aplica un pacientes al comienzo del estudio (PRETEST), se les aplica un
tratamiento y se evalúa el dolor otra vez (POSTEST).tratamiento y se evalúa el dolor otra vez (POSTEST).
LAS DOS VARIABLES deben ser CUANTITATIVASLAS DOS VARIABLES deben ser CUANTITATIVAS..
Prueba T de Student para Prueba T de Student para muestras relacionadasmuestras relacionadas
Analizar/ Comparar medias/ Prueba T para muestras relacionadasAnalizar/ Comparar medias/ Prueba T para muestras relacionadas
El procedimiento ANOVA de un factor genera un análisis de varianza de un El procedimiento ANOVA de un factor genera un análisis de varianza de un
factor para una variable dependiente cuantitativa respecto a una única factor para una variable dependiente cuantitativa respecto a una única
variable de factor (la variable independiente).variable de factor (la variable independiente).
El análisis de varianza se utiliza para contrastar la hipótesis de que varias El análisis de varianza se utiliza para contrastar la hipótesis de que varias
medias son iguales.medias son iguales.
Esta técnica es una extensión de la prueba t para dos muestras.Esta técnica es una extensión de la prueba t para dos muestras.
Además de determinar que existen diferencias entre las medias me dice qué Además de determinar que existen diferencias entre las medias me dice qué
medias difieren y cuanto difieren.medias difieren y cuanto difieren.
Dos contrastes: a priori y post hoc.Dos contrastes: a priori y post hoc.
ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA
EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MÁS MODALIDADES EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MÁS MODALIDADES
(UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.(UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.
Prueba Anova de un factorPrueba Anova de un factor
Analizar/ Comparar medias/ Anova de un FactorAnalizar/ Comparar medias/ Anova de un Factor
PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …
1) Prueba Chi-cuadrado: podría utilizarse para determinar si una bolsa de caramelos contiene igual proporción caramelos de color azul, marrón, verde, naranja, rojo y amarillo o también podría utilizarse para ver si una bolsa de caramelos contiene un 5% de color azul, un 30% de color marrón, un 10% de color verde, un 20% de color naranja, un 15% de color rojo y un 15% de color amarillo.
2) Prueba Binomial: compara las frecuencias observadas de las dos categorías de una variable dicotómica con las frecuencias esperadas en una distribución binomial con un parámetro de probabilidad especificado. Ejemplo: lanzo una moneda al aire 40 veces y anoto los resultados (cara o cruz). Debería haberme salido 50% cara y 50% cruz, pero me ha salido 25% cara y 75% cruz. Al hacer la prueba binomial me sale que no hay significación, es decir que la moneda está trucada.
3) Prueba de Rachas: contrasta si es aleatorio el orden de aparición de dos valores de una variable. Una racha es una secuencia de observaciones similares. Una muestra con un número excesivamente grande o excesivamente pequeño de rachas sugiere que la muestra no es aleatoria. Ejemplo encuesta en la que todo los sujetos son mujeres.
PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …
4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la distribución de una variable se ajusta a una distribución teórica determinada, que puede ser la NORMAL, la uniforme, la de Poisson o la exponencial.
5) Prueba para dos muestras independientes (U de Mann-Whitney): es la versión no paramétrica de la prueba T Student para muestras independientes (equivale a esta prueba). Compara dos grupos de casos existentes en una variable. Por ejemplo: analizo la disminución del dolor al aplicar TENS continuo analizo la disminución del dolor al aplicar TENS continuo frente a TENS pulsátil.frente a TENS pulsátil.
6) 6) Prueba para Varias muestras independientes. Prueba para Varias muestras independientes. H de Kruskal-Wallis: H de Kruskal-Wallis: es es el análogo no paramétrico del análisis de varianza (ANOVA) de un factor.el análogo no paramétrico del análisis de varianza (ANOVA) de un factor. Nos Nos permite permite comparar la efectividad de un tratamiento con dos o más modalidades comparar la efectividad de un tratamiento con dos o más modalidades (una en cada uno de los grupos 2 o +).(una en cada uno de los grupos 2 o +).
PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …
7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Signos de Wilcoxon, Prueba de McNemar ... etc.: Signos de Wilcoxon, Prueba de McNemar ... etc.: es la análoga no es la análoga no
paramétrica a la prueba T Student para muestras relacionadasparamétrica a la prueba T Student para muestras relacionadas. . Podemos usar la Podemos usar la prueba de prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO.RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO.
También podemos emplear lTambién podemos emplear la a PRUEBA DE MCNEMARPRUEBA DE MCNEMAR: prueba no paramétrica : prueba no paramétrica para para DOS VARIABLES DICOTÓMICAS RELACIONADASDOS VARIABLES DICOTÓMICAS RELACIONADAS. Contrasta los cambios en . Contrasta los cambios en las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar cambios en las respuestas debidas a la intervención experimental en los diseños cambios en las respuestas debidas a la intervención experimental en los diseños del tipo "antes-después". Para las tablas cuadradas de mayor orden se informa del tipo "antes-después". Para las tablas cuadradas de mayor orden se informa de la prueba de simetría de McNemar-Bowker.de la prueba de simetría de McNemar-Bowker.
LA PRUEBA DE HOMOGENEIDAD MARGINALLA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramétrica para es una prueba no paramétrica para DOS VARIABLES ORDINALES RELACIONADASDOS VARIABLES ORDINALES RELACIONADAS. Se trata de una extensión de la . Se trata de una extensión de la prueba de McNemar a partir de la respuesta binaria a las respuestas prueba de McNemar a partir de la respuesta binaria a las respuestas multinominales. Contrasta los cambios de respuesta, utilizando la distribución de multinominales. Contrasta los cambios de respuesta, utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por chi-cuadrado, y es útil para detectar cambios de respuesta causados por intervención experimental en diseños antes-después. intervención experimental en diseños antes-después.
PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …
8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman y Prueba Q de Cochran.
Prueba de Friedman es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra o un análisis de varianza de dos factores con una observación por casilla. Las variables en este caso se medirán en una escala ordinal.Las variables en este caso se medirán en una escala ordinal.Diferencias entre dos series de puntuaciones.Diferencias entre dos series de puntuaciones.
Prueba Q de Cochran Contraste no paramétrico de la hipótesis de que varias variables dicotómicas relacionadas tienen la misma media. Las variables medirán al mismo individuo o a individuos emparejados..Las variables en este caso se medirán en una escala nominal u ordinal.Las variables en este caso se medirán en una escala nominal u ordinal.Analizamos la existencia de diferencias entre dos series de puntuaciones.Analizamos la existencia de diferencias entre dos series de puntuaciones.
PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICAS
MUESTRASMUESTRAS ESCALA DE ESCALA DE MEDIDAMEDIDA
TIPO DE TIPO DE CONTRASTECONTRASTE
PRUEBA NO PRUEBA NO PARAMÉTRICAPARAMÉTRICA
Una muestraUna muestra intervalointervaloLa forma de distribución La forma de distribución una variable (bondad de una variable (bondad de ajuste)ajuste)
Kolmogorov-SmirnovKolmogorov-Smirnov
Dos muestrasDos muestras OrdinalOrdinal Diferencias entre muestrasDiferencias entre muestras
Wilcoxon (muestras Wilcoxon (muestras relacionadas)relacionadas)
Mann-Whitney Mann-Whitney (muestras (muestras independientes)independientes)
K muestras K muestras
independientesindependientes
NominalNominal
Diferencias entre muestrasDiferencias entre muestras
Chi-cuadradoChi-cuadrado
OrdinalOrdinal Kruskal-WallisKruskal-Wallis
K muestras K muestras relacionadasrelacionadas
Nominal u ordinalNominal u ordinal Diferencias entre dos Diferencias entre dos series de puntuacionesseries de puntuaciones
CochranCochran
OrdinalOrdinal Diferencias entre muestrasDiferencias entre muestras FriedmanFriedman
Analizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …
PRUEBAS PARA DOS MUESTRAS PRUEBAS PARA DOS MUESTRAS INDEPENDIENTESINDEPENDIENTES
VI cualitativa
2 muestras
independientes
VD Supuestos Pruebas Objetivos
Cualitativaχ2 Chi-cuadrado
¿La distribución de casos en las categorías de la VD cambia en función de los valores de la VI?
OrdinalU de Mann-Whitney
¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI?
Cuantitativa
VD Normal Homocedástica
t-Student
F del Anova
t2 = F
¿Las medias de la VD son similares en los distintos valores de la VI?
VD Normal no Homocedástica
t o F de Welch¿Las medias de la VD son similares en los distintos valores de la VI?
VD NO NormalU de Mann-Whitney
¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI?
CALCULANDO EL TAMAÑO DEL EFECTOCALCULANDO EL TAMAÑO DEL EFECTO
Prueba Medida Fórmula Peq Medio Grande
Chi-cuadradoCoeficiente de Contingencia
rφ2 = φ2 = χ2/N 0,10 0,30 0,50
t de StudentDiferencia de
medias estandarizada
d = 2t/gl 0,20 0,50 0,80
F del Anova
(F de Snedecor)Eta o R cuadrado R2 = F/(F+gl) 0,01 0,06 0,14
DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME
Prueba Datos de la prueba Datos descriptivos
Chi-cuadrado χ2 (gl,N = ...) = ... , p = ... , φ2 = ...Frecuencias o porcentajes de las
categorías de una variable en función de las categorías de la otra
t de Student t (gl) = ... , p = ... , d = ...Medias y desviaciones típicas de los
distintos grupos
F del Anova
(F de Snedecor)F (gl1,gl2) = ... , p = ... , R2= ...
Medias y desviaciones típicas de los distintos grupos
Nota: si el contraste es a una cola hay que señalarlo indicando p (a una cola) = ... / Recordar que si el contraste es a una cola hay que dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01)
DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME
El contraste general entre los dos tratamientos continuo y pulsátil, es decir, el análisis de los índices de mejora, comparando ambos tratamientos, empleando la prueba t-Student para muestras independientes (implementando realmente la prueba de Welch al no existir igualdad de varianzas y ser heterocedásticas ambas distribuciones de datos), así como la prueba U de Mann-Whitney muestra que existe una diferencia estadísticamente significativa entre ambos tratamientos, siendo mejor la pulsátil (p < 0.05). Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, FLevene (1, 899) = 15,567 (p =
0.000). El grupo tratado con corriente pulsátil (media 1,99 DT 0,60) obtuvo una disminución del dolor significativamente superior a la del grupo tratado con corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una cola) = 0.000. Empleado para determinar el tamaño del efecto el programa effect size calculator (disponible en: http://www.uccs.edu/~faculty/lbecker/) obteniendo d = 1,8588. Se trata de un valor de tamaño del efecto elevado, que refleja la importante diferencia existente a favor de la corriente pulsátil. Este valor también lo hemos obtenido al emplear la fórmula: d = 2t/√gl
DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME
•Comprobación del supuesto de homocedasticidad (α = 0,05):
• Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, FLevene (1, 94) = 0,009 (p = 0,923).
•Contrastes bidireccionales (α = 0,05) con F y t:
• Se encontraron diferencias estadísticamente significativas en el número de sesiones efectuadas entre el grupo tratado con tens pulsátil (M = 8,35 DT = 3,605) y el tratado con tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005, p = 0,010, R2 = 0,069 [calculado R2 =F/(F+gl)=7,005/(7,005+94)].
• Se encontraron diferencias estadísticamente significativas entre el grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) y el que recibió tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p = 0,010, d = 0,55.
DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME
•Contrastes unidireccionales (α = 0,05) con F y t:
• El grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibió tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005, p (a una cola) = 0,005, R2 = 0,069.
• El grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibió tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p (a una cola) = 0,005, d = 0,55.
•Contrastes bidireccionales (α = 0,01) con F y t:
• Aunque el tamaño del efecto encontrado resultó moderado R2 = 0,069 las diferencias entre los sujetos que recibieron tens pulsátil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas F(1,94) = 7,005, p = 0,010
•Aunque el tamaño del efecto encontrado resultó moderado d = 0,55 las diferencias entre los sujetos que recibieron tens pulsátil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas t(94) = 2,647, p = 0,010.
DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME
Tras un procedimiento de muestreo no probabilístico a conveniencia, nuestra muestra está conformada por un total de 44 individuos, con una edad media de 39,6818 años con una desviación típica (DT en adelante) de 5,97581 y los valores mínimos y máximos son 23 y 49 años.
Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento. Estadístico de Shapiro-Wilk = 0,955 (p = 0,081). Si consideramos cada grupo por separado la variable edad también se distribuye normalmente. Estadístico de Shapiro-Wilk para el grupo control = 0,934 (p = 0,147). Estadístico de Shapiro-Wilk para el grupo experimental = 0,967 (p = 0,633). Como el número de sujetos incluidos en cada grupo fue de 22 (por tanto inferior de 30) empleamos tanto pruebas de carácter paramétrico como no paramétrico para determinar la presencia/ausencia de sesgos en la distribución de edades de los sujetos en nuestros dos grupos. Los dos grupos son homogéneos en relación a la edad de los sujetos (grupo control media 39.8636 años DT=5.97053, grupo experimental media 39,5 y DT = 6,11594). No existe una diferencia significativa entre la edad de los dos grupos. Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, FLevene (1, 42) = 0,138 (p = 0,712). El grupo control presenta una media
de edad no significativamente superior a la del grupo experimental, con una t de Student (42) = 0,2 p (a una cola) = 0,843. En el grupo control el rango promedio fue de 23,27 mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 (p = 0,689).
DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME
De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se muestran de forma gráfica en la figura xx. En el grupo control, al igual que en el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres (68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay un sesgo en la distribución por sexos de nuestros pacientes en los dos grupos analizados. La proporción de mujeres y de hombres incluidos en el grupo control frente al grupo experimental son iguales X2 (1,44) = 0,000, p = 1,000.
INVESTIGACIONES EN SALUDFrenk,J.
(Modificado por Toledo, G.)
INVESTIGACION BIOMEDICA(Nivel subindividual)
EN SISTEMAS DE SALUD
INVESTIGACION EN SALUD PUBLICA (Nivel poblacional)
INVESTIGACION CLINICA (Nivel individual)
DESCRIPTIVAS
EPIDEMIOLOGICA
EN POLITICAS DE SALUD
ORGANIZACION DE S. S.(Nivel micro
intraorganizacional)
Estudios ecológicos
EN SERVICOS DE SALUD
POLITICAS DE SALUD(Nivel macro o
interorganizacional)
Estudios de mortalidad
proporcional
Estudios de incidencia
Estudios de prevalencia
ANALITICAS
OBSERVACIONALES
Encuestas Transversales
EXPERIMENTALES O DE INTERVENCION
Estudios de Cohorte
Estudios de Casos y
controlesENSAYOS
COMUNITARIOS
ENSAYOS DE CAMPO
ENSAYOS CLINICOS
Clasificación de las investigaciones en SaludClasificación de las investigaciones en Salud
Estudio observacionalEstudio experimental
¿dirección?
Estudio analítico
Estudio descriptivo
Estudio de cohorte
Estudio de casos y controles
Estudio decorte
tranversal
Ensayo clínico
controlado aleatorizado
Ensayo controlado no aleatorizado
¿asignación aleatoria?
¿grupo de comparación?
¿el investigador manipuló la exposición?
Si No
Si No Si No
exposición efecto exposición efectoexposicion = efecto
Exposición Efecto
Exposición Efecto
Estudio de cohorte
Estudio de caso-control
Exposición
Efecto
Estudio de caso-control
Tiempo
Temporalidad de los estudios epidemiologicosTemporalidad de los estudios epidemiologicos