Estadistica

113
ANALISIS DE DATOS ANALISIS DE DATOS

description

 

Transcript of Estadistica

Page 1: Estadistica

ANALISIS DE DATOSANALISIS DE DATOS

Page 2: Estadistica

ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVAE INFERENCIALE INFERENCIAL

Page 3: Estadistica

CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA

POBLACIÓNPOBLACIÓN: es el conjunto de todos los elementos que cumplen : es el conjunto de todos los elementos que cumplen

ciertas propiedades, entre las cuales se desea estudiar un determinado ciertas propiedades, entre las cuales se desea estudiar un determinado

fenómeno fenómeno UNIVERSO UNIVERSO

SEGÚN LA FINITUD:SEGÚN LA FINITUD: Población finitaPoblación finita: se conoce el número exacto de todos los elementos que : se conoce el número exacto de todos los elementos que

componen el conjuntocomponen el conjunto

Población infinitaPoblación infinita: en el supuesto que no se puedan conocer todos los elementos : en el supuesto que no se puedan conocer todos los elementos

que componen el conjuntoque componen el conjunto

SEGÚN LA MUESTRA ESCOGIDASEGÚN LA MUESTRA ESCOGIDA Población objetoPoblación objeto: es aquella en la que se desea estudiar cierta información: es aquella en la que se desea estudiar cierta información

Población inferencialPoblación inferencial: es aquella para la cual se hacen inferencias, no : es aquella para la cual se hacen inferencias, no

necesariamente válidasnecesariamente válidas

ESCALAS DE MEDIDAESCALAS DE MEDIDA NIVELES DE MEDIDA DE LAS VARIABLES* NIVELES DE MEDIDA DE LAS VARIABLES*

Page 4: Estadistica

MUESTRAMUESTRA: si la población es un conjunto, la : si la población es un conjunto, la muestra es un subconjunto de ésta.muestra es un subconjunto de ésta.

INDIVIDUOINDIVIDUO: se identifica al individuo de una : se identifica al individuo de una población o de una muestra como cada uno de los población o de una muestra como cada uno de los elementos que la componen y de los cuales elementos que la componen y de los cuales obtenemos cierta información mensurable del obtenemos cierta información mensurable del fenómeno que se desea estudiar.fenómeno que se desea estudiar.

Podemos considerar individuo un ser humano, un Podemos considerar individuo un ser humano, un animal, o un evento, por ejemplo acudir a animal, o un evento, por ejemplo acudir a consulta, etc.consulta, etc.

CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA

Page 5: Estadistica

CARÁCTERCARÁCTER: es la propiedad o cualidad que presentan los : es la propiedad o cualidad que presentan los elementos de una población que se desea estudiarelementos de una población que se desea estudiar Caracteres cualitativos:Caracteres cualitativos: son aquellos que no pueden medirse son aquellos que no pueden medirse

numéricamente, es decir, que no pueden cuantificarse.numéricamente, es decir, que no pueden cuantificarse. Caracteres cuantitativos:Caracteres cuantitativos: son aquellos que pueden medirse son aquellos que pueden medirse

numéricamente, es decir, pueden cuantificarsenuméricamente, es decir, pueden cuantificarse

Modalidad o clase de un carácter: son las distintas formas en Modalidad o clase de un carácter: son las distintas formas en las que dicho carácter puede presentarse.las que dicho carácter puede presentarse.

Ej: el carácter sexo presenta dos modalidades hombre y mujer.Ej: el carácter sexo presenta dos modalidades hombre y mujer.

CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA

Page 6: Estadistica

La La frecuencia absolutafrecuencia absoluta de una modalidad de un carácter es de una modalidad de un carácter es el número de elementos en estudio que presentan esa el número de elementos en estudio que presentan esa modalidad de ese carácter.modalidad de ese carácter.

  

La La frecuencia relativafrecuencia relativa de una modalidad de un carácter es el de una modalidad de un carácter es el cociente entre la frecuencia absoluta de dicha modalidad y cociente entre la frecuencia absoluta de dicha modalidad y el número total de elementos que constituyen la muestra.el número total de elementos que constituyen la muestra.

Porcentaje de una modalidad: se obtiene multiplicando la Porcentaje de una modalidad: se obtiene multiplicando la frecuencia relativa por 100.frecuencia relativa por 100.

CONCEPTOS BÁSICOS DE ESTADÍSTICACONCEPTOS BÁSICOS DE ESTADÍSTICA

Page 7: Estadistica

NIVELES DE MEDIDA DE LAS VARIABLESNIVELES DE MEDIDA DE LAS VARIABLES

Medición supone establecer una regla para hacer Medición supone establecer una regla para hacer corresponder los números con las formas en las que se corresponder los números con las formas en las que se presenta una característica de los objetos o individuos.presenta una característica de los objetos o individuos.

Con niveles de medida nos referimos a las formas en que se Con niveles de medida nos referimos a las formas en que se emplean los números:emplean los números: NominalNominal:: asignar números supone etiquetar o poner nombres. asignar números supone etiquetar o poner nombres.

Los objetos difieren entre sí.Los objetos difieren entre sí. OrdinalOrdinal:: establecemos una ordenación, creciente o decreciente, establecemos una ordenación, creciente o decreciente,

entre los objetos. Sabemos que es mayor o menor, pero no entre los objetos. Sabemos que es mayor o menor, pero no cuánto.cuánto.

Intervalo:Intervalo: las distancias numéricas iguales suponen distancias las distancias numéricas iguales suponen distancias idénticas respecto a la cualidad que se está midiendo.idénticas respecto a la cualidad que se está midiendo.

Razón:Razón: a las características del nivel de medida de intervalo, se a las características del nivel de medida de intervalo, se añade la existencia del cero absoluto (cero supone ausencia de añade la existencia del cero absoluto (cero supone ausencia de rasgo medido), no hay valores negativos.rasgo medido), no hay valores negativos.

Page 8: Estadistica

ESCALAS DE MEDIDAESCALAS DE MEDIDA

ESCALAS DE ESCALAS DE MEDIDAMEDIDA

OPERACIONES OPERACIONES LÓGICASLÓGICAS

CONDICIONESCONDICIONES ESTADÍSTICOS ESTADÍSTICOS APLICABLESAPLICABLES

NominalNominal Establecer la igualdad Establecer la igualdad o desigualdado desigualdad

PermutaciónPermutación FrecuenciasFrecuencias

ModaModa

Coefic. De contigenciaCoefic. De contigencia

OrdinalOrdinal Determinar lo >, lo =, Determinar lo >, lo =, o lo <o lo <

Mantenimiento del Mantenimiento del ordenorden

MedianaMediana

PercentilesPercentiles

Correlación linealCorrelación lineal

De intervaloDe intervalo Determinar la Determinar la igualdad o diferencia igualdad o diferencia de intervalode intervalo

Unidad constanteUnidad constante Media aritméticaMedia aritmética

Desviación típicaDesviación típica

CorrelacionesCorrelaciones

De razón o De razón o proporciónproporción

Establecer igualdad Establecer igualdad de razonesde razones

Cero absolutoCero absoluto Media geométricaMedia geométrica

Media armónicaMedia armónica

Coeficiente de variaciónCoeficiente de variación

Page 9: Estadistica

ANÁLISIS VALIDEZ Y ANÁLISIS VALIDEZ Y FIABILIDAD DE LA MEDIDAFIABILIDAD DE LA MEDIDA

Page 10: Estadistica

Análisis de la FiabilidadAnálisis de la Fiabilidad

La precisión o fiabilidad de una medida: ausencia de variabilidad.

Una medición es fiable cuando se obtienen resultados iguales en mediciones sucesivas.

Medición de temperatura: 36º, 30º, 40º (no es fiable). 

  Orígenes de la variabilidad:

1.Variabilidad atribuible al procedimiento (instrumentos, pruebas, cuestionarios, etc).

2.Variabilidad debida a discrepancias entre los observadores (variaciones inter‑observador e intra‑observador).

3.Variabilidad por cambios en las características sometidas a medición (variaciones biológicas, conductuales, ambientales, etcétera),

La fiabilidad se valora realizando dos o más mediciones independientes del mismo atributo y comparando luego los hallazgos.

Page 11: Estadistica

Análisis de la FiabilidadAnálisis de la Fiabilidad

La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una forma de medición nueva.

 Se deben realizar esfuerzos para hacer más fiable la información recogida, pero más que intentar conseguir una fiabilidad total, se debe poder cuantificar el grado de error cometido en la medición.

 Cuando en el diseño de un estudio se planifique la medición de las variables seleccionadas, se deben adoptar medidas para conseguir una mínima variabilidad en los resultados.

 ¿Cómo?:

- definiciones operativas claras,

- instrucciones precisas sobre la recogida de información,

- entrenamiento de los observadores,

- procedimientos de medidas estándar previamente utilizados y

- técnicas de enmascaramiento.

Page 12: Estadistica

Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cualitativascualitativas

Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado Cohen + coeficiente de contingencia + prueba Chi-cuadrado

Coincidieron 20 negativos en el test1 tb son negativos en el test2.

20 + en test 1 también son + en el test2.

No coincidieron 5 + en test 1 después en test 2 son negativos

No coincidieron 5 negativos en test 1 después en test 2 son +

Tuvo en total 40 coincidencias (20 ++ y 20 --) y 10 no coincidencias (5+- y 5 -+)

Page 13: Estadistica

Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Analizar/ Estadísticos descriptivos / Tablas de Contingencia / Índice Kappa de Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)

Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cualitativascualitativas

Chi-cuadrado indica si una medición coincide con la otra o no.

Page 14: Estadistica

Analizar/ Escalas / Análisis de fiabilidadAnalizar/ Escalas / Análisis de fiabilidad

Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cuantitativascuantitativas

La matriz de correlaciones indica que existe una alta relación entre las mediciones, o sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.

Page 15: Estadistica

Analizar/ Escalas / Análisis de fiabilidadAnalizar/ Escalas / Análisis de fiabilidad

Análisis de la Fiabilidad en variables Análisis de la Fiabilidad en variables cuantitativascuantitativas

Page 16: Estadistica

Medida de adecuación muestral de Kaiser-Meyer-Olkin.

,752

Prueba de esfericidad de Bartlett

Chi-cuadrado aproximado

64,101

gl 10

Sig. ,000

Componente

1

PRETEST dolor cabeza-cuello

,771

PRETEST dolor columna dorsal

,773

PRETEST dolor columna lumbar

,589

PRETEST dolor MM.II.

,555

PRETEST dolor MM.SS.

,852

VALIDEZ Y FIABILIDADVALIDEZ Y FIABILIDAD

DE LA ESCALA DE MEDIDADE LA ESCALA DE MEDIDA

Analizar/ Reducción de datos / Análisis factorial / Analizar/ Reducción de datos / Análisis factorial / KMO y prueba de esfericidad de Barlett KMO y prueba de esfericidad de Barlett

Análisis de la Variabilidad Análisis de la Variabilidad (varianza) de una medición(varianza) de una medición

Identificar un pequeño número de factores que explique la mayoría de la varianza observada.

Kaiser-Meyer-Olkin contrasta si las correlaciones parciales entre las variables son pequeñas (% de varianza en mis variables generada por esos factores).

La prueba de esfericidad de Bartlett me indica si mis variables están relacionadas o no.

Gráfico de sedimentación: varianza asociada a cada factor. Típicamente muestra la clara ruptura entre la pronunciada pendiente de los factores más importantes y el descenso gradual de los restantes (los sedimentos).

Page 17: Estadistica

ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVAUNIVARIANTEUNIVARIANTE

Page 18: Estadistica

Una Una distribución de frecuenciasdistribución de frecuencias consiste en consiste en

presentar deforma ordenada todos los valores que presentar deforma ordenada todos los valores que

contiene la variable objeto de estudio, así como la contiene la variable objeto de estudio, así como la

frecuencia con que aparecenfrecuencia con que aparecen

En el SPSS: En el SPSS:

ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVA

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Page 19: Estadistica

Una serie de datos quedan perfectamente definidos si se dan sus tablas de Una serie de datos quedan perfectamente definidos si se dan sus tablas de

frecuencias o se realizan unas representaciones gráficas adecuadasfrecuencias o se realizan unas representaciones gráficas adecuadas..

A veces es más simple y suficientemente representativo obtener unas A veces es más simple y suficientemente representativo obtener unas

medidas que los resumamedidas que los resuma..

A tales medidas se les denominaA tales medidas se les denomina medidas de distribución de frecuencias.medidas de distribución de frecuencias.

medidas de tendencia central,medidas de tendencia central,

medidas de posición,medidas de posición,

medidas de dispersión ymedidas de dispersión y

medidas de forma.medidas de forma.

ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVA

Page 20: Estadistica

ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVA

MEDIDAS DEMEDIDAS DE

TENDENCIATENDENCIA

CENTRALCENTRAL

• MediaMedia

• MedianaMediana

• ModaModa

MEDIDAS DEMEDIDAS DE

DISPERSIÓN oDISPERSIÓN o

VARIABILIDADVARIABILIDAD

• Desviación típicaDesviación típica

• VarianzaVarianza

• AmplitudAmplitud

MEDIDAS MEDIDAS

DE FORMADE FORMA

• AsimetríaAsimetría

• CurtosisCurtosis

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos

Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar

MEDIDAS DEMEDIDAS DE

POSICIÓNPOSICIÓN

• MedianaMediana

•CuartilesCuartiles

•DecilesDeciles

•CentilesCentiles

•PercentilesPercentiles

Page 21: Estadistica

MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL

• MEDIA: se define como el valor obtenido como MEDIA: se define como el valor obtenido como

resultado de sumar todas las puntuaciones y resultado de sumar todas las puntuaciones y

dividir por el número de las mismas.dividir por el número de las mismas.

Para su cálculo, los datos han de estar medidos, al Para su cálculo, los datos han de estar medidos, al

menos, en una escala de intervalo.menos, en una escala de intervalo.

Solo para variables cuantitativas.Solo para variables cuantitativas.

Estadísticos

Área_de_contacto_pié_izquierdo48

0

126,6731

124,2000

80,08a

6080,31

Válidos

Perdidos

N

Media

Mediana

Moda

Suma

Existen varias modas. Semostrará el menor de los valores.

a.

Page 22: Estadistica

MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL

MEDIANA: es el valor MEDIANA: es el valor perteneciente o noperteneciente o no a la muestra a la muestra que divide en dos partes iguales un que divide en dos partes iguales un

conjunto de puntuaciones.conjunto de puntuaciones.

Deja tantas observaciones por debajo como por encima de él.Deja tantas observaciones por debajo como por encima de él.

Es el percentil 50Es el percentil 50

Su cálculo es posible cuando los datos se miden en escala ordinal, al menos (variables Su cálculo es posible cuando los datos se miden en escala ordinal, al menos (variables

cuantitativas).cuantitativas).

La mediana en un número de datos impar, corresponde al valore centralLa mediana en un número de datos impar, corresponde al valore central ..

Cuando el número de observaciones es par, la mediana es el promedio de las dos Cuando el número de observaciones es par, la mediana es el promedio de las dos

observaciones centrales.observaciones centrales.

La mediana es una medida de tendencia central queLa mediana es una medida de tendencia central que

no es sensible a los valores atípicos (a diferencia de lano es sensible a los valores atípicos (a diferencia de la

media).media).

Estadísticos

Área_de_contacto_pié_izquierdo48

0

126,6731

124,2000

80,08a

6080,31

Válidos

Perdidos

N

Media

Mediana

Moda

Suma

Existen varias modas. Semostrará el menor de los valores.

a.

Page 23: Estadistica

MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL

MODA: es el valor que más se repite dentro de un MODA: es el valor que más se repite dentro de un

conjunto de puntuaciones.conjunto de puntuaciones.

Valor con mayor frecuencia absoluta.Valor con mayor frecuencia absoluta.

Si varios valores comparten la mayor frecuencia de Si varios valores comparten la mayor frecuencia de

aparición, cada una de ellas es una moda.aparición, cada una de ellas es una moda.

SPSS da la + pequeña de esas modas múltiples.SPSS da la + pequeña de esas modas múltiples.

Se calcula con cualquiera de losSe calcula con cualquiera de los

niveles de medida (variables cuali-niveles de medida (variables cuali-

tativas o cuantitativas).tativas o cuantitativas).

Estadísticos

Área_de_contacto_pié_izquierdo48

0

126,6731

124,2000

80,08a

6080,31

Válidos

Perdidos

N

Media

Mediana

Moda

Suma

Existen varias modas. Semostrará el menor de los valores.

a.

Page 24: Estadistica

MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL

Suma: es la suma o total de todos los Suma: es la suma o total de todos los

valores, a lo largo de todos los casos que valores, a lo largo de todos los casos que

no tengan valores perdidosno tengan valores perdidos . .

Estadísticos

Área_de_contacto_pié_izquierdo48

0

126,6731

124,2000

80,08a

6080,31

Válidos

Perdidos

N

Media

Mediana

Moda

Suma

Existen varias modas. Semostrará el menor de los valores.

a.

Page 25: Estadistica

MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL

La mediana es menos sensible que la media a la variación de las observaciones La mediana es menos sensible que la media a la variación de las observaciones

muestralesmuestrales..

La media está muy influenciada por observaciones muy grandes o muy pequeñas con La media está muy influenciada por observaciones muy grandes o muy pequeñas con

relación a las restantes que componen la muestra, y sin embargo la mediana no.relación a las restantes que componen la muestra, y sin embargo la mediana no.

La mediana es el fundamento de diversas técnicas estadísticas, pero el número de La mediana es el fundamento de diversas técnicas estadísticas, pero el número de

estas es mucho menor que el de las técnicas basadas en la mediaestas es mucho menor que el de las técnicas basadas en la media..

La mediana es más recomendable que la media cuando la distribución de frecuencias La mediana es más recomendable que la media cuando la distribución de frecuencias

es muy asimétrica, es decir, cuando existen una o muy pocas observaciones en uno es muy asimétrica, es decir, cuando existen una o muy pocas observaciones en uno

de los extremos.de los extremos.

La media no debe ser calculada cuando las observaciones no sean numéricas.La media no debe ser calculada cuando las observaciones no sean numéricas.

La moda tiene el inconveniente de no ser necesariamente única.La moda tiene el inconveniente de no ser necesariamente única.

En el caso de variables cualitativas y dado que este tipo de datos no permite el cálculo En el caso de variables cualitativas y dado que este tipo de datos no permite el cálculo

ni de la media ni de la mediana, el cálculo de la moda es forzoso.ni de la media ni de la mediana, el cálculo de la moda es forzoso.

Las unidades en que vienen expresadas la media, mediana y moda corresponden a las Las unidades en que vienen expresadas la media, mediana y moda corresponden a las

de la variables en estudio.de la variables en estudio.

Page 26: Estadistica

MEDIDAS DE DISPERSIÓNMEDIDAS DE DISPERSIÓN

DESVIACIÓN TÍPICA: es la raíz cuadrada de la varianza.DESVIACIÓN TÍPICA: es la raíz cuadrada de la varianza.

VARIANZA: VARIANZA: suma de los cuadrados de las desviaciones respecto a la media suma de los cuadrados de las desviaciones respecto a la media

dividida por el número de casos menos 1dividida por el número de casos menos 1..

Es el promedio de las desviaciones de lasEs el promedio de las desviaciones de las

puntuaciones respecto a la media aritmética.puntuaciones respecto a la media aritmética.

Ejemplo: podemos obtener una media de 5 con los siguientes datos: Ejemplo: podemos obtener una media de 5 con los siguientes datos: 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay 5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay

mayor variabilidad. ¿pero como podemos medir la variabilidad?mayor variabilidad. ¿pero como podemos medir la variabilidad?

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos

Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar

Indican si los valores de las observaciones (si los valores de las modalidades de un carácter) se encuentran muy próximas entre sí o muy dispersas.

Page 27: Estadistica

MEDIDAS DE DISPERSIÓNMEDIDAS DE DISPERSIÓN

AMPLITUD: es la diferencia entre el valor máximo y el AMPLITUD: es la diferencia entre el valor máximo y el

mínimo de un conjunto de puntuacionesmínimo de un conjunto de puntuaciones. .

Mínimo. Valor más pequeño de una variable numéricaMínimo. Valor más pequeño de una variable numérica..

Máximo. El mayor valor de una variable numéricaMáximo. El mayor valor de una variable numérica..

Error Típico de la media. Medida de cuánto puede variar el Error Típico de la media. Medida de cuánto puede variar el

valor de la media de una muestra a otra, extraídas éstas de valor de la media de una muestra a otra, extraídas éstas de

la misma distribuciónla misma distribución..

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos

Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar

Page 28: Estadistica

MEDIDAS DE DISPERSIÓNMEDIDAS DE DISPERSIÓN

Todas las medidas de dispersión son siempre positivasTodas las medidas de dispersión son siempre positivas..

Todas las medidas de dispersión se anulan cuando todas las observaciones Todas las medidas de dispersión se anulan cuando todas las observaciones

muestrales son idénticas.muestrales son idénticas.

La amplitud presenta el inconveniente de utilizar únicamente dos La amplitud presenta el inconveniente de utilizar únicamente dos

observaciones: las dos más extremas.observaciones: las dos más extremas.

La varianza tiene el inconveniente de tener como unidades las de la variable La varianza tiene el inconveniente de tener como unidades las de la variable

original al cuadrado. Esta es la razón por la que se emplea la desviación original al cuadrado. Esta es la razón por la que se emplea la desviación

típicatípica..

La varianza y la desviación típica son muy sensibles a la variación de cada La varianza y la desviación típica son muy sensibles a la variación de cada

una de las observaciones, ya que su valor depende de todos y cada uno de una de las observaciones, ya que su valor depende de todos y cada uno de

los valores de los datos obtenidos en la muestralos valores de los datos obtenidos en la muestra..

La varianza y la desviación típica son fundamentos de muchas técnicas La varianza y la desviación típica son fundamentos de muchas técnicas

estadísticasestadísticas..

No se recomienda el uso de la varianza o de la desviación típica en aquellos No se recomienda el uso de la varianza o de la desviación típica en aquellos

casos en los que no se recomiende el uso de la media como medida de casos en los que no se recomiende el uso de la media como medida de

tendencia centraltendencia central..

Page 29: Estadistica

MEDIDAS DE FORMAMEDIDAS DE FORMA

Estas medidas nos informan sobre la distribución de las Estas medidas nos informan sobre la distribución de las puntuacionespuntuaciones

Describen la forma y la simetría de mi distribución de datos.Describen la forma y la simetría de mi distribución de datos. Dos medidas: (Dos medidas: (asimetríaasimetría y curtosis) y curtosis)

ASIMETRÍAASIMETRÍA:: Si valores de media, mediana y moda coinciden Si valores de media, mediana y moda coinciden distribución simétricadistribución simétrica Cuando se alejan hacia la izda Cuando se alejan hacia la izda asimetría negativaasimetría negativa Hacia la dcha Hacia la dcha asimetría positivaasimetría positiva

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos

Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar

Estadísticos

Área_de_contacto_pié_izquierdo48

0

,173

,343

,077

,674

Válidos

Perdidos

N

Asimetría

Error típ. de asimetría

Curtosis

Error típ. de curtosis

Page 30: Estadistica

MEDIDAS DE FORMAMEDIDAS DE FORMA

ASIMETRÍAASIMETRÍA:: Una distribución que tenga una asimetría Una distribución que tenga una asimetría positivapositiva significativa tiene una significativa tiene una

cola derecha largacola derecha larga.. Una distribución que tenga una asimetría Una distribución que tenga una asimetría negativanegativa significativa tiene una significativa tiene una

cola izquierda largacola izquierda larga.. Un valor de la asimetría mayor que el doble de su error típico se asume Un valor de la asimetría mayor que el doble de su error típico se asume

que indica una desviación de la simetríaque indica una desviación de la simetría.. Cuando al trazar una vertical, en el diagrama de barras o histograma, de Cuando al trazar una vertical, en el diagrama de barras o histograma, de

una variable (discreta o continua) por la media, esta vertical es el eje de una variable (discreta o continua) por la media, esta vertical es el eje de simetría, la distribución es simétricasimetría, la distribución es simétrica..

Simétrica, cuando a ambos lados de la media aritmética haya el mismo Simétrica, cuando a ambos lados de la media aritmética haya el mismo nº de valores de la variable, equidistantes de dicha media dos a dos, y nº de valores de la variable, equidistantes de dicha media dos a dos, y tales que cada par de valores equidistantes tiene la misma frecuencia tales que cada par de valores equidistantes tiene la misma frecuencia absoluta.absoluta.

Page 31: Estadistica

MEDIDAS DE FORMAMEDIDAS DE FORMA

Cálculo de la ASIMETRÍACálculo de la ASIMETRÍA::

coeficiente de FISHER (coeficiente de FISHER (gg11):): Si gSi g11 > 0 > 0 la distribución será asimétrica positiva o a derechas la distribución será asimétrica positiva o a derechas

(desplazada hacia la derecha).(desplazada hacia la derecha). Si gSi g11 < 0 < 0 la distribución será asimétrica negativa o a izquierdas la distribución será asimétrica negativa o a izquierdas

(desplazada hacia la izquierda).(desplazada hacia la izquierda).   Si gSi g11 = 0 = 0 la distribución será simétricala distribución será simétrica..

coeficiente de PEARSON (Ap):coeficiente de PEARSON (Ap): solo es cierto cuando la distribuciónsolo es cierto cuando la distribución

tiene las siguientes condiciones: Unimodal,tiene las siguientes condiciones: Unimodal,

campaniforme y moderada o ligeramente asimetrica. campaniforme y moderada o ligeramente asimetrica.

Page 32: Estadistica

MEDIDAS DE FORMAMEDIDAS DE FORMA

CURTOSISCURTOSIS: : Medida del grado en que las observaciones están agrupadas en torno al Medida del grado en que las observaciones están agrupadas en torno al

punto centralpunto central Nos indica el apuntamiento o escarpamiento de la distribución de Nos indica el apuntamiento o escarpamiento de la distribución de

puntuaciones.puntuaciones.

Analizar/ Estadísticos descriptivos/ Frecuencias oAnalizar/ Estadísticos descriptivos/ Frecuencias o

Analizar/ Estadísticos descriptivos/ DescriptivosAnalizar/ Estadísticos descriptivos/ Descriptivos

Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar

Estadísticos

Área_de_contacto_pié_izquierdo48

0

,173

,343

,077

,674

Válidos

Perdidos

N

Asimetría

Error típ. de asimetría

Curtosis

Error típ. de curtosis

Page 33: Estadistica

MEDIDAS DE POSICIÓNMEDIDAS DE POSICIÓN

Estas medidas nos informan de la situación de una puntuación Estas medidas nos informan de la situación de una puntuación

respecto al grupo en el que se encuentra incluído.respecto al grupo en el que se encuentra incluído. MedianaMediana: es tb una medida de tendencia central, aquí divide la distribución : es tb una medida de tendencia central, aquí divide la distribución

de la variable en dos partes iguales.de la variable en dos partes iguales.

Cuartiles:Cuartiles: son los 3 valores que divide en 4 partes idénticas el conjunto de son los 3 valores que divide en 4 partes idénticas el conjunto de

puntuacionespuntuaciones

DecilesDeciles: son los 9 valores que divide en 10 partes idénticas el conjunto de : son los 9 valores que divide en 10 partes idénticas el conjunto de

puntuacionespuntuaciones

Centiles:Centiles: es dividir la distribución de la variable en 100 partes iguales es dividir la distribución de la variable en 100 partes iguales

99 valores, 99 valores, pertenecientes o no a la distibución de datos,pertenecientes o no a la distibución de datos, que dividen a esta en 100 que dividen a esta en 100

partes igualespartes iguales..

Percentiles:Percentiles: es asignar a un valor de la variable el porcentaje de individuos es asignar a un valor de la variable el porcentaje de individuos

que deja por debajo de él.que deja por debajo de él.

Tales medidas son información de las m ésimas (por ciento, décimas Tales medidas son información de las m ésimas (por ciento, décimas

y cuartas) partes del total de puntuaciones del grupo.y cuartas) partes del total de puntuaciones del grupo.

Page 34: Estadistica

MEDIDAS DE POSICIÓNMEDIDAS DE POSICIÓN

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Analizar/ Estadísticos descriptivos/ ExplorarAnalizar/ Estadísticos descriptivos/ Explorar

Estadísticos

edad52

0

47,30

55,00

62,00

66,75

Válidos

Perdidos

N

5

25

50

75

Percentiles

Estadísticos

edad52

0

55,00

62,00

66,75

Válidos

Perdidos

N

25

50

75

Percentiles

Estadísticos

edad52

0

50,30

54,60

55,00

55,00

57,20

62,00

64,00

65,10

66,75

68,00

70,00

Válidos

Perdidos

N

10

20

25

30

40

50

60

70

75

80

90

Percentiles

Page 35: Estadistica

MEDIDAS DE POSICIÓNMEDIDAS DE POSICIÓN

Analizar/ Estadísticos descriptivos/ FrecuenciasAnalizar/ Estadísticos descriptivos/ Frecuencias

Estadísticos

edad52

0

55,00

62,00

66,75

Válidos

Perdidos

N

25

50

75

Percentiles

eda d

1 1,9 1,9 1,9

1 1,9 1,9 3,8

1 1,9 1,9 5,8

1 1,9 1,9 7,7

1 1,9 1,9 9,6

1 1,9 1,9 11,5

3 5,8 5,8 17,3

1 1,9 1,9 19,2

6 11,5 11,5 30,8

3 5,8 5,8 36,5

2 3,8 3,8 40,4

2 3,8 3,8 44,2

1 1,9 1,9 46,2

1 1,9 1,9 48,1

5 9,6 9,6 57,7

2 3,8 3,8 61,5

5 9,6 9,6 71,2

2 3,8 3,8 75,0

1 1,9 1,9 76,9

3 5,8 5,8 82,7

1 1,9 1,9 84,6

4 7,7 7,7 92,3

1 1,9 1,9 94,2

1 1,9 1,9 96,2

2 3,8 3,8 100,0

52 100,0 100,0

45

46

48

49

50

51

52

54

55

56

57

58

60

61

62

64

65

66

67

68

69

70

71

72

76

Total

VálidosFrecuencia Porcentaje

Porcentajeválido

Porcentajeacumulado

Page 36: Estadistica

LA DISTRIBUCIÓN NORMALLA DISTRIBUCIÓN NORMAL

Abraham de Moivre (1667-1754)Abraham de Moivre (1667-1754)

Carl Friedrich Gauss (1777-1855)Carl Friedrich Gauss (1777-1855)

Page 37: Estadistica

PROPIEDADES DE LA DISTRIBUCIÓN NORMALPROPIEDADES DE LA DISTRIBUCIÓN NORMAL

Tiene una única moda, que coincide con su media y su Tiene una única moda, que coincide con su media y su mediana.mediana.

La curva normal es asintótica al eje de abscisas (área total La curva normal es asintótica al eje de abscisas (área total bajo la curva es = 1)bajo la curva es = 1)

Es simétrica con respecto a su media.Es simétrica con respecto a su media. La distancia entre la línea trazada en la media y el punto de La distancia entre la línea trazada en la media y el punto de

inflexión de la curva es igual a una desviación típica.inflexión de la curva es igual a una desviación típica. El área bajo la curva comprendido entre los valores situados El área bajo la curva comprendido entre los valores situados

aproximadamente a dos desviaciones estándar de la media aproximadamente a dos desviaciones estándar de la media es igual a 0,95.es igual a 0,95.

La forma de la campana de Gauss depende de los La forma de la campana de Gauss depende de los parámetros: media y desviación típicaparámetros: media y desviación típica

Page 38: Estadistica

DISTRIBUCIÓN NORMAL ESTÁNDARDISTRIBUCIÓN NORMAL ESTÁNDAR

Corresponde a una distribución de media 0 y varianza 1.Corresponde a una distribución de media 0 y varianza 1.

Page 39: Estadistica

CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD

Determina si se ajusta a una normal o no (paramétrica o no paramétrica). Esto determina el tipo de pruebas estadísticas a desarrollar, para establecer

correlaciones o contrastar hipótesis que establezcan la existencia de una relación causa efecto.

Los coeficientes de asimetría de Fisher y de Pearson indican si una distribución se ajusta a una normal ( = 0).

Existen tres pruebas estadísticas que nos permiten determinar si una distribución de datos se ajusta a una normal o no:

el test de Kolmogorov-Smirnov para una muestra (en el SPSS Analizar/ Pruebas no paramétricas/ K-S de 1 muestra) (variables cuantitativas).

El test de Kolmogorov-Smirnov con un nivel de significación de Lilliefors (en el SPSS Analizar/ Estadísticos descriptivos/ Explorar se abre un cuadro de diálogo en el que podemos meternos en la pestaña “gráficos”, una vez que entramos en gráficos marcamos la cuadrícula “Gráficos con pruebas de normalidad”). (variables cuantitativas).

Page 40: Estadistica

CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD

Coeficiente de asimetría de FisherCoeficiente de asimetría de Fisher

Test de Kolmogorov-SmirnovTest de Kolmogorov-Smirnov

Analizar/ Pruebas no paramétricas/ K-S de 1 muestraAnalizar/ Pruebas no paramétricas/ K-S de 1 muestra

Las variables pretest, Las variables pretest, postest e índice de mejora postest e índice de mejora no se distribuyen de forma no se distribuyen de forma normal.normal.

Tendremos que usar pruebas no paramétricas (aunque si el tamaño de la muestra es grande la “violación” de los supuestos paramétricos es tolerable.

Sig. mayor de 0,05 se ajusta a la normal. Menor a 0,05 no se ajusta a la normal.

Variables cuantitativas

Page 41: Estadistica

CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD

Test de Kolmogorov-SmirnovTest de Kolmogorov-Smirnov

Analizar/ Pruebas no paramétricas/ K-S de 1 muestraAnalizar/ Pruebas no paramétricas/ K-S de 1 muestra

La variable número de sesiones en todos los casos La variable número de sesiones en todos los casos no se no se distribuyen de forma normal.distribuyen de forma normal.

Pero los grado I y grado II Pero los grado I y grado II si se distribuyen de forma normalsi se distribuyen de forma normal

Variables cuantitativas

Page 42: Estadistica

CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD

Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidadGráficps con prueba de normalidad

Test de Kolmogorov-Smirnov con un nivel de Test de Kolmogorov-Smirnov con un nivel de significación de Lillieforssignificación de Lilliefors

Page 43: Estadistica

CONTRASTE DE NORMALIDADCONTRASTE DE NORMALIDAD

Test de Kolmogorov-Smirnov con un nivel de Test de Kolmogorov-Smirnov con un nivel de significación de Lillieforssignificación de Lilliefors

Valor observado20018016014012010080

Des

v. d

e n

orm

al

0,75

0,50

0,25

0,00

-0,25

Gráfico Q-Q normal sin tendencias de Área_de_contacto_pié_izquierdo

Valor observado20018016014012010080

No

rma

l es

pe

rad

o

4

2

0

-2

-4

Gráfico Q-Q normal de Área_de_contacto_pié_izquierdo

Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Analizar/ Estadísticos descriptivos/ Explorar/ Gráficos/ Gráficps con prueba de normalidadGráficps con prueba de normalidad

Page 44: Estadistica

REPRESENTACIÓN GRÁFICA REPRESENTACIÓN GRÁFICA DE LA INFORMACIÓNDE LA INFORMACIÓN

Page 45: Estadistica

CONDICIONES GENERALES QUE CONDICIONES GENERALES QUE DEBEN CUMPLIRDEBEN CUMPLIR

• Deben indicar claramente las escalas y Deben indicar claramente las escalas y unidades de medida.unidades de medida.

• Deben explicarse por sí solas.Deben explicarse por sí solas.

• Deben contribuir a clarificar el material Deben contribuir a clarificar el material presentadopresentado..

Page 46: Estadistica

GRÁFICO DE SECTORES GRÁFICO DE SECTORES Y GRÁFICO DE BARRAS Y GRÁFICO DE BARRAS

Analizar/ Estadísticos descriptivos/ Frecuecias/ GráficosAnalizar/ Estadísticos descriptivos/ Frecuecias/ Gráficos

Se pueden emplear en variables cuantitativas, Se pueden emplear en variables cuantitativas, pero forzosamente en las cualitativaspero forzosamente en las cualitativas

Gráfico de Sectores: Contribución de las Gráfico de Sectores: Contribución de las partes a un todo (frecuencia o %). El ángulo partes a un todo (frecuencia o %). El ángulo central es proporcional a la frecuencia central es proporcional a la frecuencia absoluta.absoluta.

Gráfico de Barras: muestra la Gráfico de Barras: muestra la frecuencia de cada valor como una frecuencia de cada valor como una barra diferente permitiendo comparar barra diferente permitiendo comparar las categorías de forma visual las categorías de forma visual (frecuencia o %).(frecuencia o %).

Page 47: Estadistica

HISTOGRAMAHISTOGRAMA

Representación de una variable cuantitativa que muestra la concentración relativa de los datos a lo largo de diferentes intervalos o secciones de la escala en la que están medidos dichos datos.

Cuentan con barras, pero se representan a lo largo de una escala de intervalos iguales

La altura de cada barra es el recuento de los valores que están dentro del intervalo para una variable cuantitativa.

Los histogramas muestran la forma, el centro y la dispersión de la distribución.

El histograma se construye sobre unos ejes de coordenadas.

Se señalan en el eje horizontal los distintos extremos de los intervalos de clase, y en el eje vertical las frecuencias relativas partidas por las amplitudes de cada intervalo.

A partir de esto se construyen rectángulos yuxtapuestos, cuyas bases son los diferentes intervalos de clase y cuya altura es el cociente de la frecuencia relativa entre la amplitud del intervalo.

Page 48: Estadistica

POLÍGONO DE FRECUENCIASPOLÍGONO DE FRECUENCIAS

El polígono de frecuencias resulta de la unión mediante una línea quebrada de los puntos medios de las bases superiores de los rectángulos de un histograma.

No es aplicable a las variables cualitativas

Page 49: Estadistica

CAJA Y BIGOTESCAJA Y BIGOTES

En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y los valores extremos.

La caja central registra los valores comprendidos entre los percentiles del 25 (borde inferior de la caja) al 75 (borde superior de la caja).

La línea negra que viene remarcada se corresponde con el percentil 50 o mediana.

Los bigotes representan los casos máximo y mínimo.

(ojo cuando aparezca un * no se corresponden con mínimo y máximo).

Page 50: Estadistica

DIAGRAMA DE TALLO Y HOJAS DIAGRAMA DE TALLO Y HOJAS

Tallo Hojas

Page 51: Estadistica

GRÁFICO DE NORMALIDADGRÁFICO DE NORMALIDAD

Valor observado20018016014012010080

Des

v. d

e n

orm

al

0,75

0,50

0,25

0,00

-0,25

Gráfico Q-Q normal sin tendencias de Área_de_contacto_pié_izquierdo

Page 52: Estadistica

DIAGRAMA DE BARRAS AGRUPADASDIAGRAMA DE BARRAS AGRUPADASY BARRAS DE ERRORY BARRAS DE ERROR

Page 53: Estadistica

GRÁFICO DE LÍNEASGRÁFICO DE LÍNEASY DIAGRAMA DE DISPERSIÓNY DIAGRAMA DE DISPERSIÓN

Page 54: Estadistica

DOS DIAGRAMAS DE LÍNEAS SUPERPUESTOSDOS DIAGRAMAS DE LÍNEAS SUPERPUESTOSY DIAGRAMA DE DISPERSIÓN Y DIAGRAMA DE DISPERSIÓN (REGRESIÓN LOGÍSTICA)(REGRESIÓN LOGÍSTICA)

Page 55: Estadistica

ESTADÍSTICA DESCRIPTIVAESTADÍSTICA DESCRIPTIVABIVARIANTEBIVARIANTE

Page 56: Estadistica

RELACIÓN ENTRERELACIÓN ENTREVARIABLES Y REGRESIÓNVARIABLES Y REGRESIÓN

El establecimiento de El establecimiento de la la correlacióncorrelación supone supone el primer paso para el primer paso para predecir una variable predecir una variable a partir de la otra.a partir de la otra.

Fuerte relacióndirecta.

30

40

50

60

70

80

90

100

140 150 160 170 180 190 200

Correlación positivaCorrelación positiva Correlación negativaCorrelación negativa

IncorrelaciónIncorrelación

Cierta relacióninversa

0

10

20

30

40

50

60

70

80

140 150 160 170 180 190 200

Incorrelación

30

80

130

180

230

280

330

140 150 160 170 180 190 200

Page 57: Estadistica

COEFICIENTES DE CORRELACIÓNCOEFICIENTES DE CORRELACIÓN

Si las dos variables son:Si las dos variables son:

Distribuciones Paramétricas (de intervalo u ordinal):Distribuciones Paramétricas (de intervalo u ordinal):

coeficiente de correlación de Pearsoncoeficiente de correlación de Pearson

Distribuciones No Paramétricas (de intervalo u ordinal)Distribuciones No Paramétricas (de intervalo u ordinal): :

coeficiente de correlación Spearmancoeficiente de correlación Spearman

Variables Nominales:Variables Nominales: coeficiente de contingenciacoeficiente de contingencia

Analizar/ Estadísticos descriptivos/ Tablas de contingenciaAnalizar/ Estadísticos descriptivos/ Tablas de contingencia

Analizar/ Correlaciones/ Analizar/ Correlaciones/ BivariadasBivariadas

Analizar/ Correlaciones/ Analizar/ Correlaciones/ BivariadasBivariadas

Page 58: Estadistica

COEF. CORREL. DE PEARSON COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS)(VARIABLES CUANTITATIVAS PARAMÉTRICAS)

Medida de la asociación lineal entre dos variablesMedida de la asociación lineal entre dos variables..

Sus valores se encuentran comprendidos entre -1 y 1.Sus valores se encuentran comprendidos entre -1 y 1.

El signo del coeficiente indica la dirección de la relación y su valor absoluto indica El signo del coeficiente indica la dirección de la relación y su valor absoluto indica

la fuerzala fuerza..

Los valores mayores indican que la relación es más estrechaLos valores mayores indican que la relación es más estrecha..

Un Un valor positivovalor positivo indica que a puntuaciones por encima de la media en una de las indica que a puntuaciones por encima de la media en una de las

variables le corresponden puntuaciones también por encima de la media en la variables le corresponden puntuaciones también por encima de la media en la

otra variable, y viceversa.otra variable, y viceversa.

Un Un valor negativovalor negativo señala que a puntuaciones por encima de la media en una de señala que a puntuaciones por encima de la media en una de

las variables le corresponden puntuaciones también por debajo de la media en la las variables le corresponden puntuaciones también por debajo de la media en la

otra variable, y viceversa.otra variable, y viceversa.

Un Un valor igual o cercano a cerovalor igual o cercano a cero indica que indica que no existe relación linealno existe relación lineal entre las entre las

variables, aunque puede existir cualquier otro tipo de relación no lineal.variables, aunque puede existir cualquier otro tipo de relación no lineal.

Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas

Page 59: Estadistica

Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas

COEF. CORREL. DE PEARSON COEF. CORREL. DE PEARSON (VARIABLES CUANTITATIVAS PARAMÉTRICAS)(VARIABLES CUANTITATIVAS PARAMÉTRICAS)

Page 60: Estadistica

COEF. CORREL. RHO DE SPEARMAN COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)(VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)

Versión no paramétrica del coeficiente de correlación de PearsonVersión no paramétrica del coeficiente de correlación de Pearson

Se basa en los rangos de los datos en lugar de hacerlo en los valores realesSe basa en los rangos de los datos en lugar de hacerlo en los valores reales..

Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el

supuesto de normalidadsupuesto de normalidad..

El signo del coeficiente indica la dirección de la relación y el valor absoluto del El signo del coeficiente indica la dirección de la relación y el valor absoluto del

coeficiente de correlación indica la fuerza de la relación entre las variables.coeficiente de correlación indica la fuerza de la relación entre las variables.

Los valores absolutos mayores indican que la relación es mayorLos valores absolutos mayores indican que la relación es mayor..

Es el coeficiente de correlación de Pearson, pero aplicado después de transformar las Es el coeficiente de correlación de Pearson, pero aplicado después de transformar las

puntuaciones originales en rangos.puntuaciones originales en rangos.

Toma valores entre -1y 1,Toma valores entre -1y 1, y se interpreta igual que el coeficiente de correlación de y se interpreta igual que el coeficiente de correlación de

Pearson.Pearson.

Se utiliza como alternativa al de Pearson cuando las variables estudiadas son Se utiliza como alternativa al de Pearson cuando las variables estudiadas son

ordinales y/o se incumple el supuesto de normalidadordinales y/o se incumple el supuesto de normalidad..

Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas

Page 61: Estadistica

Analizar/ Correlaciones/ BivariadasAnalizar/ Correlaciones/ Bivariadas

COEF. CORREL. RHO DE SPEARMAN COEF. CORREL. RHO DE SPEARMAN (VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)(VARIABLES CUANTITATIVAS NO PARAMÉTRICAS)

Page 62: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA

Permiten establecer si existe correlación entre:Permiten establecer si existe correlación entre:

Dos variables cualitativas nominales (dicotómicas etc). Dos variables cualitativas nominales (dicotómicas etc).

Cualquiera de las 2 puede ir en columnas o filas.Cualquiera de las 2 puede ir en columnas o filas.

Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir

en columnas o filas.en columnas o filas.

Una variable cuantitativa y otra nominal. Mejor poner la Una variable cuantitativa y otra nominal. Mejor poner la

cuantitativa en las filas y la cualitativa en las columnas.cuantitativa en las filas y la cualitativa en las columnas.

Entramos en el SPSS EN Analizar/ Estadísticos descriptivos/ Tablas de Entramos en el SPSS EN Analizar/ Estadísticos descriptivos/ Tablas de

Contingencia. En el cuadro de diálogo que se abre seleccionamos la variable que Contingencia. En el cuadro de diálogo que se abre seleccionamos la variable que

queremos que vaya en las columnas y cual en las filas. Después entramos en la queremos que vaya en las columnas y cual en las filas. Después entramos en la

pestaña pestaña estadísticosestadísticos que nos permite 3 opciones fundamentalmente. que nos permite 3 opciones fundamentalmente.

Page 63: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA

Permite obtener el estadístico Chi-cuadrado. Permite obtener el estadístico Chi-cuadrado.

Permite obtener correlaciones (coeficiente de correlación de Pearson Permite obtener correlaciones (coeficiente de correlación de Pearson

o Rho de Spearman).o Rho de Spearman).

En el caso de comparar En el caso de comparar DOS VARIABLES NOMINALESDOS VARIABLES NOMINALES pedimos el pedimos el

coeficiente de contingencia.coeficiente de contingencia.

Medida de asociación basada en chi-cuadradoMedida de asociación basada en chi-cuadrado..

El valor siempre está comprendido entre 0 y 1 (también puede ser El valor siempre está comprendido entre 0 y 1 (también puede ser

negativo)negativo)..

El valor 0 indica que no hay asociación entre las variables.El valor 0 indica que no hay asociación entre las variables.

Valores cercanos a 1 indican que hay gran relación entre las variables.Valores cercanos a 1 indican que hay gran relación entre las variables.

Page 64: Estadistica

TABLAS DE CONTIGENCIA TABLAS DE CONTIGENCIA (CORRELACIONANDO DOS VARIABLES NOMINALES)(CORRELACIONANDO DOS VARIABLES NOMINALES)

Ejemplo: matriz faltar a clase (si o no) según sexo (26 hombres frente Ejemplo: matriz faltar a clase (si o no) según sexo (26 hombres frente

a 26 mujeres).a 26 mujeres).

Page 65: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO DOS VARIABLES ORDINALES)(CORRELACIONANDO DOS VARIABLES ORDINALES)

En el caso de comparar dos variables ordinales pedimos en En el caso de comparar dos variables ordinales pedimos en Analizar/ Analizar/

Estadísticos descriptivos/ Tablas de Contingencia/ Estadísticos Estadísticos descriptivos/ Tablas de Contingencia/ Estadísticos “ordinal” el “ordinal” el

coeficiente Gamma.coeficiente Gamma.

Gamma es una medida de asociación simétrica entre dos variables Gamma es una medida de asociación simétrica entre dos variables

ordinales cuyo valor siempre está comprendido entre -1 y 1ordinales cuyo valor siempre está comprendido entre -1 y 1..

Los valores próximos a 1, en valor absoluto, indican una fuerte relación Los valores próximos a 1, en valor absoluto, indican una fuerte relación

entre las dos variablesentre las dos variables..

Los valores próximos a cero indican que hay poca o ninguna relación Los valores próximos a cero indican que hay poca o ninguna relación

entre las dos variables.entre las dos variables.

Page 66: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO DOS VARIABLES ORDINALES)(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos Ejemplo: matriz ingresos

(ninguno, escasos, (ninguno, escasos,

moderados o elevados) moderados o elevados)

según edad del sujeto según edad del sujeto

(niño, adolescente, joven, (niño, adolescente, joven,

adulto joven, adulto adulto joven, adulto

mediana edad).mediana edad).

Page 67: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO DOS VARIABLES ORDINALES)(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) según edad del Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) según edad del

sujeto (niño, adolescente, joven, adulto joven, adulto mediana edad).sujeto (niño, adolescente, joven, adulto joven, adulto mediana edad).

Page 68: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE

DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Cuando una variable es categórica y la otra es cuantitativa Cuando una variable es categórica y la otra es cuantitativa empleamos el estadístico “Eta”.empleamos el estadístico “Eta”.

La variable categórica debe codificarse numéricamente.La variable categórica debe codificarse numéricamente.

Eta. Medida de asociación cuyo valor siempre está comprendido Eta. Medida de asociación cuyo valor siempre está comprendido entre 0 y 1.entre 0 y 1.

El valor 0 indica que no hay asociación entre la variable de fila (la El valor 0 indica que no hay asociación entre la variable de fila (la cuantitativa) y de columna (la cualitativa nominal).cuantitativa) y de columna (la cualitativa nominal).

Los valores cercanos a 1 indican que hay gran relación entre las Los valores cercanos a 1 indican que hay gran relación entre las variables.variables.

Se calculan dos valores de eta: uno trata la variable de las columnas Se calculan dos valores de eta: uno trata la variable de las columnas como una variable de intervalo; el otro trata la variable de las filas como una variable de intervalo; el otro trata la variable de las filas como una variable de intervalo.como una variable de intervalo.

Page 69: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE (CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE

DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Ejemplo: matriz piernas (relación entre el ángulo tibio-tarsiano anterior con el suelo Ejemplo: matriz piernas (relación entre el ángulo tibio-tarsiano anterior con el suelo o ángulo Rebollo y la longitud del miembro inferior medida como variable nominal o ángulo Rebollo y la longitud del miembro inferior medida como variable nominal dicotómica: pierna corta o larga)dicotómica: pierna corta o larga)..

Page 70: Estadistica

TABLAS DE CONTIGENCIATABLAS DE CONTIGENCIA

Las Tablas de Contingencia, además de todo lo Las Tablas de Contingencia, además de todo lo

anterior, nos permiten obtener otros muchos anterior, nos permiten obtener otros muchos

estadísticos, entre ellos el estadísticos, entre ellos el ÍNDICE KAPPA DE ÍNDICE KAPPA DE

COHENCOHEN que ya hemos comentado y que nos que ya hemos comentado y que nos

permite calcular la permite calcular la FIABILIDAD DE LA FIABILIDAD DE LA

MEDICIÓN DE UNA VARIABLE MEDICIÓN DE UNA VARIABLE

CUALITATIVACUALITATIVA..

Page 71: Estadistica

ESTADÍSTICA INFERENCIALESTADÍSTICA INFERENCIAL

Page 72: Estadistica

HIPÓTESIS ESTADÍSTICASHIPÓTESIS ESTADÍSTICAS

Cuando investigamos, buscamos generalizar los resultados, Cuando investigamos, buscamos generalizar los resultados, lo cual va a ser posible con la estadística inferencial.lo cual va a ser posible con la estadística inferencial.

Partimos de Partimos de hipótesis científicashipótesis científicas, que son traducidas a , que son traducidas a hipótesis estadísticas.hipótesis estadísticas.

Las hipótesis estadísticas son Las hipótesis estadísticas son PROPOSICIONES ACERCAPROPOSICIONES ACERCA de parámetros de la población, tales como la de parámetros de la población, tales como la mediamedia, , varianza, correlación, etc.varianza, correlación, etc.

Dos tipos de hipótesis estadísticas:Dos tipos de hipótesis estadísticas: Hipótesis nula (HHipótesis nula (H00):): generalmente supone la negación de la generalmente supone la negación de la

hipótesis de contraste.hipótesis de contraste.

Hipótesis alternativa (HHipótesis alternativa (H11):): supone la afirmación de la hipótesis supone la afirmación de la hipótesis

que deseamos someter a contraste.que deseamos someter a contraste.

Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)HH00 IH ≤ IM IH ≤ IM HH1 1 IH > IM IH > IM

Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)Por ejemplo: Los ingresos del hombre (IH) son > que los de la mujer (IM)HH00 IH ≤ IM IH ≤ IM HH1 1 IH > IM IH > IM

Page 73: Estadistica

DECISIÓN ESTADÍSTICADECISIÓN ESTADÍSTICA

Basándonos en la distribución muestral del estadístico de contraste Basándonos en la distribución muestral del estadístico de contraste podemos conocer cuál es el valor esperado para esa distribución bajo podemos conocer cuál es el valor esperado para esa distribución bajo la hipótesis nula. En consecuencia, compararíamos nuestro valor la hipótesis nula. En consecuencia, compararíamos nuestro valor observado con el esperado para decidir si rechazamos o no la observado con el esperado para decidir si rechazamos o no la hipótesis nula.hipótesis nula.

Región de rechazo:Región de rechazo: región formada por los valores que se alejan del valor región formada por los valores que se alejan del valor esperado bajo Hesperado bajo H00..

Región de aceptación:Región de aceptación: región formada por los valores que no se alejan región formada por los valores que no se alejan tanto del valor esperado bajo Htanto del valor esperado bajo H0.0.

Valores críticos:Valores críticos: valores del estadístico de contraste que delimitan la región valores del estadístico de contraste que delimitan la región del rechazodel rechazo

Page 74: Estadistica

Contraste bilateral:Contraste bilateral: cuando los valores se alejan de lo esperado bajo H cuando los valores se alejan de lo esperado bajo H00, ,

por ser muy grandes y por ser muy pequeños.por ser muy grandes y por ser muy pequeños.

Contraste unilateral:Contraste unilateral: cuando los valores se alejan de lo esperado bajo cuando los valores se alejan de lo esperado bajo

HH00, solo por ser muy grandes o sólo por ser muy pequeños., solo por ser muy grandes o sólo por ser muy pequeños.

Nivel de significación:Nivel de significación: probabilidad probabilidad de que una muestra genere un valor de que una muestra genere un valor

del estadístico de contraste que esté del estadístico de contraste que esté dentro de la región de rechazodentro de la región de rechazo..

Nivel de confianza:Nivel de confianza: probabilidadprobabilidad de que una muestra genere un valor del de que una muestra genere un valor del

estadístico de contraste que esté fuera de la región de rechazo, es decir estadístico de contraste que esté fuera de la región de rechazo, es decir

que esté que esté dentro de la región de aceptacióndentro de la región de aceptación (1- (1-αα ). ).

DECISIÓN ESTADÍSTICADECISIÓN ESTADÍSTICA

Page 75: Estadistica

DECISIÓN ESTADÍSTICA

Cuatro situaciones posibles al realizar un test de hipótesis:Cuatro situaciones posibles al realizar un test de hipótesis:

RealidadRealidad

HH0 0 verdadero Hverdadero H1 1

FalsoFalso

HH00 Falso Falso

HH1 1 verdaderoverdadero

Decisión que Decisión que toma el toma el

investigador investigador

Acepto HAcepto H0 0

Rechazo HRechazo H11

AciertoAcierto

Error Error ββ

OO

De Tipo IIDe Tipo II

Rechazo HRechazo H00

Acepto HAcepto H11

Error Error αα

O O

De Tipo IDe Tipo I

AciertoAcierto

(Potencia (Potencia ӨӨ ) )

Page 76: Estadistica

DECISIÓN ESTADÍSTICA

Error Error αα:: Probabilidad de aceptar HProbabilidad de aceptar H11 siendo falsa. siendo falsa.

Error Error ββ: : Probabilidad de aceptar la HProbabilidad de aceptar la H00 siendo falsa. siendo falsa.

Ejemplo: realizo un test para saber si los sujetos de la muestra Ejemplo: realizo un test para saber si los sujetos de la muestra padecen una patología determinada.padecen una patología determinada.

HH00: No padecer la enfermedad. H: No padecer la enfermedad. H11: Padecer la enfermedad.: Padecer la enfermedad.

Error Error αα probabilidad de que el test de positivo y el paciente realmente probabilidad de que el test de positivo y el paciente realmente no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.

Al valor 1- Al valor 1- αα se le denomina NIVEL DE CONFIANZA. se le denomina NIVEL DE CONFIANZA.

Error Error ββ, el test me ha dado negativo y el paciente padece realmente la , el test me ha dado negativo y el paciente padece realmente la enfermedad. Es lo que denominamos FALSO NEGATIVO.enfermedad. Es lo que denominamos FALSO NEGATIVO.

Al valor 1- Al valor 1- ββ se le denomina “POTENCIA DEL CONTRASTE”. se le denomina “POTENCIA DEL CONTRASTE”.

Page 77: Estadistica

PROCESO DE DECISIÓN ESTADÍSTICAPROCESO DE DECISIÓN ESTADÍSTICA

1.1. Formular hipótesis nula (HFormular hipótesis nula (H00) y alternativa (H) y alternativa (H11))

2.2. Fijar el nivel de significación (0,05 o 0,01)Fijar el nivel de significación (0,05 o 0,01)

3.3. Elegir el estadístico adecuado de contraste (t-student ...)Elegir el estadístico adecuado de contraste (t-student ...)

4.4. Determinar el valor del estadístico de contrasteDeterminar el valor del estadístico de contraste

5.5. Comprobar si el valor observado este dentro de la región de Comprobar si el valor observado este dentro de la región de

aceptación (es decir que es < o > que aceptación (es decir que es < o > que αα o lo que es lo mismo o lo que es lo mismo

que este por encima o por debajo del nivel de significación 1- que este por encima o por debajo del nivel de significación 1-

αα).).

6.6. Decidir si se rechaza o se mantiene la HDecidir si se rechaza o se mantiene la H0 0 (si me sale 0,02 (si me sale 0,02

acepto la Hacepto la H11 y rechazo la H y rechazo la H00).).

7.7. Interpretar el resultado de acuerdo con el problemaInterpretar el resultado de acuerdo con el problema

Page 78: Estadistica

NIVEL DE SIGNIFICACIÓNNIVEL DE SIGNIFICACIÓN

NIVEL DE SIGNIFICACIÓN NIVEL DE SIGNIFICACIÓN “p” “p”

El El nivel de significaciónnivel de significación fija el fija el límitelímite máximo que puede máximo que puede

tomar esta “p”, mientras que el tomar esta “p”, mientras que el grado de significacióngrado de significación es la es la

probabilidad (el %) exacta de que habiendo aparecido estos probabilidad (el %) exacta de que habiendo aparecido estos

valores sea cierta la Hvalores sea cierta la H00

Page 79: Estadistica

¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?

SUPUESTOS PARAMÉTRICOSSUPUESTOS PARAMÉTRICOS

Pruebas paramétricas:Pruebas paramétricas: referidas a parámetros referidas a parámetros poblacionales. SIGUEN LA NORMAL.poblacionales. SIGUEN LA NORMAL.

Pruebas no paramétricas:Pruebas no paramétricas: no hacen ningún supuesto no hacen ningún supuesto acerca de la forma en la que fue extraída la muestra de la acerca de la forma en la que fue extraída la muestra de la población. NO SIGUEN LA NORMAL.población. NO SIGUEN LA NORMAL.

SUPUESTOS PARAMÉTRICOS:SUPUESTOS PARAMÉTRICOS:

1.1. Las variables han de ser CUANTITATIVAS continuas o discretas, Las variables han de ser CUANTITATIVAS continuas o discretas,

medidas, al menos, en una escala de intervalo.medidas, al menos, en una escala de intervalo.

2.2. La muestra procede de una población en la que las variables La muestra procede de una población en la que las variables

SIGUEN una distribución NORMAL.SIGUEN una distribución NORMAL.

3.3. Se cumple la homocedasticidad de varianzas (es decir IGUALDAD Se cumple la homocedasticidad de varianzas (es decir IGUALDAD

DE VARIANZAS).DE VARIANZAS).

4.4. La MUESTRA tiene un tamaño GRANDE La MUESTRA tiene un tamaño GRANDE (≥ 30)(≥ 30)

Page 80: Estadistica

¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?

SUPUESTOS PARAMÉTRICOSSUPUESTOS PARAMÉTRICOS

SUPUESTOS PARAMÉTRICOS:SUPUESTOS PARAMÉTRICOS:

5. Las observaciones son independientes entre sí.5. Las observaciones son independientes entre sí.

La selección de un caso cualquiera de la población con La selección de un caso cualquiera de la población con

miras a incluirlo en la muestra no debe afectar a las miras a incluirlo en la muestra no debe afectar a las

posibilidades de incluir a cualquier otro caso, y la posibilidades de incluir a cualquier otro caso, y la

puntuación que se asigne a un caso cualquiera no debe puntuación que se asigne a un caso cualquiera no debe

influir en la puntuación que se asigne a cualquier otro influir en la puntuación que se asigne a cualquier otro

caso.caso.

Page 81: Estadistica

¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?¿PRUEBA PARAMÉTRICA O NO PARAMÉTRICA?

Las pruebas estadísticas de carácter PARAMÉTRICO son MÁS Las pruebas estadísticas de carácter PARAMÉTRICO son MÁS

PODEROSAS para rechazar la cuando HPODEROSAS para rechazar la cuando H00 debe ser rechazada. debe ser rechazada.

Las PRUEBAS NO PARAMÉTRICAS son menos poderosas para Las PRUEBAS NO PARAMÉTRICAS son menos poderosas para

rechazar la cuando Hrechazar la cuando H00 debe ser rechazada, pero ofrecen la debe ser rechazada, pero ofrecen la

ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS

SUPUESTOS PARAMÉTRICOS.SUPUESTOS PARAMÉTRICOS.

Las variables cuantitativas pueden ser paramétricas o no Las variables cuantitativas pueden ser paramétricas o no

paramétricas.paramétricas.

Las variables cualitativas difícilmente pueden ser paramétricas.Las variables cualitativas difícilmente pueden ser paramétricas.

Page 82: Estadistica

Prueba T de StudentPrueba T de Student

Para una muestraPara una muestra

Para muestras independientesPara muestras independientes

Para muestras relacionadasPara muestras relacionadas

ANOVA de un factorANOVA de un factor

PRUEBAS PARAMÉTRICASPRUEBAS PARAMÉTRICAS

Analizar/ Comparar medias/ …Analizar/ Comparar medias/ …

Page 83: Estadistica

El procedimiento Prueba T para una muestra contrasta si la media El procedimiento Prueba T para una muestra contrasta si la media

de una sola variable difiere de una constante especificada. de una sola variable difiere de una constante especificada.

Ejemplos. Un investigador desea comprobar si la puntuación media del Ejemplos. Un investigador desea comprobar si la puntuación media del

coeficiente intelectual de un grupo de alumnos difiere de 100.coeficiente intelectual de un grupo de alumnos difiere de 100.

O bien, un fabricante de copos de cereales puede tomar una muestra de O bien, un fabricante de copos de cereales puede tomar una muestra de

envases de la línea de producción y comprobar si el peso medio de las envases de la línea de producción y comprobar si el peso medio de las

muestras difiere de 1 Kg con un nivel de confianza al 95%.muestras difiere de 1 Kg con un nivel de confianza al 95%.

Prueba T de Student para una Prueba T de Student para una muestramuestra

Analizar/ Comparar medias/ Prueba T para una muestraAnalizar/ Comparar medias/ Prueba T para una muestra

Page 84: Estadistica

Ejemplo: comparo si el número de sesiones que reciben los sujetos difiere Ejemplo: comparo si el número de sesiones que reciben los sujetos difiere

de 9.de 9.

Prueba T de Student para una Prueba T de Student para una muestramuestra

Analizar/ Comparar medias/ Prueba T para una muestraAnalizar/ Comparar medias/ Prueba T para una muestra

Page 85: Estadistica

La La Prueba T para muestras independientes compara las medias de dos grupos de casos de una Prueba T para muestras independientes compara las medias de dos grupos de casos de una

variablevariable..

LLos sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la os sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la

respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factoresrespuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores..

Este caso no ocurre si se comparan los ingresos medios para hombres y mujeresEste caso no ocurre si se comparan los ingresos medios para hombres y mujeres. . El sexo de una El sexo de una

persona no se asigna aleatoriamentepersona no se asigna aleatoriamente..

Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una

diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar

sometidas a la influencia de factores como los estudios (y no solamente el sexo).sometidas a la influencia de factores como los estudios (y no solamente el sexo).

La prueba emplea una variable de agrupación con dos valores para separar los casos en dos La prueba emplea una variable de agrupación con dos valores para separar los casos en dos

grupos.grupos.

La variable de agrupación puede ser numérica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta La variable de agrupación puede ser numérica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta

(como sí y no)(como sí y no). . También puede usar una variable cuantitativa, como la edad, para dividir los casos También puede usar una variable cuantitativa, como la edad, para dividir los casos

en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un grupo de

menos de 21 años y otro de más de 21)menos de 21 años y otro de más de 21)

Prueba T de Student para Prueba T de Student para muestras independientesmuestras independientes

Analizar/ Comparar medias/ Prueba T para muestras independientesAnalizar/ Comparar medias/ Prueba T para muestras independientes

Page 86: Estadistica

Prueba T de Student para Prueba T de Student para muestras independientesmuestras independientes

Analizar/ Comparar medias/ Prueba T para muestras independientesAnalizar/ Comparar medias/ Prueba T para muestras independientes

Ejemplo: analizo el número de sesiones que son necesarias para que Ejemplo: analizo el número de sesiones que son necesarias para que

desaparezca el dolor al aplicar TENS continuo frente a TENS pulsátil.desaparezca el dolor al aplicar TENS continuo frente a TENS pulsátil.

Page 87: Estadistica

Prueba T de Student para Prueba T de Student para muestras relacionadasmuestras relacionadas

Analizar/ Comparar medias/ Prueba T para muestras relacionadasAnalizar/ Comparar medias/ Prueba T para muestras relacionadas

El procedimiento Prueba T para muestras relacionadas compara las El procedimiento Prueba T para muestras relacionadas compara las

medias de dos variables de un solo grupomedias de dos variables de un solo grupo..

El procedimiento calcula las diferencias entre los valores de las El procedimiento calcula las diferencias entre los valores de las

dos variables de cada caso y contrasta si la media difiere de 0.dos variables de cada caso y contrasta si la media difiere de 0.

Ejemplo. En un estudio sobre la efectividad analgésica de una Ejemplo. En un estudio sobre la efectividad analgésica de una

corriente TENS, se evalúa el dolor (escala E.V.A.) a todos los corriente TENS, se evalúa el dolor (escala E.V.A.) a todos los

pacientes al comienzo del estudio (PRETEST), se les aplica un pacientes al comienzo del estudio (PRETEST), se les aplica un

tratamiento y se evalúa el dolor otra vez (POSTEST).tratamiento y se evalúa el dolor otra vez (POSTEST).

LAS DOS VARIABLES deben ser CUANTITATIVASLAS DOS VARIABLES deben ser CUANTITATIVAS..

Page 88: Estadistica

Prueba T de Student para Prueba T de Student para muestras relacionadasmuestras relacionadas

Analizar/ Comparar medias/ Prueba T para muestras relacionadasAnalizar/ Comparar medias/ Prueba T para muestras relacionadas

Page 89: Estadistica

El procedimiento ANOVA de un factor genera un análisis de varianza de un El procedimiento ANOVA de un factor genera un análisis de varianza de un

factor para una variable dependiente cuantitativa respecto a una única factor para una variable dependiente cuantitativa respecto a una única

variable de factor (la variable independiente).variable de factor (la variable independiente).

El análisis de varianza se utiliza para contrastar la hipótesis de que varias El análisis de varianza se utiliza para contrastar la hipótesis de que varias

medias son iguales.medias son iguales.

Esta técnica es una extensión de la prueba t para dos muestras.Esta técnica es una extensión de la prueba t para dos muestras.

Además de determinar que existen diferencias entre las medias me dice qué Además de determinar que existen diferencias entre las medias me dice qué

medias difieren y cuanto difieren.medias difieren y cuanto difieren.

Dos contrastes: a priori y post hoc.Dos contrastes: a priori y post hoc.

ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA

EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MÁS MODALIDADES EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MÁS MODALIDADES

(UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.(UNA EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.

Prueba Anova de un factorPrueba Anova de un factor

Analizar/ Comparar medias/ Anova de un FactorAnalizar/ Comparar medias/ Anova de un Factor

Page 90: Estadistica

PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …

1) Prueba Chi-cuadrado: podría utilizarse para determinar si una bolsa de caramelos contiene igual proporción caramelos de color azul, marrón, verde, naranja, rojo y amarillo o también podría utilizarse para ver si una bolsa de caramelos contiene un 5% de color azul, un 30% de color marrón, un 10% de color verde, un 20% de color naranja, un 15% de color rojo y un 15% de color amarillo.

2) Prueba Binomial: compara las frecuencias observadas de las dos categorías de una variable dicotómica con las frecuencias esperadas en una distribución binomial con un parámetro de probabilidad especificado. Ejemplo: lanzo una moneda al aire 40 veces y anoto los resultados (cara o cruz). Debería haberme salido 50% cara y 50% cruz, pero me ha salido 25% cara y 75% cruz. Al hacer la prueba binomial me sale que no hay significación, es decir que la moneda está trucada.

3) Prueba de Rachas: contrasta si es aleatorio el orden de aparición de dos valores de una variable. Una racha es una secuencia de observaciones similares. Una muestra con un número excesivamente grande o excesivamente pequeño de rachas sugiere que la muestra no es aleatoria. Ejemplo encuesta en la que todo los sujetos son mujeres.

Page 91: Estadistica

PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …

4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la distribución de una variable se ajusta a una distribución teórica determinada, que puede ser la NORMAL, la uniforme, la de Poisson o la exponencial.

5) Prueba para dos muestras independientes (U de Mann-Whitney): es la versión no paramétrica de la prueba T Student para muestras independientes (equivale a esta prueba). Compara dos grupos de casos existentes en una variable. Por ejemplo: analizo la disminución del dolor al aplicar TENS continuo analizo la disminución del dolor al aplicar TENS continuo frente a TENS pulsátil.frente a TENS pulsátil.

6) 6) Prueba para Varias muestras independientes. Prueba para Varias muestras independientes. H de Kruskal-Wallis: H de Kruskal-Wallis: es es el análogo no paramétrico del análisis de varianza (ANOVA) de un factor.el análogo no paramétrico del análisis de varianza (ANOVA) de un factor. Nos Nos permite permite comparar la efectividad de un tratamiento con dos o más modalidades comparar la efectividad de un tratamiento con dos o más modalidades (una en cada uno de los grupos 2 o +).(una en cada uno de los grupos 2 o +).

Page 92: Estadistica

PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …

7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con Signos de Wilcoxon, Prueba de McNemar ... etc.: Signos de Wilcoxon, Prueba de McNemar ... etc.: es la análoga no es la análoga no

paramétrica a la prueba T Student para muestras relacionadasparamétrica a la prueba T Student para muestras relacionadas. . Podemos usar la Podemos usar la prueba de prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO.RELACIÓN AL POSTEST) AL APLICAR UN TRATAMIENTO.

También podemos emplear lTambién podemos emplear la a PRUEBA DE MCNEMARPRUEBA DE MCNEMAR: prueba no paramétrica : prueba no paramétrica para para DOS VARIABLES DICOTÓMICAS RELACIONADASDOS VARIABLES DICOTÓMICAS RELACIONADAS. Contrasta los cambios en . Contrasta los cambios en las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar las respuestas utilizando la distribución de chi-cuadrado. Es útil para detectar cambios en las respuestas debidas a la intervención experimental en los diseños cambios en las respuestas debidas a la intervención experimental en los diseños del tipo "antes-después". Para las tablas cuadradas de mayor orden se informa del tipo "antes-después". Para las tablas cuadradas de mayor orden se informa de la prueba de simetría de McNemar-Bowker.de la prueba de simetría de McNemar-Bowker.

LA PRUEBA DE HOMOGENEIDAD MARGINALLA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramétrica para es una prueba no paramétrica para DOS VARIABLES ORDINALES RELACIONADASDOS VARIABLES ORDINALES RELACIONADAS. Se trata de una extensión de la . Se trata de una extensión de la prueba de McNemar a partir de la respuesta binaria a las respuestas prueba de McNemar a partir de la respuesta binaria a las respuestas multinominales. Contrasta los cambios de respuesta, utilizando la distribución de multinominales. Contrasta los cambios de respuesta, utilizando la distribución de chi-cuadrado, y es útil para detectar cambios de respuesta causados por chi-cuadrado, y es útil para detectar cambios de respuesta causados por intervención experimental en diseños antes-después. intervención experimental en diseños antes-después.

Page 93: Estadistica

PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICASAnalizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …

8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman y Prueba Q de Cochran.

Prueba de Friedman es el equivalente no paramétrico de un diseño de medidas repetidas para una muestra o un análisis de varianza de dos factores con una observación por casilla. Las variables en este caso se medirán en una escala ordinal.Las variables en este caso se medirán en una escala ordinal.Diferencias entre dos series de puntuaciones.Diferencias entre dos series de puntuaciones.

Prueba Q de Cochran Contraste no paramétrico de la hipótesis de que varias variables dicotómicas relacionadas tienen la misma media. Las variables medirán al mismo individuo o a individuos emparejados..Las variables en este caso se medirán en una escala nominal u ordinal.Las variables en este caso se medirán en una escala nominal u ordinal.Analizamos la existencia de diferencias entre dos series de puntuaciones.Analizamos la existencia de diferencias entre dos series de puntuaciones.

Page 94: Estadistica

PRUEBAS NO PARAMÉTRICASPRUEBAS NO PARAMÉTRICAS

MUESTRASMUESTRAS ESCALA DE ESCALA DE MEDIDAMEDIDA

TIPO DE TIPO DE CONTRASTECONTRASTE

PRUEBA NO PRUEBA NO PARAMÉTRICAPARAMÉTRICA

Una muestraUna muestra intervalointervaloLa forma de distribución La forma de distribución una variable (bondad de una variable (bondad de ajuste)ajuste)

Kolmogorov-SmirnovKolmogorov-Smirnov

Dos muestrasDos muestras OrdinalOrdinal Diferencias entre muestrasDiferencias entre muestras

Wilcoxon (muestras Wilcoxon (muestras relacionadas)relacionadas)

Mann-Whitney Mann-Whitney (muestras (muestras independientes)independientes)

K muestras K muestras

independientesindependientes

NominalNominal

Diferencias entre muestrasDiferencias entre muestras

Chi-cuadradoChi-cuadrado

OrdinalOrdinal Kruskal-WallisKruskal-Wallis

K muestras K muestras relacionadasrelacionadas

Nominal u ordinalNominal u ordinal Diferencias entre dos Diferencias entre dos series de puntuacionesseries de puntuaciones

CochranCochran

OrdinalOrdinal Diferencias entre muestrasDiferencias entre muestras FriedmanFriedman

Analizar/ Pruebas no paramétricas/ …Analizar/ Pruebas no paramétricas/ …

Page 95: Estadistica

PRUEBAS PARA DOS MUESTRAS PRUEBAS PARA DOS MUESTRAS INDEPENDIENTESINDEPENDIENTES

VI cualitativa

2 muestras

independientes

VD Supuestos Pruebas Objetivos

Cualitativaχ2 Chi-cuadrado

¿La distribución de casos en las categorías de la VD cambia en función de los valores de la VI?

OrdinalU de Mann-Whitney

¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI?

Cuantitativa

VD Normal Homocedástica

t-Student

F del Anova

t2 = F

¿Las medias de la VD son similares en los distintos valores de la VI?

VD Normal no Homocedástica

t o F de Welch¿Las medias de la VD son similares en los distintos valores de la VI?

VD NO NormalU de Mann-Whitney

¿Los rangos de la VD se distribuyen de forma similar en los distintos valores de la VI?

Page 96: Estadistica

CALCULANDO EL TAMAÑO DEL EFECTOCALCULANDO EL TAMAÑO DEL EFECTO

Prueba Medida Fórmula Peq Medio Grande

Chi-cuadradoCoeficiente de Contingencia

rφ2 = φ2 = χ2/N 0,10 0,30 0,50

t de StudentDiferencia de

medias estandarizada

d = 2t/gl 0,20 0,50 0,80

F del Anova

(F de Snedecor)Eta o R cuadrado R2 = F/(F+gl) 0,01 0,06 0,14

Page 97: Estadistica

DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME

Prueba Datos de la prueba Datos descriptivos

Chi-cuadrado χ2 (gl,N = ...) = ... , p = ... , φ2 = ...Frecuencias o porcentajes de las

categorías de una variable en función de las categorías de la otra

t de Student t (gl) = ... , p = ... , d = ...Medias y desviaciones típicas de los

distintos grupos

F del Anova

(F de Snedecor)F (gl1,gl2) = ... , p = ... , R2= ...

Medias y desviaciones típicas de los distintos grupos

Nota: si el contraste es a una cola hay que señalarlo indicando p (a una cola) = ... / Recordar que si el contraste es a una cola hay que dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01)

Page 98: Estadistica

DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME

El contraste general entre los dos tratamientos continuo y pulsátil, es decir, el análisis de los índices de mejora, comparando ambos tratamientos, empleando la prueba t-Student para muestras independientes (implementando realmente la prueba de Welch al no existir igualdad de varianzas y ser heterocedásticas ambas distribuciones de datos), así como la prueba U de Mann-Whitney muestra que existe una diferencia estadísticamente significativa entre ambos tratamientos, siendo mejor la pulsátil (p < 0.05). Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, FLevene (1, 899) = 15,567 (p =

0.000). El grupo tratado con corriente pulsátil (media 1,99 DT 0,60) obtuvo una disminución del dolor significativamente superior a la del grupo tratado con corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una cola) = 0.000. Empleado para determinar el tamaño del efecto el programa effect size calculator (disponible en: http://www.uccs.edu/~faculty/lbecker/) obteniendo d = 1,8588. Se trata de un valor de tamaño del efecto elevado, que refleja la importante diferencia existente a favor de la corriente pulsátil. Este valor también lo hemos obtenido al emplear la fórmula: d = 2t/√gl

Page 99: Estadistica

DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME

•Comprobación del supuesto de homocedasticidad (α = 0,05):

• Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, FLevene (1, 94) = 0,009 (p = 0,923).

•Contrastes bidireccionales (α = 0,05) con F y t:

• Se encontraron diferencias estadísticamente significativas en el número de sesiones efectuadas entre el grupo tratado con tens pulsátil (M = 8,35 DT = 3,605) y el tratado con tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005, p = 0,010, R2 = 0,069 [calculado R2 =F/(F+gl)=7,005/(7,005+94)].

• Se encontraron diferencias estadísticamente significativas entre el grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) y el que recibió tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p = 0,010, d = 0,55.

Page 100: Estadistica

DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME

•Contrastes unidireccionales (α = 0,05) con F y t:

• El grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibió tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005, p (a una cola) = 0,005, R2 = 0,069.

• El grupo que recibió tens pulsátil (M = 8,35 DT = 3,605) obtuvo una media significativamente inferior a la del grupo que recibió tens continuo (M = 10,29 DT = 3,567) t(94) = 2,647, p (a una cola) = 0,005, d = 0,55.

•Contrastes bidireccionales (α = 0,01) con F y t:

• Aunque el tamaño del efecto encontrado resultó moderado R2 = 0,069 las diferencias entre los sujetos que recibieron tens pulsátil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas F(1,94) = 7,005, p = 0,010

•Aunque el tamaño del efecto encontrado resultó moderado d = 0,55 las diferencias entre los sujetos que recibieron tens pulsátil (M = 8,35 DT = 3,605) y los que recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas t(94) = 2,647, p = 0,010.

Page 101: Estadistica

DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME

Tras un procedimiento de muestreo no probabilístico a conveniencia, nuestra muestra está conformada por un total de 44 individuos, con una edad media de 39,6818 años con una desviación típica (DT en adelante) de 5,97581 y los valores mínimos y máximos son 23 y 49 años.

Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento. Estadístico de Shapiro-Wilk = 0,955 (p = 0,081). Si consideramos cada grupo por separado la variable edad también se distribuye normalmente. Estadístico de Shapiro-Wilk para el grupo control = 0,934 (p = 0,147). Estadístico de Shapiro-Wilk para el grupo experimental = 0,967 (p = 0,633). Como el número de sujetos incluidos en cada grupo fue de 22 (por tanto inferior de 30) empleamos tanto pruebas de carácter paramétrico como no paramétrico para determinar la presencia/ausencia de sesgos en la distribución de edades de los sujetos en nuestros dos grupos. Los dos grupos son homogéneos en relación a la edad de los sujetos (grupo control media 39.8636 años DT=5.97053, grupo experimental media 39,5 y DT = 6,11594). No existe una diferencia significativa entre la edad de los dos grupos. Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas de error del diseño, FLevene (1, 42) = 0,138 (p = 0,712). El grupo control presenta una media

de edad no significativamente superior a la del grupo experimental, con una t de Student (42) = 0,2 p (a una cola) = 0,843. En el grupo control el rango promedio fue de 23,27 mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 (p = 0,689).

Page 102: Estadistica

DATOS QUE DEBEMOS APORTAR EN UN INFORMEDATOS QUE DEBEMOS APORTAR EN UN INFORME

De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se muestran de forma gráfica en la figura xx. En el grupo control, al igual que en el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres (68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay un sesgo en la distribución por sexos de nuestros pacientes en los dos grupos analizados. La proporción de mujeres y de hombres incluidos en el grupo control frente al grupo experimental son iguales X2 (1,44) = 0,000, p = 1,000.

Page 103: Estadistica

INVESTIGACIONES EN SALUDFrenk,J.

(Modificado por Toledo, G.)

INVESTIGACION BIOMEDICA(Nivel subindividual)

EN SISTEMAS DE SALUD

INVESTIGACION EN SALUD PUBLICA (Nivel poblacional)

INVESTIGACION CLINICA (Nivel individual)

DESCRIPTIVAS

EPIDEMIOLOGICA

EN POLITICAS DE SALUD

ORGANIZACION DE S. S.(Nivel micro

intraorganizacional)

Estudios ecológicos

EN SERVICOS DE SALUD

POLITICAS DE SALUD(Nivel macro o

interorganizacional)

Estudios de mortalidad

proporcional

Estudios de incidencia

Estudios de prevalencia

ANALITICAS

OBSERVACIONALES

Encuestas Transversales

EXPERIMENTALES O DE INTERVENCION

Estudios de Cohorte

Estudios de Casos y

controlesENSAYOS

COMUNITARIOS

ENSAYOS DE CAMPO

ENSAYOS CLINICOS

Clasificación de las investigaciones en SaludClasificación de las investigaciones en Salud

Page 104: Estadistica

Estudio observacionalEstudio experimental

¿dirección?

Estudio analítico

Estudio descriptivo

Estudio de cohorte

Estudio de casos y controles

Estudio decorte

tranversal

Ensayo clínico

controlado aleatorizado

Ensayo controlado no aleatorizado

¿asignación aleatoria?

¿grupo de comparación?

¿el investigador manipuló la exposición?

Si No

Si No Si No

exposición efecto exposición efectoexposicion = efecto

Page 105: Estadistica

Exposición Efecto

Exposición Efecto

Estudio de cohorte

Estudio de caso-control

Exposición

Efecto

Estudio de caso-control

Tiempo

Temporalidad de los estudios epidemiologicosTemporalidad de los estudios epidemiologicos

Page 106: Estadistica
Page 107: Estadistica
Page 108: Estadistica
Page 109: Estadistica
Page 110: Estadistica
Page 111: Estadistica
Page 112: Estadistica
Page 113: Estadistica