Análisis de Datos Estadísticos en Spss
-
Upload
frank-carrillo -
Category
Documents
-
view
19 -
download
4
description
Transcript of Análisis de Datos Estadísticos en Spss
TEMARIO
Introducción al SPSS Análisis descriptivo con una variable Análisis descriptivo con más de 1 variable Análisis de Regresión Análisis de Correlación Constrastes No Paramétricos
OBJETIVOS
Entregar las habilidades necesarias para el trabajo con el software SPSS, a un nivel intermedio, aplicado en el área de las ciencias del comportamiento.
INTRODUCCIÓN AL SPSS
Antes de entrar en aspectos técnicos, conviene indicar que el SPSS realiza tres funciones esenciales:
(1) leer datos de n sujetos en J variables, (2) especificar el tipo de análisis que se quiere realizar
con esos datos (estadísticos de tendencia central, de variabilidad, etc.) y
(3) mostrar los resultados obtenidos tras los análisis.
EDITOR DE DATOS
La primera pantalla que aparece al entrar en el SPSS es la ventana del editor de datos, la cual ofrece el siguiente aspecto:
Como se observa en la figura, la ventana editor de datos contiene una tabla donde las filas se refieren a los n sujetos u observaciones de la muestra y las columnas a las J variables X1, X2, ..., XJ. El resultado final es una matriz de n sujetos x J variables.
Ahora el editor de datos se divide, a su vez en dos “vistas”: de datos y de variables
Si se selecciona con el ratón cada una de ellas aparece un menú desplegable donde se ofrecen otros submenús, cada uno de los cuales tiene a su vez un ‘cuadro de diálogo’.
MANEJO DE ARCHIVOS DE DATOS
Los datos corresponden a 5 sujetos medidos en cuatro variables:
• Sexo (0: mujer y 1: varón),
• nivel cultural (1: bajo y 2: alto),
• inteligencia y,
• estrés.
En cada fila se da la posibilidad de: modificar el nombre de la variable (teniendo en cuenta que no puede tener más de 8 caracteres de largo) además de otras propiedades como el tipo (numérico, cadena, etc.), la anchura, el número de decimales, la etiqueta, el significado de los valores que admite, los valores perdidos, la alineación del texto, etc.
Sexointeligncstress
Sirve para construir I.C.
Medidas de variabilidad
Sirven para tener una idea de la distribución respecto a la Curva Normal
Dividen los datos en partes iguales
El 75% tiene 31 años o menos
El 10 % tiene 34 años o más
En estadística, el coeficiente de correlación de Pearson es una medida de la relación lineal entre dos variables aleatorias cuantitativas.
Recuerde que al describir la relación entre dos variables, necesitamos responder al menos cuatro preguntas:(1) ¿Están relacionadas las variables entre sí? Si los cambios en el valor de una de las variables van acompañados de cambios en el valor de la otra, las variables parecen estar relacionadas.(2) Si las variables parecen estar relacionadas, ¿qué tan fuerte es la relación entre las variables? En otras palabras, ¿están estrechamente o sólo levemente relacionadas?(3) ¿La relación entre las variables es ‘positiva’ o ‘negativa’?(4) ¿Cuál es la relación causal entre las variables?
TAU-B DE KENDALL
Este coeficiente de correlación es apropiado para medir la relación entre variables ORDINALES.
Su valor oscila entre -1 y +1. Se interpreta igual que la correlación Pearson
Regresión lineal conIntervalo de predicción de la media al 95.00%
2 4 6 8 10
Var x
-4
0
4
8
Var
y 1Var y = 1.25 + 0.25 * xR-cuadrado = 0.29
Ahora, abrir el archivo Practica3.sav y realizar
La gráfica de dispersión,Cálculo de los coeficientes,Y diagrama de la regresión
Para: peso= a+b*estatura
A) CONTRASTES DE HIPÓTESIS PARAMÉTRICAS. 1.- Contrastes sobre los estadísticos de una población:
Contrastes de significación para la media. Contrastes sobre la varianza. Contrastes sobre la proporción poblacional.
2.- Contrastes de comparación de dos poblaciones: Contraste de la T de Student para la igualdad de medias. Contraste de diferencias entre las medias problacionales. Test de Barlett para contraste de igualdad de varianzas. Contraste Kolmogorov-Smirnov para dos muestras.
3.- Contrastes de comparación de más de dos poblaciones. Método Scheffé de comparaciones múltiples.
4.- Contrastes de bondad en el ajuste: Contraste 2 de Pearson de bondad de ajuste. Contraste Kolmogorov-Smirnov de bondad de ajuste. Contraste de normalidad de Lilliefors. Contraste de normalidad de Shapiro-Wilk.
B) CONTRASTES DE HIPÓTESIS NO PARAMÉTRICAS. 1.- Contrastes de comparación de dos poblaciones:
Contraste de la mediana. Contraste de Wilcoxon-Mann-Whitney.
Contraste de Siegel-Tukey. 2.- Contrastes de comparación de más de dos poblaciones:
Contraste de Kruskal-Wallis. Comparaciones Múltiples.
3.- Contrastes de independencia: Contraste X2 de independencia. Contraste G2 de independencia. Test de Tocher. Test binomial. Test de McNemar. Test de Gart.
4.- Contrastes de aletoriedad: Contraste de Rachas de Wald-Wolfowitz. Contraste del cuadrado medio de diferencias sucesivas.
5.- Contrastes de localización: Contraste de signos de la mediana. Contraste de signos para una muestra apareada. Contraste de rangos-signos de Wilcoxon para una muestra.
6.- Contrastes de homogeneidad: Contraste X2 de homogeneidad.