Pérez, Fanny
V-17.485839
Uzcategui, Dayana
V-20.455.995
VALIDEZ Y
CONFIABILIDAD
Julio de 2014
REPÚBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD YACAMBÚ
DEPARTAMENTO DE POST-GRADO
ESTUDIOS A DISTANCIA
DISEÑO CUANTITATIVO DE INVESTIGACIÓN
Consiste en determinar qué proporción existe entre una dimensión de algún objeto y una cierta unidad de
medida. Para que esto sea posible, el tamaño de lo medido y la unidad escogida tienen que compartir una misma
magnitud.
LA MEDICIÓN
La validez, en términos generales, se refiere al grado en que
un instrumento realmente mide la variable que pretende
medir. Por ejemplo, un instrumento para medir la inteligencia
válido debe medir la inteligencia y no la memoria.
VALIDEZ
Validez relacionada con el contenido
se refiere al grado en que un instrumento refleja un dominio específico de
contenido de lo que se mide.
Por ejemplo, una prueba de operaciones aritméticas no tendrá validez de
contenido si incluye sólo problemas de resta y excluye problemas de suma,
multiplicación o división (Carmines y Zeller, 1979).
TIPOS DE VALIDEZ
Validez relacionada con el criterio
La validez de criterio establece la validez de un instrumento de medición
comparándola con algún criterio externo. Este criterio es un estándar con el
que se juzga la validez del instrumento (Wiersma, 1986). Entre los resultados
del instrumento de medición se relacionen más al criterio, la validez del
criterio será mayor.
Por ejemplo, un investigador valida un examen sobre manejo de aviones,
mostrando la exactitud con que el examen predice qué tan bien un grupo de
pilotos puede operar un aeroplano.
Validez relacionada con el constructo
Es la más importante sobre todo desde una perspectiva científica y se
refiere al grado en que una medición se relaciona consistentemente con otras
mediciones de acuerdo con hipótesis derivadas teóricamente y que
conciernen a los conceptos (o constructos) que están siendo medidos.
Un constructo es una variable medida y que tiene lugar dentro de una teoría
o esquema teórico.
TIPOS DE VALIDEZ
CONFIABILIDAD
Hace referencia a la estabilidad de los resultados. Si los datos son estables, se puede repetir la prueba y obtener resultados similares y
consistentes. Si los datos son estables, quiere decir que las escalas de medición incluidas en los instrumentos, no presentan distorsiones o son
verdaderas.
La confiabilidad no es afectada por los errores aleatorios en las escalas de medición, porque estos errores siempre arrojarán los mismos datos; pero
si será afectada por los errores no aleatorios en las escalas de medición. El objetivo del investigador es tomar todas las precauciones posibles, para eliminar o reducir los errores en la escala de medición.
Si el coeficiente de confiabilidad es bajo (X<0,6), la escala de medición es pobre.
Si el coeficiente de confiabilidad es alto (X>0,7), la escala de medición es verdadera.
Existen tres métodos que combinados permiten medir la confiabilidad
de los datos.
1).- Prueba y reprueba de Confiabilidad.
A un grupo de participantes se les pide que diligencien la misma escala, dos veces, con un
lapso entre una y otra prueba de 2 a 4 semanas. El investigador debe asegurar que las
condiciones de ambas pruebas sean las mismas. Luego, a ambas pruebas se les calcula el
coeficiente de correlación.
Conclusión: entre más alto el coeficiente de correlación, mayor la confiabilidad.
2).- Formas alternativas de Confiabilidad.
A un grupo de participantes se les pide que diligencien dos escalas equivalentes al mismo
contenido, con un lapso entre una y otra escala de 2 a 4 semanas. El éxito de esta prueba
depende de que tan bien hayan sido diseñadas ambas escalas; se recomienda evaluarlas
previamente en sus medias, varianzas y correlaciones para asegurar la
equivalencia. Una varianza o suma de cuadrados es la desviación estándar al
cuadrado. La desviación estándar es la dispersión de los datos de una muestra o población
con relación a su media.
Conclusión: una baja correlación representa una escala no confiable o no equivalente
3).- Consistencia interna de la Confiabilidad.
Se calcula cuando una escala tiene un número considerable de reactivos. Estos se dividen en
dos grupos iguales y se calcula el coeficiente de Alfa (también llamado Alfa de Cronbach’s, es
el promedio de todos los coeficientes obtenidos en todas las posibles combinaciones de
división de reactivos de la escala) y el resultado debe ser igual para ambos grupos. Entre más
reactivos, mayor Alfa de Cronbach’s. Tenga en cuenta que los reactivos deben ser apropiados
para la medición y no exceder su inclusión innecesaria.
Finalmente, un buen ejemplo para distinguir
claramente entre ambos conceptos: confiabilidad y
validez es el de la balanza de peso. Una balanza de
peso que esté mal calibrada, arrojará siempre los
mismos resultados errados. Esto quiere decir, que
la balanza es confiable porque siempre arroja el
mismo resultado pero, no es válida porque el
resultado está errado. Se puede decir entonces, que
mayor validez implica mayor confiabilidad, pero
que una mayor confiabilidad no implica una mayor
validez.
Confiabilidad Vs. Validez
Este procedimiento es el que se deriva naturalmente del modelo.
Requiere que se utilicen dos pruebas o instrumentos paralelos, esto
es, que midan lo mismo de forma diferente (por ejemplo, dos test
que con diferentes preguntas midan un determinado rasgo).
Después se comparan los dos test, calculando el coeficiente de
correlación de Pearson. Esta correlación será, como hemos visto en
el apartado anterior, el coeficiente de fiabilidad. Si la correlación es
alta, se considera que hay una buena fiabilidad. Al valor obtenido
también se le conoce como coeficiente de equivalencia, en la
medida en que supone un indicador del grado de equivalencia entre
las dos formas paralelas de un test.
FORMAS PARALELAS
Con este método el coeficiente de fiabilidad se calcula pasando mismo
test dos veces a los mismos sujetos. Se pueden pasar inmediatamente, o
dejando un intervalo de tiempo entre el test y el retest. Después se calcula la
correlación de Pearson entre las puntuaciones de ambas aplicaciones, y el
resultado obtenido será el coeficiente de fiabilidad. Se considera un caso
específico de formas paralelas, dado que evidentemente un test es paralelo a
sí mismo. Al resultado obtenido se le denomina coeficiente de estabilidad,
al servir de indicador de hasta qué punto son estables las mediciones
realizadas durante la primera aplicación del test. Las diferencias en los
resultados se atribuyen al grado de consistencia interna o muestreo de los
ítems de la prueba en el caso de pasar el retest de forma inmediata, y se le
suman las fluctuaciones en el tiempo en el caso del intervalo temporal.
TEST - RETEST
Método de mitades partidas
Los procedimientos anteriores (medida de estabilidad y método de formas alternas),
requieren cuando menos dos administraciones de la medición en el mismo grupo de
individuos. En cambio, el método de mitades-partidas requiere sólo una aplicación
de la medición. Específicamente, el conjunto total de ítems (o componentes) es
dividido en dos mitades y las puntuaciones o resultados de ambas son comparados.
Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar
fuertemente correlacionadas. Un individuo con baja puntuación en una mitad,
tenderá a tener también una baja puntuación en la otra mitad.
SPLIT - HALVES
Supone que la proporción de la varianza verdadera (fiabilidad) es igual a la varianza
compartida dividida por la varianza total. La varianza verdadera queda definida
operativamente por la suma de las co-varianzas, por lo que discriminan los ítems
precisamente por estar relacionados unos con otros.
El grado de relación alcanzado es lo que corresponde a la consistencia interna,
indicando en qué proporción discriminan los ítems al estar vinculados entre sí (una
gran co-variación es indicativa de relación entre ítems).
Un test será poco fiable, si una porción de la varianza se origina debido a que los
ítems son distintos.
ALPHA DE CRONBACH
Es el estimado de homogeneidad usado para instrumentos que tienen
formatos de respuestas dicotómicas, (Si - No o Falso - Verdadero), la
técnica se establece en una correlación que es basada sobre la consistencia
de respuestas a todos los ítems de un test que es administrado una vez. El
mínimo aceptable del puntaje de KR-20 es 0.70.
Coeficiente de Kuder-Richardson
Baron l. (2010). Confiabilidad y validez de constructo del instrumento
“habilidad de cuidado de cuidadores familiares de personas que viven una
situación de enfermedad crónica”. España
El concepto de confiabilidad o fiabilidad (2011). Documento en
línea.Disponible:http://www.stelladominguez.com/2011/03/confiabilidad/
Consulta: 2014, Julio 23
Metodología de la Investigación (2010). Documento en línea. Disponible:
http://www.tecnicas-de-estudio.org/investigacion/investigacion44.htm Consulta:
2014, Julio 26
REFERENCIAS
BIBLIOGRAFICAS