Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

103
1 APUNTES DE METODOLOGÍA Y TÉCNICAS DE INVESTIGACIÓN Carmen Lafuente Carlos Poza ÍNDICE: MÓDULO 1: METODOLOGÍA Y DISEÑO DE UNA INVESTIGACIÓN CIENTÍFICA Capítulo 1. Método científico y tipología Capítulo 2. Diseño de una investigación científica MÓDULO 2: INVESTIGACIÓN CUALITATIVA Capítulo 3. Introducción a la metodología y técnicas cualitativas Capítulo 4. Entrevistas en profundidad Capítulo 5. Grupos de discusión Capítulo 6. Método Delphi MÓDULO 3: INVESTIGACIÓN CUANTITATIVA Capítulo 7. Introducción a la metodología y técnicas cuantitativas Capítulo 8. Encuesta por muestreo Capítulo 9. Tratamiento básico de datos Capítulo 10. Inferencia estadística y contrastes de de hipótesis Capítulo 11. ANOVA y regresión lineal múltiple Capítulo 12. Análisis discriminante y regresión logística Capítulo 13. Análisis factorial Capítulo 14. Análisis cluster Capítulo 15. Modelos de ecuaciones estructurales

description

metodologia de investigacion

Transcript of Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

Page 1: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

1

APUNTES DE

METODOLOGÍA Y TÉCNICAS DE INVESTIGACIÓN

Carmen Lafuente

Carlos Poza

ÍNDICE:

MÓDULO 1: METODOLOGÍA Y DISEÑO DE UNA INVESTIGACIÓN CIENTÍFICA

Capítulo 1. Método científico y tipología

Capítulo 2. Diseño de una investigación científica

MÓDULO 2: INVESTIGACIÓN CUALITATIVA

Capítulo 3. Introducción a la metodología y técnicas cualitativas

Capítulo 4. Entrevistas en profundidad

Capítulo 5. Grupos de discusión

Capítulo 6. Método Delphi

MÓDULO 3: INVESTIGACIÓN CUANTITATIVA

Capítulo 7. Introducción a la metodología y técnicas cuantitativas

Capítulo 8. Encuesta por muestreo

Capítulo 9. Tratamiento básico de datos

Capítulo 10. Inferencia estadística y contrastes de de hipótesis

Capítulo 11. ANOVA y regresión lineal múltiple

Capítulo 12. Análisis discriminante y regresión logística

Capítulo 13. Análisis factorial

Capítulo 14. Análisis cluster

Capítulo 15. Modelos de ecuaciones estructurales

Page 2: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

2

MÓDULO 1:

METODOLOGÍA Y DISEÑO

DE UNA INVESTIGACIÓN CIENTÍFICA

Page 3: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

3

CAPÍTULO 1

Método científico y tipología

1. Introducción

Las ciencias sociales son disciplinas que analizan el comportamiento y actividades de

los seres humanos, describen y explican científicamente la conducta, la evolución y la

relación entre los individuos de una sociedad.

El estudio del comportamiento humano se remonta a la época greco-romana, y

aunque no se puede hablar de un conocimiento científico organizado, los estudios de

Platón y Aristóteles serían las primeras aportaciones a las ciencias sociales en el

mundo antiguo. Desde sus inicios los científicos han realizado una investigación tanto

pura o teórica (su propósito fundamental es el de desarrollar teoría mediante el

descubrimiento de amplias generalizaciones o principios) como aplicada o práctica

(depende de los descubrimiento y aporte teóricos de la pura y busca contrastar la

teoría con la realidad) sobre el funcionamiento cotidiano de la sociedad, han

investigado sobre el comportamiento de los grupos sociales, sobre el poder y las

relaciones entre el gobierno y los ciudadanos, sobre la producción y el intercambio de

bienes y servicios entre los agentes sociales,... En los siglos XVIII-XX es cuando se

produce el auténtico desarrollo de las ciencias sociales, entre ellas la Economía.

Las Ciencias Económicas, desde no hace mucho, han comenzado a desarrollar

métodos propios para generar conocimiento. La investigación económica utiliza en su

análisis la inducción, la deducción, la síntesis,... de forma conjunta como una técnica

de investigación.

En este capítulo se realiza una breve exposición de las estrategias investigadoras más

utilizadas en Economía para generar conocimiento científico.

2. Metodología de la investigación

La metodología es la teoría que ofrece técnicas y métodos generales de investigación.

La metodología de la investigación hace referencia a los pasos y procedimientos que

se deben seguir para llevar a cabo una investigación en una determinada área o

especialidad. En este sentido, la metodología representa la manera de organizar el

Page 4: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

4

proceso de investigar, de controlar los resultados y de presentar soluciones a

problemas. Propone el método y las técnicas, esto es, la manera de utilizar el método

de forma efectiva para generar conocimiento.

Cuando hablamos de investigar nos referimos a averiguar o descubrir alguna cosa.

Cuando investigamos intentamos responder a una pregunta o hipótesis para aumentar

el conocimiento o la información de algo desconocido. En este proceso se pueden

generar dos tipos de conocimiento en función de si la investigación es o no científica.

Cuando la investigación no es científica se genera conocimiento empírico, para

algunos autores o vulgar para otros. Este tipo de conocimiento se obtiene por el azar,

por la experiencia, por instinto, por los sentidos. Es un conocimiento ametódico y

asistemático que no se somete a prueba.

Si la investigación es científica se genera conocimiento científico. “El conocimiento

científico o ciencia es el resultado de una investigación científica realizada de acuerdo

con el método de investigación científico” (Sierra, 1986). El conocimiento científico da

a conocer las causas que generan el fenómeno. Proporciona cuál es la causa que lo

produce y el motivo por el cual no puede ser de otro modo, esto es, sabemos porque

demostramos. Un conocimiento para que sea científico debe cumplir una serie de

requisitos: que sea racional, sistemático, exacto, verificable y fiable (Bunge, 1981). Por

su parte, Díaz y Heler (1985) apuntan las siguientes características:

- Crítico. Debe justificar sus conocimientos y dar pruebas de su verdad. En

ningún caso, el conocimiento científico se considera que sea definitivo,

siempre está sujeto a revisión.

- Sistemático. Es ordenado, es un conjunto de ideas conectadas entre sí.

- Explicativo. La ciencia formula teorías que dan lugar a leyes generales que

explican hechos particulares y predicen comportamientos. Son

conocimientos útiles.

- Verificable. Se centra en fenómenos susceptibles de ser comprobados

experimentalmente o al menos contrastados experiencialmente (de manera

que demuestren su adecuación, su utilidad).

- Metódico. Los conocimientos científicos no se adquieran al azar, sino que

son fruto de rigurosos procedimientos (observación, reflexión,

contrastación, experimentación, etc.).

Page 5: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

5

- Objetivo. No depende del sujeto que realiza la observación, el experimento

o propone el modelo. Aunque actualmente, se cuestiona la objetividad

absoluta.

- Comunicable. Debe utilizar un lenguaje científico, unívoco en términos y

proposiciones, y que evite las ambigüedades.

- Provisorio. El saber científico debe estar en permanente revisión para que

así pueda evolucionar.

La metodología de la investigación propone el método y las técnicas para llevar a cabo

una investigación científica, es decir, proporciona el procedimiento general (método) y

los procedimientos de actuación concretos (técnicas), para llevar a efecto las distintas

etapas del método.

3. El método científico

El método científico es una estrategia, es una forma, es un camino para generar

conocimiento científico o ciencia. A grandes rasgos, el método científico es un

conjunto de procedimientos para conceptualizar un problema, plantear hipótesis y

seleccionar técnicas y herramientas para generar conocimiento.

Según Fontela (1990) al intentar clasificar los enfoques de la metodología científica, se

identifican frecuentemente tres procesos o métodos:

1) el enfoque inductivo y empírico, basado sobre la observación y apoyado en

el consenso de los observadores;

2) el enfoque deductivo, basado sobre la aplicación de instrumentos de lógica

racional a un conjunto de presupuestos fundamentales, y

3) el enfoque sintético, caracterizado por una interacción permanente entre

deducción e inducción, entre teoría y realidad observada.

El método inductivo fue introducido por Francis Bacon a comienzos del siglo XVII. En

términos generales consiste en establecer enunciados universales ciertos a partir de la

experiencia. Este enfoque recibió un importante impulso a finales del siglo XIX y

mediados del siglo XX con el desarrollo de la Estadística.

Page 6: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

6

Las primeras consideraciones del método deductivo se derivan de la obra de

Descartes en 1675, “El discurso del método”. Descartes utilizaba la deducción y las

matemáticas como punto de referencia para desarrollar una teoría. El método

deductivo genera conocimiento formulando hipótesis básicas y deduciendo

posteriormente sus consecuencias con la ayuda de las subyacentes teorías formales.

Ambos métodos, el inductivo y el deductivo, utilizan la lógica y llegan a una conclusión.

Ambos son susceptibles de contrastación empírica. Aunque el método deductivo es

más propio de las ciencias formales (matemáticas, física, etc.) y el inductivo de las

experimentales (ciencias naturales y ciencias sociales), nada impide la aplicación

indistinta de un método científico a una u otra teoría.

La diferencia fundamental entre el deductivo y el inductivo es que, el primero aspira a

demostrar, utilizando la lógica pura, la conclusión en su totalidad a partir de unas

premisas, de manera que se garantiza la veracidad de las conclusiones, si no se

invalida la lógica aplicada. El método inductivo crea leyes a partir de la observación de

los hechos, mediante la generalización del comportamiento observado.

En la práctica, generalmente, cuando investigamos en ciencias sociales, no puede

hablarse de una estrategia investigadora inductiva o deductiva en estado puro. En este

sentido, Sierra Bravo (2006) señala que el método científico es a la vez, inductivo y

deductivo. Es inductivo cuando realiza una clasificación sistemática de los datos

obtenidos de la observación de la realidad y es deductivo cuando establece conceptos

e ideas derivados de otros conceptos e ideas enunciados anteriormente.

En términos generales podemos decir que el método en la investigación social es una

estrategia que utiliza la inducción, deducción y la síntesis para adquirir conocimiento

de la realidad social.

4. Tipos de investigación: cualitativa y cuantitati va

A lo largo del tiempo, se ha debatido desde distintas corrientes filosóficas (empirismo,

positivismo, fenomenología, estructuralismo,..) sobre los métodos existentes de

investigación y sobre la idoneidad de unos u otros para investigar en las ciencias

sociales.

Como se comentó en el epígrafe 3, el método puede presentar distintas modalidades,

pero, si entendemos que el método en la investigación social es una estrategia que se

Page 7: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

7

emplea para adquirir conocimiento de la realidad, entonces debemos buscar aquellas

estrategias investigadoras en las que exista rigor y conexión entre la teoría y las

técnicas. En este sentido, es posible desarrollar dos estrategias o enfoques, el

cualitativo y el cuantitativo.

Ambos enfoques comparten estrategias generales comunes como observar y evaluar

fenómenos, aunque cada una presenta sus propias características.

El enfoque cualitativo trata de explorar e identificar la naturaleza y características de la

realidad que se estudia y evita la cuantificación de los hechos. Utiliza técnicas como la

entrevista y los grupos de discusión. No se suelen plantear hipótesis. El proceso de

investigación no presenta una secuencia establecida.

El enfoque cuantitativo trata de recopilar datos de las variables que definen el

fenómeno, cuantifica los hechos. Utiliza técnicas y herramientas de la estadística para

la recopilación y tratamiento de datos. Se suelen plantear hipótesis. El proceso de

investigación es secuencial.

Es bastante habitual utilizar ambas estrategias para desarrollar una misma

investigación.

En el epígrafe siguiente se expone un tipo de diseño de un proceso de investigación

por etapas, propio de una investigación cuantitativa. Sin embargo, en el módulo 3 de

este mismo documento también se exponen técnicas propiamente cualitativas que,

junto con la investigación cuantitativa, ofrecería un carácter mixto a la investigación.

Page 8: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

8

CAPÍTULO 2

Diseño de una investigación científica

1. Introducción

El diseño (plan o programa) de la investigación se puede definir como el plan global de

investigación que intenta dar de una manera clara respuestas a las preguntas

planteadas en la misma.

El plan de investigación que aquí se presenta recoge ocho etapas, ordenadas de

forma secuencial, para dar respuesta a cada una de las preguntas formuladas en el

proyecto de investigación:

1. Planteamiento del problema de investigación: ¿qué fenómeno vamos a

investigar?

2. Objetivos de la investigación: ¿qué meta perseguimos con el desarrollo de

nuestra investigación?

3. Justificación de la investigación: ¿por qué investigamos en este tema y

cuál es el alcance de nuestros resultados?

4. Marco teórico y conceptual (estado del arte): ¿qué y quienes han

investigado sobre el tema objeto de estudio?

5. Variables e hipótesis: ¿qué variables definen el fenómeno que

investigamos y qué relación existente entre ellas queremos validar?

6. Metodología: ¿cómo y qué medios vamos a utilizar para llevar a cabo

nuestra investigación?

7. Conclusiones: ¿hemos conseguido los objetivos propuestos? ¿qué nuevo

conocimiento o metodología aporta nuestra investigación?

8. Bibliografía: ¿qué documentación hemos utilizado para el desarrollo de

nuestra investigación?

Page 9: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

9

2. Planteamiento del problema de investigación

El punto de partida de una investigación es la elección del tema y la definición del

problema a investigar. El tema es el origen de la investigación y nace de la intuición,

de la experiencia y/o de la observación de la realidad. El tema se expresa mediante

una frase y normalmente relaciona dos o más áreas o conceptos. No existen reglas

fijas para encontrar el tema de investigación, Ramírez (2006) plantea algunos criterios

para seleccionar el tema de estudio:

• Escoger algún tema sobre el que ya se posee información.

• Seleccionar un tema concreto y accesible, un tema sobre el que exista

suficiente bibliografía y del que se puedan obtener datos fácilmente.

• Buscar un problema de investigación que resulte de interés.

Otros autores plantean otros criterios como son la experiencia en el tema y tener

conocimientos para su manejo.

Una vez que hemos elegido el tema de nuestro proyecto debemos realizar un

planteamiento del problema de investigación, es decir, debemos enunciar, describir y

delimitar el problema en el que queremos investigar.

El problema se puede formular de manera declarativa o interrogativa. En el primer

caso se expresa a forma de propósito (Ej. La investigación pretende mostrar la

importancia del papel del fundador en el crecimiento de una empresa familiar). En el

segundo caso se expresa formulando una pregunta (Ej. ¿Es importante el papel del

fundador en la fase de crecimiento de una empresa familiar?).

Es conveniente formular, junto con la pregunta que recoge el tema general de la

investigación, una serie de preguntas que ayuden a transformar el tema general en

problemas más concretos y más fáciles de tratar. De esta forma, surgirán problemas

específicos de investigación, de entre los cuales podremos seleccionar aquellos que

sean viables y sean de nuestro interés.

Ejemplo:

Pregunta general: ¿Cuáles son los elementos clave que generan valor agregado en una empresa?

Preguntas específicas: ¿Son los mismos para todos los tipos de empresa? ¿Cómo podemos identificarlos

y medirlos? ¿Se pueden medir de manera aislada o dentro de un contexto interrelacionado? ¿Se pude

probar el impacto de los elementos intangibles en el desempeño y el éxito de una organización? ¿Es

Page 10: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

10

posible establecer un marco de trabajo práctico con el cual se puedan gestionar los intangibles

estratégicos?

(Torres, 2008)

La descripción del problema permite conocer todos los hechos relacionados con el

problema de investigación. Cuando lo describimos debemos presentar los

antecedentes teóricos y/o empíricos, las teorías y los supuestos básicos en los que se

apoya el enunciado del problema.

El problema debe enunciarse de forma clara y concisa, es decir, debe ser delimitado.

La delimitación supone establecer el tiempo de realización, fijar los espacios físicos y/o

geográficos dónde se va a centrar la investigación y determinar los conceptos y

recursos disponibles para su realización. Una delimitación adecuada del tema es una

garantía de la viabilidad de la investigación.

El planteamiento de un problema de investigación exige una concepción previa de la

naturaleza de la realidad que queremos estudiar. Una revisión bibliográfica en el área

de estudio y la consulta a expertos en la materia pueden resultar de gran ayuda en

esta primera etapa del proceso de investigación.

3. Objetivos de la investigación

Una reflexión y estudio sobre el origen, naturaleza y características del tema de

investigación revelará aspectos importantes para perfilar la idea inicial del problema

objeto de estudio y será de utilidad para formular los objetivos perseguidos en el

trabajo.

Un objetivo es un fin, un resultado al que van dirigidas todas las actividades a llevar a

cabo en nuestra investigación. Se pueden distinguir dos tipos de objetivos, el objetivo

general y los objetivos específicos o instrumentales. El objetivo general debe

responder al tema de investigación. Se recomienda que en la investigación haya un

solo objetivo general que defina el propósito del trabajo. Dos o más objetivos

generales podrían indicar que se van a realizar dos o más investigaciones. Los

objetivos específicos o instrumentales son las acciones, los pasos intermedios para la

consecución del objetivo general. Son un desglose del objetivo general e indican las

partes en las que se va a dividir la investigación.

Page 11: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

11

Los objetivos deben ser formulados con claridad utilizando verbos fuertes expresados

en infinitivo. Deben ser concretos, medibles y seguir un orden lógico.

Ejemplo:

Objetivo general: Desarrollar un modelo integrador de elementos intangibles que sirva, por un lado, como

base teórica para futuras investigaciones y por otro lado, como marco de trabajo para la gestión de

recursos y capacidades claves en el desempeño empresarial.

Objetivos específicos:

• Identificar con base a la literatura relevante, un conjunto de elementos genéricos que son

considerados como los elementos intangibles claves en la creación de valor en las

empresas de la economía actual.

• Desarrollar un modelo conceptual que integre los elementos intangibles identificados,

estableciendo una estructura causal que, en última instancias, los vincule con el

desempeño.

• Probar el modelo conceptual a través de una muestra de empresas en México utilizando

técnicas y herramientas estadísticas que permitan explorar posibles relaciones entre

elementos intangibles e identificar diferencias en las acumulaciones y desempeño entre

empresas familiares y no familiares, así como identificar elementos distintivos con base en

el tamaño, edad o sector en el que operan.

(Torres, 2008)

4. Justificación de la investigación

Justificar una investigación consiste en expresar las razones por las que se lleva a

cabo el estudio. Debemos explicar por qué es conveniente y cuáles son los beneficios

que se esperan con el conocimiento obtenido, es decir, debemos demostrar por qué la

investigación es necesaria e importante en el área en la que se centra nuestro estudio.

Una investigación se inicia con algún propósito en un área de conocimiento

determinada, por lo tanto, su realización debe ser de utilidad por diferentes motivos.

Hernández et al. (2006) indican algunos criterios, formulados como preguntas, para

evaluar la utilidad de una investigación:

• Conveniencia: ¿para qué sirve la investigación?

• Relevancia social: ¿qué alcance o proyección social tiene?

Page 12: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

12

• Implicaciones prácticas: ¿ayudará a resolver algún problema real?

• Valor teórico: Con la investigación ¿se llenará algún vacío del

conocimiento? ¿la información que se obtenga servirá para revisar,

desarrollar o apoyar una teoría? ¿se podrá conocer en mayor medida el

comportamiento de una o de diversas variables o la relación entre ellas?

¿se pueden sugerir ideas, recomendaciones o hipótesis para futuros

estudios?

• Utilidad metodológica: ¿la investigación puede ayudar a crear un nuevo

instrumento para recopilar o analizar datos? ¿sugiere cómo estudiar mejor

una población?

5. Marco teórico y conceptual

Siguiendo a Hernández et al.:

“El marco teórico es un compendio escrito de artículos, libros y otros documentos que describen el

estado pasado y actual del conocimiento sobre el problema de estudio. Nos ayuda a documentar

cómo nuestra investigación agrega valor a la literatura existente” (Hernandez et al., 2006).

Estos mismos autores destacan las siguientes funciones del marco teórico:

1. Ayuda a prevenir errores que se han cometido en otros estudios.

2. Orienta sobre cómo habrá de realizarse el estudio. Al acudir a los

antecedentes nos podemos dar cuenta de cómo se ha tratado un problema

específico de investigación: qué clases de estudios se han efectuado, con

qué tipo de participantes, cómo se han recolectado los datos, en qué

lugares se han llevado a cabo, qué diseños se han utilizado. Aun en el

caso de que desechemos los estudios previos, éstos nos orientarán sobre

lo que queremos y lo que no queremos para nuestra investigación.

3. Amplía el horizonte del estudio o guía al investigador para que se centre en

su problema, para evitar desviaciones del planteamiento general.

4. Documenta la necesidad de realizar el estudio.

5. Conduce al establecimiento de hipótesis o afirmaciones que más tarde

habrán de someterse a prueba en la realidad, o bien, nos ayuda a no

establecerlas por razones bien fundamentadas.

6. Inspira nuevas líneas y áreas de investigación.

Page 13: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

13

7. Provee de un marco de referencia para interpretar los resultados del

estudio. Aunque podemos no estar de acuerdo con dicho marco o no

utilizarlo para interpretar nuevos resultados, es un punto de referencia.

Para elaborar el marco teórico y conceptual comenzamos con la revisión bibliográfica

que consiste en recopilar y consultar aquella información local, nacional y/o mundial

que está relacionada con nuestro tema de investigación.

De todos los artículos, libros y documentos recopilados y consultados,

seleccionaremos aquellos que puedan proporcionarnos datos e ideas que sean de

utilidad para el desarrollo de nuestro marco de referencia.

La bibliografía consultada debe ser debidamente referenciada a lo largo de toda la

investigación. Es importante diferenciar la aportación del investigador del resto de

ideas, conceptos y teorías extraídos de las fuentes consultadas. En la tabla 1 se

muestra cómo citar dentro del texto siguiendo las normas Harvard.

Tabla 1. ¿Cómo citar dentro del texto?

Si el nombre del autor ocurre de forma

natural en la frase

Ej. De acuerdo con Becker (1975), el capital humano es la

acumulación (stock) de conocimiento, competencias,...

Si el nombre del autor no ocurre de forma

natural en la frase

Ej. El capital humano representa el conocimiento y

habilidades de una persona, las cuales le permiten realizar

acciones únicas y novedosas (Coleman, 1988)

Cuando se citan varias obras del mismo

autor publicadas en el mismo año

Ej. En materia de gerencia social es imprescindible

mencionar las contribuciones de Klisberg (1993b).

Si hay dos autores Ej. Según Mill y Morrison (1985), las necesidades son una

combinación de anhelos de los que el consumidor puede

ser o no consciente

Si hay más de dos autores Ej. Cals et al. (1993) proponen…

Si se desconoce el nombre del autor o no

figura

Ej. Un artículo reciente (Anon 1993) afirmaba que…

Si se cita una fuente citada en otra obra Ej. Un estudio de Smith (1960 citado por Jones 1994 p. 24)

demostraba que…

Las citas literales de menos de tres líneas

(dentro del texto entre comillas)

Ej. …“La ciencia es una empresa dedicada a averiguar”

(Babbie, 1999, p. 71)

Las citas literales de más de tres líneas

(párrafo aparte y sangrado)

Ej. “En el proceso seguido para la determinación de

hipótesis se pueden distinguir dos pasos principales: a)

hallar el aspecto, relación o factor que pueda dar solución a

la cuestión investigada, y b) expresar dicho aspecto,

relación o factor en forma adecuada susceptible de

verificación”.

Fuente: Normas Harvard

Page 14: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

14

La documentación recopilada proporciona una síntesis del contexto general de nuestro

tema de estudio. A partir de este contexto desarrollamos el estado del arte

exponiendo, explicando y contrastando las teorías y estudios empíricos que existen

sobre el fenómeno objeto de estudio.

Las teorías y las comprobaciones empíricas aplicables a nuestra investigación nos

permiten detectar qué conocimiento existe sobre el tema en el que estamos trabajando

y también nos ayuda a descubrir qué vacíos queremos llenar con nuestro proyecto.

No siempre existen teorías y/o estudios empíricos en los que nos podamos basar para

el desarrollo del marco teórico. En estos casos nos limitaremos a extraer aspectos

relevantes de estudios previos que están relativamente relacionados con nuestro

tema.

La literatura consultada también debe proporcionarnos información suficiente para

elaborar el contexto conceptual en el que se considera el problema de investigación.

Debemos desarrollar los conceptos operativos, explicativos e implícitos del problema

(Ej. Conceptualizar el término de innovación. Concepto de empresa familiar.)

6. Variables y Formulación de hipótesis

Las variables son cualidades, propiedades o rasgos observables de los elementos del

estudio científico. Las variables son de gran importancia en el método científico

porque las clasificamos y agrupamos, las relacionamos y, las estudiamos y las

interpretamos. Las variables participan en todas las fases del proceso, por esto,

debemos definirlas con un alto grado de especificación (Lafuente y Marín, 2008).

Se pueden considerar distintos tipos de variables si atendemos a los siguientes

criterios de clasificación:

• Según la naturaleza: de acuerdo este criterio, las variables pueden ser

cualitativas o cuantitativas. Las primeras se refieren a características cuya

observación proporciona un dato no numérico (Ej. Las formas de

constitución de una empresa). Las variables cuantitativas son

características cuya observación proporciona un dato numérico (Ej. La

propensión exportadora de las PYMES españolas; El tamaño de las

empresas según volumen de ventas)

Page 15: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

15

• Según la posición que relaciona a las variables: se distingue entre

variables dependientes y variables independientes. Las variables

dependientes son aquellas cuyo comportamiento viene determinado por el

comportamiento de otra u otras variables. Las variables independientes

son las variables que se proponen en la investigación para explicar la

razón de ser de la variable dependiente. Intentamos descubrir que tipo de

asociación o influencias ejercen las variables independientes sobre la

variable dependiente (Ej. Queremos explicar cómo influye la innovación,

variable independiente, en los beneficios de las empresas, variable

dependiente).

Las hipótesis de investigación o hipótesis de trabajo son “explicaciones tentativas del

fenómeno investigado que se formulan como proposiciones” (Hernández et al., 2006).

Una hipótesis, por lo tanto, es una afirmación tentativa. No es un hecho. Son

afirmaciones de una variable o sobre la relación existente entre dos o más variables

que deben ser sometidas a prueba. En este sentido, la hipótesis debe ser formulada

de tal forma que pueda ser potencialmente aceptada o rechazada, es decir debe estar

sujeta a una comprobación empírica.

En una investigación se pueden formular dos o más hipótesis, aunque en algunas

ocasiones no se incluyen hipótesis de trabajo, es el caso de investigaciones

exploratorias y el de investigaciones cualitativas.

Las hipótesis surgen del planteamiento del problema, de la intuición y de la revisión de

la literatura realizada. El marco teórico y conceptual dan fundamento y justificación a

las hipótesis de trabajo, a priori validan las relaciones entre variables recogidas en la

afirmación, aunque estas relaciones sólo serán aceptadas o rechazadas cuando se

realice el adecuado análisis de datos, es decir, cuando hayan sido objeto de

comprobación empírica.

Existen distintas clasificaciones de hipótesis según los criterios establecidos.

Hernandez et al. (2006) distinguen cuatro tipos de hipótesis según el alcance de la

investigación: descriptivas, correlacionales, de diferencia de grupos y causales.

En las hipótesis descriptivas se formula un pronóstico sobre el comportamiento de una

variable.

Hi: Las exportaciones de las PYMES españolas crecerán un 5% el próximo año

Page 16: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

16

En las hipótesis correlacionales se establecen relaciones entre dos o más variables y

se indica en qué dirección están asociadas sin estableces una relación causa-efecto

entre ellas.

Hi: Existe una relación positiva entre innovación y competitividad.

En las hipótesis de diferencia entre grupos se comparan grupos. En este tipo de

hipótesis, el investigador se limita a indicar que existen diferencias entre dos o más

grupos de interés. Si dispone de bases, de información suficiente, además puede

indicar la dirección de las diferencias entre grupos.

Hi: Las empresas familiares siguen un proceso de internacionalización distinto a de las no familiares (sólo

se establece que hay diferencias).

Hi: Las empresas no familiares se inician antes en el proceso de internacionalización que las empresas

familiares (se establece la dirección de la diferencia).

Por último, en las hipótesis causales se establece una relación causa-efecto entre las

variables. Se realiza una afirmación sobre el efecto que provoca sobre una variable

(variable dependiente), el comportamiento de otra u otras variables (variables

independientes).

Hi: La innovación tecnológica aumenta la productividad de las empresas (una variable independiente).

Hi: La innovación tecnológica y la motivación aumentan la productividad (dos variables independientes).

7. Metodología

En este apartado de metodología especificaremos la forma y el procedimiento

ordenado que seguiremos para conseguir los objetivos propuestos.

La metodología presenta los métodos y técnicas para la investigación. Toda

investigación nace con un propósito, por tanto, es necesario indicar que tipo de

investigación vamos a realizar ya que cada tipo de investigación exige un

procedimiento metodológico distinto.

Los tipos más comunes y útiles de investigación según su propósito son la

exploración, descripción y explicación.

Una investigación es exploratoria cuando se realiza para descubrir aspectos

fundamentales de un problema determinado, del cual se tienen dudas o no se ha

Page 17: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

17

abordado antes. Suelen ser investigaciones sobre temas de los que existe poca

información. Según Babbie (1999), los estudios exploratorios se hacen con tres

objetivos:

1. Satisfacer la curiosidad del investigador y su deseo de un mayor

conocimiento,

2. Probar la viabilidad de un estudio más extenso y

3. Desarrollar los métodos que se aplicarán en un estudio posterior.

Una investigación es descriptiva cuando tiene como propósito contar, detallar las

propiedades y características de una realidad concreta. El investigador observa la

realidad y luego la describe.

Las investigaciones exploratoria y descriptiva suelen ser la base para desarrollar otras

investigaciones más profundas.

Por último, una investigación es explicativa cuando su propósito va más allá de la

mera descripción del fenómeno objeto de estudio. En este tipo de investigación se

explica el por qué del fenómeno y se indica cómo se relacionan las variables que lo

definen.

Normalmente, las investigaciones suelen presentar los tres tipos de propósitos,

exploración, descripción y explicación.

Una vez que hemos señalado qué tipo de investigación estamos realizando, estamos

en disposición de indicar la fuente y los medios utilizados para obtener los documentos

y los datos en los que nos hemos apoyado para desarrollar nuestra investigación.

También debemos mostrar las técnicas y herramientas aplicadas y su idoneidad en el

tratamiento de datos.

Los documentos y los datos se pueden obtener de fuentes primarias o de fuentes

secundarias.

Las fuentes primarias son fuentes de información de primera mano. Las tesis, los

libros, artículos de revista, monografías y manuscritos se consideran fuentes primarias

para obtener documentos. Cuando nos referimos a datos obtenidos en fuentes

primarias nos referimos al uso de medios como la entrevista, los grupos de discusión y

Page 18: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

18

la encuesta. Es decir, medios que nos permiten obtener datos específicos para nuestra

investigación.

Hablamos de fuentes secundarias para la obtención de documentos cuando nos

apoyamos en resúmenes o documentos que compilan la información recogida en las

fuentes primarias. Hablamos de datos obtenidos en una fuente secundaria cuando

utilizamos cuadros estadísticos que ya han sido elaborados por instituciones para el

desarrollo de estudios distintos a nuestra investigación.

Recopilados los datos debemos indicar qué técnicas hemos utilizado para su

tratamiento. La estadística y la econometría nos proporcionan abundantes técnicas y

herramientas para el análisis descriptivo y explicativo de una o más variables.

8. Conclusiones y futuras líneas de investigación

El apartado de conclusiones no debe ser un resumen de la investigación realizada.

Debemos señalar qué logros hemos conseguido y cómo los hemos conseguido.

Explicaremos qué significado tienen los resultados respecto a los objetivos propuestos

y, si en la investigación hemos planteado hipótesis, indicaremos cuáles se han

validado y cuáles se han rechazado al ser contrastadas con la realidad observada.

Debemos, además, indicar las limitaciones de nuestra investigación y sugerir líneas de

acción de acuerdo a los resultados obtenidos.

En este apartado también se incluyen las limitaciones de nuestra investigación y se

sugieren nuevas propuestas de investigación. Una tesis doctoral, además, de llenar

un pequeño vacío en el área de estudio elegida, permite descubrir nuevos problemas

susceptibles de investigar que deben proponerse como futuras líneas de investigación.

9. Bibliografía

Este apartado recoge toda la documentación utilizada para el desarrollo de la

investigación.

En la tabla 2 se hace una propuesta, siguiendo las normas Harvard, de cómo

referenciar la documentación consultada.

Page 19: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

19

Tabla 2. ¿Cómo preparar las Referencias Bibliográf icas?

Libros Ej. BABBIE, E (1999). Metodología de la investigación. México,

Thomson

Colaboración capítulo en un libro Ej. Goodall, B. 1992. “Environmental Auditing for Tourism”. En: C.

Cooper y A. Lockwood, eds. Progress in Tourism, Recreation and

Hospitality Management. London: Belhaven Press, 60-74.

Artículo en una revista Ej. Nelson, R. y Winter, G. (1982). “The Shumpeterian Tradeoff

Revisited”. The American Economic Review. Vol. 72, Iss.1, p 114-

132.

Conferencia Ej. Witt, C. y, Wright, P. 1990. Tourist Motivation: Life after Maslow.

En: P. Johnson y B. Thomas, eds. Proceedings of Tourism Research

into the 1990s, Durham University, 10-12 Diciembre 1990. Durham:

Durham University, 1-16.

Publicación de una institución Ej. OCDE. (1992). The key Relationships. Paris.

Tesis Ej. Torres Padilla, A.(2008). Un Modelo Integrador para el Manejo

de Elementos Intangibles y Creación de Valor en la Empresa: el

caso de Empresas Familiares y no Familiares en México. Tesis

doctoral (PhD). Universidad Antonio de Nebrija, Facultad de

Ciencias Sociales.

Fuentes electrónicas

Trabajos individuales e.g Holland, M. (1996). Harvard System [en linea]. Poole,

Bournemouth University. Disponible en:

http://www.bournemouth.ac.uk/service-

depts/lis/LIS_Pub/harvardsyst.html [Fecha de consulta 15 Apr 1996].

Revistas electrónicas e.g.Korb, K.B. (1995). Persons and Things: Book Review of

Bringsjord on Robot-Consciousness. Psycoloquy [en linea], 6 (15).

Disponible en:

gopher://wachau.ai.univie.ac.at:70/00/archives/Psycoloquy/95.V6

/0162 [Fecha consulta 17 Jun 1996].

Foros de discusión y listas de

correo

e.g. Brack, E.V. (2 May 1995). Re: Computing Short Courses. Lis-

link [en linea]. Disponible en: [email protected] [Fecha

consulta 17 Apr 1996].

Correos electrónicos personales

(E-mail)

e.g.Lowman, D. ([email protected]). (4 Apr 1996).

RE>> ProCite and Internet Refere. E-mail to P. Cross

([email protected]).

Fuente: Normas Harvard

Page 20: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

20

MÓDULO 2:

INVESTIGACIÓN CUALITATIVA

Page 21: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

21

CAPÍTULO 3

Introducción a la metodología y técnicas cualitativ as

1. Introducción

La metodología cualitativa es un método de investigación que tiene como principal

objetivo explorar las relaciones sociales y describir la realidad tal y como la

experimentan los individuos. Está muy orientada a las ciencias sociales.

La diferencia entre el análisis cuantitativo y el cualitativo tiene su origen en la distinción

entre positivismo y hermenéutica. El positivismo se basa en el análisis estadístico de

los datos recogidos por medio de estudios y experimentos descriptivos y comparativos.

Asume que solo el conocimiento obtenido a través de medidas y de identificaciones

objetivas puede presumir de poseer la verdad. La hermenéutica, por su parte,

representa una reacción contra esa rigidez del positivismo respecto a ciertos tipos de

problemas sociales. En lugar de explicar las relaciones causales por medio de hechos

objetivos y análisis estadísticos, utiliza un proceso interpretativo más personal en

orden a comprender la realidad. Este contraste queda claramente descrito en el

esquema de Plummer (1983):

Tabla 3. Metodología cualitativa vs metodología cuantitativa

Dos planteamientos

Humanista Positivista

Focos de estudio Únicos, ideográficos

Centrados en lo humano

Lo interior, subjetivo

Significado, sentimiento

Generales y nomotéticos

Centrados en la estructura

Lo exterior, objetivo

Cosas, sucesos

Epistemología Fenomenología

Relativista

Perspectivista

Realista

Absolutista esencialista

Lógico positivista

Tarea Interpretar, comprender

Describir, observar

Explanación causal

Medir

Estilo Suave, cálido

Imaginativo

Válido, real, rico

Duro, frío

Sistemático

Fiable, replicable

Teoría Inductiva, concreta

Cuenta historias

Deductiva y abstracta

Operacionalismo

Valores Comprometida ética y

políticamente

Neutral ética y políticamente

Pericia y Elites

Page 22: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

22

Igualitarismo

Fuente: Plummer (1983) en Ruiz Olabuénaga (2007)

2. Características de los métodos cualitativos

- Su objetivo es la captación y reconstrucción de significado. Si una investigación

pretende captar el significado de las cosas (comportamientos, actos…) más bien

que describir los hechos sociales, se puede decir que entra en el ámbito de la

investigación cualitativa.

- Su lenguaje es básicamente conceptual y metafórico. Si una investigación utiliza

los conceptos, las metáforas, las viñetas, las narraciones en lugar de los

números, los test estadísticos, los algoritmos, las tablas y las fórmulas

estadísticas, es investigación cualitativa.

- Su modo de captar la información no es estructurado sino flexible y

desestructurado. Si en una investigación se prefiere recoger información a través

de la observación o de la entrevista en profundidad más bien que mediante

experimentos o encuestas estructuradas masivas, entra en el ámbito de la

metodología cualitativa.

- Su procedimiento es más inductivo que deductivo. Si en lugar de partir de una

teoría y unas hipótesis perfectamente elaboradas y precisas prefiere partir de los

datos para intentar reconstruir un mundo cuya sistematización y teorización

resulta difícil, entra en el ámbito de la metodología cualitativa.

- La orientación no es particularista y generalizadora sino holística y

concretizadora. Si en vez de intentar generalizar de una muestra pequeña a un

colectivo grande cualquier elemento particular de la sociedad, la investigación

pretende captar todo el contenido de experiencias y significados que se dan en

un solo caso, ésta entra en la esfera de la metodología cualitativa.

Page 23: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

23

3. El diseño cualitativo

La investigación con técnicas cualitativas está sometida a un proceso de desarrollo

similar al de la investigación de naturaleza cuantitativa. Las fases de la investigación

serían1:

- Definición del problema

La definición del problema se orienta a encontrar lo que constituye el foco central de

todo análisis cualitativo: la búsqueda de significado. Y esa definición de significado

debe ser abierta en muchos sentidos. Es abierta en cuanto a su contenido, puesto que

el investigador desconoce de entrada su naturaleza precisa; en cuanto a su

comprensión, porque es susceptible de inesperadas ramificaciones; y en cuanto a la

profundidad, densidad y extensión.

A diferencia del modo como las técnicas cuantitativas definen su problema, creando

una condición de pureza situacional cuyo ideal es el laboratorio o control estadístico,

las cualitativas lo hacen introduciéndolo lo más posible en la situación. Más aún, la

definición del problema siempre es provisional, porque la tarea central del análisis

cualitativo es averiguar si la definición está bien definida.

Por tanto, definir no es delimitar, rodear, circunscribir con precisión un problema, sino

situarse, orientarse, sumergirse, acercarse, contactar con el núcleo, el foco, el centro

del mismo.

- Diseño de trabajo

Tras la definición del problema es preciso elaborar un diseño o proyecto de trabajo. Un

diseño que, a diferencia del trabajo cuantitativo, es solamente provisional y sometido a

probables cambios. Digamos que el diseño en la investigación cualitativa se relaciona

con las siguientes características: flexibilidad (la toma de decisiones probablemente se

altere durante la investigación), provisionalidad (las decisiones pueden ser temporales

pero siempre han de ir guiadas por los conocimientos de la experiencia anterior, y de

la bibliografía consultada), totalidad (visión holística y global del fenómeno a estudiar),

y proximidad (no se debe perder el contacto directo con la realidad inmediata).

1 Nótese que el objetivo de estas fases no es redundar la información que se ofrece en el capítulo 2 de estos apuntes, sino servir de hilo conductor para comprender mejor cómo se estructura una investigación cualitativa, con sus peculiaridades.

Page 24: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

24

El diseño abarca y comprende todos los pasos de los que consta una investigación. Se

podría resumir en los siguientes elementos:

a) Esquema teórico: fijación de la estrategia que se va a seguir a lo largo de la

investigación. La estrategia de una investigación cualitativa va orientada a

descubrir, captar y comprender una teoría, una explicación, un significado, del

mismo modo que la de una cuantitativa va más orientada a contrastar,

comprobar, demostrar la existencia de una teoría previamente formulada. La

primera impone un contexto de descubrimiento y de exploración al paso que la

segunda de comprobación y de contraste.

b) Diseño muestral: la tendencia del análisis cuantitativo a generalizar y

universalizar sus descubrimientos le obliga a estudiar, en principio, a todos los

casos o a seleccionar unos cuantos casos representativos (muestra) del

colectivo general. Por el contrario, los análisis cualitativos, habitualmente,

estudian un individuo o una situación, unos pocos individuos o unas reducidas

situaciones, con el propósito no de generalizar algún aspecto concreto sino de

profundizar en ese mismo aspecto.

c) Codificación del lenguaje: toda observación realizada por un investigador ha de

ser traducida a símbolos de modo que pueda ser conservada e intercambiada.

Existen dos formas de codificación: a través del concepto y a través del

número. En la investigación cualitativa prima el concepto (descripciones y

viñetas literarias) y en la cuantitativa el número (tablas y test estadísticos).

d) Control de elementos espurios: las técnicas cualitativas no pueden ser puestas

en práctica sin que sean previstas técnicas de veracidad, de autenticidad y, en

general, de control de calidad.

Lofland (1984) afirma que la metodología cualitativa, al primar la comprensión

directa del mundo social, afronta menos problemas de validez que la

metodología cuantitativa, sin embargo, al margen de la interpretación subjetiva,

toda información cualitativa debe afrontar el problema de su verdad objetiva y

de si constituye una descripción acertada de un hecho, actitud o creencia de la

vida real. Este mismo autor propone el siguiente test de garantía de calidad

para reforzar la fiabilidad de una investigación cualitativa:

Page 25: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

25

Tabla 4. Test de garantía de calidad

Inmediatez de la información ¿El relato está basado en percepción directa o

procede de información de segunda mano?

¿Sugiere esto alguna preocupación especial?

Situación espacial del informante Aunque sea de primera mano, la información

puede estar sesgada por la defectuosa

accesibilidad del informante

Situación social del informante Sesgadora de su capacidad de juicio, propensión a

falsificar, distorsionar o limitar la información

Error y sesgo en provecho propio Grado en el que los propios valores e intereses

pueden viciar el relato del informante

Errores previstos manifiestos del informante De acuerdo a la experiencia propia, ¿hasta qué

punto mis observaciones o las del informante son

fiar? Él o yo ¿hemos cometido en el pasado algún

error notable en la apreciación de los datos?

Consistencia interna del reportaje ¿Existen contradicciones internas en cuanto al

desarrollo espacial temporal, o en la participación

de unos u otros protagonistas?

Consistencia externa Acuerdo o desacuerdo entre diferentes

informantes. ¿Existen suficientes informantes

neutrales para poder fiarse de ellos? Si hay

desacuerdo, ¿se ha establecido algún sistema de

cotejo?

Fuente: Lofland (1984)

e) Comprobación: antes de iniciar la recogida de datos es necesario comprobar

que: se cuenta con que se ha localizado el núcleo del fenómeno que se quiere

estudiar, se dispone de un conocimiento teórico de situaciones o experiencias

similares que sirvan de orientación, se haya formulado una selección

condicionada de focos temáticos, informantes y situaciones por su valor

estratégico para conferir información, y se hayan adoptado medidas de

precaución para garantizar la calidad de la información recogida.

- Recogida de datos

Las tres técnicas más importantes de recogida de datos en los estudios cualitativos

son: la entrevista, la observación y la lectura. Son los tipos de investigación más

relevantes.

La entrevista es la herramienta metodológica preferida por los investigadores

cualitativos. Esta suele ser practicada en su modalidad abierta y no estructurada,

Page 26: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

26

entendida como una conversación controlada por el arte de saber formular preguntas y

de saber escucharlas.

La entrevista no es una herramienta mecánica sino que está fundamentalmente

influenciada por el entrevistador y por sus características, así como por el entrevistado

y su contexto.

La observación es la segunda herramienta favorita para la recogida de información. Es

entendida y practicada como la entrada a una situación social, unas veces como parte

de la misma y otras, como simple espectador, y la inspección sistemática de lo que en

ella ocurre.

La lectura de documentos que conservan un fenómeno social pasado, es el tercer

modo de recoger información. Todo escrito puede ser leído e interpretado como una

interacción social pasada, sin olvidar, que esta lectura es una construcción social y

política ella misma, en la que interviene, no sólo el creador original del documento,

sino el investigador que lo lee posteriormente e interpreta.

En resumen, las técnicas de recogida de información más usualmente utilizadas son:

Tabla 5. Formas más difundidas de recoger informac ión

Entrevista Observación Lectura

En profundidad Etnográfica Análisis de contenidos

(escritos, audiovisuales…)

De grupo Etnometodológica Biografías (auto y asistida)

Delphi (en ocasiones se

incluye dentro de “De grupo”)

Participativa-No participativa Circept (lenguaje metafórico)

Fuente: Ruiz Olabuénaga (2007)

- Análisis de los datos

En este apartado se dan las mayores diferencias entre los métodos cuantitativos y los

cualitativos. Los primeros analizan datos fundamentalmente mediante la constatación

de parámetros y asociaciones. Utilizan algoritmos tales como medias, desviaciones,

ratios, coeficientes así como test de correlación, de regresión, de diferencia

significativa, etc. Por el contrario, los segundos analizan los datos mediante

narraciones, viñetas y relatos cuyo ideal es la interpretación de las interpretaciones de

los sujetos que toman parte en una acción social. Y si bien es cierto que la

investigación cualitativa no se somete a ningún esquema rígido de procedimientos y

Page 27: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

27

normas, también lo es que diferentes autores han ido presentando métodos de análisis

al mismo tiempo que llevaban sus estudios concretos (como por ejemplo, el Método

Delphi).

- Conclusiones

Siguiendo las instrucciones de Saravia (2006), las conclusiones resumen todo el

trabajo de investigación realizado y presentan la estructura completa del proceso. Esto

es:

1. Introducción: descripción razonada de todo el documento. Sirve de visión

panorámica. Se presenta una descripción de la estructura del informe.

2. Justificación: es retomada del proyecto pero revisada estéticamente.

3. Planteamiento del problema: ídem que en el punto anterior.

4. Objeto de estudio: ídem.

5. Cuestiones a responder mediante la investigación: se derivan de las preguntas

de investigación presentadas en el proyecto y sirven de base para los

objetivos.

6. Objetivos: no es necesario señalar exactamente el texto de la investigación,

puesto que los objetivos han podido ser ajustados a lo largo del proceso

respecto de los objetivos presentados al inicio, aunque no modificados en su

intención original.

7. Marco teórico: contiene los capítulos que resumen la revisión documental

realizada. Igualmente aporta los antecedentes teórico-conceptuales y

empíricos que sostienen la investigación. En los estudios cualitativos el marco

teórico es referencial sobre la realidad analizada y no ejerce como base de

operacionalización de variables.

8. Metodología de la investigación: describe el tipo de investigación elegida (en

este caso, cualitativa), su fundamentación, el método de estudio, población y

muestra, estrategias de recogida de información y técnicas de análisis de datos

en su caso.

9. Presentación y discusión de resultados: sintetiza los principales hallazgos

dándole una interpretación teórica.

Page 28: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

28

10. Conclusiones: incluye lo esencial de todo el proyecto, haciendo hincapié en las

aportaciones realizadas.

11. Referencias bibliográficas: citación de las fuentes utilizadas siguiendo la

normativa internacional2.

Antes de adentrarnos en las técnicas cualitativas más utilizadas en las ciencias

sociales, sobre todo, en el campo de la economía y de la empresa, es necesario, para

tener una visión más amplia de los métodos cualitativos existentes, realizar una breve

descripción de las técnicas que se encuentran dentro de la observación y de la lectura.

Para ello nos vamos a apoyar en el cuadro anterior “Formas más difundidas de

recoger información”, que fue elaborado por Ruiz Olabuénaga (2007):

OBSERVACIÓN:

1. Etnográfica: es el estudio directo de personas o grupos durante un cierto

período para conocer su comportamiento social y revelar las explicaciones que

sustentan dicho comportamiento, utilizando la observación directa, cuando el

investigador participa directamente, o indirecta, cuando no participa en el

fenómeno que se observa.

2. Etnometodológica: se refiere a la investigación empírica de los métodos que

utiliza la gente para dar sentido y producir la actividad social cotidiana. Estudia

los procesos de constitución de la realidad a través de la observación. Es

utilizada principalmente en sociología.

3. Participativa – No participativa: la observación participativa es una técnica

utilizada en las ciencias sociales en donde el investigador comparte con los

investigados su contexto, experiencia y vida cotidiana. En el caso de la no

participativa, el investigador no forma parte del grupo a estudiar y, además, en

ocasiones, su presencia es desconocida por los investigados.

LECTURA:

1. Análisis de contenidos: es el modo de recoger información, más amplio,

universalizado y rico. Incluye textos escritos, grabados, pintados, filmados;

propios o ajenos; espontáneos o preparados previamente; documentos

2 El método más utilizado en el campo de las ciencias sociales y, especialmente, en el área de las ciencias económicas y empresariales es el Método Harvard, tratado en páginas previas.

Page 29: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

29

personales; fichas de contenidos. No se puede hablar directamente con el

texto, pero puede ser interpretado. Parte del principio de que examinando

textos es posible conocer no sólo su significado, sino información sobre su

modo de producción.

2. Biografías: es la historia de la vida de una persona desde su nacimiento hasta

su muerte, expone los acontecimientos significativos y logros más importantes.

3. Circept: consiste en que todas las analogías despertadas por un concepto, una

idea o un instrumento, se ordenan de forma circular, de tal forma que aquellas

que se encuentran próximas entre sí, guardan mucha más relación que las que

se encuentran alejadas.

A continuación se procede a desarrollar el método preferido por los investigadores

cualitativos: la ENTREVISTA. Dentro de la cual, como se sabe, se pueden diferenciar:

las entrevistas en profundidad, las entrevistas en grupo y el método Delphi.

Page 30: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

30

CAPÍTULO 4

Entrevistas en profundidad

1. Concepto

Es una técnica de obtener información, mediante una conversación profesional con

una o varias personas para un estudio analítico de investigación o para contribuir en

los diagnósticos o tratamientos sociales.

La entrevista en profundidad implica un proceso de comunicación, en el transcurso del

cual, entrevistador y entrevistado, pueden influirse mutuamente. Como se comentó en

el capítulo 3, es fundamentalmente una conversación en la que y durante la que, se

ejercita el arte de formular preguntas y escuchar respuestas.

Lejos de ser un intercambio espontáneo comprende un proceso un tanto artificial a

través del cual el entrevistador genera una situación concreta –la entrevista- que

implica una situación única.

Existen diferentes tipos de entrevista, desde la más común, la entrevista individual

hablada, hasta la entrevista de grupo, o las desarrolladas por correo o telefónico, de

forma estructurada y controlada o libre. Tres características pueden diferencias las

entrevistas:

a) Las entrevistas sostenidas con un solo individuo (individual) o con un grupo de

ellas (de grupo).

b) Las entrevistas que cubren un amplio espectro de temas (biográficas) o las

monotemáticas.

c) Las entrevistas dirigidas (estructurada) en las que el actor lleva la iniciativa de

la conversación o aquellas en la que el entrevistador sigue un esquema general

y flexible de preguntas, en cuanto a orden, contenido y formulación de las

mismas (no estructurada).

Page 31: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

31

Tabla 6. Diferencias entre las entrevistas estruct urada y no estructurada

La entrevista estructurada La entrevista no estructurada

La entrevista

- Pretende explicar más que comprender

- Busca minimizar los errores

- Adopta el formato estímulo/respuesta,

suponiendo que a una respuesta correcta el

entrevistado contesta la verdad

- Obtiene con frecuencia respuestas racionales,

pero pasa por alto la dimensión emocional

- Pretende comprender más que explicar

- Busca maximizar el significado

- Adopta el formato de estímulo/respuesta sin

esperar la respuesta objetivamente verdadera,

sino subjetivamente sincera

- Obtiene con frecuencia respuestas

emocionales, pasando por alto la racionalidad

El entrevistador

- Formula una serie de preguntas con una serie

de respuestas prefijadas entre las que elegir

- Controla el ritmo de la entrevista siguiendo un

patrón estandarizado y directo

- No da explicaciones largas del trabajo

- No altera el orden ni la formulación de

preguntas

- No permite interrupciones ni intervención de

otras personas en las respuestas

- No expresa su opinión personal a favor o en

contra. Su papel es neutral

- No interpreta el sentido de las preguntas, sólo

da las explicaciones previstas

- Nunca improvisa el contenido o forma de las

preguntas

- Establece una relación equilibrada que implica

familiaridad al mismo tiempo que

impersonalidad

- Adopta el estilo de oyente interesado pero no

evalúa las respuestas oídas.

- Formula preguntas sin esquema fijo de

categorías de respuesta

- Controla el ritmo de la entrevista en función de

las respuestas del entrevistado

- Explica el objetivo y motivación del estudio

- Altera con frecuencia el orden y forma de las

preguntas, añadiendo nuevas si es preciso

- Permite interrupciones e intervención de

terceros si es conveniente

- Si es requerido no oculta sus sentimientos ni

juicios de valor

- Explica cuanto haga falta del sentido de las

preguntas

- Con frecuencia improvisa el contenido y la

forma de las preguntas

- Establece una relación equilibrada entre

familiaridad y profesionalidad

- Adopta el estilo del oyente interesado pero no

evalúa las respuestas

El entrevistado

- Todos los entrevistados reciben el mismo

paquete de preguntas

- Las escuchan en el mismo orden y formato

- Cada entrevistado recibe su propio conjunto de

preguntas

- El orden y formato puede diferir de uno a otro

Las respuestas

- Son cerradas al cuadro de categorías

preestablecido

- Grabadas conforme al sistema de codificación

previamente establecido

- Son abiertas por definición, sin categorías de

respuestas preestablecidas

- Grabadas conforme a un sistema de

codificación flexible y abierto a cambio en todo

momento

Fuente: Ruiz Olabuénaga (2007)

Page 32: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

32

La entrevista en profundidad más habitual es la de carácter individual, holístico y no

directivo. Individual porque se entiende que la conversación se desarrolla entre

entrevistador-entrevistado únicamente (aunque repita su entrevista con otro sujeto);

holístico porque no sólo se ajusta al tema central sino que hace una panorámica hacia

otros aspectos; y no directivo porque, aunque la entrevista en profundidad siempre se

desarrolla bajo control y dirección del entrevistador, permite cierta flexibilidad en

cuanto al contenido y forma de desarrollar la entrevista. Pero no equivale a una

conversación exclusivamente abierta, ni a prescindir de un guión orientador.

Por último, se presentan las principales ventajas e inconvenientes de las entrevistas

en profundidad:

Tabla 7. Ventajas e inconvenientes de las entrevis tas en profundidad

Ventajas Inconvenientes

- Riqueza informativa: intensiva, holística,

contextualizada y personalizada

- Posibilidad de indagación por derroteros no

previstos incluso

- Flexibilidad, diligencia y economía

- Contrapunto cualitativo de resultados

cuantitativos

- Accesibilidad a información difícil de observar

- Preferible por su intimidad y comodidad

- Factor tiempo (con matices)

- Problemas potenciales de reactividad,

fiabilidad y validez

- Falta de observación directa o participada

- Carencia de las ventajas de la interacción

grupal

Fuente: Vallés (1997)

2. Fases

1. Preparación.

La preparación de las entrevistas en profundidad tiene en cuenta al guión de

entrevista, la selección de entrevistados y otros preparativos.

- El guión de la entrevista: contiene los temas que deben cubrirse, de acuerdo

con los objetivos informativos de la investigación. Se trata de un esquema con

los puntos a tratar, pero que no se considera cerrado y cuyo orden no tiene que

seguirse necesariamente.

- La selección de entrevistados: ¿a quiénes?, ¿a cuántos? y ¿cuántas veces?,

no son preguntas fáciles de contestar. Valles (1997) ofrece un conjunto de

Page 33: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

33

ideas y criterios para resolver los casos prácticos de estudio que se puedan

plantear.

a) Aproximación al universo de entrevistados potenciales a través de las

fuentes disponibles (estadísticas censales, estudios previos y

experiencia del investigador).

b) En ocasiones se opta por la realización de entrevistas en profundidad a

sólo algunos tipos o perfiles sociológicos, basando la selección de

entrevistados en criterios de marginalidad, de normalidad o de

excelencia.

c) La selección de entrevistados puede también apoyarse en la

clasificación de éstos en tres tipos generales: claves, especiales y

representativos.

d) También a través de criterios de naturales práctica. Las preguntas

criterio podrían ser: ¿Quiénes tienen la información relevante?,

¿quiénes son más accesibles física y socialmente?, ¿quiénes están

más dispuestos a informar? y ¿quiénes son más capaces de comunicar

la información con precisión?

e) Y respecto al problema de a cuántos, se propone acudir al principio de

saturación, que es cuando no se encuentran datos adicionales donde el

entrevistador pueda desarrollar propiedades de la categoría. Conforme

va viendo casos similares una y otra vez el investigador adquiere

confianza empírica de que una categoría está saturada.

- Otros preparativos: aquí se incluyen aspectos como la selección del

entrevistador apropiado (características externas y de personalidad), las

condiciones materiales (tiempo, lugar y registro) de la entrevista así como las

labores de contacto y presentación (“preparar el terreno” para la entrevista).

2. Realización

Existen diferentes tácticas para la realización de las entrevistas:

a) Tácticas que pueden avanzarse en el guión de entrevista: consiste en trazar un

esquema que anticipen los modos de abordar el tema central y las cuestiones

Page 34: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

34

secundarias. Supone tener listas preguntas de amplio espectro, para motivar al

entrevistado, etc.

b) Tácticas del entrevistador en la situación de entrevista: forman parte del oficio y

pericia del entrevistador, que las improvisa durante la realización de la

entrevista. Se pueden distinguir:

- Táctica del silencio. Muy útil si se sabe emplear en el momento adecuado.

- Tácticas de animación y elaboración. Conjunto de observaciones, ruidos y

gestos para lanzar un mensaje determinado.

- Táctica de reafirmar y repetir. Repetición de expresiones manifestadas por

el entrevistado para invitarle a que prosiga.

- Tácticas de recapitulación. Invitar al entrevistado a relatar de nuevo alguna

trayectoria de su vida.

- Tácticas de aclaración. Pedir más detalle al entrevistado.

- Táctica de cambiar de tema. Cuando se quiere tratar algún asunto

pendiente o para introducir un asunto delicado.

- Táctica de la post-entrevista. Una vez concluida la entrevista formal, se

puede hablar amigablemente con el entrevistado para que guarde un buen

recuerdo o para detectar algún tipo de información que el entrevistado se

ha guardado durante la entrevista.

3. Tratamiento

Este último paso se relaciona con el análisis y presentación de la información

obtenida. Se propone la elaboración de un índice así como una síntesis del trabajo

realizado. En el manual de Valles (1997) se utilizan algunos ejemplos prácticos de

cómo se puede estructurar la información extraída de una entrevista en profundidad.

Page 35: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

35

3. Aplicabilidad

Suele ser de especial utilidad en determinadas circunstancias, como por ejemplo:

- Temas confidenciales o enojosos.

- Situaciones de normativa social rígida.

- Comportamientos complejos.

- Entrevistas a profesionales o directivos.

- Temas que afectan a competidores de un mismo sector.

Page 36: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

36

CAPÍTULO 5

Grupos de discusión

1. Concepto

Antes de adentrarnos específicamente en esta técnica conviene conocer la estructura

de los métodos de entrevista grupal, que es donde se encuentran los grupos de

discusión y otras técnicas afines.

Frey y Fontana (1993) clasificaron las entrevistas grupales de la siguiente manera:

a) Grupos de discusión: técnica muy utilizada en el campo de la investigación de

mercados. Tiene carácter exploratorio puesto que se busca la familiarización

con el tema, se prueban cuestionarios, se valoran las reacciones a un

producto, etc. El lugar habitual de realización es en escenarios formales de

entrevista. Y el estilo de moderación es semidirigido o dirigido, siendo el

formato de la entrevista algo estructurado.

b) Tormenta de ideas o brainstorming: técnica que pone su acento en la

creatividad y generación de nuevas ideas, a partir de un tema o cuestión que el

entrevistador o moderador plantea a un grupo de personas. Tiene carácter

exploratorio. El lugar de realización puede ser tanto en escenarios formales

como naturales, el moderador adopta una posición pasiva y no existe una

estructuración de preguntas.

c) Método Delphi3: técnica dirigida a expertos donde las entrevistas suelen

realizarse sin que se vean físicamente los miembros del grupo. Generalmente,

el investigador hace una primera ronda de entrevistas individuales con cada

miembro. Luego, en sucesivas rondas de entrevista individual, ofrece a cada

entrevistado un resumen de las respuestas dadas por los otros miembros del

grupo, por si quieren ajustar sus respuestas y hacerlas converger al consenso

del grupo.

Este método es utilizado con propósitos de desarrollar pronósticos de sucesos

y tendencias futuros basados en la opinión de expertos. También para diseñar

estrategias y toma de decisiones.

3 Por su importancia en el campo de las ciencias económicas y empresariales se ha desarrollado un capítulo específico de este método grupal.

Page 37: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

37

Se caracteriza por la formalidad y por el estilo dirigido y estructurado.

d) Grupos de discusión sin moderador: técnica de entrevista grupal que suele

surgir espontáneamente. Estas conversaciones informales suelen darse

cuando el investigador va buscando, sobre el terreno, a entrevistados

potenciales y los encuentra agrupados, en su ambiente, en mayor o menor

número. Esa conversación en grupo, informal e in situ constituye la entrevista

grupal natural o sin moderador.

Los grupos de discusión han sufrido a lo largo de los años variaciones y

combinaciones con otras técnicas que han mejorado su capacidad de extraer

información. Por ejemplo, la técnica ha sido utilizada de manera tradicional pero

también ha evolucionado hacia una serie de nuevos usos basados en la devolución de

la información al grupo. O su utilización autosuficiente, donde la propia técnica de

forma casi autónoma extrae información del grupo, son proyectos que dependen

solamente de grupos de discusión; o su utilización combinada, donde pueden

interactuar con otras técnicas cualitativas (entrevistas en profundidad, análisis

documental, observación directa, etc.) o con técnicas cuantitativas (encuestas, muy

típico del marketing).

En cualquiera de sus formas se presentan las principales ventajas e inconvenientes de

los grupos de discusión:

Tabla 8. Principales ventajas e inconvenientes de los grupos de discusión

Ventajas Inconvenientes

- Economía de tiempo y dinero: ventajas

tradicionales revisadas

- Flexibilidad: utilizable en el estudio de

diversidad de temas, con personas y

ambientes diversos (pero precisa de mayor

espacio y coordinación que las entrevistas en

profundidad)

- Las bazas de la interacción grupal: efectos de

sinergia, bola de nieve, efecto audiencia,

estimulación, seguridad y espontaneidad en

grupo

- Artificialidad en relación con las técnicas de

observación participada

- Inconvenientes (clásicos) de la interacción

grupal: problemas de generalización, sesgo,

comparabilidad, deseabilidad

- Inconvenientes de la interacción grupal

ortodoxa o tradicional: límites para la

investigación-acción-participativa; necesidad

del complemento de técnicas grupales

alternativas o afines

Fuente: Vallés (1997)

Page 38: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

38

2. Fases

1. Preparación.

La preparación de los grupos de discusión tiene en cuenta las decisiones muestrales

sobre la composición de los grupos y otros preparativos.

- Decisiones muestrales: ¿cuántos grupos se forman? y ¿cómo se componen?

Son decisiones muestrales que, en parte, se toman al proyectar el estudio y, en

parte, se completan durante el trabajo de campo.

Como en las entrevistas en profundidad, en los grupos de discusión no se

persigue la representación estadística, sino la representación tipológica y

social, de acuerdo con los objetivos de la investigación y las limitaciones de

medios y tiempo (se recomienda entre 6 y 10 participantes). Por tanto, el

número de grupos y su composición dependerá de dos criterios básicos:

a) Heterogeneidad entre grupos: orienta la selección de participantes y su

distribución en grupos, tratando de reproducir conversaciones

relevantes, según los propósitos del estudio. Para hacerlo operativo, se

precisa de la noción de saturación.

b) Economía: introduce las constricciones de tiempo y dinero.

- Otros preparativos: aquí se incluyen aspectos como, cómo se va a contactar

con los participantes (surge la figura del “contactador” para aliviar al

investigador de esta tarea tan ardua. El mayor problema surge en el proceso

de captación o convocatoria de los participantes de los grupos, para ellos se

propone utilizar las redes personales y sociales, evitar revelar información al

participante que pudiera influir en sus respuestas posteriores y evitar la

participación de amigos con el fin de rodear los riesgos de la preexistencia del

grupo) y cuál va a ser el lugar de reunión (en principio, el lugar debería ser

neutral con respecto al tema a tratar y con las características de las personas

convocadas. Se habla de evitar espacios cuya imagen pueda llevar a

reacciones esteriotipadas que afecten al discurso del grupo, evitar

disposiciones de sillas y mesas que dificulten la conversación del grupo. En

general, el lugar debe equilibrar las necesidades de los participantes y del

investigador: accesibilidad y condiciones para la grabación).

Page 39: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

39

2. Realización

En este apartado se presta especial atención al papel del moderador, haciendo alusión

a las actuaciones de los participantes en la reunión.

Sirva el siguiente esquema para resaltar los puntos principales de la realización de los

grupos de discusión:

- Provocación inicial y puesta en marcha de la discusión grupal. No basta con

poner el tema sobre la mesa, es necesario generar interés en discutirlo.

Además, se debe trascender de la dinámica pregunta-respuesta hacia la

interacción grupal característica de esta técnica. El moderador no debe dar su

opinión sino insistir en que el grupo tome la palabra.

- Provocación continuada. Aunque el moderador no interviene en la discusión, sí

interviene en su catalización, deshaciendo bloqueos y controlando en cierto

modo su desarrollo. Supone tareas de animación y mantenimiento de la

discusión, el moderador es el motor del grupo. Tiene la función de pedir

aclaraciones y reformulaciones, realizar interpretaciones, cambiar de tema y

extraer conclusiones.

3. Tratamiento

Este último apartado se relaciona con el análisis y presentación de la información

obtenida. Y dado el propósito exploratorio de la mayoría de los estudios con grupos de

discusión, suele resultar apropiado, una simple descripción narrativa, esto es,

organizar la información dándole sentido.

Por último, Krueguer (1991) ofrece una clasificación de tipos de informe relacionados

con los grupos de discusión:

- Modelo de datos directos: consiste en introducir el tema central y a

continuación presentar todos los comentarios de los participantes clasificados

por temas o subtemas.

- Modelo descriptivo: consiste en una descripción resumida seguida de citas

ilustrativas. Supone mayor grado de elaboración.

Page 40: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

40

- Modelo interpretativo: en este caso, el analista ofrece citas ilustrativas seguidas

de las interpretaciones correspondientes. Sobre la base de síntesis del modelo

descriptivo se añade un esfuerzo interpretativo de mayor calado.

En el manual de Valles (1997) se utilizan algunos ejemplos prácticos de cómo se

puede estructurar la información extraída de los grupos de discusión.

3. Aplicabilidad

- Técnica muy utilizada en el marketing y en los estudios de mercado.

- Los grupos de discusión pueden dar buenas ideas acerca de las preferencias y

actitudes de los consumidores sobre un producto o servicio determinado,

aunque no sería concluyente dado su carácter exploratorio.

- Es especialmente útil cuando se desconocen las variables que definen el

fenómeno de estudio.

- En muchas ocasiones, también, se emplea como prueba piloto o pretest, antes

del diseño de un cuestionario.

Page 41: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

41

CAPÍTULO 6

Método Delphi

1. Concepto

Linstone y Turoff (1975) definen la técnica Delphi como un método de estructuración

de un proceso de comunicación grupal que es efectivo a la hora de permitir a un grupo

de individuos, como un todo, tratar un problema complejo.

Un Delphi consiste en la selección de un grupo de expertos a los que se les pregunta

su opinión sobre las cuestiones referidas a acontecimientos del futuro. Las

estimaciones de los expertos se realizan en sucesivas rondas, anónimas, al objeto de

tratar de conseguir consenso, pero con la máxima autonomía por parte de los

participantes. Por tanto, la capacidad de predicción de esta técnica se basa en el juicio

intuitivo emitido por un grupo de expertos.

El método Delphi procede por medio de la interrogación a expertos con la ayuda de

cuestionarios sucesivos, a fin de poner de manifiesto convergencias de opiniones y

deducir eventuales consensos. La encuesta se lleva a cabo de una manera anónima

(actualmente es habitual realizarlo vía correo-e o cuestionarios web) para evitar los

efectos de los líderes. El objetivo de los cuestionarios sucesivos es disminuir el

espacio intercuartil precisando la mediana (búsqueda de consenso: baja dispersión).

Las preguntas se refieren a las probabilidades de realización de hipótesis o de

acontecimientos. La calidad de los resultados depende en gran medida del

cuestionario y de la elección de los expertos.

En su conjunto, el Delphi permitirá prever las transformaciones más importantes que

puedan producirse en el fenómeno analizado en el transcurso de los años.

2. Fases

1. Formulación del problema

Es trascendental definir con precisión el campo de investigación puesto que la elección

de los expertos está supeditada al hecho de que todos posean la misma noción de

este campo.

Page 42: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

42

Sobre la elaboración del cuestionario, las preguntas deben ser precisas, cuantificables

e independientes.

2. Elección de expertos

El experto será elegido por su capacidad de encarar el futuro y posea conocimientos

sobre el tema consultado.

Los expertos son aislados y sus opiniones recogidas por vía postal o electrónica y de

forma anónima, así se obtendrá una opinión real, no influenciada por el resto del

grupo.

3. Elaboración y lanzamiento de los cuestionarios

Los cuestionarios se elaborarán de manera que faciliten la respuesta de los

consultados. Preferentemente las respuestas habrán de poder ser cuantificadas y

ponderadas. Con frecuencia se recurre a respuestas categorizadas (Sí/No; Muy de

cuerdo/De acuerdo/Indiferente/En desacuerdo/Muy en desacuerdo) y, después, se

tratan en términos porcentuales tratando de ubicar a la mayoría de los consultados en

una categoría.

Se formularán preguntas relativas al grado de ocurrencia (probabilidad) y, de

importancia (prioridad).

4. Desarrollo práctico y explotación de resultados

El cuestionario es enviado a un número determinado de expertos (el grupo final4 ha de

ser entre 25 y 30). Y va acompañado por una nota de presentación con las finalidades,

el espíritu del Delphi, así como las condiciones del desarrollo de la encuesta (plazo de

respuesta, garantía de anonimato…). En ocasiones, en cada cuestión, puede

plantearse que el experto evalúe su propio nivel de competencia (útil para las

ponderaciones).

4 Hay que tener en cuenta las no respuestas y abandonos que se producen en el proceso.

Page 43: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

43

El objetivo de los cuestionarios sucesivos5 es reducir la dispersión de las opiniones y

precisar la opinión media consensuada. En la segunda ronda, los expertos son

informados de los resultados de la primera consulta de preguntas y deben dar una

nueva respuesta y sobre todo deben justificarla en el caso de que sea notablemente

distinta con respecto al grupo. Si fuera necesario, en el curso de la tercera ronda se

pide a cada experto comentar los argumentos de los que disienten de la mayoría. Y un

cuarto turno de preguntas, permite la respuesta definitiva: el consenso y la dispersión

de opiniones (intervalos intercuartiles y desviación típica).

Algunas recomendaciones…

- Grabación de los resultados en una base de datos, para operar con ellos y

realizar gráficos y tablas.

- Obtención de los principales resultados. Los principales estadísticos que se

calcularán serán medidas de tendencia central y dispersión: media, mediana,

moda, máximo, mínimo, cuartiles y desviación típica. La desviación señala el

grado de discrepancia o consenso de las respuestas.

- Lanzamiento de dos rondas. En la formulación más teórica del método Delphi,

se requiere realizar tres o más rondas a los expertos a fin de reducir el espacio

intercuartílico; sin embargo, en Astigarraga (2003) se hace alusión a la

suficiencia de un Delphi con dos rondas pero siguiendo algunos criterios:

Objetivo del lanzamiento y tratamiento de la segunda ronda.

a) Remitir y hacer partícipes de la información obtenida a todos aquellos

que han colaborado en el estudio con la aportación de su conocimiento

y opiniones.

5 Aunque la formulación teórica del método Delphi comprende varias etapas sucesivas de envíos de cuestionarios, en buena parte de los casos puede limitarse a dos rondas, lo que según la experiencia no afecta a la calidad de los resultados. Como es sabido, el objetivo de los cuestionarios sucesivos es disminuir el espacio intercuartil, esto es cuánto se desvía la opinión del experto de la opinión del conjunto, precisando la mediana, de las respuestas obtenidas. La finalidad de la primera ronda (primer cuestionario) es calcular el espacio intercuartil. La segunda suministra a cada experto las opiniones de sus colegas, y abre un debate para obtener un consenso en los resultados y una generación de conocimiento sobre el tema. Cada experto argumentará los pros y los contras de las opiniones de los demás y de la suya propia. Con la tercera se espera un mayor acercamiento a un consenso.

Page 44: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

44

b) Confirmar los resultados obtenidos en la consulta inicial. De hecho, la

experiencia indica que las variaciones respecto a los resultados iniciales

son mínimas en éste tipo de estudios.

Metodología para el lanzamiento y tratamiento de la segunda ronda.

a) Se selecciona la media o la mediana de las respuestas a las preguntas

de la primera ronda.

b) Se solicita a los expertos que indiquen su acuerdo o desacuerdo con

dicha media.

c) Se pide a los expertos que no se hallan de acuerdo con la media que

argumenten sus razones.

d) Se calcula la nueva media o mediana, y a los expertos que se muestren

de acuerdo se les fijará el valor de la media anterior.

Los valores propuestos por los expertos que siguen manteniendo

valores diferentes de la media, sirven para elaborar escenarios

alternativos o formular hipótesis de futuro alternativas.

Elaboración de informe.

a) Los resultados más destacados de la encuesta, las tablas estadísticas y

las incidencias del trabajo de campo se recogen en un informe

específico.

3. Aplicabilidad

La utilización del método Delphi ofrece casi la certeza de obtener un consenso en el

desarrollo de los cuestionarios sucesivos. Además, la información recogida en el curso

de la consulta acerca de acontecimientos, tendencias, rupturas determinantes en la

evolución futura del problema estudiado es normalmente abundante.

Finalmente, esta técnica puede utilizarse indistintamente tanto en el campo de la

tecnología como en el de las ciencias sociales (economía y empresa, gestión,

estrategia, etc.).

Page 45: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

45

No obstante, conviene ser consciente de algunas de las posibles limitaciones con las

que el investigador se puede enfrentar al utilizar este método. En ocasiones se revela

largo, costoso, fastidioso e intuitivo más que racional. También, la posición presionante

del investigador es discutible puesto que sólo los expertos que se salen de la norma

deben justificar su posición. Cuando muchas veces, precisamente, esa posición

divergente es más interesante que la del consenso. Por último, no se toman en

consideración las posibles interacciones entre las hipótesis consideradas, esto es lo

que conduce en ocasiones a implementar los métodos de impactos cruzados.

Page 46: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

46

MÓDULO 3:

INVESTIGACIÓN CUANTITATIVA

Page 47: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

47

CAPÍTULO 7

Introducción a la metodología y técnicas cuantitati vas

1. Introducción

La metodología cuantitativa es aquella que permite la obtención de información a partir

de la cuantificación de los datos sobre variables. Este tipo de investigación logra sus

conclusiones a través de la relación numérica entre variables, y así poder realizar

generalizaciones y producir datos objetivos.

Dicho de otro modo, la investigación cuantitativa es la que analiza diversos elementos

que pueden ser medidos y cuantificados. Toda la información se obtiene a base de

muestras de la población, y sus resultados son extrapolables a todo el universo, con

un determinado nivel de error y nivel de confianza.

Su racionalidad está fundamentada en el positivismo. Tiene un profundo apego a la

tradicionalidad de la Ciencia y utilización de la neutralidad valorativa como criterio de

objetividad, por lo que el conocimiento esta fundamentado en los hechos.

De este modo, dado que la investigación cuantitativa se relaciona con el tratamiento

de variables métricas, según el número de variables que escojamos, el análisis podrá

ser de un tipo u otro. Si el análisis emplea una única variable, el análisis se denomina

univariante (distribuciones de una variable, media, mediana, moda, etc.); si el análisis

utiliza dos variables, el análisis se denomina bivariante (correlaciones, análisis de la

varianza, regresiones simples, etc.); y si se analizan simultáneamente más de dos

variables, el análisis puede ser considerado como un análisis multivariante (análisis

factorial, análisis cluster, regresión múltiple, etc.).

En este tipo de análisis es donde nos vamos a detener a lo largo de este módulo. Las

técnicas del análisis multivariante están siendo ampliamente aplicadas a la industria,

administración y centros de investigación de ámbito universitario. Este interés

creciente en el área de las ciencias sociales no se da por casualidad, ya desde hace

tiempo los estadísticos Hardyck y Petrinovich indicaron que:

“El análisis de los métodos multivariantes predominará en el futuro y dará por resultado cambios

drásticos en el modo en que los investigadores piensan sobre los problemas y en cómo diseñan

sus investigaciones. Esos métodos hacen posible plantear preguntas específicas y precisas de

considerable complejidad…Se pueden preservar las correlaciones naturales entre las múltiples

Page 48: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

48

influencias sobre el comportamiento y se pueden estudiar estadísticamente los efectos aislados

de esas influencias sin provocar el típico aislamiento de esos individuos o variables” (Hardyck y

Petrinovich, 1976).

Para realizar análisis multivariante, los investigadores utilizan diversos programas de

estadística, tales como el SPSS, GRETL, SAS o AMOS, entre otros. Este tipo de

software ha puesto a disposición de cualquier investigador interesado el acceso a

todos los recursos necesarios para resolver un problema multivariante de casi

cualquier dimensión.

2. Características de los métodos cuantitativos

- Su objetivo es la inferencia más allá de sus datos. A partir de una muestra

representativa trata de elevar las conclusiones al universo, respetando siempre

unos niveles mínimos de error.

- Su lenguaje es numérico. Si una investigación se apoya en los números, los

test estadísticos, los algoritmos, las tablas y las fórmulas estadísticas, es

investigación cuantitativa.

- Su modo de captar la información es estructurado, penetrante y controlado. Si

en una investigación se prefiere recoger información mediante experimentos o

encuestas estructuradas masivas, entra en el ámbito de la metodología

cuantitativa.

- Su procedimiento es deductivo. Si una investigación parte de una teoría y unas

hipótesis perfectamente elaboradas y precisas para conseguir sus objetivos,

entraría en el ámbito de la metodología cuantitativa. Como ya se indicó en el

primer módulo de este documento, se pasa de lo general a lo particular.

- La orientación es generalizadora. Ligado al primer punto, la investigación

cuantitativa intenta generalizar de una muestra pequeña a un colectivo grande

cualquier elemento particular de la sociedad.

Page 49: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

49

3. Algunos conceptos importantes del análisis cuant itativo

Valor teórico.

Es una combinación lineal de variables con ponderaciones determinadas

empíricamente. Digamos que es el elemento a estudiar (ha de estar muy claro). El

investigador selecciona las variables, mientras que las ponderaciones se obtienen a

través de la técnica multivariante. Matemáticamente podría expresarse así:

Y (valor teórico) = ß0 + ß1 X1 + + ß2 X2 + ß3 X3 +…+ ßn Xn

Donde Xn es la variable observada y ß es la ponderación determinada por la técnica

multivariante.

El resultado es un valor único que representa una combinación de todo el conjunto de

variables que mejor se adaptan al objeto del análisis multivariante específico. En cada

caso, el valor teórico capta el carácter multivariante del análisis.

Escalas de medida.

La medida de una variable es importante para representar con precisión el concepto

de nuestro interés y es crucial en la selección del método de análisis multivariante

apropiado. Se distinguen:

- Datos no métricos (cualitativos): son atributos, características o propiedades

categóricas que identifican o describen a un sujeto. Por tanto, los números

asignados a los objetos no tienen más significado cuantitativo que indicar la

presencia o ausencia del atributo o característica bajo investigación. Dentro de

este tipo de datos se diferencia a su vez:

a. Escalas nominales: asigna números que se usan para etiquetar o

identificar sujetos u objetos. Ejemplos: sexo (hombre-mujer), estado civil

(soltero-casado) o raza (Caucasoide-Mongoloide-Negroide).

b. Escalas ordinales: son denominadas también cuasi-cuantitativas. Las

variables pueden ser ordenadas o clasificadas en relación a la cantidad

del atributo poseído. Ejemplos: clase social (alta-media-baja), nivel de

estudios (doctorado-master-grado) o hacerse una herida (leve-

moderada-grave).

Page 50: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

50

- Datos métricos (cuantitativos): los sujetos pueden ser identificados por

diferencias entre grado o cantidad. Las medidas métricas (escala de intervalo y

escala de la razón) son las más apropiadas para casos que involucran cantidad

o magnitud. Se distingue entre:

a. Variable discreta: presenta separaciones o saltos en los valores que

puede tomar. Ejemplo: número de hijos (1-2-3-4-5-6)

b. Variable continua: puede adquirir cualquier valor dentro de un intervalo

especificado de valores. Ejemplo: altura (cm.) o masa (kg.)

Referencia temporal.

Para fines del análisis estadístico es importante tener en cuenta la referencia temporal

de los datos. Según este criterio se pueden distinguir tres tipos de datos:

• Series temporales. Son observaciones numéricas de las variables durante un

número de periodos de tiempo. Por ejemplo, se podrá medir el gasto en consumo

de un determinado bien en el período 1990-2010.

• Sección cruzada o corte transversal. Se trata de las observaciones de las variables

medidas en un momento determinado del tiempo correspondiente a una clase,

bien puede ser una Comunidad Autónoma, o una provincia, o una familia, etc.;

dependiendo del estudio que se esté realizando. Por ejemplo, se puede medir el

gasto en consumo de un determinado bien en las distintas CCAA en el año 2010.

• Panel de datos. Otro tipo de datos lo constituye la información acerca de un

conjunto de individuos, o provincias, etc., a través del tiempo. En este caso, por

ejemplo, se pueden obtener observaciones de gasto en consumo de un bien para

un grupo de familias en el periodo 1990-2010.

Error de medida.

Es el grado en que los valores observados no son representativos de los valores

verdaderos. El error de medida puede generarse por varias razones: errores de

entrada de datos, imprecisión en la medición de la variable o incapacidad de los

encuestados a proporcionar información precisa.

Por tanto, el objetivo del investigador debe ser reducir el error de medida. Según Hair

et al. (2007) el analista debe enfrentarse tanto con la validez como con la fiabilidad de

Page 51: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

51

la medida. La validez es el grado en que la medida representa con precisión lo que se

supone que representa. Es imprescindible, por tanto, que exista un conocimiento

profundo de lo que se va a medir. Y la fiabilidad es el grado en que la variable

observada mide el valor verdadero y está libre de error, es lo contrario al error de

medida. En ocasiones se acude a la elaboración de indicadores para agregar escalas

y así emplear una medida compuesta que evite usar solo una única variable para

representar un concepto. Digamos que no se deja la fiabilidad plena a una única

respuesta sino en la de un conjunto de respuestas relacionadas. Ejemplo: al medir la

satisfacción podemos preguntarlo directamente o bien desagregar por tipos de

satisfacción.

Por último, debemos aclarar que los malos resultados de una investigación no siempre

se deben al error de medida, pero la presencia del error de medida es garantía de

distorsión en las relaciones observadas y hace menos potentes las técnicas

estadísticas.

Por ello, se recomienda evaluar la confiabilidad de los datos de los que se dispone,

sobre todo si no son oficiales sino generados mediante cuestionarios. Una forma de

hacerlo es calculando el Alfa de Cronbach, que determina la consistencia interna de

una escala analizando la correlación media de una variable con todas las demás que

integran dicha escala. Ofrece información aproximada sobre si los encuestados han

entendido las preguntas de un cuestionario. Cuanto más se acerque a uno su valor,

mejor, porque mayor consistencia tendrá los datos. Por encima de 0,7 podría

considerarse un nivel aceptable (George y Mallery, 1995).

Asimismo, también es recomendable evaluar la validez de los datos, es decir,

identificar si el proceso mide lo que se desea medir. Para ello, se puede utilizar el

coeficiente de Aiken, que toma valores entre 0 y 1. Es práctica general dar como

válidos los datos cuando dicho coeficiente supera el valor 0,6 o 0,7, pero es

aconsejable trabajar con niveles superiores (Aiken, 1996).

Page 52: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

52

Gráfico 1. Validez y confiabilidad

Fuente: Fundación Polar

Significación estadística.

La inmensa mayoría de las técnicas multivariantes se basan en la inferencia

estadística de los valores de una población o la relación entre variables de una

muestra escogida aleatoriamente de esa población.

Para interpretar las inferencias estadísticas, el investigador debe fijar los niveles de

aceptación de error estadístico. El modo más común es determinar el nivel de

significación (α), que se define como la probabilidad de rechazar la hipótesis nula

cuando es cierta, es decir, la posibilidad de que la prueba muestra significación

estadística cuando en realidad no está presente (el conocido caso de un positivo

falso). Especificando un nivel alfa, el investigador fija los márgenes admisibles de

error. Normalmente se utiliza el 5%.

4. Tipos de técnicas estadísticas

La Estadística proporciona técnicas y herramientas para la recopilación y análisis de

datos del fenómeno en estudio. El análisis puede centrarse en el estudio de un sólo

factor o variable, en este caso se habla de análisis univariante. Las principales

técnicas de análisis univariante, son las medidas de tendencia o de posición (media,

mediana, moda y cuartiles), las medidas de dispersión (rango o recorrido, desviación

típica y coeficiente de variación de Pearson) y las medidas de inferencia (prueba t,

entre otras).

Cuando se realiza el análisis conjunto de dos o más factores del problema en estudio,

hacemos referencia al análisis multivariante. A continuación se exponen algunas de

las técnicas multivariantes más utilizadas en el campo de las ciencias sociales. La

mayor parte de ellas serán desarrolladas posteriormente en profundidad.

Page 53: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

53

Tabla 9. Esquema de las principales técnicas multi variantes

Dependencia

- Regresión lineal múltiple

- Análisis discriminante

- Modelos de probabilidad lineal (regresión logística y probit)

- Modelos de ecuaciones estructurales Técnicas

estadísticas

multivariantes

Interdependencia

- Análisis factorial

- Análisis cluster

- Análisis de correspondencias múltiple

Fuente: Hair et al. (2007)

Regresión lineal múltiple

Técnica para explicar o predecir variables. Una variable dependiente métrica

relacionada con variables independientes métricas (muy habitual el uso de variables

ficticias6).

Análisis discriminante

Técnica para predecir variables cualitativas y distinguir entre grupos. Una variable

dependiente no métrica y variables independientes métricas (muy habitual el uso de

variables ficticias).

Modelos de probabilidad lineal (regresión logística y probit)

Técnica para predecir variables cualitativas y distinguir entre grupos. Una variable

dependiente no métrica y variables independientes métricas (muy habitual el uso de

variables ficticias).

Modelo de ecuaciones estructurales

Técnica de relaciones de causalidad simultánea. Varias variables dependientes

métricas, en ecuaciones distintas, relacionadas con variables independientes de

cualquier tipo. Es habitual el uso de variables latentes.

6 La codificación de una variable ficticia es una manera de transformar datos no métricos en métricos. Se asignan unos y ceros al sujeto, dependiendo de si cuenta o no con cierta característica. Por ejemplo, si un sujeto es hombre se le asigna 0 y si es mujer se le asigna 1, o al contrario.

Page 54: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

54

Análisis factorial

Técnica de reducción de datos, enfocado a variables métricas. Variables originales se

aglutinan en factores. Útil para la construcción de indicadores.

Análisis cluster

Técnica para clasificar individuos en grupos no conocidos a priori. Se forman grupos

homogéneos dentro de sí y heterogéneos entre sí.

Análisis de correspondencias múltiple

Técnica de reducción de datos, parecida al análisis factorial pero orientada a variables

no métricas. Útil para elaborar indicadores.

Page 55: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

55

CAPÍTULO 8

Encuesta por muestreo

1. Introducción

La investigación cuantitativa en ciencias sociales necesita como materia prima

información estadística. En este sentido, la estadística es una ciencia que proporciona

instrumentos para recopilar la información numérica que se obtiene de observar los

fenómenos de un colectivo o población y analizar la regularidad con la que ocurren.

Entendemos como población estadística o colectivo al conjunto de entes (personas,

animales o cosas) sobre las que se va a llevar a cabo la investigación estadística. Se

entiende que el estudio de una población, en la mayoría de los casos, no se pueda

realizar observando todos los elementos de la población por lo que será necesario

examinar sólo una parte de la misma. A este subconjunto de la población se le

denomina muestra.

Dentro de la estadística podemos distinguir dos ramas de interés: la estadística

descriptiva y la inferencia estadística. La estadística descriptiva tiene como objeto la

recogida, recopilación y reducción de los datos de una muestra o población a unas

pocas medidas descriptivas que permiten conocer las características existentes en ese

conjunto de datos. La Inferencia estadística tiene por objeto generalizar la información

proporcionada por una muestra a la población de donde ha sido extraída.

En una investigación estadística se pueden distinguir las siguientes etapas:

• Recopilación de datos: Definida la población y la/s característica/s a estudiar,

se debe proceder a la observación de la misma en los elementos

poblacionales. Los datos pueden obtenerse utilizando fuentes de datos

publicadas, a través de un experimento o a través de una encuesta por

muestreo.

• Depuración y exploración de datos: Recogidos los datos deben ser depurados

ya que de nada serviría aplicar procedimientos y técnicas científicas si la

información base es errónea.

• Tabulación y representación gráfica de datos: Su objeto es reducir el volumen

de la información de manera que sea manejable.

Page 56: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

56

• Tratamiento de datos: Se trata de reducir la información contenida en las tablas

mediante el cálculo de las diferentes medidas de posición, dispersión,…de la

estadística descriptiva. Los resultados obtenidos del conjunto de datos

analizados se generalizarán a la población utilizando las técnicas y

herramientas que la inferencia estadística pone a nuestra disposición.

2. Recopilación de datos. Encuesta por muestreo

1. Concepto

En todas las investigaciones los datos se obtienen, por lo general, a partir de una

muestra de elementos y no sobre toda la población respecto a la cual se pretenden

aplicar los resultados. La muestra debe ser representativa de la población de dónde ha

sido extraída para poder generalizar los resultados obtenidos.

La encuesta por muestreo es una técnica estadística para recopilar datos, mediante la

consulta a una muestra de individuos que representa a la población o colectivo que

queremos investigar.

2. Fases

Podemos distinguir las siguientes fases:

• Definición de objetivos: los objetivos del análisis estadístico vendrán

determinados por los objetivos de la tesis doctoral. La consulta previa de

fuentes realizada y el desarrollo del marco teórico en las primeras etapas de la

investigación, nos permiten llegar a esta fase con un conocimiento de las

variables y de la población que queremos investigar.

• Diseño del plan de muestreo: “los planes de muestreo deben resolver

preguntas tales como ¿qué tipo de muestreo utilizar? ¿cuál es el tamaño

muestral idóneo?, ¿qué método debe emplearse para obtener la información

en campo? , ¿qué periodo de tiempo se emplea como referencia de la

información?, etc.” (Santos Peña, 1999).

En concreto, un plan de muestreo debe incluir:

Diseño del cuestionario: se pueden utilizar cuestionarios ya existentes y/o

elaborar uno específico para nuestra investigación. Antes de aplicar el

Page 57: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

57

cuestionario debemos probar su validez y confiabilidad. En este sentido existen

pruebas de hipótesis como la prueba de Aiken para evaluar la validez y el alfa

de Cronbach para evaluar la confiabilidad. El cuestionario puede administrarse

de forma directa y personalmente por el entrevistador, telefónicamente, por

correo postal o utilizando procedimientos mixtos.

Ámbito temporal y demográfico: debemos indicar a que momento/s irán

referidos los resultados de nuestra investigación y a que ámbito sectorial y

espacial van dirigidos.

Tipo de muestreo: “El tipo de muestreo a implementar puede definirse como el

conjunto de reglas que hay que tener en cuenta para seleccionar los elementos

muestrales; unos tipos de muestreo pueden ser mejores que otros desde el

punto de vista de la precisión en las estimaciones, pero pueden tener un alto

coste de ejecución de los trabajos de recogida de la información, debiendo

optarse por la opción más eficiente” (Santos Peña, 1999). La muestra puede

obtenerse de forma aleatoria o de una forma dirigida. Dejando de un lado los

muestreos no probabilísticos, los principales métodos de muestreo

probabilístico son el muestreo aleatorio simple con o sin reemplazamiento, el

muestreo estratificado y el muestreo por conglomerados.

Determinación del tamaño de la muestra: el tamaño de la muestra viene

determinado por el tipo de muestreo seleccionado, por el error de muestreo y

por el nivel de confianza prefijado.

Selección de las unidades muestrales.

• Trabajo de campo: para recopilar la información, el entrevistador debe conocer

perfectamente el cuestionario y ser capaz de responder preguntas y

situaciones imprevistas.

3. Depuración y codificación de datos

Una vez que hemos recopilado los datos debemos codificarlos y grabarlos. Existen

diferentes programas estadísticos fáciles de utilizar para la grabación y tratamiento de

datos (Excel, SPSS, Statgraphics, etc.).

Antes de llevar a cabo el análisis de los datos es necesario garantizar que la

información proporcionada por los encuestados es correcta. Se trata de detectar y

Page 58: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

58

corregir datos erróneos o irrelevantes para mejorar la calidad de los mismos antes de

ser codificados y tratados.

La codificación consiste en proporcionar códigos numéricos o alfanuméricos a las

preguntas del cuestionario para llevar un mejor seguimiento y control sobre las

variables.

Page 59: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

59

CAPÍTULO 9

Tratamiento descriptivo de datos

1. Introducción

En este capítulo se muestran algunos de los procedimientos que proporciona la

estadística para medir, clasificar, analizar y resumir los datos recopilados en nuestra

investigación.

Un primer análisis estadístico consiste en resumir los datos recopilados en unas pocas

medidas, tablas y gráficos que describan el fenómeno que estamos investigando. Se

trata de organizar los datos y aplicar sencillas herramientas estadísticas para obtener

una visión resumida del problema en estudio. En capítulos posteriores se exponen

técnicas de inferencia y técnicas multivariantes para llevar a cabo un tratamiento más

avanzado de los datos, con el propósito de validar o rechazar las hipótesis de

investigación realizadas.

2. Tabulación y representaciones gráficas

Las tablas estadísticas y las representaciones gráficas son herramientas que facilitan

una interpretación rápida, desde un punto de vista cuantitativo, del fenómeno que

estamos investigando.

La tabulación consiste en agrupar y ordenar los datos mediante el uso de tablas. Las

tablas estadísticas se denominan distribuciones de frecuencias ya que recogen los

valores o categorías de las variables analizadas y el número de veces que se repite

cada valor o categoría de la variable (frecuencia absoluta). En las tablas también se

incluye la importancia que dicho valor o categoría tiene sobre el total de la muestra,

expresada en tanto por uno o en porcentaje (frecuencia relativa). La tabulación de una

sola variable proporciona información valiosa, pero suele resultar más interesante la

tabulación conjunta de dos o más variables, en este caso realizaremos una tabulación

cruzada que es una herramienta muy efectiva para detectar si existe o no alguna

relación entre dos o más factores.

La tabulación se puede aplicar a todo tipo de variable independientemente de la escala

de medición utilizada (escala nominal, ordinal, por intervalos y de la razón).

Page 60: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

60

La representación gráfica de una variable es una representación visual de los datos

recogidos en las tablas. Existen múltiples formas de representación. “El uso de unas

u otras dependerá de a) la escala de medición de la variable, b) los objetivos y

aspectos relevantes del estudio y c) el público a quien se dirigen” (Ritchey, 2006).

Algunas formas de representar las distribuciones de frecuencias son:

Diagramas de barras: muestran de las frecuencias absolutas y los valores o

categorías de la variable sobre un sistema de ejes cartesianos. Estos diagramas se

utilizan para representar variables medidas en cualquier escala pero son variables

que presentan pocos valores (variables discretas).

Gráficos de sectores: circulares o de tarta, dividen un círculo en porciones

proporcionales según el valor de las frecuencias relativas. Puede utilizarse en

cualquier tipo de variable, pero normalmente se utiliza para variables nominales y

ordinales.

Pictogramas: o representaciones visuales figurativas. Son diagramas de barras en

los que las barras se sustituyen por dibujos alusivos a la variable de tamaño

proporcional a la frecuencia seleccionada.

Histogramas: es una representación específica para variables que toman muchos

valores (continuas) y con escala de medición de intervalos o de la razón.

Polígonos de frecuencias o de líneas: esta forma de presentación se utiliza para

variables en escala de intervalo y en escala de la razón. La representación se lleva

a cabo uniendo mediante líneas rectas los puntos de un diagrama cartesiano

correspondientes a cada valor o categoría de la variable y su frecuencia. El polígono

de frecuencias describe el movimiento de la variable.

Las tablas y gráficos son de gran apoyo para determinar la forma de la distribución y

para detectar la existencia de valores atípicos.

3. Medidas descriptivas en el análisis univariante

La tabulación y representación gráfica de datos que vimos anteriormente son

importantes para mostrar las propiedades esenciales del conjunto de observaciones,

representando un punto de partida en el proceso de toma de decisiones. Además, es

Page 61: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

61

necesario conocer las medidas descriptivas que permiten resumir la extensa

información proporcionada por la tabla estadística en una serie de expresiones.

Buscamos, por tanto, una serie de valores que nos fijen el comportamiento global del

fenómeno a partir de los datos individuales recogidos en la información disponible.

Estos números, que reciben el nombre de características nos indican los rasgos más

importantes de las distribuciones de frecuencias, y se suelen clasificar en los

siguientes grupos: medidas de posición o promedios, medidas de dispersión y

medidas de forma.

Medidas de posición

Las medidas de posición o promedios pueden ser de tendencia central o no. Estas

medidas son unos valores alrededor de los cuales, con mayor o menor rigor, se

agrupan los valores de la variable. Para que un valor pueda ser considerado como

promedio se le exige, como única condición, que esté comprendido entre el menor y

el mayor valor de la variable. Los promedios vienen expresados en la misma unidad

de medida que la variable objeto de estudio.

Las principales medidas de tendencia central son la media, la mediana y la moda.

La media es el promedio más utilizado y se obtiene como la suma de todos los

valores dividida entre el número total de casos.

La mediana es el valor de la variable que divide a la distribución en dos partes

iguales. Cuando la dispersión del conjunto de datos o distribución es muy grande,

la información que proporciona la mediana es más fiable que la que proporciona la

media.

La moda es el valor de la variable que presenta mayor frecuencia.

Dentro de las medidas de tendencia no central, las más utilizadas son los cuartiles.

Los cuartiles son una generalización de la mediana y dividen a la distribución en

cuatro partes iguales. Existen tres cuartiles y el segundo coincide con la mediana.

Page 62: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

62

Medidas de dispersión

Una vez que hemos estudiado los promedios, necesitamos saber con que fidelidad

llevan a cabo la representación de la distribución, esto depende de la relación que

exista entre los valores de la variable y el promedio, esto es, de la dispersión de la

distribución. Si todos los valores fueran iguales, la media, por ejemplo, coincidiría con

todos y cada uno de ellos, por lo que representaría fielmente a la distribución. A

medida que los valores individuales de la variable difieran del promedio, la

representatividad de éste será cada vez menor.

Resulta necesario para completar la información que pueda deducirse de un promedio,

acompañar a éste de uno o varios coeficientes que midan el grado de dispersión de la

distribución de la variable. Estos coeficientes son las medidas de dispersión. Las más

utilizadas son el recorrido y la desviación típica.

El recorrido es la diferencia entre el máximo valor de la variable y el menor. Viene

expresado en la misma unidad de medida que la variable.

La desviación típica es un indicador de la dispersión de los valores de la variable

respecto a la media. Esta medida, también se expresa en la unidad de medida de la

variable. El mínimo valor de la desviación típica es cero e indica que la distribución no

presenta dispersión (todos los valores son iguales). Cuanto mayor sea la desviación

típica, mayor es la dispersión y por lo tanto la media es menos representativa.

La escala de medición de la variable condiciona el uso de las medidas de posición y

de dispersión.

En la tabla 10 se recogen las medidas básicas para el análisis estadístico de una

variable de acuerdo a la escala de medición utilizada:

Tabla 10. Escalas de medición y estadísticos básico s

Variable cualitativa Variable cuantitativa Promedios y

medidas de

dispersión

Escala nominal Escala ordinal

Escala de

intervalo

Escala de la razón

Moda SI SI SI SI

Mediana NO SI SI SI

Media NO NO SI SI

Rango NO SI SI SI

Desviación típica NO NO SI SI

Fuente: elaboración propia

Page 63: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

63

Medidas de forma

Con este tipo de medidas se trata de conocer la forma de la distribución. Los polígonos

de frecuencias son curvas que nos muestran la forma de la distribución y la

concentración de los valores, la asimetría y la curtosis, respectivamente. Las medidas

de forma son valores que nos indican el grado de asimetría y la curtosis sin necesidad

de tener que hacer su representación gráfica. Con esta información podremos

determinar, entre otras cosas, cuánto se parece nuestra distribución a la distribución

teórica normal o campana de Gauss.

4. Análisis bivariante

Después de realizar un análisis por separado de cada una de las variables que

describen el fenómeno en estudio, se procede a llevar a cabo una serie de cruces

entre variables con el fin de observar la relación entre ellas.

Con el análisis bivariante se pretende determinar si existe relación entre dos variables

y en cuantificar el grado de asociación entre las mismas. Las técnicas bivariantes más

utilizadas en investigación social son:

1) Tabulación cruzada o tablas de contingencia

2) Diagramas de dispersión

3) Correlación y regresión

Tabulación cruzada

La distribución de frecuencias de la variable bidimensional se presenta en una tabla

de doble entrada que recoge los valores de las variables (en cualquier escala de

medición) y el número de veces que se repite cada par de valores. Además, este tipo

de tablas proporcionan toda la información necesaria para poder realizar un análisis de

los datos de cada una de las variables por separado, estableciendo o no alguna

condición.

Page 64: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

64

Tabla 11: Distribución de frecuencias de la variabl e bidimensional (X,Y)

yj

x i

y1 y2 … yh n i.

x1 n11 n12 … n1h n1.

x2 n21 n22 … n2h n2.

xk nk1 nk2 … nkh nk.

n. j n.1 n.2 … n.h n

Fuente: elaboración propia

La interpretación de esta tabla es muy sencilla. Así pues, el valor correspondiente a la

frecuencia nkh indicará el número de veces que simultáneamente se repite el valor k

en la característica X con el valor h en la característica Y. La frecuencia nk. indicará

las veces que se repite la característica k de la variable X independientemente de los

valores que tome la característica Y, y por tanto la frecuencia n.h se interpretará como

el número de veces que se repite el valor h de la característica Y independientemente

de los valores que tome la otra característica X. Por último, n será el tamaño muestral.

Diagramas de dispersión

Es un sistema de ejes cartesianos donde se representan los valores de dos

variables métricas (escala de intervalos y de la razón) con el objeto de visualizar si

existe o no asociación entre dichas variables. El diagrama de dispersión se

construye fácilmente y proporciona una buena descripción de la relación entre dos

variables.

Correlación y regresión

El análisis de correlación (la regresión se explica con detalle en el capítulo 11) se

utiliza para medir el grado de asociación entre dos variables. Si las variables son

métricas se utiliza el coeficiente de correlación lineal de Pearson. Para determinar el

grado de asociación entre variables expresadas en escalas de medición inferiores

(ordinales) se utiliza generalmente el coeficiente de Spearman o la Tau-b de

Kendall.

Page 65: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

65

CAPÍTULO 10

Inferencia estadística. Contraste de hipótesis

1. Introducción

La inferencia estadística es una rama de la estadística que utiliza técnicas estadísticas

para extraer conclusiones respecto a una población a partir de los resultados

obtenidos mediante muestras. La inferencia estadística supone la generalización de

los resultados de la muestra a la población que representa. Esta extensión será válida

en la medida en que la muestra sea representativa de la población. Se trata de, a partir

de los resultados de una muestra, sacar conclusiones acerca de las características

de una población.

Estas características pueden ser parámetros en cuyo caso se hablará de inferencia

paramétrica. En otros casos se puede tener interés no sobre los parámetros de la

población si no sobre su distribución, en este caso se hablará de inferencia no

paramétrica.

Las inferencias sobre el valor de un parámetro poblacional desconocido (inferencia

paramétrica) se pueden obtener básicamente de dos maneras: a partir de estimación

(estimación puntual e intervalos de confianza) o bien a partir de contrastación de

hipótesis.

La estimación puntual consiste en obtener un único número calculado a partir del

estadístico o estimador obtenido como función de las observaciones muestrales, y que

se utiliza como estimación del parámetro poblacional desconocido.

La estimación por intervalos de confianza consiste en determinar dos extremos que

definen un intervalo sobre la recta real, el cual contendrá con una confianza prefijada

al verdadero valor del parámetro poblacional desconocido.

En la contrastación de hipótesis se formula una hipótesis sobre el verdadero valor del

parámetro poblacional desconocido, para a partir de la información proporcionada por

la muestra y con un nivel de confianza prefijado, rechazar o aceptar la hipótesis

formulada. La contrastación de hipótesis es una técnica que también se utiliza para

hacer inferencia no paramétrica.

Page 66: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

66

En este capítulo, por su gran aplicabilidad en la investigación en ciencias sociales, se

va a desarrollar la contrastación de hipótesis como técnica de inferencia estadística.

2. Contrastación de hipótesis

Se entiende por hipótesis a la conjetura que se realiza sobre el acontecimiento de un

suceso y se designará como “contraste” o “test” de una hipótesis a la regla que permita

determinar la validez de dicha hipótesis.

Con esta técnica podemos realizar dos tipos de inferencia: la paramétrica (inferencia

sobre las características de la variable) y la no paramétrica (inferencia sobre la

distribución de las variables, sobre relación entre variables, etc.). La aplicación de la

primera exige el cumplimiento de una serie de condiciones (normalidad,

homocedasticidad e independencia) que muchas veces no se cumplen cuando se

investiga en ciencias sociales. La inferencia no parámetrica es un procedimiento que

puede resolver problemas estadísticos que no se han podido resolver con

procedimientos paramétricos.

Los pasos que se siguen para la prueba de hipótesis son:

1) Se establece una hipótesis nula H0 (es la suposición sobre la población que

se pone a prueba usando la evidencia muestral) y una hipótesis alternativa H1

(es la afirmación sobre la población que debe ser cierta si la H0 es falsa).

2) Determinar el estadístico de prueba apropiado.

3) Seleccionar el nivel de significación α (error que se puede aceptar).

4) Determinar la región crítica o región de rechazo. El conocimiento de la región

crítica permitirá decidir si se acepta o rechaza la hipótesis nula H0, en

función del estadístico de prueba elegido y del valor de significación α fijado.

5) Seleccionar aleatoriamente la muestra y calcular el valor del estadístico de

prueba o test estadístico.

6) Dar la regla de decisión. Si el valor calculado del estadístico cae dentro de la

región crítica, entonces se rechazará H0 y si el valor calculado cae dentro de

la región de aceptación, entonces no se puede rechazar o “se acepta” H0.

Page 67: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

67

En los epígrafes siguientes se exponen de forma breve algunas de las pruebas más

utilizadas en una investigación social.

3. Pruebas paramétricas

Coeficiente de correlación de Pearson

Concepto

El coeficiente de correlación de Pearson es un indicador del grado de asociación lineal

entre dos variables (X e Y). Se simboliza con la letra “r” y toma valores entre 1 y -1. El

grado de dependencia lineal entre las variables es más fuerte cuando el coeficiente

está próximo a 1 ó a -1, de tal forma que cuando toma el valor 1 indica que la relación

entre las variables es positiva (ambas variables se mueven en la misma dirección). Si

el coeficiente de Pearson toma valor -1, la relación también es perfecta pero las

variables se relacionan de forma inversa (si una variable crece, la otra variable

decrece). Cuando el coeficiente es nulo, decimos que no existe correlación entre las

variables.

Hipótesis

H0: Las variables no están correlacionadas (r=0)

H1: Las variables están correlacionadas (r distinto de cero)

Distribución muestral

Chi-cuadrado de Pearson (χ2)

Supuestos

El coeficiente de correlación de Pearson se aplica a variables con escala de intervalos

y escala de la razón. Si las variables objeto de estudio son de escala ordinal se utiliza

el coeficiente de correlación de rangos de Spearman que sigue las mismas reglas que

el coeficiente de correlación de Pearson.

Page 68: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

68

Prueba t de student

Concepto

La prueba “t” se utiliza para comparar si existe diferencia entre los valores medios de

dos grupos con relación a una variable de escala de intervalos y escala de la razón.

Hipótesis

H0: No existen diferencias significativas entre las medias de los dos grupos

considerados (las medias son iguales).

H1: Existen diferencias significativas entre las medias de los dos grupos considerados

(las medias son diferentes).

Distribución muestral

t de student

Supuestos

La prueba proporciona resultados fiables cuando garantizamos que se cumplen los

siguientes supuestos antes de su aplicación.

1. Los grupos son independientes entre sí, es decir, están formados por

elementos o individuos distintos.

2. La variable en cada grupo debe seguir una distribución normal (la

normalidad se puede contrastar utilizando la prueba de Kolmogorov-

Smirnov).

3. La escala de medición de la variable es de intervalos o de la razón.

4. Las varianzas de los grupos deben ser iguales. En la práctica “podemos

asumir que las varianzas poblacionales son iguales si la varianza de la

muestra de un grupo no es superior al doble del tamaño de la del otro

grupo” (Ritchey, 2006)

5. El tamaño de los grupos puede ser distinto

Page 69: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

69

Contraste de hipótesis para la diferencia de propor ciones

Concepto

Es una prueba estadística para analizar si dos proporciones o porcentajes de dos

grupos difieren significativamente entre sí. Tiene aplicaciones muy similares a la

diferencia de medias.

Hipótesis

HO: No existen diferencias significativas entre las proporciones de dos grupos

(las proporciones son iguales).

H1: Existen diferencias significativas entre las proporciones de los dos grupos

considerados (las proporciones son diferentes).

Distribución muestral:

Distribución normal, N (0,1).

Supuestos:

1. Los grupos son independientes entre sí, es decir, están formados por

elementos o individuos distintos.

2. La variable en cada grupo debe seguir una distribución binomial

3. Se puede aplicar a variables expresadas en cualquier escala de medición.

4. Pruebas no paramétricas

La característica esencial de los contrastes no paramétricos es que para su

planteamiento no se requiere el conocimiento de la distribución de partida y por tanto

los estadísticos que se utilicen seguirán una distribución independiente de la

distribución de la población de partida.

Page 70: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

70

Test de independencia (tablas de contingencia) (Ruiz-Maya, 2000).

Concepto

El test de independencia, cuando se analizan conjuntamente dos variables, tiene por

objeto probar la ausencia de asociación entre ellas, es decir, probar que el

comportamiento de una variable no informa sobre el de la otra.

Hipótesis

H0: Las variables son independientes, no están asociadas.

H1: Las variables son dependientes, están asociadas.

Distribución muestral:

Chi-cuadrado de Pearson (χ2)

Supuestos

1. Las variables pueden venir expresadas en cualquier escala de medición.

2. Los valores o formas de expresión de las variables deben poder ser

clasificados en grupos mutuamente excluyentes.

3. Según el criterio de Cochran (1959) el 80% de las clases deben tener un valor

teórico superior o igual a 5.

Test de Kolmogorov-Smirnov (Ruiz-Maya, 2000).

Concepto

El test de Kolmogorov-Smirnov permite contrasta si una muestra procede de una

población con un determinado modelo de distribución (normal, binomial, etc)

Hipótesis

H0: la muestra aleatoria procede de una población con una distribución de probabilidad

determinada.

H1: la muestra no procede de una población con ese tipo de distribución

Page 71: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

71

Distribución muestral

Kolmogorov-Smirnov

Supuestos

1. Las variables deben expresarse, al menos, en escala ordinal.

2. De la población se toma una muestra aleatoria simple.

3. La función de distribución es continua.

Page 72: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

72

CAPÍTULO 11

ANOVA y regresión lineal múltiple

Análisis de la varianza (ANOVA)

Concepto

El análisis de la varianza es una prueba de hipótesis que sirve para comparar varios

grupos respecto a una variable cuantitativa. Es un método que puede considerarse

una generalización de la prueba t para la diferencia de medias de dos grupos

independientes, es decir el ANOVA contrasta si existen diferencias o no entre las

medias de los diferentes grupos. El ANOVA puede considerarse como la base del

análisis multivariante. En el análisis de la varianza se distinguen dos variables, una

variable dependiente Y (cuantitativa) y una variable independiente o factor X (discreta)

y se trata de comparar las medias de Y asociadas a cada grupo del factor X.

Hipótesis

H0: Las medias de todos los grupos son iguales

H1: Las medias de todos los grupos no son iguales

Distribución muestral

F de Fisher-Snedecor

Supuestos

1. La variable de comparación (variable dependiente) debe venir

expresada en escala de intervalos o de la razón.

2. Cada grupo de datos debe ser independiente del resto.

3. Los datos de cada grupo establecido deben seguir una distribución

normal.

4. No deben diferir significativamente las varianzas de los distintos grupos.

Page 73: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

73

Regresión lineal múltiple

Concepto

La regresión lineal múltiple es una técnica cuantitativa de dependencia que se utiliza

para investigar la relación estadística que existe entre una variable dependiente y dos

o más variables independientes (cuando sólo se considera una variable independiente

se habla de regresión lineal simple).

El objetivo de la teoría de la regresión lineal múltiple es analizar un modelo que

pretende explicar el comportamiento de la variable dependiente a partir del

comportamiento de dos o más variables explicativas o independientes. Desarrollar un

modelo de regresión lineal consiste en establecer una relación funcional de tipo lineal

entre la variable dependiente y dos o más variables explicativas, considerando que

existe una relación de causalidad entre las mismas.

Un modelo de regresión lineal múltiple con “k” variables explicativas responde a la

siguiente ecuación:

Error. :u

ntes.independieoasexplicativ Variables :

edependient variablelasobreejerce aexplicativ

variablecada queinfluencialaindicanqueparámetros k,2,3...,icon parciales Pendientes :

nteindependie Término :

edependient o endógena Variable :

......

i

i

1

4433221

ik

i

iikkiiii

x

Y

uxxxxY

=

++++++=

ββ

βββββ

El modelo lineal se formula bajo los siguientes supuestos:

� Las variables, dependiente e independientes son métricas (escala de

intervalos y escala de la razón. También se pueden utilizar cuando las

variables independientes presentan escala ordinal o nominal, en este caso

debemos convertirlas en variables ficticias (toman valor uno cuando poseen

una característica y cero cuando no la poseen).

� Las variables X1, X2,... Xk son fijas (no son variables aleatorias) ya que sus

valores vienen de la muestra tomada.

� Los parámetros del modelo son constantes.

Page 74: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

74

� Se supone que en el modelo se incluyen todas las variables independientes

necesarias para explicar el comportamiento de la variable dependiente y que

ninguna de ellas se considera irrelevante.

� Las variables X1, X2,...X k son linealmente independientes (no se puede poner a

una de ellas como combinación lineal de las otras). Cuando no se cumple este

supuesto, el modelo presenta multicolinealidad.

� Linealidad de las relaciones: la variable dependiente presenta una relación

lineal con cada una de las independientes.

� Los errores siguen una distribución normal con media cero y no presentan ni

autocorrelación ni heterocedasticidad.

Fases

La elaboración de un modelo de regresión lineal sigue una metodología de trabajo que

supone la ejecución de una serie de fases. Estas fases son: Especificación,

Estimación, Verificación y Predicción.

1) Especificación: Se entiende por especificación de un modelo la determinación

de la variable dependiente (Y), las variables explicativas (X1, X2,...,Xk), el error

(U) y la función matemática que las relaciona.

iikkiiii uxxxxY ++++++= βββββ ......4433221

En un modelo de regresión lineal, como su propio nombre indica, la función que

relaciona a las variables es de tipo lineal, también pueden utilizarse funciones

no lineales pero linealizables, es decir funciones no lineales que sometidas a

determinadas transformaciones algebraicas puede convertirse en funciones

lineales. Para identificar que nuestras variables se relacionan linealmente es de

gran ayuda realizar el diagrama de dispersión de la variable dependiente con

cada una de las variables explicativas y la revisión de modelos teóricos que

tienen relación con nuestro tema de investigación.

Page 75: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

75

Una de las principales dificultades con la que nos encontramos cuando se

especifica un modelo está en la selección de las variables independientes. La

especificación puede llevarse a cabo de dos formas:

• Regresión paso a paso: en este caso las variables independientes se

incluyen una a una en el modelo. Normalmente, las primeras variables

que se incluyen en el modelo son aquellas que individualmente

presentan una mayor correlación con la variable dependiente (diagrama

de dispersión y cálculo del coeficiente de correlación de Pearson).

Posteriormente, se van incluyendo una a una atendiendo a la que

mayor coeficiente de correlación parcial presente y que, además, su

incorporación suponga una reducción en los errores. Con el resto de

variables se opera de forma similar hasta que no se admita ni se

rechace ninguna variable más.

• Regresión con todas las variables independientes: en este caso se

parte de un modelo general y se van excluyendo aquellas variables que

no cumplen los criterios de selección establecidos.

En la selección de variables, hay un conjunto de reglas que deben respetarse

(Martín et al., 1997):

- Las variables elegidas deben ser coherentes con la teoría económica

que oriente el modelo.

- Los signos de los parámetros estimados deben responder al

conocimiento teórico a priori.

- El modelo debe estar bien ajustado, es decir debe presentar un alto

coeficiente de determinación.

- Los parámetros deben ser significativos individual y conjuntamente. No

obstante, pueden darse ciertos casos en los que siendo significativos

conjuntamente, no lo sean individualmente. Aún así, el modelo puede

utilizarse, por ejemplo, para realizar predicciones.

- El comportamiento de los residuos debe ser aleatorio.

Page 76: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

76

2) Estimación: En esta fase, a partir de la información que proporciona la muestra

se estiman los parámetros (β1, β2,…..y βk ) de la ecuación de regresión,

iikkiiii uxxxxY ++++++= βββββ ......4433221

Los coeficientes β2,…y βk estimados miden el cambio en la variable dependiente

(Y) producido por el cambio unitario en cada una de las variables

independientes (manteniendo constante el resto de las variables).

3) Verificación: En la fase de estimación utilizando el método de los mínimos

cuadrados ordinarios y suponiendo que los supuestos bajo los que se formula

el modelo (citados en el epígrafe Concepto) son ciertos, se obtienen

estimadores que cumplen determinadas propiedades deseables desde el punto

de vista estadístico. En esta fase debemos verificar si dichos supuestos son

ciertos, investigar qué sucede cuando no se cumplen y qué implicaciones

tienen sobre las propiedades de los estimadores.

De ahí, que sea necesario establecer una serie de controles o contrastes que

permitan establecer la bondad del modelo o su validez.

Los tipos de contraste que se pueden llevar a cabo son los siguientes:

- Contrastes individuales de parámetros (es habitual contrastar la

hipótesis de que los parámetros individualmente son igual a cero,

usando el estadístico t-student)

- Contrastes conjuntos de parámetros o significación del modelo

(estadístico F de Senedecor para contrastar la significatividad conjunta,

todos los parámetros son igual a cero a excepción del término

independiente). Coeficiente de determinación o medida de bondad del

ajuste.

- Contrastes de hipótesis básicas. Contrastes sobre multicolinealidad (se

analiza la coherencia de los signos de los parámetros estimados, se

utilizan matrices de correlaciones entre las variables, el índice de

tolerancia, el factor de inflación de la varianza, etc.), sobre cambio

estructural (test de Chow, variables ficticias, etc.), sobre autocorrelación

Page 77: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

77

(el estadístico más utilizado el de Durbin-Watson) y sobre

heterocedasticidad (test de Goldfeld y Quandt, contraste de White, etc.)

4) Predicción

Una vez que el modelo se ha aceptado estadística y económicamente, se

podrán hacer predicciones sobre el valor de la variable dependiente (Y), si este

era uno de los objetivos del ajuste realizado.

Aplicaciones:

1. Cuantificar la asociación existente entre dos o más variables métricas.

2. Determinar la estructura o forma de relación entre las variables.

3. Determinar qué factores influyen en la aparición o no de un suceso.

4. Predecir.

Page 78: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

78

CAPÍTULO 12

Análisis discriminante y regresión logística

Análisis discriminante

Concepto

El análisis discriminante es una técnica multivariante de dependencia y de clasificación

que, junto con la regresión logística, son apropiadas para relacionar una variable

dependiente nominal o no métrica con variables dependientes generalmente métricas.

Con la técnica del análisis discriminante se trata de clasificar individuos, empresas o

cosas en grupos previamente determinados (fijados por la variable dependiente) de

acuerdo a un conjunto de características (variables independientes). Se pretende

encontrar relaciones lineales entre las variables independientes que mejor discriminen

en los grupos establecidos.

Fases

1) Selección de la variable dependiente y de las variables independientes.

La primera etapa en el análisis discriminante es la selección de la variable dependiente

que debe ser nominal (si la variable es ordinal o en intervalos se puede transformar en

una variable categórica) y en la determinación de las variables independientes de

naturaleza métrica.

2) Selección del tamaño muestral y división de la muestra.

La validez de los resultados del análisis discriminante depende del tamaño y

representatividad de la muestra. El tamaño de la muestra exige un mínimo de 5

observaciones por cada una de las variables independientes del modelo. En cuanto a

los grupos, deben tener al menos 20 observaciones y se recomienda que no haya

mucha diferencia de tamaño entre ellos. Para determinar el tamaño muestral debe

tenerse en cuenta que, en ocasiones, la muestra se divide en dos submuestras, una

para obtener la función discriminante y la otra con fines de validación.

3) Contraste de las hipótesis de partida.

La correcta aplicación del análisis multivariante exige que se cumplan tres hipótesis:

Page 79: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

79

- El conjunto de variables independientes debe distribuirse como una

normal multivariante. Si alguna de las variables no se distribuye

normalmente, entonces tampoco se distribuirán normalmente en

conjunto. Para comprobar la hipótesis de normalidad se puede utilizar

el test de Shapiro-Wilks o el test de Kolmogorov-Smirnov.

- Igualdad entre las matrices de covarianzas entre los grupos. Para

comprobar esta hipótesis se puede utilizar la prueba M de Box cuyo

valor se aproxima a una F de Snedecor.

- Ausencia de multicolinealidad (correlación lineal) entre las variables

independientes. Para determinar si las variables están correlacionadas

se utiliza el Factor de Inflación de la Varianza (VIF) y el Índice de

Tolerancia.

4) Estimación del modelo

Como se comentó en la introducción, la idea del análisis discriminante es construir

funciones lineales con las variables independientes que discriminen entre los distintos

grupos. No todas las variables tienen el mismo poder discriminante, por esta razón las

relaciones lineales o funciones discriminantes se construirán a partir de aquellas

variables que cumplan un determinado criterio de selección. Como criterio general se

utiliza la Lambda de Wilks (cociente entre la varianza dentro de los grupos y la

varianza total). Cuanto menor es este estadístico mayor es el poder discriminante de la

variable, es decir la variabilidad del fenómeno en estudio se debe a la diferencia entre

grupos, no a la diferencia dentro del grupo. De modo equivalente se utiliza la F de

Snedecor asociada a la Lambda de Wilks. Este estadístico compara para cada

variable, las desviaciones de las medias de cada uno de los grupos a la media total. Si

F es grande entonces existen diferencias entre las medias de los grupos y decimos

que la variable discrimina.

Existen dos métodos de selección de variables para el cálculo de la función

discriminante: el método directo o simultáneo y el método por etapas.

Cuando el método es por etapas, se recomienda utilizar la medida D2 de Mahalanobis.

Este procedimiento por etapas está diseñado para obtener el mejor modelo de una

variable, seguido por el mejor modelo de dos variables y así sucesivamente hasta que

ninguna otra variable cumpla la regla de selección deseada (Hair el al., 2007). La regla

Page 80: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

80

de selección en este procedimiento es maximizar la distancia D2 de Mahanalobis entre

grupos (Hair el al., 2007).

El análisis discriminante estima una función menos que el número de grupos

existentes. Si establecemos dos grupos, estimaremos una sola función discriminante.

5) Cálculo de las puntuaciones Z discriminantes

Definidas las funciones discriminantes, las puntuaciones para cada elemento (persona,

empresa o cosa) se pueden obtener a partir de la siguiente expresión:

nknkkjk XWXWXWaZ ++++= ....2211

Donde:

Zjk= puntuación Z discriminante de la función discriminante j para el elemento k

a= constante

Wi= ponderación discriminante para la variable independiente i

Xik= variable independiente i para el elemento k

Obtenidas las funciones discriminantes se calcula la puntuación de corte para

determinar a qué grupo pertenece cada elemento. La puntuación de corte se obtiene

utilizando una media aritmética ponderada de las centroides de los grupos:

21

2211

NN

ZNZNZC +

+=

Donde:

ZC= puntuación de corte

Z1 y Z2= centroide del grupo 1 y del grupo 2, respectivamente

N1 y N2= tamaño del grupo 1 y del grupo 2, respectivamente

6) Valoración del ajuste global

La valoración del ajuste global exige evaluar las diferencias entre grupos sobre las

puntuaciones obtenidas y valorar la precisión en la predicción de pertenencia al grupo.

Page 81: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

81

- Diferencias entre grupos: para valorar la diferencia entre grupos se

suele utilizar la D2 de Mahalanobis aplicada a las centroides de los

grupos.

- Precisión en la predicción: se realiza examinando las matrices de

clasificación.

7) Validación de los resultados: la validación de resultados se realiza ampliando la

muestra y valorando su precisión predictiva.

Aplicaciones

El análisis discriminante puede tratar cualquiera de los siguientes objetivos de

investigación (Hair el al., 2007):

1. Determinar si existen diferencias estadísticamente significativas entre los

perfiles de las puntuaciones medias sobre un conjunto de dos (o más) grupos

definidos a priori.

2. Determinar cuál de las variables independientes cuantifica mejor las diferencias

en los perfiles de las puntuaciones medias de dos o más grupos.

3. Establecer los procedimientos para clasificar objetos (individuos, empresas,

productos, etc.) dentro de los grupos, en base a sus puntuaciones sobre un

conjunto de variables independientes.

4. Establecer el número y la composición de las dimensiones de la discriminación

entre los grupos formados a partir del conjunto de variables independientes.

Regresión logística

Concepto

Un modelo de regresión logística es un modelo que permite estudiar si una variable (Y)

dicotómica depende, o no, de otras variables expresadas en cualquier escala de

medición (X1, X2,..Xk). En este caso, al ser la variable Y dicotómica, también puede ser

politómica, sólo puede tomar dos valores el valor “0“cuando no ocurre el suceso o el

valor “1” cuando el hecho ocurre. Se trata de un proceso binomial donde la

Page 82: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

82

probabilidad de que la variable tome valor “1” (suceso éxito) es “p” y la probabilidad de

que tome el valor “0” (suceso fracaso) es “q”. La regresión logística es equivalente al

análisis discriminante de dos grupos. En muchas ocasiones, la regresión logística

proporciona mejores resultados que el análisis discriminante ya que la aplicación de la

regresión logística no exige el cumplimiento de normalidad y de igualdad entre

varianzas, hipótesis de partida para una adecuada aplicación del análisis

discriminante.

Fases

1) Especificación: en esta fase, al igual que ocurría con la regresión lineal, debemos

definir las variables dependiente e independientes que queremos estudiar, así

como la forma funcional que las relaciona. En este caso, como se comentó

anteriormente, la distribución condicionada de la variable dependiente sigue un

proceso binomial (no se verifican las hipótesis de normalidad y homocedasticidad

de los errores) por lo que ajustaremos una función logística a la nube de puntos,

así el modelo de regresión logística puede expresarse según la siguiente

ecuación:

kk XXq

pLn βββ +++= .........)( 221

Donde p/q es la razón de probabilidades de la variable dependiente para cada

uno de los valores de las variables independientes, comúnmente denominada

odds. La razón de probabilidades toma valores entre 0 e ∞. Cuando es igual a 1

indica que el suceso éxito (que ocurra un hecho) es igual de probable que el

suceso fracaso (que no ocurra un hecho). Cuando es mayor que 1, la

probabilidad de que ocurra un suceso es mayor que la de que no ocurra.

Realizando una pequeña transformación algébrica el modelo de regresión

logística también puede expresarse utilizando la siguiente expresión:

kXkX

kXkX

e

ep βββ

βββ

+++

+++

+=

.....221

.....221

1

La especificación puede realizarse de dos formas diferentes:

Page 83: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

83

• Especificación del modelo máximo: se parte de un modelo que incluye

todas las variables independientes que consideramos que pueden tener

alguna influencia sobre la variable dependiente. El modelo que

seleccionemos para realizar la predicción se obtendrá eliminando

aquellas variables que no presentan significatividad estadística

(mantendremos aquellas variables que aun no siendo significativas son

de interés para nuestra investigación) hasta que no quede ninguna.

• Especificación del modelo por pasos hacia delante: en este caso se

parte de un modelo con una sola variable independiente. El modelo

definitivo se obtendrá después de haber ido incorporando

sucesivamente variables con significatividad estadística y que mejoren

significativamente el ajuste del modelo, es decir, que minimicen las

diferencias entre las frecuencias de los casos observados y las

frecuencias de los casos pronosticados.

2) Estimación: se trata de calcular los parámetros del modelo de regresión logística.

Para la estimación del modelo se utiliza el método de la máxima verosimilitud.

Este método consiste en seleccionar aquellos valores de los parámetros que

maximizan la función de verosimilitud de la muestra. Con este procedimiento se

seleccionan las estimaciones de los parámetros que hagan posible que los

resultados sean lo más verosímiles posibles.

Los parámetros β estimados son una medida de la influencia que cada una de

las variables independientes ejerce sobre la probabilidad de que ocurra un

hecho, de tal forma que aumenta la probabilidad de ocurrencia cuando el signo

de los parámetros es positivo y disminuye si el signo es negativo. Un coeficiente

o parámetro igual a 0 indicaría que la variable independiente no tiene ninguna

influencia sobre la ocurrencia de un suceso. Matemáticamente, cada uno de los

parámetros es el logaritmo del cociente de los odds para dos valores de cada

una de las variables independientes y se denomina odds ratio.

3) Verificación: en esta fase comprobamos si el modelo propuesto es válido para los

objetivos de nuestra investigación. Utilizaremos técnicas estadísticas para

determinar qué variables, de forma individual, presentan significatividad

estadística y técnicas que indiquen si en conjunto el modelo es aceptable.

Para estudiar la significatividad individual de las variables se utiliza el contraste

de Wald que sigue una distribución similar a la t-student al cuadrado. La hipótesis

nula que se contrasta es que el coeficiente de cada variable es igual a cero. Si se

Page 84: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

84

rechaza la hipótesis entonces la variable independiente influye en la ocurrencia

de un suceso, si no la podemos rechazar entonces, estadísticamente la variable

no influye en la ocurrencia del hecho que estamos estudiando.

Para determinar si el modelo completo es aceptable, esto es para medir la

bondad del ajuste existen distintos indicadores, entre los más utilizados se

encuentran:

• el cociente de verosimilitudes, utiliza la distribución Chi-cuadrado y se

contrasta la hipótesis nula de que todos los coeficientes, salvo la

constante, son igual a cero. El rechazo de la hipótesis indica que todas

las variables de forma conjunta influyen en la ocurrencia de un suceso.,

• el contraste de Hosmer y Lemeshow (1989) que compara las

frecuencias de los valores observados con los predichos utilizando la

Chi-cuadrado y,

• el pseudo coeficiente de determinación. Este coeficiente es una medida

aproximada de la eficacia predictiva del modelo. Toma valores entre 0 y

1 si la capacidad predictiva es nula en el primer caso, o perfecta en el

segundo. Los distintos programas informáticos de tratamiento

estadístico de datos ofrecen dos modificaciones de este coeficiente de

Cox y Snell y el de Nagelkerke.

Aplicaciones

La regresión logística puede usarse con dos objetivos:

1) predictivo, en el que el interés del investigador es predecir el comportamiento de la

variable dependiente a partir del comportamiento de un conjunto de variables y

2) estimativo, cuando el interés se centra en estimar la relación que existe entre una o

más variables independientes con la variable dependiente.

Como se comentó en capítulos anteriores estos objetivos pueden conseguirse

utilizando técnicas de regresión múltiple. Sin embargo, la regresión lineal no

proporciona resultados aceptables cuando la variable dependiente es de naturaleza

cualitativa. En ciencias sociales, en muchas ocasiones, nos encontramos con variables

que no pueden medirse. Dos son las soluciones que se proponen para resolver este

problema; una es la de utilizar variables proxy, son variables que sustituyen a las

variables que realmente queremos medir, y aplicar técnicas de regresión lineal y, otra

Page 85: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

85

solución es definir la variable como una variable dicotómica, en este caso para

conseguir los objetivos propuestos el uso de la regresión logística proporciona

excelentes resultados.

Page 86: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

86

CAPÍTULO 13

Análisis factorial

1. Concepto

Es una técnica de interdependencia de reducción de datos. En ocasiones las bases de

datos están integradas por variables en las que aparece una amplia redundancia en la

información. Técnicamente se dice que son variables con un elevado nivel de

intercorrelación. Ello plantea el problema de la multicolinealidad que inutiliza la base

para muchos modelos predictivos como la regresión múltiple o el análisis

discriminante. Se plantea entonces eliminar la redundancia informativa o eliminar la

multicolinealidad.

El análisis factorial va a permitirnos sustituir el conjunto original de variables por otro

sensiblemente menor en número de variables no observables o hipotéticas, llamadas

factores. Son definidas como variables incorreladas (o con cierta correlación según el

tipo de rotación aplicada) que explican los elevados niveles de intercorrelación

presentes en la muestra. Estos factores, por tanto, amén de eliminar la

multicolinealidad describen las relaciones entre las variables (Manuel, 2005).

Pensemos en el siguiente caso: calificaciones obtenidas por los alumnos de un colegio

en las asignaturas de lenguaje, matemáticas, física, química, filosofía e inglés, por

ejemplo. Para cada alumno tendríamos una puntuación en cada asignatura. Existe una

forma de reducir esta información: realizar un análisis factorial. Muy probablemente,

con datos reales, se formarían dos factores: El factor 1, denominado Ciencias, estaría

compuesto por matemáticas, física y química y, el factor 2, llamado Letras, estaría

formado por lenguaje, filosofía e inglés. Ahora, en lugar de tener seis variables,

tendríamos dos factores (distintos entre sí pero homogéneos dentro de sí), con la

puntuación factorial de cada individuo en Ciencias y en Letras.

A veces los factores son conocidos a priori y el diseño experimental se hace,

precisamente, para obtener una puntuación para cada individuo en los diferentes

factores (puntuaciones factoriales). En este caso el análisis factorial recibe el nombre

de “confirmatorio”. En otras situaciones, simplemente los factores no son conocidos y

se trata de obtenerlos a partir del análisis. Diremos entonces que el análisis factorial es

“exploratorio”.

Page 87: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

87

2. Fases

El método del análisis factorial nos invita a seguir unos pasos para la correcta

extracción de los resultados. Según Manuel (2005) y, Visauta y Martori (2003) podrían

ser los siguientes:

a) Evaluar si es apropiado con los datos disponibles ejecutar un análisis factorial.

Tomando como primera condición que las variables sean numéricas, deberá haber

una fuerte redundancia informativa en el conjunto de las seleccionadas. Dicho de otro

modo deberá existir una fuerte correlación dentro de ciertos subconjuntos de variables

pero muy pequeñas o nulas entre ellos.

Para desarrollar este apartado se deben obtener y evaluar:

- Matriz de correlaciones de las variables: buscaremos que en esa matriz haya

cierta proporción de valores mayores que 0,6 en módulo (Manuel, 2005). Si

todos los valores son muy grandes entonces todas las variables están muy

intercorreladas pero esto lleva a la presencia de un único factor, que tampoco

es la situación más descriptiva ni por tanto la más deseada.

Asociado a cada coeficiente de correlación existe un contraste de hipótesis:

H0: la correlación es nula

H1: la correlación no es nula

Si el p-valor (significance) es inferior a 0,05 � Rechazamos la H0 � lo cual no

quiere decir que la correlación sea grande.

Rechazar H0 sólo significa que la correlación no puede admitirse nula pero de

ahí no debemos deducir que sea necesariamente grande. Eso se observa en el

coeficiente de correlación.

Entonces la utilidad de la tabla de significaciones es la siguiente: si muchos p-

valores son mayores que 0,05, entonces muchas correlaciones serán nulas y

ahí es cuando no tiene sentido el análisis factorial.

- Medida de adecuación muestral de Kaiser-Meyer-Olkin (KMO): en este caso

cuanto más se acerque a 1 tanto más sentido tendrá aplicar el análisis factorial,

Page 88: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

88

puesto que mayor correlación existirá entre las variables. A partir de 0,6 se

considera un nivel aceptable.

- Test de esfericidad de Bartlett: en este paso se contrasta la siguiente hipótesis:

H0: la matriz de correlaciones es la identidad7

H1: no lo es

Si no se rechaza H0, entonces estamos admitiendo que la correlación para

cada pareja de variables es nula y por tanto el análisis es inviable. Cuando el p-

valor de este contraste sea inferior a 0,05 se podrá ejecutar el análisis factorial.

b) Obtención de los factores.

En esta fase, dado el conjunto de variables intercorreladas el análisis factorial extrae

un número de factores coincidente con el original de variables. Hasta aquí no hay

reducción en la dimensión lineal del problema. Sin embargo, dado que las variables

son internamente tipificadas por el método, la varianza global coincide con el número

de variables. De esta varianza global cada factor recoge una cierta cantidad, es decir,

explica una cierta proporción. Cuanto mayor sea la cantidad explicada más importante

es el factor.

El método de Componentes Principales extrae secuencialmente los factores de

manera que cada uno de ellos está incorrelado (no correlacionado –aunque depende

del método de rotación-) con todos los anteriores, de manera que la variabilidad

recogida por los diferentes factores cada vez es menor. De esta forma, se tenderá a

despreciar los últimos factores dado que la variabilidad que recogen es pequeña y ahí

es donde se consigue la reducción de la dimensionalidad del problema.

Criterios para determinar el número de factores a conservar:

- Criterio de Kaiser: se conservarán aquellos factores con autovalor8 mayor que

1.

- Gráfico de sedimentación: encontrar puntos de inflexión o saltos de importancia

entre factores. Detectar un pico relevante da información sobre el rechazo de

los factores siguientes.

7 Recuérdese que la matriz identidad se corresponde con: diagonal principal todo 1 y el resto de valores 0. 8 Entendido como el porcentaje que explica cada factor sobre el total de varianza explicada. Digamos, la importancia de cada factor en el total de la información que representan todas las variables.

Page 89: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

89

- La lógica: basada en la posibilidad de describir el número de factores

conservados. Para identificar la lógica de los factores conservados utilizamos la

matriz de componentes y la matriz de componentes rotados, que es donde se

encuentran las variables directamente observables saturadas en los factores

directamente no observables.

c) Rotación de los factores.

La finalidad de la rotación no es otra sino la de ayudarnos a interpretar, en el supuesto

de que no quede claro en la matriz de componentes no rotada el sentido y significado

de los factores.

Existen distintos procedimientos de rotación, fundamentalmente se diferencian dos

tipos: los ortogonales y los no ortogonales. Dentro del primer tipo se encuadra el

método VARIMAX, que trata de minimizar el número de variables que hay con pesos o

saturaciones elevadas en cada factor, generando factores incorrelados entre sí, y

dentro del segundo, el PROMAX, que mantiene cierto grado de correlación entre los

factores conservados, muy útil cuando hablamos de sucesos en economía.

Señalar que la rotación no afecta a la comunalidad9 y al porcentaje de la varianza

explicada por el modelo, aunque sí puede cambiar la de cada factor.

d) Obtención de las puntuaciones factoriales.

Puesto que el objetivo fundamental es reducir un gran número de variables a un

pequeño número de factores, es a veces aconsejable estimar las puntuaciones

factoriales de cada individuo, más aún cuando la finalidad es crear un indicador.

Como un factor no es otra cosa sino una combinación lineal de las variables originales,

el sistema trata de obtener las puntuaciones factoriales de los individuos a través del

valor estandarizado de las variables y el coeficiente de la puntuación factorial del factor

j respecto de la variable i.

9 Importancia de cada variable comparada con las demás utilizadas en el análisis. Así, estudiando las comunalidades de la extracción podemos valorar cuáles de las variables son peor explicadas por el modelo. En definitiva, es la proporción de la varianza de una variable que puede ser explicada por el modelo factorial obtenido, por tanto, cuanto más alto sea su valor mejor, ya que un mayor porcentaje de la variable será explicada tras la extracción. Si existiera alguna variable no muy bien explicada, podemos suponer que va por libre con lo que en un momento determinado podemos eliminarla del análisis.

Page 90: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

90

3. Aplicabilidad

1. Permite construir indicadores con ponderaciones no arbitrarias.

2. Permite eliminar redundancia informativa o multicolinealidad.

3. Permite sustituir el conjunto original de variables por otro sensiblemente

menor en número de variables directamente no observables, llamadas

factores o variables latentes. Así, dentro de cada factor existe una alta

correlación y entre cada factor poca o nula correlación.

Page 91: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

91

CAPÍTULO 14

Análisis cluster

1. Concepto

El análisis de conglomerados o cluster es una técnica de interdependencia que

consiste en clasificar individuos en grupos que no son conocidos a priori por el

investigador (a diferencia del análisis discriminante donde sí se conocen los grupos).

Tiene como objetivo final generar grupos de individuos u observaciones muy similares

u homogéneos dentro sí y muy distintos o heterogéneos entre ellos (Manuel, 2005).

Cuando se forman los grupos no sólo los genera por homogeneidad sino también nos

da la naturaleza o razón por la que se han formado dichas agrupaciones.

La clasificación que se haga dependerá exclusivamente de las variables medidas en

los individuos. Por tanto, no aparecerán características en los grupos que no estén

previamente en la base de datos.

El método que utiliza esta técnica para agrupar individuos es la de las distancias y

similaridades. La distancia entre objetos es mayor cuanto menos se parecen los

objetos, por lo que menor será la similaridad. Comúnmente se emplea la distancia

euclídea para determinar la lejanía o cercanía entre individuos10.

El análisis de conglomerados se divide en:

1) K-medias: admite procesar un número ilimitado de casos, pero sólo permite

utilizar un método de aglomeración y requiere que se proponga previamente el

número de conglomerados que se desea obtener. Une centroides de grupos y

está orientado para muestras numerosas.

2) Jerárquico11: es idóneo para determinar el número óptimo de conglomerados

existente en los datos y el contenido de los mismos. Aunque tiene un elevado

coste computacional. Une individuos y está orientado para muestras pequeñas

o normales.

El análisis cluster puede ejecutarse a través de dos métodos de análisis:

10 En este caso también se tipifican las variables para que las diferentes magnitudes de las mismas no distorsionen los resultados. 11 Más recomendable que el k-medias porque no se pierde información.

Page 92: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

92

1) Aglomerativo: en este análisis se empieza considerando a todos los individuos

como integrantes de diferentes clusters y secuencialmente se van creando

clusters cada vez más poblados hasta llegar a la situación en la que todos los

individuos integran un único cluster. Es el método más usual.

De todas las soluciones se trata de elegir la más descriptiva e interpretable.

2) Divisivo: se parte de todos los individuos integrando un mismo cluster que se

va desmembrando secuencialmente hasta que todos los individuos integran

cluster separados. De nuevo el objetivo es buscar entre todas las soluciones la

más interpretable.

Los principales criterios para unir clusters son según Visauta y Martori (2003):

1) Promedio entregrupos: define la distancia entre dos clusters como la media de

las distancias entre todas las combinaciones posibles dos a dos de los

elementos de uno y otro cluster. Si por ejemplo en el primer cluster están las

comunidades A y B y en el segundo C, D y E, la distancia entre los cluster

primero y segundo será la media de las distancias A-C, A-D, A-E, B-C, B-D, y

B-E.

2) Promedio intragrupos: combina los clusters de manera que la media de las

distancias entre todos los pares de sujetos dentro del resultante sea la menor

posible.

3) Vecino más próximo: en cada etapa se unen aquellos conglomerados tales que

sus individuos más próximos (uno de cada) disten menos que los vecinos más

próximos de cualquier otra pareja de conglomerados.

4) Vecino más alejado: en cada etapa se miran aquellos dos cluster tales que sus

vecinos más alejados disten menos que los vecinos más alejados de cualquier

otro par de clusters.

5) Centroide: calcula las distancias entre dos clusters como distancia entre sus

medias para todas las variables. Un inconveniente de este procedimiento es

que estas distancias pueden disminuir de un paso a otro.

Estos criterios no tienen por qué conducir a la misma secuencia en la formación de

clusters.

Page 93: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

93

2. Fases

Atendiendo a Hair et al. (2007) podemos distinguir:

1) Matriz de coeficientes de distancia euclídea al cuadrado: cuanto mayor sea el

coeficiente, más distancia y diferencia existirá con respecto al resto, y a la

inversa cuanto más pequeño sea.

2) Gráfico de Carámbanos vertical: leyendo de abajo hacia arriba se van

formando los clusters. El número de filas se identifica con el número de

clusters.

3) Tabla de aglomeración: identifica los clusters combinados en cada paso del

análisis.

4) Dendrograma: leyendo de izquierda a derecha se van formando los grupos,

representando las líneas verticales la unión de dos clusters.

5) Conglomerado de pertenencia: recoge la solución o soluciones según el

número de grupos identificados. La elección del más adecuado se basa en la

lógica e interpretación de los resultados por parte del investigador. Es el criterio

por excelencia para identificar el número de clusters.

Por último, es importante comprobar las diferencias entre grupos. Para ello se

realizaría un análisis de la varianza (ANOVA) –comparar medias entre grupos-, de

forma que deberían tener unos p-valores inferiores a 0,05 para que se diferencien

entre ellos (diferencias estadísticamente significativas y no fruto del azar). De este

modo, podremos seleccionar adecuadamente cuáles son los grupos a tener en cuenta.

3. Aplicabilidad

- Permite generar grupos de individuos u observaciones muy similares u

homogéneos dentro de sí, y muy distintos o heterogéneos entre ellos. Así, es muy

habitual utilizar esta técnica en estudios de mercado o sociales donde se desean

crear grupos de empresas, regiones, países, etc.

Page 94: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

94

CAPÍTULO 15

Modelos de ecuaciones estructurales

1. Concepto

El modelo de ecuaciones estructurales (SEM), según Hair et al.:

“abarca una familia entera de modelos conocidos con muchos nombres, entre ellos análisis de la

estructura de la covarianza, análisis de variable latente, análisis de factor confirmatorio y a menudo

simplemente LISREL”. (Hair et al., 2007)

Es una técnica multivariante que trata de analizar las relaciones de causalidad entre

distintas variables, las cuales pueden comportarse tanto como dependientes como

independientes simultáneamente. Siguiendo a Hair et al. (2007) las técnicas SEM se

distinguen por: a) estimación de relaciones de dependencia múltiples y cruzadas, y b)

la capacidad de representar conceptos no observados en estas relaciones y tener en

cuenta el error de medida en el proceso de estimación.

Como conclusión, el SEM tiene como objetivo fundamental la evaluación de una serie

de relaciones. Estas relaciones son construidas en dos fases bien diferenciadas, la

primera de ellas, es el modelo de medida, donde aparecen las relaciones entre las

variables originales y la latente, y la segunda, el modelo estructural, donde se

contrastan las relaciones entre los constructos o variables latentes; es, por tanto, la

modelización de las ecuaciones estructurales propiamente dicho.

2. Fases

Siguiendo las indicaciones de Arbuckle (2005) y Hair et al. (2007) una modelización

adecuada debería guiarse por siete pasos: (1) desarrollar un modelo fundamentado

teóricamente, (2) construir un diagrama de secuencias de relaciones causales, (3)

convertir el diagrama de secuencias en un conjunto de modelos y relaciones

estructurales, (4) elegir el tipo de matriz de entrada y estimar el modelo propuesto, (5)

evaluar la identificación del modelo estructural, (6) evaluar los criterios de calidad e

ajuste, y (7) interpretar y modificar el modelo si está teóricamente justificado.

Page 95: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

95

(1) Desarrollo de un modelo basado en la teoría.

Como hemos comentado, el modelaje de ecuaciones estructurales está basado en

relaciones causales, en las que el cambio en una variable se supone que produce un

cambio en otra variable. Así, la causación que el investigador puede asumir entre

dichas variables no descansa en los métodos analíticos escogidos sino en la

justificación teórica, esto es, deben existir asociaciones suficientes entre dos variables,

antecedentes temporales de la causa frente al efecto y una base teórica cuando

menos racional. Es decir, el carácter no debe ser exploratorio sino confirmatorio.

En este caso es importante no incurrir en un error de especificación elevado, no omitir

variables explicativas relevantes. Ahora bien, debemos tener en cuenta los beneficios

de comprensión de los modelos concisos y parsimoniosos. De ahí que el trade-off

entre la inclusión de numerosas variables y la simplicidad del modelo a veces dificulte

la modelización.

(2) Construcción de un diagrama de secuencias de relaciones causales.

El diagrama de secuencias nos va a servir para diseñar una serie de relaciones

lineales causales entre las variables propuestas en el modelo. Es, consecuentemente,

una representación visual de las relaciones entre variables originales y constructos,

entre variables latentes, así como de relaciones asociativas (correlaciones) entre

variables.

A modo aclaratorio podemos distinguir, grosso modo, los siguientes elementos:

• Constructo: también denominado variable latente, podemos definirla como una

variable directamente no observable que representa un concepto teórico o con

cierto grado de abstracción. Se obtiene o se mide mediante variables originales

directamente observables.

• Flechas: utilizadas para representar relaciones específicas entre constructos o

variables. Una flecha directa indica relación causal y, una flecha curvada indica

correlación entre elementos.

(3) Conversión de un diagrama de secuencias en un conjunto de ecuaciones

estructurales y especificación del modelo de medida.

En términos formales se distingue entre:

Page 96: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

96

� Modelo estructural

Se traslada el diagrama de secuencias a una serie de ecuaciones estructurales, donde

cada variable latente endógena es la variable independiente de una ecuación

separada. Esto es, cada variable endógena puede ser prevista tanto por variables

exógenas como por otras variables endógenas. Para cada efecto supuesto, se estima

un coeficiente estructural y un término de error (error de especificación y error aleatorio

de medida), al igual que en la regresión múltiple (Arbuckle, 2005).

� Modelo de medida

En este caso tratamos de construir las variables latentes o constructos mediante una

serie de variables originales directamente observables. Para ello, el SEM realiza un

análisis factorial confirmatorio donde aparecen los factores (o constructos) y su

relación con las variables que los forman. Estos factores referidos a dimensiones

subyancentes de los datos, son formados por combinación lineal entre éstos y las

variables originales. Estos constructos son los que a posteriori se entrecruzan para

generar el modelo estructural explicativo correspondiente.

En ocasiones, el modelo de medida se realiza de forma independiente mediante un

análisis factorial, si son variables métricas o no métricas nominales, o un análisis de

correspondencias múltiple, si las variables son no métricas –nominales u ordinales-.

Posteriormente, con el software correspondiente (AMOS) se ejecutaría el modelo

estructural.

(4) Selección del tipo de matriz de entrada y estimación del modelo propuesto.

Al incluir los datos el sistema SEM los transforma, o bien en una matriz de

correlaciones, o bien en una matriz de varianza-covarianza12 ya que según Hair et al.

(2007) “el interés de SEM no está en las observaciones individuales sino el patrón de

relaciones entre los encuestados”. Como comentamos anteriormente, el modelo de

medida especifica qué variables (indicadores en SEM) corresponden a cada

constructo, y las puntuaciones de la variable latente son las empleadas en el modelo

estructural.

También es importante tener en cuenta que las observaciones han de ser

independientes, que el muestreo ha de ser aleatorio, que debe existir linealidad entre

12 Esta es la matriz que se suele utilizar puesto que según Gondar Nores (1999c) es la que permite, con mayor rigor, un contraste adecuado de la teoría y “no sólo asumir pautas relacionales” como en el caso de la matriz de correlación.

Page 97: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

97

las relaciones, que se deben eliminar los casos atípicos que desvíen los resultados,

que se debe actuar sobre los datos perdidos y que se debe tener en cuenta la

distribución de la muestra (distribución normal).

(5) Valoración de la identificación del modelo estructural.

Según Gondar Nores (1999) “el problema de identificación es la incapacidad del

modelo propuesto para generar estimaciones aisladas”, esto es, debemos tener más

ecuaciones que incógnitas.

Para ello, a efectos de identificación, nos debemos centrar en el tamaño de las

matrices de correlación o covarianzas relativas respecto al número de coeficientes

estimados. A la diferencia entre el número de correlaciones o covarianzas y el número

efectivo de coeficientes en el modelo propuesto se denomina grados de libertad.

Apoyándonos en este concepto, Hair et al. (2007) recomiendan el cumplimiento de que

los grados de libertad sean mayores o iguales a cero, esto es, el modelo ha de estar

identificado (gl=0) o sobreidentificado (gl>0 � más información en la matriz de datos

que el número de parámetros a estimar).

(6) Evaluación de los criterios de calidad de ajuste.

En esta etapa debemos detectar en primer lugar las estimaciones infractoras13.

Posteriormente, se atenderá a la calidad del ajuste: primero, para el modelo conjunto

y, a continuación, para los modelos estructurales y de medida por separado.

La calidad del ajuste14 mide la correspondencia entre la matriz de entrada real u

observada con la que se predice mediante el modelo propuesto. Podemos distinguir

tres tipos (Casas, 2006):

• Medidas absolutas del ajuste: evalúan sólo el ajuste global del modelo.

Podemos destacar el estadístico χ2, los grados de libertad, la significatividad

del contraste y el GFI.

13 Se trata de coeficientes estimados que exceden los límites aceptables. Por ejemplo: varianzas de error negativas o no significativas; coeficientes estandarizados que están muy cercanos a 1 y, errores estándar muy elevados. 14 Respecto a los modelos de medida y estructural, es conveniente en el primer caso reconocer la fiabilidad de las medidas de cada variable (mediante alfa de Cronbach).

Page 98: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

98

• Medidas de ajuste incremental: comparan el modelo propuesto con otro modelo

especificado por el investigador. Podemos destacar, entre otras, al estadístico

TLI y NFI.

• Medidas de ajuste de parsimonia: afinan las medidas de ajuste para ofrecer

una comparación entre modelos con diferentes números de coeficientes

estimados. El objetivo será, por tanto, determinar el ajuste conseguido por cada

coeficiente estimado. En este caso las medidas apropiadas para la evaluación

directa del modelo son el AGFI y la Chi-cuadrado normada, entre otros.

Respecto al modelo estructural consiste en observar que la significación de los

coeficientes estimados sea inferior a 0,05. Por último, es conveniente corroborar que

no tenemos problemas de multicolinealidad entre las variables seleccionadas.

En último lugar, es apropiado realizar una comparación de modelos rivales para

determinar cuál es el mejor ajustado de un conjunto de modelos. Esto es, se construye

un modelo base y se aplican una serie de reespecificaciones, con las que cada vez se

espera mejorar el ajuste del modelo mientras se mantenga la concordancia de la teoría

subyacente.

Se trata, pues, de mantener el mismo número de variables latentes e indicadores, de

tal forma que el modelo nulo sea el mismo para ambos modelos (modelos anidados).

El impacto de añadir o destruir una o más relaciones causales es lo que nos da

información acerca de la mayor calidad de ajuste.

(7) Interpretación y modificación del modelo.

Una vez que el modelo se considera aceptable, debemos examinar los resultados y su

correspondencia con la teoría propuesta. De no ser adecuadas las interrelaciones

habría que reespecificar el modelo (Bacon, 2006).

3. Aplicabilidad

- Contrastación de teorías complejas o de relaciones causales basadas en el

empirismo.

- Comparación de varios modelos para evaluar cuál es el que mejor se ajusta a los

datos.

Page 99: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

99

- Elaboración de modelos donde se aprecia que algunas variables que son

explicadas por otras, podrían a su vez explicar a unas terceras. Frecuente en las

ciencias sociales.

Page 100: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

100

BIBLIOGRAFÍA

- Aiken, L. R. (1996): “Test psicológicos y evaluación”. México, Prentice Hall

Hispanoamericana.

- Arbuckle, J.L. (2005): “Amos 6.0 User’s Guide”. Amos Development Corporation,

Chicago, SPSS.

- Astigarraga, E. (2003): “El método Delphi”. Universidad de Deusto, San

Sebastián.

- Babbie, E. (1999): “Metodología de la investigación”. México, Thomson.

- Bacon, L.D. (2006): “Using Amos for structural equation modeling in market

research”. SPSS White Paper. Disponible en:

http://www.spss.com/dk/pdf/amos.pdf

- Bernal, T. (2000): “Metodología de la Investigación para Administración y

Economía”. Bogotá, Prentice Hall.

- Bunge, M. (1981): “La ciencia, su método y su filosofía”. Buenos Aires, Siglo XX.

- Casas Guillén, M. (2006): “Los modelos de ecuaciones estructurales y su

aplicación en el Índice Europeo de Satisfacción del Cliente”. Facultad de

Ciencias Económicas y Empresariales, Universidad San Pablo CEU. Disponible

en: http://www.uv.es/asepuma/X/C29C.pdf

- Díaz, E. y Heler, M. (1985): “El conocimiento científico”. Buenos Aires, Eudeba.

- Fontela, E. (1990): “Fundamentos históricos de la Economía Aplicada. Una visión

personal”. Economistas, nº43, 52-57.

- Frey, J. H. and Fontana, A. (1993): "The group interview in social research", in

Morgan, D. (Eds), Successful Focus Groups: Advancing the State-of-the-Art, 9th

ed., Sage Publications, Newbury Park, CA.

- García De la Fuente, O. (1994): “Metodología de la investigación científica”.

Madrid, Ediciones CEES.

- George, D. and Mallery, P. (1995): “SPSS/PC+ step by step: A simple guide and

reference”. Wadsworth Publishing Company. Belmont, CA. Estados Unidos.

Page 101: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

101

- Gondar Nores, J.E. (1999): “Técnicas estadísticas con SPSS. Amos”. Madrid,

Ed. Estudios Estadísticos.

- Hair, J. F.; Anderson, R.; Tatham, R. y Black, W. (2007): “Análisis multivariante”.

5ª edición, Prentice Hall Iberia, Madrid.

- Hardyck, C. D. and Petrinovich, L. F. (1976): “Introduction to Statistics for the

Behavioral Sciences”. Second edition. Philadephia: Saunders.

- Hernández Sampieri, R., Fernández-Collado, C. y Baptista, P. (2006):

“Metodología de la investigación”. México, McGraw Hill.

- Hosmer, D.W. and Lemeshow, S. (1989): “Applied Logistic Regression”. Ed. John

Wiley, New York.

- Igarza, R. (2008): “El método Delphi, apuntes para una herramienta exitosa”.

Universidad Austral, Argentina.

- Information Technology Services (2001): “Structural Equation Modelling using

AMOS: An Introduction”. Disponible en:

http://www.utexas.edu/its/rc/tutorials/stat/amos/

- Joreskog, K.G. (1993): “Structural Equation Modeling with LISREL” en Seminario

Internacional de Estadística en el País Vasco, nº 29, Eustat (Instituto Vasco de

Estadística).

- Joreskog, K.G. and Wold, H. (1982): “Systems Under Indirect Observation:

Causality, Structure, Prediction. Contributions to Economic Analysis”.

Amsterdam: North-Holland, vol. 139, Part II.

- Krueguer, K. (1991): “El grupo de discusión. Guía práctica para la investigación

aplicada”. Pirámide, Madrid.

- Lafuente, C. y Marín, A. (2008): “Metodología de la investigación en ciencias

sociales: fases, fuentes y selección de técnicas”. Revista EAN, nº 64, pp. 5-18.

- Landeta, J. (1999): “El método Delphi, una técnica de previsión del futuro”. Ariel

S.A., Barcelona.

- León Barrios, G. (2007): “El grupo de discusión como artefacto científico para el

análisis social”. Revista Comunicologí@: indicios y conjeturas, Publicación

Page 102: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

102

Electrónica del Departamento de Comunicación de la Universidad

Iberoamericana Ciudad de México, Primera Época, Número 7, Primavera 2007.

Disponible en:

http://revistacomunicologia.org/index.php?option=com_content&task=view&id=16

6&Itemid=87

- Linstone, H. A. and Turoff, M. (1975): “The Delphi method, techniques and

applications”. Addison-Wesley Publishing Company.

- Lofland, J. (1984): “Analyzing Social Settings”. Wadsworth, Belmont, California.

- Manuel, C.M. (2005): “Análisis multivariante”. Madrid, Escuela de Estadística,

Universidad Complutense de Madrid (mimeo).

- Martin, G., Labeaga, J.M. y Mochon, F. (1997): “Introducción a la Econometría”.

Prentice Hall, Madrid

- Ortega, F. (2008): “El método Delphi, prospectiva en Ciencias Sociales a través

del análisis de un caso práctico”. Revista-Escuela de Administración de

Negocios, Nº 64, sept.-dic., pp. 31-54. Universidad EAN, Colombia.

- Pérez, C. (2006): “Técnicas de Análisis Multivariante de Datos. Aplicaciones con

SPSS”. Pearson Prentice Hall.

- Plummer, K. (1983): “Documents of Life”. Allen, London.

- Poza, C. (2008): “Técnicas estadísticas multivariantes para la generación de

variables latentes”. Revista EAN, nº 64, pp.89-99.

- Ramírez Vera, D.C. (2006): “Redacción del trabajo escrito. Pautas y

recomendaciones”. Universidad de los Andes, Instituto de investigaciones

económicas y sociales, Venezuela. Disponible en:

http://webdelprofesor.ula.ve/economia/dramirez/MICRO/FORMATO_PDF/Proble

masEconomicos/Redaccion_Trabajos.pdf

- Ritchey, F.J. (2006): “Estadística para las ciencias sociales”. McGraw-Hill,

México.

- Ruiz-Maya, L. (2000): “Métodos estadísticos de investigación en las Ciencias

Sociales: técnicas no paramétricas”. Ed. AC, Madrid.

Page 103: Lafuente, C. y Poza C. (2011) Apuntes de Metodología y Técnicas de Investigacion (20!03!11)

103

- Ruiz Olabuénaga, J.I. (2007): “Metodología de la investigación cualitativa”.

Cuarta edición, Universidad de Deusto. Bilbao.

- Sánchez Martín, M. E. (2003): “La entrevista. Técnica de recogida de datos en el

análisis de una situación social”. Documento de trabajo, octubre, Universidad

Complutense de Madrid, Madrid.

- Santos Peña, J. (1999): “Diseño y tratamiento estadístico de encuestas para

estudios de mercado”. Ed. Centro de Estudios Ramón Areces, S.A., Madrid.

- Saravia, M. A. (2006): “Metodología de investigación científica. Orientación

metodológica para la elaboración de proyectos e informes de investigación”.

Ministerio de Educación, Bolivia. Disponible en: www.conacyt.gov.bo

- Sierra Bravo, R. (2006): “Tesis doctorales y trabajos de investigación científica”.

Madrid, THOMSON.

- Torres Padilla (2008): “Un modelo integrador para el manejo de elementos

intangibles y creación de valor en la empresa”. Tesis doctoral. Universidad

Nebrija, Madrid.

- Vallés, M.S. (1997): “Técnicas cualitativas de investigación social. Reflexión

metodológica y práctica profesional”. Síntesis Sociología, Madrid.

- Visauta Vinacua, B. y Martori i Cañas, J.C. (2002): “Análisis estadístico con

SPSS para Windows. Volumen I, Estadística Básica”. Segunda edición,

McGrawHill.

- Visauta Vinacua, B. y Martori i Cañas, J.C. (2003): “Análisis estadístico con

SPSS para Windows. Volumen II, Estadística Multivariante”. Segunda edición,

McGrawHill.