Lineamientos de JICA para la Evaluación de Proyectos · 4 1. Objetivos de la Evaluación de...
Transcript of Lineamientos de JICA para la Evaluación de Proyectos · 4 1. Objetivos de la Evaluación de...
Lineamientos de la JICA para la Evaluación de Proyectos
~ Métodos Prácticos para la Evaluación de Proyectos ~
Septiembre de 2004
Oficina de Evaluación, Departamento de Planeación y Coordinación
Agencia de Cooperación Internacional del Japón (JICA)
i
ÍNDICE Parte I: Evaluación de Proyectos de la JICA Capítulo 1 Descripción General de la Evaluación de Proyectos de la JICA
1. Objetivos de la Evaluación de Proyectos de la JICA
2. Tipos de Evaluación de Proyectos de la JICA 3. Sistema de Evaluación de la JICA 4. Retroalimentación de la Evaluación 5. Criterios para una Buena Evaluación
Capítulo 2 Marcos de Trabajo y Pasos Básicos de la Evaluación de Proyectos de la JICA
1. La Evaluación como una Herramienta de Gestión 2. Marco de Trabajo de la Evaluación 3. Pasos Principales de la Evaluación de Proyectos
de la JICA
1 2 4 6 12 15 18 20 21 22 28
Parte II: Métodos de Evaluación de la JICA Capítulo 1 Confirmación de los Objetivos de la Evaluación y
Organización de la Información sobre el Proyecto Seleccionado
1. Confirmación del Objetivo de la Evaluación 2. Comprensión del Panorama General del
Proyecto Seleccionado 3. Uso del Marco de Trabajo Lógico 4. Comprensión de la Situación de Implementación:
Información sobre los Resultados y el Proceso de Implementación
Capítulo 2 Planeación de la Evaluación del Proyecto
1. Desarrollo de la Preguntas de la Evaluación 2. Bases del Juicio 3. Consideración los Datos y Fuentes de
Información Necesarios 4. Métodos de Recopilación de Datos 5. Formulación de una Tabla de Evaluación
Capítulo 3 Interpretación de Datos e Información de los Resultados de la Evaluación
1. Interpretación de Datos 2. Recomendaciones y Propuestas de las
Lecciones Aprendidas 3. Envío de Información sobre los Resultados de la
Evaluación
33 34 35 37 39 53 55 59 69 74 80 90 92 93 96 98
ii
Parte III: Gestión de las Evaluaciones del Proyecto Capítulo 1 Problemas en la Gestión de Evaluaciones
1. El Papel de los Departamentos Operativos del Proyecto de la JICA
2. Preparación de la Publicidad de un Contrato 3. Preparación Preliminar de la Evaluación 4. Gestión de las Evaluaciones en el Sitio 5. Preparación del Informe de Evaluación 6. Retroalimentación de los Resultados de la
Evaluación Capítulo 2 Puntos en la Evaluación Ex-ante y Ex-post
1. Puntos Clave de los Estudios de Evaluación Ex-ante
2. Puntos del Seguimiento y los Estudios de Evaluación Intermedia
3. Puntos Principales de los Estudios de Evaluación Final
4. Puntos Principales de las Evaluaciones Ex-post
104105 106109116118122 123124 127 146 159195
Preguntas Frecuentes Relativas a la Evaluación de Proyectos de la JICA Materiales Anexos
1. ¿Qué es el Marco de Trabajo Lógico? 2. ¿Qué es la Evaluación Participativa? 3. ¿Qué es la Medición de Resultados? 4. Bibliografía
200 220221230232234
NOTA: Estos lineamientos son traducción de las partes más importantes de la versión
original en japonés: ‘JICA Jigyo Hyoka Guideline Project Hyoka no Jissenteki Shuho’
Oficina de Evaluación y Seguimiento Post Proyecto, Departamento de Planeación y
Evaluación, JICA, Marzo de 2004.
Parte I Evaluación de Proyectos
de la JICA
2
Capítulo 1 Descripción General de la Evaluación de Proyectos de la JICA Para poder proporcionar una descripción general de la Evaluación de Proyectos de la JICA,
este capítulo explica sus objetivos, tipos, sistema de implementación y sistema de
retroalimentación. También explica los “criterios para una buena evaluación” para mejorar
la calidad de la evaluación. Sugiere la meta y la dirección de la Evaluación de Proyectos
de la JICA.
¡Consejos! - Hay tres objetivos para el uso de la Evaluación de Proyectos de la JICA: 1)
herramienta para la gestión del ciclo del proyecto; 2) herramienta para acentuar los
“efectos de aprendizaje” para una gestión de proyecto más efectiva; 3) asegurar la
rendición de cuentas.
- Los tipos de evaluación se clasifican en dos niveles principales: a nivel de programa y a nivel de proyecto.
- La evaluación a nivel de proyecto se clasifica en cuatro tipos que se llevan a cabo en diferentes etapas durante el ciclo del proyecto: evaluación ex-ante, evaluación
intermedia, evaluación final y evaluación ex-post. La evaluación a nivel de programa
es una evaluación completa que se aplica principalmente a la evaluación ex-post y
tiene varios tipos de acuerdo con su objetivo y evaluador.
- El sistema de evaluación de la JICA consta de 1) Comité de Estudio de la Evaluación,
2) Comité Consejero sobre la Evaluación, 3) Oficina de Evaluación y Seguimiento
Post-Proyecto y 4) Departamentos y Oficinas en el Extranjero que Participan en la
Implementación de Proyectos.
- La JICA considera que la función de retroalimentación de la evaluación es doble: 1) retroalimentación para la gestión y operación de proyectos y 2) retroalimentación para
el público. la JICA se esfuerza para implementar estrategias para una
retroalimentación efectiva.
- Los criterios para una buena evaluación son 1) utilidad, 2) justicia y neutralidad, 3) credibilidad, 4) participación de los países socios, etcétera. Cuando se adopta la
3
responsabilidad completa de dichos criterios se obtiene una evaluación más calificada.
4
1. Objetivos de la Evaluación de Proyectos de la JICA Es importante evaluar los resultados que obtiene un proyecto y brindar retroalimentación
de los resultados de la evaluación, lecciones y recomendaciones obtenidas para lograr que
la implementación de la cooperación para el desarrollo sea más efectiva y eficiente. Las
difíciles situaciones económicas y fiscales en casa han generado fuertes llamadas en
Japón para una implementación más efectiva y eficiente y para asegurar la rendición de
cuentas de la AOD. El perfeccionamiento de la evaluación ha llamado la atención como
una de las medidas de mejoramiento más importantes. Además, existen cambios en el
panorama político tales como la adopción de la evaluación del sector público por parte de
los ministerios y la reorganización de las agencias en Instituciones Administrativas
Independientes (IAI) que solicitan mejoras en el sistema de evaluación. La evaluación de la JICA es una herramienta para juzgar lo más objetivamente posible
los puntos importantes y la efectividad de las actividades de cooperación de la JICA en
cuatro diferentes etapas durante el ciclo del proyecto: ex-ante, intermedia, final y ex-post.
El objetivo principal de la evaluación es mejorar la efectividad y eficiencia de los proyectos
utilizando los resultados de la evaluación para mejorar la planeación e implementación. La
JICA también intenta obtener el apoyo y comprensión del público al utilizarlo para asegurar
la rendición de cuentas. La JICA ha concentrado sus esfuerzos en fortalecer su evaluación
con los siguientes tres objetivos.
(1) Utilizar la Retroalimentación de la Evaluación como un Medio para la Operación y Gestión de Proyectos Utilizándolos en el proceso de toma de decisiones, la JICA se refiere a los resultados de la
evaluación cuando formula sus estrategias de asistencia y los Programas por País de la
JICA. También los utiliza cuando toma decisiones acerca de la ejecución de un proyecto,
selecciona los proyectos objetivo, revisa los planes y determina la continuación o
terminación de un proyecto.
(2) Acentuar los “Efectos de Aprendizaje” del Personal y las Organizaciones Interesadas para lograr una Implementación Más Efectiva de los Proyectos La retroalimentación de la evaluación acentúa qué tan efectivamente pueden aprender y
desarrollar sus habilidades las diversas personas involucradas. El término “Efectos de
Aprendizaje” se refiere a la forma tan exitosa en que el proceso de aprendizaje a partir de
la evaluación permite al personal de la JICA y a las personas interesadas implementar
mejor sus proyectos y programas. Por ejemplo, el personal de la JICA y los funcionarios
5
de los países socios emplean las lecciones de los proyectos pasados a modo de
referencias útiles cuando planean e implementan proyectos similares. Además, el proceso
de evaluación en sí contribuye a ampliar el conocimiento y desarrollar las capacidades de
las personas participantes y, por tanto, sirve como un “proceso de aprendizaje”.
(3) Dar a conocer ampliamente la información para asegurar la rendición de cuentas de la JICA Para ganar el apoyo y comprensión del público es indispensable darle a conocer los
resultados de la evaluación y explicarle que la JICA está cumpliendo con su
responsabilidad en las acciones que emprende. Para poder asegurar la rendición de
cuentas a los contribuyentes, la JICA necesita asegurar una forma adecuada de dar a
conocer la información. Figura 1-1-1 Uso de los Resultados de la Evaluación de la JICA
Uso de la Retroalimen-
tación de la Evaluación
como Medio para la
Gestión de Proyectos
Acentuar el Efecto
de Aprendizaje del
Personal y las
Organizaciones
interesadas
Asegurar la Responsabilidad
de la JICA
Asegurar la
Rendición de
Cuentas a los
Contribuyentes /
Implementar
Proyectos de
Manera más
Efectiva y Eficiente
Realización
de la Evaluación
6
2) Tipos de Evaluación de Proyectos de la JICA El “Informe sobre el Mejoramiento del Sistema de Evaluación de la AOD” del Ministerio del
Exterior, publicado en marzo de 2000, clasificó la evaluación de la AOD en tres niveles: a
nivel de política, a nivel de programa y a nivel de proyecto, como se muestra en la Figura
1-1-2. El informe solicita que se mejore la evaluación a nivel de política y a nivel de
programa. El Ministerio del Exterior lleva a cabo evaluaciones a nivel de política tales como
el Programa de Asistencia a Países y las Iniciativas a Sectores Específicos, así como
evaluaciones a nivel de programa por sectores y esquemas. La JICA conduce las
evaluaciones a nivel de programa y de proyecto. La Figura 1-1-3 muestra cómo evaluar el
ciclo de gestión de la JICA. Existen dos ciclos: el “ciclo pequeño” (ciclo del proyecto) y el
“gran ciclo” (ciclo del programa).
7
Figura 1-1-2 Sistema de la AOD y la Evaluación de la JICA
Problema de Desarrollo del País A
Políticas básicas de la JICA・ Plan a Mediano Plazo ・ Informes del comité de
estudio ・ Lineamientos Temáticos
de la JICA ・Programa de Asistencia por País・Iniciativas por sector específico
Política Intermedia de la AOD
Carta de la AOD
Plan de Desarrollo Nacional de un País A
Programa por País de la JICA (para País A)
Problema de Desarrollo
Problema de Desarrollo
Problema de Desarrollo del País A
Programa de Desarrollo del País A
Cooperación de
Otros D
onadores
Proyectos Independien-
tes del País A
Proyectos Independien-
tes del País A
Cooperación de
Otros D
onadores
Proyectos de la JICA
Proyectos de la JICA
Proyectos de la JICA
Proyectos de la JICA
Nivel de Proyecto
Nivel de Program
a
Nivel de Política
Sistema de E
valuación
de toda la AO
D
Programa de Cooperación de la JICA
Programa de Cooperación de la JICA
8
Figura 1-1-3 Tipos de Evaluación por Etapas durante el Ciclo del Proyecto
(1) Tipos de Evaluación por nivel de Proyecto/Programa La evaluación a nivel de proyecto cubre proyectos individuales. Se espera que este tipo de
evaluación, que llevan a cabo tanto los departamentos de la JICA responsables de la
implementación del proyecto como las oficinas en el extranjero, se refleje en la planeación
y revisión de proyectos individuales, en la toma de decisiones para decidir si se continúa
con los proyectos y en la revisión de los planes de proyectos, en la planeación y ejecución
de otros proyectos similares y en el aseguramiento de la rendición de cuentas de las
operaciones. La evaluación a nivel de programa incluye una evaluación integral aplicada a aquellos
grupos de proyectos que comparten la misma meta general y temas de desarrollo.
También está dirigida a un grupo de proyectos bajo un esquema de cooperación específico.
Estas evaluaciones se realizan principalmente a través de la Oficina de Evaluaciones de la
JICA en las etapas ex-post en forma de evaluación de un programa por país o evaluación
temática. Los resultados de la evaluación se utilizan principalmente para mejorar el
Programa por Países de la JICA y para encontrar y formular nuevos proyectos. La
evaluación a nivel de programa se clasifica en dos tipos como se indica a continuación:
<Rendición de cuentas> El público japonés
Plan
Desarrollo o Revisión del Programa por País de la JICA
Encuesta de solicitudes específicas por asunto
Evaluación Ex-ante
Evaluación intermedia
Evaluación final
Plan
Evaluación Ex-post
Ciclo del Proyecto
Retroalimentación Retroalimentación
Retroalimentación
Retroalimentación
Ciclo del ProgramaEvaluación
Ex-post
Programa Temático por País
ImplementaciónPost Imple- mentación
9
i) Evaluación de Programa por País Esta evaluación integral examina los efectos generales de la cooperación de la JICA para
el desarrollo de un país objetivo a lo largo de los proyectos. Después de aclarar y analizar
los efectos generales de la cooperación de la JICA y las dificultades que encontró, esta
evaluación brinda lecciones y recomendaciones para el mejoramiento del Programa por
País de la JICA para del país en cuestión.
ii) Evaluación Temática Esta evaluación toma en cuenta varios proyectos concentrándose en sectores, problemas
(medio ambiente, pobreza, género, construcción de la paz, etc.) específicos o esquemas
de cooperación (Programa de Voluntarios Japoneses para la Cooperación con el
Extranjero, etc.). Después de aclarar y analizar los efectos generales y los factores
inhibidores comunes de los proyectos de la JICA en relación con el asunto en cuestión,
esta evaluación brinda lecciones y recomendaciones para la implementación de proyectos
futuros enfocándose en dichos temas. También considera enfoques y métodos efectivos
para implementar proyectos enfocándose en un tema específico.
(2) Tipos de Evaluación por Etapas durante el Ciclo del Proyecto La evaluación a nivel de proyecto se clasifica en cuatro tipos que se llevan a cabo en
diferentes etapas durante el ciclo del proyecto: evaluación ex-ante, evaluación intermedia,
evaluación final y evaluación ex-post.
i) Evaluación Ex-ante La evaluación ex-ante se realiza sobre un proyecto solicitado por un país receptor. Primero
incluye un estudio del proyecto para determinar su necesidad así como su conformidad
con el Programa por Países de la JICA. Se aclaran los detalles del proyecto y sus
resultados esperados. Después se examina y evalúa de manera integral la importancia del
proyecto. En la evaluación ex-ante, los indicadores de evaluación se establecen y utilizan
para medir el efecto del proyecto en evaluaciones posteriores, desde la evaluación
intermedia hasta la evaluación ex-post.
ii) Evaluación Intermedia La evaluación intermedia se realiza en el punto intermedio de los proyectos. Esta
evaluación tiene por objetivo examinar los logros y proceso del proyecto, concentrándose
en la eficiencia e importancia entre los Cinco Criterios de Evaluación. Con base en sus
10
resultados, se puede revisar el plan original del proyecto o fortalecer la estructura de la
operación en caso de ser necesario.
iii) Evaluación Final La evaluación final se realiza a la terminación de un proyecto, concentrándose en su
eficiencia, efectividad y sustentabilidad. Con base en los resultados de la evaluación, la
JICA determina si es apropiado terminar el proyecto o si es necesario extender la
cooperación de seguimiento.
iv) Evaluación Ex-post La evaluación ex-post se lleva a cabo después que ha transcurrido cierto período desde la
terminación del proyecto objetivo y se realiza haciendo énfasis en el impacto y
sustentabilidad del proyecto. El objetivo de esta evaluación son las lecciones y
recomendaciones que derivan de la misma para el mejoramiento de los Programas por
País de la JICA y para la planeación e implementación de proyectos más efectivos y
eficientes.
(3) Tipos de Evaluación según los Evaluadores La evaluación de la JICA se puede clasificar por evaluadores como se indica a
continuación:
i) Evaluación de terceros (Evaluación externa) Para poder mejorar la calidad y objetividad de su evaluación, la JICA encarga cierta parte
de sus estudios de evaluación a terceros que no participaron en la planeación e
implementación de los proyectos que se van a evaluar. Por ello mismo, la JICA también
incluye en la evaluación a quienes tienen mucha experiencia en las áreas objetivo, tales
como universidades, instituciones de investigación, académicos, consultores, etc.
ii) Evaluación de la JICA (Evaluación Interna) Para poder brindar lecciones y recomendaciones que satisfagan las condiciones o
necesidades reales de los países receptores, la JICA es el conductor principal de esta
evaluación ya que conoce esos sistemas y demás cuestiones que rodean un proyecto o
problema. La JICA también promueve la revisión de los resultados de dichas evaluaciones
internas por parte de terceros (académicos, periodistas, ONGs, etc.) que tienen
experiencia en la asistencia para el desarrollo y que están familiarizados con los
compromisos de la JICA para poder asegurar transparencia y objetividad.
11
iii) Evaluación Conjunta Esta evaluación se realiza en colaboración con organizaciones en los países objetivo o con
las agencias de asistencia de otros países donantes. La evaluación conjunta con los
países socios es efectiva para compartir con la JICA el reconocimiento sobre los efectos
de dichos proyectos y sus problemas. También contribuye con los métodos de evaluación
del aprendizaje y a mejorar la capacidad de aquellos países para realizar sus evaluaciones.
Esta evaluación es efectiva para promover el aprendizaje mutuo de los métodos de
evaluación y la coordinación de la asistencia.
12
3. Sistema de Evaluación de la JICA
(1) Desarrollo del Sistema de Evaluación de la JICA
Desde hace mucho, la JICA está comprometida con el mejoramiento de sus sistemas de
evaluación. En julio de 1981, la JICA estableció el Comité de Estudios de Evaluación para
manejar los problemas y retos de su evaluación. El Comité ha estado dirigiendo los
esfuerzos de la JICA para desarrollar nuevos enfoques y técnicas para una mejor
evaluación. En abril de 1988, se estableció la Oficina de Evaluación dentro del
Departamento de Planeación, como una unidad especializada en evaluaciones. En abril de
1990, la Oficina se reorganizó como la División de Evaluación y Seguimiento Post
Proyecto y, en octubre de 1996, se puso bajo la supervisión directa del Presidente para
que tuviera mayor independencia de evaluación. En enero de 2000, la Oficina de Evaluación y Seguimiento Post Proyecto se unió de
nuevo con el Departamento de Planeación y Evaluación como un paso para mejorar la
retroalimentación de los resultados de la evaluación y así mejorar la planeación de
proyectos. En un intento por asegurar la objetividad y transparencia de la evaluación, se
estableció en junio de 2002 como cuerpo asesor para el Comité de Estudios de Evaluación
un Comité Asesor de Evaluación compuesto por expertos externos. En mayo de 2003 se
dio un paso más para mejorar el sistema de evaluación cuando se asignó un jefe de
evaluación a cada uno de los departamentos y oficinas en el extranjero involucradas
directamente en la gestión de proyectos. El objetivo de este paso es controlar y mejorar la
calidad de la evaluación para que ésta pueda satisfacer las necesidades y condiciones al
frente de las operaciones de asistencia. Las responsabilidades principales de los jefes de
evaluación incluyen el control de calidad de las evaluaciones de los proyectos que realizan
sus departamentos y oficinas y la promoción de la retroalimentación de las evaluaciones a
todos los interesados. En abril de 2004, se reorganizó el Departamento de Planeación y Evaluación formando
el Departamento de Planeación y Coordinación como parte de una reforma realizada por la
Oficina Central después que la JICA se reorganizó como una Iniciativa Administrativa
Independiente (IAI).
(2) Sistemas de Evaluación y Papeles Actuales
El sistema de evaluación actual de la JICA incluye cuatro partes principales: el Comité de
Estudios de Evaluación, el Comité Consejero sobre la Evaluación, la Oficina de Evaluación
y Seguimiento Post Proyecto y los departamentos de implementación de proyectos
13
(departamentos y oficinas en el extranjero responsables de la operación de los proyectos).
Los papeles principales de cada una de estas partes son los siguientes: i) Comité de Estudios de Evaluación El comité está encabezado por el vicepresidente de la JICA a cargo de la planeación y
evaluación y está compuesto por los directores administrativos de los departamentos
relacionados. El comité examina y discute las políticas de evaluación básicas de la JICA,
así como los métodos para proporcionar la retroalimentación de la evaluación. Bajo este
comité, se establece un “Grupo de Trabajo de Estudio de la Evaluación” para estudiar,
deliberar e informar sobre las cuestiones y problemas relacionados.
ii) Comité Consejero sobre la Evaluación Este comité está compuesto por expertos externos (académicos, miembros de ONGs,
periodistas, etc.) bien informados sobre los problemas relativos a la asistencia para el
desarrollo y la evaluación. El comité asesora al Comité de Estudios de Evaluación en
materia de sistemas y métodos de evaluación. También revisa los resultados de las
evaluaciones internas para mejorar su objetividad.
iii) Oficina de Evaluación, Departamento de Planeación y Coordinación La Oficina es responsable de la planeación y coordinación de las actividades generales de
evaluación dentro de la JICA, incluyendo los esfuerzos para mejorar los métodos de
evaluación y promover la retroalimentación a partir de la evaluación. También realiza
evaluaciones ex-post tales como la evaluación del programa por país y la evaluación
temática. La Oficina apoya y supervisa las actividades de evaluación de los departamentos
y oficinas en el extranjero.
iv) Departamentos y Oficinas en el Extranjero Involucrados en la Implementación de Proyectos Los departamentos y oficinas en el extranjero involucrados en la implementación de
proyectos llevan a cabo evaluaciones ex-ante, intermedias, finales y ex-post de los
proyectos individuales que están bajo su responsabilidad. Estos resultados de las
evaluaciones se utilizan para gestionar los proyectos e identificar sus efectos. Como se
mencionó anteriormente, los jefes de evaluación asignados a estos departamentos y
oficinas dirigen sus esfuerzos hacia el mejoramiento del control de calidad de las
evaluaciones y de la retroalimentación a partir de la evaluación.
(3) Esfuerzos para Impulsar Recursos Humanos hacia la Evaluación
14
Además del establecimiento de un buen sistema de evaluación, también es esencial la
creación de recursos humanos con habilidades de evaluación para mejorar la calidad de
las evaluaciones de la JICA. La JICA brinda programas de capacitación para su personal
tanto en su Oficina Central como en las oficinas en el extranjero, mediante un programa de
capacitación a distancia desarrollado en colaboración con el Instituto del Banco Mundial.
15
4. Retroalimentación de la Evaluación La JICA considera que la función de retroalimentación de la evaluación es doble: 1)
retroalimentación para la gestión y operación de proyectos y 2) retroalimentación para el
público.
(1) Retroalimentación para la Gestión y Operación de Proyectos La retroalimentación para la gestión y operación de proyectos incluye un proceso que
emplea los resultados de la evaluación y las lecciones y recomendaciones obtenidas para
mejorar la planeación e implementación de proyectos. Este tipo de retroalimentación se
puede clasificar todavía más para mejorar el proceso de toma de decisiones y
retroalimentar el proceso de aprendizaje de las partes interesadas.
i) Retroalimentación para mejorar el proceso de toma de decisiones La retroalimentación para mejorar el proceso de toma de decisiones implica el uso directo
de los resultados de la evaluación en la toma de decisiones relativas al proyecto objetivo.
En la mayoría de los casos, este proceso forma parte de los procedimientos de la gestión
del proyecto del departamento responsable del mismo. Por ejemplo, los resultados de la
evaluación ex-ante sirven como una referencia importante para decidir si se debe realizar
el proyecto en cuestión, mientras que los resultados de la evaluación intermedia se toman
en cuenta para decidir si es necesario revisar el plan original del proyecto. Igualmente, los
resultados de la evaluación final se utilizan para determinar si el proyecto se debe finalizar,
extender o si se le debe dar seguimiento con cooperación adicional.
ii) Retroalimentación para el proceso de aprendizaje de la organización Por otro lado, la retroalimentación para el proceso de aprendizaje de la organización
incluye la acumulación de información de la evaluación y las lecciones de la gente que
participó en las operaciones de asistencia para el desarrollo con el objetivo de utilizarlas
para formular y planear proyectos similares y para revisar las estrategias de la
organización. Específicamente, la retroalimentación para su proceso de aprendizaje se brinda a
través de una variedad de medidas como se indica a continuación: sesiones de preguntas
con la participación de las personas interesadas cuando un equipo de evaluación regresa
a Japón, distribución de información a través de la red de evaluación mencionada
anteriormente, creación de una base de datos sobre las lecciones relativas a las áreas de
educación y telecomunicación mediante la participación de equipos de trabajo temáticos, y
16
estudios sintéticos sobre las evaluaciones para identificar las tendencias comunes. A partir
del 2004, se añadió una nueva columna al “documento de evaluación ex-ante” para anotar
comentarios sobre las lecciones aplicadas tomadas de proyectos similares pasados. Esto
representa un paso más para una mejor retroalimentación de la evaluación.
(2) Retroalimentación para el Público La retroalimentación para el público es un proceso para que la JICA cumpla con su
rendición de cuentas, que es uno de los objetivos de la evaluación de la JICA. La rendición
de cuentas es mucho más que el compromiso de publicar los resultados de la evaluación.
Requiere un sistema en donde el ‘encargado’ de dichas empresas (la JICA) le da un
reporte completo a ‘quienes se las encargaron’ (los contribuyentes) sobre cómo ha
implementado esas empresas de manera responsable para que ellos puedan juzgar los
resultados del encargado. Además, como los proyectos de cooperación se deben realizar
de manera conjunta con los países que reciben la ayuda, la retroalimentación también es
muy importante para aquellos interesados y para el público en general de esos países. Los requisitos de la rendición de cuentas incluyen objetivos de cooperación claros,
transparencia en el proceso de toma de decisiones de la organización y el uso eficiente de
insumos, y la medición exacta de los resultados obtenidos del proyecto. Para asegurar la
rendición de cuentas es necesario dar a conocer la información de la evaluación con una
calidad que satisfaga todos estos requisitos. En términos más concretos, los esfuerzos de la JICA para brindar retroalimentación al
público incluyen la publicación de informes de evaluación, la realización de seminarios de
evaluación para mostrar a los ciudadanos japoneses y a las personas interesadas en los
países socios los resultados de las evaluaciones ex-post principales tales como
evaluaciones de programas por país y temática, y el uso de su página Web para dar a
conocer de manera rápida los resultados de la evaluación.
17
Figura 1-1-4 Sistema de Retroalimentación
Proceso de la Evaluación
Departamentos Operativos de la
JICA, Organizaciones Interesadas en Japón
Agencias de Implementación Organizaciones
Preocupadas por los países objetivo
Público de los Países Objetivo
Público / Contribuyentes
Japoneses
Proyecto Objetivo
Agencias de Asistencia de otros países donadores
Mejorar la Gestión de los Proyectos / Proceso
de Aprendizaje de la Organización
Asegurar la Rendición
de cuentas
18
5. Criterios para una Buena Evaluación Para brindar información adecuada que valga la pena utilizar es necesario satisfacer
criterios tales como 1) utilidad, 2) imparcialidad e independencia, 3) credibilidad y 4)
participación de los países socios; todos estos puntos son importantes para llevar a cabo
una ‘Buena Evaluación’.
(1) Utilidad Los resultados de las evaluaciones deben ser claros y útiles para que se puedan emplear
en la toma de decisiones de la organización. Es necesario establecer claramente los
objetivos de la evaluación, y para que la retroalimentación sea más efectiva, es
recomendable que la evaluación refleje las necesidades de los usuarios previstos. La
información relativa a los resultados de la evaluación se emplea en diversas etapas
durante el ciclo del proyecto y también se utiliza en la formulación de estrategias más
efectivas, así que es muy importante que esa información esté fácilmente disponible y que
la implementación de la evaluación esté lista justo a tiempo. (2) Imparcialidad e Independencia Es necesario realizar la evaluación imparcialmente y en un entorno neutral. Para asegurar
la credibilidad de la información de la evaluación es indispensable asegurar imparcialidad
para brindar un análisis estandarizado de los resultados de la evaluación. También es
importante recopilar una amplia variedad de información de las diversas partes interesadas,
así como de particulares y organizaciones interesadas. Además, se espera la garantía de
imparcialidad para evitar conflictos entre las partes interesadas. La imparcialidad e independencia de los evaluadores no es contraria a la distribución de
información o retroalimentación entre las partes interesadas. El grupo de estudio de
evaluación y los departamentos que participan en la implementación de los proyectos
tienen un papel independiente cada uno, aunque comparten el mismo objetivo para
mejorar la gestión de los proyectos. (3) Credibilidad Para obtener una información de evaluación verosímil, es esencial que los evaluadores
tengan conocimientos especializados de los campos objetivo y los esquemas (tipos de
proyectos) y que estén bien versados en el método de investigación científica. Un
evaluador con estas características es capaz de producir información verosímil que es el
resultado de un análisis objetivo de aquellos factores que indican éxito o fracaso. Además,
19
es importante compartir el proceso de evaluación en sí con las partes interesadas del
proyecto ya que así se asegura la transparencia. En el proceso, es importante incluir las
diferentes opiniones propuestas relativas a las lecciones aprendidas y las
recomendaciones en el informe, y dejarlas al veredicto del público. La transparencia es
indispensable para aumentar la credibilidad con el público y también tiene un efecto nada
pequeño en qué tanto de la información de la evaluación se utiliza.
(4) Participación de los Países Socios Los proyectos de cooperación de la JICA se realizan en colaboración con países socios y
junto con ellos, la JICA realiza evaluaciones consistentes de la etapa ex-ante a la etapa
final.
Por ello, tanto los donadores como los socios deben utilizar la información de la evaluación. Las lecciones aprendidas y las recomendaciones obtenidas a través de la experiencia de
la gestión de proyectos se utilizan como retroalimentación para la estrategia de desarrollo
de los países socios y conduce a una segunda evaluación del proyecto. Es necesario que
los evaluadores se comuniquen con las partes interesadas de los donadores y los
receptores durante cada etapa de la evaluación
20
Capítulo 2 Marcos de Trabajo y Pasos Básicos de la
Evaluación de Proyectos de la JICA Este capítulo consta de dos partes: 1) el marco de trabajo de la evaluación, y 2) los pasos principales del estudio de la evaluación. En la Parte II se incluye una explicación detallada de las metodologías de evaluación. ¡Consejos! - La evaluación es una herramienta práctica para gestionar de manera efectiva un
proyecto. - La evaluación tiene tres etapas: 1) valoración de los resultados del proyecto; 2) juicio
de valor con base en los Cinco Criterios de Evaluación; y 3) elaboración de recomendaciones, atención a las lecciones aprendidas y la retroalimentación.
- El estudio de evaluación consta básicamente de los siguientes seis pasos.
1) Confirmación del objetivo de la evaluación 2) Organización de la información sobre un proyecto objetivo 3) Elaboración de planes para la implementación de la evaluación 4) Recopilación y análisis de datos 5) Interpretación de datos y agrupación de resultados 6) Envío de Información sobre los resultados de la evaluación
21
1. La Evaluación como una Herramienta de Gestión La evaluación es una herramienta práctica para gestionar de manera efectiva un proyecto. La evaluación brinda a todas las partes interesadas en todos los niveles y etapas de la gestión de un proyecto información sobre el proceso. Dicha información incluye cuáles son las necesidades de una sociedad objetivo, si el proyecto se lleva a cabo según lo planeado, cómo afecta un proyecto a la sociedad objetivo o cuáles son los factores que afectan la gestión de un proyecto. La JICA realiza evaluaciones ex-ante, de seguimiento, intermedias, finales y ex-post a lo largo del ciclo operativo de un proyecto con el objeto de que su implementación sea efectiva y eficiente.
En la evaluación ex-ante, se examinan la idoneidad y relevancia de la estrategia del proyecto, así como su eficiencia y efectividad. Además, se desarrollan los indicadores adecuados, los valores objetivo y los medios de medición (medios de verificación). Una vez que empieza un proyecto, se realiza el seguimiento con aquellos indicadores y medidas y, de ser necesario, se realizan algunas modificaciones a las actividades y la estrategia. Así, la evaluación ex-ante brinda información indispensable para establecer un sistema de seguimiento durante la implementación del proyecto. Cuando se consideran esos indicadores y medidas, es necesario examinar detenidamente el costo de la recopilación de datos y su accesibilidad a través de un estudio de base.
La evaluación intermedia brinda la información necesaria para ajustar los planes originales al evaluar un proyecto desde un punto de vista integral. Los resultados de la evaluación intermedia se deben utilizar cabalmente para rediseñar un proyecto en marcha en su etapa intermedia. Algunos proyectos pueden enfrentar situaciones imprevistas o verse influidos por factores inesperados cuando las actividades ya hayan empezado. Es esencial modificar los planes o estrategias originales lo antes posible para evitar una situación en donde no se obtengan efectos al final del proyecto.
Las evaluaciones final y ex-post se llevan a cabo para brindar información útil sobre la gestión del proyecto objetivo, así como la planeación de otro proyecto o programa similar. Dichas evaluaciones examinan los efectos, impactos y sustentabilidad del proyecto. Como se mencionó anteriormente, la evaluación de la JICA es una herramienta utilizada para presentar información sobre si un proyecto está produciendo efectos o se está llevando a cabo adecuadamente desde el punto de vista de la rendición de cuentas y también brinda información útil a los departamentos relacionados de la JICA y a su administración para implementar proyectos y programas de manera más efectiva. Los departamentos de operación de proyectos deben buscar en la evaluación información crucial para la toma de decisiones y deben retroalimentar los resultados a la gestión del proyecto.
22
2. Marco de Trabajo de la Evaluación La evaluación es el acto de emitir un juicio de valor apoyado por evidencia. También, como se explica en la sección anterior, la retroalimentación adecuada de las recomendaciones y lecciones aprendidas es esencial para la operación futura. No es satisfactorio únicamente llegar a la conclusión que “se alcanzaron los objetivos” o calificar un proyecto de acuerdo con alguna escala al final de los estudios de evaluación.
La evaluación de la JICA tiene tres etapas: 1) valoración de los resultados de un proyecto; 2) emisión de un juicio de valor sobre el proyecto utilizando los Cinco Criterios de Evaluación; y 3) realizar recomendaciones, atención a las lecciones aprendidas y retroalimentarlas en la siguiente etapa. Esta sección explica los conceptos básicos de cada marco de trabajo. (1) Valoración de los Resultados de un Proyecto: Resultados, Proceso de Implementación y Relaciones Causales Hay tres tipos de valoración indispensables para analizar la situación real y los resultados del proyecto. La medición de los resultados sirve para ver qué se ha logrado en un proyecto y hasta qué punto (o para ver la validez de los planes y valores objetivo en el caso de la evaluación ex-ante). El examen del proceso de implementación es para analizar qué está sucediendo en el proceso para alcanzar su objetivo y cómo afecta al funcionamiento (o para ver si el proceso está bien planeado en el caso de la evaluación ex-ante). Por último, el examen de las relaciones causales es para determinar si los resultados del proyecto se deben a la intervención del mismo analizando las relaciones causales entre el proyecto y los efectos que haya (o para ver la validez del diseño del proyecto en el caso de la evaluación ex-ante). i) Medición de los Resultados (o Valoración de los Indicadores y Valores Objetivo en la Evaluación Ex-ante) La medición de los resultados tiene por objeto comprender lo que ha logrado el proyecto y verificar si se ha logrado lo esperado en la evaluación intermedia, final y ex-post. El nivel de logro de los objetivos (por ejemplo, el objetivo del proyecto y el objetivo general), los resultados y los insumos se miden al momento de la evaluación y estos resultados se comparan con lo que se ha planeado.
En la evaluación ex-ante, el evaluador examina la idoneidad del contenido de los planes. También es necesario ver la validez de los valores objetivo en comparación con los datos base. ii) Examen del Proceso de Implementación
23
El examen del proceso de implementación tiene el objetivo de investigar todo el proceso de actividades y lo que está sucediendo durante la implementación del proyecto. En la evaluación intermedia, el evaluador examina el dinamismo dentro de un proyecto concentrándose en aquellos aspectos tales como si las actividades se realizaron según lo planeado, si un proyecto se gestionó correctamente, si aquellos interesados en un proyecto se llevan bien entre ellos, o cómo perciben la situación los beneficiarios. También es necesario examinar cualquier factor en el proceso de implementación que haya podido influir en el logro de sus objetivos.
En la evaluación ex-ante se examina el contenido de los planes del proyecto poniendo atención al proceso de implementación. Este proceso incluye la importancia de las actividades para producir los resultados y objetivos planeados, la idoneidad del sistema de gestión y las relaciones con el beneficiario y las organizaciones relevantes.
Con frecuencia, la información sobre el proceso de implementación se convierte en evidencia de apoyo para la eficiencia y la efectividad y por lo tanto pude ser útil para el análisis de los factores que contribuyen o dificultan el éxito del proyecto. En el caso de la evaluación ex-ante, se puede utilizar la información para prevenir obstáculos y para rediseñar los planes originales o la planeación de un proyecto similar en el caso de la evaluación intermedia, final o ex-post. iii) Examen de las Relaciones Causales El examen de las relaciones causales tiene el propósito de investigar si el objetivo de un proyecto o el objetivo general se han alcanzado o se alcanzarán como resultado de la implementación de un proyecto. Un proyecto es simplemente una intervención para toda una sociedad y, por lo tanto, siempre hay influencias provocadas por otros factores. Aunque se observan algunos efectos tal como se esperaban, puede haber otros factores que influyan y que no estén relacionados con la implementación del proyecto. El evaluador debe descartar otras posibles explicaciones para poder determinar si el proyecto, y no otros factores, son la causa de los efectos.
Para poder examinar las relaciones causales entre los efectos y un proyecto se adoptarán diferentes enfoques a los utilizados para valorar los resultados. Esos enfoques incluyen el método de comparar un grupo objetivo (con un proyecto) con un grupo de control (sin un proyecto) y observar los cambios antes y después del proyecto. Es indispensable examinar los resultados del proyecto en esas tres formas. Para poder mejorar la operación de un proyecto, se deben identificar algunos factores que lo dificultan, sobre todo mediante un examen de los procesos de implementación y de las relaciones causales. Si se identifica algún problema en el proceso de implementación, es posible que la raíz del problema sea un problema de gestión. O, cuando no se ha construido correctamente el enlace causal, se podría atribuir la responsabilidad a la planeación en sí.
Además, el “seguimiento” juega un papel muy importante con respecto a la evaluación. El seguimiento es un trabajo de rutina y brinda información para volver a diseñar el plan de un proyecto si es necesario. La información del seguimiento contiene
24
bastantes datos sobre los “resultados” y el “proceso de implementación” y, por tanto, es una importante fuente de información para el estudio de evaluación. Si el seguimiento no se realiza adecuadamente, es posible que falten datos e información necesarios para la evaluación. <Cuadro 1: Falla de la Teoría y Falla de la Implementación> La “falla de la teoría” se refiere al encuentro de un problema en las relaciones causales en la fase de planeación, mientras que “falla de la implementación” se refiere a un problema en el proceso de implementación de un proyecto. La falla de la teoría implica que es teóricamente imposible causar efectos y alcanzar los objetivos del programa como se espera, incluso después de la implementación del proyecto. En ese caso, no se pueden observar efectos aún cuando se obtengan los resultados según lo planeado. La falla de la teoría puede indicar que había un problema en los planes originales del proyecto. Por otro lado, una falla de la implementación implica que hay una causa para la falla en la implementación del proyecto (insumos, actividades, resultados, condiciones internas, etc.) o en los sistemas de gestión. Es importante distinguir los dos tipos de fallas y analizarlas respectivamente. Esta distinción se basa en una definición de proyecto en donde los administradores (intereses administrativos) pueden controlar los insumos, las actividades y los resultados, y por tanto, se deben controlar totalmente, mientras que los cambios en un grupo objetivo a nivel de los objetivos del proyecto no se pueden controlar ya que están inevitablemente influenciados por factores externos.
25
Figura 1-2-1 Valoración de los Resultados - Tres Aspectos
<Valoración de Resultados > (Evaluación Ex-ante) - Examinar la idoneidad de los
indicadores y objetivos (Evaluación Intermedia, Final y Ex- post) - Medir hasta qué punto se
alcanzan los insumos, productos, objetivos del proyecto y metas generales
- Compararlos con los objetivos
<Examen de Relaciones Causales> (Evaluación Ex-ante) - Examinar si un proyecto está
diseñado para producir efectos para el beneficiario
(Evaluación Intermedia, Final y Ex-post)- Examinar si los efectos para el
beneficiario son resultado del proyecto
- Analizar los factores que contribuyen o dificultan
<Examen del Proceso de Implementación >(Evaluación Ex-ante) - Examinar la idoneidad del plan de
actividades y el sistema de gestión (Evaluación Intermedia, Final y Ex-post) - Examinar si las actividades se realizan
como se planeó originalmente y lo que está pasando en el proceso de la implementación del proyecto
- Analizar los factores que contribuyen o dificultan el proceso
26
(2) Juicio de Valor con Base en Cinco Criterios de Evaluación La evaluación se realiza con el propósito de realizar un juicio de valor con base en el logro de los resultados. La JICA adoptó Cinco Criterios de Evaluación para realizar una evaluación (principalmente evaluación de proyectos), que propuso en 1991 el Comité de Asistencia para el Desarrollo (DAC) en la Organización para la Cooperación Económica y el Desarrollo (OECD). Estos cinco criterios, como se muestra a continuación, se establecieron para utilizarse en la evaluación de las actividades de asistencia a partir de una amplia gama de criterios. (Consulte la sección 2-2-1 para una explicación más detallada) i) Pertinencia Un criterio para considerar la validez y necesidad de un proyecto en cuanto a si los efectos esperados del proyecto (o el objetivo del proyecto y el objetivo general) satisfacen las necesidades de los beneficiarios objetivo; si la intervención de un proyecto es adecuada como una solución a los problemas en cuestión; si el contenido de un proyecto es consistente con las políticas; si las estrategias y enfoques del proyecto son relevantes, y si se justifica implementar el proyecto con fondos públicos de la AOD. ii) Efectividad Un criterio para considerar si la implementación de un proyecto a beneficiado (o beneficiará) a los beneficiarios a quienes está dirigido o a la sociedad objetivo. iii) Eficiencia Un criterio para considerar cómo se convierten los recursos económicos/insumos en resultados. Se concentra principalmente en la relación entre el costo del proyecto y los efectos. iv) Impacto Un criterio para considerar los efectos del proyecto con atención a los efectos de largo plazo, incluyendo los directos o indirectos, positivos o negativos, intencionales o involuntarios. v) Sustentabilidad Un criterio para considerar si los efectos producidos continúan una vez que se termina la asistencia.
Se utilizan los Cinco Criterios de Evaluación para evaluar desde un punto de vista integral el valor de llevar a cabo un proyecto. El evaluador examina los efectos de un proyecto, así como la idoneidad del volumen de recursos para producir los efectos (es decir, la eficiencia). El valor de realizar un proyecto podría disminuir si cuesta más de lo necesario aunque haya producido efectos enormes, o si los efectos son limitados a pesar
27
de la gran escala de insumos utilizada. También, para juzgar la validez de una intervención de asistencia, se examina la importancia de las estrategias, así como la sustentabilidad de los efectos después que la asistencia termina. Por tanto, utilizar los cinco criterios para evaluar un proyecto permite ver su valor desde puntos de vista diferentes y, como resultado, se puede especificar diversos factores que influyen en el éxito o fracaso del proyecto. Cuando se evalúan proyectos, ya sea para valorar los resultados o predecir el futuro, las perspectivas variarán dependiendo del momento en que se encuentre el ciclo de operación cuando se realiza el estudio de evaluación El enfoque de cada criterio también variará entre los proyectos. Sin embargo, la JICA decidió básicamente cubrir todos los cinco criterios en cualquier tipo de estudio de evaluación. (3) Hacer Recomendaciones, Aprender Lecciones y Dar Retroalimentación Los resultados de una evaluación tienen valor únicamente cuando se utilizan. La JICA considera la evaluación como una herramienta práctica de gestión y por ello es necesario hacer recomendaciones específicas y tomar lecciones a partir de los resultados de la evaluación. Las recomendaciones y lecciones aprendidas se deben enviar a los departamentos relevantes de la JICA y a las organizaciones relacionadas para que se puedan utilizar para el mejoramiento del proyecto objetivo o de las operaciones en el futuro.
Cuando se hacen dichas recomendaciones es indispensable especificar los factores que influyen para contribuir o dificultar un proyecto y para comprender lo que se ha aprendido. Por ejemplo, cuando se descubre que el proyecto no es efectivo, es necesario identificar los factores que lo dificultan examinando tanto el proceso de implementación como las relaciones causales, y con base en dichos factores, se deben proponer recomendaciones y lecciones aprendidas. Otro ejemplo sería, en caso de encontrar un problema en la distribución del personal en la agencia de implementación, se necesitaría hacer algunas recomendaciones para cambiar la situación. En caso que los resultados de la evaluación nos digan que es necesario otro grupo de resultados para obtener los efectos esperados, se deberán proponer recomendaciones para volver a diseñar los resultados.
En suma, la evaluación tiene tres etapas: 1) valoración de los resultados; 2) emisión de un juicio de valor sobre el proyecto; y 3) elaboración de recomendaciones y toma de lecciones aprendidas mediante el análisis de los factores que contribuyen o dificultan el proceso, y la retroalimentación. No es posible realizar una evaluación útil sin cualquiera de estas tres fases.
28
3. Pasos Principales de la Evaluación de Proyectos de la JICA Tal como se explica en la sección anterior, la Evaluación de Proyectos de la JICA incluye actividades tales como la valoración de los resultados, el juicio de valor con base en los Cinco Criterios de Evaluación y la retroalimentación de las recomendaciones y las lecciones aprendidas a los tomadores de decisiones potenciales. Para poder implementar estas actividades efectivamente, se toman los pasos que se muestran a continuación. Un estudio de evaluación consta de tres pasos principales: planeación, realización e información de los resultados.
La tabla 1-2-1 resume las actividades principales de cada paso, así como algunos puntos que se debe considerar. En las páginas que la tabla menciona se encuentra una explicación más detallada.
29
Pasos del Estudio de Evaluación: - ¿Cuál es el
objetivo de la evaluación?
- ¿Quiénes son los usuarios potenciales de los resultados?
- Comprender el
contenido de los planes del proyecto - Comprender la situación actual del proyecto
- ¿Qué es la
metodología de la evaluación?
- Tomar en consideración las preguntas de la evaluación, las bases para el juicio, los datos necesarios y los métodos de recopilación de datos
- Realizar el
estudio de evaluación en los sitios el proyecto
- Recopilar datos en Japón, de ser necesario
- Interpretar datos
y emitir un juicio de valor
(1) Confirmar el objetivo de la evaluación
(2) Organizar la información del proyecto objetivo
(3) Formular un plan de trabajo para la evaluación
(4) Recopilar datos
(5) Analizar e interpretar datos
Planeación de la Evaluación
Reali- zación
30
- Hacer recomendaciones y tomar lecciones aprendidas
- Reunir los
resultados de la evaluación
- Enviarlos a los usuarios potenciales
Retroali- mentación
Información de los resultados
(6) Informar sobre los resultados de la evaluación
31
Tabla 1-2-1 Actividades principales de cada paso durante la evaluación Pasos de la
Evaluación Qué hacer Puntos a considerar
1. Confirmar el objetivo de la evaluación
Confirmar el objetivo de la evaluación. Confirmar quiénes son los usuarios potenciales.
- Observe que el enfoque de la evaluación difiere dependiendo del tipo de evaluación
2. Organización de la información sobre un proyecto objetivo
Confirmar el contenido de los planes y la situación actual.
Asegurarse que la situación real se refleja en el Marco Lógico/PDM. Organizar la información de seguimiento incluyendo los resultados y el proceso de implementación. Además, organizar la información del proyecto revisando los materiales relacionados y entrevistando a los interesados.
- No se debe crear un nuevo Marco Lógico/PDM sólo para que la evaluación sea más fácil.
- En caso que no se cuente con información del seguimiento, realizar las encuestas relacionadas durante la evaluación.
Plan de la Evaluación
3. Realizar un Plan de Trabajo de la Evaluación
Desarrollar preguntas para la evaluación tomando en consideración aquello que se debe investigar mediante el estudio de la evaluación.
Las preguntas de la evaluación se deben formular de acuerdo con cada uno de los cinco criterios.
- Formular las preguntas para la evaluación que se relacionen con los puntos de preocupación de las partes interesadas, y que brinden información útil para mejorar un proyecto objetivo.
- Las perspectivas y enfoques de la evaluación son diferentes dependiendo de los propósitos de la evaluación y del tipo y puntos a considerar del proyecto objetivo.
32
Decidir bases para el juicio: Comparar criterios o valores objetivo/diseño de la evaluación.
- En caso que los valores objetivo o los medios de verificación descritos en el Marco Lógico/PDM no sean adecuados, tomar en consideración nuevos criterios o medios.
- Al examinar la efectividad o impacto, adoptar el diseño de evaluación de ‘antes y después’ o el método de diseño semi-experimental.
Decidir cuáles son los datos necesarios y las fuentes de datos.
- Se deben tomar en cuenta los datos cuantitativos y cualitativos al considerar los datos necesarios.
- Al identificar las fuentes de datos, poner mucha atención en las diferencias de género, relativas a la etnia y de clases sociales.
Seleccionar los métodos de recopilación de datos: encuestas con cuestionarios, entrevistas, revisión de literatura, etc.
- Hacer un esfuerzo por aumentar la credibilidad de los datos combinando varios métodos de recopilación de datos.
Crear una Tabla de Evaluación.
- Utilizar con flexibilidad la Tabla de Evaluación añadiendo los puntos/temas necesarios, ya que se trata de una herramienta práctica para discutir con las partes interesadas el plan de trabajo de la evaluación.
Implem
en-tación
4. Recopilación de Datos
Recopilar los datos necesarios para la evaluación llevando a cabo estudios en un país socio.
- El evaluador debe tener experiencia en los métodos de encuesta - es decir, para entrevistar, crear y recopilar cuestionarios, etc.
33
5. Análisis e Interpretación de Datos
Analizar los datos recopilados aplicando métodos de análisis cuantitativos y cualitativos.
Evaluar un proyecto (o emitir juicios de valor) utilizando los Cinco Criterios de Evaluación con base en el análisis de datos e identificando los factores que contribuyen o dificultan el proceso.
Llegar a conclusiones con base en los resultados de la evaluación de los Cinco Criterios de Evaluación.
Hacer recomendaciones y tomar lecciones aprendidas.
- Analizar los factores que han influido en un proyecto, así como los factores que han contribuido a él o lo han dificultado.
- Describir las razones y especificar las bases de los resultados de la evaluación.
- Las recomendaciones y las lecciones aprendidas deben ser específicas y prácticas con evidencia que las respalde.
Información
6. Envío de Información sobre los Resultados de la Evaluación
Reunir los resultados de la evaluación en la “Tabla de Evaluación Ex-ante” o en la “Tabla de Resumen de los Resultados de la Evaluación”.
Escribir un “Informe de la Evaluación” durante y después de la evaluación intermedia.
- Hacer el esfuerzo de enviar los resultados de la evaluación a los usuarios potenciales lo más simple y claramente que sea posible.
- Hacer un esfuerzo por preparar también un resumen en inglés.
34
Parte II Métodos de Evaluación
de la JICA
35
Capítulo 1 Confirmación de los Objetivos de la Evaluación y Organización de la Información sobre el Proyecto Seleccionado Este capítulo explica el primer paso de la planeación de la evaluación, es decir la
confirmación del propósito de la evaluación y cómo comprender el panorama completo
del proyecto objetivo.
¡Consejos! - Los propósitos de la evaluación varían entre la evaluación ex-ante, intermedia, final y
ex-post. Como primer paso de la planeación de la evaluación, es importante
confirmar los propósitos de la evaluación y compartir la información entre las partes
interesadas sobre cómo y quién utilizará los resultados de dicha evaluación.
- La información que se debe obtener con anticipación incluye el contenido del plan de
un proyecto y el nivel de realización del proyecto.
- Trate de comprender el contenido del proyecto y su estructura (correlación de las relaciones causales) utilizando el Marco Lógico/PDM. El concepto del modelo lógico
que forma la base teórica del Marco Lógico/PDM podría ser útil.
- En caso que la situación real del proyecto no se refleje en su Marco Lógico/PDM, será necesario realizar algunos ajustes. Sin embargo, esto no significa que se cambie el
Marco Lógico/PDM para hacer el estudio de evaluación más fácil.
- Examine la idoneidad de los indicadores y medios de verificación en el Marco
Lógico/PDM y, de ser necesario, considere el uso de indicadores y medios nuevos.
- Los Marcos lógicos/PDM de varios proyectos se encuentran bajo el mismo programa
o meta sectorial, por lo que se deben tomar en consideración los planes de desarrollo
o cuestiones de desarrollo de los países socios cuando se lleve a cabo el estudio de
evaluación.
- Al examinar los resultados y el proceso de implementación, es necesario utilizar al máximo la información del seguimiento. En caso que haya falta de información en los
documentos de seguimiento existentes, lleve a cabo encuestas adicionales.
36
1. Confirmación del Objetivo de la Evaluación Cuando se planea la evaluación, antes que nada, el evaluador y las partes interesadas
relacionadas deben confirmar el propósito de la evaluación. Existen varios métodos de
evaluación dependiendo del propósito. Los resultados de la evaluación podrían terminar
siendo inútiles y sin objeto, a menos que las personas interesadas compartan su
propósito y uso. Por lo tanto, es muy importante confirmar para qué y quién va a utilizar
los resultados de la evaluación y planear la evaluación para satisfacer su propósito. El propósito de la evaluación difiere dependiendo de la etapa en que se encuentra
el ciclo del proyecto al momento de realizarla, como se muestra a continuación.
Cuatro tipos de evaluación a nivel proyecto: Evaluación Ex-ante: Evaluación Intermedia: Evaluación Final: Evaluación Ex-post:
Examina la validez del contenido de los planes del proyecto. Los resultados de la evaluación ex-ante se utilizan para obtener la aprobación final para la implementación del proyecto. Examina si un proyecto está produciendo efectos adecuadamente a la mitad del proceso. Los resultados de la evaluación intermedia se utilizan para mejorar la estrategia del proyecto, así como para aprender lecciones para proyectos similares. Examina si un proyecto está produciendo efectos adecuadamente al final del período del proyecto. Los resultados de la evaluación final se utilizan para decidir si el proyecto se debe terminar o si se le debe dar seguimiento. Las lecciones que se toman de los resultados también se aprovechan como “lecciones aprendidas” para proyectos similares. Examina si los efectos e impacto esperados se producen a partir de un proyecto en cierto período después de su terminación. Los resultados de la evaluación ex-post se utilizan para hacer recomendaciones a la agencia de implementación en el país socio, proponer lecciones aprendidas con el afán de implementar de manera efectiva y eficiente proyectos similares en el futuro y hacer planes en el macro-nivel (por ejemplo, en los programas por país de la JICA).
-
Otro punto importante en el proceso de confirmación del propósito de la evaluación
es que aquellos interesados en la evaluación compartan el mismo propósito. “Aquellos
interesados” se refiere a las partes interesadas, incluyendo los departamentos de la JICA
a cargo del proyecto, los ministerios relevantes y las agencias de implementación del país
socio y el beneficiario. La gente generalmente tiende a alejarse de la “evaluación” ya que
sienten que un tercero ajeno los está auditando. Por lo tanto, es indispensable lograr que
la gente comprenda su propósito y ganar su cooperación en las actividades de evaluación
para poder realizarla efectivamente. También es necesario especificar quiénes serán los usuarios de los resultados de la
evaluación. Como la evaluación de proyectos de la JICA se realiza internamente, los
37
departamentos de operación de proyectos y las agencias de implementación en el país
socio son generalmente los primeros usuarios de los resultados de la evaluación. En
algunos proyectos, la gente de la localidad - ya sea como beneficiarios o como
contrapartes de las agencias de implementación - son el objetivo directo de la
retroalimentación. Podría ser una buena idea convocar una ocasión con todos los
interesados para discutir el tipo de estudio de evaluación necesario para mejorar la
gestión del proyecto.
38
2. Comprensión del Panorama General del Proyecto Seleccionado El siguiente paso después de confirmar los propósitos de la evaluación es comprender el
panorama completo de un proyecto como objetivo de la evaluación. Cuando el evaluador
sabe lo que ya está sucediendo en el proyecto, puede decidir más fácilmente cuáles
preguntas de la evaluación son importantes para realizar el estudio y el tipo de datos que
se necesita recopilar. Existen diferencias en los tipos y la cantidad de información que el
evaluador puede obtener cuando efectúa la evaluación, dependiendo del momento en
que se realiza el estudio y de la disponibilidad de los documentos relacionados,
incluyendo los resultados del seguimiento. Por lo general, se debe obtener la siguiente
información para esclarecer el panorama general del proyecto.
Tipos de Información Acerca de un Proyecto Objetivo Acerca del contenido de los planes:
- ¿Cuáles son los antecedentes de implementación del proyecto? - ¿Con qué puntos de desarrollo contribuye el proyecto? - ¿Qué tan efectivas son las estrategias del proyecto para solucionar los problemas de desarrollo? - ¿Cuál es el componente principal del proyecto? - ¿Cuál es el principal grupo objetivo? - ¿Cuáles son los efectos que el proyecto intenta producir? - ¿Cómo están estructuradas las relaciones causales entre la implementación del proyecto y los efectos? - ¿Cuáles son los criterios de logro o las bases para un juicio? - ¿Cuales son los riesgos y factores externos? - ¿Cuáles son los insumos y cuánto son los costos, etc.?
Acerca del funcionamiento del proyecto: - ¿Qué está sucediendo en el proceso de implementación del proyecto? - ¿Qué resultados se producen en el proyecto, etc.?
i) Contenido de los Planes La evaluación compara la situación actual de un proyecto con sus planes originales. Por
lo tanto, primero es necesario recopilar información sobre el contenido de los planes.
Básicamente hay dos partes: 1) los elementos del proyecto: el propósito del proyecto, las
actividades y los insumos y 2) cómo está estructurado el proyecto (la lógica de las
relaciones causales). Los planes de un proyecto se hacen con base en la hipótesis de
que al implementar dicho proyecto se van a producir los efectos esperados. Podemos
confirmar cómo se hicieron los planes si tomamos en consideración sus antecedentes, la
relación con los problemas de desarrollo y la relevancia de las estrategias del proyecto. Se puede utilizar el marco lógico/PDM para entender el contenido de los planes. En
la siguiente sección, “el modelo lógico”, se explicarán las bases teóricas del marco
lógico/PDM concentrándose en cómo organizar la información acerca del proyecto
objetivo a partir de las perspectivas de la evaluación.
39
ii) Acerca de los Resultados del Proyecto Otra clase de información que se debe obtener es el resultado de un proyecto al
momento de la evaluación. En términos de la evaluación intermedia, es importante
conocer los insumos y resultados reales, así como la situación actual del proceso de
implementación. En cuanto a la evaluación final, además de ese tipo de información
también se debe obtener el nivel de éxito del propósito del proyecto. Por lo general,
podemos obtener información acerca de esos puntos en los resultados del seguimiento.
Sin embargo, si es necesario, se pueden llevar a cabo encuestas adicionales durante la
evaluación. iii) Fuentes principales de información
A continuación se muestran las fuentes principales de información para conocer el
panorama general de un proyecto.
Fuentes Principales de Información para Comprender el Panorama
General de un Proyecto: Para la evaluación ex-ante:
- Planes de desarrollo de un país socio en un sector/sub-sector
- Programas por país de la JICA
- Literatura relacionada sobre el sector/sub-sector
- Información sobre proyectos vigentes en el sector/sub-sector
(también en relación con otros donadores)
- Datos base
- Informes de evaluación de proyectos similares (marco lógico/PDM, lecciones
aprendidas, etc.)
- Borrador del marco lógico/PDM, etc.
Para las evaluaciones intermedia, final y ex-post:
- Tablas de resumen de las evaluaciones ex-ante, documentos del proyecto
- Versiones diferentes del marco lógico/PDM
- Informes de seguimiento
- Diversos informes y memorándum del proyecto
- Funcionarios encargados de la JICA, expertos y miembros del comité de apoyo
en Japón
- Ministerios relevantes de un país socio, agencias de implementación (si la oficina
de campo realiza la evaluación), etc.
40
Figura 2-1-1 Descripción General Conceptual de la Información sobre el Proyecto Objetivo
Contenido de los Planes del Proyecto
Nivel de Resultados del Proyecto
Relaciones causales en el proyecto
(cómo se producirán los efectos esperados al
implementar el proyecto)
Marco de trabajo del proyecto
(antecedentes, objetivos, resultados, actividades e
insumos del proyecto)
Situación al momento de la evaluación
(resultados, proceso de la implementación, etc.
41
3. Uso del Marco de Trabajo Lógico (1) Situación real del proyecto y del marco lógico El marco lógico es una herramienta útil para comprender cuáles son los objetivos,
actividades e insumos de un proyecto, cómo se seleccionan los valores objetivo y las
mediciones, y cuáles son los riesgos de un proyecto.1 El marco lógico se ha utilizado para
la planeación y gestión de proyectos. El marco lógico puede brindarle al evaluador
información sobre la situación real y la lógica o teoría de los proyectos. Se puede obtener
la siguiente información a partir del marco lógico.
Información que se obtiene mediante el marco lógico: - Efectos y resultados esperados en el proyecto
- Valores objetivo de las metas como base para un juicio
- Medios de verificación (útiles para considerar los métodos de encuesta)
- Algunos factores externos y riesgos que influyen en el funcionamiento del proyecto
- Insumos/recursos
- Disponibilidad de la información de seguimiento, etc.
Sin embargo, en la realidad el contenido del marco lógico puede no ser muy claro y
lógico o, en algunos casos, no se han esclarecido los valores objetivo. En ese caso, el
evaluador debe conocer cuál es la situación real de un proyecto a partir de los
documentos relevantes o de entrevistar a las personas interesadas. Además, la
oportunidad de tener una discusión con las partes interesadas le puede ayudar a
considerar qué es lo que se debe investigar para medir los efectos del proyecto y cuáles
son los criterios que se deben utilizar para juzgar el nivel de éxito de los objetivos.
(2) La Teoría del Modelo Lógico
i) ¿Qué es el ‘Modelo Lógico’? El “modelo lógico” es una de las teorías de evaluación de proyectos y constituye la base
teórica del marco lógico.
1 El marco de trabajo lógico (logframe) es ‘una herramienta de gestión para mejorar el desarrollo del plan de intervención’ (DAC), y la PDM (Matriz de Diseño del Proyecto) de la JICA es un tipo de marco lógico. Este manual utiliza la terminología del marco lógico más ampliamente aceptada en el ámbito internacional.
42
El modelo lógico es una teoría para especificar las relaciones causales en un
proyecto. Todos los proyectos asumen la siguiente hipótesis: “si se implementan las
actividades de A, entonces se producirán los efectos de B”. Por ejemplo, un proyecto de
riego asume la hipótesis de que “si se construyen unas instalaciones de riego, entonces
se elevará la productividad del arroz”. Otra lógica que se asume en el proyecto como
relación de causa y efecto es “si aumenta la productividad del arroz, entonces mejorará el
nivel de ingreso de los agricultores". Si dichas relaciones de “causa-efecto” no funcionan
correctamente, el proyecto podría fallar. En la evaluación necesitamos identificar cuál es
la hipótesis que sustenta al proyecto y cuáles son las relaciones causales que lo
estructuran, y examinar si funcionan, si la hipótesis es correcta y si se están produciendo
los efectos esperados. El modelo que aplica la teoría de especificar la correlación causal
en un proyecto se conoce como el “modelo lógico”. La figura 2-1-2 muestra su forma
conceptual.
ii) Resultados y Gestión del Proyecto Tal como muestra la figura 2-1-2, otro aspecto importante de la evaluación basada en el
modelo lógico es que el proyecto se describe en dos niveles, es decir, a nivel de
resultados y a nivel de gestión del proyecto. Este concepto es útil cuando se examinan
dónde se encuentran los puntos del proyecto y quién es responsable de dichos puntos.
Por ejemplo, si no se están produciendo los efectos esperados, podemos examinar si hay
algún problema en el ámbito de la gestión o de la especificación de las relaciones
causales “si..., entonces”. Este tipo de análisis es muy importante para hacer
recomendaciones y obtener lecciones aprendidas, ya que podemos especificar a las
personas responsables que se deben tomar en cuenta. El enfoque de evaluación que
utiliza el marco lógico es consistente con el marco de trabajo de la evaluación de la JICA
para valorar los resultados ya que se concentra en tres aspectos: los resultados, el
proceso de implementación y las relaciones causales.
El modelo lógico... El modelo lógico representa la teoría de evaluación de la ‘teoría de un programa’. Algunas veces se describen en términos tales como la ‘lógica de los resultados de un programa’ y la ‘teoría de la acción’, dependiendo de los investigadores. La evaluación de la teoría de un programa se lleva a cabo cuando se confirma o asume un patrón de causa y efecto en los programas y proyectos.
Al utilizar un modelo lógico, se esclarecen las relaciones causales del proyecto objetivo y eso ayuda a los evaluadores a investigar si los insumos del proyecto realmente están produciendo los efectos como se supuso o si se están observando impactos como se esperaba, y/o si existe alguna falla de teoría en el proyecto.
43
iii) Modelo Lógico y Marco Lógico En la fase de planeación la JICA introduce un marco lógico que abarca la teoría del
modelo lógico. Por lo tanto, no es necesario crear un modelo lógico nuevo al momento de
la evaluación. Sin embargo, lo importante es utilizar el marco lógico de manera adecuada
en la evaluación y al mismo tiempo comprender cabalmente la teoría del modelo lógico. Por lo general hay varios niveles de efectos finales esperados por intervención del
proyecto (consulte la figura 2-1-3). Pero el marco lógico tiene sólo dos niveles: 1) la meta
general y 2) el propósito del proyecto (consulte la figura 2-1-4). El propósito del proyecto
se describe como beneficios directos o a corto plazo para el grupo o sociedad objetivo,
mientras que la meta general son los efectos o cambios a lo largo de un plazo mayor.
Basándonos en el marco lógico existente podemos entender la teoría de un proyecto
identificando las relaciones causales así como los resultados y el impacto esperados del
proyecto. Si en ese proceso surgen algunas preguntas sobre el contenido del proyecto o
las relaciones causales, es necesario reflejarlas en los planes de trabajo de evaluación
para examinarlas con más detenimiento.
Definición de Resultado y Productos Resultado: Los efectos a corto, mediano y largo plazo, posibles o alcanzados, de los beneficios de una intervención para el desarrollo. Con frecuencia, los resultados a largo plazo se conocen como ‘impacto’. Productos: Los productos, bienes de capital y servicios derivados de una intervención para el desarrollo. Los beneficios también pueden incluir cambios derivados de la intervención que son relevantes para alcanzar los resultados. Fuente Principal: ‘Glosario de los Principales Términos sobre Evaluación y Gestión basada en Resutados’ de la OCDE, 2002 (OECD ‘Glossary of Key Terms in Evaluation and Results Based Management’ 2002)
44
Figura 2-1-2 El Modelo Lógico
Resultados directos
Beneficios
Insumos
Actividades
Recursos humanos, financieros y físicos
Productos, bienes de capital y servicios
como consecuencia de un proyecto
Cambios más directos en el beneficiario y/o la sociedad como consecuencia de un
proyecto
Cambios en el beneficiario y/o la sociedad como consecuencia de un
proyecto de largo plazo
Gestión
del Proyecto
R
esultados Resultados
finales
Cambios intermedios en el beneficiario y/o la
sociedad como consecuencia de un
proyecto
Resultados intermedios
45
Figura 2-1-3 Un Ejemplo del Modelo Lógico: “El Proyecto de Mejoramiento de la Salud Materno Infantil”
Se construye el Centro
de Salud Materno-
Infantil (MCHC)
Se mejora la
capacitación de los
trabajadores de la salud
Se brinda a la gente
educación sobre salud,
nutrición e higiene
Gestión del Proyecto
actividades
actividades
actividades
Insumos
Insumos
Insumos
Los trabajadores de la salud adquieren conocimientos
Los trabajadores de la salud adquieren
mejores habilidades
La gente adquiere más
conocimientos
Los varones adquieren un
mejor conocimiento de la salud
Las madres obtienen
mejores habilidades para
Se reduce la tasa de mortalidad materna
Se reconsideran el ambiente
dietético y de higiene para su
Las madres pueden utilizar
el MCHC
Se brindan servicios adecuados en el
MCHC
Se reduce la tasa de
infección infantil
Aumenta la proporción de
partos normales
Se mejora el nivel
de nutrición infantil
Se reduce la tasa de mortalidad infantil
Resul- tado
Interme- dio
Resultado Final
Se mejora el nivel de
nutrición materna
Se mejora el
espaciamiento
Resultado Directo
46
Figura 2-1-4 Un Ejemplo del Marco lógico de trabajo de la JICA (Resumen Narrativo)
“El Proyecto de Mejoramiento de la Salud Materno-Infantil”
Objetivo General
Objetivo del Proyecto Resultados
Se ha reducido la tasa de mortalidad infantil
Se ha reducido la tasa de mortalidad materna
Las madres y los niños pueden recibir servicios médicos apropiados (El MCHC
(Centro de Salud Materno-Infantil) funciona mejor y la gente puede tener
acceso al centro)
Se construye el
Centro de Salud
Materno-Infantil
Se mejora la capacita-
ción de los trabajadores
de atención a la salud
Se brinda a la gente educación sobre salud, nutrición e
higiene
Gestión del
proyecto
actividades
actividades
actividades
Insumos
Insumos
Insumos
Resultados
47
(3) Revisión del Marco Lógico: Para Ver si Refleja la Situación Real de un Proyecto En la JICA, se formula un marco lógico al momento de la planeación de un proyecto,
aplicando las relaciones causales del modelo lógico. Durante y después de la evaluación
intermedia es posible relacionar los contenidos del marco lógico con los planes de trabajo
de evaluación hasta el punto donde el marco lógico describa la situación real de un
proyecto (en caso que existan varias versiones del marco lógico, se aplica la más
reciente). Sin embargo, en realidad existen casos donde el marco lógico no está
formulado clara o teóricamente y, por lo tanto, no refleja la situación real de un proyecto.
Algunas veces no solo las relaciones causales no están bien identificadas, sino también
los indicadores, objetivos, medios de verificación y suposiciones importantes. En ese
caso, el evaluador debe ajustar el marco lógico para que refleje lo que está sucediendo
en el sitio del proyecto lo más acertadamente posible utilizando otra información del
proyecto. Por ejemplo, en el caso que lo que está escrito como propósito del proyecto se
pueda considerar como un beneficio únicamente, el evaluador - trabajando en consenso
con las partes interesadas - puede ajustar el propósito del proyecto examinando los
materiales relacionados o entrevistando a aquellos interesados para descubrir cuáles son
los efectos que se esperan originalmente. Con base en los resultados del monitoreo, el
evaluador también puede ajustar los indicadores de manera más adecuada. La tarea de ajustar el marco lógico no significa que el evaluador puede formular un
“marco lógico supuesto” ni establecer los “valores objetivo para poder evaluarlos
fácilmente”. El objetivo de la evaluación es el contenido planeado y los resultados del
proyecto. Por lo tanto, la intención de revisar el marco lógico al momento de planear la
evaluación es ajustar su contenido de acuerdo con lo que está sucediendo realmente en
el sitio. Generalmente es difícil construir relaciones causales en el marco lógico cuando el
contenido planeado o los objetivos no son claros incluso después de haber revisado otra
información. Como resultado, tal vez no podamos evaluar el proyecto en un sentido real.2
En ese caso, podemos formular la pregunta de evaluación sobre el propósito supuesto
del proyecto y, una vez que se identifica el propósito, medir el grado de realización. En caso de la evaluación ex-ante, sus resultados se reflejan en la formación y/o
revisión del marco lógico y en el establecimiento de una base para un seguimiento fluido
y las evaluaciones posteriores.
La figura 2-1-5 muestra los pasos para la revisión del marco lógico al momento de la
planeación de la evaluación.
2 Sin embargo, en la JICA no ocurriría ese caso ya que actualmente se realiza la evaluación ex-ante. En caso que llegara a suceder en la evaluación intermedia o en la final, sería una cuestión de la calidad de la evaluación ex-ante en sí o del seguimiento.
48
Figura 2-1-5 Uso del Marco Lógico en la Evaluación
No
No Sí
Se puede utilizar el marco
lógico para realizar planes de
trabajo de evaluación
Modificar el marco lógico de acuerdo con la situación real mediante el uso de información de otras fuentes
¿El marco lógico modificado está estructurado lógicamente? ¿El contenido está especificado
Sí
Se necesitan algunas ideas
cuando se realizan los planes de trabajo de
evaluación*
El marco lógico se
puede utilizar para
realizar los planes
de trabajo de
evaluación
¿El marco lógico refleja la situación
real de un proyecto?
¿Está estructurado de manera lógica?
* <Ejemplo> Cuando el propósito del proyecto no es claro, existen varias posibles medidas que se pueden adoptar, como se muestra a continuación: - Formular una pregunta de evaluación sobre cuál
debiera ser el propósito del proyecto. - Reflejar el propósito compartido implícitamente
entre las partes interesadas. - Establecer como objetivo del proyecto aquellos
efectos supuestos que se podrían producir a través de las actividades.
- Desistir de evaluar “la efectividad” haciendo la comparación con los planes originales.
- (En cualquier caso) investigar por qué el propósito no es claro.
Cuando los indicadores o los valores objetivo no son adecuados para los objetivos/productos: - Seleccionar nuevos indicadores
discutiéndolos con los interesados y recopilar los datos adecuados en el estudio de evaluación.
- Seleccionar hitos relacionados en lugar de utilizar las metas específicas y utilizarlos como base para el juicio (por ejemplo, el promedio a nivel nacional, los criterios de la OMS, un caso exitoso de un proyecto similar). (Refiérase a la siguiente página para obtener más detalles.)
49
(4) Idoneidad de los Indicadores y Medios de Verificación en el Marco lógico
En el marco lógico hay una columna de “indicadores” para medir los objetivos. En la
columna, la medición de productos, el propósito del proyecto y la meta general se
establecen de manera específica con los objetivos. Además, la siguiente columna a la
derecha, “medios de verificación” muestra los métodos de recopilación de datos para los
indicadores. Esa información es indispensable para dar seguimiento a un proyecto.
También se puede utilizar para confirmar los resultados del proyecto y para determinar
los datos que se necesitan y los métodos de recopilación de datos en un estudio de
evaluación. El evaluador necesita examinar si el propósito del proyecto está descrito con los
indicadores y métodos de medición adecuados. Si los indicadores no se establecen
adecuadamente, la información sobre los resultados del proyecto que envía la agencia de
implementación podría no ser confiable. En ese caso, los evaluadores pueden realizar
encuestas adicionales para obtener datos sobre los resultados.
i) Indicadores y Métodos de Medición Un indicador es un concepto para entender un fenómeno. Por ejemplo, el fenómeno de la
“gente se enriquece” se puede entender a través del indicador de “ingresos”. O se puede
medir aún mejor si se cuenta “el número de ganado” en las áreas rurales. Otro ejemplo
sería, el fenómeno de “las habilidades académicas de los niños se mejoran” se puede
probar mediante el indicador de “aumento del conocimiento”. Por lo general hay varias maneras de medir un fenómeno específico. Por ejemplo,
los ingresos se pueden medir si se observa el cambio en el ingreso promedio anual de la
gente o en su ingreso total. El aumento de conocimientos de los niños se puede medir ya
sea por los resultados promedio de la prueba a nivel nacional, la tasa promedio de la
prueba de composición o el resultado promedio del examen en cada clase. Está de sobra decir que en la fase de planeación debemos considerar
completamente cuáles son los métodos de medición más adecuados. En una evaluación
es necesario examinar si lo indicadores y métodos de medición descritos en el marco
lógico coinciden con el contenido del proyecto o la situación de la sociedad objetivo, así
como la aplicabilidad del seguimiento y la evaluación. Por ejemplo, hay muchas maneras
de medir los efectos de la capacitación, como el número de personas que recibieron la
capacitación, su grado de satisfacción, el incremento de sus conocimientos, el nivel de
habilidades adquirido y el grado de su utilización (contribución al trabajo, la tasa de
empleo, etc.), por mencionar algunas. También, para medir dichos efectos, podría ser
necesario presentar una prueba antes y después de la capacitación para poder observar
el cambio en sus conocimientos. A continuación se describen los criterios principales para revisar la idoneidad de los
indicadores y métodos de medición.
50
Criterios para unos Indicadores y Métodos de Medición Buenos
“Indicadores” Directos/Válidos: Si los indicadores explican directamente un fenómeno. Los indicadores más directos explican el objetivo con mayor claridad y por lo tanto facilitan la medición del nivel de rendimiento.
Operativos: Si los indicadores están definidos para ser lo suficientemente operativos. Por ejemplo, el indicador del “número de técnicos de nivel medio que han alcanzado el éxito” no se puede medir a menos que el significado de “haber alcanzado el éxito” sea lo suficientemente claro (por ejemplo, se puede definir como “aquellos que obtuvieron un empleo dentro de un año a partir de haber recibido la capacitación profesional” o “aquellos que obtuvieron un aumento de salario”).
Adecuados: Si los indicadores representan los objetivos adecuadamente. Debemos evitar demasiados indicadores para un propósito único. Podría significar que los objetivos son demasiado complicados o que aquellos interesados no comprenden su contenido por completo. En ese caso, sería necesario revisar los objetivos y volver a establecer unos más concretos y específicos.
“Métodos de Medición” Prácticos: Si los métodos de medición son prácticos. El costo de la medición depende de las estrategias de medición y de la credibilidad de los datos secundarios. Si se cuenta con datos secundarios muy confiables, se puede establecer un simple indicador práctico al costo mínimo. Los indicadores que sólo se pueden medir a partir de encuestas de gran escala podrían no ser prácticos desde el punto de vista del costo y el tiempo. Los métodos de medición son parte de las herramientas de gestión utilizadas para el seguimiento y la evaluación. Otro criterio importante para seleccionar los métodos de medición es la accesibilidad y oportunidad para obtener datos.
Confiabilidad: Si los datos recopilados son confiables. Los datos pueden ser más confiables si se pueden obtener los mismos resultados en cada medición. La fuente de información también debe ser confiable y es necesario eliminar hasta donde sea posible las parcialidades de un encuestador.
ii) Valores Objetivo
Los valores objetivo brindan la base para juzgar los resultados y, por tanto, son una parte
muy importante del marco lógico. Es indispensable que las partes interesadas lleguen a
un acuerdo sobre los valores objetivo durante la fase de planeación del proyecto. Si
resulta que no se establece una meta clara en la planeación del proyecto, el evaluador y
demás partes interesadas tendrán juntas para decidir cuál será la base de juicio utilizando
los criterios o datos estadísticos relacionados. (Consulte el cuadro 2)
51
(5) Ubicación del Marco Lógico en un Programa
Para entender el proyecto a través de un marco lógico, también es necesario hacer
preguntas sobre la ubicación del resultado final (o la meta general) de un proyecto
específico para soportar el programa o el punto de desarrollo. Un proyecto específico es
una manera de solucionar un punto de desarrollo dentro del marco de trabajo de un
programa amplio. A continuación se mencionan las definiciones de proyecto y programa
según la JICA. La figura 2-1-6 muestra un diagrama de su ubicación. Como se muestra en la figura 2-1-6, un programa es un conjunto de proyectos
individuales que comparten la misma meta general bajo el mismo asunto de desarrollo.
En la evaluación, se hace necesario examinar cómo está ubicado un proyecto
determinado en un programa o bajo un asunto de desarrollo y también cuáles son los
vínculos entre los proyectos de otros donantes y países socios. Precisamente esto es la
cuestión de “relevancia” en la evaluación ex-ante y de “impacto” en la evaluación ex-post.
Definición de Programa y Proyecto según la JICA
Un programa es un conjunto de proyectos individuales vinculados libremente bajo asuntos de desarrollo. Un proyecto (individual) tiene el propósito de producir determinado efecto directo dentro de cierto período. El efecto directo se puede medir cuantitativamente y las
relaciones causales con los insumos se pueden asumir directamente.
52
Marco lógico
relativo al
mejoramiento de la
administración del
medio ambiente
Marco lógico del
proyecto de
mejoramiento del
suministro de agua
Marco lógico del
proyecto de
construcción de la
planta de
purificación de agua
Figura 2-1-6 Ubicación de un Programa y los Proyectos
“Caso: Programa de Mejoramiento de la Higiene Urbana”
Proyecto
de
educación
de higiene
Proyecto de
eliminación
de basura
Se mejora la higiene urbana. (La tasa de infecciones transmitidas
por el agua ha disminuido.)
El sistema de
suministro de agua
Se construye una
planta de purifica-
La organización administrativa
del medio ambiente urbano se La gente adquiere
conocimientos y
conceptos de
higiene.
La basura se
elimina
adecuada mente.
53
(6) Conexión entre el Marco Lógico y los Planes de Trabajo de la Evaluación
El marco lógico contiene información útil para realizar los planes de trabajo de la
evaluación. Por ejemplo, las preguntas de evaluación sobre la efectividad e impacto
pueden reflejar el modelo de relaciones causales del marco lógico. Además, los valores
objetivo de los indicadores y medios de verificación pueden ser la base para identificar los
datos necesarios y los métodos de recopilación de datos. La figura 2-1-7 muestra el uso
de la información en el marco lógico para hacer los planes de trabajo de la evaluación. En la Parte II, Capítulo 2 se explican en detalle los planes de trabajo de la evaluación.
Figura 2-1-7 Uso del Marco Lógico para Hacer los planes de Trabajo de la Evaluación
Medios de Verificación
Suposiciones I t t
Bases de juicio
Datos Necesarios
Relaciones Causales
“Contenido del “marco lógico” “Planes de trabajo de evaluación” Se puede utilizar para desarrollar Preguntas de evaluación
Resumen del Proyecto (Meta General, Objetivo del Proyecto, Productos, Actividades e Insumos)
Indicadores (Valores Objetivo)
Fuentes de información y métodos de
recopilación de datos
54
4. Comprensión de la Situación de Implementación: Información sobre los Resultados y el Proceso de Implementación El evaluador necesita comprender cómo se implementó el proyecto cuando haga la
evaluación (sobre todo durante y después de la evaluación intermedia). Eso incluye
cuestiones de los resultados así como lo que está sucediendo en el proceso de
implementación. Es posible obtener esa información a partir de los registros de
seguimiento. La evaluación de proyectos de la JICA es una tarea interna, y por lo tanto,
generalmente obtiene la información sobre los resultados del proyecto y el proceso de
implementación a través de los esfuerzos de seguimiento. Si el evaluador piensa que el
seguimiento no se llevó a cabo lo suficientemente bien o que se necesita información más
detallada, se realizarán otras encuestas dentro de las actividades de evaluación.
i) Información sobre los Resultados La información sobre los resultados incluye los resultados de los insumos, los productos y
el grado de logro del propósito y la meta general de un proyecto, aunque el enfoque será
diferente dependiendo del momento en que se hace la evaluación. El evaluador está
conciente principalmente de si se alcanzaron los objetivos como se planeó y de cómo se
modificaron los valores objetivo o los indicadores durante la implementación. Los
registros de seguimiento pueden ayudar al evaluador a esclarecer objetivos e indicadores
en caso que no estén especificados en el marco lógico.
ii) Información sobre el Proceso de Implementación La información sobre el proceso de implementación incluye qué tanto avanzaron las
actividades y qué está sucediendo en el sitio del proyecto. Además, se deben investigar
las relaciones entre un equipo del proyecto y los departamentos de operación de
proyectos, así como las oficinas de la JICA en el extranjero. Con el examen del proceso
de implementación se espera obtener el máximo de un proyecto y evitar incidentes de
antemano. El proceso de implementación nos puede brindar los siguientes factores o
situaciones. La información sobre el proceso de implementación puede brindar factores que
influyeron el logro de los objetivos. En caso que dichos factores no se examinen bien en
el seguimiento del proyecto, se deberán incluir encuestas posteriores en la evaluación.
55
Información que se obtiene mediante el examen del proceso de implementación
Examen de actividades ¿Se realizan las actividades como se había planeado? De ser así, ¿cuáles son los factores que contribuyen? ¿Hay alguna actividad que no se haya realizado por completo? De ser así, ¿cuáles son las razones?
¿Los insumos del proyecto son suficientes para continuar las actividades?
Relaciones con el grupo objetivo ¿Las metas del proyecto son consistentes con las necesidades del grupo objetivo?
¿Hay algún cambio positivo de actitud y comportamiento de un grupo objetivo para apoyar las actividades del proyecto? ¿Cuál es el nivel de participación y percepción hacia las actividades del proyecto del grupo objetivo, la organización relacionada y la comunidad interesada?
¿Cuál es el nivel de satisfacción del grupo objetivo hacia los servicios que brinda el proyecto y el nivel de su utilización?
Gestión del proyecto
¿Las actitudes de trabajo del personal del proyecto son suficientemente positivas para implementar de manera efectiva la operación del proyecto?
¿Cuál es el nivel de compromiso del personal del proyecto en las actividades del proyecto? ¿Se ha establecido una buena comunicación entre los expertos japoneses y el personal del proyecto? ¿Se está llevando a cabo correctamente la supervisión? ¿Se ha modificado la estrategia del proyecto en la debida forma?
¿Los departamentos de operación del proyecto y las oficinas en el extranjero brindan adecuadamente apoyo o asesoría para el seguimiento del proyecto?
General
¿Cuáles son los factores importantes o asuntos clave que contribuyen a los efectos del proyecto? (por ejemplo, los métodos de la transferencia técnica, el equipo e instalaciones brindados, el plan de operación, los servicio que brinda el proyecto, la selección de una región objetivo, el tamaño de un grupo objetivo, etc.).
56
Capítulo 2 Planeación de la Evaluación del Proyecto Este capítulo explica los asuntos clave que se deben considerar para planear la
evaluación. La “preguntas de evaluación” se explicarán como el primer paso para hacer
un plan de trabajo, seguidas de las “bases para el juicio”, los “datos necesarios y fuentes
de información” y los “métodos de recopilación de datos”.
¡Consejos! - Primero, determinar lo que necesitamos conocer en la evaluación (preguntas de la
evaluación). Los Cinco Criterios de Evaluación nos ayudarán a formular las preguntas
de la evaluación tan específicas como sea posible.
- Lo siguiente es considerar con qué debemos comparar el proyecto o programa para
pode emitir un juicio de valor (base para el juicio).
- Después debemos considerar a quién contactar, qué datos recopilar, y cómo hacerlo
para poder contestar las preguntas de evaluación (fuente de información, datos
necesarios y métodos de recopilación de información).
- Hay varios métodos de análisis de recopilación de datos. Es más efectivo utilizar diversos enfoques para contrarrestar las deficiencias de un enfoque con los puntos
fuertes de otro.
- Por último, reunir todos los elementos de planeación en una Tabla de Evaluación, una herramienta para desarrollar planes de trabajo de evaluación. Es necesario aplicar la
Tabla de Evaluación flexiblemente para satisfacer los diferentes propósitos de cada
estudio de evaluación.
57
Pasos del Estudio de Evaluación
La realización de un plan de evaluación es un proceso para determinar qué y cómo
se debe implementar la evaluación en relación con su propósito. Por lo general, un
estudio de evaluación está limitado por su presupuesto y tiempo, y por tanto, es necesario
desarrollar bien una manera efectiva y eficiente de realizar el estudio. A continuación se
describen los pasos principales para la planeación de la evaluación. Estos pasos están
interrelacionados entre sí y por ello muchas veces se desarrollan al mismo tiempo.
(3) Formular un plan de trabajo de
evaluación
(6) Dar a conocer los resultados de
la evaluación
Retroalimen-
tación
(4) Recopilación de datos
(5) Análisis e interpretación de
d t
(1) Confirmar el objetivo de la evaluación
(2) Organizar la información sobre
el proyecto objetivo
Planeación
de la
Evaluación
Implemen-
tación
Dar a
conocer los
resultados
-¿Cuál es la metodología de evaluación?
- Considerar preguntas de la evaluación, bases de
juicio, datos necesarios y métodos de recopilación
de datos
58
Sobre qué bases se debe adoptar el juicio de valor
“Pasos para hacer un plan de evaluación”
1. Desarrollar preguntas de evaluación
2. Identificar las bases de juicio
Qué se debe conocer a través de la evaluación
3. Identificar los datos necesarios y
seleccionar las fuentes de información
4. Seleccionar los métodos de
recopilación de datos
Qué datos se deben recopilar y de dónde
Cómo recopilar los datos
59
Preguntas de Evaluación Criterios de
Evaluación
Preguntas principales
Preguntas secunda-
rias
Bases de juicio
Datos necesa-
rios
Fuentes de
Informa- ción
Métodos de
Recopila-ción de Datos
Pertinencia
Efectividad
Eficiencia
Impacto
Sustenta- bilidad
Otros
Formato del Cuadro de Evaluación
60
1. Desarrollo de las Preguntas de Evaluación (1) Niveles de las Preguntas de Evaluación y los Cinco Criterios de Evaluación i) ¿Qué es una ‘Pregunta de Evaluación’? Las preguntas de evaluación representan “lo que uno quiere saber a través de la
evaluación”. Por ejemplo, la pregunta de “si un proyecto fue (o será) significativo” es un
ejemplo de una pregunta de evaluación y una pregunta común para la evaluación de un
proyecto. Preguntas más centradas en verificar el valor de un proyecto serán: “¿El
proyecto produjo efectos?” o “¿Se usaron los recursos eficientemente”? Es posible
formular preguntas más específicas enfocadas en la efectividad de un proyecto. Por
ejemplo, en un proyecto de riego, los evaluadores pueden hacer preguntas tales como:
“¿Aumentó el volumen de producción de las cosechas?” o “¿Aumentó el ingreso de los
agricultores?” Para que un estudio de evaluación sea operativo se deben desarrollar
preguntas más específicas a partir de una pregunta general. Al hacerlo, se identifican
más fácilmente métodos de encuesta más concretos así como los datos necesarios. Los departamentos de operación de proyectos dentro de la JICA desarrollan
preguntas de evaluación que toman en consideración la situación real de un proyecto y lo
que se debe tomar en cuenta durante el período limitado de la evaluación para obtener
respuestas útiles. El personal de la JICA es responsable de establecer preguntas de
evaluación adecuadas ya que están en posición de comprender las cuestiones principales
del proyecto objetivo así como las cuestiones del sector relacionado. Deben tener en
mente esas cuestiones cuando desarrollen las preguntas de evaluación para que los
resultados de la evaluación se utilicen cabalmente para el mejoramiento de proyectos
futuros.
ii) Conexión entre las Preguntas de Evaluación y los Cinco Criterios de Evaluación Como se explicó en la sección anterior, la JICA adopta los Cinco Criterios de Evaluación
de la DAC (es decir, pertinencia, efectividad, eficiencia, impacto y sustentabilidad) para
emitir un juicio de valor sobre los resultados del proyecto. Se pueden desarrollar las
preguntas de evaluación de acuerdo con estos cinco criterios. Por ejemplo, en caso de
una evaluación final del “Proyecto de Capacitación de Maestros de Matemáticas y
Ciencias”, las preguntas de evaluación para determinar la efectividad del proyecto
podrían ser: “¿Hubo alguna mejora en los métodos de enseñanza de los maestros como
consecuencia del proyecto?” o “¿Ha habido algún cambio en las actitudes de los
maestros?” Preguntas más específicas podrían ser: “¿Cómo evalúan los estudiantes los
cambios en las actitudes de los maestros?” y “¿El nivel de rendimiento de los maestros
satisfizo los valores objetivos (únicamente si el sistema para evaluar los métodos de
enseñanza se introdujo en el proyecto como un sistema de seguimiento)?” Mientras más
61
específicas sean las preguntas más fácil será desarrollar posteriormente un plan de
trabajo para la evaluación. Al hacerlo, la calidad de la evaluación en sí podría mejorar. No tenemos que cubrir todos los criterios con un conjunto completo de preguntas de
evaluación. Necesitamos tener cuidado de no establecer preguntas de evaluación
automáticamente con base en los cinco criterios, sino desarrollar las preguntas
principales que proporcionarán respuestas útiles para mejorar el proyecto. Por lo tanto,
es posible que el énfasis entre los criterios sea diferente. En el caso de una evaluación
interna con el propósito de mejorar los proyectos, los resultados serán irrelevantes a
menos que los intereses principales del personal de la JICA y de otras partes interesadas
se reflejen en las preguntas de evaluación. Sus preocupaciones e intereses son el punto
de partida de la evaluación. En ese proceso, podemos establecer qué preguntas críticas
se deben atender primero. Por lo general, el presupuesto y período de una evaluación es
limitado y con frecuencia es difícil responder todas las preguntas. El personal de la JICA
debe discutir de manera extensa con las otras partes interesadas qué es lo que se debe
investigar exhaustivamente y luego seleccionar las preguntas de evaluación importantes. A continuación se explican las relaciones entre los Cinco Criterios de Evaluación y
las preguntas de evaluación. Unas preguntas de evaluación adecuadas facilitarán la
identificación de los datos necesarios e indicadores en un estudio de evaluación.
62
Figura 2-2-1 Modelo Conceptual de Cómo Desglosar una Pregunta Principal (Caso de Evaluación Final del
“Proyecto de Capacitación de Maestros de Matemáticas y Ciencias”) (Pregunta Principal) (Desglosada en preguntas más específicas)
i
Pertinencia
Eficiencia
Sustentabilidad
Todavía se pueden desglosar en preguntas más específicas.
ii iii iv v
i) ¿Existe la necesidad de mejorar la educación en materia de matemáticas y ciencias?
ii) ¿Han mejorado los métodos de enseñanza de los maestros? iii) ¿Es aceptable el costo de desarrollar un plan de estudios? iv) ¿Los estudiantes han alcanzado ciertos logros académicos? v) ¿Se ha sustentado el sistema de capacitación de los maestros?
Cinco Criterios de
Evaluación
Efectividad
Impacto
¿La implementación del proyecto fue válida?
63
Figura 2-2-2 Ejemplo de Preguntas de Evaluación: preguntas principales y preguntas secundarias
“Caso: Curso de Capacitación para el Manejo del Riego” ¿El proyecto fue efectivo? (efectividad)
¿Los participantes adquirieron conocimientos suficientes a través de la
capacitación?
¿Los participantes adquirieron conocimientos sobre
el sistema de mantenimiento de las instalaciones
de riego y el establecimiento y manejo de una
cooperativa para el manejo de agua? (resultados
de las pruebas y calificaciones)
¿Los participantes están satisfechos con el
programa de capacitación? (cuestionario)
¿Los participantes reciben de sus supervisores una
buena evaluación sobre su trabajo cuando
regresan a casa? (cuestionario)
La primera pregunta del ejemplo anterior es demasiado general. Por ejemplo, no es
claro lo que significa “conocimientos de los participantes” y cómo juzgar el “incremento de
sus conocimientos”. Cuando se desglosa la primera pregunta general en tres preguntas
específicas es más fácil considerar una “base de juicio”, los “datos necesarios” y los
“métodos de recopilación de datos”. Algunas preguntas se pueden desglosar aún más
hasta que uno pueda imaginar claramente los datos que se deben recopilar. Caso: Proyecto de Erradicación de la Polio ¿El proyecto será sustentable? (sustentabilidad)
¿Es factible el plan de distribución de la vacuna de la
polio?
¿Se cuenta con fondos seguros para mantener y
manejar el sistema de almacenamiento de la
vacuna?
¿Se va a brindar educación continua sobre la salud a
la gente de la localidad? ( también es necesario
desglosar esta pregunta en preguntas especificas
enfocadas en cuestiones tales como la capacitación
de voluntarios de la salud y el desarrollo y
distribución de libros de texto, etc.)
64
(2) Perspectivas de los Cinco Criterios de Evaluación
Como se explicó en una sección anterior, los Cinco Criterios de Evaluación se utilizan
para evaluar un proyecto objetivo desde diversos puntos de vista y, durante el proceso,
identificar los factores que contribuyen o dificultan el mismo. Con base en dichos factores,
se pueden formular buenas lecciones aprendidas y recomendaciones. La tabla 2-2-1
muestra las perspectivas principales de cada criterio. Se puede hacer referencia a ellos
cuando se desarrollan las preguntas de evaluación. La figura 2-2-3 muestra las
relaciones conceptuales entre los Cinco Criterios de Evaluación y el marco lógico. Tal
como se explicó, de acuerdo con los cinco criterios, es posible que la información de un
marco lógico no sea suficiente para realizar una evaluación integral. Es necesario desarrollar las preguntas de evaluación adecuadas para cada criterio,
refiriéndose a los documentos del proyecto y al marco lógico. El marco lógico brinda
información para puntualizar y establecer prioridades para las preguntas de evaluación de
manera sistemática al señalar las conexiones causales entre los componentes del
proyecto (incluyendo los productos, actividades e insumos) y los resultados (incluyendo
las metas generales y el propósito del proyecto), así como las suposiciones que
sustentan el proyecto. Si la lógica del marco lógico es correcta, el evaluador podrá utilizar
directamente la descripción del proyecto que aparece en el marco lógico para formular las
preguntas sobre su nivel de rendimiento. Por otro lado, si el marco lógico no está
estructurado de manera lógica, el evaluador deberá crear preguntas de evaluación
relevantes junto con las partes interesadas.
65
Tabla 2-2-1 Perspectivas de los Cinco Criterios de Evaluación Pertinencia
Examinar la justificación o necesidad de implementar un proyecto
Necesidad ¿El proyecto coincide con las necesidades de un área o sociedad
objetivo? ¿El proyecto coincide con las necesidades de los grupos objetivo?
Prioridad ¿El proyecto es consistente con la política de asistencia para el
extranjero de Japón y los programas por país de la JICA? ¿El proyecto es consistente con los planes de desarrollo de un país
socio? Pertinencia como un Medio
¿La estrategia del proyecto está produciendo impacto sobre los asuntos de desarrollo en el sector relacionado de un país socio? (¿Los enfoques, áreas objetivo o grupos son adecuados? ¿Hay algún efecto sinergético de los proyectos de otros donadores en el mismo sector?, etc.)
¿Los grupos objetivo seleccionados se consideran adecuados (como un objetivo o en su tamaño)?
¿El proyecto es pertinente desde el punto de vista de la igualdad? (¿Los efectos y costos del proyecto se comparten de igual manera? ¿Hay algún efecto de difusión más allá de los grupos objetivo?, etc.)
¿Japón obtiene alguna ventaja por extender la cooperación técnica en el sector o sub-sector relacionado? (¿Hay alguna acumulación de conocimiento (know-how) y experiencias en relación con las tecnologías objetivo en Japón?, etc.)
Efectividad
Examinar los efectos de un proyecto
¿Es el propósito del proyecto lo suficientemente específico? (¿Los indicadores y medios de verificación son adecuados?)
¿Se alcanzó (o alcanzará) el propósito del proyecto? ¿El logro derivó (o deriva) de los beneficios? ¿Existe alguna influencia de suposiciones importantes en el logro del
propósito del proyecto? ¿Cuáles son los factores que dificultan/contribuyen a la efectividad?
Eficiencia
Examinar la eficiencia de un proyecto
¿Se justificó (o justifica) el costo de los insumos por el grado de rendimiento de los beneficios? (Esto se puede comparar con proyectos similares de otros donadores o del país socio.) ¿Había (o hay) alguna alternativa que hubiera alcanzado (o alcanzará) el mismo nivel a menor costo? ¿Se pudo (puede) esperar un mayor nivel de logros por el mismo costo?
¿Se justificó (o justifica) el costo de los insumos por el grado de logro de los propósitos del proyecto? (Esto se puede comparar con proyectos similares de otros donadores o del país socio.) ¿Había (o hay) alguna alternativa que hubiera alcanzado (o alcanzará) el mismo nivel a menor costo? ¿Se pudo (puede) esperar un mayor nivel de logros por el mismo costo?
¿Cuáles son los factores que inhiben o contribuyen a la eficiencia del proceso de implementación del proyecto?
(ejemplos) ・ ¿Los insumos se entregaron en los momentos adecuados? ・ ¿La cantidad y calidad de los insumos fueron adecuadas? ・ ¿Existe alguna influencia de suposiciones importantes en el
proceso desde los insumos hasta el producto? ・ ¿Existe la influencia de condiciones previas?, etc. ・ ¿Cuáles son los factores que dificultan/contribuyen a la
efectividad? Impacto
Para examinar los efectos del proyecto incluyendo los efectos de difusión a largo plazo
¿Se ha alcanzado la meta general (o se alcanzará)? ¿Los logros del objetivo general se debieron (o deben) al resultado
del propósito del proyecto? ¿Existe alguna influencia de suposiciones importantes en el logro del
objetivo general? ¿Hay alguna influencia positiva o negativa inesperada incluyendo los
efectos de difusión? Conduzca el estudio desde varios puntos de vista tales como las
66
políticas, economía y finanzas, organización e institución, tecnología, sociedad y cultura y medio ambiente. Algunos ejemplos de preguntas de la encuesta son:
・ ¿Hay alguna influencia en las políticas? ・ ¿Hay alguna influencia económica en una sociedad objetivo, las
agencias de implementación de proyectos y el beneficiario? ・ ¿Hay alguna influencia sobre la organización, las estipulaciones
relacionadas y la disposición del sistema legal? ・ ¿Hay alguna influencia en la innovación tecnológica? ・ ¿Hay alguna influencia en temas como la igualdad de géneros, los
derechos humanos, las diferencias entre ricos y pobres, la paz y los conflictos?
・ ¿Hay alguna influencia en relación con los temas de protección ambiental?, etc.
¿Se observa algún impacto específico, ya sea positivo o negativo, debido a las diferencias de género, raza y clase social?
¿Cuáles son los factores que dificultan y que contribuyen al impacto?¿Cuáles son los factores inesperados que produjeron una influencia positiva y negativa?
Sustenta-bilidad Para examinar la sustentabilidad después de concluida la cooperación de la JICA
¿Se van a sustentar los efectos esperados descritos en el propósito del proyecto y el objetivo general una vez que se termine la asistencia?
¿Cuáles son los factores que inhiben o contribuyen a la aparición de dichos efectos sustentables? Conduzca el estudio desde varios puntos de vista tales como las políticas, economía y finanzas, organización e institución, tecnología, sociedad y cultura y medio ambiente. Algunos ejemplos de preguntas de la encuesta son:
・ ¿El apoyo político está sustentado? ・ ¿La organización tiene la capacidad de realizar actividades?
-¿El personal está ubicado de manera adecuada? -¿El presupuesto, incluyendo los gastos comunes, está
asegurado? -¿El proceso de toma de decisiones funciona correctamente? ,
etc.. ・ ¿Las estipulaciones relacionadas y el sistema legal están
arreglados? ・ ¿La organización es financieramente independiente o el apoyo
financiero se brinda de manera continua? ・ ¿Se mantienen y prevalecen las tecnologías necesarias? ¿El
equipo recibe mantenimiento apropiado? ・ ¿Una influencia negativa sobre los aspectos sociales y culturales,
si la hubiera, sería un obstáculo para llevar a cabo las actividades?-¿Hay alguna influencia negativa sobre la sustentabilidad a causa de la falta de consideración a las mujeres, los pobres y los socialmente vulnerables?
・ ¿Una influencia negativa sobre el medio ambiente inhibiría la realización de las actividades?
¿Se aseguró (o está asegurada) la propiedad de las agencias de implementación y los ministerios relacionados?
67
Figura 2-2-3 La Relación entre los Cinco Criterios de Evaluación y el Marco Lógico (Figura Conceptual)
Nota: Anteriormente, la eficiencia se analizó sobre todo con base en la relación
entre los insumos y los productos. Sin embargo, también es necesario verificar el
costo-efectividad analizando la relación entre los insumos y el propósito del
proyecto.
Esta figura muestra principalmente la relación entre los Cinco Puntos de Evaluación y el
Marco Lógico. El marco lógico es únicamente una de las fuentes de información en una
evaluación y uno necesita analizar también otra información. Por ejemplo: ● para la “pertinencia”, también se necesita información tal como los planes de
desarrollo de un país socio, los antecedentes del proyecto, las necesidades del
beneficiario, las estrategias del proyecto y la formulación de planes.
● es necesario analizar la “eficiencia” desde tres puntos de vista: 1) productividad; 2)
costo-beneficio y 3) costo-efectividad;
● para el “impacto”, no sólo se describe la meta general como un efecto esperado en el
marco lógico, sino también es necesario investigar las influencias inesperadas
positivas y negativas; también se examina la pertinencia de las estrategias en el marco
Impacto
Meta general
Productos
Insumos
Efectividad
Eficiencia
Pertinencia
Sustentabilidad
Actividades
(Evaluación de
los Productos)
(nota)
Propósito del
Proyecto
(Examen del
proceso de
implementación)
68
de trabajo de un programa;
● para la “sustentabilidad”, se deben formular varias preguntas como se describe en la
tabla 2-2-1; y
● para la “efectividad” y el “impacto”, cuando se examinan las relaciones causales entre
la implementación del proyecto y los efectos es necesario incluir aquellos aspectos
tales como las condiciones internas, el proceso de implementación del proyecto y las
condiciones externas inesperadas.
69
(3) Cómo describir las preguntas de evaluación en una tabla de evaluación Finalmente, todos los componentes de la planeación de la evaluación se reúnen en la
tabla de evaluación. A continuación se muestran ejemplos de las preguntas de evaluación
en el caso del “proyecto de capacitación de maestros de matemáticas y ciencias”: (Ejemplo del Formato de Tabla de Evaluación)
Preguntas de Evaluación Cinco
Criterios Preguntas principales
PreguntasSecunda-
rias
Bases del Juicio
Datos necesa-
rios
Fuente de
Informa- ción
Métodos de
Recopila-ción de Datos
Desglose Efectivi-
dad
(Caso: “Proyecto de Capacitación de Maestros de Matemáticas y Ciencias”)
Preguntas de Evaluación Cinco Criterios Preguntas principales Preguntas secundarias
¿Mejoraron los métodos de enseñanza de los maestros?* ¿Mejoró la actuación de los maestros en clase?**
¿La calidad de la educación en la escuela modelo mejoró gracias al proyecto? ¿Mejoró la comprensión de los maestros
acerca del contenido de los temas?*** Efectivi-
dad ¿Los maestros capacitados participan continuamente en actividades de educación?****
¿Mejoró el promedio general en la prueba anual a nivel nacional? Impacto
¿Mejoraron las habilidades de aprendizaje de los alumnos gracias al proyecto? ¿Los estudiantes aumentaron su grado de
satisfacción con las clases? Nota: No tiene ningún sentido establecer preguntas de evaluación a menos que se puedan
recopilar los datos necesarios. Se supone que se deben recopilar los siguientes datos para las
preguntas arriba mencionadas.
* Comparación con los datos obtenidos a partir del cuestionario de la encuesta que
supuestamente se realizó después del proyecto. ** El uso de los datos obtenidos a partir de las observaciones directas concuerda con las
listas de verificación de las actividades de supervisión *** Medida mediante las calificaciones de la prueba. **** Medición de la proporción de maestros que trabaja continuamente en la misma escuela
al momento de la evaluación.
70
2. Bases del Juicio (1) Confirmación de los Valores Objetivo o Establecimiento de Criterios Nuevos
La valoración de los resultados de un proyecto durante y después de la evaluación
intermedia requiere de criterios de logros (o valores objetivo) para poder juzgar si se
alcanzaron o no los objetivos como se esperaba. Los valores objetivo descritos en la
columna de los indicadores se puede utilizar como dichos criterios. En caso que no se
hayan especificado los valores objeto, un evaluador necesita establecer los criterios para
determinar tanto el nivel de logro y contra qué se deberá comparar dicho logro. Por
ejemplo, para evaluar un nivel de seguridad del agua, uno puede aplicar los criterios de
calidad del agua que estableció la OMS. Otro ejemplo es aplicar la tasa nacional
promedio de enfermedades infecciosas a la región objetivo par medir los cambios
después de un proyecto de salud. El evaluador y las partes interesadas deben discutir a
fondo los criterios que se deberán utilizar como base para el juicio. (Consulte el cuadro 2:
Varias Maneras para Decidir los Valores Objetivo.) También es necesario considerar los criterios que se deberán utilizar para evaluar
la eficiencia. Por ejemplo, para poder evaluar el costo-eficiencia de construir una escuela
primaria, se pueden utilizar criterios tales como el costo total de proyectos similares, el
costo promedio de construir una escuela primara en un país objeto o el costo promedio
de alguna construida por otros donantes (Actualmente, la eficiencia no se ha analizado
desde el aspecto del costo ya que no se cuenta con los criterios para la comparación.
Por tanto, en la mayoría de los casos, la eficiencia del proceso de implementación se ha
analizado cualitativamente. Se requiere la acumulación de datos para comparación.)
<Cuadro 2: Métodos para Establecer Valores Objetivo> Refiérase a las necesidades del grupo objetivo: para establecer valores objetivo con base en la
norma que espera el grupo objetivo.
Refiérase a la media de la región completa a la que pertenece el área objetivo: para establecer
valores objetivo refiriéndose a la media de la región completa a la que pertenece el área objetivo (por
ejemplo, país, perfectura).
Refiérase a los casos exitosos de proyectos similares: para aprender de las experiencias en los
casos exitosos de proyectos similares realizados bajo condiciones análogas. Esto se basa en la idea
que el proyecto objetivo debe alcanzar el mismo éxito que esos casos.
Refiérase a los valores objetivo establecidos por las agencias especializadas: para utilizar los
valores estándar establecidos por las agencias especializadas - por ejemplo, los criterios de calidad
del agua de la OMS.
71
(2) El Punto de Vista al Evaluar las Relaciones Causales
Al evaluar la efectividad o el impacto de un proyecto, los evaluadores deben formular la
pregunta causal de si los efectos son resultado de la intervención del proyecto. Esta
pregunta es diferente a medir los logros de un proyecto a través de las preguntas
normativas. Como un proyecto es únicamente una intervención en una sociedad objetivo,
no podemos excluir las influencias de otros factores además del proyecto. Por ejemplo,
un aumento en el ingreso de los agricultores se puede derivar de un aumento en la
productividad de las hortalizas como consecuencia de un proyecto de riego, o podría
derivarse de la influencia de factores totalmente diferentes tales como trabajo para los
agricultores en las aldeas vecinas, otras oportunidades de un ingreso adicional, etc. En
otras palabras, no es posible medir los efectos de un proyecto con sólo observar los
cambios de los beneficiarios objetivo. Por lo general, hay dos métodos para probar la
causalidad: 1) métodos cuantitativos por “comparación” y 2) métodos cualitativos de
construcción de información, que intentan probar la correlación entre los productos y los
efectos directos del proyecto.
i) Métodos Cuantitativos: Método de Diseño Experimental, etc. La metodología básica de los métodos cuantitativos para examinar las relaciones
causales es la “comparación”. Hay dos formas de comparación: 1) comparar una
sociedad/beneficiario objetivo antes y después de un realizar un proyecto para ver sus
cambios y 2) comparar una sociedad objetivo/beneficiario con un proyecto en otra
sociedad/pueblo sin proyecto. Se dice que el método más científico es el conocido como “el método de diseño
experimental”, que es una combinación de antes/después y con/sin. Hay dos pasos para
conducir la encuesta: 1) elegir al azar un grupo como el grupo objetivo y el otro como el
grupo no objetivo (grupo de control) antes de implementar un proyecto y 2) comparar sus
cambios antes y después del proyecto. Sin embargo, estos métodos causan problemas
éticos y requieren de un costo comparativamente mayor y, por lo tanto, en la realidad no
se pueden aplicar fácilmente para evaluar proyectos individuales. No obstante, es posible
realizar una simple encuesta comparativa entre aquellos que participaron en un proyecto
y aquellos que no lo hicieron, incluso cuando esos grupos no se hayan elegido al azar.
(Por ejemplo, comparar la percepción de un pueblo en relación con los cuidados de salud
en una región objetivo de un proyecto PHC y la de aquellos en otra región en un medio
ambiente similar sin el proyecto; este método se llama “el método de diseño semi-
experimental”.) En muchos casos cuando se evalúan proyectos específicos en la JICA, se aplica la
comparación antes y después al grupo objetivo. Los datos base obtenidos en la
evaluación ex-ante se utilizarán para comparar los resultados después del proyecto. Otra
72
manera de examinar las relaciones causales es medir los datos regularmente y observar
la transición y su tendencia en series de tiempo.
ii) Métodos Cualitativos El análisis cualitativo de las relaciones causales trata de explicar la relación entre la
implementación del proyecto y los cambios en sus beneficiarios. Dicho análisis reúne (o
construye) varias fuentes de información sobre el proyecto para determinar qué tipo de
relación causal existe entre el proyecto y los efectos sobre la sociedad objetivo. Hay varias formas cualitativas de analizar las relaciones causales como se describe a
continuación.
Enfoque cualitativo para analizar las relaciones causales
Construir información sobre el proceso de implementación a partir de insumos desde las actividades hasta los productos y de los productos a los objetivos.
Intentar explicar la relación lógica entre la implementación del proyecto y los efectos. Analizar el proceso para transferir y divulgar tecnología a través de las actividades. Aclarar la relación entre la implementación del proyecto y los efectos mediante una
encuesta detallada y profunda de una región objetivo o de un grupo objetivo pequeño (es decir, estudio de caso).
Para construir la información sobre el proceso de implementación y valorar la
relación causal se pueden recopilar e interpretar datos cualitativos tales como la forma en
que se realizan las actividades, si se obtuvieron los productos como se esperaba, cómo
cambió la percepción de un grupo objetivo hacia el proyecto, o cuándo se produjeron los
efectos, y en cuáles métodos de análisis se pueden utilizar. (Consulte la tabla 2-2-4 para
ver la metodología)
Los métodos cuantitativo y cualitativo se pueden combinar y utilizar de manera
complementaria. Por ejemplo, después de la evaluación de la medición antes y después
de los resultados, podemos utilizar los métodos cualitativos para que la explicación sea
más convincente. Generalmente así se realizan las evaluaciones de proyectos
particulares en la JICA.
73
(3) Cómo describir la base de juicio en la tabla de evaluación En la tabla de evaluación, la columna “base del juicio” no necesariamente se llena,
dependiendo de las preguntas de evaluación. Es posible que los temas de la pertinencia y
la sustentabilidad no requieran de esa base ya que se recopila principalmente información
cualitativa. A continuación se muestra un ejemplo del uso de la tabla de evaluación con la
base del juicio. (Ejemplo del Formato de Tabla de Evaluación)
Preguntas de Evaluación Cinco
Criterios Preguntas principa-
les
Preguntas secunda-
rias
Bases del Juicio
Datos necesa-
rios
Fuente de
Informa- ción
Métodos de
Recopila-ción de Datos
Desglose Efectivi-
dad
(Caso: Programa de Capacitación de Maestros de Ciencia)
Preguntas de Evaluación Cinco Criterios Temas principales Temas menores
Bases del Juicio
¿Mejoraron los métodos de enseñanza de los maestros?
-Comparación con el valor objetivo (el valor medio no es menor de 3.0) -Comparación antes y después de la implementaciónEfectivi-
dad
¿La calidad de la educación en la escuela modelo mejoró gracias al proyecto?
¿Mejoró la comprensión de los maestros acerca del contenido de los temas?
-Comparación con el valor objetivo (la calificación promedio no es menor de 80 puntos) -Comparación antes y después de la implementación
¿Mejoró el promedio general en la prueba anual a nivel nacional?
-Comparación de resultados después de la implementación con estudiantes sin proyecto
Impacto
¿Mejoraron las habilidades de aprendizaje de los alumnos gracias al proyecto?
¿Los estudiantes
aumentaron su grado
de satisfacción con
las clases?
(Datos Cualitativos)
74
<Cuadro 3: El Método de Diseño Experimental y el Método de Diseño Semi-experimental> El método de diseño experimental es un método para examinar las relaciones causales entre los efectos y las implementaciones de un proyecto al comparar un grupo con un proyecto (un grupo de implementación) con un grupo sin proyecto (un grupo de comparación o de control). Debido a la influencia de factores externos, es difícil examinar las relaciones causales entre los cambios efectuados y un proyecto específico comparando únicamente antes y después de la implementación del proyecto. El método está diseñado para calcular los “efectos netos” de la intervención de un proyecto al descartar los cambios de un grupo de control de los cambios de un grupo de implementación antes y después de la implementación de un proyecto. Hay dos tipos de casos de evaluación usando un grupo de comparación: 1) el caso donde un grupo de comparación ya existe; y 2) el caso donde el evaluador formula un grupo de comparación al momento de la evaluación. La forma más científica (o teóricamente efectiva) de usar el grupo de comparación es elegir ambos grupos al azar en una región objetivo antes de lanzar el proyecto. Cuando efectivamente se está realizando un proyecto de asistencia para el desarrollo, la elección del grupo de implementación y del grupo de comparación puede causar algunas dificultades. Existe un problema de ética al controlar y observar un grupo que se excluye de los beneficios del desarrollo durante los tres o cinco años que dura el proyecto. Además, está el problema del costo. El método que se utiliza con más facilidad es especificar un grupo de comparación que puede tener condiciones similares a las de un grupo de implementación y comparar los efectos entre ambos. Este método se conoce como el modelo de diseño semi-experimental y se comparan dos grupos de comparación de casi el mismo tamaño y con características similares. (Este método también se conoce como el modelo de asociación.) Por ejemplo, es posible comparar la situación después de la implementación de un proyecto entre la comunidad A donde se realizan actividades de atención a la salud regionales y la comunidad B que no cuenta con dichas actividades. La comunidad B necesita tener tendencias similares a la comunidad A en condiciones tales como la proporción de género, el número de familias, los tipos de enfermedades infeccionas, la situación real de los servicios de atención médica, la precipitación anual o las condiciones geográficas. Además, también es posible comparar algunas características específicas en los grupos seleccionados (grupos de diferentes edades, grupos de diferentes géneros, grupos de diferentes profesiones, etc.). Fuentes: Ryu Yoshiaki, Ryo Sasaki (2000), ‘Seisakuhyoka’ no riron to giho (Teorías y Técnicas de la ‘Evaluación de Políticas’), Tagashuppan, p. 50-71; Lipsey RF (1999), Evaluación: Un Enfoque Sistemático, 6a. edición, SAGE, p. 279-306.
75
3. Consideración los Datos y Fuentes de Información Necesarios El siguiente paso es identificar cuáles son los datos que se deben recopilar y de dónde
para poder contestar las preguntas de evaluación. Parte del proceso para encontrar los
indicadores específicos para medir un fenómeno es la tarea de identificar los datos
necesarios. Por ejemplo, un evaluador deberá decidir un método de medición: por
ejemplo, si se debe medir “la riqueza” mediante el ingreso anual o el número de ganado
en una situación específica del proyecto. Por lo general hay diversas maneras de medir
un fenómeno y, por lo tanto, se debe elegir la medición más adecuada.
(1) Tipos de Datos
Existen dos tipos de información o datos para responder a las preguntas de evaluación:
1) los datos cuantitativos; y 2) los datos cualitativos. Se debe conocer la naturaleza
diferente de cada tipo de dato ya que afecta la recopilación de datos y los métodos de
análisis en un estudio de evaluación. (Consulte los métodos de análisis cuantitativo y
cualitativo en 2-2-4) i) Datos Cuantitativos Los datos cuantitativos son aquellos expresados en valores numéricos (por ejemplo, el
volumen de la cosecha de productos agrícolas, la tasa de alfabetización, la tasa de
mortalidad infantil, el área de tierra de riego, la cantidad de instalaciones construidas y el
promedio de calificación de una prueba). Los datos cuantitativos se utilizan más para
evaluar los resultados de un proyecto o el grado de logro en valores numéricos: es decir,
calcular el ingreso promedio de cierto grupo mediante el análisis estadístico, y ver la
correlación entre los antecedentes académicos y el ingreso. Los datos cuantitativos
también son adecuados para analizar la situación de un grupo relativamente grande
realizando encuestas de muestreo. Es posible cuantificar los “aspectos cualitativos” - que no son tan fáciles de medir
en valores numéricos - mediante una encuesta por cuestionario de opciones múltiples o a
través de la observación con una lista de verificación. Por ejemplo, para investigar el
grado de satisfacción de la gente, un evaluador puede calcular el porcentaje de gente
satisfecha preparando cinco opciones múltiples: 1) completamente satisfecho; 2)
moderadamente satisfecho; 3) ni satisfecho ni descontento; 4) un poco descontento; y 5)
completamente descontento. Uno puede entonces calcular el valor medio del grado de
satisfacción si codifica esas opciones con números del cinco al uno respectivamente.
Cuando se miden cambios en la actitud o percepción de la gente, es posible cuantificar
los cambios definiendo “la actitud” o “la percepción” en términos concretos. Por ejemplo,
para poder analizar cómo cambiaron las actitudes de los maestros y los métodos de
enseñanza después de recibir la capacitación, se pueden definir dichos cambios como
76
"adoptando un método participativo en clase", "la actitud hacia los estudiantes que no
pueden ir a la par con el avance de la clase”, “la manera de enseñar con herramientas
experimentales limitadas”, o “la forma de estimular la creatividad de los alumnos”. Esto se
puede medir a través de la observación de un tercero a mediante una encuesta por
cuestionario para los maestros. Debido a que los datos cuantitativos se recopilan de manera sistemática y
uniforme, también pueden ser más confiables y fáciles de analizar. No obstante, no se
puede obtener fácilmente información de antecedentes tales como la razón por la cual se
observa un fenómeno y cómo se adquiere el status quo.
Los datos cuantitativos se aplican para Medir los resultados del proyecto o el grado de logro Estudiar a un gran número de personas Utilizar métodos de medición establecidos Llevar a cabo un análisis estadístico
ii) Datos Cualitativos Los datos cualitativos son aquellos que expresan un fenómeno de manera descriptiva y,
por tanto, son adecuados para comprender a fondo la situación o conocer en detalle el
comportamiento de la gente y su percepción. Los datos cualitativos pueden brindar
información más detallada, incluyendo los factores que influyen, el proceso de los
cambios, episodios y relaciones entre ellos en un proyecto. La mayoría de la información
en el proceso de implementación son datos cualitativos, y este tipo de información incluye
los problemas y medidas adoptadas en el proceso de actividades, el proceso de gestión,
las relaciones humanas y la percepción sobre el proyecto de las partes interesadas.
Dichos datos se pueden analizar para aprender cómo influyen estos factores para
alcanzar los objetivos y cuáles son los factores existentes que dificultan o contribuyen al
proyecto. El análisis mediante datos cualitativos es más inductivo comparado con los
datos cuantitativos, y por ello, la interpretación tiende a ser más parcial.
Los datos cualitativos se aplican para Realizar encuestas a fondo con información detallada Analizar los factores relacionados (factores que dificultan/contribuyen) que influyeron en los logros Utilizar cuando los métodos analíticos no se decidieron de antemano Utilizar cuando no hay necesidad de una cuantificación
77
Tabla 2-2-2 Ejemplos de Datos Cuantitativos y Cualitativos (Caso: “Proyecto de Capacitación de Maestros de Matemáticas y Ciencias”)
Ejemplos de Datos Cuantitativos
El número de participantes en la
capacitación El número de maestros capacitados Las calificaciones de los estudiantes
en la prueba El índice para medir la calidad de los
métodos de enseñanza* *La calidad de los métodos de enseñanza no se puede medir cuantitativa y directamente, pero se puede manejar en forma de datos cuantificados en el caso que se invente un método de medición de la calidad (por ejemplo, el evaluador puede calificar los resultados de sus observaciones sobre los métodos de enseñanza mediante la escala del uno al tres.
Ejemplos de Datos Cualitativos**
Lo que la gente consideró no satisfactorio
sobre el contenido de la capacitación o sus sugerencias para la misma
Cambios en los estudiantes desde el punto de vista de sus padres
Cambios en la percepción de los maestros hacia el proyecto
Razones por las que los métodos de enseñanza de los maestros no mejoraron
La idoneidad del sistema de implementación de los cursos de capacitación para maestros
**Estos tipos de datos se pueden cuantificar si se adopta una encuesta por cuestionario con opciones múltiples (se recopilan como datos cuantitativos). Por otro lado, los datos cualitativos se recopilan en casos donde no se cuenta previamente con opciones múltiples o cuando el objetivo de la encuesta es comprender mejor la situación (ejemplos de los métodos de recopilación de datos son: encuestas por cuestionario con respuestas obligatorias o encuestas por entrevista, discusiones del grupo de control, etc.).
(2) Fuentes de Información y Muestreo
Dos fuentes de información principales para la evaluación de proyectos son los materiales
existentes y la información que dan las partes interesadas de un proyecto. Estas fuentes
se deben consultar primero para ahorrar costos y tiempo. Cuando se utilicen estos datos,
el valuador deberá confirmar cómo se recopilaron y analizaron, y qué tan importantes son
para el estudio de evaluación específico. Los evaluadores deberán seleccionar las fuentes de información adecuadas tomando
en consideración la accesibilidad a la información, cuál es la información más exacta y
cuáles puntos de vista son indispensables. También se examinan cuidadosamente las
diferencias de género, etnia y clases sociales cuando se recopilan y especifican los datos.
Si los métodos de recopilación de información no son adecuados, es posible que no se
obtengan los datos necesarios como se esperaba, incluso a partir de las fuentes de
información supuestamente ideales. Por ejemplo, en una sociedad donde las mujeres no
pueden opinar en presencia de varones, es necesario recopilar los datos en
circunstancias donde hombres y mujeres estén separados. Cuando la gente de la
localidad no expresa sus verdaderos sentimientos a quienes no pertenecen a su
78
comunidad, será necesario capacitar a gente de la localidad como encuestadores para
que recopilen la información. Cuando se realizan encuestas sobre una serie de beneficiarios no identificados,
podemos proceder ya sea con: 1) una “encuesta por censo” en donde toda la gente (o
una población) son el objetivo; o 2) una “encuesta por muestreo” en donde sólo una parte
de ellos es el objetivo. La elección depende del propósito de la encuesta, el tamaño del
grupo o región objetivo, las restricciones de presupuesto y tiempo y la exactitud de los
datos esperados. El mérito de la encuesta por muestreo es que se pueden generalizar
sus resultados como características de una población objetivo. (Consulte el “Cuadro 4: La
Encuesta por Censo y la Encuesta por Muestreo”.)
79
<Cuadro 4: Encuesta por Censo y Encuesta por Muestreo>
Encuesta por Censo La encuesta por censo es el tipo de encuesta donde todos los que participan en un
proyecto son las fuentes de recopilación de información. Esta encuesta es efectiva cuando
se reúnen datos cuantitativos, tales como “el porcentaje de incremento del número de
agricultores que obtuvieron mejor productividad del arroz” o “el porcentaje en el aumento
de gente que adquirió conocimientos sobre la salud”. Es posible calcular los factores que
influyeron en los resultados analizando estadísticamente las condiciones de vida de la
comunidad objetivo.
Es relativamente fácil realizar una encuesta por censo en un proyecto de pequeña
escala y en un proyecto de capacitación. En el caso de proyectos más grandes, es más
difícil obtener información sobre toda la gente, pero también se puede utilizar la encuesta
por censo si se dirige a un grupo de gente específica que participó en cierta actividad.
Encuesta por Muestreo
La encuesta por muestreo es el tipo de encuesta que calcula las características de toda
una población mediante encuestas sobre una parte seleccionada de ella. Se debe decir el
tamaño de la muestra dentro del rango de error de muestreo aceptable. El margen de error
de muestreo es de +/– 5 puntos porcentuales cuando el número de muestras es de
alrededor de 400, mientas que es de +/– 10 puntos porcentaules para 100 muestras. Por
ejemplo, si resulta que el 40 por ciento de 100 muestras están de acuerdo con una opinión
determinada, se puede calcular que entre 30 y 50 por ciento de toda la población está de
acuerdo con ella. Se puede considerar dentro de un rango aceptable si el error de
muestreo es menor del 10 por ciento, y por ello, se prefiere que el número de muestreo sea
de 100 o más. Básicamente hay dos tipos de muestreo: 1) muestreo al azar; y 2) muestreo
de no probabilidad.
80
<Cuadro 5: Muestreo Teórico>
La encuesta por muestreo también se conoce como “muestreo estadístico” y se utiliza
principalmente en el análisis cuantitativo. Por el contrario, en el análisis cualitativo, está
muy extendido el uso del método que se conoce como “muestreo teórico”. (Consulte los
métodos cuantitativo y cualitativo en 2-2-4 (3) p. 91.)
El muestreo teórico se aplica generalmente para generar teorías y categorías con
base en los resultados de la evaluación que tienen fundamento en el mundo empírico.
Indica a los evaluadores donde recopilar el tipo de datos que responden a varios conceptos
y que todavía están en proceso de construcción. En otras palabras, el muestreo teórico es
el proceso de identificar muestras a través de la repetición de la recopilación y análisis
relacionados con los conceptos y categorías.
Por ejemplo, cuando se mide el efecto directo de un proyecto de cooperación técnica,
es frecuente que se investiguen los aspectos cualitativos de los cambios de actitud y
comportamiento de los beneficiarios y las organizaciones objetivo. En ese caso, se puede
utilizar el método de muestreo teórico junto con un modelo lógico para realizar una
evaluación. Los evaluadores pueden identificar primero un grupo clave de informantes que
teóricamente están considerados como una fuente de información importante y efectiva, y
después realizar entrevistas o discusiones del grupo de control para evaluar sus cambios
de actitud o comportamiento. Cuando se analizan los datos recopilados se pueden
identificar otros datos que pueden estar relacionados con los factores e incidentes que
señaló la encuesta anterior. Dicho proceso de repetición se puede terminar cuando ya no
se espera ningún hallazgo nuevo.
81
4. Métodos de Recopilación de Datos (1) Tipos de Métodos de Recopilación de Datos
A continuación se muestran los métodos principales para la recopilación de datos.
Algunos métodos se pueden aplicar para recopilar datos cuantitativos y cualitativos
dependiendo de la estructura de las preguntas y respuestas. Por ejemplo, se pueden
cuantificar datos en una encuesta por cuestionario que tenga opciones de respuesta
preparadas (por ejemplo, 80% de los encuestados están satisfechos), mientras que sólo
se obtienen datos cualitativos si la encuesta se estructura con preguntas con respuesta
obligatoria.
Tipos de Métodos de Recopilación de Datos Revisión de estadísticas, literatura y datos existentes Observación Encuesta por cuestionario Entrevistas Discusión del grupo de control
La recopilación de datos requiere tiempo y dinero, así que lo primero que se debe
investigar es la disponibilidad de datos confiables existentes. Cada método tiene pros y
contras, y el evaluador debe seleccionar cuidadosamente los métodos de recopilación de
datos. Para su referencia, las tablas 2-2-3 y 2-2-4 muestran las características de cada
método de recopilación de datos.
Tabla 2-2-3 Relaciones entre los Tipos de Datos y los Métodos de Recopilación de Datos Encuesta por Cuestionario Observación
Preguntas estructu-
radas
Pregun-tas
directas
Encuesta por
Entrevista
Discusión del Grupo de Control
Observa-ción
Usando la Lista de
Verificación
Visitas al
sitio
Datos Cuantita-
tivos ? ?* ?
Datos Cualita-
tivos ? ? ? ?
* Podemos cuantificar los resultados hasta cierto punto cuando la entrevista está
estructurada.
82
Tabla 2-2-4 Métodos Principales de Recopilación de Datos y sus Características Métodos de Recopilación
de Datos Pros Contras/Consejos 1. Revisión de la Literatura incluyendo Datos Existentes
Informes del proyecto, registros de seguimiento, literatura sobre los sectores relacionados, datos estadísticos, informes de otros donantes, etc.
Menos costo en comparación con otros métodos, y por lo tanto, eficiente.
La credibilidad de la información y datos están en tela de juicio.
Tal vez no se obtengan los datos necesarios.
2. Observación Directa La situación sobre el uso de
las instalaciones y el equipo, la idoneidad de la infraestructura y los servicios, el sitio de capacitación, la forma de comportamiento de la gente, etc.
Poco costo.
Las habilidades y parcialidades de los encuestadores influyen en los resultados.
Se debe de asegurar objetivamente combinándolo con otros métodos de encuesta.
3. Encuesta por Cuestionario (Encuesta Enquete)
Hacer las mismas preguntas
a todos los objetivos median-te un cuestionario y analizar los datos obtenidos.
Hay dos tipos de cuestiona-rios: 1) el cuestionario auto-aplicado que los encuestados llenan directamente; y 2) el cuestionario donde un en-cuestador le hace preguntas a los encuestados y toma notas de sus respuestas (no se autoaplica).
Es posible obtener al mismo tiempo información sobre un tema a partir de diversos objetivos.
Las respuestas de los encuestados se pueden comparar fácilmente.
Es relativamente fácil analizar las respuestas de las preguntas con respuesta obligatorias ya que se pueden cuantificar.
Para obtener los datos necesarios se requiere de habilidades para desarrollar un cuestionario adecuado.
Tal vez no se cubra toda la información importante si la población de la encuesta es de tamaño limitado.
Las tasas de respuesta no son predecibles.
No hay oportunidad para que los encuestadores aclaren las intenciones de las preguntas ya que no hay ocasión para una conversación directa.
(Consejos) Formular preguntas con
palabras y expresiones sencillas para que los encuestados puedan comprender las intenciones de las mismas.
83
Hay dos tipos de preguntas:
1) preguntas con respuestas obligatorias donde se dan opciones de respuesta espe-cíficas; y 2) preguntas de interpretación abierta donde los encuestados responden en sus propias palabras.
Prestar suficiente atención
para escribir una carta de solicitud en la forma correcta.
Tomar en consideración los antecedentes sociales y culturales y las formas de expresión para que se transmita correctamente la intención de las preguntas.
Que el volumen no sea muy grande.
Seleccionar los tipos de respuesta al tiempo que se toma en consideración los métodos de análisis de datos.
4. Encuesta por Entrevista
Hay varios tipos de entrevis-ta, dependiendo del objetivo - entrevista individual, de gru-po, de informante clave, etc.
Hay tres tipos de entrevistas
dependiendo de la estructura de las preguntas.
① Entrevista Estructurada: Se
preparan preguntas especí-ficas, al igual que en la encuesta por cuestionario.
Es posible tratar de manera flexible con los encuestados, dependiendo de la situación.
Es posible obtener más información a partir de las reacciones de los encuestados - por ejemplo, sus expre-siones faciales, vo-ces, etc.
Es posible hacer preguntas adiciona-les para obtener más detalles.
Requiere tiempo. Las habilidades del
encuestador influyen sobre los resultados.
La parcialidad de un individuo puede influir sobre los resultados.
En muchos casos, no es posible cuantificar los datos y, por tanto, generalizar los resultados.
(Consejos)
Crear preguntas suponiendo una conversación agradable.
Evitar preguntas largas o demasiadas preguntas.
Tratar de obtener información observando las expresiones faciales, actitudes, etc. de los encuestados.
② Entrevista semi-estructurada:
Se preparan las preguntas principales. Se formulan preguntas adicionales durante la entrevista cuando es necesario.
③ Entrevista Sin Estructura:
Únicamente se aclara la intención de la entrevista. Se hacen preguntas libres a cada encuestado.
84
5. Discusión del Grupo de Control
Un grupo de alrededor de
10 personas con los mismos antecedentes discuten sobre temas (o preguntas) específicas. Se puede obtener su percepción hacia los temas o ideas observando la discusión.
Es relativamente fácil llevarla a cabo.
Se obtiene información sobre temas específicos desde varios puntos de vista a partir de la interacción de los participantes.
Es muy fácil escuchar las objeciones.
No es adecuada para temas de naturaleza delica-da.
Algunos encuestados po-drían controlar la discusión.
Los encuestados tal vez no expresen sus verdaderos sentimientos si los temas están relacionados con las normas sociales.
Las habilidades del mode-rador influyen en las discusiones (es necesario tener moderadores capa-ces).
Seleccionar cuidadosamen-te a los miembros (máximo 12 personas).
Pida a alguien que lleve un registro de la discusión.
En la encuesta por cuestionario o en la entrevista, es muy fácil que la forma de hacer
las preguntas influya en los resultados. A menos que las preguntas sean adecuadas y
operativas, es posible que no se obtengan los datos necesarios como se esperaba
aunque la encuesta por cuestionario se realice para toda la población, o para los
encuestados clave que pueden tener información importante. A continuación se
describen algunos consejos sobre cómo preparar los cuestionarios y las preguntas de
acuerdo con los diferentes métodos de recopilación de datos.
85
Tabla 2-2-5 Consejos para Preparar Cuestionarios y Preguntas
Encuesta por Cuestionario
(Encuesta
Enquete)
Utilice palabras y expresiones claras y sencillas. Las oraciones deben ser sencillas y no demasiado largas. No pregunte dos o más cosas en una misma pregunta. Evite usar oraciones con doble negación. No utilice preguntas con tendencias. Incluya preguntas para realizar una doble verificación. Incluya algunas opciones que permitan al encuestado no
responder - por ejemplo, no es aplicable, sin opinión, etc. Mantenga el volumen total modesto, no demasiado grande (dos
o tres páginas cuando mucho). Estipule el propósito de la evaluación (el propósito de la
encuesta) y su confidencialidad. No olvide expresar su agradecimiento por la cooperación. Se deben considerar totalmente los aspectos sociales y
culturales y evitar expresarse de manera que pueda afectar sensibilidades.
Entrevistas (Aquí se asume el caso de la entre-vista sin estructura; los consejos para la entrevista estructu-rada son similares a los de la encuesta por cuestionario, descritos arriba.)
Empiece con preguntas generales/simples antes de hacer las preguntas personales/difíciles.
Decida el orden de las preguntas suponiendo una conversación agradable - por ejemplo, organice los temas relacionados de manera consecutiva (sin embargo, un encuestador puede saltar algunas preguntas dependiendo de las respuestas del encuestado).
Prepare las preguntas principales reflejando la intención de la entrevista y haga preguntas adicionales lógicas. El encuestador siempre debe tener en mente la intención de la entrevista.
Se deben considerar totalmente los aspectos sociales y culturales y evitar expresarse de manera que pueda afectar sensibilidades.
De antemano organice su tiempo, el contenido de la entrevista y el orden de las preguntas para que la entrevista termine dentro del tiempo límite.
Discusión del Grupo de Control
Establezca una pregunta o tema principal y evite hacer preguntas nuevas hasta que los participantes terminen de discutir sobre la primera.
No haga preguntas que se deban responder con sí o no. Haga preguntas que le permitan comprender las razones,
causas y antecedentes del comportamiento u opiniones. Fuente: Atsuko Isoda (2003), “Capítulo 3: Joho/Deta no Shushu to Bunsekishuho (Métodos de
Información y Recopilación de Datos y Análisis),” Ed. NPO Corporation Ayus,
Kokusaikyoryoku Purojekuto Hyoka (Evaluación de Proyectos de Cooperación Internacional),
International Development Journal, p. 71-112
(2) Combinación de Diferentes Métodos de Recopilación de Información
Para poder aprovechar al máximo los pros y reducir al mínimo los contras de cada
método de recopilación de información es necesario combinar diferentes métodos. Por
ejemplo, se puede realizar una encuesta por cuestionario para complementar los datos
existentes. O, se puede llevar a cabo una discusión del grupo de control entre la gente de
la localidad para conocer su percepción una vez que se ha entendido la tendencia
86
general a partir de una encuesta por cuestionario. También es posible realizar una
encuesta utilizando métodos de recopilación de datos cuantitativos y cualitativos. Es
importante considerar la combinación de varios métodos para reducir las parcialidades de
los encuestadores y los encuestados. A continuación se describen algunos ejemplos de combinación de métodos.
Combinación de diferentes métodos
Primero facilitar una discusión del grupo de control para formular preguntas para una encuesta por cuestionario posterior.
<Ejemplos del Uso y los Pros> ・ Comprender temas importantes al observar a aquellos interesados en un proyecto,
analizar sus percepciones a través de una discusión del grupo de control, y reflejar los resultados en una encuesta por cuestionario.
・ Cuando se establecen opciones de respuesta específicas para una encuesta por cuestionario, refiérase a los resultados de la discusión de un grupo de control.
Facilite una discusión del grupo de control después de obtener resultados a través de una encuesta por cuestionario o revisión de literatura para poder investigar aún más la información de los antecedentes.
・ Facilite una discusión de un grupo de control para comprender los factores que afectaron al proyecto. Una discusión de ese tipo puede ayudar a explicar las razones y los antecedentes detrás de los resultados de la encuesta por cuestionario (pregunte a los participantes por qué razón se obtuvieron los resultados).
・ Pida a los participantes que apoyen la evidencia de los datos en los informes de seguimiento (es decir, en caso que los resultados sean bajos) y en los factores influyentes.
Realice una encuesta por cuestionario al final de la entrevista de grupo. ・ Es probable que los encuestados comprendan de antemano la intención de la
encuesta por cuestionario. ・ Es más fácil obtener la cooperación de los encuestados con una encuesta por
cuestionario.
En una encuesta por cuestionario utilice algunas preguntas con respuestas obligatorias junto con otras de selección múltiple.
・ Es posible conocer la percepción del encuestado en una forma que no se hubiera podido obtener mediante el análisis de las preguntas con respuestas obligatorias.
Realice una entrevista de grupo con varios informantes utilizando las mismas preguntas.
・ Es posible conocer cómo perciben las partes interesadas un fenómeno específico. ・ Los datos podrían ser más confiables.
87
< Cuadro 6: Triangulación >
La triangulación se realiza para poder aplicar diversas técnicas de recopilación
de datos para aprovechar al máximo los pros y reducir al mínimo los contras de
cada recopilación. Este enfoque intenta comprender la realidad completa al
examinar un fenómeno desde diferentes ángulos, y que un sólo método puede
describir únicamente una parte de la realidad. En las evaluaciones, los siguientes 4
tipos de triangulación pueden contribuir a la verificación y validación de los análisis
cualitativos.
1. Métodos de Triangulación: Verificar la consistencia de los resultados generados
mediante diferentes métodos de recopilación de datos
2. Fuentes de Triangulación: Verificar la consistencia de las diversas fuentes de información dentro de los mismos métodos
3. Triangulación de los Analistas: Utilizar varios analistas para revisar los resultados
4. Triangulación de la Teoría/Perspectiva: Utilizar diversas perspectivas o teorías
para interpretar los datos
88
(3) Tipos de Métodos de Análisis de Datos
El personal de la JICA no está involucrado directamente en la tarea de analizar los datos
recopilados. Sin embargo, deben tener un conocimiento básico de los métodos de
análisis de datos para que puedan planear estudios de evaluación y crear los Términos
de Referencia (TORs) para quienes los consulten. Si están familiarizados con las
diferentes características de los métodos de análisis de datos, les ayudará a decidir los
planes de trabajo de evaluación adecuados. Hay dos tipos de análisis de datos: 1)
análisis cuantitativo; y 2) análisis cualitativo - exactamente igual que los tipos de datos.
Se deben utilizar de manera complementaria. El análisis cuantitativo demuestra el grado de logro o relaciones causales mediante
datos cuantitativos con bases estadísticas. Intenta presentar los resultados de la
evaluación tan científicamente como sea posible.
Por otro lado, el análisis cualitativo utiliza la información cualitativa obtenida de la
revisión de literatura, entrevistas o discusiones del grupo de control, etc. El conjunto de
herramientas analíticas no se prepara con anticipación, y en el proceso del análisis de
datos es posible construir a partir de la deducción el significado de los datos, hechos
nuevos o las relaciones entre los factores. Las parcialidades de los encuestados y los analistas pueden influenciar los resultados
del análisis cualitativo. Para poder asegurar la objetividad de los resultados, es necesario
incorporar medidas tales como que un tercero realice el análisis o combinar los métodos
de recopilación de datos. Uno de los pros del análisis cualitativo es su habilidad para
obtener información detallada sobre poblaciones objetivo locales y cambios en el
comportamiento de la gente. Los resultados del análisis cualitativo se pueden utilizar
como evidencia de soporte para los resultados del análisis cuantitativo, y con ello ayudar
a identificar los diversos factores que influyen en los resultados del proyecto.
89
< Cuadro 7: Métodos Básicos de Análisis Cuantitativo >>
Incorporación Simple y Análisis Estadístico Simple El método de análisis cuantitativo simple trata con una sola variable. Este método es
adecuado para examinar el grado de logros o comparar esos logros con los valores
objetivo. Aunque es un método sencillo, proporciona datos valiosos y, por lo tanto, es útil
para realizar la evaluación. A continuación se describen los tipos de análisis.
・ Frecuencia (es decir, cuántas personas respondieron “sí” y cuántas “no”)
・ Distribución porcentual (es decir, la proporción de personas que
respondieron por cada 100)
・ Tendencia central (la media, el modo, la mediana)
・ Desviación estándar (para ver qué tan alejados están los valores de la
media)
Incorporación Cruzada Este tipo de método de análisis estadístico observa cómo cada una de las personas
que contestaron de cierta forma a una pregunta responde a otra, o la tendencia de
respuestas dependiendo de la atribución. Por ejemplo, cuando se crea una tabla (una
tabulación cruzada) con dos variables: 1) la variable horizontal es “la costumbre de
lavarse las manos”; y 2) la variable vertical es “la participación en la campaña de
higiene”, podemos calcular la frecuencia o proporción de personas que acostumbran
lavarse las manos con base en su participaron en la campaña o no. Este método es útil
para comparar un grupo objetivo con un proyecto y un grupo de control sin proyecto
(con/sin), o para examinar la influencia de un proyecto sobre diferentes grupos.
Coeficiente de correlación Este tipo de método de análisis estadístico examina si existe o no una relación lineal
entre dos grupos de valores numéricos para dos variables (por ejemplo, los datos del
nivel de ingreso y del nivel de educación). Hay dos tipos de relaciones en esa dirección:
1) una relación positiva donde el aumento en el valor de una variable está acompañada
por un aumento en el valor de la otra; y 2) una relación negativa donde la disminución en
el valor de una variable está acompañada por un aumento en el valor de la otra.
Análisis con múltiples variables Este tipo de método de análisis estadístico trata con tres o más variables. El análisis
con múltiples variables incluye la “regresión múltiple” para analizar diversas variables y el
“análisis factorial” para analizar el grado de influencia de otros factores sobre una
variable. Este método se utiliza para examinar las relaciones causales entre variables
donde se calcula una correlación y requiere de un software especial de análisis. (Fuente: Atsuko Isoda (2003), “Capítulo 3: Joho/Deta no Shushu to Bunsekishuho (Métodos de
Información y Recopilación de Datos y Análisis),” Ed. NPO Corporation Ayus, Kokusaikyoryoku
Purojekuto Hyoka (Evaluación de Proyectos de Cooperación Internacional), International Development
Journal, p. ??.)
90
< Cuadro 8: Métodos Básicos del Análisis Cualitativo >
Explicar la Situación Transmitir a los lectores (aquellos que podrían utilizar los datos cualitativos) el
panorama general de un proyecto, incluyendo lo que está suciediendo en el sitio del
proyecto, cómo lo perciben las partes interesadas y en qué situación se están
implementado actividades o eventos específicos, etc.
Clasificar la Information de Acuerdo con Patrones y Temas Encontrar la información o los resultados de las observaciones que se pueden
clasificar bajo el mismo tema o concepto y reunirlos en un grupo. Esto es similar a la
tarea de crear índices en un sistema de archivo. Los datos no sólo adquieren un
nombre, sino que se clasifican. Esta labor es muy efectiva cuando la realizan dos o
más personas por separado y luego comparan cada resultado con el de los otros.
Esto es porque cada persona puede analizar los datos desde puntos de vista
diferentes, y cuando se comparan los resultados se puede reducir las parcialidades
de los analistas. Los datos clasificados se pueden utilizar para identificar las
relaciones entre temas específicos y el proyecto objetivo.
Examinar las Relaciones en la Información Otro método de análisis cualitativo es examinar las relaciones que hay dentro de la
información. Se pueden comprender la situación y los temas de un proyecto si se
clasifica de manera lógica los datos cualitativos en categorías tales como el proceso
y los efectos del proyecto. Las tablas o los diagramas de flujo pueden ayudar a
identificar esas categorías y explicar la relación entre ellas.
91
5. Formulación de una Tabla de Evaluación El último paso para elaborar un plan de evaluación es reunir el contenido de toda la
planeación en una “Tabla de Evaluación”, una tabla del plan de trabajo de evaluación
(consulte la tabla 2-2-7 que muestra un ejemplo). Todos los componentes en la tabla de
evaluación están correlacionados entre sí, y nos ayudan a desarrollar el plan de trabajo
más adecuado para realizar una evaluación. En el proceso de crear una tabla de
evaluación siempre debemos tener en mente cuál es la forma más adecuada de
responder a las preguntas de evaluación. La tabla de evaluación se debe usar con flexibilidad. No hay reglas en la forma de
describir y se puede añadir una nueva columna (por ejemplo, método de muestreo,
proporción de los géneros, etc.) cuando sea necesario. Lo importante es que se
especifique claramente la manera de responder las preguntas de evaluación y que se
identifiquen los métodos más efectivos dentro de los recursos limitados. Una vez que se
termina la tabla, para realizar la encuesta también es importante reflejar el contenido de la
misma en el cuestionario u hoja de preguntas. En caso que las partes interesadas estén involucradas directamente en la evaluación
(por ejemplo, una evaluación conjunta con el país socio), deberán compartir la tarea
común de los métodos de evaluación. Cuando se utiliza la tabla de evaluación como una
herramienta de comunicación, aquellos involucrados pueden compartir las ideas de la
evaluación. Se puede mejorar la calidad de la evaluación si se utilizan cabalmente los
puntos de vista y las experiencias de las partes interesadas. Tabla 2-2-6 Formato de la Tabla de Evaluación
Preguntas de Evaluación Criterios de
Evaluación
Preguntas principales
Preguntas secundarias
Bases de juicio
Datos necesa- rios
Fuentes de Informa- ción
Métodos de Recopila-ción de Datos
Pertinencia
Efectividad
Eficiencia
Impacto
Sustentabi-lidad
Otros
92
Tabla 2-2-7 Ejemplo de una Tabla de Evaluación: (Caso: “Proyecto de Capacitación de Maestros de Matemáticas y Ciencias”)
Preguntas de Evaluación Cinco Criterios Temas
principales Temas menores
Bases del Juicio
Datos necesa- rios
Fuentes de Informa- ción
Métodos de Recopilación de Datos
Compara-ción con el valor objeti-vo (el valor medio no es menor de 3.0) Compara-ción antes/ después
Valor pro-medio del índice para medir la calidad de los méto-dos docen-tes
250 maestros capacita-dos
Encuesta por cuestionario
¿Mejoraron los métodos de enseñan-za de los maestros?
Percepción de los ins-tructores
30 instructo-res
Grupo de control
¿Mejoró el grado de comprensión de los maestros en cuanto al contenido de los temas?
Comparación con el valor obje-tivo (la cali-ficación promedio no es me-nor de 80 puntos) Compara-ción antes/ después
Califica-ción pro-medio de la prueba
250 maestros capacita-dos
Prueba
Efectividad
¿La calidad de la educa-ción en la escuela mo-delo mejoró gracias al proyecto?
¿Los maes-tros capacita-dos partici-pan continua-mente en ac-tividades de educación?
Comparaci-ón con el valor objeti-vo (80 por ciento si-guen invo- lucrados)
Proporción de los maestros que siguen involucra-dos
Documen-tos del proyecto
Revisión de la literatura
93
Capítulo 3 Interpretación de Datos e Información de los Resultados de la Evaluación Este capítulo explica cómo interpretar los datos y cómo reunir los resultados de la
evaluación.
¡Consejos! - La evaluación no termina con la recopilación y análisis de datos. También es muy
importante continuar con la interpretación de los mismos e informar sobre los
resultados llegando a un consenso sobre ellos con las partes interesadas.
- La interpretación de datos se realiza para evaluar el proyecto desde el punto de vista amplio de los cinco criterios y llegar a una conclusión. Esto es el proceso de juicio de
valor.
- En la interpretación de datos también se analizan los factores que dificultan o contribuyen. Es necesario identificar los factores influyentes utilizando los conceptos
de falla de la implementación o falla de la teoría.
- Las recomendaciones y lecciones aprendidas deben ser específicas y prácticas, y fundamentadas con evidencia. Es importante tener la oportunidad de llegar a un
consenso con los usuarios potenciales cuando se hacen las recomendaciones y se
establecen las lecciones aprendidas a partir de los resultados.
- El evaluador necesita escribir un informe que sea lo suficientemente lógico para comunicarse con terceras partes que no tuvieron una participación directa en el
proceso de la evaluación.
94
1. Interpretación de Datos
La evaluación no termina con la recopilación y análisis de datos para determinar el valor
medio o el grado de satisfacción Con base en esos resultados de análisis, es necesario
adoptar algunos juicios de valor de acuerdo con los criterios de evaluación. Al mismo
tiempo, para poder hacer recomendaciones y lecciones aprendidas útiles, es necesario
analizar a fondo los factores influyentes que afectaron los resultados. Esta tarea se
conoce como “interpretación”. Como hemos visto hasta ahora, el estudio de evaluación
sigue el proceso que empieza con la “recopilación de datos” pasa por el “análisis de
datos” y llega hasta la “interpretación de los resultados”.
El proceso de interpretación tiene dos pasos: 1) adoptar juicios de valor sobre un
proyecto de acuerdo con los Cinco Criterios de Evaluación; y 2) llegar a una conclusión
con base en dichos juicios.
(1) Evaluación Mediante los Cinco Criterios
La primera tarea es evaluar un proyecto mediante los cinco criterios y especificar los
factores que llevaron a los resultados de la evaluación. Por ejemplo, supongamos que
evaluamos la efectividad de un proyecto de suministro de agua y que ésta se examina
con base en el análisis de datos donde la respuesta a la pregunta “¿qué porcentaje de
aldeanos pudieron tener acceso al agua potable gracias al proyecto?” es “60 por ciento
de todos los aldeanos pudieron tener acceso al agua potable”. En caso que el evaluador
juzgue que la efectividad no es lo suficientemente alta porque no se alcanzó el valor
objetivo (80 por ciento de los aldeanos), será necesario analizar los factores que
inhibieron el logro del objetivo. Puede existir un problema con la ubicación donde se
instalaron los trabajos de agua, o que el comité de manejo del suministro de agua no esté
funcionando correctamente.
Cuando se explican los factores que dificultan o contribuyen, es necesario presentar a
las partes interesadas evidencias específicas tomadas de los resultados de la encuesta.
95
De lo contrario, podría disminuir la credibilidad de la evaluación. Y por ello, menos gente
estaría convencida de utilizar los resultados de la evaluación.
Si la conclusión únicamente indica que la “efectividad es alta” sin analizar los factores
que dificultan o contribuyen, o si los informa la puntuación de cada criterio, es posible que
no se puedan utilizar los resultados para mejorar el proyecto. Sólo cuando se identifican
los factores influyentes se pueden proponer recomendaciones y lecciones aprendidas
útiles.
(2) Conclusión
El siguiente paso es llegar a una conclusión para cada uno de los cinco criterios con base
en los resultados de la interpretación. En una evaluación que utiliza los cinco criterios, el
evaluador percibe un proyecto desde el punto de vista de cada criterio individual. No
obstante, para llegar a una conclusión, el evaluador debe emitir un juicio de valor por
cada propósito de la evaluación desde un punto de vista integral, tomando en
consideración todos los criterios. Por ejemplo, en una evaluación ex-ante, un equipo
encargado de la evaluación decide si es válido o no realizar un proyecto y si el contenido
de los planes es adecuado o no. En caso de una evaluación final, un equipo juzga si un
proyecto tiene éxito y si se debe concluir la asistencia. El equipo también debe brindar
evidencia para el juicio a partir de los resultados.
Cuando se llega a una conclusión, se puede aplicar el siguiente enfoque para volver a
examinar un proyecto: 1) las relaciones causales supuestas entre la implementación del
proyecto y los efectos fueron adecuadas o no; y 2) el proceso de implementación fue el
adecuado o no. Por ejemplo, si la efectividad es baja a pesar de que la eficiencia (la
relación entre los insumos y los productos) es alta en un proyecto, pueden existir algunos
problemas en el proceso de planeación que especificaba las relaciones causales que
producirían los efectos esperados (o los planes originales). O, en caso que no se
produzcan los efectos aunque se considere adecuada la estructura del proyecto (las
96
relaciones causales lógicas), puede haber problemas en el proceso de implementación (o
en la forma de implementar un proyecto, incluyendo los insumos y el sistema de gestión).
Volver a examinar esos temas en un proyecto aclara quién es responsable de qué, y
permite formular recomendaciones y proponer las lecciones aprendidas más
específicamente. Este análisis es esencial para la evaluación interna cuyo objetivo
principal es la retroalimentación de los resultados de la evaluación a quiénes son
responsables o están interesados para mejorar la gestión y operación del proyecto.
97
2. Recomendaciones y Propuestas de las Lecciones Aprendidas
Se hacen recomendaciones y se proponen lecciones aprendidas con base en la
conclusión. Las “Recomendaciones” incluyen medidas específicas, sugerencias y
consejos sobre un proyecto objetivo para la JICA o para aquellos interesados en las
agencias de implementación. Las “Lecciones” se pueden aprender a través de la
experiencia de un proyecto objetivo y retroalimentar a proyectos similares vigentes o al
proceso de búsqueda y planeación de un proyecto en el futuro.
Es importante alcanzar algún consenso entre las partes interesadas (incluyendo los
funcionarios del gobierno de un país socio) sobre las recomendaciones y lecciones
aprendidas. Al involucrar a los usuarios potenciales de los resultados de la evaluación,
se espera que se practiquen las recomendaciones y lecciones aprendidas, y
consecuentemente, se harán algunas mejoras en la gestión y operaciones del proyecto.
Si las recomendaciones y lecciones aprendidas no fueran suficientemente específicas
o prácticas, no mucha gente las utilizaría. Es en extremo importante transmitir mensajes
claros ofreciendo evidencia de apoyo obtenida de los resultados de la evaluación. Es
necesario examinar los siguientes temas cuando se hagan las recomendaciones y se
propongan las lecciones aprendidas.
Temas a examinar
Es necesario hacer las recomendaciones/lecciones aprendidas con base en la información obtenida a través del proceso de análisis e interpretación de datos. El contenido debe satisfacer el propósito de la evaluación. Las recomendaciones/lecciones aprendidas deben estar dirigidas a los usuarios potenciales de los resultados de la evaluación. Evite recomendaciones/lecciones aprendidas vagas y poco prácticas. Las recomendaciones deben ser específicas y estar clasificadas por prioridades con un marco de tiempo determinado (por ejemplo, a corto o largo plazo) hasta donde sea posible para que las siguientes medidas se puedan adoptar fácilmente. Las lecciones deben ser generalizadas y estar conceptualizadas para que se puedan aplicar ampliamente.
98
Tabla 2-3-1 Flujo de Interpretación de Datos y las Recomendaciones/Lecciones Aprendidas
Análisis de Datos Valor numérico de los datos según el análisis cuantitativo Temas e incidentes obtenidos a través del análisis
cualitativo Resultados de la Evaluación Mediante los Cinco Criterios de Evaluación
Juicios basados en cada uno de los Cinco Criterios de Evaluación: - pertinencia, efectividad, eficiencia, impacto y sustentabilidad
Brindan evidencia para el juicio y analizan los factores que dificultan o contribuyen
Conclusión
Respuestas a las preguntas de evaluación
Juicio con el propósito de evaluación desde un punto de vista amplio con base en los resultados de los cinco criterios
Evaluación Ex-ante: si es válido implementar un
proyecto específico y si el contenido de sus planes es adecuado o no
Evaluación Intermedia: si un proyecto está produciendo los efectos esperados y si hay necesidad de modificar sus planes o no
Evaluación Final: si un proyecto se considera una buena práctica o un fracaso
Evaluación Ex-post: si los efectos producidos están sustentados o si el proyecto valió la pena o no
Juicios para otros propósitos de evaluación
Brinda las bases Examina si se puede atribuir el problema a la forma en que se especificaron las relaciones causales (una cuestión derivada de la planeación del proyecto) o al proceso de implementación (una cuestión derivada de la implementación de un proyecto)
Recomendaciones Medidas específicas, sugerencias y consejos sobre un
proyecto objetivo que aquellos interesados deben tomar en consideración
Lecciones Aprendidas Lecciones aprendidas a través de la experiencia de un
proyecto objetivo (información útil para determinar y formular proyectos en el futuro o para la gestión de otros proyectos vigentes)
99
3. Envío de Información sobre los Resultados de la Evaluación
Es necesario reportar los resultados de la evaluación de manera sencilla y clara a los
usuarios potenciales. Si el informe es difícil de entender, los resultados de la evaluación
no se retroalimentan y utilizan fácilmente. Ocasionando que se termine por desperdiciar
los recursos (sobre todo tiempo y dinero) invertidos en la evaluación. Los informes deben
explicar los temas clave de manera clara para aquellos que no participan directamente en
el estudio de evaluación, para que puedan seguir y entender los resultados con facilidad.
En la JICA, los resúmenes tales como la “Tabla de Evaluación Ex-ante” y la “Tabla del
Resumen de los Resultados de la Evaluación” se anexan al informe de la evaluación (o al
documento de un proyecto en el caso de la evaluación ex-ante). Además, los resúmenes
se deben preparar en inglés para retroalimentar a los países socios. Estos resúmenes de
los resultados de la evaluación se publican en la página de la JICA para demostrar la
responsabilidad. (Consulte las tablas 2-3-2, 2-3-3 y 2-3-4 que muestran ejemplos de los
formatos de estos documentos.)
A continuación se muestran consejos sobre como informar adecuadamente los
resultados de la evaluación.
Consejos para preparar un informe
Evite un informe redundante. Limite el tamaño de la parte principal a unas 30 o 40 páginas. Asegúrese de hacer un resumen de los resultados de la evaluación. Escriba un informe usando expresiones específicas de manera simple, enfatizando los temas que desea transmitir. Evite utilizar términos técnicos con mucha frecuencia. Cuando explique los datos, utilice tablas y figuras de manera adecuada y simple para que los lectores puedan recibir el mensaje que se quiere transmitir a través de ellos. Establezca las limitaciones del estudio de evaluación. Proporcione las bases de los juicios en los resultados de la encuesta de evaluación. Estipule las fuentes de los datos mencionados. En un apéndice incluya la tabla de evaluación, el contenido del cuestionario y los datos recopilados.
100
Tabla 2-3-2 Ejemplo del Contenido de un Informe de Evaluación (en una Evaluación Final) Índice
Prólogo
Mapa del Sitio del Proyecto
Fotografías
Abreviaturas
Resumen de los Resultados de la Evaluación
Capítulo 1 Alcance del Estudio de Evaluación
- Antecedentes y Objetivo del Equipo encargado de la Evaluación
- Equipo encargado de la Evaluación y Marco de Tiempo
- Descripción General del Proyecto, etc.
(por ejemplo, Antecedentes del Proyecto, Marco Lógico, etc.)
Capítulo 2 Métodos de Evaluación
- Preguntas de Evaluación, Datos Necesarios e Indicadores
- Métodos de Recopilación de Datos
- Métodos de Análisis de Datos
- Restricciones y Limitaciones del Estudio de Evaluación
Capítulo 3 Logros del Proyecto
- Insumos y Productos
- Propósito del Proyecto
- Proceso de Implementación
101
Tabla 2-3-2 (continuación)
Capítulo 4 Resultados de la Evaluación
4-1 Evaluación de Cada uno de los Cinco Criterios
- Describe los resultados del análisis de datos, los resultados y bases de la
evaluación y los factores que dificultan o contribuyen relacionados con cada
uno de los Cinco Criterios de Evaluación
4-2 Conclusión
- Examine los factores que dificultan o contribuyen y emita juicios sobre la
evaluación de resultados a partir de un punto de vista amplio
- Resuma los temas más notables cuando sea necesario
Capítulo 5 Recomendaciones y Lecciones Aprendidas
5-1 Recomendaciones
- Describa las medidas específicas, sugerencias y consejos relativos a un
proyecto objetivo o a un programa de cooperación relacionado.
- Describa las recomendaciones de cada usuario potencial, en orden de
prioridad, y de ser posible, en un marco de tiempo.
5-2 Lecciones Aprendidas
- Describa información útil, obtenida a partir de los proyectos objetivo, para
determinar proyectos y formular proyectos similares o la implementación y
la gestión de otros proyectos vigentes.
- Describa información útil para formular un programa de cooperación en el
área relacionada.
Apéndice:
1. Programa del Estudio
2. Entrevistados Principales
3. Minutas
4. Tabla de Evaluación
5. Cuestionario, Temas en Cuestión, etc.
6. Recopilación de Datos y Resultados del Análisis
7. Lista de Literatura y Documentos Recopilados
8. Otros Materiales Relacionados
102
Tabla 2-3-3 Ejemplo del Resumen de una Evaluación Intermedia y Final
I. Lineamientos del Proyecto País: Título del Proyecto: Problema/Sector: Esquema de cooperación: División a cargo: División del Departamento
Costo total: _____ yenes Costo por participante: _____ yenes Porcentaje de la contribución de Japón: _ %
(R/D): Organización de Implementación del País Socio: Período de Cooperación
(Extensión): (F/U) :
Organización de Apoyo en Japón:
Cooperación Relacionada:
1 Antecedentes del Proyecto 2 Descripción General del Proyecto (escriba brevemente una descripción del proyecto/programa de capacitación en una o dos oraciones) (1) Meta General (Copie su meta general, propósito del proyecto, productos de su PDMe) (2) Propósito del Proyecto (3) Productos (4) Insumos Del lado japonés: Experto de largo plazo ______ Equipo Yenes Experto de Corto Plazo ______ Costo local Yenes Becarios recibidos ______ Otros Yenes Del lado de _____________: Contraparte ______ Equipo ______divisa local (______ yenes) Terreno e Instalaciones ______ divisa local (______ yenes) Costo local ______divisa local (______ yenes) Otros ______ divisa local (______ yenes) II. Equipo de Evaluación Miembros del Equipo de Evaluación
Período de Evaluación
Día/mes/año ~ día/mes/año Tipo de Evaluación: Final o Ex-post
III. Resultados de la Evaluación 1 Resumen de los Resultados de la Evaluación (1) Pertinencia (2) Efectividad (3) Eficiencia (4) Impacto (5) Sustentabilidad
103
2 Factores que promueven la sustentabilidad y el impacto (1) Factores relativos a la Planeación (2) Factores relativos al Proceso de Implementación 3 Factores que dificultan la sustentabilidad y el impacto (1) Factores relativos a la Planeación (2) Factores relativos al Proceso de Implementación 4 Conclusión 5 Recomendaciones 6 Lecciones Aprendidas 7 Situación del Seguimiento
104
Tabla 2-3-4 Hoja de Evaluación Ex-ante (Proyectos de Cooperación Técnica)
1. Título del Proyecto:
2. Descripción General de la Cooperación
(1) Descripción general del objetivo y productos del proyecto
(2) Período de Cooperación
(3) Monto total de la cooperación (Japón)
(4) Agencia de Implementación en el País Socio
(5) Agencia de Cooperación en Japón
(6) Grupo Objetivo y Beneficiarios
3. Necesidad y posición de la cooperación
(1) Situación actual y Problemas
(2) Posición dentro de las políticas nacionales del gobierno del país A
(3) Posición dentro de la política japonesa de asistencia para el extranjero y del plan de la
JICA para la implementación de programas por país
4. Marco de Trabajo de la Cooperación
(1) Objetivo de la Cooperación (Efectos Directos)
i) Objetivos a alcanzar al final de la cooperación (Propósito del Proyecto)
ii) Objetivos que se espera alcanzar después del final de la cooperación (Meta General)
(2) Productos y Actividades
(3) Insumos
i) Del lado japonés
ii) Del lado del país socio
(4) Factores externos (suposiciones importantes que deben concretarse)
5. Resultados de la Evaluación con base en los cinco criterios de evaluación
(1) Pertinencia
(2) Efectividad
(3) Eficiencia
(4) Impacto
(5) Sustentabilidad
6. Consideración de los problemas de Pobreza, Género y Medio Ambiente
7. Lecciones Aprendidas de Experiencias Pasadas
8. Plan de Evaluación para el Futuro
105
Parte III Gestión de la Evaluación
del Proyecto
106
Capítulo 1 Problemas en la Gestión de Evaluaciones Este capítulo explica cómo debe la JICA gestionar los proyectos de evaluación (es decir,
su método) y los problemas que se deben abordar. En muchos casos, consultores
manejan la recopilación de datos y el análisis de las evaluaciones; sin embargo, los
departamentos operativos del proyecto deben gestionar el estudio de evaluación -
incluyendo la contratación de consultores - para asegurar que éste se realiza de acuerdo
con el propósito de la evaluación. ¡Consejos! - La gestión empieza con la preparación del aviso público sobre el contenido de la
evaluación. Este aviso debe aclarar el “propósito y antecedentes de la evaluación” y
las “preguntas de la evaluación”. Cuando se está preparando el aviso es útil referirse
a un TOR. - Es extremadamente importante seleccionar el personal adecuado para asegurar la
calidad de la evaluación.
- Cuando se esté preparando y manejando la Tabla de Evaluación, el departamento
operativo del proyecto debe brindar información y asesoría adecuada al equipo de
evaluación ya que tiene mayor acceso a la información que sobre la que la tabla se
basa.
- Cuando se coordine con el personal del sitio, es necesario incluir en la evaluación
cualquier consejo que el gobierno de la contraparte brinde sobre la tabla.
- Al hacer los preparativos previos a la evaluación, es importante enviar cuestionarios y hacer citas con el personal interesado. En este momento se debe confirmar si el
cuestionario refleja o no el contenido de la tabla y si las personas que se entrevistaron
en las citas son fuentes de información adecuadas o no. También es muy importante
tener suficiente tiempo para los preparativos. - En el estudio de campo, es muy importante crear un consenso con los socios en
relación con el diseño de la evaluación y sus resultados. - La compilación de los resultados de la evaluación (que incluye la formulación de
recomendaciones y lecciones aprendidas) es un proceso vital que influye en cómo se
aplica la evaluación. Es necesario hacer esfuerzos para confirmar que los resultados
de la evaluación se presenten como la base para formular recomendaciones y
lecciones específicas y prácticas. - El departamento operativo del proyecto es responsable de examinar los resultados de
la evaluación y retroalimentarlos a los proyectos.
107
1. El Papel de los Departamentos Operativos del Proyecto de la JICA Las evaluaciones de la JICA, desde la etapa ex-ante hasta la ex-post, se realizan con el
propósito de gestionar la operación del proyecto; y por ello es necesario que los
resultados de la evaluación se retroalimenten directamente a la toma de decisiones. Para
que esto suceda, el personal de la JICA, (supervisores del proyecto, jefes de evaluación y
supervisores de departamento) que pertenezca a un departamento a cargo de un
proyecto específico debe encargarse personalmente de realizar las evaluaciones. Es
más, dicho personal adquiere el doble papel de “evaluador” y de “gerente de evaluación”
para que puedan ayudar al “lado evaluador” como miembros del equipo de evaluación. Por lo general, el período de evaluación se puede dividir en tres sub-períodos: el
“período preparatorio”, el “período de evaluación en el sitio” y el “período de
consolidación”. En cada uno, el departamento operativo del proyecto y el equipo de
evaluación realizan principalmente las siguientes tareas.
(1) Período preparatorio Durante el período preparatorio de una evaluación, se diseña un plan de evaluación
general que cubra el alcance de la evaluación y los métodos que se van a utilizar. Este
trabajo se divide principalmente en dos áreas: 1) formulación de un aviso público y 2)
preparación previa a la evaluación. Antes de formular el aviso público, se realiza un estudio sobre el propósito de la
evaluación con base en los materiales del proyecto pertinente y sobre el alcance y
métodos de la evaluación. Se prepara un TOR (Términos de Referencia - un documento
que señala los puntos contraídos por los evaluadores) donde se incorporan los resultados
del estudio arriba mencionado. Después, tomando el aviso público que se preparó con
base en el TOR y otros procedimientos (aprobación de los funcionarios del gobierno, etc.),
se realizan las operaciones de gestión que cubren todas las áreas de la preparación
previa a la evaluación. Esto incluye la selección del personal del equipo de evaluación,
preparación de una Tabla de Evaluación, coordinación con el personal local y el envío de
los cuestionarios antes de la evaluación. Sin embargo, se debe destacar que el aviso
público de la JICA sustituye al TOR, y por ello es en extremo importante preparar un
aviso público adecuado.
(2) Período de evaluación en el sitio La actividad durante el período de evaluación en el sitio se centra en la preparación de un
marco de trabajo para la evaluación, y en que el equipo de evaluación recopile datos y
lleve a cabo su análisis/interpretación. Si los resultados de la evaluación se deben vaciar
en “minutas”, el equipo de evaluación y el personal del país objetivo llevan a cabo
discusiones sobre las “conclusiones”, “recomendaciones” y “lecciones aprendidas”, y el
108
departamento operativo utiliza este proceso para promover el consenso dentro del equipo
de evaluación. En el caso de las evaluaciones de proyectos específicos, hay casos
donde el análisis de datos no se termina ya que la evaluación en el sitio se limitó a dos o
tres semanas3, y hay casos donde el análisis e interpretación de datos continúa en el
período de consolidación después que el equipo regresa a Japón.
(3) Período de consolidación de los resultados de la evaluación El período de consolidación de los resultados de la evaluación incluye la interpretación de
datos (cuando es necesario) y hacer el Informe de Evaluación por escrito. La
responsabilidad de escribir el informe se divide para aprovechar al máximo el papel que
desempeña cada miembro del equipo. Los resultados de la evaluación se deben retroalimentar al proceso de toma de
decisiones de la organización. Por eso, una vez que se recibe el Informe de la
Evaluación, el departamento operativo debe dar a conocer la información a través de
instrucciones, seminarios y otros eventos y debe poner en uso los resultados. La tabla 3-
1-1 muestra los pasos del trabajo de evaluación. Los departamentos operativos de la JICA son responsables de gestionar estas
actividades de manera adecuada. Básicamente, esto significa que son responsables por
el trabajo que asegurará la calidad de la evaluación (es decir, el control de calidad). Este
capítulo presenta los siguientes cinco puntos que los departamentos operativos deben
asumir como papel para asegurar la calidad de la evaluación.
Los papeles de los departamentos de la JICA encargados de la evaluación son los
siguientes:
- Preparación de un aviso público
- Gestión de los preparativos previos a la evaluación
- Manejo de la evaluación en el sitio
- Preparación de informes
- Retroalimentación de los resultados de la evaluación
Tabla 3-1-1: Tareas del departamento operativo de la JICA (evaluación del proyecto) Flujo de la evaluación Tareas (lista de verificación o lista de pendientes) Planeación de la evaluación *La preparación empieza aproximadamente 2 meses antes de la evaluación en el sitio *Se estipulan los consultores un mes antes de la
Preparación de la publicidad de un contrato - Coordinación con el personal en el sitio (solicitudes de
información, recopilación de materiales, etc.) - Proceso de los objetivos de evaluación - Establecimiento de los propósitos de la evaluación - Estudio y determinación de las preguntas de
evaluación - Estudio del alcance y métodos de la evaluación (marco
3 El período de evaluación ex-post de las evaluaciones de programas por país, las evaluaciones de programas y otros es largo
109
evaluación en el sitio de trabajo de la evaluación) - Estudio de la composición del equipo de evaluación - Preparación de la publicidad de un contrato Preparación previa a la evaluación - Selección del personal del equipo (incluyendo el
anuncio de los consultores) - Preparación de la Tabla de Evaluación - Envío por adelantado de los cuestionarios - Coordinación en el sitio (programa, establecimiento de
citas, etc.) - Evaluación en Japón, si es necesario (entrevistas con
los expertos que regresan, los miembros del comité de apoyo nacional, etc.)
Evaluación en el sitio (2 a 3 semanas)*
- Discusiones y acuerdo sobre el diseño de evaluación - Recopilación de datos - Análisis de datos - Interpretación de datos - Acuerdo básico sobre los resultados de la evaluación
(minutas, etc.) Preparación del Informe de Evaluación (1 a 2 semanas)
- Análisis de datos (si es necesario continuar) - Interpretación de datos (si es necesario continuar) - Preparación del Informe de Evaluación
Informe de Evaluación/ retroalimentación
- Instrucciones y seminarios celebrados - Retroalimentación al gobierno socio y las agencias
interesadas - Reflexión sobre el proceso de toma de decisiones
- Decisiones sobre los proyectos objetivo - Planeación de proyectos similares - Formulación de programas de cooperación
*El período de evaluación total para las evaluaciones ex-post en el caso de las
evaluaciones de programas por país, evaluaciones de programas, etc., tiende a ser más
largo.
110
2. Preparación de la Publicidad de un Contrato La gestión de la evaluación empieza con la preparación de un TOR (Términos de
Referencia - un documento que señala las responsabilidades que contraen los
evaluadores). La presentación del TOR aclara el alcance de la evaluación y sus
enfoques desde el punto de vista de quién haya pedido la evaluación. En el caso de las
partes contratadas, el TOR aclara el alcance de su autoridad y responsabilidad. El
proceso de preparación de un TOR incluye aclarar los antecedentes y propósito de la
evaluación, examinar la composición del equipo de evaluación que sea mejor para
realizar una evaluación consistente con el propósito, y formular una imagen conceptual de
los efectos finales. La tabla 3-1-2 muestra ejemplos de los puntos que se pueden incluir
en un TOR. Se debe observar que cuando se anuncia públicamente la selección de
consultores, es importante tener en mente todos estos puntos al preparar el borrador del
anuncio así como de los pedidos por escrito. Como se puede observar al examinar los puntos muestra, el proceso de preparación de
un TOR o el anuncio de un contrato es igual que el proceso utilizado para el diseño de
una evaluación. Específicamente, el departamento operativo debe describir con claridad,
los “antecedentes y propósitos de la evaluación” y las “preguntas principales de la
evaluación". Si las preguntas “¿Qué es lo que queremos aprender a través de esta
evaluación?” y “¿Quién debe recibir la retroalimentación de los resultados?” no se
responden con claridad no se puede considerar que la evaluación tenga sentido. A continuación se reúnen los puntos que el departamento operativo debe estudiar
cuando prepara el aviso de un contrato. (En estos lineamientos hay referencias que
describen metodologías relacionadas.)
(1) Confirmación de los antecedentes y propósito de la evaluación Primero que nada, es necesario confirmar el objetivo y propósito de la evaluación. El
propósito y los objetivos de retroalimentación supuestos de una evaluación difieren
dependiendo de la etapa en que se realiza dentro del ciclo del proyecto. Además, existen
casos donde se evalúa una serie de proyectos de manera transversal para cubrir un tema
determinado (por ejemplo, género, pobreza o el medio ambiente). Las preguntas
“¿Cuáles preguntas de evaluación son importantes?” “¿Qué tipo de datos se deben
obtener?” y “¿Cómo se deben evaluar los datos?” reciben respuestas diferentes
dependiendo del propósito de la evaluación. Por ello, es importante tener siempre en
mente el propósito cuando se procede con la evaluación. Es de vital importancia evitar
que la implementación de la evaluación se convierta en el propósito. (Ver 2-2-2.)
111
Tabla 3-1-2: Ejemplos de los Puntos incluidos en los TORs de Evaluación 1. Antecedentes y Propósito - Descripción del proyecto que se va a evaluar - Propósito de la evaluación - Objetivo/receptor esperado de los resultados de la evaluación (es decir, el “usuario” de
los resultados de la evaluación”) 2. Preguntas Principales de la Evaluación - Cinco criterios de evaluación (incluyendo las razones cuando se incluyen criterios de
prioridad) - Preguntas de la evaluación (“¿Qué se debe aprender a través de la evaluación?” y
preguntas principales relacionadas) 3. Métodos de Evaluación Sugeridos/Requeridos - Presentación de un marco de trabajo para el método de evaluación dentro de un
alcance viable (es decir, comparación con áreas sin proyecto, comparación antes/después de los grupos de implementación, evaluación participativa, análisis estadísticos, análisis de la eficiencia de costos, análisis cualitativo, etc.)
- Presentación de los métodos de recopilación de datos específicamente deseables, si los hubiere (por ejemplo, cuestionarios, entrevistas, grupos de control, etc.; incluya fuentes de información y muestras objetivo si es posible)
- Lista de las fuentes de información existentes 4. Miembros del Equipo y Papeles - Papeles de los miembros del equipo; división de responsabilidades - Habilidades que necesita cada miembro del equipo (por ejemplo, conocimiento
necesario de un experto sobre la evaluación arriba mencionada, capacidad analítica, experiencia, habilidades de lenguaje, etc.; si hay requisitos deseables, se deben enumerar junto con los requisitos mínimos)
5. Calendario de las Tareas Principales - Tareas principales y calendarios específicos para el período preparatorio, la evaluación
en el sitio y el período de consolidación 6. Productos esperados - Tipos de productos esperados, personas a recibir los productos y plazo límite - Temas propuestos para incluir en el Informe de Evaluación - Otros materiales 7. Presupuesto - Desglose del presupuesto y monto total (2) Determinación de las preguntas de la evaluación Para poder realizar una evaluación que esté alineada con su propósito, se deben
considerar aquellos puntos cuya evaluación podría ser benéfica. En caso de las
evaluaciones que se realizan para mejorar un proyecto objetivo, es importante hacer
preguntas que identifiquen sentimientos relativos a temas y problemas cotidianos en
conexión con varios temas obtenidos a partir de los informes y de la información de
supervisión. En cuanto a las evaluaciones ex-ante que contribuyen a la formulación de
112
planes de proyecto, hay una probabilidad alta de que las preguntas de evaluación se
concentren en el contenido del plan del proyecto, su pertinencia, su pertinencia ante otros
programas y su eficiencia. Después de considerar preguntas que serán la base de la
evaluación, es posible pensar en preguntas aún más específicas desglosando estas
preguntas; sin embargo, este paso se puede dejar pendiente hasta la selección de los
miembros del equipo. Como la JICA ha generado normas de evaluación (los “Cinco
Criterios de Evaluación”), es posible tomar en consideración preguntas de evaluación
específicas utilizando estas normas como referencia. (Ver 2-2-1.)
(3) Examen del marco de trabajo del método de evaluación Una vez que se determinan el propósito y las preguntas de la evaluación, el siguiente
paso es estudiar el método de evaluación. Los puntos que se examinan aquí incluyen
métodos de recopilación, análisis y evaluación de datos (por ejemplo, la comparación
entre regiones con/sin intervención, evaluación participativa, análisis estadístico, análisis
de efectividad de costos, análisis cualitativo, etc., así como encuestas por cuestionario,
entrevistas, discusiones de los grupos de control, etc.) (ver 2-2-2, 2-2-3 y 2-2-4) En este momento sólo se debe describir el método adecuado ya que el equipo de
evaluación llevará a cabo la evaluación según su propia experiencia. Lo importante es
estudiar el marco de trabajo del método de evaluación de forma que considere todos los
tipos de habilidades que se requerirán de los miembros del equipo (incluyendo los
consultores), el tiempo que será adecuado, etc.
(4) Estudio de la composición del equipo Después de estudiar el marco de trabajo del método de evaluación, es importante
considerar las especialidades de los miembros del equipo. Como se explicó en el
Capítulo 1 de la Parte I “Criterios para una Buena Evaluación”, se requiere de personal
muy confiable y que pueda llevar a cabo una evaluación justa. Por ello, se requiere
experiencia en los campos pertinentes, el conocimiento de los esquemas de asistencia, el
conocimiento de la teoría de evaluación y la capacidad de investigación. En algunos
casos, una sola persona puede brindar la experiencia en todas estas áreas, en otros, se
requiere un equipo de dos o más personas. Es importante elegir los recursos humanos
adecuados tomando en consideración el contenido del proyecto pertinente, el propósito
de la evaluación, el método de evaluación que se planea utilizar y otros puntos.4 Por ejemplo, es importante que un equipo de miembros tenga capacidades en el
análisis estadístico y las encuestas sociales si se tiene pensado hacer una encuesta por
cuestionario para una población grande. Si la evaluación se va a centrar en la
participación pública, los miembros deberán tener experiencia en evaluaciones
4 Incluso para las evaluaciones internas, es necesaria la perspectiva de un tercero para mantener la objetividad. Por ello, las terceras partes que no están involucradas en la implementación del proyecto se pueden emplear como líderes del equipo o miembros.
113
participativas y habilidades en el análisis cualitativo y la moderación. El examen de las
habilidades que los miembros del equipo deben poseer es una labor en extremo
importante ya que tiene un impacto directo sobre la calidad de la evaluación.
(5) Verificación de la imagen conceptual de los productos esperados y el presupuesto de la evaluación Es importante aclarar el contenido del informe final, los puntos que se deben incluir en él
y el plazo final. Además, es importante confirmar todo el presupuesto para el proyecto de
evaluación. Como en muchos casos es necesario determinar previamente el monto de
dinero que se puede aplicar a la evaluación, es frecuente que estos puntos se conviertan
en condiciones que influyan la forma en que se estudian las preguntas de la evaluación y
la escala de la misma. Si el presupuesto es ajustable, es posible tomar en consideración
las acciones adecuadas a la escala de la evaluación. Por ejemplo, después de ver el
propósito de la evaluación y sus preguntas, podría ser necesario ajustar el presupuesto o
el calendario si es que se deben contratar consultores locales o realizar una encuesta
más grande. La parte contratada para realizar la evaluación debe considerar en términos
concretos los tipos de evaluación que puede realizar con base en el propósito de la
misma, los productos esperados y los materiales de evaluación.
Referencia: Empleo de consultores locales Hay casos en los que el equipo de evaluación que manda Japón no puede obtener por sí mismo suficientes datos si se va a implementar una investigación social para medir el impacto sobre los residentes locales, si el objetivo de la evaluación es grande, o si se va evaluar el impacto sobre los beneficiarios, En esos casos, es necesario contratar un consultor local y crear un marco de trabajo de inicio parcial de la encuesta antes que llegue el equipo de evaluación y adoptar un enfoque donde el consultor local y el equipo realicen la evaluación juntos, etc.
Ventajas de contratar un consultor local Como el consultor local conoce la situación local, es posible que incluya la perspectiva
local no sólo en la implementación de la evaluación, sino también en el análisis de datos.
El consultor local domina el idioma local. Es más fácil obtener la cooperación de la gente objetivo de la evaluación. Se puede emplear al consultor local de tal manera que satisfaga las condiciones
locales de muestreo/recopilación de encuestas por cuestionario, etc.
Puntos a recordar cuando se contrata a un consultor local Se debe elegir un consultor que tenga las habilidades de evaluación y la experiencia
necesarias. Antes de la evaluación, el consultor debe comprender cabalmente el diseño de la
evaluación (propósito de la evaluación, preguntas, métodos, etc.). Se debe definir claramente la escala de la evaluación (método de compilación de
resultados y productos esperados). Durante la evaluación se debe llevar a cabo una supervisión.
114
Después de estudiar aquellos puntos como los arriba presentados, es importante
reflejarlos en un aviso público adecuado. El contenido del aviso debe diferir de acuerdo
con el propósito de la evaluación, las preguntas de la evaluación, el método supuesto de
recopilación de datos, etc. Es inconcebible que cada evaluación tenga un aviso público
que presente la misma metodología. Para poder llevar a cabo una evaluación útil, la
parte que solicita la evaluación debe considerar “qué tipo de metodología es deseable”,
“qué tipos de tecnología se necesitan” y “quién debe administrar estas tecnologías”. La tabla 3-1-3 presenta los puntos del aviso público que se utilizan en los contratos de
servicio actuales de la JICA así como su relación con los temas de estudio. Aunque la
imagen conceptual de los productos esperados y otros elementos estudiados no se
deben incluir necesariamente en el aviso público, estos puntos se deben compartir de
manera adecuada entre el personal interesado una vez que se hayan determinado los
miembros del equipo.
115
Tabla 3-1-3: Ejemplos de puntos en los avisos públicos y su relación con los puntos de estudio
*Por favor consulte la tabla 3-1-2 para ver ejemplos de los puntos del TOR.
Puntos Muestra de la
Publicidad del Contrato Relación con los puntos de estudio
previos a la evaluación (Contenido a reflejarse en la
Publicidad del Contrato)
Relación con el contenido*
del TOR
1. Consultor que se va a contratar
Puntos de responsabilidad, años de experiencia (después de haberse graduado de la universidad)
Estudio de la composición del equipo: experiencia necesaria para la evaluación, años de experiencia
4. Miembros del Equipo y Papeles
2. Período programado de operaciones
Período preparatorio, período de envío, período de consolidación, etc.
Estudio del marco de trabajo de la evaluación: período necesario de evaluación (por ejemplo, un cuestionario de gran escala requiere más tiempo del usual)
5. Calendario de las Tareas Principales
3. Vacunas necesarias
Necesarias/ innecesarias
4. Propuesta básica
Número de copias que se deben enviar, período para enviarlas, etc.
5. Puntos a recordar cuando se hagan las descripciones
Idiomas, país/ región objetivo, operaciones similares
Estudio de la composición del equipo: es necesario tener experiencia en los campos de la evaluación (no simplemente experiencia en evaluación, sino también experiencia en encuestas sociales y manejo estadístico, experiencia en áreas objetivo, etc.)
4. Miembros del Equipo y Papeles
6. Condiciones
Posibilidades de refuerzo, condiciones de remuneración, etc.
7. Composición del personal
Composición del equipo de evaluación
Estudio de la composición del equipo: es necesaria la experiencia del personal después de considerar el propósito de la evaluación y el marco de trabajo de evaluación
3. Métodos de Evaluación Sugeridos/Requeridos 4. Miembros del Equipo y Papeles
8. Propósito general
Antecedentes de la evaluación, descripción del proyecto,
Estudio de los antecedentes del proyecto, confirmación del propósito y examen de las preguntas principales de la evaluación: propósito para aplicar
1. Antecedentes y Propósito 2. Preguntas
116
propósito de la evaluación, etc.
los resultados de la evaluación y preguntas principales de la evaluación que deben verificar esta solicitud (El objetivo no es conducir una evaluación bajo los Cinco Criterios de Evaluación)
Principales de la Evaluación
9. Responsa-bilidades
Método de evaluación, responsabilidades específicas
Estudio del marco de trabajo de la evaluación: métodos principales de evaluación
3. Métodos de Evaluación Sugeridos/Requeridos
10. Otros temas
Necesidad de intérpretes, etc.
Es necesario considerar los puntos que no se mencionaron arriba pero que tienen un peso importante sobre las habilidades del consultor
117
3. Preparación Preliminar de la Evaluación Antes de empezar realmente con una evaluación, el departamento operativo de la JICA
debe elegir a los miembros del equipo de evaluación (y a los consultores), preparar la
Tabla de Evaluación y coordinarse con el personal en el sitio.
(1) Selección de los miembros del equipo Los miembros del equipo de evaluación que tienen la experiencia y habilidades
adecuadas se deben elegir de acuerdo con el diseño de evaluación que se estudió
durante el proceso de preparación del aviso público. La selección de consultores se
basará en el proceso establecido en el aviso público.
(2) Preparación de la Tabla de Evaluación En la preparación preliminar, se deberá preparar como parte del diseño de evaluación
una Tabla de Evaluación que se enfoque en el equipo de evaluación. (Consulte el
Capítulo 2, Parte II, para ver la metodología básica de cada punto dentro de la Tabla de
Evaluación.) Como el departamento operativo tiene mayor acceso a la información del
proyecto necesaria para el diseño de evaluación, el departamento debe gestionar el
proceso de formulación del diseño de evaluación al tiempo que comparte la información
arriba mencionada con el equipo. El departamento operativo proporcionará la información necesaria para preparar la
Tabla de Evaluación al tiempo que presta atención a las siguientes cuestiones para
asegurar la calidad de la evaluación.
Enfoque del departamento operativo
para la preparación de la Tabla de Evaluación Preguntas de evaluación - Confirmar el propósito de la evaluación y los objetivos de retroalimentación, y
presentar preguntas generales de evaluación. - En caso de las preguntas generales de evaluación, es necesario revisar que se hayan
considerado preguntas específicas desglosándolas en sub-temas, etc. Criterios y métodos - Presentar los criterios y métodos de la evaluación (por ejemplo, los valores objetivo,
métodos de comparación, etc.) - Si no hay valores objetivo en el marco lógico o si se considera que los indicadores no
son adecuados, discutir nuevos criterios (para sustituir los valores objetivo) e indicadores con las personas interesadas.
Datos necesarios - Prestar materiales relativos a los datos existentes (información de seguimiento,
estadísticas, etc.) Fuentes de información y métodos de recopilación de datos - Brindar asesoría sobre quién puede proporcionar los datos necesarios y dónde se
puede acceder a dicha información. - Confirmar si las fuentes de información y los datos son imparciales.
118
- Brindar información sobre todo acerca de los informadores clave y personas/organizaciones que se deben evaluar.
- Verificar si el diseño es lo suficientemente claro para responder a las preguntas de evaluación.
(3) Coordinación con el personal en el sitio Es necesario llevar a cabo una coordinación preliminar adecuada con el personal del sitio
antes de la evaluación en el sitio. Específicamente esto incluye actividades tales como la
coordinación del calendario de evaluación, la obtención de consejos de la oficina local de
la JICA en relación con la Tabla de Evaluación, distribución de cuestionarios y puntos de
entrevista, solicitud de citas con las fuentes de información, etc. En cuanto al contenido
de la Tabla de Evaluación, la asesoría de la oficina local debe ser muy valiosa para
asegurar fuentes de información, brindar antecedentes culturales y sociales, mostrar los
métodos de recopilación de datos de manera adecuada, etc. Además, como las
evaluaciones de proyectos normales se realizan en períodos cortos (dos o tres semanas),
es necesario asegurar un tiempo cuando se puedan distribuir los cuestionarios antes de
la evaluación y en el cual el equipo de evaluación pueda realizar cierto nivel de análisis
durante su misión. Si todas estas operaciones son consistentes, será conveniente que el período de
preparación sea lo más largo posible.
119
4. Gestión de las Evaluaciones en el Sitio La evaluación en el sitio empieza cuando se termina la planeación de la evaluación
(enfocada a la Tabla de Evaluación). Existen tres tareas necesarias para gestionar las
evaluaciones en el sitio: 1) la promoción de un consenso relativo al diseño de la
evaluación, 2) la recopilación de datos y el análisis de los resultados de la evaluación, y
3) la promoción del consenso relativo a los resultados de la evaluación (preparación de
las minutas, etc.).
(1) Promoción del consenso relativo al diseño de evaluación (mediante reuniones con el Comité de Evaluación Conjunta) Cuando el equipo llega al sitio de la evaluación, se realizan reuniones con el lado del
socio para llegar a un acuerdo y compartir información sobre el contenido de la
evaluación con base en la Tabla de Evaluación que desarrolló Japón.5 En el caso de lo
los proyectos de cooperación técnica, se establece un Comité de Evaluación Conjunta
para conducir una evaluación conjunta con el gobierno socio. Se debe crear consenso
sobre el diseño de la evaluación con los siguientes objetivos:
Objetivos de la creación de consenso
- Compartir el propósito de la evaluación entre el personal interesado
Es extremadamente importante compartir el propósito de la evaluación con el lado del
socio. Como existe la percepción fuerte de "la evaluación es igual a una libreta de
calificaciones", es importante comprender que la evaluación (incluyendo los medios
para aplicar los resultados de la evaluación), es una parte de la gestión del proyecto.
- Fomentar la comprensión del método de evaluación
Los medios para evaluar un proyecto se deben compartir con el lado del socio. Aquí,
es necesario explicar las perspectivas para confirmar las condiciones de
implementación y los Cinco Criterios de Evaluación, el pensamiento detrás de los
modelos de relaciones causales, los métodos para recopilar y analizar datos, etc.
- Corrección del diseño de evaluación
Es necesario intercambiar opiniones con la parte del socio sobre el contenido de la
Tabla de Evaluación, y se deben realizar los cambios necesarios cuando sea factible.
Esto será una oportunidad para obtener opiniones de la parte del socio sobre las
condiciones locales y para discutir sobre una evaluación eficiente y efectiva
(incluyendo si hay algún problema en la determinación de los métodos de muestro o
con la región objetivo, o no).
5 Si la evaluación cuenta con un elemento de participación fuerte, es conveniente llevar a cabo talleres para que el personal interesado pueda participar en la labor de diseño de la evaluación. Consulte el Anexo II para obtener información sobre la evaluación participativa.
120
(2) Recopilación y análisis de datos Una vez que empieza la evaluación, se debe confirmar el progreso (por ejemplo, ¿se está
realizando la recopilación de datos sin retrasos? ¿Hay algún problema en la tasa de
respuestas?). El proceso de analizar y evaluar los datos recopilados incluye la
evaluación de acuerdo con los Cinco Criterios de Evaluación, la formulación de una
conclusión y la preparación de recomendaciones y lecciones aprendidas. Además de lo
anterior, la administración debe asegurar que se realiza un análisis apropiado desde los
siguientes puntos de vista.
Puntos a verificar para evaluar los Cinco Criterios de Evaluación y formular las conclusiones
- ¿Se dio respuesta precisa a las preguntas de la evaluación?
- ¿Se están analizando los factores que dificultan/promueven?
- ¿Las conclusiones apoyan el propósito de la evaluación?
- ¿Se están analizando los elementos vinculados con las recomendaciones y lecciones
aprendidas?
Puntos a verificar cuando se preparan las recomendaciones y lecciones aprendidas
- ¿Los datos recopilados y los resultados del análisis se mencionan como la base de las
recomendaciones/lecciones aprendidas?
- ¿Se han aclarado los problemas de retroalimentación?
- ¿Las recomendaciones/lecciones aprendidas son específicas y realistas?
(3) Creación de un consenso fundamental relativo a los resultados de la evaluación (Comité de Evaluación Conjunta) Cuando se termina la evaluación, se celebra una reunión para discutir los resultados de la
evaluación y se realiza la creación de un consenso fundamental con el personal del país
socio. En el caso de los resultados de la evaluación (incluyendo las recomendaciones y
lecciones aprendidas) cuya información sea insuficiente o que no se pueda llegar a un
consenso a raíz de diferencias de interpretación, el hecho de que haya limitaciones en los
datos se debe mencionar específicamente. Con base en esto, cada una de las opiniones
expresadas se deberá reflejar en el Informe de Evaluación (es decir, se presentan juntos
los puntos de vista de ambas partes) cuando éste se prepare posteriormente. Los efectos finales secundarios que se obtienen al compartir los resultados de la
evaluación son 1) una mejor comprensión de parte del socio de los métodos de
121
evaluación, y 2) una mejor aplicación de las recomendaciones y lecciones aprendidas por
parte de las organizaciones en el país socio. La parte del socio es un objetivo de
retroalimentación importante. Se puede esperar un mejor sentido de “propiedad” de los
resultados de la evaluación de parte del socio si se le incluye en el proceso de evaluación.
(4) Preparación de las Minutas de las Juntas Cuando se llega a un consenso sobre los resultados de la evaluación en el Comité de
Evaluación Conjunta, se preparan las "minutas" que reúnen los puntos que ya se han
acordado. Entonces se firma este documento y se intercambia entre el equipo y el país
socio. Este documento contiene los puntos acordados al momento de la evaluación en el
sitio. Posteriormente, una vez que el equipo regresa a Japón, se prepara el Informe de
Evaluación con base en las Minutas. Aunque las minutas (Resumen del Estudio de
Evaluación) no son más que un registro de los puntos básicos de acuerdo alcanzados en
el sitio de la evaluación, el Informe final de la Evaluación es un documento amplio que
cubre la presentación de datos, conclusiones, recomendaciones/lecciones aprendidas,
etc. que sirvieron como base para la evaluación. En la Tabla 3-1-4 se presenta una composición muestra de las minutas. Es importante
observar que surgirán algunas diferencias de acuerdo con el propósito de la evaluación.
122
Tabla 3-1-4: Composición Muestra de unas Minutas - Documento de consenso
- Anexo: Resumen del Informe del Estudio de Evaluación
Introducción
-Objetivo del Estudio de Evaluación
-Miembros del Equipo de Evaluación
-Calendario del Estudio
1. Descripción General del Proyecto
-Antecedentes del Proyecto
-Resumen del Proyecto
2. Metodología de la Evaluación
-Preguntas e Indicadores de la Evaluación
-Método de Recopilación y Análisis de Datos
-Limitaciones del Método
3. Logros del Proyecto y Proceso de Implementación
4. Resultados de la Evaluación
-Pertinencia
-Efectividad
-Eficiencia
-Impacto
-Sustentabilidad
5. Conclusión
6. Recomendaciones y Lecciones Aprendidas
123
5. Preparación del Informe de Evaluación Una vez que el equipo regresa a Japón, se reúnen los resultados de la evaluación en una
“Tabla de Evaluación Ex-ante” o “Tabla de Resumen de los Resultados de la Evaluación”
y en un Informe de la Evaluación. Si no fue posible finalizar el análisis e interpretación de
datos lo suficiente durante el período de la evaluación en el sitio, será necesario continuar
con el análisis. Se preparará un resumen del informe en el idioma oficial del país
objetivo y se enviará a las organizaciones interesadas en ese país. La preparación de un
informe fácil de entender es una parte extremadamente importante de la evaluación. No
hay posibilidades de retroalimentar los resultados de la evaluación si no se presentan
apropiadamente. Un miembro del personal del departamento operativo del proyecto
actuará como miembro del equipo para escribir el informe, sin embargo, para poder
mantener la calidad del informe será importante que el departamento verifique si el
informe fue escrito con claridad o no. Específicamente se debe poner atención en los
siguientes puntos (consulte la Tabla 2-3-2 sobre el formato del informe). Puntos que se deben verificar al preparar el Informe de la Evaluación
- ¿El informe es demasiado largo?
- ¿Está escrito de manera específica y concisa?
- ¿Se elaboró haciendo énfasis en los temas de comunicación deseados?
- ¿Se especifica claramente que las bases de los juicios se derivan de los resultados de
la evaluación?
- ¿Se utilizan las gráficas y tablas correctamente para explicar los datos?
- ¿Se indica claramente cuáles son las fuentes de los datos citados?
- ¿Se mencionan claramente los factores limitantes en la evaluación?
- ¿La Tabla de Evaluación, los cuestionarios, datos recopilados, etc., se anexan como
materiales de referencia?
124
6. Retroalimentación de los Resultados de la Evaluación El informe que prepara el equipo de evaluación representa un medio para brindar
información para la retroalimentación y para rendir cuentas. Su objetivo es mejorar el
“efecto de aprendizaje” sobre el mejoramiento operativo y la rendición de cuentas a través
de la correcta aplicación de los resultados de la evaluación. Una vez que se termina el
informe, el departamento encargado de la JICA brinda información a las partes
interesadas a través de los siguientes medios. Las partes que recibirán la información
incluyen las organizaciones interesadas en el país objetivo; por lo tanto, es necesario
preparar el resumen en inglés.
(1) Retroalimentación de información en el proceso de toma de decisiones - El departamento operativo da forma concreta a las recomendaciones y lecciones
aprendidas, toma decisiones sobre medidas para abordarlas y se hace responsable
de reflejarlas en la gestión del proyecto.
- Los resultados de la evaluación se aplican principalmente a nivel del supervisor a
través de su anotación en documentos relacionados con el proyecto (por ejemplo,
Programas por País de la JICA, documentos del proyecto, etc.).
(2) Asegurar la retroalimentación y rendición de cuentas en el proceso de aprendizaje organizativo
- El personal interesado comparte conocimientos a través de reuniones de evaluación. Estas reuniones se deben realizar en momentos oportunos y deben asistir las
personas adecuadas (es decir, los usuarios de la información de la evaluación). - Es necesario realizar seminarios de retroalimentación sobre los temas tomados de las
recomendaciones/lecciones aprendidas que se sabe han tenido importancia especial
en otros proyectos similares. De esta manera, se brindará información a un conjunto
más amplio del personal interesado. - El informe se deberá preparar dentro de un período de tres meses. Se debe colocar
en la página Web de la JICA y distribuir al personal interesado. Se debe preparar un
resumen en inglés para las organizaciones interesadas en el país objetivo.
125
Capítulo 2 Temas en la Evaluación Ex-ante y Ex-post
En las evaluaciones de proyectos, los exámenes se realizan básicamente desde el punto
de vista de los Cinco Criterios de Evaluación, pero la percepción de cada punto es
diferente, dependiendo del momento en que se realiza el estudio de evaluación. Por
ejemplo, en la evaluación ex-ante antes de empezar un proyecto, se puede examinar la
“pertinencia” de acuerdo con la situación real, pero desde otros puntos de vista, la
encuesta sólo se puede realizar con base en predicciones y prospectos. En una
evaluación intermedia después de haber iniciado el proyecto, la “pertinencia” y la
“eficiencia” se pueden evaluar de acuerdo con la situación real y los resultados, pero la
“efectividad” y el “impacto” sólo se pueden examinar de acuerdo con lo que se considera
necesario y posible en ese momento para la evaluación, y eso depende del grado en que
se haya producido algún efecto en el plazo intermedio. La tabla 3-2-1 resume estas
diferencias de puntos de vista para la evaluación según cada tipo de estudio de
evaluación. La profundidad y enfoque del examen de cada uno de los Cinco Criterios de
Evaluación también puede variar de acuerdo con las características de un proyecto y los
problemas a los que se enfrente. Por ejemplo, para proyectos pequeños tal vez no sea
adecuado realizar una encuesta con cuestionarios costosos, sino utilizar otro método
sencillo. O, si las partes interesadas saben que hay problemas de eficiencia que afectan
un proyecto, tal vez sea necesario realizar el estudio dando mayor enfoque al examen de
la eficiencia. La figura 3-2-1 presenta un resumen de los métodos de evaluación y su aplicación en
cada tipo de estudio de evaluación explicado en los Capítulos 1 al 3, Parte II.
Descripción General de este Capítulo: La evaluación de proyectos en la JICA tiene cuatro tipos de ciclos de proyecto: evaluación ex-ante, evaluación intermedia, evaluación final y evaluación ex-post. Como cada tipo de evaluación tiene propósitos diferentes, los puntos de vista y enfoques de los Cinco Criterios de Evaluación también difieren ligeramente entre ellos.
Este capítulo describe las características y puntos a recordar de cada tipo de estudio de evaluación, y también muestra ejemplos de casos, sobre todo para la tabla de evaluación y la interpretación de la evaluación. El concepto básico de la evaluación, el flujo de las investigaciones y las teorías de los métodos de evaluación son los mismos para todos los tipos de estudios de evaluación.
126
Tabla 3-2-1 Diferencias entre los Puntos de Vista según el Tipo de Proyecto de Evaluación
Evaluación
Ex-ante Seguimien-
to Nota 2 Evaluación
Intermedia Evaluación
Final Evaluación
Ex-post Confirmación
de los
resultados
Nota 1
Comprensión
del proceso
de implemen-
tación
<Cinco Criterios de Evaluación> Pertinencia
-
Efectividad
- -
Eficiencia - -
Impacto -
Sustentabi-
lidad -
: Examen con base en la situación y resultados reales
: Examen con base en predicciones y prospectos
: Examen de acuerdo con lo que se considera necesario y posible para la evaluación
- : Todavía no es posible realizar un examen completo, o se terminó en una fase
anterior.
Nota 1: En caso de una evaluación ex-ante, esto significa realizar un estudio de base o
establecer indicadores. Nota 2: Por lo general, un examen con base en los Cinco Criterios de Evaluación está
fuera del alcance del seguimiento, pero para su operación y gestión, es
importante tener siempre en mente los puntos de vista de estos Cinco
Criterios de Evaluación.
127
Formulación de los documentos del
proyecto* Formulación de la
Tabla de la Evaluación Ex-ante
Creación de la tabla de resumen de los resultados de la
evaluación y el informe de la evaluación
Figura 3-2-1 Métodos de Evaluación de Proyectos y su Aplicación en los Estudios de Evaluación
Uso del marco lógico
Comprensión de la situación real del proyecto
Resultados Proceso de
Implementación Relaciones
causales
Cinco Criterios de Evaluación
Confirmación del marco lógicoDe la aplicación a la Evaluación Ex-ante
Confirmación del marco lógico
Creación del marco lógico
Com
paración con los resultados de la
evaluaciónex-ante
Flujo de la Evaluación
Estudio de base
Predicción sobre el proceso de implementación
Juicio de valor con base en los Cinco Criterios de
Evaluación/predicción del efecto producido y factores que dificultan
Confirmación de los resultados
Confirmación del proceso de implementación
Juicio de valor con base en los Cinco Criterios de
Evaluación/predicción del efecto producidor y factores
que dificultan
Uso
Implementación
Dar a conocer los
resultados
Retroalimentación
Dar a conocer los
resultados
Presentación de
los Resultados
Recomen-daciones
Lecciones Aprendidas
Determinación de la necesidad/
pertinencia del proyecto
Conclusión <Juicio general >
Juicio sobre el éxito o fracaso del
proyecto
128
1. Puntos Clave de los Estudios de Evaluación Ex-ante (1) Papel de los Estudios de Evaluación Ex-ante En general, los “estudios de evaluación ex-ante” de la JICA tienen dos propósitos: i)
planeación del proyecto y ii) planeación de la evaluación. En la JICA, las evaluaciones ex-
ante se planean y realizan de acuerdo con los Cinco Criterios de Evaluación. Los
resultados de las evaluaciones ex-ante se utilizan para mejorar el plan y para determinar
la pertinencia del proyecto. La evaluación ex-ante brinda información que servirá como
base para dar seguimiento y evaluación después que empieza un proyecto y es un paso
indispensable hacia la adecuada gestión de un proyecto a lo largo de su ciclo. El producto de la evaluación ex-ante consiste de “documentos del proyecto”, que
incluyen el “marco lógico (PDM en la JICA) y la “Tabla de Evaluación Ex-ante”. Los
factores inhibidores o limitantes que se identifican en la evaluación ex-ante se reflejan en
la planeación del proyecto según sea necesario, o se escriben en las columnas de los
Cinco Criterios de Evaluación en la Tabla de Evaluación Ex-ante como puntos a recordar
después que empezó un proyecto. Este documento describe principalmente la parte de “evaluación” del estudio de
evaluación ex-ante. No trabaja sobre la teoría de planeación. La teoría de planeación
incluye métodos de estudio base y la teoría del marco lógico, así como la forma de crear
un marco lógico (ver Anexo 1), de establecer indicadores, de establecer metas, y
métodos de análisis de riesgos. Este capítulo de los Lineamientos de la Evaluación utiliza
ejemplos de casos para explicar principalmente lo métodos para examinar los conceptos
del proyecto que se planearon a través de estos procesos mediante los Cinco Criterios de
Evaluación y cómo crear una “Tabla de Evaluación Ex-ante”. Observe que incluso en los casos donde se implementa la evaluación ex-ante en
forma simplificada, por ejemplo donde no se envía un equipo de estudio para la
evaluación ex-ante y no se crean documentos para el proyecto, se debe realizar la
evaluación con base en el concepto y puntos de vista de evaluación que se indican aquí,
y los resultados se deberán incorporar en el plan de implementación.
129
Figura 3-2-2 Los Dos Papeles de los Estudios de Evaluación Ex-ante
(2) Propósito y Puntos de Vista de Evaluación de los Estudios de Evaluación Ex-ante
Las evaluaciones ex-ante evalúan planes antes de iniciar un proyecto. Los resultados de
la evaluación se utilizan para mejorar el plan y para juzgar la pertinencia del proyecto. Por
tanto, la evaluación primero se realiza haciendo énfasis principalmente en la pertinencia.
Evaluación de pertinencia quiere decir examinar si la cooperación de la JICA es
pertinente desde el punto de vista de i) necesidad - ¿existe la necesidad en la región,
sociedad y entre los residentes aplicables?, ii) prioridad - ¿la política de desarrollo del
país socio coincide con las prioridades de Japón?, y iii) la idoneidad del proyecto como un
medio - ¿por qué se eligió un proyecto con este tipo de objetivo? ¿La región objetivo y el
grupo objetivo son adecuados? - y otros. Cuando se evalúan los otros criterios de
evaluación (efectividad, impacto, sustentabilidad, etc.) el punto que difiere más de los
estudios de evaluación de la intermedia y de las evaluaciones posteriores a ella es que la
evaluación se basa en predicciones y prospectos en lugar de logros y datos del proceso
de implementación anteriores. En concreto, el examen es sobre si realmente se producirá
o no un efecto cuando se implemente el proyecto según este plan, y si el proyecto está
Establecimiento del plan
Evaluación ex-ante del plan
Plan de
implementación
Documentos del
proyecto
Tabla de Eva-luación Ex-ante
130
planeado de tal manera que el efecto se puede comprender y verificar de manera
confiable o no6. Los exámenes que no evalúan los logros sino la validez de un plan con base en las
predicciones y prospectos incluyen esencialmente dos aspectos. Uno es examinar si cada
componente de un proyecto es claro y razonable o no. Aquí, se consideran la idoneidad
de los indicadores y metas establecidos, qué tan apropiados son los medios para obtener
los indicadores, y otros puntos con base en su relación con los datos de base. El examen
considera si el efecto pronosticado se puede lograr y es conveniente. Cuando se observa
su relación con los datos de base, es importante primero utilizar un método de
investigación para obtener esos datos y luego considerar si es posible un seguimiento
posterior. Si los medios para obtener los indicadores son demasiado costosos para ser
prácticos, esos datos no se podrán utilizar. Cuando se hacen recomendaciones sobre los
indicadores adecuados, metas y los medios para obtener los indicadores a través de este
tipo de examen, también se construye una base para el seguimiento y la evaluación
después que empezó un proyecto. (Refiérase a 2-1-3 (4) sobre cómo verificar los
indicadores y valores bjetivo.) El otro aspecto es examinar si la estructura del plan del proyecto (es decir, la relación
entre el propósito y los medios) está formulada de manera adecuada y si hay prospectos
de alcanzar el objetivo esperado. Este punto de vista cuestiona la lógica de las relaciones
causales entre los componentes individuales de un proyecto. También es necesario
realizar un examen profundo sobre si las actividades planeadas para cierto objetivo son
adecuadas. Para estos exámenes, se puede utilizar el concepto de “modelo lógico”, una
teoría de evaluación descrita en la Parte II, Capítulo 1 (refiérase a 2-1-3). Cuando se trata
de examinar el plan del proyecto según un marco lógico (el modelo de causa y efecto
donde los insumos conducen a las actividades, que a su vez conduce a los productos y
que finalmente conducen al objetivo), tal vez el producto para obtener un objetivo, o las
actividades o insumos para alcanzar un producto sean insuficientes. La valoración
también puede descubrir que el enfoque que se tiene pensado para un proyecto no es
eficiente ya que, comparado con la inversión, su efecto será pequeño. Otra posibilidad es
que suposiciones /riesgos importantes sean demasiado altos y que su influencia en el
proyecto sea demasiada. El dar retroalimentación sobre los resultados de esos exámenes
al trabajo de planeación para poder desarrollar un plan mejor y más apropiado conduce a
la gestión efectiva del proyecto.
(3) Lista de Verificación de la Evaluación Ex-ante 6 Un método para los estudios de evaluación que incluye el punto de vista de si el efecto se puede verificar y comprender es la “Determinación de la Evaluabilidad”. Este método utiliza investigación cualitativa enfocada en la lógica del proyecto, en qué tan claro es el objetivo y en los indicadores establecidos, tratando de identificar si el proyecto evaluado satisface las condiciones mínimas de evaluabilidad. (Para obtener más información refiérase a Rossi, PH., Freeman, H.E., Lipsey, M.W., Evaluación - Un enfoque sistemático (Evaluation – A systematic approach), 6a ed, 1999, SAGE Publication, p. 157.)
131
Los estudios de evaluación ex-ante son principalmente sobre “planes”, y por lo tanto, la
planeación y la investigación necesarias para realizar una evaluación se conducen y
determinan simultáneamente. Por esta razón, no se realiza ningún trabajo de acuerdo con
un diseño de evaluación predeterminada como en los demás estudios de evaluación. Las
tablas siguientes son listas de verificación de los puntos de vista para una evaluación con
base en un borrador de un plan de proyecto. Es necesario referirse a estas listas de verificación antes de la evaluación en el
sitio en el estudio de evaluación ex-ante, para poder confirmar si los temas de la encuesta
están completos. Luego, esto se debe reflejar en el plan del estudio. Sin embargo,
observe que los siguientes sólo son los principales puntos de verificación. Se deben
agregar puntos a las encuestas que correspondan con el contendido del proyecto,
conforme sea necesario.
132
Tabla 3-2-2 Principales Puntos de Verificación en los Estudios de Evaluación Ex-ante (los puntos que se muestran con fondo gris se examinan con base en la situación y logros reales)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
Planeación
* Algunos puntos
son los mismos
que en los puntos
de evaluación que
aparecen más
adelante. De todas
maneras se
mencionan en el
encabezado de
esta tabla como
puntos a confirmar
primero en una
evaluación ex-ante
Plan
¿La meta general, el objetivo del proyecto y el producto son claros?
¿Cada indicador expresa de manera precisa su significado respectivo? ¿La objetividad y la posibilidad de reproducción (se puede recopilar
repetidamente el mismo tipo de datos) están aseguradas en los métodos
para obtener cada indicador?
¿El grupo objetivo está establecido claramente?
Relaciones causales
¿Las relaciones “actividades producto objetivo del proyecto
meta general” son relaciones de “medios propósito”? ¿Las suposiciones importantes para la producción del producto están
establecidas adecuadamente? ¿La lógica “actividades suposiciones
importantes producto” es correcta? ¿Las suposiciones importantes para el logro del objetivo del proyecto
están establecidas adecuadamente? ¿La lógica “producto
suposiciones importantes objetivo del proyecto” es correcta? ¿Las suposiciones importantes para el logro de la meta general están
establecidas adecuadamente? ¿La lógica “objetivo del proyecto
suposiciones importantes meta general” es correcta?
Proceso de
Implemen-
tación
(Prospecto)
¿Hay algún problema en el sistema de gestión del proyecto (sistema de
seguimiento, proceso de toma de decisiones, etc.)?
¿El proyecto tiene un buen reconocimiento en la agencia de
implementación o contraparte?
¿Se colocará una contraparte adecuada?
¿El insumo para realizar actividades según lo planeado está
garantizado?
¿El grupo objetivo o las organizaciones relacionadas participan en el
proyecto en gran medida? ¿El proyecto es altamente reconocido? O,
¿se espera un aumento en participación o reconocimiento? ¿Hay algún otro tema o factor que dificulta las actividades y éstos se
debieran recordar en el proceso de implementación del proyecto
133
(Principales Puntos de Verificación en los Estudios de Evaluación Ex-ante - continuación)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
<<Cinco Criterios de Evaluación>>
Pertinencia
Necesidad ¿El proyecto es consistente con las necesidades del país, región o sociedad objetivo? ¿El proyecto es consistente con las necesidades del grupo objetivo?
Prioridad ¿El proyecto es consistente con la política de desarrollo del país socio? ¿El proyecto es consistente con la política de asistencia para el extranjero de Japón y del plan de la JICA para la implementación de programas por país?
Sustentabilidad como un medio ¿El proyecto es adecuado como estrategia para producir un efecto con respecto a los temas de desarrollo del campo y sector objetivo del país socio? (¿El enfoque y la región objetivo del proyecto son adecuados? ¿Qué efectos de sinergia hay para brindar ayuda con la cooperación de otros donantes?) ¿La selección del grupo objetivo es adecuada? (Meta, volumen, distribución de géneros, etc.) ¿Hay algún efecto de difusión más allá del grupo objetivo? ¿Los beneficios del efecto y la carga de los costos están distribuidos equilibradamente? ¿Japón tiene una ventaja tecnológica? (¿Japón tiene conocimientos (know-how) acumulados sobre la tecnología objetivo? ¿Es posible aprovechar las experiencias de Japón? etc.)
Efectividad (Prospecto)
Objetivo del proyecto ¿El objetivo del proyecto está claramente mencionado? ¿Los indicadores del objetivo del proyecto expresan con exactitud el objetivo? ¿Los indicadores y metas del objetivo del proyecto son adecuados de acuerdo con los datos de base? ¿Los medios para obtener los indicadores del objetivo del proyecto son adecuados? (¿Se han medido los indicadores necesarios? ¿No son demasiado costosos? ¿Se pueden reproducir? ¿Se pueden utilizar como medios de seguimiento? etc.)
Relaciones causales
¿Se alcanzará el objetivo del proyecto como efecto de éste una vez que se complete? ¿Se ha planeado suficiente producto para alcanzar los objetivos del proyecto? ¿Las suposiciones importantes del producto al objetivo del proyecto se perciben correctamente? ¿Existe una posibilidad alta que las suposiciones importantes sean verdad? ¿Hay factores que obstruyen el logro del objetivo del proyecto?
134
(Principales Puntos de Verificación en los Estudios de Evaluación Ex-ante - continuación)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
Eficiencia
(Prospecto)
Producto
¿Los indicadores del producto expresan con exactitud su significado?
¿Las metas para el producto son adecuadas? ¿Los medios para obtener los indicadores del producto son adecuados?
(¿Se han medido los indicadores necesarios? ¿Son demasiado
costosos? ¿Se pueden reproducir? ¿Se pueden utilizar como medios de
seguimiento? etc.)
Relaciones causales
¿Se han planeado suficientes actividades para producir el producto?
¿Se tiene planeado un insumo de una cantidad y calidad adecuada para
realizar las actividades?
¿Las suposiciones importantes de las actividades al producto se
perciben correctamente? ¿Existe una posibilidad alta que las
suposiciones importantes sean verdad? Momento oportuno
¿Se planeó correctamente el momento del insumo?
Costo
¿El producto justifica el costo que se va a invertir si se compara con
proyectos similares (comparación con el costo total o los costos unitarios
de proyectos similares de la JICA y otros donantes o con proyectos
similares realizados por el país en cuestión)? (¿Hay algún medio
alternativo para obtener los mismos resultados a menor costo? ¿Es
posible alcanzar un nivel de logro más alto con el mismo costo?) ¿El objetivo del proyecto justifica el costo que se va a invertir si se
compara con proyectos similares (comparación con el costo total o los
costos unitarios de proyectos similares de la JICA y otros donantes o
con proyectos similares realizados por el país en cuestión)? (¿Hay algún
medio alternativo para obtener los mismos resultados a menor costo?
¿Es posible alcanzar un nivel de logro más alto con el mismo costo?)
135
(Principales Puntos de Verificación en los Estudios de Evaluación Ex-ante - continuación)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
Impacto
(Prospecto)
Meta general:
¿Los indicadores de la meta general la expresan con exactitud? ¿Los indicadores y objetivos de la meta general son adecuados de
acuerdo con los datos de base?
¿Los medios para obtener los indicadores de la meta general son
adecuados? (¿Se han medido los indicadores necesarios? ¿Son
demasiado costosos? ¿Se pueden reproducir? ¿Se pueden utilizar como
medios de seguimiento? etc.)
Relaciones causales
¿Se espera alcanzar la meta general como un efecto del proyecto?
¿La relación y lógica entre la meta general y los temas de desarrollo son
claras?
¿Las suposiciones importantes del objetivo del proyecto a la meta
general se perciben correctamente? ¿Existe una posibilidad alta que las
suposiciones importantes sean verdad? ¿Hay factores que obstruyen el logro de la meta general?
Efectos de difusión
¿Se asume que hay algún efecto o influencia más allá de la meta
general? ¿Se están tomando medidas para contrarrestar influencias
especialmente negativas? * Influencias sobre el establecimiento de políticas y sobre la
preparación de leyes, sistemas, normas y similares
* Influencias sobre los aspectos sociales y culturales tales como
género, derechos humanos, ricos y pobres
* Influencia sobre la protección ambiental
* Influencia derivada de cambios tecnológicos
* Influencias económicas sobre la sociedad objetivo, las partes
del proyecto, los beneficiarios, etc.
¿Existen diferentes influencias positivas y negativas debido a las
diferencias entre géneros, grupos étnicos, o estratos sociales?
136
(Principales Puntos de Verificación en los Estudios de Evaluación Ex-ante - continuación)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
Sustenta-bilidad (Prospecto) * Aquello indispensable para asegurar la sustenta-bilidad (continuidad del efecto) depende del contenido del proyecto. Se debe realizar el estudio con esto en mente.
Políticas y sistemas ¿La asistencia de la política continuará una vez que termine la cooperación? ¿Los reglamentos y sistemas legales pertinentes están preparados? ¿Hay planes para su preparación? En el caso de proyectos dirigidos a sitios piloto, ¿se cuentan con esfuerzos asegurados para ayudar posteriormente con la difusión?
Aspectos organizativos y financieros
¿Se tiene la capacidad organizativa para implementar actividades que produzcan efectos una vez que termine la cooperación? (Colocación de recursos humanos, proceso de toma de decisiones, etc.) ¿Se tiene suficientemente asegurado el sentido de conciencia de la iniciativa propia hacia el proyecto en la agencia de implementación antes del inicio del proyecto? ¿El presupuesto (incluyendo los gastos de operación) está asegurado? ¿Se han tomado medidas presupuestarias suficientes del lado del país aplicable? ¿Qué tan alta es la probabilidad de que aumente el presupuesto en el futuro mediante la implementación del proyecto? ¿Las medidas para asegurar los presupuestos son suficientes?
Tecnología
¿Los métodos de transferencia de tecnología empleados en el proyecto son aceptables? (Nivel de tecnología, factores sociales y convencionales, etc.) ¿El plan de mantenimiento y manejo del equipo que se introducirá en el proyecto es adecuado? ¿El proyecto contiene un mecanismo para su difusión? ¿Cuál es la probabilidad de la agencia de implementación poder mantener el mecanismo para su difusión? En el caso de proyectos dirigidos a sitios piloto, ¿la tecnología es del tipo que se puede difundir a otros sitios?
Sociedad, cultura y medio ambiente
¿Hay alguna posibilidad de inhibir un efecto sostenido por la falta de consideración hacia las mujeres, los pobres y los socialmente vulnerables? ¿Hay alguna posibilidad de obstaculizar un efecto sostenido debido a la falta de consideración hacia el medio ambiente?
Otros
¿Hay algún otro factor que pudiera obstaculizar la sustentabilidad?
Necesidad de ajustes
(Considerado con base en los resultados de la evaluación anterior)
¿Es posible lograr el objetivo del proyecto en la situación actual (cambios en el grupo o sociedad objetivo)? ¿Es necesario ajustar los insumos, actividades y productos? ¿Hay alguna nueva suposición importante que influya en el proyecto? ¿Cómo han cambiado los problemas, puntos, riesgos, etc. que se señalaron en la evaluación ex-ante? ¿Qué puntos se deben recordar para el futuro?
137
(4) Interpretación y Resumen de los Datos de la Evaluación Ex-ante La interpretación de los datos de la evaluación ex-ante se centra en los Cinco Criterios de
Evaluación. La interpretación se resume en la “Tabla de Evaluación Ex-ante”. En los
estudios de evaluación ex-ante, es necesario reflejar los factores que dificultan y
obstaculizan el proyecto identificados en el proceso de evaluación en los planes que se
incluyen en los documentos del proyecto. Además, es necesario proponer el proyecto de
tal manera que, hasta donde sea posible, no lo afecten estos factores. Por otro lado, los
asuntos que se juzgó se deben revisar después que inició el proyecto se escriben en el
tema aplicable de la columna de los Cinco Criterios de Evaluación en la Tabla de
Evaluación Ex-ante. Estos temas a recordar se implementan también como metas de
seguimiento una vez que empezó el proyecto y es necesario ubicarlas como temas
sujetos a seguimiento, junto con una verificación del nivel de logro de los objetivos y
productos. La Tabla de Evaluación Ex-ante resume una descripción del informe de los
resultados de la evaluación ex-ante. Las bases del por qué se realizó la interpretación de
esta manera, etc., se deben enviar como anexos de los documentos del proyecto (por
ejemplo, resultados de las entrevistas, resultados del análisis del material, resultados de
la encuesta por cuestionario y otros resultados). La Tabla 3-2-3 ofrece una descripción de cada punto en la Tabla de Evaluación
Ex-ante y resume los puntos a recordar cuando se llena la tabla. El caso 1 presenta un
ejemplo de cómo llenar una Tabla de Evaluación Ex-ante.
138
Tabla 3-2-3 Tabla de Evaluación Ex-ante: Contenido y Temas a Recordar (para proyectos de cooperación tecnológica medianos y grandes)
Tema Contenido Puntos a Recordar 1. Título del Proyecto
El título del proyecto
2. Descripción General de la Cooperación
Describe brevemente el contenido del proyecto de la evaluación ex-ante
[Temas Principales]
(1) Descripción general principalmente del objetivo y productos del proyecto
(2) Período de Cooperación (3) Monto total de la cooperación
(Japón) (4) Agencia de Implementación del País
Socio (5) Agencia de Cooperación en Japón (6) Grupo objetivo, Beneficiarios,
tamaño, etc.
Tenga cuidado de no escribir demasiados detalles. El plan detallado se describe después.
Es suficiente que el lector, incluyendo un tercero, pueda comprender una descripción general de lo que trata la evaluación ex-ante.
Los beneficiarios en (6) son los beneficiarios a nivel del objetivo del proyecto (grupo objetivo).
Si es necesario, incluya un mapa o fotografías del sitio del proyecto
3. Necesidad y posición de la cooperación
Describe brevemente no sólo los antecedentes de la solicitud, sino que también procesa la cooperación de Japón y la razón, etc.
[Temas Principales] (1) Situación actual y problemas (2) Ubicación dentro de las políticas
nacionales del gobierno en el país socio.
(3) Relación dentro de la política de asistencia para el extranjero de Japón, ubicándolo dentro del plan de la JICA para la implementación de programas específicos por país (ubicación dentro de los programas de la JICA).
Describa claramente los temas importantes que son los antecedentes del proyecto y la ubicación del proyecto para poder solucionarlos.
Si es necesario, incluya un mapa o fotografías explicando la situación actual y los problemas.
4. Marco de Trabajo de la Cooperación
Aquí describe brevemente el contenido del marco lógico. La descripción aparece en el orden que se muestra a continuación para que también lo puedan entender las personas que no saben del marco lógico.
[Temas Principales]
(1) Objetivo de la Cooperación (Efectos Directos)
i) El objetivo a alcanzar al final de la cooperación (objetivo del proyecto), indicadores y metas
ii) El objetivo que se espera alcanzar al final de la cooperación (meta general), indicadores y metas
(2) Productos y Actividades i) El producto, las actividades para
lograrlo, indicadores y metas ii) …… (3) Insumos i) Japón (monto total: yenes) Envío de expertos, equipo
Trate de escribir de tal forma que un tercero pueda entender la descripción
El “objetivo a alcanzar al final de la
cooperación” es el “objetivo del proyecto”
El "objetivo que se espera alcanzar
después del final de la cooperación” se refiere a la “meta general”.
Los productos se deben escribir en
secuencia junto con sus actividades, indicadores y metas correspondientes. No es necesario mencionar todas las actividades. Ofrezca una descripción que resuma las actividades principales (ejemplos).
139
proporcionado, aceptación de becarios, otros
ii) País A (monto total: yenes) Gastos del personal de la contraparte,
arreglos para las instalaciones y terrenos, otros
(4) Factores externos (suposiciones importantes que se espera que se realicen).
i) Condiciones previas ii) Suposiciones importantes para alcanzar
el producto iii) Suposiciones importantes para alcanzar
el objetivo del proyecto iv) Suposiciones importantes para alcanzar
la meta general
5. Resultados de la Evaluación de acuerdo con los Cinco Criterios de Evaluación
Resume la interpretación de los datos, el juicio sobre el valor del proyecto y los factores que limitan cada uno de los Cinco Criterios de Evaluación.
[Temas Principales]
(1) Pertinencia (2) Efectividad (3) Eficiencia (4) Impacto (5) Sustentabilidad
Describa claramente las bases y razones de cada evaluación. Sin embargo, los resultados del análisis y los datos se deben anexar por separado.
Los temas a recordar cuando se
implemente el proyecto se deben escribir en palabras concretas junto con sus bases. Éstos también serán importantes como temas de seguimiento una vez que empiece el proyecto.
6. Considera-ción de los problemas de Pobreza, Género y Medio Ambiente
Menciona los impactos negativos tales como pobreza, género, medio ambiente, guerra y paz, etc. y la estrategia del proyecto para abordarlos.
7. Lecciones Aprendidas de Experiencias Pasadas
Menciona lo qué se aprendió de los resultados de la evaluación de otros proyectos similares y cómo se reflejaron para mejorar el proyecto.
Utilice los informes de la evaluación (recomendaciones, lecciones aprendidas) anteriores o del conocimiento del sitio de la JICA, etc. como fuentes para obtener información sobre las lecciones aprendidas a partir de objetos similares.
8. Plan de Evaluación para el Futuro
Escriba el calendario para la evaluación intermedia, la evaluación final y la evaluación ex-post.
Si hay algún comentario especial en relación con el plan de evaluación, escríbalo aquí (por ejemplo, la implementación de un estudio de base después del inicio del proyecto, etc.).
140
Una razón para la selección del enfoque (capacitación de maestros)
Razón para la selección
de la región objetivo
“Proyecto para Reforzar la Educación Secundaria en materia de Ciencias y Matemáticas en el País A”
(Este ejemplo se basa en un caso de evaluación ex-ante real, pero para este documento se hicieron
algunos cambios y adiciones.)
1. Título del Proyecto Proyecto para Reforzar la Educación Secundaria en materia de Ciencias y Matemáticas en el País A
2. Descripción General de la Cooperación (1) Descripción general del objetivo y productos del proyecto
Establecer un sistema para entrenar a becarios en la región Occidental (cinco prefecturas), implementar capacitación de estos becarios a los maestros en servicio, y establecer un centro de recursos para mejorar la educación en materia de ciencias y matemáticas en el país A.
(2) Período de Cooperación: Septiembre, 2003 a Agosto, 2008 (5 años)
(3) Monto total de la cooperación (Japón) Yenes
(4) Agencia de Implementación del País Socio
Ministerio de Educación, universidad para la capacitación de maestros de ciencias y matemáticas (centro de capacitación central y centros de capacitación del distrito)
(5) Agencia de Cooperación en Japón Universidad B
(6) Grupo Objetivo y Beneficiarios Aproximadamente 3,000 maestros de la región Occidental (cinco prefecturas) (aproximadamente 650 escuelas secundarias) (Mapa anexo - se omitió aquí.)
3. Necesidad y posición de la cooperación (1) Situación actual y problemas
Desde que el país A obtuvo su libertad en 1963, ha estado trabajando en el desarrollo educativo a nivel nacional. Para aumentar rápidamente los recursos humanos, se estableció la expansión y mejoramiento de las instituciones educativas como política de alta prioridad y más del 30% del presupuesto del proyecto se asignó a la educación. Sin embargo, la situación ahora es que se señaló una degradación importante de la calidad, sobre todo en las áreas de ciencias y matemáticas a causa de la escasez de libros de texto, materiales de enseñanza, instituciones y la falta de capacidad de los maestros de ciencias y matemáticas. En los antecedentes hay pilas de planes de estudio y problemas financieros. Para un país que busca industrializarse, el mejoramiento de la educación en materia de ciencias y matemáticas es un tema apremiante. Especialmente en las regiones Occidentales (cinco prefecturas), las habilidades académicas de los alumnos y la capacidad de los maestros son más bajas que en el resto del país, y se necesita con urgencia realizar esfuerzos para mejorarlas.
(2) Posición dentro de las políticas nacionales del gobierno del país A El “mejoramiento de la educación secundaria en materia de ciencias y educación” es una política principal del plan de desarrollo nacional del país A. El país A está
Caso 1: Resumen de la Evaluación Ex-ante
Descripción de la seriedad del problema. Éste es un punto de vista para evaluar la importancia
141
Indicators are written concretely,
together with targets
tratando de mejorar la calidad tanto desde el aspecto material como humano, preparando instalaciones y material de enseñanza o expandiendo la capacitación de los maestros. Específicamente en cuanto a la capacitación de los maestros, el plan maestro de educación y capacitación en este país propone capacitar a los maestros que están actualmente en servicio. El documento de estrategia para la lucha contra la pobreza (PRSP) también contiene esta propuesta como parte del desarrollo de recursos humanos.
(3) Posición dentro de la política japonesa de asistencia para el extranjero y del plan de la JICA para la implementación de programas por país
En Japón, el marco de trabajo general de la AOD y sus políticas a mediano plazo están dando una prioridad alta a la asistencia para la capacitación de recursos humanos, sobre todo en el campo de educación en los países en vías de desarrollo para reducir la pobreza y promover el desarrollo de la sociedad. El plan de asistencia por país para el país A también coloca al desarrollo de la educación y de recursos humanos como un área central. Este proyecto es además parte del programa para fortalecer la educación en materia de ciencias y matemáticas en los planes de implementación de programas por país de la JICA.
4. Marco de Trabajo de la Cooperación
(1) Objetivo de la Cooperación (Efectos Directos) i) Objetivos a alcanzar al final de la cooperación (Propósito del Proyecto)
Es necesario fortalecer la educación secundaria en materia de ciencias y matemáticas en la región Occidental.
<Indicadores/metas> El grado de cambio en la instrucción se evaluará mediante la calificación de los siguientes puntos de vista, con base en los métodos de seguimiento y evaluación* desarrollados en el proyecto.
Mejoramiento del comportamiento de los maestros (promedio de más de 3 en una evaluación de 0 a 4).
Mejoramiento de los métodos de enseñanza (promedio de más de 3 en una evaluación de 0 a 4).
Mejoramiento del comportamiento de los estudiantes (promedio de más de 3 en una evaluación de 0 a 4).
* La fuerza de trabajo de seguimiento y evaluación desarrollará los métodos de seguimiento y evaluación que se van a establecer en el proyecto. Los indicadores principales para medir el resultado y el efecto del proyecto serán las habilidades docentes, el grado de cambio en la instrucción y la capacidad de entrenamiento. Se crearán listas de verificación detalladas para cada uno de estos indicadores principales.
ii) Objetivos que se espera alcanzar después del final de la cooperación (Meta General):
Las habilidades en materia de ciencias y matemáticas de los jóvenes en el área de la capital deben mejorar.
<Indicadores/metas> Para el 2010, la calificación promedio en los exámenes de ciencias y matemáticas de los jóvenes en el área de la capital debe alcanzar el promedio nacional.
(2) Productos y Actividades
i) Producto: En el centro de capacitación central, los instructores adquieren sus habilidades.Actividades: Implementación de capacitación para los instructores de los maestros
<Indicadores/metas> Indicador de la habilidad para capacitar (promedio de por lo menos 3 en una evaluación de cinco pasos del 0 al 4), 200 personas como
142
personal de capacitación, indicador de habilidades mejoradas del personal de capacitación (por lo menos dos temas más después de la implementación que antes de ella)
ii) Producto: En los centros de capacitación del distrito se establece un sistema de re-
entrenamiento para los maestros en servicio. Actividad: Implementar un re-entrenamiento para los maestros en servicio impartido por
instructores de maestros de los centros de capacitación del distrito. <Indicadores/metas> 300 asistentes en total, indicador de la habilidad de entrenamiento
(por lo menos dos temas más después de la implementación que antes de ella)
iii) Producto: Se refuerza el papel de los centros de capacitación como centros de recursos.
Actividad: Desarrollar material docente, reorganizar y distribuir literatura <Indicadores/metas> Desarrollo de 30 tipos de material docente en el centro de
capacitación central, publicación de por lo menos 20 documentos nuevos en cada centro de capacitación (cinco lugares), establecimiento de un sistema de distribución a las escuelas secundarias objetivo.
(3) Insumos
i) Japón (monto total: aproximadamente yenes)
Envío de expertos Largo plazo: 12 (asesor principal, educación en materia de física, química, biología,
matemáticas, evaluación educativa, servicios clericales y coordinación) Corto plazo: planeado para las siguientes áreas. Administración educativa del gobierno, evaluación educativa, educación en materia
de física, matemáticas, química, biología, ciencias Equipo proporcionado (monto total: aproximadamente yenes) Equipo para producir el material docente, equipo para experimentos, equipo audiovisual, libros, autos, etc.
Aceptación de becarios (monto total aproximadamente yenes) Alrededor de 8 personas al año
ii) País A (monto total: aproximadamente yenes) Gastos del personal de la contraparte (30 personas) Arreglos para las instalaciones y terrenos, etc.
Salones de capacitación y dormitorio en el centro de capacitación central, oficina dentro del ministerio de educación, centros de capacitación de distrito
Gastos de las actividades del proyecto (aproximadamente yenes al año)
(4) Factores externos (suposiciones importantes que deben concretarse) i) Condiciones previas (nada en particular)
ii) Suposiciones importantes para alcanzar el producto 80% del personal de capacitación entrenado continuará trabajando en la
capacitación iii) Suposiciones importantes para alcanzar el objetivo del proyecto
Continua el apoyo de las direcciones de educación regionales Los maestros entrenados seguirán trabajando en la educación en materia de
ciencias y matemáticas
iv) Suposiciones importantes para alcanzar la meta general Mantenimiento adecuado a las instalaciones y equipo para la educación en materia
de ciencias y matemáticas
143
5. Resultados de la Evaluación con base en los Cinco Criterios de Evaluación
Como resultado de una evaluación desde los puntos de vista que se mencionan a continuación, juzgamos que es apropiado implementar la cooperación.
(1) Pertinencia Este proyecto se debe considerar de alta pertinencia por las siguientes razones:
Como se mencionó en "3. Necesidad y posición de la cooperación” en esta Tabla de Evaluación Ex-ante, el plan de desarrollo nacional del país A, el plan de desarrollo de la educación, el PRSP, etc., indican claramente que es indispensable fortalecer la educación en materia de ciencias y matemáticas para elevar los recursos humanos y alcanzar la industrialización. También existe un compromiso financiero identificable de parte del gobierno.
En cuanto a la educación secundaria en el país A, el número de maestros en relación con el número de estudiantes es suficiente, incluso al grado que el Banco Mundial y el FMI recomendaron la reducción de maestros para reducir el gasto público. En el análisis de problemas, el aspecto del equipo e instalaciones estuvo incluso mejor. No obstante, se indicó que los problemas de las habilidades y el comportamiento de los maestros son un asunto serio, y juzgamos que el enfoque de este proyecto, que adopta la estrategia de volver a capacitar a los maestros en servicio, es apropiado.
El plan de asistencia por país para el país A también coloca el desarrollo de la educación
y los recursos humanos como un tema central, y sobre todo el fortalecimiento de la educación en materia de ciencias y matemáticas como una cuestión de desarrollo.
Las regiones Occidentales son el objetivo de este proyecto porque aquí se puede observar un deterioro de la educación en comparación con el resto del país. La prioridad y necesidad son extremadamente altas, y es muy adecuado haber seleccionado esta región como objetivo.
En esta área, podemos aprovechar las experiencias de Japón en el pasado con el
proceso de desarrollo educativo, esta cooperación es de alta pertinencia.
(2) Efectividad
Este proyecto promete ser efectivo por las siguientes razones:
El grupo objetivo consiste de aproximadamente 3,000 maestros en servicio y el mejoramiento de sus habilidades docentes se estableció como un indicador. Además, se llevó a cabo el seguimiento para obtener este indicador, y el objetivo del proyecto es claro.
Para producir un efecto, es necesario mejorar la capacidad de entrenamiento de los centros de capacitación a nivel central y regional. Ya se asignaron 30 miembros del personal al centro de capacitación central, y también se creó una lista de 200 maestros que son candidatos para el entrenamiento. También se planeó un seguimiento a través de un indicador para la capacidad de entrenamiento (indicador de aumento de la capacidad). Éste y otros esfuerzos confiables prometen conducir a la implementación efectiva del proyecto.
Es muy probable que se materialice una de las suposiciones importantes - el apoyo
continuo de los consejos de educación regionales - porque el compromiso en este
144
momento es alto.
A partir de los puntos arriba mencionados, consideramos que se puede lograr una instrucción de alta calidad para los maestros actualmente en servicio mediante tres medios: la creación de un sistema de capacitación (concentrado en el centro de capacitación central), la implementación de la capacitación y el mejoramiento del centro de recursos.
(3) Eficiencia
Este proyecto promete ser eficiente por las siguientes razones:
Los expertos de largo plazo ya están arreglados. La mayoría de los expertos de largo plazo tienen experiencia como Voluntarios Japoneses para la Cooperación con el Extranjero y se puede esperar que comprendan la situación real en el país A y trabajar de manera eficiente en las actividades de campo.
Se planea utilizar las instalaciones y equipo existentes en los centros de capacitación lo más que se pueda, y las copiadoras, computadoras personales y equipo para los experimentos de ciencias y matemáticas incluidos en el plan se obtendrán dentro del país A, para que el costo del equipo y material ( yenes) sea bajo en comparación con proyectos similares.
Al capacitar a 200 instructores de maestros, se pueden capacitar 3,000 maestros y
probablemente alrededor de 200,000 alumnos se beneficiarán con ello. La relación costo-beneficio de este proyecto también es alta comparada con otros proyectos similares (educación en materia de ciencias y matemáticas).
En este momento, una suposición importante es la estabilidad de la fuerza de trabajo de los instructores, pero también se está considerando un sistema de calificación para instructores, y es altamente probable que 80% de los instructores conserven su puesto.
(4) Impacto Se espera que el impacto de este proyecto sea el siguiente:
La meta general para mejorar las habilidades en materia de ciencias y matemáticas de la juventud promete alcanzarse dentro de los tres a cinco años posteriores a la terminación del proyecto mediante la recapacitación adecuada de los maestros que están actualmente en servicio. El riesgo radica en si es posible preparar el equipo experimental y las instalaciones necesarias para la educación en materia de ciencias y matemáticas para cada escuela objetivo. Actualmente se están llevando a cabo los planes para obtener el equipo relacionado como parte del programa de fortalecimiento de la educación en materia de ciencias y matemáticas (tema de desarrollo) y probablemente existirán efectos sinérgicos con esto.
Mediante la creación de un sistema de capacitación en este proyecto, existe la posibilidad de entrenar maestros a nivel nacional con el mismo tipo de mecanismo y podemos esperar que la universidad para la capacitación de maestros tome la iniciativa de expandir este sistema a otras áreas más allá de las ciencias y las matemáticas (impacto sobre las organizaciones y sistemas).
Un impacto negativo podría ser el aumento de la brecha educativa entre las regiones Occidentales y las otras regiones. Creemos que para asegurar que los resultados de este proyecto se expandan a escala nacional, se requiere el apoyo continuo del ministerio de educación y la coordinación con otros donantes tales como el Banco Mundial.
(5) Sustentabilidad
145
Como se muestra a continuación, el gobierno socio promete continuar con los efectos de este proyecto cuando termine el mismo.
i) Asistencia política y financiera Este proyecto está ubicado como parte del desarrollo de recursos humanos en el PRSP. Capacita continuamente a los maestros mediante la creación de un sistema de capacitación a nivel central y regional. El compromiso de apoyar las políticas y sistemas es alto. El plan de desarrollo de la educación del país A menciona muy claro el fortalecimiento de la educación en materia de ciencias y matemáticas, para que también se pueda contar con que el presupuesto quede continuamente asegurado.
ii) Establecimiento de un sistema nacional de instructores de capacitación Es muy importante como incentivo dar a los instructores de los maestros una calificación. Esto podría convertirse en un medio no sólo para asegurar la estabilidad de recursos de capacitación, sino también para mantener la calidad de la capacitación en el futuro. El país A estableció que en estos momentos están considerando un sistema como éste. Necesitamos ayudar a la introducción de este sistema para asegurar las sustentabilidad de este proyecto.
iii) Estrategia participativa
Para asegurar la sustentabilidad, es importante que las partes del país socio tengan un sentimiento de conciencia de la iniciativa propia en relación con este proyecto. En este proyecto, planeamos adoptar una estrategia que incluya a las partes de la educación secundaria de cada región (la oficinas de educación regionales, los directores de las escuelas, maestros, estudiantes y padres) mediante la “participación” para desarrollar una organización/sistema de capacitación y un plan de capacitación que esté en sincronía con la situación real del país A. Por ejemplo, los instructores de los maestros se eligen por la recomendación de los consejos regionales de educación y, para la operación y manejo de la capacitación, se establecerá un comité de organización de la capacitación que consta de miembros que representan las posiciones de los centros de capacitación central y de distrito. Además incluiremos un mecanismo para añadir las opiniones de las escuelas en las regiones y llevar a cabo conferencias regulares. Este tipo de esfuerzos prometen aumentar el sentido de conciencia de la iniciativa propia, y podemos esperar que se conviertan en la base de la capacitación continua y la expansión a nivel nacional una vez que el proyecto haya terminado.
6. Consideración de los problemas de Pobreza, Género y Medio Ambiente
En consideración al género, el proyecto implementa lo siguiente: i) consideración del equilibrio de géneros en la recomendación de instructores de maestros, y ii) tomar estadísticas de los géneros de los beneficiarios finales - los estudiantes - y acumularlos como datos del proyecto.
7. Lecciones Aprendidas de Experiencias Pasadas
Existencia de proyectos similares: sí En proyectos similares pasados, tanto el donante como el lado receptor tenían el punto de vista estereotipado que la causa del deterioro de la educación en materia de ciencias y matemáticas era la escasez de instalaciones y equipo educativos. Sin embargo, el mejoramiento de únicamente las instalaciones y equipo, está vagamente sustentado y una lección aprendida es que los aspectos del manejo escolar y las habilidades de los maestros también son importantes. En el estudio de base al inicio del proyecto, se hicieron investigaciones no sólo en relación con las instalaciones y el equipo. Por el contrario, la investigación también se enfocó en la actitud de los maestros hacia la instrucción y en los métodos de instrucción y el hecho que se descubrió es que existen problemas importantes del lado humano que influyen en cómo se establece la estrategia de este proyecto.
146
8. Plan de Evaluación para el Futuro
Evaluación Intermedia: alrededor de febrero, 2006 Evaluación Final: alrededor de febrero, 2008 Evaluación Ex-post: planeada para implementarse alrededor de tres años después que
la cooperación termine
147
2. Puntos del Seguimiento y de los Estudios de Evaluación Intermedia (1) Propósito y Concepto Básico del Seguimiento El seguimiento es un trabajo de rutina interno del proyecto. Una vez que empieza un
proyecto, el seguimiento verifica si las actividades se realizan y si los productos se
obtienen según lo planeado, y hace ajustes si es necesario. La supervisión es un pilar del
trabajo de gestión, gestión de los objetivos establecidos inicialmente en el plan y revisión
de las actividades y productos en respuesta a los diversos cambios durante el proyecto
de implementación. Para realizar el seguimiento de manera adecuada es necesario establecer un sistema
organizativo dentro del proyecto en la etapa de planeación. Antes de empezar el proyecto
es necesario conducir consideraciones suficientes sobre quién le da seguimiento a qué y
cuándo, y el tipo de proceso de toma de decisiones que se utilizará para que los
resultados se reflejen en ajustes, etc. El seguimiento verifica sobre todo el producto,
actividades, insumos y las suposiciones importantes del marco lógico y lleva un registro
cuidadoso de la situación real del proceso de implementación que no se menciona en el
marco lógico. El seguimiento ayuda a considerar si las actividades se deben continuar
según lo planeado, si existe una probabilidad alta de concretar las suposiciones
importantes y si hay prospectos de alcanzar los objetivos. Al hacerlo, los objetivos,
indicadores de producto y metas establecidas en el estudio de evaluación ex-ante se
convierten en la base de comparación con el plan. Los temas a recordar escritos en la
Tabla de Evaluación Ex-ante deben seguir siendo un enfoque del seguimiento. La tabla 3-
2-4 ofrece un resumen de los temas de seguimiento generales.
148
Tabla 3-2-4 Puntos de Verificación Principales del Seguimiento Tema de
Seguimiento Puntos de Verificación Principales del Seguimiento
Funcionamiento ¿Cómo es el insumo real?
¿Hasta qué grado se alcanzó el producto?
Generación del
producto
¿El producto se generó según lo planeado?
¿Las suposiciones importantes de las actividades hacia el producto son
verdaderas?
¿Los “temas a recordar” señalados en la evaluación ex-ante presentan algún
problema?
¿Qué factor dificulta la generación del producto?
Actividades y el
proceso de
implementación
¿Las actividades se implementaron según lo planeado?
¿Hay algún problema en el método de transferencia de tecnología?
Si las actividades no son como se planean, ¿qué factor las dificulta?
¿Se satisficieron las condiciones previas?
¿Hay suficiente comunicación dentro del proyecto?
¿Hay suficiente comunicación entre la Oficina Central de la JICA, la oficina
local y el proyecto? ¿La Oficina Central de la JICA y la oficina local adoptan
medidas adecuadas y brindan asesoría pertinente para la operación y la
gestión?
¿El proyecto tiene un buen reconocimiento en la agencia de implementación o
contraparte? ¿Hay un fuerte sentido de conciencia de la iniciativa propia?
¿El grado de participación del grupo objetivo y las organizaciones
relacionadas con el proyecto es alto? ¿El proyecto está altamente
reconocido?
¿Los “temas a recordar” señalados en la evaluación ex-ante presentan algún
problema?
Insumos
¿Los insumos se realizan como se planeó?
¿Hay algún problema en la calidad, cantidad y tiempos del insumo?
¿El insumo se pone a trabajar lo suficiente para generar el producto?
Si hay algún problema, ¿cuál es el factor que obstaculiza?
¿Los “temas a recordar” señalados en la evaluación ex-ante presentan algún
problema?
Necesidad de ajustes
(Considerado con base en los resultados del seguimiento de los
temas anteriores)
¿Es posible lograr el objetivo del proyecto en la situación actual (cambios en
el grupo o sociedad objetivo)?
¿Es necesario ajustar los insumos, actividades y productos?
¿Hay alguna nueva suposición importante que influya en el proyecto?
¿Qué puntos se deben recordar para el futuro?
149
(2) Propósito y Puntos de Vista de la Evaluación en los estudios de Evaluación Intermedios Las evaluaciones intermedias se realizan a la mitad de un proyecto (en proyectos de
cinco años, cuando han pasado alrededor de dos años y medio). Su propósito es verificar
si el proyecto se implementó sin problemas y está en camino de producir efectos.
Además, las evaluaciones intermedias contribuyen al mejoramiento del contenido del
proyecto. Esta evaluación se conduce a la mitad del período de un proyecto y se basa en
la información del producto y el proceso de implementación hasta ese momento.
Concretamente hablando, las evaluaciones intermedias se centran en la pertinencia y la
eficiencia, junto con los factores que dificultan o contribuyen. También se debe llevar a
cabo un análisis de esos factores que dificultan o contribuyen. En cuanto a cómo se están
mostrando la efectividad y los impactos, se examinan las tendencias futuras y
factibilidades con base en el resultado del producto y el estado de actividad. La
sustentabilidad se examina con base en los prospectos. Sobre todo en lo que respecta a
la efectividad, se requieren estudios profundos para ver si hay posibilidades de poder
alcanzar la efectividad en la mitad restante del proyecto. (Consulte la tabla 3-2-1.) Si
empiezan a aparecer impactos negativos en el transcurso del proyecto, se modifica la
estrategia del mismo con base en un análisis de sus causas. La evaluación intermedia brinda una muy buena oportunidad de revisar el proyecto.
Incluso en el caso de proyectos que se planearon durante la evaluación ex-ante, con
frecuencia las condiciones sociales reales y varios factores internos y externos
necesarios para el éxito del proyecto se perciben mejor una vez que empiezan las
actividades. Con base en esto, es importante verificar una vez más si la estrategia del
proyecto está bien como se planeó (confirmación de la pertinencia), si se debe añadir
algo a las actividades para producir un efecto, o si el calendario y la calidad de los
insumos son suficientes. También es importante implementar medidas de mejoramiento
concreto y dar recomendaciones. Si el marco lógico no se compara lo suficiente entre las
partes, o la estrategia o actividades son insuficientes, o el objetivo no es claro, se debe
aprovechar al máximo la evaluación intermedia para realizar una revisión a fondo. Como
resultado de esas revisiones, muchos proyectos se recuperan e incluso producen efectos
que merecen mención especial. También es importante que la evaluación intermedia
detiene errores en la implementación del proyecto (consulte la Falla de Implementación:
1-2-2). Con base en los resultados de la evaluación intermedia, el proyecto y la división de
implementación de la JICA - los principales receptores de la retroalimentación - trabajan
en una revisión del proyecto, incluyendo una revisión del marco lógico.
150
Tabla 3-2-5 Principales Puntos de Verificación en los Estudios de Evaluación Intermedia (los puntos que se muestran con fondo gris se examinan con base en la situación y logros reales)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
Verificación de los logros
¿Los insumos se implementaron como se planeó? (en comparación con los valores planeados) ¿El producto se generó según lo planeado? (compare con las metas) ¿Hay posibilidades de alcanzar el objetivo del proyecto? (compare con las metas)
Verificación del proceso
de implementa-
ción
¿Las actividades se implementaron según lo planeado? ¿Hay algún problema en el método de transferencia de tecnología? ¿Hay algún problema en el sistema de gestión del proyecto (sistema de seguimiento, proceso de toma de decisiones, función de la Oficina Central y la oficina local* de la JICA? ¿El proyecto tiene un buen reconocimiento en la agencia de implementación y la contraparte? ¿Se asignó una contraparte adecuada? ¿El grado de participación del grupo objetivo y las organizaciones relacionadas con el proyecto es alto? ¿El proyecto está altamente reconocido? ¿Se presentó algún otro problema durante el proceso de implementación del proyecto? ¿Cuál es la causa?
* Una pregunta para verificar la idoneidad de la capacidad de gestión de la división de implementación en la JICA y la oficina local. Por ejemplo, la respuesta rápida y la asesoría del seguimiento para los ajustes durante la implementación, comunicación suficiente con el sitio del proyecto, cooperación con agencias relacionadas en Japón, etc.
<<Cinco Criterios de Evaluación>>
Pertinencia
Necesidad ¿El proyecto es consistente con las necesidades del país, región o sociedad objetivo? ¿El proyecto es consistente con las necesidades del grupo objetivo?
Prioridad ¿El proyecto es consistente con la política de desarrollo del país socio? ¿El proyecto es consistente con la política de asistencia para el extranjero de Japón y del plan de la JICA para la implementación de programas por país?
Sustentabilidad como un medio ¿El proyecto es adecuado como estrategia para producir un efecto con respecto a los temas de desarrollo del campo y sector objetivo del país socio? (¿El enfoque y la región objetivo del proyecto son adecuados? ¿Qué efectos de sinergia hay para brindar ayuda con la cooperación de otros donantes?) ¿La selección del grupo objetivo es adecuada? (Meta, volumen, distribución de géneros, etc.) ¿Hay algún efecto de difusión más allá del grupo objetivo? ¿Los beneficios del efecto y la carga de los costos están distribuidos equilibradamente? ¿Japón tiene una ventaja tecnológica? (¿Japón tiene conocimientos (know-how) acumulados sobre la tecnología objetivo? ¿Es posible aprovechar las experiencias de Japón? etc.)
Otros ¿Se ha presentado algún cambio en el entorno del proyecto (política, sociedad, economía, etc.) desde que se realizó la evaluación ex-ante?
151
Efectividad (Prospectos)
Pronóstico de Logros del Objetivo del proyecto Observando los resultados de los insumos y productos y la actividad, ¿es probable alcanzar el objetivo del proyecto? ¿Existe algún factor que obstaculice el logro del objetivo del proyecto?
Efectividad (Prospectos) - continuación
Relaciones causales ¿El producto es suficiente para alcanzar el objetivo del proyecto? En este momento, ¿las suposiciones importantes del producto hacia el objetivo del proyecto siguen siendo correctas? ¿Es probable que las suposiciones importantes se concreten?
Eficiencia
Nivel de logro del producto ¿El nivel de logro del producto es adecuado? (compare el resultado con las metas) ¿Hay factores que obstruyen el logro del producto?
Relaciones causales ¿Las actividades fueron suficientes para producir el producto? ¿Los insumos fueron suficientes para producir el producto? ¿Las suposiciones importantes de las actividades al producto también son correctas en este momento? ¿Hay alguna influencia a partir de las suposiciones importantes?
Momento oportuno ¿Se realizaron los insumos en cantidad y calidad adecuadas en el momento adecuado para conducir las actividades según lo planeado? ¿Se está implementando?
Costo ¿El producto justifica el costo que se va a invertir si se compara con proyectos similares (comparación con el costo total o los costos unitarios de proyectos similares de la JICA y otros donantes o con proyectos similares realizados por el país en cuestión)? (¿Había algún medio alternativo para alcanzar el mismo producto a menor costo? ¿Fue posible alcanzar una mayor eficiencia por el mismo costo?) ¿Hay prospectos de alcanzar el objetivo del proyecto que justifique el insumo si se compara con proyectos similares (comparación con el costo total o los costos unitarios de proyectos similares de la JICA y otros donantes o con proyectos similares realizados por el país en cuestión?). (¿Hay algún medio alternativo para obtener los mismos resultados a menor costo? ¿Es posible alcanzar un nivel de logro más alto con el mismo costo?)
152
Impacto (Prospectos)
* Si se pueden
observar impactos negativos, examine
los factores con base en la
situación real y revise el proyecto.
Predicción del logro de la meta general Observando los resultados de los insumos y productos y el estado de actividad, ¿hay posibilidades de producir la meta general como un efecto del proyecto? (¿Es posible verificar el efecto en la evaluación ex-post?) ¿Es posible que el logro de la meta general tenga un impacto sobre el plan de desarrollo del país socio? ¿Hay factores que obstruyen el logro de la meta general?
Relaciones causales ¿La meta general y el propósito del proyecto son consistentes? ¿Las suposiciones importantes del objetivo del proyecto hacia la meta general también son correctas en este momento? ¿Existe una posibilidad alta que las suposiciones importantes sean verdad?
Efectos de difusión ¿Se asume que hay algún efecto o influencia más allá de la meta general? ¿Se están tomando medidas para contrarrestar influencias especialmente negativas?
* Influencias sobre el establecimiento de políticas y sobre la preparación de leyes, sistemas, normas y similares * Influencias sobre los aspectos sociales y culturales tales como género, derechos humanos, ricos y pobres * Influencia sobre la protección ambiental * Influencia derivada de cambios tecnológicos * Influencias económicas sobre la sociedad objetivo, las partes del proyecto, los beneficiarios, etc.
¿Existen diferentes influencias positivas y negativas debido a las diferencias entre géneros, grupos étnicos, o estratos sociales?
¿Hay algún otro impacto negativo? ¿Qué medidas se han tomado para eliminarlos?
Sustentabili-dad
(Prospectos) * Es importante entender la sustentabilidad antes de llevar a cabo la evaluación ya que puede diferir entre proyectos
Políticas y sistemas ¿La política de asistencia continuará aún cuando termine la cooperación? ¿Los reglamentos y sistemas legales pertinentes están preparados? ¿Hay planes para su preparación? En el caso de los proyectos dirigidos a sitios piloto, ¿se puede asegurar que posteriormente se realizarán esfuerzos para ayudar a difundirlos?
Aspectos organizativos y financieros
¿Se tiene la capacidad organizativa suficiente para implementar actividades que produzcan efectos aún cuando termine la cooperación? (Asignación de recursos humanos, proceso de toma de decisiones, etc.) ¿Las agencias de implementación tienen un sentido de conciencia de la iniciativa propia suficientemente asegurado? ¿El presupuesto (incluyendo los gastos de operación) está asegurado? ¿Se han tomado medidas presupuestarias suficientes del lado del otro país? ¿Es probable que aumente el presupuesto en el futuro mediante la implementación del proyecto? ¿Las medidas para asegurar los presupuestos son suficientes?
Tecnología
¿Se están aceptando los métodos de transferencia de tecnología empleados en el proyecto? (Nivel de tecnología, factores sociales y convencionales, etc.) ¿El equipo se maneja y mantiene apropiadamente? ¿El proyecto contiene un mecanismo para su difusión? ¿Es probable que la agencia de implementación pueda mantener el mecanismo para su difusión? En el caso de proyectos dirigidos a sitios piloto, ¿la tecnología es del tipo que se puede difundir a otros sitios?
Sociedad, cultura y medio ambiente ¿Hay alguna posibilidad de inhibir un efecto sostenido por la falta de
153
consideración hacia las mujeres, los pobres y los socialmente vulnerables? ¿Hay alguna posibilidad de obstaculizar un efecto sostenido debido a la falta de consideración hacia el medio ambiente?
Otros ¿Hay algún otro factor que pudiera obstaculizar la sustentabilidad?
Necesidad de ajustes
(Considerado con base en los resultados de la evaluación anterior)
¿Es posible lograr el objetivo del proyecto en la situación actual (cambios en el grupo o sociedad objetivo)? ¿Es necesario ajustar los insumos, actividades y productos? ¿Hay alguna nueva suposición importante que influya en el proyecto? ¿Cómo han cambiado los problemas, puntos, riesgos, etc. que se señalaron en la evaluación ex-ante? ¿Qué puntos se deben recordar para el futuro?
154
(3) Diseño de la Evaluación Intermedia Esta sección explica los puntos para crear una tabla de evaluación para la evaluación
intermedia y presenta el ejemplo de un caso. Por favor consulte el Capítulo 2, Parte II
para obtener una descripción detallada de los métodos de diseño de la evaluación.
i) Temas al considerar las preguntas de evaluación Las partes involucradas determinan las preguntas de evaluación tomando en cuenta cuál
debe ser el enfoque de la evaluación para que conduzcan a un mejoramiento del proyecto
y se obtengan recomendaciones y lecciones aprendidas útiles. En vista del propósito de
la evaluación intermedia, las preguntas de la evaluación se centran principalmente en si
el proyecto se implementó según lo planeado y cómo se debe revisar el proyecto para
evitar problemas. En principio, los Cinco Criterios de Evaluación lo cubren todo, pero la
evaluación se realiza con atención en las preguntas de evaluación específicas. (Consulte
el Caso 2.)
Proyecto para Mejorar la Vida de los Pobres en el País B
(Este ejemplo se basa en un caso de evaluación ex-ante real, pero para este documento se hicieron
algunos cambios y adiciones.)
<Descripción general del Proyecto> El objetivo del proyecto evaluado es “el mejoramiento de la capacidad para abordar los
problemas sociales (educación, pobreza, higiene, etc.) a través del poder de grupos de actividades de los residentes de las regiones pobres objetivo”. Para alcanzar este propósito, el proyecto brinda rehabilitación de los niños de la calle, asesoría para los residentes, capacitación vocacional, oportunidades de educación y otros.
<Preguntas de Evaluación> En esta encuesta, las partes involucradas acordaron de antemano realizar la evaluación
con atención a los siguientes temas. Las preguntas de evaluación reflejan la creación de conciencia de los problemas de las partes involucradas y es clara la intención de mejorar el proyecto mediante la evaluación intermedia.
¿Qué problemas hay en el proceso de implementación del proyecto (organización administrativa, cambio de la percepción y habilidades mejoradas del personal del proyecto, etc.)? Una vez terminada la cooperación, ¿el proyecto se puede sustentar sin ayuda del exterior? ¿Qué puntos se deben atender en el futuro para esto?
Con base en estas preguntas de evaluación, la evaluación se realizó con atención en
la “eficiencia” y “prospectos de sustentabilidad”. Para la “pertinencia” se utilizó información que se pudo obtener al examinar los “prospectos de sustentabilidad” (pertinencia del enfoque del proyecto, condición de la asistencia política en el país B). Los otros criterios de evaluación (predicción de la efectividad e impacto) también se cubrieron en menor grado.
Caso 2: Preguntas de Evaluación para la Evaluación Intermedia
155
ii) Temas al considerar criterios y métodos de juicio Para emitir un juicio del valor (es decir, evaluar) con base en los datos recopilados, se
necesita hacer una comparación antes/después, una comparación del nivel de logros y
metas y un análisis de las relaciones causales. El análisis de las relaciones causales
cuestiona si realmente se produjo el efecto gracias a la implementación del proyecto. En
una evaluación intermedia, se examinan los prospectos del efecto, pero todavía no se
pueden examinar las relaciones causales con base en los logros. Por ello, cuando se
juzgan principalmente los resultados e insumos, es vital una comparación entre el sitio de
implementación del proyecto y otro sitio (para el método, consulte 2-2-2).
iii) Temas al considerar fuentes de información y métodos de recopilación de datos En las evaluaciones antes de iniciar un proyecto, las personas a cargo del proyecto y la
oficina local deben - con base en la implementación del proyecto hasta este momento -
haber captado el material que se puede utilizar como fuente de información importante,
así como identificar personas importantes que puedan convertirse en informantes clave.
El equipo de estudio de la evaluación elige las fuentes de información adecuadas con
base en la información que proporcionan las personas a cargo. Para las evaluaciones intermedias, es necesario utilizar los resultados del seguimiento.
Además, se realizan entrevistas con las partes involucradas en el proyecto, discusiones
del grupo de control y encuestas por cuestionario, según sea necesario. Los resultados
de la evaluación intermedia deben conducir directamente a un mejoramiento del proyecto
vigente. Por ejemplo, se realizan talleres participativos para aislar los problemas y se
toman en consideración medidas entre las partes involucradas como un medio efectivo
para comprender y luego utilizar las percepciones de las partes involucradas. Los
métodos de recopilación de datos, así como las características y puntos a recordar se
describen en la Parte II, Capítulo 2 (2-2-1). iv) Temas al crear la tabla de evaluación
Por último, el método de evaluación se resume en una tabla de evaluación. La tabla
de evaluación es una herramienta para pensar cómo se debe conducir el estudio de
evaluación para que sea adecuado. En consecuencia, existe un formato básico de la
tabla, pero se pueden añadir columnas según sea necesario. La tabla de evaluación se
utiliza para describir en detalle los datos que la evaluación debe obtener, y también
identifica el método de recopilación de datos para poder visualizar lo que se debe hacer
en el estudio. En el proceso del estudio en sí, tal vez no sea posible obtener algunos
datos como se esperaba, y puede haber algunos datos además de los esperados. Si no
se pueden obtener datos, los evaluadores necesitan volver a trabajar en la tabla de
evaluación y tomar en consideración si existen otros medios factibles de verificación y
cualquier dato útil obtenido a partir de otros temas, o cualquier otro dato que se pueda
utilizar.
156
(4) Interpretación y Utilización de los Datos de Estudio de la Evaluación Intermedia Tal como se explica en la Parte II, Capítulo 3, evaluación significa interpretar los datos
recopilados y analizados - no es suficiente si sólo se enumeran los datos y se añaden los
resultados del cuestionario. Los estudios de evaluación intermedia evalúan un proyecto a
la mitad del mismo; viendo si el proyecto se implementó según lo planeado, cuáles son
las causas por las cuales las cosas salen mal, qué tiene éxito y qué tipo de mejoras se
deben implementar. La interpretación del estudio de evaluación intermedia se basa en los
resultados del análisis de los factores que dificultan y que contribuyen. Los resultados
también son una fuente de información importante para dirigir a los evaluadores hacia
recomendaciones y lecciones aprendidas concretas y prácticas. La interpretación consiste de evaluaciones de cada uno de los Cinco Criterios de
Evaluación y una conclusión que es un análisis cruzado de ellos. Si los factores que
dificultan y contribuyen no se analizan lo suficiente en la evaluación de los Cinco Criterios
de Evaluación, no habrá una base para la conclusión y no se podrán presentar
recomendaciones y lecciones aprendidas concretas. Sobre todo, las evaluaciones
intermedias son una muy buena oportunidad para decidir sistemáticamente las
“revisiones del proyecto”. La efectiva realización de la evaluación intermedia también
afecta el éxito o fracaso, posterior a ella, del proyecto. Para utilizar de manera efectiva los
resultados de la evaluación intermedia se debe asegurar tiempo suficiente para consultas
profundas con las partes involucradas sobre los factores del proyecto que dificultan y las
medidas para resolverlos. El siguiente paso, con base en los resultados de la interpretación, es hacer un
borrador de las recomendaciones y lecciones aprendidas y crear un informe. Las
“recomendaciones” presentan medidas concretas, propuestas y asesoría sobre el
mejoramiento del proyecto evaluado. Las “lecciones aprendidas” se identifican a partir de
las experiencias de proyectos aplicables, y se pueden generalizar o conceptualizar hasta
cierto grado. También sirven como referencia de otros proyectos similares vigentes, o
para encontrar y formular proyectos en el futuro. Como el propósito principal de la evaluación intermedia es mejorar el proyecto vigente,
las recomendaciones dirigidas al proyecto respectivo constituyen una porción
relativamente grande. Una vez que las divisiones del proyecto y de implementación
reciben las recomendaciones, deben tomar acciones inmediatas para concretarlas. El
Caso 3 muestra un proyecto (Proyecto de educación temprana en el país C) donde los
resultados de la evaluación intermedia se utilizaron concretamente, conduciendo a un
efecto que se produjo al final del proyecto.
157
Figura 3-2-3 Uso del Estudio de Evaluación Intermedia: Ajustes del Proyecto
Recopilación de datos y análisis en el estudio de evaluación intermedia
Interpretación (Cinco Criterios de Evaluación y conclusión) Juicio y análisis tanto de los factores limitantes como de los contribuyentes
Extracción de recomendaciones Dirección, consejo y propuestas de mejoramiento con base princi- palmente en el factor limitante
Extracción de las lecciones aprendidas
Lecciones aprendidas generali- zadas para proyectos similares
Ajustes con base en las recomendaciones Ajustes concretos mediante la división de implementación y el proyecto
Uso de las lecciones aprendidas
Uso en proyectos similares
Conducen a una
implementación
efectiva del proyecto
Es difícil extraer recomenda-
ciones concretas y lecciones
aprendidas si los factores limitantes y
los contribuyentes no se analizan.
158
“Proyecto de Fortalecimiento de la Educación Temprana en el País C”
(Este ejemplo se basa en un caso de evaluación ex-ante real, pero para este documento se hicieron
algunos cambios y adiciones.)
<Descripción general del Proyecto> Meta general: Es necesario mejorar la calidad de los servicios de educación temprana en el
país C.
Objetivo del proyecto: Es necesario mejorar la calidad de la educación temprana en las
escuelas objetivo del proyecto (6 escuelas). Producto: 1. Mejoramiento de la educación de las maestras de educación temprana
2. Estandarización de la educación temprana
3. Fortalecimiento de la educación temprana y cooperación con las regiones vecinas
4. Mejoramiento del medio ambiente de la educación temprana
Conclusión de la Evaluación Intermedia El mejoramiento de la educación temprana para el 2005 es un tema central en el plan de
salud de cinco años del país C. Este proyecto está ubicado como parte de este plan. Sin
embargo, al mismo tiempo el gobierno está promoviendo la privatización de instituciones
para la educación temprana, lo que hace que el mejoramiento de la calidad de la
educación temprana sea todavía más importante. Tomando en cuenta estos antecedentes,
este proyecto es de alta pertinencia. Este proyecto se dirige a todas las escuelas de
educación temprana en el país y se considera como el camino más corto para mejorar la
calidad en las guarderías a nivel nacional. Por lo tanto, la pertinencia del enfoque también
es alta. Con la implementación del proyecto, se está haciendo progreso en el establecimiento
de sistemas relativos a la educación temprana - se introdujeron exámenes de certificación
para la educación temprana, la introducción de reuniones regulares del Comité para
Reforzar la Cooperación de la Práctica Educativa y Clínica y otros, y es claro que el
impacto es grande. Por otro lado, es necesario reforzar el seguimiento y manejo del equipo para
considerar la sustentabilidad. En las condiciones actuales, el sistema de manejo es
insuficiente y todavía hay preocupaciones en relación con la sustentabilidad del efecto
después del final de la cooperación.
Trabajo de revisión realizado por el proyecto en respuesta a los resultados de la
evaluación intermedia El proyecto desarrolló las siguientes actividades nuevas además de las actividades que
había hasta ese momento con la intención de fortalecer la sustentabilidad, que se señaló
Caso 3: Uso de los Resultados de la Evaluación Intermedia
159
como un problema en la evaluación intermedia. El nuevo producto y actividades se
añadieron al marco lógico. (Producto y actividades principales añadidas)
Producto: 5 Promoción de actividades para la sustentabilidad. Actividades: 5-1 Organizar comités y grupos de estudio para cada tema.
(Ocho comités y cuatro grupos de estudio para crear el borrador del plan de
estudio y de instrucción, libros de texto, material de aprendizaje en video,
educación y cooperación con las regiones vecinas, etc., se reúnen
regularmente y crean guías y manuales.) 5-2 Celebrar seminarios sobre cómo usar y manejar el equipo.
(Crear manuales de usuario para el equipo y celebrar seminarios en
intervalos regulares.)
5-3 Implementar el seguimiento
(Realizar un seguimiento cada medio año con base en el marco lógico, y
revisar actividades o repetir las guías si es necesario.)
Efectos de la adición de actividades nuevas (extracto del informe de la evaluación final) De acuerdo con los resultados de la evaluación final del proyecto, se encontró que la adición de
estas actividades tuvo los siguientes efectos.
• Cada seis meses, se celebró un taller de seguimiento con base en el marco lógico. A través de
este taller, la comunicación continuó sin problemas, igual que la gestión del proyecto - y el trabajo
en equipo se fortaleció. Como resultado, tanto los expertos como las contrapartes interactuaron
activamente entre sí y trataron de resolver problemas.
• La introducción de un “sistema” de comité hizo posible la divulgación de la tecnología al campo
de la enseñanza temprana como un todo y aumentó la sustentabilidad. El sistema de “comité” es
un método para desarrollar actividades vibrantes a través de la participación de maestras
voluntarias de educación temprana e ingenieros clínicos que asistieron a los seminarios
(alrededor de 80 personas regularmente) en comités organizados por temas. En entrevistas con
la contraparte, muchos apreciaron el hecho que a través de este sistema se pudo obtener un
producto concreto al mismo tiempo que se intentó diseminar la tecnología y revitalizar la
comunicación en todo el campo de la educación temprana.
• No hay problemas particulares en el mantenimiento y manejo del equipo. Consideramos que éste
es el resultado de crear manuales del equipo para el usuario y celebrar seminarios sobre cómo
usarlo y manejarlo (cuatro veces al año) en respuesta a las recomendaciones de la evaluación
intermedia.
160
3. Puntos Principales de los Estudios de Evaluación Final (1) Propósito y Puntos de Vista de la Evaluación en los estudios de Evaluación Final
Las evaluaciones finales se realizan al término de la cooperación; examinan a nivel
integral si se alcanzó el objetivo del proyecto. En consecuencia, se examinan la
pertinencia, eficiencia y efectividad con base en la situación y resultados reales. También
se examinan el impacto y la sustentabilidad con base en los logros y el estado de
actividades hasta ese punto, y también en relación con las tendencias futuras y la
factibilidad (consulte la tabla 3-2-1). Observe que aunque para fines del impacto y la
sustentabilidad la evaluación final juzga los “prospectos”, la evaluación debe identificar las
bases concretas de juicio para asegurarse que está fundamentado. Los resultados de evaluación de las evaluaciones finales se retroalimentan
principalmente a los departamentos operativos de la JICA y a las agencias
gubernamentales pertinentes y a la agencia de implementación en el país socio. Se
utilizan para juzgar si es adecuado terminar la cooperación y para decidir el siguiente
paso. Si el país socio continua el proyecto, los resultados también se utilizan como puntos
a recordar o lecciones aprendidas para proyectos similares. Cuando se observan los prospectos para la efectividad y el impacto, los
evaluadores deben centrarse en las relaciones causales con el proyecto según se
describe en la Parte II, Capítulo 2 (2-2-2). Las evaluaciones realizadas después que ha
pasado cierto tiempo a partir del inicio del proyecto deben considerar si el proyecto
provocó los efectos producidos. De ser posible, se debe presentar una evaluación que
haga una comparación con las regiones donde el proyecto no se ha implementado, y los
evaluadores necesitan recabar todos los datos que puedan explicar de manera
convincente que el producto y las actividades del proyecto provocaron el efecto. La tabla 3-2-6 muestra una lista de los puntos de verificación principales para las
evaluaciones finales.
161
Tabla 3-2-6 Principales Puntos de Verificación en los Estudios de Evaluación Final (los puntos que se muestran con fondo gris se examinan con base en la situación y logros reales)
Puntos de Evaluación
Puntos de Verificación de la Evaluación
Verificación de los logros
¿Se realizó el insumo de acuerdo con lo planeado? (en comparación con los valores planeados) ¿El producto se generó según lo planeado? (compare con las metas) ¿Se alcanzará el objetivo del proyecto? (compare con las metas) ¿Hay posibilidades de alcanzar la meta general? (compare con las metas)
Verificación del proceso de
implementación
¿Las actividades se implementaron según lo planeado? ¿Hay algún problema en el método de transferencia de tecnología? ¿Hay algún problema en el sistema de gestión del proyecto (sistema de seguimiento, proceso de toma de decisiones, función de la Oficina Central y la oficina local* de la JICA?
¿El proyecto tiene un buen reconocimiento en la agencia de implementación y la contraparte?
¿Se asignó una contraparte adecuada? ¿El grado de participación del grupo objetivo y las organizaciones relacionadas con el proyecto es alto? ¿El proyecto está altamente reconocido?
¿Qué factores influyeron los problemas que se presentaron en el proceso de implementación del proyecto y en el efecto producido?
* Una pregunta para verificar la idoneidad de la capacidad de gestión de la división de implementación en la JICA y la oficina local. Por ejemplo, la respuesta rápida y la asesoría del seguimiento para los ajustes durante la implementación, comunicación suficiente con el sitio del proyecto, cooperación con agencias relacionadas en Japón, etc.
<<Cinco Criterios de Evaluación>>
Pertinencia
Necesidad ¿El proyecto es consistente con las necesidades de la región o sociedad objetivo? ¿El proyecto es consistente con las necesidades del grupo objetivo?
Prioridad ¿El proyecto es consistente con la política de desarrollo del país socio? El proyecto es consistente con la política de asistencia para el extranjero de Japón y del plan de la JICA para la implementación de programas por país?
Sustentabilidad como un medio ¿El proyecto es adecuado como estrategia para producir un efecto respecto a los temas de desarrollo del campo y sector objetivo del país receptor? (¿Se seleccionaron apropiadamente el enfoque del proyecto y la región objetivo? ¿Qué efectos sinérgicos se alcanzaron en cooperación con otros donantes? ¿La selección del grupo objetivo es adecuada? (Meta, volumen, distribución de géneros, etc.)
¿Hubo algún efecto de difusión más allá del grupo objetivo? ¿Los beneficios del efecto y la carga de los costos se distribuyeron equilibradamente? ¿Japón tenía una ventaja en tecnología? (¿Japón tiene conocimientos (know-how) acumulados sobre la tecnología objetivo? ¿Puede Japón compartir sus experiencias?, etc.)
Otros ¿Ha habido algún cambio en el medio del proyecto (política, economía, sociedad, etc.) desde que se hizo la evaluación intermedia?
Efectividad Logro del objetivo del proyecto
162
¿Se alcanzó el objetivo del proyecto? (resultado del examen de logros) Relaciones causales
¿El resultado fue suficiente para alcanzar el objetivo del proyecto? ¿La lógica “si el resultado se produce, podremos alcanzar el objetivo del proyecto” fue razonable? ¿Las suposiciones importantes del resultado hacia el objetivo del proyecto también son correctas en este momento? ¿Hubo alguna influencia a partir de las suposiciones importantes? ¿Cuáles son los factores que dificultaron y promovieron el logro del objetivo del proyecto?
Eficiencia
Generación del resultado ¿La generación del resultado es adecuado? (resultado del examen de logros)
Relaciones causales ¿Las actividades fueron suficientes para generar el resultado? ¿Las suposiciones importantes de las actividades al resultado también son correctas en este momento? ¿Hubo alguna influencia a partir de las suposiciones importantes?
Momento oportuno ¿Se realizaron los insumos en cantidad y calidad adecuadas en el momento adecuado para conducir las actividades? ¿Las actividades se implementaron en el momento oportuno?
Costo ¿El producto justifica el costo invertido en comparación con proyectos similares (comparación del costo total o unitario de un proyecto similar realizado por la JICA u otros donantes en el país?) (¿Hay algún medio alternativo para obtener el mismo producto a menor costo? ¿Se pudo lograr más con el mismo costo? ¿El logro del objetivo del proyecto justifica el costo invertido en comparación con proyectos similares (comparación del costo total o unitario de un proyecto similar realizado por la JICA u otros donantes en el país?) (¿Hay algún medio alternativo para obtener los mismos resultados a menor costo? ¿Se pudo lograr más con el mismo costo?)
Impacto (Prospecto)
Prospectos para el logro de la meta general Observando los resultados de los insumos y productos y el estado de actividad, ¿hay posibilidades de alcanzar la meta general como un efecto del proyecto? (¿Es posible verificar el efecto en la evaluación ex-post?) ¿Es posible que el logro de la meta general tenga un impacto sobre el plan de desarrollo del país socio? ¿Hay factores que obstruyeron el logro de la meta general?
Relaciones causales ¿Las metas generales y el objetivo son consistentes? ¿Las suposiciones importantes del objetivo del proyecto hacia la meta general también son correctas en este momento? ¿Existe una posibilidad alta que las suposiciones importantes sean verdad?
Efectos de difusión ¿Hubo algún impacto positivo o negativo además de la meta general?
* Influencias sobre el establecimiento de políticas y sobre la preparación de leyes, sistemas y normas * Influencias sobre los aspectos sociales y culturales tales como género, derechos humanos y pobreza * Influencia sobre la protección ambiental * Influencia derivada de cambios tecnológicos * Influencias económicas sobre la sociedad objetivo, las partes del proyecto y los beneficiarios
¿Hay impactos diferentes dependiendo de las diferencias entre géneros, grupos étnicos o clases (sobre todo impactos negativos)? ¿Hay alguna otra influencia negativa?
163
(Principales Puntos de Verificación en los Estudios de Evaluación Final - continuación) Puntos de Evaluación
Puntos de Verificación de la Evaluación
Sustentabili-dad (Prospectos) * Lo que es importante para la sustentabilidad depende de los proyectos. El estudio se debe conducir después de entender esto.
Políticas y sistemas ¿La política de asistencia continuará aún cuando termine la cooperación? ¿Los reglamentos y sistemas legales pertinentes están preparados? ¿Hay planes para su preparación? En el caso de los proyectos dirigidos a sitios piloto, ¿se cuenta con esfuerzos confiables para ayudar a difundirlos posteriormente?
Aspectos organizativos y financieros ¿Se tiene la capacidad organizativa suficiente para implementar actividades que produzcan efectos incluso aún termine la cooperación? (Asignación de recursos humanos, proceso de toma de decisiones, etc.) ¿Las agencias de implementación tienen un sentido de conciencia de la iniciativa propia suficientemente asegurado? ¿El presupuesto (incluyendo los gastos de operación) está asegurado? ¿Se han tomado medidas presupuestarias suficientes del lado del otro país? ¿Es probable que aumente el presupuesto en el futuro mediante la implementación del proyecto? ¿Las medidas para asegurar los presupuestos son suficientes?
Aspecto técnico ¿Se están aceptando los métodos de transferencia de tecnología empleados en el proyecto? (Nivel de tecnología, factores sociales y convencionales, etc.) ¿El equipo se maneja y mantiene apropiadamente? ¿El proyecto contiene un mecanismo para su difusión? ¿Es probable que la agencia de implementación pueda mantener el mecanismo para su difusión? En el caso del proyecto piloto, ¿es posible transferir la tecnología a otros sitios?
Sociedad, cultura y medio ambiente ¿Hay alguna posibilidad de inhibir un efecto sostenido por la falta de consideración hacia las mujeres, los pobres y los socialmente vulnerables? ¿Hay alguna posibilidad de obstaculizar un efecto sostenido debido a la falta de consideración hacia el medio ambiente?
Sustentabilidad en general Considerando los aspectos anteriores como un todo, ¿la sustentabilidad es alta o baja?
164
(2) Diseño del Estudio de Evaluación Lo siguiente explica los puntos para crear una tabla de evaluación para la evaluación final.
Por favor consulte el Capítulo 2, Parte II para obtener una descripción detallada de los
métodos de diseño de la evaluación.
i) Temas al considerar las preguntas de evaluación Las preguntas de evaluación en las evaluaciones finales varían desde “¿Valió la pena
implementar el proyecto?” y otras preguntas de alto nivel hasta preguntas concretas como
“¿El método de cooperación técnica que se introdujo en el proyecto fue efectivo?” o “¿El
efecto será sustentable?”. Las partes involucradas determinar las preguntas de
evaluación en consideración de cuál debe ser el enfoque de la evaluación para que
conduzcan a recomendaciones y lecciones aprendidas útiles. En principio, los Cinco
Criterios de Evaluación cubren todo, pero la evaluación se realiza con atención en las
preguntas de evaluación específicas. (Consulte el Caso 4)
ii) Temas al considerar criterios y métodos de juicio Al juzgar el valor del proyecto (es decir, evaluarlo) con base en los datos recopilados,
se necesita realizar una comparación del nivel de logros y metas y un análisis de las
relaciones causales (¿realmente se produjo el efecto gracias a la implementación del
proyecto?). Sobre todo cuando se diseña una evaluación final para verificar la efectividad,
se hacen consideraciones sobre los métodos que se deben utilizar para verificar las
relaciones causales dentro del proyecto. (Para más información sobre el método consulte
2-2-2.)
iii) Temas al considerar fuentes de información y métodos de recopilación de datos En las evaluaciones antes de iniciar un proyecto, las personas a cargo del proyecto y
la oficina local deben - con base en la implementación del proyecto hasta ahora - haber
captado el material importante que se puede utilizar como fuente de información y las
personas importantes que puedan convertirse en informantes clave. El equipo de estudio de la evaluación elige las fuentes de información adecuadas con
base en la información que proporcionan las personas a cargo. También se deben
realizar encuestas de los beneficiarios finales (nivel de la meta general) o residentes
según sea necesario. Los estudios que se realizan únicamente con respecto a las partes
involucradas harán que sólo se observen fuentes limitadas de información a partir de
fuentes interesadas; por lo tanto, eso no es suficiente. Los métodos de recopilación de datos, así como las características y puntos a
recordar se describen en la Parte II, Capítulo 2 (2-2-1). Los evaluadores deben estudiar
cómo recopilar los datos eficientemente dentro del tiempo límite. Primero que nada, se
debe observar detenidamente si ya existen materiales y datos que se puedan utilizar - y
165
éstos se deben utilizar tanto como sea posible. Los evaluadores también deben
considerar cuidadosamente cómo recopilar los datos que todavía no existen y que
necesitan investigarse. El proceso de crear preguntas y hojas de cuestionarios
adecuados también es extremadamente importante. Es necesario considerar muchos
puntos al crear cuestionarios - hacer un borrador de las preguntas desde el punto de vista
de la persona que responde para obtener opiniones sinceras, verificaciones cruzadas
sobre una percepción mediante múltiples preguntas, o el uso de selección múltiple para
entender las tendencias a partir de datos cuantificados.*
iv) Temas al crear la tabla de evaluación El método considerado desde los aspectos descritos arriba se resume finalmente en la
tabla de evaluación. La tabla de evaluación es una herramienta para considerar cómo se
debe realizar el estudio de evaluación adecuadamente. En consecuencia, existe un
formato básico de la tabla, pero se pueden añadir columnas según sea necesario. La
tabla de evaluación se utiliza para establecer en detalle los datos necesarios para la
evaluación e identificar el método de recopilación de datos para poder visualizar lo que se
debe hacer en el estudio. En el proceso del estudio en sí, tal vez no sea posible obtener
algunos datos como se esperaba, y puede haber algunos datos además de los esperados.
Si no es posible obtener datos, los evaluadores pueden regresar a la tabla de evaluación
y tomar en consideración si existen otros medios factibles de verificación, si hay algún
dato útil obtenido a partir de otros temas, o si hay cualquier otro dato que se pueda utilizar. El caso 5 muestra el ejemplo de una tabla de evaluación en una evaluación final.
Obviamente, lo que está escrito en la tabla depende de las características del proyecto y
de la cantidad y calidad de la información que el equipo de estudio de evaluación puede
obtener con anticipación, y los evaluadores deben tener en mente que las preguntas de
evaluación y los métodos de estudios que aparecen en el siguiente caso son sólo uno de
los muchos ejemplos. Dependiendo de la fuente de información o la cultura y la situación
de la sociedad objetivo, las entrevistas pueden ser adecuadas en algunos casos, pero en
otros, las encuestas por cuestionario podrían ser más valiosas para obtener los datos. *En algunos estudios de evaluación anteriores se cometieron errores rudimentarios. Por ejemplo, se hicieron
cuestionarios que consistían de docenas de páginas (desanimando a la parte receptora a responder) o se hicieron
borradores de preguntas cuya respuesta se podía haber inferido de la literatura y materiales existentes. En el caso de
los estudios de evaluación reales, se necesita la habilidad de investigadores sociales profesionales. Para obtener más
detalles sobre los métodos, consulte la bibliografía anexa “Técnicas y métodos de encuestas” (Survey techniques and
methods).
166
(Este reporte se basa en un estudio de evaluación real, pero su contenido se ha modificado parcialmente)
<Estudio de Evaluación Final del Proyecto de Planeación Familiar/WID>
El objetivo de este proyecto es que “se debe practicar cada vez más la planeación de la familia en la región objetivo principal y en las regiones de seguimiento”. Para lograrlo, realizamos actividades educativas - actividades para mejorar el ingreso y los servicios de atención médica de la gente, entre otros.
En esta encuesta, elaboramos un borrador de las siguientes preguntas de evaluación principales como resultados de las entrevistas con las partes involucradas de Japón y discusiones en un taller de evaluación local. Con estas preguntas de evaluación en mente, pudimos identificar los temas que debíamos clasificar como prioritarios en nuestra encuesta según fuimos creando la tabla de evaluación.
Examen del método de cooperación técnica i) En este proyecto se introdujo el enfoque integrado de sectores múltiples (un
enfoque que observa no sólo el aspecto de la atención a la salud de la mujer, sino que integra por ejemplo, actividades educativas para toda la región y actividades para generar ingresos para las mujeres) para la salud reproductiva (RH).
ii) ¿Este enfoque provocará cambios en el comportamiento de las mujeres y la conciencia en el medio ambiente?
iii) ¿Cuáles son los principales factores que dificultan y que contribuyen a lo anterior? Examen del grado de contribución de cada actividad iv) ¿Las tres actividades (planeación de la familia/atención a la salud materno-infantil,
actividades educativas y la generación de ingresos) contribuyen al logro del objetivo del proyecto?
v) ¿Cuáles son los principales factores que dificultan y que contribuyen a lo anterior? ¿Qué lecciones aprendimos?
Prospectos de sustentabilidad vi) ¿El proyecto regional alentará al comité, al comité regional de préstamos y al
equipo de apoyo regional a continuar sus actividades incluso una vez que termine el proyecto?
vii) ¿La operación de fondos revolventes a partir de las actividades de generación de actividades funcionará incluso después que termine el proyecto?
viii) ¿Las tres agencias de implementación (la comisión se población de la tercera edad, el ministerio de la salud y las ONGs) pueden utilizar las experiencias y tecnología adquiridas a través de este proyecto en otros proyectos?
Caso 4: Preguntas de Evaluación en la Evaluación Final
167
<Evaluación final del seguimiento del plan de mejoramiento
de la tecnología de vaciado> El objetivo de este proyecto es que “el centro de vaciado sea capaz de brindar servicios
técnicos adecuados a la industria de vaciado”. Para ello, realizamos una transferencia de tecnología de vaciado, cursos de capacitación y consultas técnicas y brindamos equipo.
Como este estudio es para la evaluación de un proyecto de seguimiento, el borrador de las preguntas de la evaluación se realizó tomando en consideración los antecedentes de la cooperación de seguimiento. En otras palabras, la razón de la cooperación para el seguimiento fue el hecho de que “a través del proyecto real, la agencia de implementación no pudo crear un sistema capaz de brindar servicios técnicos adecuados a la industria privada de vaciado”, así que el estudio de evaluación se centró en un examen para ver si se había resuelto este punto.
Preguntas de Evaluación: “¿Puede ahora el sistema brindar servicios técnicos adecuados a la industria privada de vaciado?”
168
“Proyecto para Mejorar la Tecnología de las Pequeñas y Medianas Empresas de Vaciado en el País D” (Este ejemplo se basa en un estudio de evaluación real, pero para este documento se hicieron algunos cambios y adiciones.)
Descripción general del Proyecto Meta general: Es necesario mejorar las habilidades técnicas de la pequeña y mediana empresa de vaciado en el país D. Objetivo del proyecto: Es necesario mejorar la calidad de los servicios de capacitación y de soporte técnico que ofrece el centro de tecnología de vaciado a la pequeña y mediana empresa. Producto: 1. Fortalecimiento de la operación del proyecto y de la organización administrativa 2. Mejoramiento de las habilidades técnicas de la contraparte
3. Instalación, mantenimiento y manejo del equipo para una expansión de los servicios de capacitación. 4. Servicios de capacitación que reflejen las necesidades de la pequeña y mediana empresa 5. Servicios de soporte técnico que reflejen las necesidades de la pequeña y mediana empresa
Agencia de implementación
Centro nacional de vaciado del país D Período de implementación Mayo, 1998 a abril, 2002 Preguntas de Evaluación
i) Los resultados del seguimiento muestran que el proyecto marcha sin problemas. ¿La efectividad es realmente alta? De ser así, ¿qué factores contribuyen a ello?
ii) El aseguramiento independiente de recursos financieros se considera un factor importante para la sustentabilidad cuando termine el proyecto. ¿Cuáles son los prospectos para esto? ¿Qué otras medidas se necesitan para la sustentabilidad?
Caso 5: Tabla de Evaluación en la Evaluación Final
169
En muchos casos, si es pertinente, se pueden utilizar los resultados de evaluaciones anteriores (Ex-ante, Tabla de Evaluación, documentos del proyecto, Informe de la Evaluación Intermedia, etc.).
Ejemplo de tabla de evaluación [Pertinencia] * El material que aparece con fondo gris ya se recopiló
Preguntas de Evaluación
Cinco Criterios de Evaluación
Pregunta Pregunta secundaria
Crite-rios y Méto-dos de Juicio
Datos Necesarios
Fuente de Información
Recopilación de Datos
Otros
¿El efecto que busca el proyecto es consistente con la política nacional del país D?
Ubicación y contenido del plan de producción de vaciado en el plan de calidad y productividad
Proyecto del plan de calidad y productivi-dad
División a cargo del Ministerio de Industria
Revisión del material Entrevistas
¿Las necesidades de cooperación del centro de vaciado son altas?
Resultados del estudio de base
Percepcio-nes del personal del centro
Percepcio-nes de la pequeña y mediana empresa
Documen-tos del proyecto
Personal del centro
Gestión de las pequeñas y medianas empresas
Revisión del material Entrevistas Entrevistas
¿La selección del grupo objetivo es adecuada?
¿El tamaño del grupo objetivo es adecuado?
Proporción del grupo objetivo en compara-ción con todo el país D
Opinión de
las partes interesadas
Tabla de Logros del Proyecto
Documen-tos del proyecto
División a cargo del Ministerio de Industria
Expertos Contraparte
(C/P) Gestión de
las pequeñas y medianas empresas
Revisión del material Entrevistas Grupos de control
Pertinencia
¿El proyecto es consistente con la política de asistencia para el
¿El proyecto aborda los temas centrales de asistencia?
Áreas de atención de la asistencia para Japón al país D
Política de asistencia del país D
Revisión del material
170
extranjero de Japón? ¿El enfoque del proyecto es adecuado como medio?
¿El proyecto aborda el plan de implementación de programa por país de la JICA?
Existencia de programas en el área de vaciado
Ubicación en los programas
Plan de implementación del programa por país de la JICA
Revisión del material
¿Japón tiene una ventaja tecnológica en comparación con otros países?
Experien-cias en asistencia en el campo de vaciado
Experiencias de Japón en el área de vaciado
División de la JICA a cargo del proyecto
Comisión de apoyo nacional
Entrevistas
171
[Efectividad] * El material que aparece con fondo gris ya se recopiló Preguntas de Evaluación
Cinco Criterios de Evaluación
Pregunta Pregunta secundaria
Crite-rios y Méto-dos de Juicio
Datos Necesarios
Fuente de Información
Recopilación de Datos
Otros ¿Se alcanzó el producto?
(según la Tabla de Resultados)
(según la Tabla de Resultados)
Revisión del material
¿Está aumentando el número de asisten-tes de las compañías?
Compa-ración antes/ después
Desarrollo del número de asistentes
Lista de asistentes del centro
Revisión del material
¿El centro brinda capacitación de alta calidad?
¿El grado de satisfacción ante la capacitación es alto?
Satisfacción prome-dio de cada curso de por lo menos 3.5 (5 niveles)
Grado de satisfacción promedio
Asistentes anteriores
Encuesta por cuestionario
¿El grado de satisfacción de las compañías es alto?
Por lo menos 80% de los interro-gados están satisfe-chos
Nivel de satisfacción
Razón para el descontento
Encuesta completa de todas las compañías objetivo (n compañías)
* 10 compañías entre éstas
Encuesta por cuestionario Entrevistas
¿El centro brinda servicios de soporte técnico de alta calidad? ¿La calidad
de los productos que produce el C/P es alta?
“Están-dares de calidad” del centro
Datos de calidad
Opiniones
expertas
Libros de control de calidad del centro
Expertos
Revisión del material Entrevistas
¿El mejora-miento de habilidades de los C/Ps contribuye a la efectividad?
Proporción de C/Ps que recibieron la transferen-cia de tecnología
Opiniones expertas
Registros del centro
Expertos
Revisión del material Entrevistas
¿Se utiliza el equipo?
Tipos de equipo utilizados en los servicios de capacitación y técnicos, así como la frecuencia de uso
Efectividad
¿El producto del proyecto contribuye al logro del objetivo del proyecto?
¿Se adquieren las tecnologías en las capacitaciones y mediante la capacitación y servicio?
Contenido de la transferencia de tecnología y planes de estudio
Registros de capacitación
Registros de servicio
C/P Expertos
Revisión del material Entrevistas
172
Opinión de las partes interesadas
C/P Expertos Administra-
ción superior de las compañías
Grupos de control
¿Hay otros factores de contribución además del proyecto?
Información del proceso de implementación
Informe de seguimiento
Revisión del material
¿La tasa de separación del trabajo en el C/P está influyendo? (Suposicio-nes importantes)
Tasa de separación del trabajo, razones de la separación del trabajo
* C/P (cabeza del centro)
Entrevistas
Opinión de las partes interesadas
C/P Expertos
Grupos de control
¿Hay factores que obstruyen el logro del objetivo del proyecto? ¿Hay alguna
otra influencia?
Información del proceso de implementación
Informe de seguimiento
Revisión del material
173
[Eficiencia] * El material que aparece con fondo gris ya se recopiló Preguntas de Evaluación
Cinco Criterios de Evaluación
Pregunta Pregunta secundaria
Crite-rios y Méto-dos de Juicio
Datos Necesarios
Fuente de Información
Recopilación de Datos
Otros
¿La cantidad de expertos enviados, sus áreas de experiencia y la oportunidad con que se enviaron fueron adecuadas?
Hechos del envío real
Actitud de trabajo de los expertos
Opinión de las partes interesadas
• Tabla de logros
• Informe trimestral
• C/P, expertos
Revisión del material Encuesta por cuestionario Entrevistas
¿Los tipos, cantidad y oportunidad de la instalación del equipo proporcio-nado fueron adecuados?
Hechos sobre el equipo proporcionado realmente
Uso del equipo
Opinión de las partes interesadas
Tabla de logros
Equipo, uso y tabla de manejo
C/P, expertos
Revisión del material Encuesta por cuestionario Entrevistas
¿La cantidad de becarios aceptados, las áreas, el contenido de la capacita-ción, el período de capacitación y la oportunidad de acepta-ción de becarios fueron adecuados?
Hechos de la acepta-ción real de los becarios
Opinión de las partes interesadas
• Tabla de la aceptación real de los becarios
• Informes de las agencias que aceptaron becarios
• C/P, expertos
Revisión del material Encuesta por cuestionario Entrevistas
¿La cantidad, colocación y habilidades de los C/P fueron adecuadas?
Compa-ración de los resulta-dos reales con el plan
Colocación de C/P
Opinión de las partes interesadas
• Tabla de la colocación real de C/P
• C/P, expertos
Revisión del material Encuesta por cuestionario Entrevistas
Eficiencia
Desde el punto de vista del producto obtenido, ¿la calidad, cantidad y oportunidad del producto fueron adecuadas?
¿Hay algún problema en la calidad, tamaño y convenien-cia de los edificios e instalacio-nes?
Condición actual de los edificios e instalacio-nes
Colocación del equipo
Opinión de las partes interesadas
Esquema del equipo
C/P Expertos
Observación Directa Encuesta por Cuestionario Entrevistas
174
¿El monto de presupuesto del proyecto fue adecuado?
Costo real que cubrió el socio
Presupues-to anual del centro
Opinión de las partes interesadas
Tabla de costos compartidos reales
Tabla del presupuesto del centro
* C/P (cabeza del centro)
Expertos
Revisión del material Entrevistas
¿El mejoramien-to de habilidades de los C/Ps contribuye a la efectividad?
Proporción de C/Ps que recibieron la transferen-cia de tecnología
Opiniones expertas
Registros del centro
Expertos
Revisión del material Entrevistas
¿Los costos generales invertidos fueron adecuados?
Compa-ración con los costos genera-les in-vertidos en pro-yectos simila-res
Costo general invertido
Tipo de producto y población beneficiada de proyectos similares
• C/P (cabeza del centro)
Entrevistas
¿Los costos fueron adecuados en comparación con proyectos similares?
¿El costo unitario para realizar una sesión de capacitación es adecuado?
Compa-ración con los costos unitarios de pro-yectos simila-res
Costos unitarios de la capacita-ción
Costos unitarios para la capacitación en proyec-tos similares
C/P Expertos Informes de
evaluación de proyectos similares
Entrevistas
¿Hay algún factor que dificulte la eficiencia?
• Opinión de las partes interesadas
C/P Expertos
Grupos de control
175
[Impacto] * El material que aparece con fondo gris ya se recopiló Preguntas de Evaluación
Cinco Criterios de Evaluación
Pregunta Pregunta secundaria
Crite-rios y Méto-dos de Juicio
Datos Necesarios
Fuente de Información
Recopilación de Datos
Otros ¿Mejoraron las habilidades de los ingenieros en las pequeñas y medianas compañías?
• Evaluación tecnológica de las compañías representa-tivas en 15 estados del país
30 compañías representa-tivas en 15 estados
Encuesta por cuestionario
¿Hay posibilidades de alcanzar la meta general?
¿Está aumentando el orden?
• Desarrollo de los logros de negocios de las compañías representa-tivas en 15 estados del país
• Material sobre logros de negocios en 30 compañías representa-tivas
Revisión del material
Cambios en el volumen de exportación de las pequeñas y medianas compañías de vaciado
Desarrollo del volumen de exportación
Estadísticas de exportación
Revisión del material
Cambios en la productivi-dad prome-dio de las pequeñas y medianas compañías de vaciado
Desarrollo de la productividad promedio
Estadísticas de la industria de vaciado
Revisión del material
Impacto sobre las políticas y sistemas relacionados con las compañías de vaciado
Compa-ración antes/ después
Opinión de las partes interesadas
Ministerio de la Industria
Personas involucra-das en las compañías
C/P Expertos
Entrevistas
Impacto
¿Hay algún otro efecto de difusión?
¿Hay alguna otra influencia (positiva o negativa)?
Papeles de la industria de vaciado Opinión de las partes interesadas
Diario de vaciado
Ministerio
de la Industria
Personas involucra-das en las compañías
C/P Expertos
Revisión del material Entrevistas
176
¿Hay alguna línea divisoria con respecto a las otras agencias de capacitación relacionadas y hay algún efecto sinérgico?
Papel de las agencias de capacitación relaciona-das
Opinión de las partes interesadas
Agencias de capaci-tación rela-cionadas
Ministerio de la Industria
Compañías C/P Expertos
Entrevistas
¿Cómo evaluaron el efecto de la capacitación las personas que la terminaron?
Trabajo actual
Auto-evaluación de las personas que termi-naron la capacitación con respecto al cambio en su nivel de habilidades técnicas
• 100 personas que terminaron la capaci-tación
Encuesta por cuestionario
¿El proyecto contribuyó en gran medida al impacto producido?
¿Hay alguna diferencia en el resultado del trabajo de las personas que trabajan en la misma compañía entre aquellas que recibieron la capacitación y las que no?
Compa-ración con los trabaja-dores de la mis-ma com-pañía que no recibie-ron la capaci-tación
• Opinión de las partes interesadas
• Personas involucra-das en las compañías
Entrevistas
177
[Sustentabilidad] * El material que aparece con fondo gris ya se recopiló Preguntas de Evaluación
Cinco Criterios de Evaluación
Pregunta Pregunta secundaria
Criterios y Méto-dos de Juicio
Datos Necesarios
Fuente de Información
Recopilación de Datos
Otros
¿La ubicación del centro en la industria de vaciado es clara?
Continuidad de apoyo de las agencias relaciona-das
Colabora-ción con las agencias relaciona-das
Papel del centro
Ministerio de la Industria
Organiza-ciones industria-les
Entrevistas
¿La organización tiene potencial de operación y de gestión?
Funciones de cada división
Colocación y estabilidad del personal
Estableci-miento de un sistema de seguimiento
Opinión de las partes interesadas
Reglas operati-vas de la organiza-ción
Tabla de coloca-ción del personal
Registros de segui-miento del centro
C/P (cabeza del centro), expertos
Revisión del material Entrevistas
¿La situación financiera es buena?
Situación financiera del centro
Opinión de las partes interesadas
• Tabla de presu-puesto, varias tablas financie-ras
• C/P, expertos
Revisión del material Entrevistas
Sustentabilidad
¿La organización tiene potencial para continuar el negocio?
¿Los esfuerzos para el asegu-ramiento independiente de recursos financieros marchan sin problema?
Plan para el asegura-miento in-dependiente de recursos financieros
Opinión de las partes interesadas
Plan para el asegu-ramiento indepen-diente de recursos financie-ros
C/P, expertos
Revisión del material Entrevistas
178
¿Mejoró la capacidad de entrenamiento del C/P?
Compa-ración antes/ después
Resultados de la evaluación de los expertos
Resultados de la auto-evaluación del C/P
Expertos C/P
Entrevistas Auto-evaluación (encuesta por cuestionario)
¿La tecnología transferida se difundirá dentro de la agencia de implementa-ción?
Existencia de capacita-ción mutua dentro de la agencia de implemen-tación
Opinión de las partes interesadas
C/P Expertos
Entrevistas
¿Se estableció la tecnología transferida?
¿El equipo se maneja y mantiene apropiada-mente?
Estado del manteni-miento y manejo
Opinión de las partes interesadas
Informes del man-tenimien-to y del manejo
C/P, expertos
Revisión del material Entrevistas
Cuando los evaluadores examinan la sustentabilidad deben tomar en consideración la organización, los sistemas, las políticas, la tecnología, la sociedad/medio ambiente y otros puntos de vista, pero no es necesario darle la misma importancia a todos los puntos de vista de manera estereotípica. Ello debido a que lo que es importante para la sustentabilidad debe variar dependiendo del proyecto. Los evaluadores deberán analizar esto detenidamente y reflejarlo en las preguntas de evaluación.
179
(3) Interpretación del Resumen de los Datos de Evaluación Final Tal como se explica en la Parte II, Capítulo 3, evaluación significa interpretar los datos recopilados y analizados - no es suficiente si sólo se enumeran los datos y se añaden los resultados del cuestionario. Los estudios de evaluación final se realizan al final de un proyecto, e incluyen ver si valió la pena implementar el proyecto, por qué algunas cosas no salieron bien y qué efectos tuvo el proyecto. La interpretación se basa en los resultados del análisis de los factores que dificultaron y contribuyeron al proyecto. Estos resultados también son una fuente de información importante que dirige a los evaluadores hacia recomendaciones y lecciones aprendidas concretas y prácticas.
La interpretación consiste de una “evaluación de cada uno de los Cinco Criterios de Evaluación” y una “conclusión” que es un análisis cruzado de ellos. Si los factores que dificultan y contribuyen no se analizan lo suficiente en la evaluación de los Cinco Criterios de Evaluación, no habrá una base para la conclusión y la evaluación no producirá recomendaciones y lecciones aprendidas concretas. En algunos informes de evaluación, se presentan las recomendaciones y lecciones aprendidas aunque no se presenten bases sólidas en la evaluación de los Cinco Criterios. En estos casos, no se refleja ningún resultado de una investigación y análisis amplios con base en los cinco criterios, y las recomendaciones y lecciones aprendidas carecen de poder de convencimiento.
El siguiente paso, con base en los resultados de la interpretación y análisis, es hacer un borrador de las recomendaciones y lecciones aprendidas y crear un informe. Las “recomendaciones” presentan medidas concretas, propuestas y asesoría sobre el mejoramiento del proyecto evaluado. Las “lecciones aprendidas” se identifican a partir de las experiencias de proyectos aplicables, y se pueden generalizar o conceptualizar hasta cierto grado. También sirven como referencia de otros proyectos similares vigentes, o para encontrar y formular proyectos en el futuro. También es necesario incluir las recomendaciones para eliminar los factores inhibidores identificados en la interpretación. Los factores inhibidores se pueden presentar en proyectos similares como lecciones aprendidas para que dichos proyectos no repitan los mismos errores. También pueden aprovecharse como lecciones aprendidas para hacer que los proyectos similares sean más efectivos.
Los evaluadores deben establecer claramente a quiénes se dirigen estas recomendaciones y lecciones (a los receptores de la retroalimentación). Las descripciones concretas tales como la división de implementación, la oficina local, la agencia de implementación en el país socio, las organizaciones residentes, los expertos, la contraparte, etc., facilitan el seguimiento posterior. También es efectivo dar recomendaciones por separado, de acuerdo con su término de realización - recomendaciones a mediano y largo plazo y recomendaciones a corto plazo.
La tabla 3-2-7 ofrece un resumen de puntos a recordar en la interpretación. Después de la tabla presentamos ejemplos de los Cinco Criterios de Evaluación y la conclusión (Casos 6 y 7). Observe que la forma de los casos que se presenta es una de muchas. No es necesario tener que seguir la forma que presentamos todas las veces.
180
Tabla 3-2-7 Puntos para Recordar cuando se Interpretan los Resultados del Estudio
Puntos para Recordar Ejemplo/Consejo [Cinco Criterios de Evaluación]
La realización de la evaluación (=respuesta a las preguntas) con base en los datos recopilados y analizados por separado de cada pregunta de la evaluación facilita la interpretación y uso efectivo de la tabla de evaluación.
(consulte los casos que aparecen a continuación)
Compilación En la evaluación de cada uno
de los Cinco Criterios, asegúrese que escribe una conclusión para cada criterio.
Ejemplo: “La capacidad de llevar a cabo la capacitación es alta y ésta se realizó según lo planeado. Por otro lado, la evaluación por parte de los becarios no fue muy buena”. (No es claro si este comentario significa que la efectividad es alta o no. Es necesario mencionar las razones que puedan convencer a las partes interesadas.)
Cuando evalúe la efectividad y el impacto asegúrese de verificar las relaciones causales dentro del proyecto.
Ejemplo: “Aumentó la cantidad de madres y mujeres embarazadas que visita las clínicas de salud. Por lo tanto, la efectividad del proyecto es alta".
La efectividad no se puede juzgar sin analizar si el “incremento” está relacionado con el producto del proyecto y los antecedentes.
Verificación de las
relaciones causales
(Interpreta-ción de la
lógica)
Ponga atención al hecho de que no se puede considerar que el proyecto haya tenido éxito únicamente por la apariencia de los efectos de difusión, sin mencionar si se alcanzó la meta general o el objetivo del proyecto.
Ejemplo: “(En un proyecto de salud materno-infantil) El equipo de partera tradicional que se introdujo en el proyecto también fue aprovechado por otra agencia de asistencia. Por ésta y otras razones, el proyecto tiene un significado importante". (Primero verifique si se comprendió la meta general - la tasa de mortalidad de las mujeres embarazadas y de las mujeres durante el parto, etc. Varios impactos positivos no necesariamente se convierten en la base para juzgar el éxito o fracaso de un proyecto.)
181
Presentación de bases
Identifique claramente las bases de la evaluación en el texto de la interpretación. Si es necesario, proporcione explicaciones fáciles de entender utilizando, por ejemplo, tablas o gráficas para aumentar la credibilidad de los resultados de la evaluación (sin embargo, no es necesario incluir todas las gráficas y tablas en el texto principal. Evite expresar temas importantes como las bases del juicio en la evaluación, sus resultados, etc. únicamente en tablas y gráficas o en los resultados de la investigación sin explicarlos en el texto).
Ejemplo: “La mayoría de las personas que terminaron la capacitación calificaron muy alto el curso de capacitación. Por lo tanto, la efectividad del proyecto es alta". (¿Cuánta gente es “la mayoría” y qué tan alta es su proporción? ¿Cuáles son las bases de la evaluación alta?”) Todo esto no es claro. El borrador de la conclusión tiene que hacerse con referencia en el análisis de resultados del estudio.
Básicamente la evaluación se debe basar en los datos cuantitativos, pero los datos cualitativos también son útiles. Por ejemplo, es posible presentar resultados a partir de los factores de análisis que se pueden leer en las entrevistas o de otras bases muy convincentes (por ejemplo, la adquisición del ISO 9000).
Ejemplo: “Los Resultados de las entrevistas con expertos muestran que la buena disposición de la contraparte hacia el proyecto y su compromiso han aumentado”. (Es necesario anotar de inmediato y presentar como bases los comportamientos, fenómenos, etc., que indican indirectamente que aumentó el compromiso.
No presente como bases los datos sin elaborar de los resultados del estudio sino los resultados de su análisis. Presente los datos relacionados en anexos.
Ejemplo: “El equipo se obtuvo según lo planeado, y el mantenimiento y manejo también es adecuado (ver el Anexo 1)”. Si la información adicional es el informe del mantenimiento y el manejo, no es claro lo que se debe tomar de éste. Los resultados de un análisis del informe (por ejemplo, la tasa de operación, tasa de defectos, tiempo promedio y costo requerido por reparaciones, etc.) se deben presentar como bases dentro del texto principal.
Presentación de bases
Las bases con base en datos múltiples aumentan la credibilidad de los datos y la objetividad de la evaluación (excepto por los datos donde se puede garantizar la credibilidad de una fuente de información.)
Ejemplo: “De acuerdo con la comisión de abastecimiento de agua, la construcción del pozo tuvo un efecto extremadamente fuerte, así que la efectividad de este proyecto es alta”. (Faltan los datos de los puntos de vista de los usuarios del pozo (los residentes) y de la reducción de enfermedades infecciosas transmitidas por el agua, como efecto de la construcción del pozo.)
182
Junto con las bases para juzgar la evaluación, especifique claramente por qué el resultado fue como fue y analice los factores inhibidores y contribuyentes. Si esto no es claro, no se pueden desarrollar recomendaciones o lecciones aprendidas concretas.
Ejemplo: “Hasta ahora, 150 personas asistieron a los seminarios de salud para residentes, pero la cantidad de asistentes está disminuyendo cada año (se anexa una tabla con los cambios a lo largo de los años). Como el grado de satisfacción y comprensión de los asistentes hacia la salud es alta, las actividades del IEC fueron efectivas”. Al investigar la razón del por qué está disminuyendo la cantidad de asistentes, es posible investigar más a fondo las percepciones de los residentes (incluyendo los antecedentes del por qué asistía) y la idoneidad de los métodos del seminario.
Análisis de los factores inhibidores y
contribu-yentes
La expresión “...es adecuado” se usa frecuentemente, pero los evaluadores deben investigar qué es apropiado, hasta qué punto y comparación con qué y por qué.
Ejemplo: “El envío de expertos se realizó casi según como se planeó y fue apropiado”. Lo que es “apropiado” no se puede juzgar únicamente sobre la base del criterio “según lo planeado”. Además, los evaluadores necesitan analizar los factores contribuyentes a partir de los resultados del estudio - ¿qué fue apropiado, en qué forma y por qué fue bueno?
Relaciones entre
resultados, proceso de
implementa-ción y los
Cinco Criterios de Evaluación
Los evaluadores pueden consultar las declaraciones en otros criterios de evaluación y mencionarlas como bases. Como el mismo proyecto se ve desde diferentes enfoques, hay correlaciones estrechas.
Por ejemplo: La información del proceso de
implementación tal como el seguimiento o la creación de relaciones humanas, se puede describir como un factor que aumentó la efectividad.
La información sobre suposiciones importantes relacionadas con la efectividad tal como la solidez del establecimiento en la contraparte, pueden convertirse en una base para la evaluación de la sustentabilidad.
[Conclusión]
Presentación de las bases
para la conclusión
Los resultados de la evaluación de los Cinco Criterios de la Evaluación (u otros criterios de evaluación) son la base para la conclusión. Observe los resultados de la evaluación en forma interrelacionada. Después describa brevemente los temas que merecen comentarios.
La conclusión conduce a
recomendaciones y lecciones aprendidas concretas.
Los hechos y causas que no se mencionan en los resultados de la evaluación de los Cinco Criterios de Evaluación y en el análisis de los factores inhibidores y contribuyentes no se pueden mencionar únicamente en la conclusión o en las recomendaciones y lecciones aprendidas posteriores.
183
Respuestas a las preguntas de evaluación
Si se hace un borrador de las preguntas de control, contéstelas primero en la conclusión.
184
“Proyecto para Mejorar la Tecnología de las Pequeñas y Medianas Empresas
de Vaciado en el País D” (Este ejemplo se basa en un estudio de evaluación real, pero para este documento se hicieron algunos cambios y adiciones.) 1. Cinco Criterios de Evaluación
[Pertinencia]
Este proyecto se debe considerar de alta pertinencia por las siguientes razones: i) La pertinencia de la estrategia del proyecto es alta. Tal como se señaló en las sesiones de estudio y en las entrevistas a expertos durante el estudio de evaluación, es un hecho que el desarrollo de las compañías pequeñas y medianas es limitado si sólo se realizan esfuerzos de cooperación técnica. Sin apoyo tal como financiamiento para la introducción de tecnología nueva, etc., esta meta no se puede alcanzar. Es necesario examinar la pertinencia de la estrategia para utilizar transferencia de tecnología teniendo en mente estos factores. Sin embargo, en el país D, el ministerio para la promoción de inversión brinda apoyo sistemático a la industria de vaciado ya que está relacionada con la industria automotriz, una industria representativa del país. Por ello, consideramos que esto no es un factor inhibidor. (Figura 1: Desarrollo de financiamiento e inversiones en la industria de vaciado - omitida aquí.)
Las áreas individuales de la cooperación técnica cubren adecuadamente la estructura industrial en el país D, y la cooperación fue adecuada como medio para desarrollar compañías pequeñas y medianas en el campo de vaciado. Es bien conocido en el mundo que la tecnología de Japón en el área de vaciado es de primera clase, y también en el área de asistencia para el desarrollo Japón tiene experiencia en cooperación con los países A y B. Además, en esta transferencia de tecnología de vaciado, se aprovechó el apoyo técnico del Centro de vaciado de Japón - apoyado por las experiencias del pasado. (Tabla 1: muestra ejemplos del know-how característico de la cooperación técnica y otros - omitida aquí.)
El grupo objetivo - el centro nacional de vaciado - es una institución de capacitación vocacional especializada en tecnología de vaciado, siendo su misión contribuir al desarrollo de la industria de vaciado mediante la obtención de recursos humanos. El centro se mantiene por contribuciones igualadas de compañías que tienen grandes esperanzas en el centro como una organización industrial. Por lo tanto, se espera que el efecto de difusión derivado del fortalecimiento del centro sea grande, haciendo del centro la mejor elección como grupo objetivo. ii) La necesidad del proyecto es alta. Desde 1990, el país D ha venido promoviendo la desregulación de las importaciones, la introducción de divisas extranjeras y la privatización de las compañías que maneja el estado, y cada compañía está pasando por momento difíciles para sobrevivir. El mejoramiento de la calidad y productividad son un tema, sobre todo para fortalecer el poder de competitividad de las compañías pequeñas y medianas. La industria de vaciado consta de aproximadamente 1,000 compañías y 51,000 personas. Entre éstas, 950 compañías están clasificadas como pequeñas o medianas. Específicamente en el área automotriz, los productos vaciados tienen una influencia directa sobre la calidad del auto terminado, y para la industria automotriz que representa la parte más grande de la industria del país D, es extremadamente importante y muy necesario un mejoramiento en la calidad y productividad de la industria de vaciado
En el centro nacional de vaciado, el grupo objetivo - las instalaciones y equipo mostraban signos claros de deterioro y las habilidades del personal se estaban deteriorando. El centro estaba en una condición en que no podía cumplir
Caso 6: Interpretación de una Evaluación Final
185
completamente su papel. La implementación de este proyecto, que está dirigido a fortalecer la funcionalidad del centro, es consistente con las necesidades. iii) El proyecto es de alta prioridad. El plan de calidad y productividad del país D, una política nacional referente a la calidad y productividad, menciona la promoción del mejoramiento de la calidad en la producción como uno de los temas de enfoque de su programa de integración del plan de desarrollo (1995-2000). Sobre todo en términos de las técnicas de vaciado, el producto tiende a ser de baja calidad y la producción está disminuyendo debido a una escasez de técnicos experimentados en comparación con los países desarrollados. La meta general de este proyecto - “mejoramiento de las habilidades de los ingenieros en las compañías de vaciado pequeñas y medianas” - contribuirá, a la larga, a “fortalecer su competitividad internacional gracias al mejoramiento de la calidad y la productividad” y por tanto, es consistente con la política nacional.
La política de asistencia para el extranjero de Japón ha tomado el desarrollo de las compañías pequeñas y medianas en el área industrial como uno de los temas centrales para la asistencia al país D, por lo que este proyecto es consistente con la política de asistencia japonesa. El proyecto también es consistente con el área de enfoque del plan de la JICA para la implementación de programas específicos por país - desarrollo de las compañías pequeñas y medianas y el control de calidad.
[Efectividad]
La efectividad de este proyecto se considera alta hasta cierto punto debido a las siguientes razones, pero las revisiones del contenido de la capacitación son insuficientes. i) El nivel de logro del objetivo del proyecto se considera alto hasta cierto punto. En las evaluaciones de los asistentes a los cursos de capacitación, el nivel de satisfacción promedio con respecto al material de estudio y la sesión supera el 3.5 en cada curso (Tabla 2 - omitida aquí). La hoja de seguimiento de tecnología de los expertos también muestra altos niveles de habilidades técnicas de la contraparte (consulte el anexo 2).
La cantidad de becarios enviados de las compañías aumentó gradualmente durante el tercer año del proyecto, pero disminuyo en el cuarto año y en la primera mitad del quinto año (Tabla 3 - omitida aquí). En los antecedentes, la cantidad de asistentes disminuyó porque cambiaron las necesidades de la industria (consulte el anexo 1: Resultados de entrevistas a expertos y compañías). Los expertos señalaron que con el tamaño relativamente pequeño de la industria de vaciado, los esfuerzos correspondientes a las necesidades de las compañías - tales como la introducción de tecnologías nuevas y la planeación de nuevos cursos de capacitación - eran insuficientes.
En cuanto al suministro de servicios técnicos, el nivel de satisfacción en la encuesta de seguimiento que implementó el centro de las compañías resultó alto, pero los expertos señalaron que los criterios de evaluación no eran claros, por lo que decidimos realizar una encuesta por cuestionario y entrevistas como un equipo de investigación. En una encuesta por cuestionario de 50 compañías, 36 respondieron que estaban “razonablemente satisfechas” con los servicios del centro de vaciado. En las entrevistas a las compañías (10 compañías), ocho respondieron que están utilizando la tecnología que adquirieron en el centro en sus propios sitios de fabricación y que, en general, están satisfechos con el trabajo del centro. ii) Suponemos que el producto contribuyó en gran medida al logro del objetivo del proyecto. La transferencia de tecnología a la contraparte marcha sin problemas. Sus habilidades técnicas son de primer nivel en el país D, y sus habilidades se utilizan en
186
la capacitación y los servicios técnicos. (Tabla 4: Evaluaciones por habilidad técnica, junto con la hoja de evaluación de los expertos - omitidas aquí.) En cuanto al grado de contribución del mejoramiento de habilidades técnicas de la contraparte, una encuesta por cuestionario de la contraparte mostró que (a) un promedio de 80% de la tecnología transferida se utiliza en los cursos de capacitación, y (b) 16 de los 22 encuestados contestaron que “utilizan la tecnología transferida para brindar servicios técnicos”. El equipo obtenido en el proyecto se utiliza suficientemente tanto en la capacitación como para servicios técnicos. (Tabla 5: Tasa de operación del equipo - omitida aquí.)
El problema con la tasa de rotación de la contraparte, que se había asumido como un riesgo que obstaculizaría el logro del objetivo del proyecto, quedó en que tan sólo tres de 25 personas abandonaron su empleo. Considerando que la tasa de rotación en otras instituciones del gobierno y del sector privado es de un promedio de 50%, podemos considerar que aquí la tasa de rotación no es un factor inhibidor específico. iii) Otros factores contribuyentes Como método para producir un efecto en la cooperación técnica, el director del centro, las contrapartes y los expertos comentaron que “es efectivo establecer productos objetivo para cada campo e implementar la transferencia de tecnología a través de la producción de dichos productos ya que ayuda a mantener un equilibrio entre la teoría y las habilidades prácticas”. Este ejemplo demuestra cómo el establecimiento de una meta clara puede conducir al éxito.
[Eficiencia]
Desde el punto de vista del producto obtenido, los insumos se manejaron eficientemente.
i) Los expertos se enviaron adecuadamente.
El envío de expertos se realizó según lo planeado, para que la transferencia de tecnología planeada se pudiera llevar a cabo (Tabla 6: Hechos sobre el envío real de expertos - omitida aquí). En la encuesta por cuestionario con la contraparte, 10 de los 22 encuestados dijeron que “desde el punto de vista del producto alcanzado, el envío de expertos fue adecuado”. Sobre todo se evaluó altamente la calidad de los expertos a corto plazo. Esto se debe, por ejemplo, a que se enviaron expertos de una calidad adecuada en relación con los cargos de la tecnología que se pagó a sus patrones mismos que suspendieron su trabajo (en compañías privadas) durante ese período y porque se volvieron a enviar a algunos de los expertos de corto plazo. Cuando también consideramos el tiempo limitado que las contrapartes tenían para la transferencia de tecnología (como la mayoría de las contrapartes tenían otros trabajos al mismo tiempo), podemos suponer que el método de transferencia concentrada de tecnología mediante expertos de corto plazo fue adecuado.
Muchas de las contrapartes (13 de 22) mencionaron que otro de los factores que contribuyeron al logro del objetivo hasta el final del proyecto fue el papel que jugaron los expertos de largo plazo. Los expertos de largo plazo eran expertos con amplio conocimiento y experiencia en vaciado, así como coordinadores que conocían muy bien las circunstancias sociales del país D. Suponemos que los factores que promovieron el proceso de implementación para la cooperación técnica fueron el establecimiento de la comunicación que se basó en una comprensión de la sociedad y también la asistencia tecnológica. ii) La obtención del equipo se realizó adecuadamente.
El equipo se obtuvo según lo planeado y lo están manejando correctamente (Tabla 7: Lista de equipo, Tabla 5 (mostrada arriba) - omitida aquí). Algunos equipos necesitaron más tiempo del planeado para su instalación y no estuvieron listos a tiempo para el trabajo de los expertos de corto plazo, así que en ciertos campos (campo X), la transferencia de tecnología fue imposible. Sin embargo, el efecto sobre el proyecto como un todo fue pequeño, gracias a clases complementarias que ofrecieron los expertos de corto plazo cuando el equipo estuvo listo después de haber regresado a casa.
187
iii) La colocación de las contrapartes fue adecuada en su mayor parte, pero muchos tenían otro trabajo al mismo tiempo.
Las contrapartes se colocaron según lo planeado. A la fecha, sólo 3 de las 25 personas dejaron su trabajo, así que la estabilidad es buena. De acuerdo con los planes iniciales, las contrapartes se dedicarían de tiempo completo a su trabajo en el proyecto, pero en la realidad, casi la mitad de ellos (diez personas) tenían que hacer otro trabajo al mismo tiempo. Según las entrevistas con las contrapartes que tenían otros trabajos al mismo tiempo, el tiempo promedio que le dedicaban a las actividades del proyecto era alrededor de 41% de su tiempo de trabajo total, y muchos señalaron que era difícil preparar la capacitación mientras hacían otro trabajo. No obstante, el hecho de que el proyecto haya producido un efecto incluso cuando no todas las contrapartes estaban dedicadas a él tiempo completo (consulte la página de Eficiencia) también nos permite juzgar que la eficiencia de la implementación fue alta. iv) El costo total invertido en el proyecto fue tan bajo como el costo de proyectos similares.
Comparado con el costo total de proyectos similares (proyectos del centro de vaciado en los países A y B), el costo de este proyecto fue aproximadamente 20% más bajo. Claro que hay diferencias en la situación financiera de los países objetivo, en las etapas de desarrollo y en las mismas actividades, pero cuando observamos el desglose del costo comparativamente, vemos que existe una diferencia notable en los gastos de personal para los expertos (Tabla 8: Comparación del desglose de costos - omitida aquí). Creemos que en este proyecto, la combinación eficiente de expertos de corto plazo provocó la reducción de costos. El siguiente factor que redujo el costo general es que una gran parte del equipo se obtuvo localmente (Tabla 8, mostrada arriba).
Fue imposible hacer una comparación del costo unitario de la capacitación ya que (a) fue difícil sustituir el insumo con un valor económico numérico para cada producto, y (b) no existen costos unitarios por capacitación en proyectos similares que pudieran servir como comparativo de eficiencia.
[Impacto]
Se puede reconocer el siguiente impacto de la implementación del proyecto y la posibilidad de alcanzar la meta general de tres a cinco años es alta. i) Suponemos que es muy probable que se alcance la meta general. Un indicador de la meta general “mejoramiento del poder técnico de las compañías” es el aumento de pedidos debido al mejoramiento de capacidad técnica. Sin embargo, en la encuesta por cuestionario realizada con las compañías en la evaluación final, no pudimos determinar ese cambio. En la auto-evaluación de las compañías realizada por el equipo de estudio de evaluación, 70% de 50 compañías respondieron que sus capacidades técnicas mejoraron en algún área (Tabla 9 -omitida aquí). Específicamente muchas compañías que recibieron servicios técnicos informaron casos de éxito en el mejoramiento de la calidad de los productos gracias al mejoramiento de las tecnologías X e Y. Éstos se pueden percibir como el surgimiento de un impacto a partir del centro de vaciado (consulte la Tabla 10 para ver los tipos de casos de éxito que dieron a conocer las compañías - omitida aquí). Es necesario que el ministerio de industria en cooperación con el ministerio de políticas de la industria y el ministerio de promoción de la inversión aborden el problema de fondeo de cada una de las pequeñas y medianas empresas, que es una de las suposiciones importantes, pero debido a la importancia de vaciado para la industria automotriz ya existe un sistema de asistencia y no creemos que esto se convierta en un problema tan serio. Con base en estos hechos, es probable que la demanda aumente dentro de tres a cinco años.
188
ii) En entrevistas con las partes interesadas, los siguientes puntos se señalaron como efectos de difusión positivos por la implementación del proyecto.
Fue posible reforzar (impacto en la industria) la colaboración de agencias relacionadas (asociación de ingenieros del país D, organizaciones industriales).
Para utilizar la capacidad mejorada de capacitación por proyecto y expandir el área no sólo a nivel nacional, se está planeando el esquema de capacitación para terceros países de la JICA.
La tecnología X, que se introdujo en el proyecto, incluye consideraciones para el medio ambiente, y a través de visitas a la fundición, aumentó el interés de la industria de vaciado del país D por el medio ambiente (impacto sobre los aspectos ambientales).
[Sustentabilidad]
Los prospectos de la sustentabilidad del proyecto serán posibles si los recursos financieros y el equipo se manejan más adecuadamente.
i) Hay promesas de continuar el apoyo político y del sistema. El centro de vaciado es un instituto de capacitación vocacional especializado en
la tecnología de vaciado. Ha brindado recursos humanos a la industria de vaciado del país D a razón de más de 250 personas por año desde 1983 y es una institución importante para las pequeñas y medianas empresas. Como centro técnico para el vaciado, también brinda servicios a gran número de compañías de vaciado. Cuando consideramos el importante papel que juegan la pequeña y mediana empresa en la industria del país D - que consiste principalmente de la industria automotriz - el papel del centro de vaciado será indispensable también en el futuro. El ministerio de políticas de la industria, el ministerio de promoción del medio ambiente, los institutos de capacitación vocacional en todo el país, el Centro de Desarrollo de vaciado (una organización de la industria) y otras agencias relacionadas anunciaron que continuarán apoyando al centro de vaciado.
ii) El centro de vaciado adquirió capacidades organizativas y operativas, pero hay
preocupación por la planeación del personal y el aseguramiento de recursos financieros.
La percepción de todos los expertos es que “las capacidades operativas y administrativas han mejorado en gran medida en comparación con la situación antes de iniciar el proyecto”.
La tabla 12 muestra la situación financiera (omitida aquí). Así como se invirtieron grandes sumas en equipo, cada año se requerirán los gastos de procuración de materiales de consumo y piezas necesarias para la operación y los gastos de mantenimiento tales como costos de reparación. Con el aumento de actividades también aumentarán los gastos (Tabla 13 - omitida aquí), y existe la preocupación que en el futuro cercano los recursos financieros sean insuficientes. En estos momentos, la proporción de recursos financieros obtenidos independientemente en comparación con los gastos es de alrededor de 50%, y será aún más necesario aumentar los ingresos a partir de los principales recursos financieros actuales - cuotas de capacitación y cuotas de servicio técnico (por ejemplo, revisar el contenido de las capacitaciones y servicios técnicos, desarrollar estrategias de mercado para asegurar clientes, etc.).
iii) Los prospectos de que la tecnología transferida se va a difundir y establecer
son altos. La hoja de seguimiento de tecnología de los expertos también muestra que las
contrapartes cuentan con grandes capacidades de capacitación (consulte el anexo 2 - omitido aquí). Además, el material de enseñanza desarrollado y los productos objetivo producidos son de alta calidad. Los factores que conducen a la expectativa que la tecnología se va a establecer son, por ejemplo, planes del centro de vaciado para realizar capacitaciones cruzadas de diferentes áreas y su capacidad de auto-desarrollo (tal como inscripción en el curso de maestros).
189
En cuanto al mantenimiento y manejo del equipo, se esbozó un plan de mantenimiento preventivo y también durante el tiempo que el proyecto esté vigente, esperamos que el mantenimiento y el manejo se implementen de acuerdo con este plan.
2. Conclusión
Este proyecto se implementó en respuesta a la política nacional y a las necesidades de la agencia de implementación (centro nacional de vaciado) y a las fuertes necesidades de la industria de vaciado en el país D con la intención de mejorar la tecnología de vaciado de la pequeña y mediana empresa en este país. Con el mejoramiento de las capacidades técnicas del centro nacional de vaciado ahora se brindan capacitación y servicios técnicos de alta calidad, y esperamos que a la larga mejoren las habilidades técnicas de las mismas compañías. Este proyecto tuvo una alta efectividad.
Entre los factores contribuyentes podemos mencionar, por ejemplo, el hecho de que se hayan implementado las actividades casi como se había planeado y que la agencia de implementación ya tenía capacidad operativa de cierto nivel. Otro factor es que los recursos humanos se colocaron de manera adecuada. Otro factor contribuyente importante es la buena relación que se construyó basada en la confianza mutua entre los expertos y las contrapartes. El seguimiento se realizó adecuadamente y ambas partes siguieron las actividades como socios, compartiendo el objetivo de este proyecto. En nuestro enfoque hacia la cooperación técnica introdujimos de dos a tres productos objetivo por cada área de transferencia de tecnología, y transferimos la tecnología a través de la fabricación de dichos productos objetivo. Esto ayudó a mantener un equilibrio entre la teoría y las habilidades prácticas y también comunicó una guía práctica a las compañías, al tiempo que establecía metas claras. Esto resultó ser efectivo para una transferencia de tecnología sin problemas.
Por otro lado, sigue habiendo cierta preocupación con respecto a la sustentabilidad. Actualmente, la proporción de ingreso independiente del suministro de servicios técnicos y demás en el centro nacional de vaciado es de 50%, lo que la hace ser una organización con una tasa de autofinanciamiento relativamente alta. Sin embargo, el valor del equipo proporcionado en este proyecto alcanza los 354 millones de yenes, y esperamos que cada año se requieran gastos de procuración de materiales de consumo y piezas necesarios para la operación, así como los gastos de mantenimiento tales como costos de reparación. Además, existe la preocupación en cuanto a la reducción de ingresos debido a la disminución de asistentes, como se muestra en el estudio de evaluación que se realizó. En cuanto a los antecedentes de la disminución, algunos señalan que no se dio necesariamente respuesta suficiente a los cambios recientes en las necesidades de capacitación de las compañías y es probable que sea necesario reaccionar más activamente ante estas necesidades que incluyen la comercialización. En cuanto al mantenimiento y manejo del equipo - hasta ahora, los expertos de corto plazo han reparado, ajustado, etc. parte del equipo. En el futuro, una sección de los servicios de mantenimiento tendrá que manejarlo independientemente.
Según los resultados de la evaluación utilizando los Cinco Criterios de Evaluación, ni el plan (estrategia del proyecto, relaciones causales) ni el proceso de implementación muestran ningún problema serio, y por ello pudimos confirmar que la meta general se va a alcanzar y creemos que la cooperación se puede terminar sin problemas. En el futuro, el centro necesita realizar esfuerzos más sólidos para asegurar los recursos financieros al mismo tiempo que responde a los cambios de la situación.
Este caso llega a una conclusión teniendo en
mente preguntas
de evaluación
de alto nivel.
En las recomen- daciones se incluyen detalles más concretos sobre cómo trabajar para asegurar recursos financieros.
190
★Proyecto del Centro de Tecnología de Vaciado de Metal en el País B★ Propósito del Proyecto: El Centro de Vaciado de Metal adquiere la capacidad de brindar capacitación y apoyo técnico para la tecnología de moldeado de plástico.
En el “Plan Nacional de Desarrollo de Mediano Plazo del País B” (1999-2004) y en el “Plan de Desarrollo de Mediano Plazo para la Ciencia y la Tecnología” (los mismos), el gobierno del País B se enfocó en el desarrollo industrial a través del mejoramiento de las habilidades técnicas, ubicando a la industria de moldeado y a la industria de la producción como elementos indispensables. El propósito del proyecto y la meta general son consistentes con la política nacional y las necesidades de los beneficiarios, así que el proyecto tiene pertinencia.
Al inicio del proyecto, la industria de moldeado de plástico tenía un potencial alto, así que se consideró adecuada la cooperación en el moldeado de plástico dentro de la industria de moldeado que es tan diversa. Sin embargo, en la actualidad la demanda del moldeado a presión en el país B es todavía mayor. Por lo anterior, aunque la meta general y el propósito del proyecto eran consistentes con los planes de desarrollo, las actividades estaban limitadas al moldeo de plástico, y el proyecto no tuvo una influencia directa sobre la industria de moldeo como un todo que incluye varias tecnologías (moldeado de plástico, moldeado a presión, ect.).
Los siguientes ejemplos son interpretaciones de los Cinco Criterios de Evaluación a partir de Resúmenes de Evaluación anteriores.
[Pertinencia]
★Programa de Desarrollo Agrícola Integral en el País A★ Propósito del Proyecto: La productividad agrícola en los subsitios del proyecto (los distritos de demostración dentro del programa de riego de la región K que están cultivando miembros de la asociación de riego) aumenta mediante mejoras en el cultivo.
El Ministerio de Agricultura formuló un “Plan de Mediano plazo para el Desarrollo Agrícola (1993-1998),” y ha estado promoviendo un “Programa de Fortalecimiento para la Producción de Granos de Cereal”, centrándose en el arroz. En el “Programa de la Cosecha Dorada” (“Golden Harvest Program”), una política para el desarrollo y difusión de tecnología que se adapta a las características específicas de la región, el 7º distrito del Ministerio de Agricultura es una región designada para aumentar el cultivo de arroz; y los distritos de riego desarrollados en el “Plan de Desarrollo de Riego K” y el “Plan de Desarrollo Agrícola B (Fase 1)” están designados como los distritos de más alta prioridad para la producción de arroz. Por las razones antes expuestas, el objetivo del proyecto y la meta general son consistentes con la política de desarrollo agrícola del país A, por lo que es de alta pertinencia.
Por otro lado, los agricultores de pequeña escala o aquellos con bajos ingresos no podrán fácilmente aplicar la nueva tecnología desarrollada en este proyecto. Hubo inconsistencias con las necesidades de algunos de los beneficiarios del proyecto. Esto se debe en parte a que las investigaciones básicas realizadas en la fase de preparación no fueron suficientes.
Caso 7: Interpretación de una Evaluación Final (2)
El caso aquí fue que la prioridad era alta, pero había problemas con algunas de las necesidades de los beneficiarios (necesidad). La tecnología que no está en sincronía con las necesidades puede convertirse en un factor que obstruya la efectividad y el impacto.
El caso aquí fue que la prioridad era alta, pero el plan no era adecuado en algunos puntos como medio para solucionar problemas. En este caso, un punto de vista importante de la evaluación es la pregunta sobre el tipo de influencia que puede tener la baja importancia del plan en la efectividad del proyecto. También es importante un examen sobre el proceso de implementación, y si el seguimiento se realizó de manera adecuada respondiendo a los cambios de la situación o no.
191
[Efectividad]
★Planeación Familiar y el Proyecto de Salud Materno Infantil en el País C★ Propósito del Proyecto: La conciencia sobre los cuidados de salud primaria y reproductiva aumentan a través del mejoramiento de los servicios de salud primaria y reproductiva en los distritos pilotos de la tercera región.
Los siguientes puntos se utilizaron como indicadores objetivo. Muestran las diferencias importante entre los distritos piloto y los no-piloto. Podemos ver que en los distritos piloto la conciencia sobre la importancia de las revisiones médicas y el manejo continuo de la salud durante el embarazo, el parto y después del nacimiento provocan una diferencia en el comportamiento.
Distrito Piloto Distritos No-pilotos Oportunidad de la primera revisión prenatal de salud (mes del embarazo)
1.8 2.3
Número de revisiones prenatales de salud
4.3 1.7
Revisiones de salud para bebés y niños pequeños (%)
59.0 12.0
La razón para esto es la mayor conciencia de los beneficiarios, sobre todo las
mujeres embarazadas y la madres, que es una consecuencia del mejoramiento de capacidades del personal de atención médica y de una revitalización de actividades con participación ciudadana que, nuevamente, son el resultado de la introducción de listas de supervisión para las revisiones médicas de bebés y niños pequeños (incluyendo el uso de libretas de abono para maternidad), oportunidades para que médicos, enfermeras, parteras y demás partes interesadas discutan actividades y problemas, y el desarrollo de una amplia variedad de material educativo.
Aquí las relaciones causales entre el efecto y el proyecto se evaluaron cualitativamente a través de una comparación con distritos no pilotos (aplicación de un diseño semi-experimental.
Aquí la relación causal entre el efecto y el proyecto se evalúa cualitativamente de acuerdo con su relación con el resultado.
★Proyecto para la “Detección Temprana y Cura Rápida del Cáncer de Próstata’’★ Propósito del Proyecto: Establecer un sistema de exámenes para el cáncer de próstata en la región meta.
Se espera alcanzar el propósito del proyecto al final del mismo. Mediante capacitaciones, seminarios y otras actividades de expertos, las contrapartes adquirieron la tecnología básica para implementar un sistema de examen de cáncer de próstata. Al final del proyecto, la contraparte implementó exámenes de cáncer de próstata para más de 12,000 personas en la ciudad B. De éstos, 813 resultaron positivos, 273 de ellos se sometieron al segundo diagnóstico de cáncer, y a 69 personas se les diagnosticó con cáncer de próstata, así que el proyecto contribuyó de manera significativa a la detección temprana y diagnóstico de cáncer (los datos corresponden hasta Mayo, 2003). Además, se reconoció el contenido de seis tesis de investigación y están recibiendo subsidios para la investigación del departamento de ciencias y tecnología del país C, de la agencia de ciencias y tecnología del ministerio B y de la universidad B. Como este proyecto introdujo el primer sistema de examen de cáncer de próstata en la región meta, podemos considerar que el nivel de logros del propósito del proyecto frente al cáncer de próstata se debe al producto del proyecto.
192
★Proyecto de Desarrollo para la Agricultura de Riego a Pequeña Escala★ Propósito del proyecto: Sistema de cultivo en regiones agrícolas de riego bajo la jurisdicción de la Compañía Pública para el Desarrollo de Riego
Hasta cierto punto, la efectividad es alta. Se realizaron investigaciones y análisis de la situación de cultivo principalmente en las regiones modelo sin ningún problema. Aunque los niveles de logros varían dependiendo de las técnicas particulares, cada una se mejoró. Por ejemplo, se eligieron variedades adecuadas para cada campo de cultivo.En dos regiones modelo se establecieron, y enfatizaron hasta cierto punto, sistemas de apoyo para cultivo - tales como organizaciones de agricultores y un mecanismo de diseminación. El establecimiento de estos sistemas de cultivo modelo contribuyeron en gran medida al logro del propósito del proyecto.
Sin embargo, no podemos decir que el logro del objetivo sea completamente un efecto directo del proyecto, ya que hay algunos efectos causados por insumos además de este proyecto, como instalaciones de riego construidas con cooperación financiera no reembolsable.
[Efectividad]
★Proyecto para Mejorar el Sistema de Seguimiento Agroquímico★ Propósito del Proyecto: Se proporciona al mercado alimentos seguros con un nivel adecuado de residuos agroquímicos.
Como se mencionó en el objetivo del proyecto, para realizar un “sistema de seguimiento de residuos agroquímicos y la formulación de drogas agroquímicas”, se mencionan los siguientes indicadores: (1) datos de registro de agroquímicos almacenados y organizados, (2) implementación sistemática de agroquímicos residuales, (3) creación de conciencia en las agencias interesadas sobre la importancia de la implementación continua de estas investigaciones, y (4) el reconocimiento de la importancia del uso efectivo de los resultados de las pruebas de agroquímicos residuales. Las investigaciones de agroquímicos residuales no cubren todos los productos del país D, y en realidad no podemos decir que la Oficina de Cosechas Agrícolas y la Agencia de Fertilizantes y Agroquímicos reconocen lo suficiente la importancia de utilizar los datos de análisis.
Sin embargo, cuando lo consideramos integralmente, los cinco productos casi se alcanzaron como se planeó desde el principio y este proyecto transfirió tecnología y know-how sobre elementos importantes para el establecimiento de un sistema de seguimiento agrícola, de manera que ahora la contraparte puede implementar independientemente análisis de agroquímicos residuales, análisis de formulación de drogas, pruebas sobre sustancias químicas residuales en productos agrícolas, etc. Por tanto, consideramos que este proyecto preparó las bases para alcanzar el objetivo.
Aquí, se explican los elementos tanto positivos como negativos antes que el equipo de estudio de evaluación emita su juicio final.
Aquí la obtención del objetivo del proyecto se debía juzgar con base en contribuciones que no fueran el proyecto.
193
★Proyecto para el Desarrollo de Aguas Freáticas y Capacitación para el Suministro de Agua★ Propósito del Proyecto: Se fomentan recursos humanos para el desarrollo de aguas freáticas y el proyecto de suministro de agua, incorporando los puntos de vista del “Genero y Desarrollo”.
El insumo humano y físico tanto de Japón como del país E en este proyecto se utilizó eficientemente y contribuyó a los productos de las actividades. Hubo un gran insumo de equipo en este proyecto, ascendiendo a 375 millones de yenes. Esto fue necesario como la inversión inicial del centro, y potencialmente el equipo se utilizará por mucho tiempo. También es necesario examinar la eficiencia de este insumo desde un punto de vista a largo plazo.
Observe que como no se ha realizado ningún proyecto en África que brinde el mismo tipo de capacitación en las mismas áreas técnicas del centro, fue difícil comparar este proyecto con los costos de otros.
[Eficiencia]
Aquí los evaluadores trataron de comparar con proyectos similares pero no encontraron un proyecto comparable.
★Proyecto de Salud Materno Infantil★ Propósito del Proyecto: i) Reducir la mortalidad entre mujeres embarazadas, bebés y niños pequeños en las regiones piloto (distritos A y B); ii) reducir las enfermedades epidémicas dentro del alcance del EPI (Programa Extendido de Vacunación) y erradicar la polio en el país T; iii) mejorar los servicios pediátricos en el MMC (centro médico).
La cantidad y oportunidad de insumos del lado japonés fue prácticamente adecuada. Sin embargo, en el área de salud materno infantil, según la evaluación de la contraparte en cuanto al tiempo y oportunidad de envío de expertos fue bajo. También fue baja la eficiencia de la actividad para establecer sistemas de referencia para los nacimientos de alto riesgo ya que los planes de actividades no fueron suficientes debido a que el manejo y dirección de los consejeros principales no alcanzaron la meta de factores geológicos y por una falta de habilidades de coordinación de los expertos de largo plazo. Además, en el servicio pediátrico en el centro médico, las especialidades de los expertos fueron parcialmente diferentes a las expectativas del país T. Esto también provocó una baja eficiencia.
En cuanto a los insumos del lado del país T, hubo dos factores que obstaculizaron la eficiencia: el país T no soportó una carga de costos suficiente y se asignó al gerente de operaciones para el laboratorio pediátrico demasiado tarde.
El caso aquí fue que la insuficiencia de planes de actividades hacia el resultado provocó una baja eficiencia.
194
Proyecto para la Prevención de Enfermedades Infecciosas entre los Niños Propósito del Proyecto: Fortalecer el establecimiento del sistema de prevención de enfermedades infecciosas (principalmente polio, pero también tuberculosis) que están dentro del alcance del EPI (Programa Extendido de Vacunación).
En los últimos cinco años, las tasas de mortalidad de bebés, niños menores de cinco años y mujeres embarazadas han disminuido. Creemos que, en gran medida, estas mejoras se deben a que ha disminuido la cantidad de brotes de enfermedades infecciosas. Esto se logró a través del reforzamiento de la aplicación del sistema de prevención de enfermedades del EPI en el proyecto y de las actividades médicas materno infantiles que se fortalecieron como parte de las actividades.
1995 2000 Mortalidad de bebés y niños pequeños (por cada 1,000 nacimientos)
104 82
Mortalidad de niños menores de cinco años (por cada 1,000 nacimientos)
170 106
Mortalidad de mujeres embarazadas y parturientas (por cada 100,000 nacimientos)
656 (1993)
530
Además, se produjeron los siguientes efectos positivos: (1) el sistema de aplicación
de vacunas de las provincias que se desarrolló en el programa se convirtió en el lineamiento nacional, (2) las actividades de información, educación y comunicación (IEC) ayudaron a mejorar el conocimiento de las enfermedades infecciosas del público en general, (3) el Ministerio de Salud realmente no tenía la costumbre de llevar registros y la falta de documentos era una causa de la baja recepción de vacunas de la UNICEF, pero el fortalecimiento del sistema de organización y manejo de documentación básica elevó el nivel de habilidades administrativas del personal en el Ministerio, etc.
[Impacto]
Aquí los evaluadores detectaron cambios en los indicadores de la meta general. Sin embargo, se desconoce la relación causal con el proyecto.
★Proyecto para Mejorar la Tecnología de Diagnóstico de Enfermedades Infecciosas del Ganado★ Propósito del Proyecto: Obtener técnicas para la investigación básica y aplicada de métodos de diagnóstico inmunológico de enfermedades infecciosas.
Hay una gran diferencia entre el propósito del proyecto "fortalecimiento de la investigación inmunológica e inmuno-patológica" y la meta general “desarrollo de la cría de ganado”. Como las actividades del proyecto están limitadas dentro del centro de investigación inmunológica, en esta etapa no se puede observar ningún impacto organizativo, económico o social importante. Para alcanzar la meta general se deberán resolver temas como el diseño e implementación de políticas de desarrollo agrícola, el establecimiento de una agencia para la divulgación de tecnología de diagnóstico y la organización de servicios veterinarios. Sin embargo, desde el aspecto técnico hubo efectos de difusión tales como la introducción de las técnicas de diagnóstico desarrolladas en el proyecto en el departamento de veterinaria de la Universidad de Agricultura M y la Oficina de Veterinaria del Ministerio de Alimentos y Agricultura, o la divulgación del conocimiento de técnicas de diagnóstico inmunológico en clínicas veterinarias regionales y otros laboratorios nacionales de investigación y agencias gubernamentales relacionadas. La divulgación de las técnicas adquiridas en el proyecto será posible si se fortalecen instalaciones tales como los complejos de bio-investigación o los centros veterinarios regionales.
Aquí la distancia entre el objetivo del proyecto y la meta general era tan grande que era imposible una evaluación. Es necesario volver a examinar la pertinencia en la fase de planeación.
195
[Sustentabilidad]
★Programa de Mejoramiento para el Centro Médico y la Seguridad Ocupacional★ Propósito del Proyecto: Fortalecer las funciones del Centro de Salud y la Seguridad Ocupacional.
En cuanto al aspecto político, el nuevo Noveno Plan de Desarrollo Nacional incluye la “promoción eficiente de la salud y la seguridad en el sitio de trabajo”, y enumera nueve actividades relativas a la salud ocupacional y la seguridad (actividades educativas, etc.).El personal que trabaja en el centro tiene experiencia en dar a conocer trabajos de investigación, análisis científicos y éxamenes, y en seminarios de organización relacionados con el área de la salud ocupacional y la seguridad. El centro adquirió una gran cantidad de técnicas y un gran número de personal con antecedentes de educación de alto nivel. De lo anterior, consideramos que la sustentabilidad tecnológica es alta. En cuanto al aspecto organizativo, al momento de la evaluación final se está llevando a cabo una reestructuración organizativa, pero también después de esta reestructuración, el centro dice que mantendrá la organización, actividades y personal actuales.
Por otro lado, hay un tema importante: asegurar expertos médicos en el área de salud ocupacional y seguridad de otras organizaciones cuya cooperación es indispensable, así como asegurar operadores de maquinaria y demás personal de asistencia en el área de la salud ocupacional y la seguridad. Actualmente, los prospectos de estabilidad financiera son buenos, ya que el centro aseguró recursos financieros del presupuesto nacional y se sistematizó el aseguramiento de presupuestos mediante la fundación del seguro de lesiones de trabajo.
De lo anterior, creemos que existen suficientes posibilidades de que el centro podrá utilizar de manera efectiva y continua los efectos directos de este proyecto en el futuro y que tiene una alta sustentabilidad.
El caso aquí es que desde los aspectos políticos, tecnológicos y financieros, la sustentabilidad es alta aunque existe todavía posibilidades para mejorar.
★Proyecto para el Desarrollo de Producción de Vegetales en Granjas Pequeñas★ Propósito del Proyecto: Mejorar la tecnología de producción de vegetales de agricultores de pequeña escala en el Laboratorio Nacional de la Oficina del Ministerio de Agricultura y que los agricultores líderes de pequeña escala en la región meta la utilicen. Algunos de los agricultores líderes ahora guían a otros agricultores y esperamos que la técnica se divulgue en el futuro. Sin embargo, para seguir investigando y divulgando las técnicas en un área más extendida, el laboratorio necesita mantener la capacidad de investigación de vegetales y la Oficina de Extensión del Ministerio de Agricultura necesita determinar los detalles de cómo apalancar la iniciativa del sector privado para la divulgación y fortalecer la capacidad de manejo.
A lo largo de la cooperación, no podemos negar que el país P no adoptó una carga suficiente de los costos locales. Por el momento, el laboratorio planea continuar sus actividades con presupuestos nacionales. Su propio ingreso se paga por completo al tesoro nacional, y luego se le regresa al laboratorio. No obstante, como existen muchos factores de incertidumbre, tales como el calendario y proporción del reembolso, la situación actual hace difícil ver un prospecto brillante para el mantenimiento y desarrollo del efecto directo del programa y para el desarrollo organizativo y la difusión de la producción de vegetales.
En cuanto al aspecto técnico, la contraparte adquirió sólidamente las técnicas transferidas, pero en realidad no podemos decir que se han establecido en la organización. Como investigadores, las contrapartes establecieron sus propios temas de investigación, pero no han llegado a un nivel en que puedan implementar los métodos de investigación totalmente por sí mismos.
Aquí la distancia entre el objetivo del proyecto y la meta general era tan grande que era imposible una evaluación. Es necesario volver a examinar la pertinencia en la fase de planeación.
196
4. Temas Principales de las Evaluaciones Ex-post (1) Propósito y Temas de las Evaluaciones Ex-post Las Evaluaciones Ex-post verifican si los efectos directos que perseguía el proyecto
continúan cierto tiempo después de la terminación de la cooperación. Los resultados de
estas evaluaciones se retroalimentan a proyectos similares de la JICA en la fase de
planeación o a la formulación de programas a macro nivel, por ejemplo, los Programas
por País de la JICA. Éstos se reflejan en la implementación efectiva y eficiente de dichos
proyectos. Como ya terminó la cooperación de la JICA, el resultado de las evaluaciones ex-post
también incluye recomendaciones para la organización del país socio que continúa las
actividades. Además, un factor importante es que de la gestión de la organización como
un todo se extraen recomendaciones y lecciones aprendidas concretas para los esfuerzos
futuros de la JICA. En las evaluaciones ex-post, los estudios se enfocan en dos criterios de evaluación:
“impacto” - que se espera aparezca después de cierto tiempo de haber terminado la
cooperación, y “sustentabiidad” - donde los evaluadores observan si el efecto se produce
de manera continua después que terminó la cooperación. Hasta la evaluación final, estos
criterios siempre se examinaron sobre la base de sus posibilidades, pero en la evaluación
ex-post, se examinan sobre la base de sus resultados. Si es necesario, las evaluaciones
también se realizan desde el punto de vista de la pertinencia (consulte la tabla 3-2-1). Cuando se evalúa el impacto, es importante verificar las relaciones causales del
proyecto de cooperación, igual que en el caso de la efectividad. Otros factores
independientes del proyecto pueden influir con mucha facilidad en el impacto, ya que es
un efecto indirecto esperado a largo plazo. Si el proyecto está ubicado como parte de un
programa, los evaluadores también deben observar los impactos desde el punto de vista
de los efectos sinérgicos con otros proyectos. Cuando se examina la sustentabilidad, es posible realiza el análisis refiriéndose al
insumo, actividades y productos continuados del proyecto de cooperación, sobre todo si
el proyecto sigue dirigido por la misma organización que lo dirigió durante la cooperación.
Por ejemplo, en los proyectos de capacitación y divulgación, los evaluadores pueden
captar la sustentabilidad si observan el estado de implementación de las capacitaciones y
el desarrollo del material de enseñanza. Además, si el trabajo continúa de una manera
nueva que es diferente al proyecto de cooperación y esto muestra un efecto directo, los
evaluadores necesitan considerar si el nuevo sistema se desarrolló a partir del efecto
directo de la cooperación. Por ejemplo, en los proyectos de R/D, es posible examinar la
sustentabilidad captando el proceso de utilización de técnicas desarrolladas para el
siguiente desarrollo.
197
Tabla 3-2-8 Puntos de Verificación de las Evaluaciones Ex-post Puntos de Evaluación
Puntos de Verificación de la Evaluación
Impacto
Nivel de logros de la meta general ¿Se alcanzó la meta general? (compare con las metas) ¿Qué influencia tiene el logro de la meta general sobre el plan de desarrollo del país socio? ¿Contribuye a la solución de problemas de desarrollo? ¿Cuáles son los factores que dificultaron y promovieron el logro de la meta general?
Relaciones causales ¿La meta general es un impacto producido a través de la implementación del proyecto? ¿Las suposiciones importantes del propósito del proyecto a la meta general son correctas? ¿Hay alguna influencia a partir de las suposiciones importantes?
Efectos de difusión ¿Hubo algún impacto positivo o negativo además de la meta general? * Influencia sobre el desarrollo de políticas, leyes, normas y similares * Influencias sobre los aspectos sociales y culturales tales como género, derechos humanos, ricos y pobres * Influencia sobre la protección ambiental * Influencia derivada de cambios técnicos * Influencias económicas sobre la sociedad objetivo, las partes interesadas, los beneficiarios ¿Hay impactos diferentes dependiendo de las diferencias entre géneros, grupos étnicos o estratos sociales (sobre todo impactos negativos)?
Sustenta-bilidad (Prospectos) * Lo que es indispensable para asegurar la sustentabilidad depende del contenido del proyecto. Se debe implementar el estudio con esto en mente.
¿La agencia de implementación del país socio continua con las actividades del proyecto? ¿El efecto que perseguía el proyecto (propósito del proyecto o meta general) se produce continuamente con esto? ¿Cuáles son los factores que dificultan y que contribuyen a la sustentabilidad?
Políticas y sistemas * Continuidad del apoyo político * Desarrollo de estipulaciones y sistemas legales relacionados * En el caso de proyectos centrados en sitios piloto, ¿existen esfuerzos
confiables para ayudar a divulgar los efectos directos posteriormente? Aspectos organizativos y financieros
¿Se tiene suficiente capacidad organizativa para implementar actividades que produzcan efectos? (Asignación de recursos humanos, proceso de toma de decisiones, etc.)
¿Se tiene un sentido de conciencia de la iniciativa propia en las agencias de implementación?
Aseguramiento del presupuesto (incluyendo los gastos de operación) Técnicas
Establecimiento de técnicas transferidas Mantenimiento y manejo del equipo ¿Hay algún mecanismo de divulgación (incluyendo la divulgación a
198
otras regiones de proyectos que se implementaron en los sitios piloto?Sociedad, cultura, medio ambiente
¿Hay factores que obstaculizan debido a la falta de consideración hacia las mujeres, los pobres y los socialmente vulnerables?
¿Hay factores que obstaculizan debido a la falta de consideración al medio ambiente?
* Las evaluaciones ex-post examinan los resultados y los procesos de implementación y
evalúan la pertinencia según sea necesario. Estos puntos de vista de evaluación se manejan
igual que en las evaluaciones finales.
(2) Diseño de la Evaluación Ex-post
El diseño de las evaluaciones ex-post también sigue el mismo proceso que otros estudios
de evaluación. Consulte la Parte II, Capítulo 2 para obtener explicaciones más detalladas
sobre el diseño de la evaluación. Las características del diseño de la evaluación ex-post
son las siguientes: i) Temas cuando se consideran las preguntas de evaluación
Las principales preguntas de evaluación comunes a todas las evaluaciones ex-post
son “¿continua el efecto sin apoyo externo después que terminó la cooperación?” y “¿se
produjo un impacto de largo plazo?” Desde el punto de vista de los Cinco Criterios de
Evaluación, “impacto" y “sustentabilidad” son los criterios principales para esta evaluación.
La evaluación final terminó de verificar la eficiencia y la efectividad y, por principio, la
evaluación ex-post no verifica estos criterios. Para hacer un borrador de preguntas de evaluación más concretas, los evaluadores
pueden utilizar los informes de las evaluaciones intermedia y final. Como ya se
examinaron los pronósticos de las posibilidades de sustentabilidad e impacto, los
evaluadores pueden obtener claves de lo que es importante verificar. ii) Temas al considerar criterios y métodos de juicio
Al examinar el impacto en las evaluaciones ex-post, los evaluadores necesitan
comparar el nivel de logros con las metas y analizar las relaciones causales para
determinar si la cooperación realmente causó el impacto. A diferencia de los exámenes
de efectividad, con frecuencia los exámenes de impacto cubren amplias áreas de la
sociedad objetivo, y en muchos casos, es adecuado captar las tendencias, por ejemplo,
en las encuestas por muestreo (consulte 2-2-2 para información sobre métodos de
comparación y 2-2-3 para encuestas por muestreo). iii) Temas relativos a las fuentes de información y métodos de recopilación de datos
En comparación con otros estudios de evaluación es difícil identificar las fuentes de
información después que terminó la cooperación ya que es posible que hayan transferido
a las personas que participaron en la cooperación o que éstas dejen sus trabajos.
Dependiendo del caso, los evaluadores necesitan consultar con anticipación con la
agencia de implementación del proyecto que se va a evaluar e identificar las fuentes de
199
información adecuadas junto con la agencia (consulte 2-2-1 para información sobre los
métodos de recopilación, tipos de datos y características/puntos a recordar). iv) Temas relativos a la tabla de evaluación
Al igual que en las otras evaluaciones, es necesario resumir el método de evaluación
en una tabla de evaluación. Las evaluaciones ex-post se realizan bajo la iniciativa de la
oficina en el extranjero, para que sea posible consultar directamente a las partes
interesadas del país socio que participaron en el diseño de la evaluación. En este
momento, la tabla de evaluación también se puede utilizar como herramienta de
comunicación. El proceso de compartir el diseño con las agencias socias es importante
también para profundizar el conocimiento común de la evaluación y para obtener el
compromiso de parte del socio en relación con el estudio de evaluación.
(3) Interpretación y Resumen de los Datos de la Evaluación Ex-post
Tal como se explica en la Parte II, Capítulo 3, evaluación significa interpretar los datos
recopilados y analizados - no es suficiente si sólo se enumeran los datos y se añaden los
resultados del cuestionario. Al igual que en las evaluaciones intermedia y final, el proceso
de interpretación de las evaluaciones ex-post realiza una "evaluación de cada uno de los
cinco Criterios de Evaluación" y luego saca una conclusión. De ella se extraen las
recomendaciones y lecciones aprendidas. Las metas principales de retroalimentación de las evaluaciones ex-post son las
organizaciones que implementan el proyecto (el proyecto continua después de la
cooperación), la división de implementación respectiva de la JICA, y las oficinas de la
JICA en el extranjero. Sobre todo en el caso de la última, los resultados de las
evaluaciones ex-post se convierten en fuentes de información importantes para hacer
bosquejos de programas para el área específica de ese país, o cuando se hace el
borrador de proyectos nuevos. Incluso si se vio algún efecto durante la cooperación
(aunque los resultados de la evaluación final hayan sido buenos), en algunos casos los
efectos no están sustentados al final de la cooperación y no contribuyen al objetivo a
largo plazo que el proyecto perseguía. En estos casos, se cuestiona el valor de la
implementación misma del proyecto, y estos casos brindad lecciones aprendidas valiosas
con respecto a cómo se deben formular los planes y estrategias de un proyecto. La retroalimentación a la JICA se utiliza principalmente para las siguientes
consideraciones.
Establecimiento de estrategias a largo plazo para el área respectiva
Programa de cooperación en el área respectiva
Selección de las agencias de implementación adecuadas
Necesidad de incorporar una estrategia para fortalecer la capacidad
organizativa
Estrategias efectivas del proyecto
200
Implementación de proyectos relacionados en el área correspondiente
Observe que, en principio, las evaluaciones ex-post se realizan bajo la iniciativa
de las oficinas en el extranjero.
201
Preguntas Frecuentes relativas a la Evaluación de Proyectos de la JICA
202
Preguntas Frecuentes Relativas a la Evaluación de Proyectos de la JICA
1. Preguntas generales sobre la Evaluación de Proyectos de la JICA 1.1 La evaluación ex-ante se enfoca en la planeación del proyecto, pero no entiendo el significado de
la evaluación que se realiza como parte de ésta. 1.2 No entiendo la diferencia entre el método PCM y el método de evaluación de la JICA. 2. Preguntas de evaluación 2.1 No entiendo qué son las preguntas de evaluación.
2.2 No entiendo la relación entre las preguntas de evaluación y los Cinco Criterios de Evaluación. 3. Método de encuestas cuando hay un problema con el marco lógico 3.1 ¿Qué se debe hacer cuando el propósito del proyecto es simplemente una nueva exposición del
producto? 3.2 ¿Qué se debe hacer cuando la meta general difiere del propósito del proyecto? 3.3 ¿Cómo se evalúan los proyectos que tienen dos propósitos? 3.4 ¿Cómo se evalúan los proyectos que tienen planos vagos o que difieren de la PDM que se
preparó inicialmente? 4. Indicadores 4.1 ¿Qué se debe hacer cuando no hay suficientes indicadores o no coinciden con el propósito del
proyecto? 4.2 ¿Cómo se debe llevar a cabo la evaluación cuando se determina que no existen valores objetivo
o son inadecuados? 4.3 ¿Cómo se puede verificar si los valores objetivo son adecuados? 4.4 ¿Es necesario considerar todos los indicadores como cuantitativos? 5. Método de evaluación 5.1 No me queda claro qué significa la "lógica" del proyecto. 5.2 ¿Cómo se deben presentar los resultados de la evaluación cuando parece que el proyecto no
podrá alcanzar su propósito? 5.3 El proyecto está implementando actividades que no se mencionan en el marco lógico y dichas
actividades están produciendo productos. ¿Cómo se evalúan esos productos? ¿Se consideran
efectos indirectos? 5.4 No entiendo cuál es el punto de vista del proceso de implementación y cómo se utiliza en la
evaluación. 5.5 ¿Cómo se evalúan puntos tales como el nivel de funciones aumentadas, conocimientos/
habilidades mejoradas y empoderamiento? 5.6 Cuando se evalúa el mejoramiento de capacidad, etc., ¿cómo se evalúan los proyectos que no
tuvieron buen seguimiento hasta el momento de la evaluación? 5.7 ¿Cómo se evalúan los proyectos que se implementan en colaboración con otros donadores o los
proyectos del gobierno de un país socio que la JICA asume parcialmente? 6. Cinco Criterios de Evaluación 6.1 ¿Por qué son necesarios los Cinco Criterios de Evaluación? 6.2 ¿Es necesario examinar los cinco criterios, aún en el caso de proyectos pequeños? 6.3 ¿Es suficiente con sólo discutir la pertinencia que coincide con el plan de desarrollo y la política
de asistencia?
203
6.4 Cuando se verifica la efectividad, ¿cómo se debe considerar la relación causal con los productos?
6.5 ¿Cómo se debe considerar el impacto cuando se va a determinar si es resultado de la
implementación del proyecto? 6.6 ¿Cómo se debe considerar la eficiencia de la cooperación técnica? 7. Papel de la Tabla de Evaluación 7.1 ¿Por qué es necesaria la Tabla de Evaluación cuando existe el marco lógico? 7.2 No entiendo la relación entre la Tabla de Evaluación y el marco lógico. 7.3 ¿Cómo evito que los datos necesarios y el alcance de la encuesta ocupen proporciones enormes
cuando prepare la Tabla de Evaluación? 7.4 Incluso si preparo una Tabla de Evaluación, no sé cómo utilizarla. 7.5 ¿Por qué no se utiliza la PDM? 8. País socio 8.1 ¿Es necesaria la participación del país socio en la evaluación? 8.2 ¿Cómo debe proceder en la evaluación si el país socio tiene su propio método de evaluación? 9. Preparación del Informe de Evaluación 9.1 ¿Es necesario preparar una versión en inglés del informe? 9.2 ¿Qué puntos se deben tener en mente cuando las personas a cargo verifiquen el informe?
1. Preguntas generales sobre las Evaluaciones de Proyectos de la JICA 1.1 La evaluación ex-ante se
enfoca en la planeación
del proyecto, pero no
entiendo el significado de
la evaluación que se
realiza como parte de
ésta.
La evaluación ex-ante de la JICA incluye tanto la
“planeación del proyecto” como la “evaluación del
contenido del plan”. El papel de la “evaluación” en la
evaluación ex-ante es verificar la idoneidad del
proyecto al observar su plan vía los Cinco Criterios
de Evaluación y retroalimentar a la planeación
cualquier problema o tema que surja mediante este
proceso. El objetivo es formular un proyecto
adecuado mediante este proceso.
Pág. 118
1.2 No entiendo la diferencia
entre el método PCM y el
método de evaluación de
la JICA.
1. El método PCM es una forma de evaluación
participativa
- El método PCM es un método de gestión de
proyectos que incorpora el concepto de
“participación”. Está compuesto de 1) un método
para formular planes participativos mediante la
implementación de talleres participativos, y 2)
métodos de seguimiento y evaluación. Los PDM que
se utilizan en este proceso y los Cinco Criterios de
Evaluación también se utilizan en el método de
evaluación de la JICA. - El método de Evaluación de Proyectos de la JICA
que se explicó en estos lineamientos se desarrolló
reuniendo las características de los proyectos de
cooperación técnica de la JICA y los métodos para
gestionar dichos proyectos. Por lo tanto, combinan
204
una variedad de técnicas de evaluación necesarias
en la evaluación de la JICA, tales como la aplicación
del marco lógico con base en un modelo lógico,
verificación del proceso de implementación,
preparación de la Tabla de Verificación, verificación
de las relaciones causales, métodos para llevar a
cabo evaluaciones cuantitativas y cualitativas, etc.
Por consiguiente, las evaluaciones no utilizan
únicamente el método PCM. - Por ejemplo, los talleres participativos, que son una
característica principal del método PCM, se utilizan
como medio para obtener consenso entre las partes
interesadas en la evaluación ex-ante y están
produciendo efectos. Sin embargo, es importante
tomar nota que hacer esto no es tan suficiente como
una evaluación ex-ante. Cuando se realizan las
evaluaciones ex-ante, además de las encuestas de
base y las valoraciones de necesidades, es
importante utilizar al máximo las técnicas de
evaluación arriba mencionadas.
2. La PDM y el método PCM no son lo mismo
- La PDM, que es una herramienta de gestión de
proyectos utilizada en el método PCM, es una forma
de marco lógico que se produce a partir del modelo
lógico. El marco lógico se utiliza ampliamente como
herramienta para la gestión de proyectos, no sólo en
el método PCM sino también en otros métodos de
manejo. Por lo tanto, se debe observar que la PDM y
el método PCM no se refieren a lo mismo. - La JICA utiliza la PDM (marco lógico) porque realiza
sus evaluaciones utilizando el modelo lógico, que es
una de las teorías de evaluación.
2. Preguntas de Evaluación 2.1 No entiendo qué son las
preguntas de evaluación. - La “evaluación” es una respuesta a las preguntas
sobre el proyecto, y las preguntas de evaluación
son el punto de partida para encontrar dicha
respuesta.
- Las preguntas de evaluación comparan las
etapas del proyecto evaluado y cada elemento de
su contenido con el propósito del mismo. Se
establecen para cubrir temas que se deben
abordar para su verificación. El departamento que
está a cargo del proyecto considera cuáles son los
Págs. 51 - 54
205
puntos que se deben verificar y cuáles podrían ser
útiles para corregir y mejorar el proyecto. 2.2 No entiendo la relación
entre las preguntas de
evaluación y los Cinco
Criterios de Evaluación.
- La JICA utiliza los Cinco Criterios de Evaluación
como base para sus evaluaciones de proyectos y,
en esencia, la evaluación del proyecto (juicio de
valor) se realiza tomando en consideración los
cinco criterios. Cuando se consideran preguntas
de evaluación específicas, es más fácil establecer
preguntas si se observa cada criterio. La persona
a cargo puede seleccionar entre los cinco criterios
aquellos puntos que requieren énfasis y aquellos
que no. - Sin embargo, en las evaluaciones sobre un tema
específico, la pregunta de evaluación y el tema
específico son lo mismo. En esos casos, los Cinco
Criterios de Evaluación no se pueden utilizar como
base.
Págs. 51 – 54
3. Método de encuestas cuando hay un problema con el marco lógico
Al diseñar la evaluación, el equipo de evaluación comprende el contenido y lógica del proyecto haciendo
referencia al marco lógico. Si el equipo observa algo inconsistente con el contenido del marco lógico,
puede adoptar las siguientes acciones. 3.1 ¿Qué se debe hacer cuando
el propósito del proyecto es
simplemente una nueva
exposición del producto?
Ejemplo
Propósito del Proyecto:
Divulgar la tecnología
adecuada al País A a los
agricultores modelo
Productos:
1) Se desarrolla la
Tecnología B, que es
adecuada para el país A
2) Se divulga la Tecnología
B a los agricultores modelo
- Se pueden asumir dos casos: Primero, los
conceptos de los productos y del propósito del
proyecto parecen ser declaraciones de lo mismo
ya que las partes interesadas no los entienden
bien. Segundo, hay un problema con la expresión
(las oraciones deben decir cosas diferentes, pero
no están bien expresadas). - Si se está diciendo lo mismo de dos maneras,
verifique para ver si el contenido del marco lógico
refleja correctamente el proyecto real. El método
para llevar esto a cabo incluye una revisión de los
informes del proyecto y de la información de
seguimiento y entrevistas con el personal
interesado. Si el propósito y productos del
proyecto se entienden como debe ser (es decir, si
se determina que las descripciones en el marco
lógico no están reflejadas en el proyecto real),
estos puntos se deberán reflejar en las preguntas
de evaluación en la Tabla de Evaluación. Si es
necesario llevar a cabo una encuesta de campo
para identificar claramente los conceptos iniciales,
incluya en las columnas de Efectividad y Eficiencia
de la Tabla de Evaluación “¿inicialmente, cuáles
Págs. 38 - 40
206
eran el propósito y los productos del proyecto?”
como pregunta de evaluación. Después lleve a
cabo una encuesta enfocándose en entrevistas
con personas interesadas y revisiones de
materiales. Luego, con base en esto, vuelva a
verificar la efectividad y eficiencia del proyecto. - Por último, hay muchos casos donde los
indicadores difieren, incluso si están expresados
de la misma manera en la descripción general del
proyecto. Por lo tanto, es importante ver primero
los indicadores. (En el caso de la columna
izquierda, si el indicador para el Producto 2 se
refiere al nivel de mejoramiento técnico de los
agricultores y el indicador para el propósito del
proyecto señala hacia el mejoramiento de la
productividad de la cosecha, no se puede decir
que estén describiendo lo mismo con diferentes
palabras.)
3.2 ¿Qué se debe hacer
cuando la meta general
difiere del propósito del
proyecto?
- Observe si la descripción de la meta general
describe correctamente las condiciones reales del
proyecto (por ejemplo, ¿el personal del proyecto
tiene una idea de la meta general que coincide con
la descripción?) Los medios para realizarlo
incluyen revisiones de los informes del proyecto y la
información de seguimiento, así como entrevistas
con las personas interesadas. En casos donde el
contenido de la meta general se entiende como se
debe (es decir, se determina que las descripciones
en el marco lógico no reflejan correctamente las
condiciones reales), este punto se debe reflejar en
las preguntas de evaluación de la Tabla de
Evaluación. En casos donde esto no se puede
confirmar sin una encuesta de campo, se debe
incluir la pregunta “¿cuál debe ser la meta general?”
como una pregunta de evaluación en la columna de
Impacto en la Tabla de Evaluación. Después se
debe realizar una encuesta enfocada en las
entrevistas con las partes interesadas y revisiones
de materiales. Luego se debe volver a verificar el
Impacto del proyecto.
Págs. 38 - 40 Pág. 192
3.3 ¿Cómo se evalúan los
proyectos que tienen dos
propósitos?
- Se pueden asumir dos casos: Primero, se
presentan dos metas aunque se podrían expresar
como una sola. Segundo, existen varios proyectos
dentro de un programa.
Págs. 38 - 40
207
- En el primer caso, coméntelo con las personas
interesadas para que se enfoquen en una sola meta
cuando hagan el diseño de evaluación. Si las
metas no se pueden unificar, es necesario evaluar
el proyecto por separado, como dos proyectos
diferentes. - En casos donde hay muchos proyectos, y se
puede asumir que están reunidos en un solo
programa, realice la evaluación considerando la
meta del programa. Por ejemplo, si no hay un
programa general que cubre varias áreas, y hay
marcos lógicos que se enfocan en cada área,
verifique los resultados, el proceso de
implementación, la eficiencia y la efectividad de
cada marco lógico; luego realice una evaluación
creando un marco lógico para el programa en
general que observe la pertinencia, el impacto y la
sustentabilidad (los grupos del proyecto se
implementan con base en la misma estrategia, así
que les deberá ser posible compartir propósitos y
metas generales del proyecto).
3.4 ¿Cómo se evalúan los
proyectos que tienen
planos vagos o que difieren
de la PDM que se preparó
inicialmente?
- Si el proyecto tiene un plan vago, primero trate de
arreglar el proyecto a evaluar utilizando al máximo
el modelo lógico del proyecto y armando un marco
de trabajo para él. Cuando haga esto, consulte la
información cualitativa obtenida mediante las
revisiones de los documentos del proyecto y los
informes relacionados, entrevistas con las partes
interesadas, etc. - Con base en esto, examine las preguntas de
evaluación, las normas de juicio, los métodos de
recopilación de datos, etc., y prepare una Tabla de
Evaluación.
- En el caso de proyectos que tienen planes vagos
o que no son lógicos, hay casos donde puede ser
difícil enfocarse en cuál de los muchos efectos
directos es el “propósito del proyecto” y cuáles son
los “efectos indirectos”. Esto pasa sobre todo
cuando el proyecto mismo es el resultado directo y
donde no hay conciencia de los resultados a largo
plazo. En esos casos, es imposible realizar una
evaluación cercana de la “Efectividad” e “Impacto”
entre los Cinco Criterios de Evaluación. Por tanto,
realice la evaluación dentro de un alcance factible
Pág. 38 - 40
208
una vez que decida explicar estas limitaciones en el
Informe de la Evaluación. Este tipo de evaluación
no es inútil, ya que existe la posibilidad de poder
obtener recomendaciones y lecciones aprendidas
concretas relativas a la etapa de planeación (por
ejemplo, falta de claridad en los resultados
esperados, falta de conciencia entre el personal del
proyecto y problemas de gestión).
4. Indicadores 4.1 ¿Qué se debe hacer
cuando no hay suficientes
indicadores o no coinciden
con el propósito del
proyecto?
- Si se considera que los indicadores son
insuficientes o inadecuados, el equipo de
evaluación debe considerar indicadores nuevos y
llevar a cabo una evaluación que sea consistente
con estos indicadores.
- En este caso, existe una alta probabilidad de que
surjan problemas en los resultados del proyecto que
se comprende mediante el seguimiento. Por lo
tanto, se puede suponer que el enfoque de la
evaluación no se extenderá más allá de la
verificación de resultados debido a las limitaciones
de tiempo. En este caso, es importante observar
claramente dichas limitaciones en el Informe de
Evaluación utilizando el siguiente tipo de
declaraciones: a) no se pudo realizar una
evaluación completa sobre la verificación de la
relación causal, etc., b) como resultado, el marco de
trabajo de seguimiento y la evaluación intermedia
fueron insuficientes (en el caso de evaluaciones
finales), y c) como no se pudo implementar la
evaluación con indicadores inadecuados, es
importante estudiar correctamente la pertinencia de
los indicadores aprovechando las oportunidades
que se presentan no sólo en la evaluación ex-ante,
sino también en el seguimiento.
Págs. 41 - 43
4.2 ¿Cómo se debe llevar a
cabo la evaluación cuando
se determina que no
existen valores objetivo o
son inadecuados?
- El equipo de evaluación puede establecer un
alcance razonable de los criterios de comparación
para la evaluación (por ejemplo, valores promedio
del país, normas internacionales de juicio, etc.).
Pág. 61
4.3 ¿Cómo se puede verificar
si los valores objetivo son
adecuados?
- Cuando se clasifican de manera general, la
mayoría de los problemas con la verificación de los
valores objetivo cae en uno de los siguientes tres
209
patrones. Por favor consúltelos cuando realice las
evaluaciones. 1. Casos donde las necesidades de los
beneficiarios se enumeran como los valores
objetivo sin modificación. Es importante volver
a determinar si estos criterios son adecuados o
no comparándolos contra la escala y
actividades del proyecto.
2. Casos en donde no es claro cómo se determinó
el número de personas objetivo. Por ejemplo, si
el valor objetivo es “se capacitarán 200
trabajadores de extensión”, no hay mención de
por qué el número 200 es pertinente (por
ejemplo, qué impacto tendrá sobre el sistema
de divulgación, etc.).
3. Casos en donde, aunque el “nivel de
satisfacción” y otros términos se cuantifican y se
establecen como valores objetivo, las razones
detrás de esas cantidades no son claras. Por
ejemplo, si el valor objetivo es “50% de los
participantes en la capacitación están
satisfechos”, la base para la cifra 50% no es
clara. 4.4 ¿Es necesario considerar
todos los indicadores como
cuantitativos?
- Como regla, los indicadores se deben ver como
cuantitativos para conservar la objetividad. Sin
embargo, en los casos donde esto es difícil, es
posible realizar una evaluación indicando las bases
cualitativas que son aceptables para las partes
interesadas. Por ejemplo, es posible utilizar
“adquisición de calificaciones internacionales (por
ejemplo, ISO9000, etc.)” o “emisión de certificados
de una entidad autorizada”. - El punto importante es confirmar si las partes
interesadas aceptan o no los puntos que se están
utilizando como bases para la evaluación.
Págs. 41 - 43
5. Método de evaluación 5.1 No me queda claro qué
significa la "lógica" del
proyecto.
- La evaluación verifica si los insumos o actividades
realmente condujeron o no a los resultados que se
esperaban al inicio. Los proyectos que se
determina tienen una “tasa alta de incidencia” se
consideran “lógicos”. Es importante considerar
planes que tienen las posibilidades más altas de
producir los efectos finales deseados después de
haber considerado por completo las “suposiciones
Págs. 33- 38
210
importantes” del marco lógico (en el área de la
evaluación y la investigación se utiliza con
frecuencia el término “verosímil”). - Aunque se puede utilizar el enfoque “si-entonces”
del marco lógico como referencia para confirmar la
lógica, es importante considerar los siguientes
puntos de vista para confirmar la pertinencia de su
contenido:
1. Consulte las experiencias de proyectos similares.
2. Aprenda cuáles métodos son efectivos para cada
área (es necesario tener expertos y consultores
que hagan esto).
3. Estudie los métodos de implementación de otros
donadores.
4. Tome en cuenta la experiencia nacional en el
área objetivo.
5.2 ¿Cómo se deben presentar
los resultados de la
evaluación cuando parece
que el proyecto no podrá
alcanzar su propósito?
- Describa las bases de la poca posibilidad de
alcanzar el propósito del proyecto (resultados de las
mediciones de los indicadores, etc.) y analice y
explique los factores que dificultaron el progreso y
condujeron a esta situación. La evaluación ganará
importancia si éstos se reflejan en las
recomendaciones y lecciones aprendidas. Como la
evaluación se realiza para mejorar el proyecto, es
importante observar claramente las razones por las
que tiene una tasa de logros baja.
Pág. 40
5.3 El proyecto está
implementando actividades
que no se mencionan en el
marco lógico y dichas
actividades están
produciendo productos.
¿Cómo se evalúan esos
productos? ¿Se
consideran efectos
indirectos?
- El hecho que se estén llevando a cabo actividades
del proyecto significa que en cierto grado están
utilizando insumos del mismo, y por tanto, no son
efectos indirectos.
- Si estas actividades adicionales se pueden incluir
como parte de las actividades del proyecto (y si no
hay problemas en términos de la lógica), inclúyalos
en la evaluación.
- En caso que no exista una conexión directa entre
las actividades adicionales y el propósito y
productos del proyecto, estudie los antecedentes
para saber por qué se añadieron estas actividades
y cuál es su pertinencia. Por ejemplo, si estas
actividades se implementaron por un exceso de
insumos, esto conduce a preguntas sobre la
pertinencia del plan de insumos y el proceso de
implementación. O, si las actividades adicionales
están contribuyendo a la generación de productos o
Págs. 38 - 40
211
a alcanzar el propósito del proyecto, se pueden
evaluar como factores contribuyentes. 5.4 No entiendo cuál es el
punto de vista del proceso
de implementación y cómo
se utiliza en la evaluación.
- La información sobre el proceso de
implementación incluye el estado de
implementación de actividades y los puntos que
ocurren en el sitio del proyecto. Por lo tanto, existe
mucha información cualitativa en esos puntos, tal
como la comunicación entre los expertos y las
contrapartes, la relación entre el proyecto y los
beneficiarios, y la relación entre la Oficina Central
de la JICA y el proyecto. Aunque algunos de estos
puntos tal vez no se entiendan con sólo medir los
valores objetivo de los indicadores, pueden tener un
impacto sobre la gestión del proyecto. - Con frecuencia se puede utilizar la información
sobre el proceso de implementación cuando se
analizan los factores que dificultan y que
contribuyen en un proyecto (por ejemplo,
identificación de la “falla de implementación”). Por
lo tanto, cuando estudie cada uno de los Cinco
Criterios de Evaluación, observe la correlación entre
el proceso de implementación-la información
relacionada y los resultados del estudio de los
criterios. En los casos donde se confirma alguna
correlación (pero no lo suficiente para demostrar
una relación causal), realice entrevistas y
cuestionarios para buscar una relación causal de
mayor profundidad.
Págs. 46- 47
5.5 ¿Cómo se evalúan puntos
tales como el nivel de
funciones aumentadas,
conocimientos/ habilidades
mejoradas y
empoderamiento?
- Incluso aquellos puntos que a simple vista
parecen difíciles de medir (aumento de las
funciones, mejoramiento del conocimiento/
tecnología, empoderamiento, etc.), es posible llevar
a cabo evaluaciones estableciendo indicadores
sustituto, etc. Por ejemplo, en el caso del aumento
de las funciones, considere concretamente la
función que se debe aumentar. Si el objetivo es
aumentar la capacidad para implementar la
capacitación, es posible evaluar el “aumento de
habilidad para implementar la capacitación”
observando 1) el proceso de implementación y la
idoneidad de sus actividades consecutivas,
incluyendo la planeación e implementación de la
capacitación, la auto-evaluación, y la revisión de los
planes de capacitación (se necesitará una serie de
Págs. 41 - 43
212
indicadores para medir estos puntos), y 2) si los
participantes en la capacitación y los expertos
comprometidos con la transferencia de tecnología
consideran la capacitación “adecuada” (se
necesitan indicadores detallados para determinar
que tan apropiada la consideran). - De la misma manera, considere indicadores
sustituto para el mejoramiento del conocimiento/
técnico y el empoderamiento. En cuanto al
incremento de capacidad de recursos humanos, en
muchos casos (excepto en la educación básica),
éste se considera como una herramienta donde la
gente cumple con cierto tipo de meta, y es posible
utilizar indicadores para medir los beneficios
exactos y cambios positivos que han ocurrido. Por
ejemplo, ¿la gente encontró trabajo como resultado
de los esfuerzos para aumentar el conocimiento?
O, ¿aumentó la influencia de los ciudadanos en la
política como resultado de los esfuerzos hacia el
empoderamiento (por ejemplo, el número de
recomendaciones de políticas, etc.)? O, de nuevo,
¿se estimularon las actividades de los grupos de
jóvenes de la comunidad como resultado del
empoderamiento (ejemplos de las actividades
reales, etc.)? - Los siguientes métodos principales se pueden
utilizar para medir estos indicadores:
1. Medición del aumento de capacidad comparando
las calificaciones de las pruebas antes y
después de la implementación del proyecto.
2. Medición del aumento de capacidad utilizando
una hoja de clasificación que se desarrolló
antes del proyecto.
3. Comparación de las habilidades de la gente a la
que se dirigió el proyecto con gente a la que no.
4. Estudio de las calificaciones (evaluaciones
ampliamente reconocidas) obtenidas para
mostrar adquisición de habilidades. 5.6 Cuando se evalúa el
mejoramiento de la
capacidad, etc., ¿cómo se
evalúan los proyectos que
no tuvieron buen
seguimiento hasta el
momento de la evaluación?
- Si no se ha implementado una encuesta base o
seguimiento hasta el momento de la evaluación, es
imposible captar los cambios mediante
comparaciones antes/después o mediciones
regulares. Por consiguiente, la evaluación será
poco persuasiva. Sin embargo, es posible hacer
comparaciones de los cambios con gente o
sociedades en regiones vecinas donde no se
Págs. 62 - 63 Págs. 77 - 78
213
implementó el proyecto. Incluso si esto no se
puede hacer, realice encuestas utilizando diferentes
métodos sobre fuentes de información que sean tan
diferentes como sea posible (es decir, verificación
trilateral) y trate de recopilar datos objetivamente,
etc. 5.7 ¿Cómo se evalúan los
proyectos que se
implementan en
colaboración con otros
donadores o los proyectos
del gobierno de un país
socio que la JICA asume
parcialmente?
- En el caso de proyectos que se implementaron en
colaboración con otros donadores y gobiernos
socios, realice la evaluación considerando el
“proyecto” como parte de un “programa”.
- En este caso, aunque la meta principal del
proyecto de la JICA sea la meta del “programa”, en
todos los casos el propósito del proyecto es el
beneficio que se espera se exprese mediante la
implementación del “proyecto” de la JICA.
- Es muy probable que las actividades y metas de
los proyectos de otros donadores y gobiernos
socios se conviertan en suposiciones importantes
del proyecto de la JICA. Por lo tanto, es importante
tener comunicación con estos donadores/gobiernos
sobre la demarcación de papeles y
responsabilidades. Además, con el interés de
compartir las metas, es aconsejable tener
discusiones que empiecen al principio de la etapa
de planeación y que incluyan la validez de la
estrategia del proyecto de cada lado.
Págs. 43- 44
6. Cinco Criterios de Evaluación 6.1 ¿Por qué son necesarios
los Cinco Criterios de
Evaluación?
- Los Cinco Criterios de Evaluación forman la base
de evaluación del valor del proyecto desde una
perspectiva integral. Aunque es posible realizar
una evaluación sin los Cinco Criterios de
Evaluación, para la JICA son la base de la
evaluación (es decir, el nivel mínimo que se debe
estudiar) ya que cubren todos los puntos necesarios
para llevar a cabo una evaluación general de un
proyecto de asistencia para el desarrollo. - Por ejemplo, incluso en el caso de proyectos
efectivos que alcanzaron su meta mediante la
implementación del proyecto desde el punto de
vista de la efectividad, la asistencia para el
desarrollo pierde su importancia si los efectos
finales están limitados a cierto grupo de personas
(una distribución injusta: punto de vista de la
pertinencia). Lo mismo se aplica si un proyecto es
Págs. 21 - 22 Págs. 55- 59
214
efectivo pero tiene costos que son más altos de lo
necesario (punto de vista de la eficiencia) y por
tanto no se puede esperar que sea sustentable.
Para poder evaluar la validez de los proyectos del
sector público-beneficio (que no se pueden medir
utilizando únicamente la tasa de rentabilidad y la
proporción de las utilidades, como en el caso del
sector privado), es importante realizar verificaciones
desde diversos puntos de vista. - Por otro lado, la prioridad que se le da a cada uno
de los Cinco Criterios de Evaluación varía
dependiendo del tipo de proyecto y de los temas
involucrados. Por ejemplo, en el caso de un
proyecto a pequeña escala, tal vez no sea
adecuado llevar a cabo una encuesta por
cuestionario, que cuesta dinero, y por tanto se
deben utilizar otros métodos de verificación sencilla.
O, si la gente interesada está conciente que la
eficiencia es un punto de interés primario para el
proyecto, tal vez sea necesario realizar una
encuesta que ponga más énfasis en la verificación
de la eficiencia. 6.2 ¿Es necesario examinar
los cinco criterios, aún en
el caso de proyectos
pequeños?
- Aunque puede haber muchas diferencias en la
importancia que se le da a los cinco criterios, es
necesario examinarlos todos.
- En el caso de las evaluaciones ex-ante de
proyectos pequeños, se debe poner atención
especial a la “pertinencia” y hasta el último se
deben estudiar las preguntas “¿se producirán los
resultados?” y “¿el proyecto es muy caro?” en
términos de la eficiencia y la efectividad para
asegurar la rendición de cuentas.
- El alcance de la evaluación y la recopilación de
datos se deben realizar adecuadamente dentro del
presupuesto. En los casos donde no se pueden
realizar estudios amplios debido a las limitaciones
del presupuesto, revise la documentación y los
materiales lo más que le sea posible.
6.3 ¿Es suficiente con sólo
discutir la pertinencia que
coincide con el plan de
desarrollo y la política de
asistencia?
- No, no es suficiente. Lo que no se debe olvidar es
el punto de vista que examina si la estrategia y los
medios para lograr que el proyecto sea efectivo
frente a un problema de desarrollo en el país socio
son adecuados o no. Los ejemplos incluyen
métodos de transferencia de tecnología,
Pág. 56
215
establecimiento de actividades y selección de
metas y regiones. - En las evaluaciones ex-ante, evalúe la pertinencia
de la estrategia con base en las encuestas de base
y la valoración de las necesidades. Necesitamos
estar siempre concientes que los talleres
participativos por sí mismos no siempre son
suficientes. 6.4 Cuando se verifica la
efectividad, ¿cómo se debe
considerar la relación
causal con los productos?
- Cuando se observa la relación causal entre el
efecto y la implementación de un proyecto de
cooperación técnica, el método que se usa más
comúnmente es una combinación de dos
elementos: 1) comparación de las condiciones
antes y después de la implementación del proyecto,
y 2) evaluación para determinar si los artículos
producidos, habilidades y servicios que forman el
producto del proyecto se están utilizando para
satisfacer el propósito del mismo o si están
vinculados con la realización del propósito del
proyecto. - En las comparaciones antes/después, se
requieren los datos base que se recopilaron en la
evaluación ex-ante o inmediatamente después que
inició el proyecto. Cuando observamos la conexión
con el producto, si el propósito del proyecto es, por
ejemplo, “mejorar la habilidad de capacitación de
las instituciones de capacitación en el país socio”,
estudie el grado en que se están utilizando las
nuevas habilidades que se adquirieron a través del
proyecto (es decir, el producto), el grado al que se
están enseñando las habilidades correctamente,
etc. También es posible verificar si el equipo y los
materiales proporcionados (es decir, el producto) se
están utilizando. - Además, estudie para ver si las suposiciones
importantes mencionadas en el marco lógico, así
como otros elementos externos supuestos están
influyendo en el proyecto.
Págs. 62 - 63 Pág. 188
6.5 ¿Cómo se debe considerar
el impacto cuando se va a
determinar si es resultado
de la implementación del
proyecto?
- Básicamente se puede utilizar el mismo método
descrito en el caso de la efectividad. Sin embargo,
en el caso del impacto, es importante tener en
mente que el impacto es el efecto que surge
después que ha pasado cierto tiempo de la
implementación del proyecto, y que puede haber
una gran cantidad de influencias de incertidumbres
que no estén relacionadas con el proyecto.
Pág. 62 - 63
216
- De los temas incluidos bajo “impacto”, la meta
general incluye el beneficio que alcanza a los
beneficiarios finales y que cubre un amplio rango.
Por ello, es necesario llevar a cabo las encuestas
por muestreo y las comparaciones con las “regiones
y gente a la que no se dirigió el proyecto”. Aunque
es difícil especificar dichas regiones y personas, es
posible hacer comparaciones entre la gente,
regiones y organizaciones que tienen cualidades
muy similares dentro de un rango limitado para
recopilar los datos base y ver los cambios del
impacto (incluyendo las comparaciones
antes/después) antes de la implementación del
proyecto. Por ejemplo, hubo un caso en un
proyecto para estimular a maestros de ciencias y
matemáticas, en que se hicieron comparaciones
entre las calificaciones de las pruebas de alumnos
de matemáticas y ciencias, y entre los estudiantes
que tomaban clase con maestros capacitados y con
maestros sin capacitación. (La prueba se realizó a
nivel nacional y no formó parte de un proyecto.)
6.6 ¿Cómo se debe considerar
la eficiencia de la
cooperación técnica?
- “Eficiencia” es un punto de vista que considera si
los recursos invertidos llegaron de manera
oportuna, si se utilizaron lo más económicamente
posible y si se obtuvieron efectos finales o no. Por
ejemplo, los juicios “los materiales y equipo
necesarios se proporcionaron lo más
económicamente posible en el sitio” y “la cantidad
de expertos de largo plazo se redujo al mínimo
mediante el uso de tantos expertos de un tercer
país como fue posible” representan evaluaciones de
eficiencia. De ser posible, las comparaciones de
costos con casos menos eficientes lo hacen más
convincente. - Dentro de una escala factible, realice
comparaciones con proyectos similares utilizando
cálculos de costos. Por ejemplo, calcule el costo
unitario de cada producto y vea si está dentro de
límites apropiados. Si es difícil calcular el costo
unitario, es posible comparar los costos generales
utilizando metas de la misma escala y proyectos
que tengan productos similares. Actualmente, la JICA no cuenta con una base de
datos suficiente para comparar la eficiencia
Pág. 57
217
(eficiencia de proyectos similares). Por esta razón,
pueden existir casos donde sea imposible realizar
una evaluación adecuada calculando los costos
(juicio de valor por comparación). Por tanto,
cuando sea posible, es importante acumular estos
datos expresando los costos en tablas.
Ejemplo: Comparación del costo del insumo 1. Comparación de los costos que se necesitan
para diversas estrategias dentro de un proyecto:
- Ahorros en los costos de insumos si se utilizan
equipo y materiales locales (comparación con la
obtención del extranjero).
- Ahorros en los costos de insumos limitando la
cantidad de expertos de largo plazo y enviando
expertos de corto plazo oportunamente.
2. Comparación con proyectos del mismo tamaño y
con contenido de cooperación similar.
- Comparación de los costos de inversión
generales.
Costo del insumo por cada producto/insumo
(Comparación con proyectos similares.)
Comparación del costo necesario para realizar una
sesión de capacitación (1 sesión), comparación del
costo necesario para desarrollar tecnología nueva,
comparación del costo necesario para construir una
planta de agua potable sencilla (1 ubicación), etc.
Propósito del proyecto/costo de la inversión
(comparación con proyectos similares).
Comparación del costo necesario para capacitar a
un participante para que pueda encontrar empleo
dentro de los seis meses siguientes después que
terminó la capacitación, comparación del costo
necesario para que una familia realice un plan
familiar, etc.
7. Papel de la Tabla de Evaluación 7.1 ¿Por qué es necesaria la
Tabla de Evaluación
cuando existe el marco
lógico?
- El marco lógico es una herramienta que se debe
utilizar cuando se planea y gestiona el proyecto. La
Tabla de Evaluación es una herramienta que se
debe utilizar cuando se evalúa el proyecto. - La Tabla de Evaluación describe cómo
implementar la evaluación. Por tanto, cubre las
Pág. 82
218
preguntas de la evaluación, los datos a recopilar,
los métodos de recopilación, las normas de
evaluación, etc. Por otro lado, el marco lógico es
una tabla que brinda una descripción general del
plan de proyecto que se va a evaluar; brinda la
información que se necesita cuando se estudian los
métodos de evaluación. 7.2 No entiendo la relación
entre la Tabla de
Evaluación y el marco
lógico.
- No siempre es posible utilizar en la evaluación los
indicadores, valores objetivo y etapas para
introducir los indicadores que aparecen en el marco
lógico tal como están. A veces no son adecuados.
Por lo tanto, el equipo de evaluación debe examinar
cuidadosamente si es posible utilizar esos puntos
tal como están. - Cuando examine el método de evaluación
mediante la Tabla de Evaluación, va a necesitar
otra información que no está incluida en el marco
lógico. Por ejemplo, cuando observamos la
pertinencia, es necesario utilizar la información
sobre el plan de desarrollo, los antecedentes detrás
del establecimiento de la estrategia de asistencia,
etc., que no están incluidas en el marco lógico. -
También en el área de “impacto”, cuando se buscan
efectos indirectos surge la necesidad de identificar
los diversos elementos que rodean al proyecto y
que no aparecen en el marco lógico.
Pág. 49-50 Pág. 82
7.3 ¿Cómo evito que los datos
necesarios y el alcance de
la encuesta ocupen
proporciones enormes
cuando prepare la Tabla de
Evaluación?
- Como generalmente el tiempo y el dinero para las
evaluaciones están limitados, es necesario limitar
los métodos de evaluación. Para ello, es necesario
considerar varias perspectivas, incluyendo 1) qué
clase de datos es absolutamente esencial para
responder a las preguntas de la evaluación, y 2) si
existe una probabilidad alta de obtener esos datos. - Cuando prepare un cuestionario con base en la
Tabla de Evaluación, tenga en mente que la hoja
debe ser práctica (por ejemplo, un cuestionario de
10 páginas no es adecuado).
- Sin embargo, para que los datos sean confiables,
también es importante realizar una evaluación que
combine tantos métodos como sea posible. Por
ejemplo, cuando observe los efectos que tendrá la
construcción de un pozo, no es suficiente con sólo
entrevistar a una persona de la agencia de
implementación; también es importante recopilar
datos de muchas otras fuentes, incluyendo los
usuarios, las organizaciones de mujeres en una
Pág. 82
219
comunidad y la asociación de agua. “Limitar” los
métodos de evaluación no significa seleccionar
únicamente un método. 7.4 Incluso si preparo una
Tabla de Evaluación, no sé
cómo utilizarla.
- Una vez que preparó la Tabla de Evaluación,
prepare una “hoja de estudio” y una “lista de
documentos a recopilar” con base en la tabla y
prepare la evaluación.
- Cuando realice la evaluación, utilice la tabla para
verificar si hacen falta datos recopilados o no.
Después de recopilar los datos, regrese a las
preguntas en la Tabla de Evaluación para analizar
las respuestas a cada pregunta. Puede compilar
los resultados en el Informe de la Evaluación.
Pág. 82
7.5 ¿Por qué no se utiliza la
PDM? - Originalmente, se introdujo la PDM como una
herramienta para verificar las posibilidades de
implementar una evaluación del proyecto objetivo.
Sin embargo, durante este proceso, algunas veces
ocurría un error operativo - “convertir el proyecto en
uno que sea más fácil de evaluar” - lo que con
frecuencia causaba confusión en el sitio del
proyecto. - Como la PDM convencional es una tabla que
brinda una descripción general del plan de un
proyecto, tiene la desventaja que no cubre toda la
información que se necesita para la evaluación.
Por eso se decidió diseñar las evaluaciones
adecuadamente con la preparación de la Tabla de
Evaluación.
Pág. 82
8. País socio 8.1 ¿Es necesaria la
participación del país socio
en la evaluación?
- Como los proyectos de la JICA se implementan
conjuntamente con el país socio, es absolutamente
indispensable que la evaluación también se
implemente de manera conjunta con el país socio.
Todos los pasos - desde el diseño de la evaluación
hasta la recopilación de datos; y los resultados del
análisis y la evaluación - se realizan de manera
conjunta con discusiones suficientes.
Págs. 109-
110
8.2 ¿Cómo debe proceder la
evaluación si el país socio
tiene su propio método de
evaluación?
- El modelo lógico que utiliza la JICA es una
metodología general de evaluación. Y muchos
donadores utilizan los Cinco Criterios de Evaluación
del DAC, así que no representan en sí una
metodología especial. Por lo anterior, se supone
que el modelo lógico de la JICA tiene muchos
puntos en común con los métodos de evaluación
220
que utilizan sus países socios. No obstante,
después de examinar detenidamente los métodos
de evaluación de ambas partes, es necesario llegar
a un acuerdo sobre un método de evaluación
común. - Como las evaluaciones siempre tienen un
propósito, después de comparar los propósitos es
posible utilizar correctamente normas de evaluación
nuevas que se piense son necesarias. Es
importante siempre tener en mente la razón de la
evaluación para seguir adelante adecuadamente
con las preguntas de la evaluación y la recopilación/
análisis de datos. 9. Preparación del Informe de Evaluación 9.1 ¿Es necesario preparar
una versión en inglés del
informe?
- Es esencial que se prepare una versión en inglés
del Informe de Evaluación para poder compartir los
resultados de la evaluación con el país socio y así
poder utilizar los resultados en proyectos y
cooperación posteriores. Aunque se prepara una
Minuta de las Juntas (M/M) al final de la evaluación,
hay muchos temas que no se incluyen en las
Minutas. Por ello, se prepara el Informe de
Evaluación en inglés como paso final.
Pág. 113
9.2 ¿Qué puntos se deben
tener en mente cuando las
personas a cargo
verifiquen el informe?
- Se debe poner mucha atención para asegurarse
que el informe incluye los siguientes puntos
principales.
1. ¿Se comprendieron exactamente los resultados
del proyecto?
2. ¿Se verificó la relación causal entre los efectos y
el proyecto?
3. ¿Se mencionan con precisión las bases de los
juicios de evaluación?
4. ¿Se analizaron adecuadamente los factores
contribuyentes y los que obstaculizan?
5. ¿Los resultados de la verificación del proceso de
implementación se utilizaron en el análisis de
los factores contribuyentes y que obstaculizan?
6. ¿Las recomendaciones y lecciones aprendidas
se basan precisamente en los resultados de la
evaluación?
Pág. 113
221
Materiales Anexos I. ¿Qué es el Marco Lógico?
II. ¿Qué es la Evaluación Participativa? III. ¿Qué es la Medición de Resultados? IV. Lista de Documentos de Referencia
222
Material Anexo I: ¿Qué es el Marco de Trabajo Lógico?7
Literalmente, el “marco de trabajo lógico” (también conocido como “marco lógico” o
“logframe”) es un marco de trabajo lógico que se utiliza para gestionar un proyecto (Tabla
1-1).8 Utilizado por los Estados Unidos desde la segunda mitad de la década de los ’60
en el campo de la asistencia para el desarrollo como una tabla para el plan de un
proyecto, actualmente se utiliza en el flujo de gestión basada en resultados (RBM) como
la herramienta principal para aclarar las metas y organizar los indicadores necesarios
para medir los efectos finales. La JICA utiliza el marco lógico para formular y gestionar los proyectos de
cooperación técnica, que son un medio para solucionar problemas de desarrollo. Por
tanto, es importante tomar en consideración 1) que el marco lógico siempre está colocado
como parte de un problema de desarrollo importante (consulte el Cuadro 1-1) y 2) que el
marco lógico se debe modificar según se requiera en el seguimiento durante el proyecto
de implementación y en la evaluación intermedia. Además, aunque el marco lógico
muestra el contenido de la composición del proyecto y la lógica de su plan, simplemente
es un cuadro de descripción general. Por ello, es importante tener en mente que no
explica todos los puntos (por ejemplo, los antecedentes del proyecto, las actividades
detalladas, la estructura de operación del proyecto, el contenido detallado de la
cooperación técnica, etc.). El marco lógico es una “tabla de resumen del plan del proyecto” que compila la
estrategia del proyecto en una matriz de cuatro renglones por cuatro columnas.
Concretamente, muestra los diversos elementos del proyecto (la meta general, el
propósito del proyecto, los productos, las actividades y los insumos), construye la relación
vinculada entre “causas” y “resultados”, y coloca los valores esperados de las metas y
efectos finales en forma de indicadores antes de la implementación del proyecto. Al
mismo tiempo, identifica las “suposiciones importantes” que pueden tener impacto sobre
el éxito o fracaso del proyecto.
7 Materiales de referencia: - NORAD (Agencia Noruega de Cooperación para el Desarrollo): The Logical Framework Approach
(LFA):Handbook for Objective-oriented Project Planning [El Enfoque del Marco Lógico: Manual de Planeación de Proyectos por Objetivos] (1990)
- FASID (Fundación para Estudios Avanzados en Desarrollo Internacional): Project Cycle Management: Management Tool for Development Assistance [Gestión del Ciclo del Proyecto: Herramienta de Gestión para la Asistencia para el Desarrollo] (2001)
8 De acuerdo con la definición de la OCDE-DAC, el “marco lógico (logframe)” es una “herramienta de gestión utilizada para mejorar el diseño de las intervenciones para el desarrollo”. Concretamente, la Matriz de Diseño del Proyecto (PDM) que utiliza la JICA es una forma de marco lógico, y este documento se refiere a todas esas matrices con el nombre general de “marco lógico” en la teoría de la evaluación.
223
Gráfica 1-1: Temas de Desarrollo y el Marco Lógico
Mejoramiento de la higiene urbana (reducción de la tasa
de infección de enfermedades transmitidas por el agua)
Mejorar la tasa
de extensión de
la planta de
agua potable
Se mejora la organización de
la administración
del medio ambiente
urbano
Se construyen plantas de
purificación de agua
Mejorar la conciencia de higiene de los ciudadanos
Se elimina la basura
debidamente
Marco lógico de
un proyecto de
mejoramiento del
servicio de
abastecimiento
d
Marco lógico de un
proyecto para
mejorar la
administración del
medio ambiente
urbano
Marco lógico de un programa para construir
plantas de purificación de
agua
Marco lógico de un proyecto de
educación sanitaria
Marco lógico de un programa de eliminación de
basura
224
Tabla 1-1: Marco Lógico (Logframe) (Resumen Narrativo) Indicadores
Verificables Objetivamente
Medios de Verificación
Suposiciones Importantes
Meta General Efectos indirectos, a largo plazo; impacto
sobre la sociedad objetivo
Indicadores y valores objetivo para medir los
logros hacia la meta general
Fuentes de información para los
indicadores en la columna de la
izquierda
Condiciones necesarias para que los efectos del
proyecto sean sustentables
Propósito del Proyecto
Efectos directos sobre el grupo y sociedad
objetivo
Indicadores y valores objetivo para medir los
logros hacia e propósito del proyecto
Fuentes de información para los
indicadores en la columna de la
izquierda
Factores externos que se deben satisfacer para que el proyecto
pueda contribuir con la meta general, pero que
al mismo tiempo son inciertos
Productos Bienes y servicios que
son producidos mediante la
implementación de actividades
Indicadores y valores objetivo para medir los
logros hacia los productos
Fuentes de información para los
indicadores en la columna de la
izquierda
Factores externos que se deben satisfacer para que el proyecto
pueda contribuir con el propósito del proyecto,
pero que al mismo tiempo son inciertos
Factores externos que se deben satisfacer para que el proyecto
pueda generar productos, pero que al
mismo tiempo son inciertos
Actividades Actividades para
generar los productos
Insumos (Tanto de Japón como del país socio)
Condiciones previas Condiciones que se
deben satisfacer antes de iniciar las actividades
Composición Lógica del Marco Lógico (consulte el Cuadro 1-2)
Al centro de la composición lógica del marco lógico está la relación vinculada entre
“actividades - productos - propósito del proyecto - meta general”. Es la “lógica” de la
hipótesis “si-entonces”; por ejemplo si se realiza una actividad, entonces se obtendrá un
producto; si se obtiene el producto, entonces se cumplirá con el propósito del proyecto; y
si se cumple con el propósito del proyecto, entonces contribuirá con la meta general. El
proceso de construir esta hipótesis está basado en el conocimiento de la situación actual
que se obtiene observando las relaciones de causa y efecto involucradas en los
problemas que enfrenta el grupo objetivo y su sociedad, así como las causas de estos
problemas (es decir, análisis del problema). Mientras más realista sea la hipótesis, mejor
será el plan del proyecto. Por tanto, los siguientes puntos son importantes: a) conexión
directa entre los elementos “si” y “entonces” (mientras mas directa, mejor), b) control de
varios problemas mediante los esfuerzos del proyecto, y c) actividades efectivas y de bajo
riesgo. Esta lógica se puede utilizar para encontrar las relaciones causales del proyecto y
225
los resultados cuando se realiza el seguimiento y las evaluaciones (consulte la Parte II,
Capítulo 1 del texto principal).
Si la lógica “si-entonces” por sí misma fuera suficiente para generar los productos
esperados, no habría necesidad de adoptar pasos posteriores. Sin embargo, como la
lógica si-entonces es el único medio que tiene el proyecto para solucionar problemas,
existe una variedad de factores externos que pueden tener un impacto sobre el proyecto.
El marco lógico identifica estos factores en la columna “Suposiciones Importantes” y
aclara el vínculo entre la lógica de las “actividades - productos - propósito del proyecto -
meta general” y las “suposiciones importantes”. Esto incluye expresar el contenido
general del plan del proyecto utilizando la lógica “si-entonces” en la siguiente relación
vinculada: si se implementa una actividad, y, además, se satisfacen las condiciones
externas que son importantes pero que el programa no puede controlar (y), entonces se
pueden obtener los productos. (La lógica para el paso “productos” - “propósito del
proyecto” - “meta general” es la misma.) Las condiciones externas son una herramienta
efectiva para la planeación y formulación del proyecto desde estas perspectivas: “¿Es
suficiente únicamente implementar el contenido del plan del proyecto?” e “Incluso si se
implementa el proyecto, ¿habrán elementos externos que obstaculicen la expresión de
los resultados?” Cuando se realiza el seguimiento o las evaluaciones, las suposiciones importantes
juegan un papel importante como meta de las encuestas. El entorno del proyecto está
cambiando siempre. Y en muchos casos, las suposiciones importantes que se
identificaron durante la formulación del proyecto tienen un impacto que excede lo
predicho en la implementación del proyecto. Aquí es importante revisar el contenido del
plan y confirmar suposiciones importantes nuevas a través del seguimiento y la
evaluación intermedia. En las evaluaciones finales y ex-post, a veces las condiciones
externas son factores que obstaculizaron el logro de las metas. Por eso, el evaluado
debe estudiar si se dio seguimiento a la presencia de dichas condiciones externas
durante la implementación del proyecto o no. Es necesario evitar que las suposiciones
importantes se manejen como puntos que confunden dónde recae la responsabilidad en
el proceso de implementación.
226
Cuadro 1-2: Composición Lógica del Marco Lógico
Definición de Cada Columna del Marco Lógico
(1) “Resumen Narrativo” e “Insumos” El resumen narrativo se compone de “actividades”, “productos”, “propósito del proyecto” y
“meta general”, e incluye elementos que se convierten en el marco de trabajo del plan del
proyecto. Un proyecto requiere de ciertos recursos como “insumos” (gente, materiales,
dinero, etc.), genera productos a través de varias “actividades” y trabaja para alcanzar
“objetivos”. Y una de las características del marco lógico es que los “objetivos” se
perciben en dos niveles: el “propósito del proyecto” y la “meta general”.
<<Meta general>>
La “meta general” es el efecto a largo plazo que se espera alcanzar mediante la
implementación de un proyecto. Cuando se planea un proyecto es necesario dedicar
suficiente atención a estudiar cómo contribuirá la meta general al tema de desarrollo (es
posible que el tema de desarrollo en sí se convierta en la meta general, dependiendo del
proyecto). La JICA percibe la meta general como “el impacto que sentirá la sociedad
objetivo de tres a cinco años después que terminó el proyecto”.
<<Propósito del proyecto>>
El “propósito del proyecto” es el efecto directo sobre el grupo objetivo (incluyendo la gente
y las organizaciones) y la sociedad que se espera alcanzar mediante la implementación
del proyecto. En el caso de la cooperación técnica, el propósito del proyecto
Resumen Narrativo
Suposición Importante
Meta General
si
Condiciones de
Sustentabilidad
Objetivo del Proyecto
entonces
si
‘”y”
Productos
si
entonces
‘”y”
‘”y” Actividades
si
entonces
Condiciones Previas
“si”
227
generalmente se alcanza al final del proyecto.9 Por tanto, el nivel de logros hacia el
propósito del proyecto es una señal que indica “si el proyecto está generando productos o
no” y “si la implementación del proyecto tuvo sentido”. Cuando los proyectos que
generan productos pero que no expresan beneficio para el grupo objetivo, la inversión de
una gran cantidad de recursos y la implementación del proyecto en sí pierden su
importancia.
<<Productos>>
Los “productos” son bienes y servicios que genera el proyecto hacia el logro del
“propósito del proyecto”. A diferencia del propósito del proyecto que indica un cambio
positivo para los beneficiarios, los productos se refieren a cuestiones que generan
aquellos que implementan el proyecto. Si observamos un proyecto que se enfoca en la
capacitación, por ejemplo, la “implementación de la capacitación” es un producto,
mientras que el propósito del proyecto será “mejoramiento de los conocimientos de los
becarios”, “aplicación de la tecnología adquirida en el sitio de trabajo”, etc.
<<Actividades e insumos >>
Los “insumos" se refieren a los recursos (personal, materiales y equipo, gastos operativos,
instalaciones, etc.) necesarios para generar los “productos” y se enumeran como los
recursos tanto de Japón como del país socio. Las “actividades” se refieren a una serie de
acciones necesarias adoptadas para generar los “productos” mediante los “insumos”, y
son acciones que implementa el equipo del proyecto en el sitio. Como el marco lógico es
una descripción general del plan del proyecto, los planes de acción detallados se
preparan por separado. Sin embargo, las actividades principales que indican la estrategia
del proyecto se enumeran en el marco lógico.
(2) “Indicadores verificables objetivamente” y “medios de verificación”
Los “indicadores verificables objetivamente” aplicables a las columnas de Productos,
Propósito del Proyecto y Meta General muestran los indicadores y valores objetivo
utilizados para medir específicamente el nivel de logro de cada una. La columna Medios
de Verificación indica claramente las fuentes de información de estos indicadores. Los
datos que se obtienen de las fuentes de información deben ser muy confiables,
accesibles y obtenerlos no debe ser demasiado caro. Con base en estas condiciones, es
importante establecer tantos indicadores y fuentes de información como sea necesario
para poder obtener tantos datos objetivos como sea posible.
9 Hay casos, dependiendo del contenido o las características del proyecto, donde no se obtienen efectos directos sino hasta cierto tiempo después que éste terminó. En un proyecto de riego, por ejemplo, no se pueden obtener cambios en la proyección del arroz hasta después que se terminaron las instalaciones de riego.
228
Los indicadores y valores objetivo se establecen en las encuestas de base y otras
actividades en la etapa de planeación. En la evaluación ex-ante, el estudio de pertinencia
de dichos indicadores, los valores objetivo y los medios para obtenerlos son parte
importante del trabajo de verificación. Los indicadores deben coincidir con el contenido
de las metas y los productos, y es importante que los medios para medirlos sean
objetivos y reproducibles (es decir, que con el mismo método se puedan obtener los
mismos tipos de datos sin importar quién hace la medición). La determinación de indicadores fáciles de entender eleva la transparencia del
proyecto y es una parte esencial de su gestión. Mediante los indicadores es posible
verificar si el proyecto se está implementando de acuerdo con el plan inicial o no (es decir,
realizar un seguimiento). Dependiendo del proyecto, tal vez sea necesario revisar los
valores objetivo iniciales debido a diversos cambios del entorno externo y de las
condiciones de implementación del proyecto. De acuerdo con esto, tal vez sea también
necesario volver a formular el contenido de los insumos, actividades y demás puntos.
(3) “Suposiciones importantes” y “Condiciones previas”
Las “suposiciones importantes” se refieren a los factores externos que el proyecto no
puede controlar, pero que pueden tener un impacto sobre el éxito o fracaso del proyecto.
Los proyectos, que se eligen de acuerdo con ciertas normas, representan una manera de
contribuir a solucionar el problema del desarrollo. Por tanto, no cubre todos los factores
necesarios para solucionar los problemas. Cuando se planean los proyectos, es
importante establecer metas que tengan las mayores posibilidades de llevarse a cabo; sin
embargo, en la realidad hay una serie de factores externos que el proyecto no puede
controlar y que también lo afectan. Es importante establecer metas y estudiar la
pertinencia de las actividades identificando éstos como “suposiciones importantes” en el
marco lógico durante la etapa de planeación. Al mismo tiempo, es importante poner
mucha atención a su impacto como punto de seguimiento durante la implementación del
proyecto. Como se indica en el Cuadro 1-3, en la columna de Suposiciones Importantes,
éstas se identifican en términos del grado de importancia para el proyecto, posibilidades
del proyecto de controlarlas, y la posibilidad de satisfacer las condiciones. Entonces se
marcan en el marco lógico como “condiciones satisfechas”. Además, si es posible, se
debe anotar en términos cuantitativos el grado en que se deben satisfacer las condiciones.
Esto facilitará la detección de cambios en las suposiciones importantes y el impacto en el
proyecto durante el seguimiento y la evaluación (por ejemplo, “80% de los maestros
entrenados conservaron su empleo”).
Aunque las “suposiciones importantes” están más allá de la responsabilidad del
proyecto, se deben adoptar todos los pasos para evitar establecerlas intencionalmente
229
como medios para evadir responsabilidades en caso que el proyecto no marche bien. Es
importante discutir las suposiciones importantes como parte de la planeación del proyecto
para determinar las actividades y metas que se deben establecer para que el proyecto
sea más efectivo y tenga menos riesgos. Las “condiciones previas” se refieren a las condiciones que se deben satisfacer
antes de implementar el proyecto. Se refieren a las condiciones que, si se satisfacen,
permitirán el inicio de las actividades (y no obstaculizarán las operaciones una vez que
inicie el proyecto).
230
Cuadro 1-3: Métodos para Determinar las Suposiciones Importantes
¿La condición es importante para el proyecto?
¿El proyecto puede controlar la condición?
¿Hay alguna posibilidad de satisfacer la condición?
¿Se puede modificar el contenido del proyecto?
Modificar partes del proyecto para que la condición no lo
afecte
No es una suposición importante
No es una suposición importante
No es una suposición importante
Es una suposición importante (incluida en el marco lógico y
se le da seguimiento)
1. Peor suposición: el proyecto no tendrá éxito
NO
SI
Casi es un hecho
NO
Es probable, pero no es
seguro
231
Material Anexo II: ¿Qué es la Evaluación Participativa?10 La “evaluación participativa” es un método de evaluación que ha atraído considerable atención desde la década de los 70. Es un medio para elevar la calidad de los resultados de evaluación mediante la “participación” de las principales partes interesadas en un proyecto en la evaluación. La teoría y método de este tipo de evaluación varía grandemente de acuerdo con los propósitos y procesos que se desean enfatizar en la evaluación.11 Aunque la definición de evaluación participativa difiere dependiendo de la agencia de asistencia, una filosofía común en el campo de la asistencia para el desarrollo es que se trata de 1) una evaluación que se realiza conjuntamente con las personas interesadas, incluyendo los residentes locales que son los beneficiarios, y 2) es una evaluación donde una amplia gama de personas participan de manera activa en todos los procesos - desde el diseño de la evaluación hasta la recopilación y análisis de la información y la retroalimentación de los resultados de la evaluación. Sin embargo, el alcance de las personas interesadas con el proyecto y el grado de participación difieren dependiendo de la agencia de asistencia y del proyecto. Con estas características, las evaluaciones participativas difieren en términos de metodología de las evaluaciones convencionales, donde los expertos en evaluación y ciertos equipos de expertos realizan las investigaciones. En las evaluaciones participativas, las personas que emiten los juicios de valor son las mismas partes interesadas; el método de evaluación (incluyendo las normas de evaluación), la encuesta de evaluación y la conclusión de los resultados de la evaluación se realizan mediante el consenso de todos los interesados. Este proceso vinculado conduce al incremento de la capacidad entre los interesados y tiene un impacto positivo sobre operaciones posteriores. Por tanto, los expertos en evaluación en la evaluación participativa descartan el papel tradicional de “asesor”. En su lugar adoptan los papeles de convocadores de juntas, proveedores de oportunidades, auxiliares, catalizadores y apoyo. Los evaluadores actúan como auxiliares brindando apoyo lateral que permite a las partes interesadas realizar la evaluación. Las evaluaciones participativas no funcionan bien si no es hasta que se incorpora dicha “participación” en la etapa de evaluación. Esto se debe a que es difícil que las partes interesadas compartan el sentido de la importancia de la evaluación participativa si no están involucradas también en los procesos de planeación e implementación. En el ejercicio fiscal del 2000, el Instituto de Cooperación Internacional emitió un informe titulado “Basic research on participatory evaluation” [Investigación básica sobre la evaluación participativa], que define y explica este tipo de evaluación como la JICA la lleva a cabo de la siguiente manera.
Evaluación participativa según la JICA
La “evaluación participativa” es una evaluación que se lleva a cabo con la mayor participación posible de una amplia variedad de partes interesadas (incluyendo los
10 Materiales de referencia: - Instituto de Cooperación Internacional, Agencia de Cooperación Internacional del Japón:
Participatory Evaluation and International Cooperation [Evaluación Participativa y Cooperación Internacional] (2001)
- Cousin, J.B. y Whitmore, E.: Framing Participatory Evaluation, Understanding and Practicing Participatory Evaluation, New Direction for Evaluation, [Construcción de la Evaluación Participativa, Conocimiento y Práctica de la Evaluación Participatica, Nueva Dirección de la Evaluación] American Evaluation Association [Asociación Norteamericana de Evaluación], Jossey Bass, San Francisco; págs. 5 – 23
11 Entre los ejemplos podemos mencionar “Stakeholder-based Evaluation” [Evaluación con base en las Partes Interesadas], “Democratic Evaluation” [Evaluación Democrática], “Utilization-focused Evaluation” [Evaluación por Uso] y “Empowerment Evaluation” [Evaluación del Empoderamiento]
232
beneficiarios finales). Esta participación está incluida en actividades tales como la preparación de los planes de evaluación; abastecimiento, recopilación y análisis de información; y modificación de los planes iniciales del proyecto. Aquí “evaluación” no se refiere únicamente a las evaluaciones realizadas al término de los proyectos, sino también a las evaluaciones ex-ante, el seguimiento durante la implementación del proyecto, las evaluaciones finales y las evaluaciones ex-post.
Cuando la JICA implementa las evaluaciones participativas tiene por objetivo
obtener los siguientes efectos: - Aumento de la capacidad de gestión - Fortalecimiento de la conciencia de la iniciativa propia - Retroalimentación más efectiva - Rendición de cuentas mejorada
233
Material Anexo III: ¿Qué es la medición de Resultados?12 (1) Antecedentes detrás de la Medición de Resultados En palabras sencillas, la medición de los logros es “la medición regular de los efectos finales y eficiencia de la política pública y los programas públicos (en adelante los ‘programas’. En japonés se le conoce con términos tales como gyoseki kanshi (supervisión de resultados), jimu-jigyo hyoka (evaluación de la operación) y jisseki hyoka (evaluación de resultados).
La teoría detrás de la medición de resultados fue desarrollada por Harry P. Hatry y Joseph S. Wholey del Urban Institute (Instituto Urbanista), organización que analiza los asuntos sobre política norteamericana, entre otros. Ellos concluyeron que en la evaluación de programas a gran escala mediante el método de diseño experimental,13 que se utilizaba en EU para evaluar las políticas en esa época, no era posible tener los resultados de la evaluación dentro del límite de tiempo que requieren quienes hacen las políticas y quienes implementan el proyecto en el sitio. Con esto en mente, añadieron a la evaluación de programas un aspecto de gestión administrativa con base en la “nueva administración pública”, y luego investigaron y desarrollaron el marco de trabajo para la medición de resultados, que combina una evaluación más sencilla con una acción administrativa mejorada. La medición de resultados permite la implementación oportuna de evaluaciones a bajo costo, así como la generación de resultados de la evaluación que son fáciles de entender tanto para los contribuyentes como para las agencias de implementación de proyectos. Esto conduce a una mejor acción administrativa. (2) Características y beneficios de la Medición de Resultados En la medición de resultados se definen claramente los efectos finales de un programa, y se mide el grado en que los objetivos numéricos iniciales se ha alcanzado mediante el establecimiento de indicadores que determinan resultados y objetivos numéricos. Estos indicadores y objetivos se miden regularmente y el resultado de la medición se refleja en el mejoramiento del proyecto y en la toma de decisiones. La gestión basada en los marcos de trabajo lógicos que introdujeron la JICA y otras agencias de asistencia también tienen su base en la filosofía detrás de la medición de resultados.
La parte novedosa de la medición de resultados radica en que: agrega a la medición de evaluación tradicional, que se centraba únicamente en los insumos (tales como los gastos) y los productos, una medición con énfasis en los beneficios y efectos finales para los beneficiarios y clientes (quienes expresan los resultados de la implementación del programa). 14 De la misma manera, al observar la eficiencia, la medición de resultados no toma en cuenta la relación entre insumos y productos, sino que se centra en el efecto final. Por ejemplo, en lugar de calcular el costo necesario para implementar una clase que ayude a la gente a dejar de fumar y luego calcular la eficiencia, la medición de resultados observa la eficiencia estudiando el costo de la inversión por cada participante en la clase que realmente ha dejado de fumar. En otras palabras, la eficiencia de la implementación del programa se debe ver como la relación con el beneficio que se expresa a través de la implementación del proyecto.
Otra característica de la medición de resultados es la medición común. Mientras que desde el punto de vista del manejo del presupuesto es suficiente implementar
12 Materiales de referencia: - Hatry, H.P.: Performance Measurement: Getting Results [Medición de Resultados: Cómo Obtener
Resultados], Urban Institute, Washington D.C. (1999) - Sasaki, R. y Nishikawa- Sheikh, N.: “Current Development and Prospects of Performance
Measurement” [Desarrollo Actual y Prospectos de la Medición de Resultados] The Japanese Journal of Evaluation Studies, Vol. 1, No. 2 (2001); págs. 45 - 52
13 “Evaluación del programa” en este contexto se refiere a la evaluación de políticas públicas, programas públicos, etc. 14 Las definiciones de los diversos elementos de los programas (impacto, actividad, producto y efecto final) son las mismos que se presentan en el modelo lógico en el texto principal (consulte la Parte II, Capítulo 1).
234
verificaciones aproximadamente una vez al año, se requieren verificaciones frecuentes para determinar si determinadas acciones administrativas están teniendo éxito o no, dónde están los problemas, y si se están generando resultados finales o no. Esto con el fin de incitar a las partes interesadas a dar pasos hacia el mejoramiento del proyecto. Por tanto, la medición de resultados se aplica fácilmente cuando se realizan evaluaciones que sólo observan los cambios dentro de la región objetivo, sin los “grupos comparativos” que tipifican al método de diseño experimental. Además, como incluye la medición común de indicadores desde los períodos previos al proyecto hasta los posteriores a éste, permite una retroalimentación rápida de los resultados.
Estas características hacen que la medición de resultados sea apropiada para los proyectos que brindan servicios públicos. Esto se debe a que en los servicios públicos es necesario verificar constantemente la calidad de los beneficios que reciben los clientes y beneficiarios y la eficiencia de dichos beneficios. Sin embargo, la medición de resultados no es muy adecuada para el sector de investigación básica o los proyectos que requieren de una planeación a largo plazo. (3) Limitaciones y puntos que se deben recordar Existen tres limitaciones y puntos que se deben recordar en relación con la medición de resultados. Primero, como recopila datos únicamente de la región objetivo de un programa sin utilizar grupos de comparación, es difícil verificar las relaciones causales con el programa. En otras palabras, no se puede ignorar el impacto de elementos externos sobre el programa. Además, si sólo se percibe el nivel de logros del efecto final, es imposible identificar las razones por las que se alcanzó dicho nivel, lo que dificulta el diseño de estrategias para mejorar el programa. Ya se señaló que para contrarrestar estas limitaciones lo más posible cuando se realiza la medición de resultados, es necesario proporcionar suficientes detalles alrededor de la implementación del proyecto y explicaciones de los datos del efecto final.
Segundo, hay casos en que no es posible medir directamente los efectos finales. Uno, por ejemplo, es la medición de la reducción de puntos indeseables, tales como la reducción de la criminalidad o del consumo de drogas. En casos como éstos, es necesario medir los cambios en el número de incidentes y desarrollar indicadores substituto que puedan captar la “reducción de la criminalidad” identificando las tendencias.
Tercero, la información de evaluación que ofrece la medición de resultados es tan sólo una parte de la información utilizada en la toma de decisiones y no es una información que pueda afectar directamente los procesos de toma de decisiones sobre la distribución del presupuesto, el personal, etc. El objetivo principal de la medición de resultados es “plantear preguntas”, no presentar contramedidas o soluciones.
Aunque hay varias aplicaciones de la gestión de resultados, el método de evaluación que utiliza la USAID (Agencia Norteamericana para el Desarrollo Internacional) de los Estados Unidos representa una aplicación que se combina con los métodos de evaluación tradicional. Desde 1994, la USAID ha estado implementando la medición de resultados en todos sus programas. Al mismo tiempo, ha estado haciendo una lista de programas extremadamente exitosos y de programas fallidos, realizando evaluaciones tradicionales de dichos programas e identificando cursos de acción utilizando el análisis detallado para buscar las causas. Éste es un ejemplo de la medición de resultados de bajo costo y fácil implementación combinada con evaluaciones detalladas muy costosas, y está recibiendo atención como un método para utilizar los presupuestos de evaluación de manera efectiva.
235
Material Anexo IV: Bibliografía (** Aquí se enumeran los libros y materiales en inglés. Por favor consulte los ‘Lineamientos para la Evaluación de Proyectos de la JICA - edición japonesa’ para información sobre los libros y materiales de referencia en japonés. Teorías Generales de Evaluación
Evaluation: a systematic approach [Evaluación, un enfoque sistemático], 6a ed. Rossi, Peter H., Reeman, Howard E., y Lipsey, Mark W., Sage Publications, 1999
Evaluation [Evaluación], 2a ed. Weiss, Carol H., Prentice-Hall, 1998
Handbook of Practical Program Evaluation [Manual de Evaluación Práctica de Programas] Wholey, J.S., Hatry H.P. & K.E. Newcomer, Jossey-Bass, 1997
Evaluation for the 21st Century: A Handbook [Evaluación para el Siglo 21: Un Manual]
Chelimsky, E. y Shadish W.R., Sage Publications, 1997 Evaluation Thesaurus [Diccionario de Evaluación] 4a ed.
Scriven, M., Sage Publications, 1991 Evaluability Assessment: Developing Program Theory [Valoración de la
Evaluabilidad: Desarrollo de la Teoría de Programas] Wholey, J.S., Jossey-Bass, 1987
Theory-Driven Evaluation [Evaluación con Base en la Teoría] Chen, Huey-Tsth, Sage Publication 1990
Utilization-Focused Evaluation [Evaluación Dirigida al Uso], Patton M.Q., The New Century Text [El Texto del Nuevo Siglo], 3a edición, Sage
Publications, 1997 Método de Evaluación de las Agencias de Asistencia
JICA - Lineamientos de la Evaluación de Proyectos de la JICA
Oficina de Evaluación, Departamento de Planeación y Evaluación, Japan International Cooperation Publishing Co., Ltd., 2002
- Página Web de Evaluación http://www.jica.go.jp/evaluation/index.html Ministerio de Asuntos Exteriores (Japón)
- Página Web de la AOD http://www.mofa.go.jp/policy/oda/index.html JBIC
- Informes de Evaluación Ex-Post - http://www.jbic.go.jp/english/oec/post/index.php-
DAC Glosario de los Principales Términos sobre Evaluación y Gestión Basada en Resultados del DAC, OCDE, 2002
- http://www.idcj.or.jp/JES/DACyougoshu0214.pdf - ADB
- Lineamientos para la Preparación de los Informes de Auditoria de los Resultados de un Proyecto (http://peo.asiandevbank.org/Documents/Guidelines/P.par/dpc)
- Página Web http://www.peo.asiandevbank.org/ AusAID
- Página Web de Evaluación http://www.ausaid.gov.au/about/pia/Quality_Assurance_Page.cfm
CIDA - CIDA Evaluation Guide [Guía de Evaluación de la CIDA], Jan.2000 - Asian Branch: A Guide for Self-Assessment and Monitoring [Oficina Asiática: Guía
para la Auto-Evaluación y el Seguimiento], Ene. 2000. DANIDA
- Evaluation Guidelines [Lineamientos de Evaluación] – Febrero 1999 (2a edición, revisada 2001)
236
- http://www.um.dk/danida/evalueringsrapporter/eval-gui/index.asp - - Página Web de Evaluación http://www.um.dk/danida/evalueringer/
EC - Evaluation in the European Commission: A Guide to the Evaluation Procedures and
Structures Currently Operational in the Commission’s External Co-operation Programmes [Evaluación en la Comisión Europea: Una Guía hacia los Procedimientos y Estructuras de Evaluación Actualmente en Uso en los Programas de Cooperación Exterior de la Comisión]
http://europa.eu.int/comm/europeaid/evaluation/methods/guidelines_en.pdf - Página Web de Evaluación
http://europa.eu.int/comm/europeaid/evaluation/methods/index.htm GTZ
- Project Monitoring: An Orientation for Technical Cooperation Projects [Seguimiento de Proyectos: Una Orientación sobre los Proyectos de Cooperación Técnica], 1998.
UNICEF - A UNICEF Guide for Monitoring and Evaluation: Making a Difference [Guía de la
UNICEF sobre Seguimiento y Evaluación: Para Hacer la Diferencia], 1991 - Página Web de Evaluación http://www.unicef.org/reseval/
USAID - Performance Monitoring and Evaluation TIPS [CONSEJOS sobre Seguimiento y
Evaluación de Resultados] http://www.usaid.gov/pubs.usaid_eval/#02
http://www.dec.org/partners/eval.cfm Banco Mundial
- Assessing Development Effectiveness: Evaluation in the World Bank and the International Finance Corporation [Evaluación de la Efectividad del Desarrollo: Evaluación en el Banco Mundial y en la Corporación Financiera Internacional],1998.
- Página Web de Evaluación http: //www.worldbank.org/html/oed/evaluation OCDE DAC - Página Web de Evaluación http://www.oecd.org/dac/Evaluation/index.htm - Red de Evaluación del DAC http://www.oecd.org/dac/Evaluation/htm/evallinkmem.htm - Cinco Criterios de Evaluación del DAC http://www.oecd.org/dac/Evaluation/htm/evalcrit.htm The United States General Accounting Office
Evaluation Research and Methodology [Investigación y Metodología de la Evaluación] Páginas Web de Evaluación de las Siguientes Agencias de Asistencia
-IFAD http://www.ifad.org/evaluation/index.htm -UNDP http://undp.org/eo/index.htm - UNFPA http://www.unfpa.org/publications/evaluation/index.htm -UNHCR http://www.unhcr.ch/evaluate/main.htm -FAO http://www.fao.org/pbe/
Páginas Web de las Asociaciones de Evaluación - Japan Evaluation Society [Sociedad de Evaluación del Japón] http://www.idcj.or.jp/JES - American Evaluation Association [Asociación Norteamericana de Evaluación] http://www.eval.org/ Método de Evaluación << Marco de Trabajo Lógico >>
Program Logic: An Adaptable Tool for Designing and Evaluating Programs [Lógica del Programa: Una Herramienta Adaptable para Diseñar y Evaluar Programas] Funnell, S. Evaluation News y Commnet, Vol.6 (1). págs 5-7
Program Theory in Evaluation: Challenges and Opportunities [Teoría de Programa en la Evaluación: Retos y Oportunidades]
237
New Directions for Evaluation [Nuevas Direcciones de Evaluación], No.87, Jossey Bass
<< Medición de los Resultados >> Performance Measurement: Getting Results [Medición de los Resultados: Cómo
Obtener Resultados] Hatry, H.P., Urban Institute, 2000
Clarifying Goals, Reporting Results [Aclarando Metas, Dando a Conocer Resultados] Wholey, J.S. y Newcomer, K.E., In Katherin Newcomer, Using Performance Measurement to Improve Public and Nonprofit Programs [Uso de la Medición de Resultados para Mejorar los Porgramas Públicos y No Lucrativos], New Direction for Evaluation [Nueva Dirección de Evaluación], 1997
<< Método de Diseño Experimental >> Social Experimentation [Experimentación Social], Sage Classics 1
Campbell, D.T. y Russo, M.J., Sage Publications, 1999 Quasi-experimentation: Design and analysis issues for field settings [Semi-
experimentación: Diseño y análisis de temas para el ambiente de campo] Cook, T.D. y Campbell, D.T., Rand McNally, 1979
<< Evaluación Cualitativa >> Qualitative Research & Evaluation Methods [Investigación Cualitativa y
Métodos de Evaluación] Patton, M.Q., Sage Publications, 2002
Qualitative Data Analysis: An Expanded Sourcebook [Análisis Cualitativo de Datos: Un Libro de Consulta Expandido] (2a ed.) Miles, M.B. y Huberman, A.M., Sage Publications, 1994
<< Estudio de Caso >> The Art of Case Study Research [El Arte de la Investigación del Estudio de
Caso] Stake, R. E., Sage Publications, 1995
Case Study Research [Investigación del Estudio de Caso] Yin, R.K., Sage Publications, 1984
<< Evaluación del Programa de Desarrollo >> Monitoring and Evaluating Social Programs in Developing Countries: A
handbook for policy makers, managers, and researchers [Seguimiento y Evaluación de Programas Sociales en los Países en Vías de Desarrollo: Un manual para quienes hacen las políticas, gerentes e investigadores]
Valadez, J. y Bamberger, M., Banco Mundial, 1994 Evaluating Country Development Policies and Programs: New Approaches for a
New Agenda [Evaluación de las Políticas y Programas de Desarrollo de los Países: Nuevos Enfoques para una Nueva Agenda] New Directions for Evaluation [Nuevas Direcciones de Evaluación], No. 67, Jossey-Bass
<< Evaluación Participativa >> Foundation of Empowerment Evaluation [Bases de la Evaluación del
Empoderamiento] Fetterman, D.M., Sage, 2001
Participatory Evaluation in Education; Studies in Evaluation Use and Organizational Learning [Evaluación Participativa en la Educación; Estudios del Uso de la Evaluación y el Aprendizaje Organizativo] Cousins, J.B. y Earl, L.M., Falmer, 1995
Partners in Evaluation: Evaluating Development and Community Programs with Participants [Socios en la Evaluación: Evaluación de los Programas para el Desarrollo y Comunidades con Participantes] Feuerstein, M.T., MacMillan, 1986
Evaluating the Arts in Education: A Responsive Approach [Evaluación de las Artes en la Educación: Un Enfoque Responsivo] Stake, R. E., Merrill, 1975
Participatory Evaluation and International Cooperation [Evaluación Participativa y Cooperación Internacional]
238
Institute for International Cooperation [Instituto de Cooperación Internacional], JICA, 2001 << Evaluación Organizativa >>
Self-Assessment Tools for Nonprofit Organization [Herramientas de Auto-Valoración para la Organización no Lucrativa]
Druchker, P.F.Foundation, Joseey-Bass, 1993 << Paquete de Evaluación >>
Program Evaluation Kit [Paquete de Evaluación de Programas], 2a Ed., Sage Publications, 1987 1) Evaluator’s Handbook [Manual del Evaluador] 2) How To Focus An Evaluation [Cómo Enfocar una Evaluación] (Stecher B.M. y
Davis W.A.) 3) How To Design A Program Evaluation [Cómo Diseñar un Programa de
Evaluación] (Fitz-Giboon C.T. y Morris L.L.) 4) How to Use Qualitative Methods in Evaluation [Cómo Utilizar los Métodos
Cualitativos en la Evaluación] (Patton M.Q.) 5) How to Assess Program Implementation [Cómo Evaluar la Implementación del
Programa] (King J.A., Morris L.L. y Fitz-Gibbon C.T.) 6) How to Measure Attitudes [Cómo Medir las Actitudes] (Henerson M.E., Morris L.L.
y Fitz-Gibbon C.T.) 7) How to Measure Performance And Use Tests [Cómo Medir los Resultados y
Utilizar las Pruebas] (Morris L.L, Fitz-Gibbon C.T. y Lindheim E.) 8) How to Analyze Data [Cómo Analizar los Datos] 9) How to Communicate Evaluation Findings [Cómo Comunicar los Resultados de la
Evaluación] (Morris L.L, Fitz-Gibbon C.T. y Freeman M.E.) Técnicas de Evaluación
<< Discusión de los Grupos de Control >>
The Power of Focus Groups for Social and Policy Research [El Poder de los Grupos de Control para la Investigación Social y de Políticas] Billson, J., Skywood Press, 2002
Focus Groups [Grupos de Control] 3a ed. Krueger, R.A. y Casey, M.A., Sage Publications, 2000
<< Análisis Estadístico >> Practical Sampling [Muestreo Práctico]
Henry, G., Sage Publications, 1990 Statistical Methods in Education and Psychology [Métodos Estadísticos en
Educación y Sicología] 3a ed. Glass, G. & Hopkins, K., Allyn y Bacon, 1996
Design Sensitivity: Statistical Power for Experimental Research [Sensibilidad de Diseño: Poder Estadístico de la Investigación Experimental] Lipsey, M. W., Sage Publications, 1990
<< Investigación de Calidad - Metodología de Entrevistas, Grupo de Control y Observación>>
Qualitative Forschung [Investigación Cualitativa] Flick U., Rowohlt Taschenbuch Verlag GmbH, 1995
Qualitative Research in Health Care [Investigación Cualitativa en la Atención a la Salud], 2a ed. Pope C. & Mays N., BMJ Books, 2000-
Silverman, David, Doing Qualitative Research: Practical Handobook [Investigación Cualitativa: Manual Práctico] Sage Publication 2000
Diarios
Japan Evaluation Research: Japan Evaluation Society [Investigación de Evaluaciones del Japón: Sociedad de Evaluación del Japón]
American Journal of Evaluation: The American Evaluation Association [Diario Norteamericano de Evaluación: La Asociación Norteamericana de Evaluación]
239