You are on page 1of 7

Definiciones:

 Política: marcos básicos, puntos focales.


 Plan: es un procedimiento sistemático con una pretensión temporal.
 Planificación: es un plan metódicamente organizado.
 Estrategia: método a utilizar.

El proceso de planificación:

1. Formulación: se elabora lo que será la intervención


2. Implementación: se pone en marcha el programa o proyecto
3. Evaluación: se juzga la planificación y el proceso

Características ideales de un plan

 Temporalidad
 Sostenibilidad
Dimensiones de sostenibilidad:
- Institucional
- Organizacional
- Financiera
 Coherencia interna
 Intersectorialidad
 Evaluable
 Equidad
 Participación
 Un plan no tiene sentido si no tiene una parte operacional.
 El programa es la acción, el proyecto es la obra física.

Diferencias:

Ciclo de vida de un proyecto 

Un proyecto es un esfuerzo temporario

que realizar para generar bienes o servicios

para concretar un objetivo determinado.

EVALUACIÓN

1. Entender el propósito de evaluar.


2. Diferenciar entre el seguimiento ("monitoreo") de programas y la valoración de su impacto; los objetivos y
aplicaciones de estas dos actividades.
3. Entender el propósito de los indicadores y los factores involucrados en la selección de los indicadores.
4. Obtener una visión general de las diferentes fuentes de datos que pueden ser utilizadas en la evaluación.
5. Adquirir criterios para la selección de un enfoque metodológico apropiado para diseños de evaluación.

DEFINICIÓN DEL ALCANCE DE UNA EVALUACIÓN

1) Establecimiento de los objetivos

Tipos Alternativos de Evaluación: Existen diferentes tipos de evaluación, cada uno con un propósito distinto. Al diseñar
una estrategia de evaluación, el evaluador necesita identificar la(s) pregunta(s) clave(s) que desea responder y el tipo de
evaluación que le corresponde realizar. Es de vital importancia saber diferenciar claramente entre el seguimiento
("monitoreo") de un programa y la valoración de su impacto. El seguimiento de un programa lidia con preguntas del
tipo: ¿cambió algo? Sin embargo, si no se hace la valoración del impacto, no se puede contestar la pregunta: ¿cambió
algo gracias al programa?

Propósitos del seguimiento ("monitoreo") de programas

El seguimiento consiste en técnicas de evaluación, para medir algún aspecto del desempeño del programa. El
seguimiento de programas tiene dos propósitos principales:

1) mejorar los programas identificando aquellos aspectos que están funcionando de acuerdo al plan y aquellos que
requieren correcciones a mitad del curso.

2) Rastrear los cambios en los servicios ofrecidos (productos de los servicios) y los resultados deseados.

El seguimiento incluye la medición de la situación vigente y el cambio a través del tiempo en cualquier componente del
programa y en ciertos aspectos de la población.

A nivel del programa: Insumos: suministros, personal administrativo y fondos para la implementación. Productos:
capacitación, acceso, calidad y utilización.

A nivel de la población: Productos: (por ejemplo, tasas de mortalidad perinatal, mortalidad materna)

Idealmente, el seguimiento y control de programas incluye técnicas de investigación cuantitativas y cualitativas. La


recolección de datos puede incluir cualquiera de las técnicas estándar usadas en la investigación de las ciencias sociales
(encuestas, "grupos focales", entrevistas en profundidad, observación, informantes clave, etc.), además del análisis de
datos del programa (por ejemplo, estadísticas de los servicios). Las evaluaciones pueden ser completas, cubriendo una
gran variedad de temas o concentrarse en un solo tema.

Propósitos de la valoración del impacto

El propósito de la valoración del impacto es medir el grado de cambio atribuible a un determinado programa o
intervención. A diferencia del seguimiento y control de programas, que simplemente rastrea el cambio, la valoración del
impacto aborda la cuestión de la causalidad.

2) Un esquema del alcance

Es importante presentar en forma escrita lo que se va a evaluar. Esta descripción del alcance de la evaluación debería
incluir:

• Metas y objetivos del programa


• Marco conceptual que muestre los enlaces entre insumos, procesos, productos y resultados
• Objetivos de la evaluación
- seguimiento y control de programas
- valoración del impacto

Tipos de evaluación

Según el momento en el que se evalúa, según el papel o función que cumple la evaluación, según la procedencia de los
evaluadores y según los aspectos del programa que son objeto de evaluación, varían los tipos.

Según el momento en que se evalúa:

 Evaluación antes (o ex antes) se realiza antes de tomar la decisión de emprender un programa o proyecto, o de
aprobar su realización. Se hace en la fase de diseño del programa. Consiste en evaluar el programa o proyecto en
si mismo mediante la estimación critica de su pertinencia, viabilidad y eficacia potencial, con el fin de proporcionar
criterios racionales sobre la conveniencia o no de llevar a cabo el proyecto o programa. Comporta tres aspectos
principales:
- Pertinencia del proyecto con la realidad: establecer coherencia entre las soluciones que se proponen y la
realidad que se pueden modificar.
- Coherencia y congruencia internas: se interesa en evaluar la organización y unidad dentro del proyecto, para
lo cual se examina su viabilidad y coherencia entre medios/recursos y objetivos, objetivos generales,
específicos y metas, diagnóstico y proposiciones.
- Rentabilidad económica de las diferentes acciones para alcanzar los objetivos.

 Evaluación durante la ejecución  evaluación continua, se realiza durante la fase de ejecución, suministrando
información sobre la marcha del programa con una ponderación de resultados. Su objetivo es evaluar los cambios
situacionales; establecer en qué medida se está cumpliendo y realizando el programa. La evaluación continua se
diferencia del control porque esta proporciona también un juicio sobre los supuestos en que se apoya la ejecución
del programa. Permite adoptar dos tipos de decisiones:
- Continuar o no con el programa.
- Establecer si se mantiene la formulación inicial o se redefinen los objetivos.

 Evaluación ex- post: Se realiza una vez que el programa o proyecto ha finalizado. Se diferencia de la evaluación de
fin de proyecto en que esta se realiza una vez concluida la fase de ejecución mientras que la evaluación ex post se
realiza cuando el programa o proyecto ha alcanzado su pleno desarrollo (meses o incluso años de finalizada la
ejecución). Entrega información sobre ejecución, funcionamiento y resultados o efectos del programa. Ambas
evaluaciones mencionadas tienen la finalidad de:
- Valorar el logro de los resultados generales en términos de eficiencia, productos, impactos, efectos.
- Obtener enseñanzas y experiencias.

Según la función que cumple la evaluación

 La evaluación sumativa; estudio de los resultados o efectos del programa. hasta qué punto cumplen los
objetivos o se producen los efectos previstos, ya terminado el programa, investiga los efectos con la necesidad
de los beneficiarios.
 Evaluación formativa: Hace referencia al seguimiento que se realiza durante el proceso de ejecución de un
programa. Proporciona información acerca de como se desarrolla dicho proceso.

Según la procedencia de los evaluadores

 Evaluación externa: recurre a evaluadores que no pertenecen ni están involucrados con la institución ejecutora
del programa o proyecto.
 Evaluación interna: Se realiza con la participación como evaluadores de personas que pertenecen a la institución
promotora o gestora del programa o proyecto a evaluar.
 Evaluación mixta: Combinación de las anteriores; evaluadores internos y externos.
 Autoevaluación: Las actividades evaluativas está a cargo de los que ejecutan el programa o proyecto.

La ventaja de la evaluación interna es el mayor conocimiento y familiaridad de lo que se va a evaluar, pero tienen la
desventaja de que consciente o inconscientemente traten de resaltar solo lo bueno además de los riesgos en caer en
la subjetividad en lugar de la objetividad.

Los evaluadores externos tienen la ventaja de ser objetivos, pero tienen la desventaja de no captar todo lo que esta
implicado en el programa.

Según los aspectos del programa que son objeto de evaluación

Las evaluaciones proporcionadas distinguen diez áreas de evaluación, siete de ellas se refieren a la coherencia interna
del programa y las otras tres a la coherencia externa.

Dependiendo de los autores existirán diversos tipos de evaluación, por ejemplo, de diseño, costos, resultados,
implementación, etc.

La propuesta concreta, a la hora de clasificar los tipos de evaluación según los aspectos a evaluar son:

 Evaluación del diseño y conceptualización del programa: evalúa básicamente un trabajo de gabinete por el que
se juzga la pertinencia formal y potencial de un programa. Comporta tres aspectos:
- Evaluación del estudio- investigación
- Evaluación del diagnostico
- Evaluación del diseño y concepción del programa.
 Evaluación de instrumentación y seguimiento del programa: Evalúa como esta funcionando un programa de
intervención, puede ser global o de ciertos aspectos del programa. Comprende varios aspectos:
- Evaluación de la cobertura: pretende cubrir una determinada área de actuación (a los destinatarios). 1.- la
población conoce el programa, 2.- el programa es accesible, 3.- el programa es aceptado por la población.
- Evaluación de la implementación: Implementar lo programado, prever los instrumentos necesarios para
llevar a cabo lo que se debe realizar. Se debe establecer si los instrumentos son; necesarios, suficientes,
idóneos, potentes y eficaces.
- Evaluación del ambiente organizacional en que se desarrolla el programa: Valorar hasta qué punto la
organización responsable del programa favorece o dificulta la realización de este en aspectos estructurales o
funcionales.
- Evaluación del rendimiento personal: consiste en medir la capacidad, competencia y habilidad de un
individuo para efectuar determinadas actividades o tareas, su actitud y motivaciones, capacidad de aplicar
conocimientos, capacidad de organización y solución del trabajo.
 Evaluación de la eficacia (resultados) y eficiencia (rentabilidad): consiste en analizar en qué medida se están
alcanzando los resultados previstos, y cual es el impacto.
 Evaluación de la eficiencia o rentabilidad económica del programa: Se tiene en cuenta el coste del programa en
relación a los resultados que se han obtenido. Se analiza el conste final, de utilidad, de beneficio.

CAUSAS DE FRACASOS

 Determinación de objetivos inadecuados o incorrectos.


 Visión “ligera” del alcance de la intervención.
 Fallas en el planeamiento y control.
 Falta de capacidad de la organización para soportar el desarrollo del proyecto.
 Problemas de liderazgo del grupo de proyecto.
 Problemas con agentes, políticos, administrativos y proveedores.
 Fallas metodológicas.
 Fallas de los recursos (humanos, tiempo).
 Errores en la cuantificación del proyecto (presupuesto).
 Incapacidad para comunicarse con la comunidad de usuarios e involucrados.
 Conflictos humanos dentro del grupo proyecto.
 Requerimientos incorrectos e incompletos.

ASPECTOS CLAVES

 Seguir las fases del ciclo de vida.


 Análisis actores – interesados.
 Posicionamiento de la organización.
 Manejo de perfiles humanos y técnicos del equipo de proyecto.
 La influencia socioeconómica de la intervención y la continuidad una vez concluido el proyecto.

SEGUIMIENTO (MONITOREO) DE PROGRAMAS

1. Identificación de los elementos que deben tener seguimiento: La decisión sobre cuáles componentes de un
programa deben tener seguimiento depende, en parte, del propósito primario de la evaluación: mejorar el
programa, rastrear los resultados o ambos. Para el administrador del programa, no se trata de "uno u otro",
requiere ambos.
El seguimiento de programas emplea tanto las técnicas cuantitativas como cualitativas.
No es práctico intentar una evaluación detallada de TODOS los aspectos del programa. Más bien, es importante
priorizar aquellos puntos para los cuales la información será más útil para la organización y crucial para el éxito
del programa.
Las actividades de evaluación son generalmente escalonadas. Algunas pueden ser realizadas de rutina (por
ejemplo, recolección e informes de estadísticas de servicios), otras sobre una base periódica (por ejemplo,
simulaciones y encuestas de observadores incógnitos para valorar la calidad de la atención) y otras consisten en
un solo ejercicio.
2. Indicadores: miden diferentes aspectos de un programa: los insumos, los procesos, los productos y los
resultados. A un indicador se le puede asignar un valor numérico (porcentaje, promedio, una jerarquía, valor
absoluto) o un valor de sí/no (por ejemplo, "presencia" versus "ausencia"). Para una evaluación, se deben
priorizar los indicadores con base en objetivos específicos del programa y seleccionar un conjunto manejable de
indicadores para satisfacer las necesidades puntuales de la situación.
Los buenos indicadores tienen ciertas características importantes.
- Validez. ¿Mide el indicador lo que se supone que debe medir?
- Debe tener una conexión cercana, o al menos defendible a la intervención.
- La confiabilidad, se refiere al grado de error de medición aleatorio en un indicador. El error de medición
puede surgir de un error de muestreo, un error de no muestreo o una medición subjetiva del indicador.

Factores que afectan la selección de indicadores


• La disponibilidad de datos requeridos para medir el indicador
• Cantidad de tiempo dedicado a la evaluación
• Apoyo financiero disponible para la evaluación
• Requisitos de las agencias donantes

3. Fuentes de datos: La evaluación de los programas normalmente comprende datos a nivel de población y de
programa. Al diseñar la evaluación, es esencial hacer un inventario de los datos existentes y de la recolección de
datos adicionales que son necesarios para dar respuesta a las preguntas de evaluación que se van a estudiar.

VALORACIÓN DEL IMPACTO

1) Visión de conjunto:

Cada vez se concentra más la atención de la evaluación en el efecto final de los programas, o sea, en el impacto
de los programas o las intervenciones. La medición del impacto comprende más que el mero seguimiento de los
cambios en los indicadores de resultados, requiere una evidencia empírica de que un cambio observado en los
indicadores de resultados es atribuible a un determinado programa o intervención. En otras palabras, requiere
evidencia de que el programa o la intervención evaluada ha causado el cambio. Las decisiones sobre cómo
debería medirse el impacto del programa se deben hacer en la etapa del diseño o del planeamiento de los
programas o nuevos ciclos de programas, porque es solo en esta etapa que se tienen disponibles todas las
opciones.

2) Criterios para guiar la selección del enfoque metodológico

Al valorar los diversos métodos, el evaluador debe considerar los siguientes criterios:

- Riesgos de perjudicar la validez: el criterio más importante para valorar un método es la validez de sus
estimaciones del impacto del programa. Aunque todos los métodos son vulnerables a algunos riesgos a la
validez, varían considerablemente en términos del número y tipos de riesgos (por ejemplo, riesgos de
confusión) a las cuales están sujetos.
- Habilidad para aislar los efectos del programa: idealmente, las medidas del impacto del programa incluyen
solo resultados directamente atribuibles al programa. En la mayoría de los escenarios, factores como las
fuerzas de desarrollo económico, programas sociales múltiples, estructura demográfica cambiante y la
presencia de actividades de planificación familiar fuera del programa complican los intentos de medir el
impacto del programa.
- Costos: esto se refiere a los costos de la recolección y análisis de datos. En igualdad de condiciones, se
prefieren los métodos de menor costo. Sin embargo, en la mayoría de los casos, los métodos difieren sobre
los otros criterios, tanto como en el costo. Es por eso por lo que deben tomarse decisiones sobre el costo-
beneficio.
- Datos requeridos: los métodos varían considerablemente en cuanto a los datos requeridos. Aparte de las
diferencias en el volumen de datos requeridos, algunos métodos necesitan datos que son muy difíciles de
recolectar y/o son más vulnerables a errores de medición que otros métodos
- Percepción de la naturaleza de las trayectorias causales: los métodos varían mucho en relación a la cantidad
de información que proporcionan sobre cómo los insumos son transformados a productos y resultados
como parte del proceso de medición del impacto.
- Tipos de indicadores de resultados: algunos métodos están diseñados específicamente para la medición de
cierto tipo de resultados.
- Requisitos en el grado de control del programa: los experimentos diseñados como tales proveen la evidencia
más importante del impacto del programa, pero también requieren condiciones de mayor control en la
forma en la cual el programa es evaluado y la forma en que se efectúan otras intervenciones.
- Recursos y destrezas técnico/estadísticas requeridas: aunque todos los métodos considerados requieren de
conocimiento y destrezas básicas en las áreas de la investigación y la estadística, algunos métodos y
enfoques requieren destrezas relativamente avanzadas y en algunos casos software especializado.

You might also like