Professional Documents
Culture Documents
Olga Nirenberg
La evaluacin como momento o funcin de la gerencia
Las polticas, los programas y los proyectos sociales se formulan y ejecutan para resolver o aliviar
situaciones crticas o desfavorables que padecen grupos poblacionales, las cuales no podran resolver
las personas de esos grupos, en forma individual.
La evaluacin procura identificar y corregir la mxima cantidad de eventos que puedan oponerse o
dificultar la accin en el marco de tales polticas, programas o proyectos, de modo de obtener los
cambios deseados en la situacin encontrada inicialmente como desfavorable. Para eso se deben
cumplir procesos meticulosos de reconocimiento de la realidad y de programacin de acciones en
plazos definidos de tiempo, contando con recursos accesibles.
Si se entiende la planificacin o programacin como la reflexin que precede y preside la accin
(Mathus, C. 1987), puede decirse que esa reflexin continua, a medida que la accin se desarrolla,
constituye la evaluacin, que alimenta con sus hallazgos a la planificacin y gestin de los proyectos.
Visto as, se trata de una entidad que slo conceptualmente es separable, pues en la prctica el proceso
de planificacin/ejecucin/evaluacin, es una integridad indivisible, conformada por momentos
funciones en continua retroalimentacin. Las ciencias de la administracin engloban esa totalidad en
el concepto de Gerencia, y tambin se usa el trmino Gestin.
Una misin relevante de la evaluacin en el proceso gerencial o de gestin es la de permitir a los
conductores de programas o proyectos, y a otros actores estratgicos, tomar decisiones acertadas,
confiables y fundamentadas acerca de cmo seguir, cmo dar a sus acciones la direccionalidad
deseable, en base a las apreciaciones valorativas sobre lo que se vino haciendo y logrando. Se suele
llamar conductores a los que dirigen proyectos porque orientan el camino, imprimen la direccin.
La evaluacin puede ser vista entonces como la imagen en un espejo del proceso de la planificacin.
Mientras la planificacin mira hacia adelante, plantea previsiones para la accin hacia los escenarios
posibles y deseables, la evaluacin mira hacia atrs ms lejos o ms cerca, pero siempre hacia atrs
buscando aprender de lo hecho, de los errores y los aciertos, valorando lo positivo y lo negativo, para
poder recomendar giros o refuerzos en la accin futura. Hay un momento en donde la planificacin y la
evaluacin, tienen su interseccin: es justamente en el punto de las recomendaciones evaluativas para
la accin futura, tiles para la reprogramacin de actividades.
El hecho de caracterizarla como una actividad programada significa que la evaluacin, con todas las
tareas que ella implica, debe ser prevista tal como las otras acciones del proyecto o programa, puesto
que es una actividad ms. Por lo tanto, deben atribursele recursos especficos (personas idneas,
momentos y lugares especficos, equipos adecuados, insumos, dinero).
La evaluacin implica analizar qu es lo que se est haciendo (o se hizo), de qu modo, si ello se
orienta segn la direccionalidad deseable, cules escollos y cules facilidades u oportunidades se
presentan y cules logros se han obtenido; a eso se hace referencia cuando se dice que la evaluacin es
reflexin sobre la accin.
Que la evaluacin est basada en procedimientos sistemticos supone que debe contar con
metodologas y tcnicas apropiadas para la recoleccin y el anlisis de la informacin relevante que
alimentar la reflexin y fundamentar los juicios valorativos que se emitan acerca de las actividades,
resultados e impactos de los cursos de accin implementados.
El ncleo de toda evaluacin consiste en emitir juicios valorativos fundamentados y comunicables, es
decir, atribuir un valor, medir o apreciar1 si se ejecutan las actividades de acuerdo a lo programado, si
los resultados obtenidos corresponden a los objetivos y metas propuestos, as como en qu medida ha
mejorado la situacin de los destinatarios de las acciones, como producto de la poltica adoptada y/o
programa o proyecto desarrollado.
Para evaluar es necesario hacer comparaciones, sobre la base de las cuales se emitirn los juicios;
cualquiera sea el objeto de la evaluacin se lo contrastar con un parmetro que constituye lo deseado,
lo previsto, lo correcto, en suma la direccionalidad o las metas que se habrn definido previamente.
Esas son comparaciones contra estndares, cualquiera sea la forma en que se los haya definido; pero
tambin hay otro tipo de comparacin contra s mismo en el tiempo, que es la que se realiza cuando se
comparan situaciones o estados actuales, respecto de situaciones o estados pasados, para saber si hubo
cambios y poder emitir un juicio acerca de si la situacin est mejor, peor o igual. Esa comparacin
contra s mismo en el tiempo es a veces sobre todo en los primeros tramos de la ejecucin de un
programa o proyecto ms relevante que la otra, contra estndares, pues aunque se concluya que se
est lejos an de lo deseable el estndar , la situacin puede haber mejorado mucho debido a la
gravedad de la lnea de base punto de partida, situacin inicial , y eso es en s altamente valorable y
muy estimulante para los que ejecutan las acciones, ya que la evaluacin les demuestra los logros
obtenidos y les permite programar sobre mejores bases.
La fundamentacin de los juicios valorativos depender de la consistencia y confiabilidad de la
informacin cuantitativa y cualitativa que se recoja, al estilo de las evidencias que corroboran los
testimonios en un juicio frente a un tribunal.
Los juicios valorativos deben ser comunicables a las audiencias identificadas, lo que significa que se
deben redactar informes comprensibles y programar devoluciones de los hallazgos en modalidades
adecuadas para la mejor comprensin por parte de los actores involucrados.
Sistematizar las experiencias, enfatizar las lecciones aprendidas y brindar, a partir de ellas, las
1
Medir es comparar una cantidad con su respectiva unidad (lenguaje numrico); apreciar requiere de precisin, es concebir
una cosa como distinta de la otra, lo cual implica concisin y claridad en la expresin (lenguaje verbal). Lo esencial de una
situacin social no siempre es medible, pero s apreciable.
2
La viablidad de la aplicacin posterior de los hallazgos evaluativos, tambin depende del involucramiento de los actores
durante el proceso mismo de la evaluacin, as como de la completa y oportuna devolucin de los resultados por parte de los
que tienen la responsabilidad del proceso evaluativo.
3
los paradigmas de la ciencia, particularmente durante la segunda mitad del siglo pasado. El paso de las
formas mecanicistas, neopositivistas, racionalistas, objetivistas, a las concepciones fenomenlogicas,
ms relativistas e inclusivas de factores contextuales y que incorporan metodologas intersubjetivas, al
influir en los modos de conocer y abordar la realidad, influyeron tambin en las modalidades de
planificar, gestionar y evaluar los proyectos y programas sociales.
Hace dos o tres dcadas, la evaluacin se planteaba como la ltima etapa de un proceso lineal de
formulacin / implementacin de proyectos y programas por la cual se trataba de mirar hacia atrs y
establecer siguiendo mtodos y herramientas especializadas provenientes de la investigacin en
ciencias sociales y cientficamente vlidas segn el paradigma dominante si las acciones ejecutadas
haban producido los efectos deseados o buscados.
Esto llev a la elaboracin de diseos bastante sofisticados de evaluacin con el fin de reproducir
condiciones experimentales o cuasi-experimentales que permitieran determinar si se produjeron
cambios en la situacin problemtica inicial que motiv la intervencin y si esos cambios se debieron a
las acciones desplegadas.
Lejos de negar la necesidad de contar con elementos de juicio acerca de los impactos de estrategias o
cursos de accin de uso difundido, lo cierto es que estos diseos requieren personal tcnicamente
capacitado para llevarlos a cabo, por lo que suelen convertirse en evaluaciones externas, con escasa o
nula intervencin de los integrantes de los programas o proyectos; por otra parte producen informacin
que puede ser til para ciertos niveles altos de decisin (por ejemplo para considerar la continuidad o
no de determinadas lneas de proyectos) pero tal vez menos para quienes estn directamente
involucrados en la accin. Al estar ausentes aquellos que desarrollaron (o desarrollan) las acciones,
disminuye la utilidad o eficacia que esas evaluaciones puedan tener para introducir cambios en las
prcticas concretas; as, muchos documentos de evaluacin duermen por aos en los cajones de los
escritorios de los gerentes, una vez que los evaluadores externos finalizan su tarea
Otro camino difundido, dentro de ese modelo de planificacin vertical o "de lnea recta" consista en
comparar, tambin en la ltima etapa de ejecucin o incluso a posteriori, las metas previamente
establecidas con las que se haban efectivamente alcanzado, complementando esta comparacin con
una explicacin (o justificacin expost) de las discrepancias encontradas (Sulbrandt, J., 1994). Este
camino supona que lo planificado deba traducirse casi mecnicamente en acciones, sin tener en cuenta
el contexto organizacional y las racionalidades de los diversos actores en la ejecucin de las mismas.
En la actualidad, con el amplio desarrollo de las metodologas de planificacin estratgica y/o
participativa (que fueron desplazando lentamente, an no del todo, a los modelos verticales), se
reconoce que el proceso de planificacin / programacin no responde a una racionalidad lineal, que los
actores involucrados en la gestin y ejecucin reinterpretan permanentemente los objetivos buscados a
travs de su accionar, en sntesis, que todo el proceso de la gestin social est signado por grandes
dosis de incertidumbre, en gran parte como producto de la naturaleza de los contextos en que la accin
se desarrolla.
Esa incertidumbre es tambin producto de la propia naturaleza del desarrollo terico y de las
tecnologas utilizadas en las disciplinas sociales y en el campo de la accin social, en comparacin con
las ciencias exactas o naturales y sus campos de aplicacin, como la ingeniera o la electrnica. Vale
decir, en ciencias sociales no hay una nica escuela o un paradigma dominante en forma excluyente,
como ocurre, en un perodo histrico dado, con la fsica o la biologa, sino que coexisten diversas
corrientes, en algunos casos contradictorias entre s, en otros con diferentes enfoques o nfasis (caso de
las teoras del aprendizaje y las metodologas para la lectoescritura, en psicopedagoga, o las diferentes
4
Por eso, un programa o proyecto social puede ser visto como la puesta a prueba de estrategias o
metodologas innovadoras de intervencin para la transformacin, las que si luego de evaluadas,
demuestran ser eficaces, podrn ser replicadas en otros contextos, bajo circunstancias o condiciones
similares, o bien con las adaptaciones que convengan. Un ejemplo de cambio social relevante y uno de
los impactos ms buscados por los que conducen proyectos sociales, pero difcilmente alcanzado es que
la modalidad de intervencin respectiva sea adoptada como estrategia de las polticas pblicas, en el
nivel local o nacional, para el campo social especfico; para influir de ese modo en las polticas
pblicas no slo deben evaluarse las acciones, sino adems deben difundirse los resultados evaluativos,
en una estrategia de advocacy o marketing social ms global.
El propio proceso evaluativo implica transformacin. Cuando se comienza a pensar en evaluar un
programa en funcionamiento, o incluso en evaluar la factibilidad de realizacin de otro, en realidad se
est pensando que algo cambie en la forma en que se vienen haciendo las cosas. De alguna manera se
espera que los resultados de la evaluacin brinde elementos para operar algn tipo de modificacin en
la estrategia o metodologa de intervencin implementada.
No es extrao que una evaluacin produzca resistencias y/o que sus resultados sean escasamente
utilizados (muchas veces porque no son polticamente viables, aunque estn tcnicamente
fundamentados) ya que la misma puede terminar en recomendaciones de cortar el desarrollo de un
programa o un proyecto, o de introducir ajustes que no convengan o sean traumticos para algunos
individuos o grupos involucrados en el mismo.
distintivo del preguntn, del cuestionador, que juega de vez en cuando de outsider, que acta como
abogado del diablo, para provocar y estimular la reflexin, a la vez que aprende, junto con los dems.
No ensea, sino que provoca y estimula el aprendizaje conjunto.
Es relevante la contribucin de la evaluacin a los procesos de aprendizaje institucional, puesto que
resulta prioritario comprometer a quienes trabajan en los proyectos o programas en un proceso
educativo programado que produzca cambios (Organizacin Panamericana de la Salud y Fundacin
W.K. Kellogg., 1997).
Algunos requisitos relevantes para que una evaluacin aporte elementos en el citado sentido de
aprendizaje institucional, as como para neutralizar las resistencias comentadas tanto a la ejecucin de
la evaluacin como a la apropiacin y aplicacin de sus resultados, son: debe ser til a las personas
comprometidas en el proceso, debe ser viable, posible de realizar con las personas involucradas y en
las condiciones imperantes, debe ser oportuna, brindar los hallazgos y recomendaciones a tiempo para
su aplicacin, debe respetar los valores de las personas involucradas, debe estar bien hecha, con
procedimientos adecuados, de modo de proveer informacin confiable y debe prever la
participacin de los principales actores involucrados en la accin.
No puede desconocerse que esta combinacin tiene requerimientos en trminos de tiempos y costos y sobre todo de
habilidades para el anlisis que no siempre son fciles de alcanzar. Es mediante un proceso de construccin participativa del
modelo de evaluacin que se hace posible instalar las capacidades necesarias a tal efecto en la organizacin ejecutora del
proyecto a evaluar
4
" ..."La ciencia no tiene que estar limitada forzosamente a mediciones y anlisis cuantitativos. Debemos considerar
cientfica cualquier manera de abordar el conocimiento siempre que satisfaga dos condiciones: que el conocimiento se base
completamente en observaciones sistemticas y que se exprese desde el punto de vista de modelos coherentes, aunque sean
limitados y aproximativos."
8
los procesos de aplicacin, de modo que la informacin tenga validez interna y externa (Zetterberg, H.,
1965) 5 , o sea que se refieran a las dimensiones y variables que nos interesan y no a otras, que midan
aquello que procuran medir, en el caso de cuantificaciones y que permitan apreciar y emitir juicios
fundamentados sobre aquello que se procura comprender o explicar, en el caso de cualificaciones. Se
requiere precisin en los instrumentos: estar diseados de forma tal que pueda asegurarse que se
refieran a lo que importa que se refieran, dejando de lado lo no relevante. Asimismo el instrumento
debe ser confiable: tener la capacidad de ofrecer resultados similares o comparables, al ser aplicado
reiteradas veces y por diferentes evaluadores. Para asegurar eso, deben pautarse procedimientos
ajustados en los diseos as como en las aplicaciones. Surge entonces la necesidad de nivelar
conocimientos y habilidades de los actores que intervendrn en las etapas de diseo y que aplicarn los
procedimientos e instrumentos evaluativos.
Pero el rigor no tiene que ver slo con la pertinencia del uso de determinada tcnica para apreciar o
medir determinado fenmeno ni con el grado de confiabilidad y precisin de los datos obtenidos. Va
ms all de la decisin acerca de las tcnicas e instrumentos a usar: importa desde la propia
identificacin del problema que se abordar, de la adecuada determinacin de los principales ejes o
dimensiones de anlisis, de la seleccin de las variables relevantes en el marco de cada dimensin y de
los indicadores apropiados para reflejar las variables elegidas; ese rigor en la etapa del diseo
evaluativo deber luego ser reforzado en los pasos de la aplicacin, con procedimientos apropiados y lo
ms estandarizados que sea posible, lo cual, como se dijo, supone actividades concretas de nivelacin y
homogeneizacin de criterios y capacidades de los miembros de los equipos evaluativos, sobre todo de
los que intervienen en el trabajo de campo. Deber mantenerse el rigor al momento de procesar,
sistematizar y analizar la informacin obtenida, as como en la preparacin de los informes para la
devolucin de los resultados.
Uno de los aspectos positivos que introdujo la discusin entre mtodos cuantitativos y cualitativos ha
sido la resignificacin de las cuestiones de la validez y confiabilidad, asociando stas a los
instrumentos utilizados y agregando la consideracin de otros aspectos vinculados a los valores de los
investigadores/evaluadores y de los investigados, incluyendo as el contexto de produccin del
conocimiento y la tica.
Ultimamente se han sometido a revisin los criterios tradicionales de rigor y se estn incorporando
otros, aceptndose que los mtodos cualitativos pueden asegurar el rigor aunque de modo diferente al
de los mtodos cuantitativos. La explicitacin de los criterios de seleccin de participantes e
informantes (ms que la bsqueda de representatividad estadstica), la explicitacin de los valores e
intereses del evaluador y del modo en que el contexto incide en ellos, la socializacin del proceso de
anlisis e interpretacin, constituyen formas de asegurar el rigor. El consentimiento informado (la
aceptacin de la gente a responder o participar de una investigacin o evaluacin y adems la
transparencia en cuanto a los procedimientos y los derechos y deberes de todos los que se involucran en
el proceso), el anonimato (ms que la confidencialidad) y el cuidado en minimizar las asimetras en la
relacin entre evaluador y otros actores, son formas de introducir la tica en los procesos de produccin
de informacin.
Cualesquiera sean los mtodos que se utilicen, los evaluadores son actores privilegiados y por lo tanto
la validez, la precisin y la confiabilidad de los datos depende en gran medida de su capacidad,
5
La diferencia principal entre validez interna y externa es que la primera expresa una relacin lgica, mientras que la
segunda expresa una relacin emprica; la validez externa consiste en poner a prueba una hiptesis. En la primera se trata
de coherencia y en la segunda se trata de la posibilidad de extrapolar o generalizar.
9
El proceso de la evaluacin
Se dijo antes que se entiende la evaluacin como un proceso, como una funcin de la gerencia, que
implica un conjunto de actividades, por lo cual es a su vez programable.
Ese proceso de la evaluacin se sintetiza en tres momentos, la programacin, la ejecucin y la
metaevaluacin, y cada uno incluye actividades especficas:
Programacin de la evaluacin:
definicin del sujeto - objeto de evaluacin
establecimiento de la finalidad
identificacin de las audiencias
determinacin del nivel de anlisis
clasificacin de las dimensiones de anlisis
definicin de las variables
seleccin de los indicadores
determinacin de las tcnicas e instrumentos para la recoleccin de informacin
6
Ejecucin de la evaluacin
Relevamiento de informacin mediante el desarrollo de las actividades y la aplicacin de las
tcnicas e instrumentos
Sistematizacin, procesamiento y anlisis de la informacin
Elaboracin de Informes (incluyendo conclusiones y recomendaciones)
Devolucin a los actores y diseminacin de conclusiones
Metaevaluacin o evaluacin de la evaluacin
anlisis de la utilidad y oportunidad de los hallazgos
apreciacin sobre la viabilidad del proceso evaluativo y del uso de sus resultados
juicio acerca de la pertinencia metodolgica y tica
anlisis de la confiabilidad de los procesos y hallazgos
La secuencia presentada slo procura mostrar la lgica del circuito evaluativo, pero esos pasos no son
secuenciales en los escenarios concretos, sino que se producen superposiciones y retrocesos en medio
de los avances.
La evaluacin debiera ser un proceso continuo 8 que acompae la gestin desde el inicio de la misma,
en el planteamiento del problema a resolver y la formulacin del plan (diagnstico inicial, construccin
de la lnea de base, evaluacin ex ante), durante los procesos de la accin (monitoreo, evaluacin
concurrente, de procesos, concomitante) y al finalizar perodos determinados, donde el nfasis ser en
los resultados o efectos (evaluacin de resultados, de impacto, ex post). Los citados constituyen
momentos del proceso evaluativo, cada uno con caractersticas especficas.
Aunque podrn haber cortes evaluativos, para relevar aspectos particulares o para establecer comparaciones entre
diferentes puntos del perodo de gestin.
9
Cabe aclarar que esa construccin no se la entiende como realizada en forma individual, sino como un proceso abierto y
colectivo, donde participan en forma interactiva, segn los momentos, actores diferentes.
11
Los principales atributos de un modelo evaluativo de programas o proyectos sociales, debieran ser:
En cuanto a las partes que integran un modelo evaluativo, se destaca en primer lugar, la teora o
concepcin del cambio que existe por detrs del programa o proyecto que constituye el objeto de la
evaluacin. Todo programa supone que si se llevan adelante ciertas acciones, en determinadas
circunstancias, se obtendrn los resultados esperados, en trminos de superar, contribuir a solucionar o
evitar que empeoren determinadas situaciones sociales. Lo que el modelo debe poner en evidencia son
justamente tales cuestiones: los supuestos, los requerimientos contextuales, las estructuras necesarias y
los procesos o lneas de accin a desarrollar para obtener los resultados esperados. Esos constituyen los
aspectos conceptuales del modelo, los cuales tienen mucho que ver con las caractersticas del objeto de
la evaluacin, o sea que diferirn si se trata de un programa educativo, de salud, de desarrollo integral,
de hbitat, etc.. Un modelo evaluativo entonces, pondr en evidencia el estado del arte en el campo de
conocimiento respectivo.
Un problema es que en las disciplinas sociales, como se dijo, no existe un slo paradigma sino varias
teoras, muchas veces contrapuestas entre s, a veces superpuestas, y sin demasiadas evidencias de su
validez o demostraciones fidedignas acerca de sus grados de eficacia 10 . Por ende en el captulo
conceptual del modelo evaluativo debe aclararse en cul teora o escuela se inscribe el programa o
proyecto en el particular campo de conocimiento que aborda; adems corresponde anticipar qu
contribuciones se esperan de la aplicacin evaluativa para incrementar la validacin de esa teora
El modelo incluir tambin las definiciones operacionales de cada variable, lo que significa que las
mismas debern especificarse en funcin de los indicadores o variables observables con los cuales
se las medir o apreciar.
Se reitera que el marco conceptual de la evaluacin ser a la vez una retroalimentacin del encuadre
terico del propio programa o proyecto. En realidad, si el proceso de planificacin y programacin
fuera comprehensivo y adecuado, y su formulacin en el documento respectivo fuera completa y clara,
10
Se entiende por eficacia de una intervencin social la medida en que la misma logra los objetivos que se propone.
12
dependiendo de la forma que adopten esos otros aspectos, podrn contribuir al mayor o menor xito de
la gestin en el alcance de los logros.
Puede sintetizarse lo dicho en el siguiente esquema:
TIPO DE DIMENSIONES
EJEMPLOS
Sustantivas
Gerenciales o Instrumentales
Estratgicas o de atributos
Integralidad;
sinergismo;
asociatividad;
multidisciplinariedad; multiactoralidad.
participacin;
Lo que antecede es una clasificacin muy general, y los ejemplos en cada caso no buscan
exhaustividad; el esquema pretende slo orientar la determinacin de dimensiones. No se desconoce
que hay proyectos o programas cuyo propsito principal, sustantivo, puede aludir a cuestiones
estratgicas o gerenciales, por ejemplo: promover la participacin de actores en determinado contexto o
escenario, en cuyo caso, tal dimensin pasar de ser estratgica a ser sustantiva. Tambin algunas
dimensiones clasificadas como gerenciales pueden pasar a ser sustantivas, dependiendo de la ndole del
proyecto o programa; caso tpico: la capacitacin de recursos humanos en grandes instituciones. Se
reitera entonces que el esquema anterior lejos de ser taxativo y de casilleros estancos, slo recuerda que
cualesquiera sean los propsitos sustantivos del programa o proyecto, tendrn que tenerse en cuenta
adems esas otras dimensiones gerenciales y estratgicas.
Las variables se operacionalizan mediante los indicadores que se definan como apropiados en cada
caso, para poder apreciar o medir la variable respectiva.
Ya se han hecho alusiones sobre la existencia de distintos tipos de variables e indicadores: de
estructuras (de insumos, de recursos), de procesos (de actividades, de tareas) y de resultados (de
productos, de efectos, de impactos). Se esquematizan a continuacin, algunos ejemplos de los distintos
tipos de variables e indicadores:
VARIABLES
Y/O INDICADORES
EJEMPLOS
1. De estructuras
2. De procesos
3. De resultados
a. de Productos
b. de Efectos
c. de Impactos
Del esquema previo se desprende que hay tres tipos diferentes de resultados: productos, efectos e
impactos. Cada uno implica diferentes formas de relevamiento de informacin. En el caso de los
productos, los mismos se podrn evaluar a partir de registros y evidencias propias del programa o
proyecto (listas de asistentes, documentos producidos, estimaciones de oyentes, etc.). En el caso de los
efectos, tambin se podrn apreciar o medir con base en el propio programa y por medio de los propios
participantes del programa, no necesariamente mediante alguien especializado y/o externo. En el caso
de los impactos, suelen realizarse relevamientos ms all del propio programa o proyecto, ya que se
incluyen otros contextos o bien momentos posteriores a la gestin, y para ello se suelen contratar
especialistas externos 12 .
12
Algunos autores diferencian las variables de resultados segn los plazos temporales a que hacen referencia: de corto,
mediano o largo plazo; en el ltimo caso, de los impactos o resultados de largo plazo, se requieren diseos evaluativos
sumamente sofisticados, de seguimiento de poblaciones a travs de perodos muy prolongados, cuyo costo y esfuerzo
raramente puede afrontarse.
15
En otras palabras: las variables e indicadores encuadrados en 1, 2 y 3.a, forman parte de las
evaluaciones continuas, concurrentes o monitoreo; en el caso de 3.b, se trata de recolecciones
especficas que se realizan en general en momentos intermedios o ms avanzados de la ejecucin, de
modo de permitir apreciar ciertos cambios que indicarn si el programa o proyecto est orientndose
hacia la direccin deseada, si los efectos que se van obteniendo son acordes con lo esperado, o si vale
la pena introducir ajustes en la manera de hacer las cosas. En el caso de 3.c, suele recogerse la
informacin al finalizar, o despus de un tiempo de terminado el programa o proyecto. Lo dicho no es
taxativo, puesto que ciertos impactos pueden producirse y por ende, evaluarse cuando an no
finaliz el perodo de ejecucin.
Muchos consideran que evaluar es posible con slo elegir los indicadores adecuados y explicitando
con qu medios se recoger la informacin respectiva. Como se desprende de lo explicado hasta aqu,
los indicadores son un paso muy importante en el proceso de diseo de un modelo evaluativo, pero no
el nico y ni siquiera el ms relevante; los pasos previos y los que le siguen, son de tanta o mayor
relevancia y tan o ms definitorios que ese.
Los indicadores son una medida o apreciacin, directa o indirecta, de un evento, una condicin o
situacin o un concepto. Son a su vez variables, aunque de menor nivel de abstraccin, observables o
medibles, que permiten inferir conclusiones apreciativas acerca de las variables correspondientes; por
eso se dice que especifican las variables a las que hacen referencia.
Los ms habitualmente utilizados son los indicadores cuantificables, o sea, los que se expresan en
cifras absolutas, tasas, proporciones o porcentuales. Pero si bien son muy necesarios, los indicadores
cuantitativos no resultan suficientes para comprender y explicar cmo se producen los procesos, qu
oportunidades se encuentran o bien cules obstculos impiden la accin o qu factores la dificultan.
Para mejorar esa comprensin deben procurarse adems indicadores cualitativos, que permitan
triangular o complementar los anteriores.
La determinacin de los indicadores permite definir las tcnicas apropiadas y el posterior diseo de
instrumentos de recoleccin o registro de informacin; podrn ser ms o menos precisos, segn la
disponibilidad o acceso a la informacin requerida.
La seleccin de indicadores deber realizarse teniendo en cuenta criterios de factibilidad para conseguir
la informacin respectiva. Asimismo, es necesario que stos cumplan con los requisitos de validez, de
sensibilidad, de especificidad y de confiabilidad, para que la informacin resultante sea til; por otra
parte se contemplarn aspectos ticos en su obtencin y utilizacin. Se sintetizan a continuacin los
principales atributos que deben poseer los indicadores (sean estos cuantitativos o cualitativos). 13
VALIDEZ
CONFIABILIDAD
13
Esos atributos pueden considerarse en forma extensiva para asegurar el rigor metodolgico de una evaluacin, como ya se
sugiri en el tem respectivo.
16
ESPECIFICIDAD
SENSIBILIDAD
Debe ser capaz de registrar los cambios por ms leves que sean
REPRESENTATIVIDAD
CLARIDAD
ACCESIBILIDAD
UTILIDAD
ETICA
SINERGIA
COSTO
REPLICABILIDAD
No es nico para un proyecto, sino que puede ser til para otros proyectos
en otras localizaciones; debe permitir ulteriores comparaciones.
Para mayor aclaracin acerca de las tcnicas tiles para la evaluacin ver Nirenberg, Olga; Brawerman, Josette y Ruiz,
Violeta, 2000, Captulo 4.
17
que la recoleccin de informacin para la evaluacin constituya una ms de las rutinas propias del
programa o proyecto.
Los instrumentos debern ponerse previamente a prueba, mediante adecuados pretests o pruebas piloto.
Tal como con el huevo o la gallina, es imposible decir que fue lo primero: la pregunta o la variable / indicador.
18
Para un ejemplo de matriz sntesis puede verse: Nirenberg, Olga; Brawerman, Josette y Ruiz, Violeta., 2000, Anexo.
Esas combinatorias no sern exclusivamente aritmticas, por dos razones: la primera, porque no todos los indicadores de
una misma variable tienen por qu tener igual cantidad de categoras: algunos pueden tener dos (como es el caso del si/no),
otros tres (como el caso de mucho, poco, nada) y otros ms de tres (como en el ejemplo de la escala de cuatro puntos); y la
segunda razn, porque adems de la atribucin de valoraciones a cada indicador, cada actor que evala tendr una
apreciacin global acerca de cada variable como un todo.
17
19
requieren adems las descripciones y explicaciones que brinda el informe en prosa acorde con las
dimensiones o captulos del modelo. Se reitera que debe ser cumplimentado a posteriori del informe
escrito.
La cuantificacin efectuada a travs del Instrumento Valorativo descripto tiene adems la virtud de
satisfacer las inquietudes cuantitativistas y sintetizadoras que suelen tener aquellos que solicitan las
evalauciones, como las agencias de cooperacin y las entidades nacionales o externas de
financiamiento 18 .
Para un ejemplo de Instrumento Valorativo puede verse: Nirenberg, Olga; Brawerman, Josette y Ruiz, Violeta., 2000,
Anexo.
19
A tal efecto resulta tambin de suma utilidad la construccin de la Lnea de Base.
20
Es fcil detectar a quienes deben participar cuando el modelo evaluativo se formula despus que el
programa o proyecto ha comenzado su ejecucin. Pero si el modelo se disea a priori, un requisito ser
otorgarle flexibilidad para que puedan introducirse ajustes al momento de la ejecucin, cuando los
actores del nivel operativo se incorporen.
Dado que esos actores tanto los que programan como los que conducen y los que operan, as como
los destinatarios de las acciones no tienen por qu ser conocedores de las disciplinas metodolgicas,
lo ms sencillo es involucrarlos en la determinacin de los grandes ejes que debiera considerar la
evaluacin, y a partir de ah, solicitarles que planteen las preguntas que en cada uno de esos ejes les
parecen relevantes. Luego los metodlogos / evaluadores podrn traducir los ejes en dimensiones y las
preguntas en variables e indicadores, procurando respetar fielmente las intenciones de los que
formularon las preguntas. Es recomendable, luego de pasar todo por el tamiz metodolgico, realizar
una segunda vuelta con los actores para someter a crtica lo diseado. Seguramente ese proceso
implicar varias idas y vueltas. La dinmica de taller es la ms efectiva para tales tareas (Nirenberg,
Olga; Brawerman, Josette y Ruiz, Violeta. 2000)20 .
Lo dicho es vlido para la etapa del diseo, pero cabe adems sealar que una idea relevante que est
por detrs de lo expuesto hasta aqu, es que un mismo modelo evaluativo sea aplicado por diferentes
actores ubicados en los diferentes niveles de la gestin de los programas o proyectos.
Para elegir un ejemplo bastante complejo (Nirenberg O., 1996), considrese un programa nacional que
se concreta en proyectos que se ejecutan en diferentes provincias, a cargo de organizaciones de la
sociedad civil OSC -, existiendo un gerente o coordinador a cargo de los subprogramas en cada una
de las provincias; el modelo podr ser aplicado, a modo de autoevaluacin, o bien de evaluacin
interna, segn los casos, por parte de los miembros de las OSC y los equipos tcnicos que ejecutan los
proyectos; tambin lo aplicar el gerente provincial, a modo de una cuasi evaluacin externa respecto
de cada proyecto y como autoevaluacin respecto a cuestiones del subprograma a su cargo 21 ; y
finalmente ser utilizado por la coordinacin nacional del programa. Los tres tipos de actores, de los
niveles local, provincial y nacional, comparten el mismo modelo evaluativo, con las mismas
dimensiones, variables e indicadores y deben dar respuesta como mnimo a las mismas preguntas
orientadoras; seguramente aplicarn diferentes tcnicas en cada uno de esos niveles y sus apreciaciones
y valoraciones tendrn diferencias. Los productos evaluativos de cada uno constituyen insumos 22 para
el siguiente: el gerente provincial tomar en cuenta los informes en prosa y los instrumentos valorativos
que elaboren los proyectos y marcar sus acuerdos y sus diferencias y lo mismo suceder con el nivel
nacional. A partir de all puede generarse un proceso de discusiones y reflexiones conjuntas que
permitan poner en claro las razones de las diferencias y llegar gradualmente a mayores acuerdos o
acercamientos; pero tales discusiones se darn en un marco conceptual y metodolgico compartido. Las
apreciaciones evaluativas emergern as como productos de campos epistemolgicos de
intersubjetividad, donde interactan los actores significativos en los diferentes niveles de la accin,
20
Un taller es un espacio fsico y simblico para la interaccin de actores similares o diferentes que a travs de reflexin y
debate, facilitado por tcnicas de dinmica grupal, arriban a un producto comn dnde se pueden marcar diferencias o
consensos. Se distingue de otras modalidades, como las reuniones grupales o el seminario, porque mezcla aspectos
educativos y de interaccin social con la obtencin de un producto concreto que puede ser aplicado inmediatamente en la
prctica cotidiana de trabajo. Es una herramienta bsica de la planificacin y evaluacin participativa.
21
Hubo ejemplos concretos de gerentes provinciales que trabajaron conjuntamente, bajo la modalidad de taller, con los
distintos actores de cada uno de los proyectos del subprograma a su cargo, lo cual enriqueci los productos evaluativos.
22
Esos son insumos relevantes pero no los nicos: las impresiones y los informes de las visitas de terreno de los
evaluadores, son de suma importancia; tambin son fundamentales la documentacin y los registros regulares de los
programas.
21
Recurdese que las variables fueron seleccionadas, por ende nunca completarn el espectro posible, siempre habr
aspectos que quedan fuera.
24
Lo dicho en ese prrafo es vlido tambin para el programa o proyecto en su totalidad (si se cambian las palabras
variables por dimensiones y dimensiones por programa o proyecto).
23
conocimiento de los resultados y recomendaciones emergentes; eso sucede sobre todo en las
evaluaciones externas, que suelen terminar en un informe al que muy pocos acceden y son menos an
los que verdaderamente lo leen. Se utiliza el trmino devolucin, aludiendo a la diseminacin, al
anlisis y al ajuste de los hallazgos y recomendaciones, conjuntamente con los actores que se
involucraron, de un modo u otro, en el proceso evaluativo.
A partir de la evaluacin se genera siempre nuevo conocimiento; el diseo y la aplicacin del modelo
evaluativo, las diferentes interacciones ocurridas y la elaboracin de la informacin recogida por
diferentes vas, permite generar nuevo y relevante conocimiento acerca de la realidad circundante y del
propio programa o proyecto. Es ese el conocimiento que se somete a devolucin, para la crtica o
discusin.
El primer paso en un proceso de devolucin o diseminacin de los hallazgos de la evaluacin a las
audiencias previamente identificadas, consiste en escribir un informe de evaluacin exhaustivo, del
cual podrn emerger tambin otros subproductos tiles para la difusin.
El informe incluir descripciones y explicaciones que permitan fundamentar, tanto los juicios
valorativos referidos a cada una de las variables y dimensiones, como las recomendaciones que se
formulen al respecto.
Como en cualquier informe, en una introduccin se harn referencias muy sintticas acerca del objeto
de la evaluacin, las principales caractersticas del programa o proyecto respectivo (su poblacin
objetivo, su localizacin, el problema que procura atender o solucionar, las principales lneas de accin,
los objetivos y los resultados esperados); tambin se indicar cul es el particular perodo considerado
y los principales focos adoptados en ese momento evaluativo. Ser conveniente incluir como anexo una
sntesis metodolgica y conceptual, agregando por ejemplo, la matriz sntesis. Se aclarar cul
informacin fue tomada en cuenta para la realizacin del informe: la que fuera relevada especialmente
para ese momento evaluativo, los informes evaluativos de otros niveles, los instrumentos valorativos, la
informacin acumulada en otros informes de otros momentos evaluativos, otros documentos o informes
de visitas de terreno, etc.. No debe olvidarse la mencin de los actores participantes en la etapa de
aplicacin evaluativa y se aclarar cules sern las principales audiencias del informe.
El ncleo central del informe es el anlisis y sntesis evaluativa, en donde cada captulo coincidir con
cada dimensin del modelo; al interior de cada uno de esos apartados, los ttulos coincidirn con los
nombres de las variables; por otra parte, dentro de cada variable, las descripciones, explicaciones y
anlisis tomarn en cuenta los indicadores respectivos. En otras palabras: ese ncleo del informe deber
contener como mnimo las respuestas principales a las preguntas orientadoras formuladas en el modelo
evaluativo, agregando toda otra informacin que resulte relevante para comprender las respectivas
realidades.
Los captulos relativos a cada una de las dimensiones del modelo, debern incluir los correspondientes
juicios valorativos, poniendo sumo cuidado en el modo de expresarlos: es conveniente resaltar
primeramente las cuestiones positivas y las fortalezas para luego advertir sobre las debilidades,
omisiones u errores. Son esos juicios los que darn lugar luego a la formulacin de recomendaciones.
El informe incluir finalmente una parte denominada conclusiones y recomendaciones, donde se
sealarn los principales logros alcanzados durante el perodo, as como las dificultades u obstculos
encontrados y las estrategias desplegadas para su superacin. Se resumirn aqu, como conclusiones,
los juicios valorativos ms relevantes sealados en forma previa para cada una de las dimensiones
24
analizadas, pero tambin se agregarn aquellas otras que emerjan del anlisis vinculatorio entre las
diferentes variables y dimensiones del modelo. Un tem importante es el que corresponde a las
recomendaciones. Cuando se trata de un informe relacionado con un momento intermedio de la gestin
del proyecto o programa, las mismas constituirn orientaciones para la accin futura, as como
parmetros de comparacin y reflexin para el siguiente corte evaluativo. En el caso de tratarse del
informe evaluativo final, o de un nico informe de una evaluacin realizada al finalizar o despus del
final de un programa o proyecto, igualmente se consignarn recomendaciones, ya que las mismas
podrn ser de utilidad para programas o proyectos similares en otros contextos o momentos posteriores.
Las recomendaciones deben dirigirse a las diferentes audiencias de la evaluacin (tcnicos, decisores,
beneficiarios, financiadores, etc.) sugiriendo, en la medida de lo posible, opciones o alternativas a cada
uno de ellos. Debern ser prcticas y factibles, evitando generalizaciones. Debern sugerir cmo
construir sobre los logros, superar las dificultades y subsanar las limitaciones del programa o proyecto
evaluado.
Por ltimo, el informe podr incluir anexos, con cuadros, con testimonios y otros elementos que puedan
contribuir a mayor claridad de las descripciones y fundamentes de las conclusiones y recomendaciones.
El informe preliminar de evaluacin debe ser sometido a la crtica de los actores significativos que
intervinieron durante el proceso, para que puedan proponer correcciones u agregados. Es conveniente
realizar talleres sobre algunas cuestiones donde pueden existir disensos, pues en ese marco es posible
discutir y llegar a acuerdos entre los responsables de la evaluacin y los dems actores. Esas dinmicas
enriquecen sobremanera los informes, pues agregan detalles y mayor exactitud a las descripciones e
informaciones numricas, otros y mejores argumentos a las explicaciones y observaciones crticas. Es
una de las formas para especificar las recomendaciones para la accin futura y que sean realmente
asumidas por los que tienen luego la responsabilidad de concretarlas.
Es recomendable redactar un resumen ejecutivo, documento breve de 5 a 10 pginas, donde se
consignan los puntos ms sobresalientes del texto del informe, sobre todo remarcando logros,
dificultades y recomendaciones. Est destinado especialmente a ciertas audiencias tales como las
autoridades polticas, o el periodismo, quienes no suelen leer documentos tcnicos extensos. Es
conveniente que cuente con las cifras ms ilustrativas, as como algn grfico. Tambin con base en el
informe, se podrn aplicar diversas estrategias comunicacionales para difundir los hallazgos
evaluativos segn las audiencias especficas. Se elaborarn gacetillas para los medios masivos, folletos
y/o CDroms interactivos, para las agencias de financiamiento, resmenes y transparencias para
exposiciones y conferencias en los medios acadmicos, congresos, seminarios, revistas especializadas,
entre otras.
Notas Bibliogrficas
Corominas J., Pascual J.A., Diccionario Crtico Etimolgico Castellano e Hispnico. Vol IV, pags. 99
y 100. Madrid. Ed. Gredos. 1991
Greene Jennifer: Qualitative Program Evaluation, Practise and Promise en Handbook of Qualititative
Research, Denzin N y Lincoln S, Editors., Sage Publications Inc., 1994.
Habermas J.: Conocimiento e Inters. Vol. I, Buenos Aires, Taurus, 1982.
Hamilton Smith, Elery, "La estrategia y la metodologa de la evaluacin de programas de desarrollo
social" en Planificacin social en Amrica Latina y el Caribe. Sgo. De Chile. ILPES/UNICEF.
1981
Martinez Miguelez. El paradigma emergente. Hacia una nueva teora de la racionalidad cientfica,
Barcelona, Ed. Gedisa, 1993.
25
Resea Biogrfica
La autora es sociloga (UNBA), con posgrados en Planificacin Social (ILPES, Naciones Unidas) y en
Salud Pblica (Escuela de Salud Pblica, UNBA).
Desde 1990 es la Directora Ejecutiva del Centro de Apoyo al Desarrollo Local CEADEL
Organizacin no Gubernamental de la Argentina, que desarrolla proyectos sociales y brinda apoyo
tcnico a equipos gubernamentales o de la sociedad civil, que trabajan en escenarios locales en temas
de poltica social y desarrollo local. (e mail: ceadel@ciudad.com.ar)
Integra actualmente el equipo tcnico responsable del Programa Nacional de Salud de la Adolescencia,
en el Ministerio de Salud de la Argentina (e mail: olgani@ucmisalud.gov.ar) .
Desde 1994 se ha desempeado como consultora de la Organizacin Panamericana de la Salud (OPS /
OMS, Washington DC) integrando el Steering Committee y para la evaluacin del Programa Regional
de Salud de los/las Adolescentes en la regin de las Amricas y el Caribe.
Desde 1997 y hasta febrero del 2001 trabaj como Coordinadora del rea de Evaluacin y Monitoreo
del Programa de Atencin a Nios y Adolescentes en Riesgo (PROAME, Ministerio de Desarrollo
Social y Medio Ambiente/BID).
Durante el ltimo decenio ha sido consultora en evaluacin para otros programas nacionales de la ex
Secretara de Desarrollo Social de la Nacin (Programa de Fortalecimiento de la Sociedad Civil y
Programa de Desarrollo Juvenil) y en el Programa Materno Infantil y de Nutricin (PROMIN, del
Ministerio de Salud/BIRF).
Tambin integr, entre 1994 y 1999, el equipo de Evaluacin del Cluster de Proyectos UNI de la
Fundacin W.K. Kellogg - Una Nueva Iniciativa en la Formacin de los Profesionales de la Salud (23
proyectos en 11 pases de Amrica Latina y el Caribe, que incluyeron un componente acadmico, un
componente de servicios de salud y un componente comunitario, trabajando en gestin asociada).
Es docente de Evaluacin de Proyectos y Programas Sociales de la Maestra de Polticas Sociales de la
Universidad Nacional de Buenos Aires, del Curso de Especializacin en Polticas Sociales de la
Universidad de General San Martn y de la Maestra en Salud Pblica de la Universidad de Tucumn.
Direccin postal: Sarand 247, 2 E. (CP1081). Telefax: (54 11) 4952 9893
Direccin electrnica personal: olgani@ciudad.com.ar
26