Professional Documents
Culture Documents
Editorial Universitaria
Calle 23 entre F y G, No. 564,
El Vedado, Ciudad de La Habana, CP 10400, Cuba.
e-mail: torri@reduniv.edu.cu
Sitio Web: http://revistas.mes.edu.cu
Dedicatoria
Dedicatoria
A mi hijo, siempre vivo en mis recuerdos y en mis presentes
A mi esposo, por siempre
A mis padres, ejemplos de honestidad y sacrificio
Agradecimientos
Agradecimientos
Agradezco a todos mis compañeros y amigos que se han preocupado por el desarrollo de
este trabajo investigativo, demostrando su confianza en mí y estimulándome, en todo
momento, a seguir adelante.
Agradezco a todos los colegas, principalmente del MES y del CEPES, que tan gentilmente
accedieron a brindarme su apoyo, conocimientos y sugerencias, así como a todas aquellas
personas víctimas de mis entrevistas.
Un especial agradecimiento a mis tutores el Dr. Jorge Núñez Jover, de la Universidad de La
Habana, cuyo juicio estricto y confiable ha sido para mí un gran reto en la conclusión de
este trabajo y al Dr. Ramón Pérez Pérez, de la Universidad de Oviedo, quien armado de
mucha paciencia, me ha dado todo su apoyo, comprensión y aliento durante tanto tiempo.
Mi agradecimiento eterno a quien, todos estos años, me ha inspirado e incitado a no
desmayar, mostrando su fe en mí y en mi trabajo; a quien ha estado a mi lado en los
momentos más difíciles, dándome siempre los consejos y orientaciones más sabias. A
Armando Plasencia Salgueiro, mi esposo.
Índice general
Índice
Propuesta de un sistema de metaevaluación para el aseguramiento de la calidad de los procesos
de evaluación externa y acreditación de los programas de maestría en Cuba..................................1
Portadilla.........................................................................................................................................2
Portada............................................................................................................................................3
Página legal....................................................................................................................................4
Dedicatoria......................................................................................................................................5
Agradecimientos..............................................................................................................................6
Índice general..................................................................................................................................7
Síntesis........................................................................................................................................9
Cuerpo del Texto........................................................................................................................10
1- INTRODUCCIÓN................................................................................................................11
1.1- Problema de Investigación...........................................................................................13
1.2- Preguntas científicas....................................................................................................13
1.3- Objeto de estudio.........................................................................................................13
1.4- Campo de acción..........................................................................................................13
1.5- Límite de la investigación.............................................................................................13
1.6- Objetivos específicos....................................................................................................13
1.7- Tareas de investigación................................................................................................14
1.8- Fundamentos................................................................................................................14
1.9- Métodos de investigación.............................................................................................17
1.10- Antecedentes..............................................................................................................18
1.11- Novedad de la tesis....................................................................................................18
1.12- Estructura de la tesis..................................................................................................19
2- LA EVALUACIÓN Y LA METAEVALUACIÓN PARA EL ASEGURAMIENTO DE LA
CALIDAD DE PROGRAMAS E INSTITUCIONES EDUCATIVAS.......................................20
2.1- Calidad, Evaluación y Acreditación en la educación superior......................................20
2.1.1- Elementos epistemológicos sobre la evaluación en el ámbito educativo...............21
2.2- Usos y ámbitos de actuación e influencia de la evaluación..........................................26
2.3- 1.3. El Sistema Integral de Evaluación (SIEVAL) y sus componentes.........................31
2.4- Puntos de partida para juzgar la calidad de la evaluación............................................34
2.5- La Metaevaluación como concepción para la evaluación de la evaluación..................37
2.5.1- El concepto de Metaevaluación..............................................................................37
2.5.2- Focos de atención de la Metaevaluación para evaluar la evaluación.....................41
2.5.3- La Metaevaluación en su práctica actual ..............................................................45
2.6- Referencias bibliográficas............................................................................................47
3- LA EVALUACIÓN Y LA ACREDITACIÓN: ESTRATEGIAS PARA EL ASEGURAMIENTO
DE LA CALIDAD DE LA EDUCACIÓN SUPERIOR EN SU PRÁCTICA INTERNACIONAL Y
NACIONAL ACTUAL...........................................................................................................51
3.1- Características y tendencias en la práctica evaluativa internacional............................51
3.2- La experiencia evaluativa en la educación superior cubana. Nuevas perspectivas.....57
3.2.1- El Sistema de Evaluación y Acreditación de Maestrías: una descripción necesaria
......................................................................................................................................60
3.2.2- Implementación de los procesos de evaluación externa y acreditación.................61
3.2.3- Singularidades de la práctica evaluativa en la educación superior cubana ...........64
3.3- Referencias Bibliograficas............................................................................................67
4- APROXIMACIONES METAEVALUATIVAS AL SEA-M......................................................69
4.1- Etapas y tareas de la investigación..............................................................................69
4.2- Resultados obtenidos de las Tareas investigativas 2, 3, 4 y 5.....................................72
4.2.1- Tareas 3 y 4: Revisión de procesos de evaluación externa y acreditación
culminados: elaboración de la ficha técnica..................................................................74
4.2.2- Tarea 5: Realización de las entrevistas..................................................................75
4.3- Metodología para identificar criterios metaevaluables..................................................85
5- DISEÑO DEL SISTEMA DE METAEVALUACIÓN PARA EL ASEGURAMIENTO DE LA
CALIDAD DE LA PRÁCTICA EVALUATIVA EN EL MARCO DEL SISTEMA CUBANO DE
EVALUACIÓN Y ACREDITACIÓN DE LAS MAESTRIAS (SEA-M)....................................90
5.1- Marco teórico-conceptual.............................................................................................91
5.1.1- Sobre el concepto de metaevaluación y su tipología en el marco del SisMeta......91
5.1.2- Sobre los ámbitos de influencia y actuación de la metaevaluación........................98
5.1.3- La metaevaluación como sistema: sus elementos...............................................100
5.1.4- La guía de metaevaluación: su descripción.........................................................101
5.1.5- Modelación informática del sistema de metaevaluación......................................103
5.2- Marco metodológico...................................................................................................107
5.3- Marco organizativo-institucional.................................................................................108
5.4- Marco legal-normativo................................................................................................109
6- CONCLUSIONES.............................................................................................................112
7- RECOMENDACIONES.....................................................................................................116
8- BIBLIOGRAFÍA.................................................................................................................117
9- SITIOS WEB VISITADOS.................................................................................................133
10- ANEXOS.........................................................................................................................134
Síntesis
La presentes tesis en opción al grado de doctor en Ciencias de la Educación trata de
demostrar que con la creación e implementación de un Sistema de Metaevaluación
(SisMeta) se facilitará el aseguramiento de la calidad y el perfeccionamiento de los
procesos de evaluación externa y de acreditación de los programas de maestrías y del
propio Sistema de Evaluación y Acreditación (SEA-M) al propiciar la detección de sus
debilidades (no conformidades) y fortalezas. Este perfeccionamiento estará basado en el
conocimiento que se deriva de la obtención y procesamiento de información sobre la
práctica evaluativa mediante la ejecución de procesos metaevaluativos, lo que coadyuvará
también a la realización de investigaciones y estudios comparativos, de tendencias y de
impacto en el campo de la evaluación y acreditación.
Con la aplicación de esta metodología metaevaluativa para el monitoreo sistemático de la
evaluación externa y la acreditación se protegerán también los objetos evaluados y a todas
aquellas personas e instancias que intervienen en dichos procesos al ser ejecutados por un
Órgano Metaevaluador, el cual se desempeñará como una entidad independiente de las
instancias responsables de la evaluación y acreditación de las maestrías y jugará un rol
mediador entre las partes involucradas.
El SisMeta contribuirá al estudio constante de la práctica evaluativa no sólo en el marco del
SEA-M, su concepción es aplicable también a los otros sistemas de evaluación y
acreditación del Sistema Universitario de Programas de Acreditación (SUPRA). En otros
países la metaevaluación es empleada con diferentes objetivos y como tal se concibe
indistintamente. En Cuba, esta propuesta es pionera en el campo de la educación.
Cuerpo del Texto
1- Introducción
El proceso de desarrollo y consolidación de la evaluación educativa ha estado condicionado
por necesidades o demandas sociales y por exigencias científicas y político- económicas
impuestas a la educación. La preocupación por la calidad de la educación no es rasgo
exclusivo del siglo XX, pero la promoción de estudios e investigaciones más completas
sobre la misma sí pueden ser ubicados a principios del mismo en Estados Unidos. Al
implementarse la “gestión de la calidad” en la educación a semejanza con el ámbito
empresarial se persigue el objetivo de convertir el sistema de educación en un sistema
“dinámico e innovador que a la vez se fuera innovando a sí mismo”[i], obligándose a la
escuela “a adecuarse a las exigencias del aparato productivo”[ii] para que respondiera más
eficientemente a las exigencias sociales y gubernamentales ante la posibilidad de un apoyo
financiero cada vez mayor. Con la evolución del concepto de calidad en la educación y su
afán en medirla surge entonces la intención de certificarla o acreditarla, lo cual responde a
motivaciones no sólo sociales, sino también económicas y políticas.
La década de los 90’ del siglo pasado se ha caracterizado por un auge de la evaluación en
muchas regiones del planeta que al fundamentarlo se plantea que la evaluación no es sino
“una forma distinta y nueva de hacer política o de explicarla por medio de los logros
alcanzados o fallidos enfatizándose en la eficacia”[iii]. Desde sus orígenes la actividad
evaluativa se ha extendido por el mundo ganando más defensores y, no obstante la variedad
de las tendencias evaluativas, se han mantenido sus objetivos principales, sustentados en la
expansión y diversificación de los sistemas educativos, la movilidad de estudiantes y
profesores, la comprobación de la efectividad de la educación que se brinda, la justificación
de las inversiones que se hacen en ella, el cumplimiento de las reglas que impone la
competitividad entre instituciones y programas y la satisfacción del mercado laboral,
inmersos en los procesos de globalización e internacionalización que matiza al mundo
académico de hoy. En este marco, donde la educación se desarrolla actualmente, la
certificación o acreditación de su calidad es la garantía en su transitar por los vaivenes de la
internacionalización y en el posicionamiento de un lugar relevante dentro de la llamada
sociedad del conocimiento por lo que hablar de evaluación y acreditación de la calidad de
la educación es referirse a puntos de partida, expectativas y logros de la educación, en
general y de la universidad, en particular.
Sin embargo, hay que hacer un alerta en la carrera maratónica por evaluar y acreditar la
calidad de instituciones y programas educativos que puede envilecer esta práctica,
convirtiéndola en una máquina de medición y entrega de certificaciones para irse por
derroteros que no implicarían, precisamente, la mejora y el perfeccionamiento en la
educación, olvidándose, una vez obtenido el estandarte correspondiente de calidad, voltear
la cabeza y plantearse qué es lo que hay que cambiar y transformar. En el desarrollo de la
actividad evaluativa se identifican, además, otros aspectos neurálgicos: determinar quién
evalúa y cómo se evalúa y, sobre todo, para qué se evalúa, ya que evaluar “es mucho más
que un problema técnico y tiene claras implicaciones en la distribución de los recursos y el
ejercicio del poder” [iv]. No sólo es importante cuidar de la calidad de lo que se evalúa,
sino también de la calidad de cómo se evalúa: los métodos escogidos, el diseño del sistema
de evaluación, qué condiciones cumple el instrumento (o instrumentos) utilizado y si las
personas escogidas para llevar a cabo esta actividad son las idóneas o no para
cumplimentarla. Para saber si el sistema de evaluación cumple con las cualidades
indispensables, él mismo debe ser sometido a un análisis que evidencie su calidad,
sustentada en su validez y fiabilidad. Aparece, entonces, la Metaevaluación como
metodología para el aseguramiento de la calidad de los procesos de evaluación externa y
acreditación y el posterior perfeccionamiento del sistema de evaluación y acreditación
implementado.
En Cuba, a partir de la oficialización del Sistema de Evaluación y Acreditación de las
Maestrías (SEA-M), en 1999, se puede hablar de una nueva etapa en el control de la
calidad en la educación superior cubana, porque hasta la fecha no existía un sistema que
integrara los procesos de evaluación (autoevaluación, evaluación externa) y acreditación en
el ámbito educativo, en general, y especialmente para los estudios de posgrado. Se
desarrolla, por tanto, una proyección, concepción, metodología, y una cultura evaluativa de
nuevo tipo que deberá reflejar y adaptarse a las nuevas tendencias internacionales en
materia de acreditación, pero sin alejarse de la realidad cubana, enriquecida en los últimos
tiempos, con el desarrollo de la Universalización: concepción que integra, a las ya
existentes, novedosas modalidades de estudio en el nivel superior entendiendo a la calidad
como la garantía de “mayores niveles de equidad y de justicia social en la obtención de una
elevada cultura integral de los ciudadanos”[v]. Se integran en este concepto de calidad tres
factores fundamentales: la Excelencia Académica de sus programas, desde la sede central
hasta las sedes municipales; la Pertinencia Integral del quehacer universitario para alcanzar
una Universidad eficiente y eficaz que responda a las necesidades educativas de la sociedad
cubana actual; y el Pleno Acceso, Permanencia y Egreso, condición indispensable para
alcanzar el paradigma de la “Educación para todos durante toda la vida”.
En la actualidad, cuando la educación superior cubana está inmersa en procesos de
evaluación y acreditación de sus programas de posgrado, carreras e instituciones, se hace
imprescindible, por tanto, identificar las deficiencias y las fortalezas de los procesos de
evaluación externa y acreditación, prevenir y corregir errores, consolidar y extender la
cultura evaluativa a todos los niveles y establecer un mecanismo que permita el
perfeccionamiento del Sistema de Evaluación y Acreditación instaurado. Aunque se haya
puesto de manifiesto un salto de calidad en este campo, queda mucho por hacer, sobre todo,
teniendo en cuenta las nuevas y diversas perspectivas con que cuenta la universidad para
ampliar su acceso a la mayor cantidad de personas posible, lo que requerirá nuevas formas
1.8- Fundamentos
La presente tesis tiene los siguientes fundamentos:
• La evaluación, herramienta que favorece la gestión del cambio hacia la eficacia, proceso
a largo y mediano plazo que exige revisión - mejora - evaluación – mejora, no escapa,
ella misma, a ese ciclo. Entiéndase por mejora, el cambio cualitativo, concreto, puntual,
deseable y aplicable para que cualquier actividad pueda ser mejorada y es, de hecho,
mejorable, lo que implica identificar y asumir sus propias limitaciones, aceptar la
responsabilidad de sus intervenciones e incorporar una sana inclinación hacia la
superación.
• Un sistema de evaluación debe ser considerado un sistema integral cuyos procesos,
elementos y agentes se muestran en una dinámica de interrelaciones mediante flujos de
información y al que se le denominará Sistema Integral de Evaluación (SIEVAL),
integrado, como un todo, por los procesos de evaluación interna, evaluación externa y de
acreditación y además, prevé en su diseño un componente metaevaluativo, donde la
autoevaluación es el punto de partida para la materialización de los otros procesos y la
metaevaluación es un nivel cualitativamente superior de ratificación de la validez de los
procesos precedentes y de todo el sistema.
• Cada uno de los procesos del SIEVAL, a su vez, son procesos independientes al tener
sus propios elementos, interrelaciones, agentes, su metodología y lógica, asumiendo una
complejidad propia. Cada proceso es autoreferente y a su vez referente del otro en tanto
que la evaluación interna precede y es requisito para la evaluación externa y la
acreditación, pero no necesariamente conlleva a estas; la evaluación externa es requisito
indispensable para la acreditación, al aportar la información imprescindible sobre el
objeto a acreditar, pero no conduce obligatoriamente a la certificación; la acreditación es
un proceso que tiene como requisito precedente la realización de la evaluación externa e
implica y está dirigida a la certificación del objeto evaluado.
• El proceso de metaevaluación es parte y responde a un Sistema de Metaevaluación
(SisMeta) que contempla una metodología y un instrumento metaevaluativo. El SisMeta
está integrado por componentes propios y ejecutado por sus agentes, es independiente al
sistema de evaluación y acreditación y puede fungir como un tercero. Su foco de
atención son los procesos de evaluación externa y acreditación, en este caso de
programas de maestrías.
• En su praxis, la evaluación externa lucha contra tres grandes adversarios: su complejidad,
la subjetividad y el tiempo. Evaluar es un proceso complejo donde intervienen muchas
personas y se manipula un gran volumen de información siempre en ascenso. Evaluar un
programa o una institución pormenorizadamente, a la perfección y exento de
insuficiencias en un plazo de tiempo establecido, resulta una tarea muy difícil. Evaluar
sin la presencia de la subjetividad, trasmitida a la selección y valoración de la
información, a los juicios y a la observancia de los procederes por las personas
implicadas, es algo quimérico.
• Teniendo en cuenta que el uso de los resultados y de la información propiciada por la
evaluación externa y la acreditación, su relación con la posterior toma de decisiones en
los diferentes ámbitos (político, social, institucional y científico) y con la mejora de los
• La meta de todos estos procesos debe ser la mejora continua del objeto evaluado y del
objeto metaevaluado.
• La modelación informática del SisMeta permite representar, como si fuera en la realidad,
la complejidad de los procesos de evaluación externa, acreditación y metaevaluación en
un modelo de retroalimentación de la información útil, cuyo flujo se basa en la relación
Input-Output-Input que permite comparar lo obtenido en el modelo con la entrada
recibida. Este modelo posibilita detectar las actividades necesarias y la información útil,
desechando lo redundante; simular el cumplimiento ideal-real de los procederes
reglamentados; y almacenar en una Base de Datos la información productiva y el
conocimiento alcanzado para el posterior perfeccionamiento del sistema de evaluación y
acreditación.
1.10- Antecedentes
El presente trabajo investigativo tiene como antecedentes la tesis presentada para la
obtención del título de master (2000), con el tema: La Guía de Evaluación del Sistema de
Evaluación y Acreditación de Maestrías (SEAM). Algunas consideraciones, que representó
en sí un primer acercamiento metaevaluativo al SEAM[vii] y entre sus recomendaciones se
planteó la necesidad de “mantener un sistemático monitoreo al SEAM, según se vaya
aplicando por todo el país, para su constante perfeccionamiento y someterlo a una
metaevaluación” por lo que la tesis que se somete a consideración es la continuidad
temática de la anterior. En segundo lugar, esta línea investigativa formó parte del proyecto
de la Dirección de Posgrado de la UH, aprobado por el MES, Gestión del Posgrado en la
Universidad: el desarrollo de la evaluación y la metaevaluación (febrero del 2003).
Además, las ponencias presentadas en los 3ro y 4to Congreso Internacional de Educación
Superior: Universidad 2002 y 2004: Evaluar la evaluación en la búsqueda de la
calidad[viii] y La evaluación y la metaevaluación: dos procesos y una estrategia para la
gestión de la calidad[ix], respectivamente, así como, los artículos publicados:
Metaevaluación: ¿Por qué y para qué?[x] y La evaluación de programas como
sistema[xi].
métodos e instrumentos) que no serán abordados aquí por límite de extensión. [Ver Anexos
I, Tabla 3 y 4 pág. 9, 10]. Dentro de la evaluación en educación se definen dos campos que
se complementan y, se pudiera decir, que uno abarca al otro: la evaluación institucional y
la evaluación de programas. Es necesario aclarar que “en la evaluación de programas y
centros se plantea la necesidad de recurrir a indicadores diferentes que midan lo que en
cada caso es la esencia de esa cultura”.[xiv] Sin embargo, no es posible evaluar una
institución sin evaluar sus programas y no es pertinente evaluar un programa si no se tiene
en cuenta la institución donde se desarrolla este, ya que una evaluación cumple realmente
con su cometido cuando tiene en cuenta el contexto donde se desarrolla el objeto evaluado.
La evaluación de programas es una actividad que, sistemáticamente realizada, resulta
relativamente joven y se suele considerar un estudio de Ralph Tyler de 1942 como el origen
de la evaluación de programas. Para llegar al concepto de evaluación de programas hay
que partir del propio concepto de programa, seleccionándose la definición dada por Pérez
Juste[xv]: “programa es el documento, intencional y técnicamente elaborado, consistente en
un plan de actuación al servicio de metas pedagógicamente valiosas donde se compaginan
aspectos científicos / técnicos con otros psicopedagógicos e, incluso, sociales”. En él han de
integrarse armónicamente los contenidos de diversa naturaleza; el enfoque de su estudio y
sus objetivos; los medios y recursos, facilitadores del aprendizaje (la motivación, la
metodología y recursos didácticos, la explicación y otras formas de dirección del
aprendizaje, las actividades, los materiales y hasta la propia evaluación). El programa, en
cuanto plan diseñado con antelación, centrado en tareas complejas que deben ser ejecutadas
por las personas en situaciones diversas, está sometido a las dificultades propias del caso.
La posibilidad de su eficacia, y su continua mejora, pasan por la incorporación de procesos
de evaluación, capaces de aportar la información rigurosa necesaria para su logro. [Ver en
Anexos I, Modelo de Pérez Juste Fig.2 pág.15 Texto pág.16]
Pérez Juste concluye que la evaluación de programas es “el proceso sistemático, diseñado
intencional y técnicamente, de recogida de información rigurosa (valiosa, válida y fiable),
orientado a valorar la calidad y los logros de un programa, como base para la posterior
toma de decisiones de mejora tanto del programa como del personal implicado y, de modo
indirecto, del cuerpo social en que se encuentra inmerso”. En esta concepción se identifican
tres componentes básicos de la evaluación: la elección y recogida de información de
calidad sobre el programa a evaluar, criterios y referencias pre-especificadas y la toma de
decisiones precisas para la mejora, los cuales, junto con los aportes de Solarte, Weiss y
Patton, referidos anteriormente, sirven de base para que la autora de este trabajo llegue al
concepto de evaluación de un programa de maestría como el proceso integral y sistemático
orientado a la determinación del estado, el funcionamiento y la proyección del programa
en correspondencia con lo predeterminado, normado y deseado que se basa en el flujo,
procesamiento y retroalimentación de la información útil a los efectos de obtener nuevos
conocimientos sobre el programa para evitar y corregir desviaciones, garantizar la
Tiana[xxiii] se puede decir que la rendición de cuentas es “algo mucho más amplio y
complejo que el simple examen de los procesos y los productos educativos, pues cuestiona,
en última instancia, quién debe determinar sobre qué debe rendirse cuentas, de qué modo,
quién debe hacerlo y ante quién” y que “la evaluación no es sino una forma distinta y nueva
de hacer política y, más concretamente, de explicar las políticas por medio de los logros
alcanzados o, eventualmente, fallidos”. Existe el consenso entre los autores consultados de
que la información que arroja la evaluación tiene usos internos y externos. Los usos
internos están relacionados con las políticas educativas, la toma de decisiones, y con la
administración y gestión de los sistemas educativos, procesos y resultados, mientras que los
usos externos están relacionados principalmente con la rendición de cuentas y la demanda
social de información.
Entre los usos internos de la evaluación Lilia Toranzos[xxiv] incluye aspectos específicos
tales como: ser un medio de obtención de información significativa para los procesos de
toma de decisiones y la reconsideración de las mismas a la luz de sus efectos sobre el
sistema educativo; devenir en instrumento crucial para el gobierno en la conducción de los
sistemas educativos, el seguimiento y la puesta en práctica de reformas educativas y para la
correcta formulación de políticas educativas; al ser la evaluación un instrumento de
investigación social cuyo principal objetivo es el diagnóstico de situaciones y el suministro
de información sobre el comportamiento y la buena marcha del sistema educativo y sus
resultados; permite, además, anticipar las necesidades futuras que es una de las grandes
preocupaciones de los políticos y los administradores de la educación. Como usos externos
se determinan los siguientes: la utilización de la evaluación por los directamente
relacionados con la puesta en práctica de políticas educativas y con el gobierno y
administración de sistemas educativos; el disponer de datos contrastables, fiables y válidos
sobre los procesos y resultados educativos, puede convertirse en un mecanismo de gran
fuerza y legitimidad para informar a la opinión pública y para transformar actitudes y
prejuicios que debieran desaparecer o quedar en entredicho ante la presentación de datos
objetivos; la evaluación concurre con otras fuentes educativas como la familia, los medios
de comunicación social o las organizaciones sociales y reafirma el valor estratégico de la
educación en el desarrollo del propio país. Esto justifica el que la evaluación sea
conveniente para “tareas de diagnóstico, base para la toma de decisiones, investigación y
prospectiva (las proyecciones y los estudios prospectivos sólo tendrán visos de seriedad si
se apoyan en un sistema coherente y fiable de información, en términos de resultados
cuantitativos y cualitativos, sobre el sistema educativo)” [xxv].
Cuando se habla de utilidad de la evaluación se hace referencia a su utilidad instrumental,
conceptual (o iluminativa) y la persuasiva. La utilidad instrumental de la evaluación está
relacionada con “la información rigurosa, válida y fiable y los elementos de juicio que ella
brinda a quienes deben tomar decisiones acerca del mantenimiento, supresión o
modificación del programa o institución y adoptar medidas para su mejora”[xxvi]. Pero esta
propósitos declarados, dejando de lado otras consecuencias que haya podido producir, por
mínimas que estas sean.
Se puede concluir que entre los posibles conflictos derivados de la implantación de
sistemas de evaluación se identifican los siguientes: autonomía vs evaluación; calidad vs
recursos; nivel de educación vs sistema de educación superior; diversidad vs calidad;
evaluación vs desconfianza al gremio de profesores; evaluados vs evaluadores; evaluación
vs posible mejora; evaluación vs indicadores de fácil acceso y evaluación de experto vs
subjetividad. Estos serán superados en la medida en que se sea capaz de asumir posiciones
correctas para prevenirlos desde el mismo momento del diseño de cualquier sistema de
evaluación.
El proceso de evolución y consolidación de la evaluación educativa ha estado determinado
por necesidades y demandas sociales en los diferentes estadios de su desarrollo en
dependencia de las exigencias científicas y político-económicas que se la han impuesto a la
educación en cada sociedad. De esas mismas exigencias pueden provenir los usos y abusos
de la evaluación, trayendo por consecuencia que algunos perciban “peligros” en su
implementación o hagan una mala interpretación de la misma; y otros, la tilden de
“monstruo” por lo que hay que situar en una balanza las ventajas y desventajas (o peligros)
de la evaluación, considerando que todo depende de quién, cómo y porqué la use o utilice.
En un posible inventario de ventajas y desventajas de la implementación de sistemas de
evaluación, independientemente del contexto en que esta se desarrolle, podrían incluirse las
siguientes:
Ventajas de la evaluación: apoya los procesos de gestión y de toma de decisión; genera
información que proporciona conocimiento sobre el objeto que se evalúa en conjunto, y de
sus componentes; posibilita crear un clima participativo, coherente y solidario que influye
positivamente en las actitudes de todos los intervinientes en los procesos docentes y
administrativos de centros y programas educativos; ayuda a desarrollar la cultura hacia
procesos de mejora y de innovación en la educación; contribuye a la capacidad de
negociación y de movilización de voluntades; es un instrumento de aprendizaje para la
ciudadanía al proporcionar el conocimiento y la información necesaria para exigir a los
gobiernos la preocupación y apoyo a la educación en el diseño de políticas pertinentes para
ello; como proceso deliberativo, permite analizar la acción específica del Estado, el
contexto en el que se desarrolla, su relación en el sistema institucional y político vigente; y
su mayor campo de acción es y será el Estado como generador de cambios.
Desventajas de la evaluación: puede influir negativamente en los procesos de gestión y de
toma de decisiones; puede ser un instrumento punitivo; de sus resultados suelen depender
fondos y recursos necesarios para continuar los programas, derivándose en jerarquizaciones
que pudieran llegar a ser discriminantes al establecerse una comparación injusta y
premiarse a quienes más recursos ostentan y no al que menos posibilidades de desarrollo
tiene; la evaluación está plegada de una carga subjetiva que, en caso de no controlarse
debidamente, puede dar al traste con los objetivos reales que se persiguen; puede utilizarse
como instrumento de políticas educativas erróneas en caso de una propagación de la
diversidad en la educación o en la controversia educación pública/ educación privada;
susceptible de saturarse de procesos largos, complejos y muy burocráticos
desactualizándose la información recogida y estimulándose el rechazo en el ámbito
académico; sus resultados pueden ser engavetados o no difundidos debidamente sin tenerse
en cuenta en la toma de decisiones; tendencia a resultados cuantitativos en la búsqueda de
confiabilidad y por tanto, a la pérdida de la esencia de lo cualitativo; sobrevaloración de las
debilidades del objeto evaluado en la toma de decisiones sin reflexionar en su verdadero
impacto en la comunidad; en el diseño o implementación del sistema evaluativo puede
disminuirse o anularse la importancia del contexto en que él o el objeto evaluado se
desarrollan, por lo que pudieran contemplarse indicadores de calidad no adaptados a la
realidad; suele ser rechazada por los evaluados al verla como un acto de desconfianza que
se tiene al desempeño del personal docente o administrativo involucrado en el programa o
en el centro, aunque ese temor podría interpretarse como reflejo o expresión de la
existencia de problemas o insuficiencias que no se quieren sacar a la luz por el temor a las
posibles consecuencias que se deriven de la identificación de los mismos a través de la
evaluación.
Al analizar sus ventajas, puede observarse un mayor alcance del impacto favorable de la
evaluación en la gestión de la calidad de la educación. En tanto, que sus desventajas, a
pesar de tener un impacto no menos importante, no dejan de ser superables con la
aplicación de medidas oportunas y serán solubles en dependencia de la capacidad que se
tenga para moderar los posibles efectos negativos de su implementación, disminuyendo los
estragos y generando mayores beneficios. Entre las pautas a considerar para moderar los
efectos no deseados de la evaluación y, a su vez, ampliar el alcance de su impacto efectivo
en la educación la autora de la presente tesis sugiere las siguientes: asumir la concepción
sistémica integral y procesal de la evaluación para lo cual propone adoptar el concepto de
Sistema Integral de Evaluación (SIEVAL), (introducido en su tesis de maestría); establecer
las características que debe cumplir un sistema de evaluación y sus componentes para
definir su calidad; determinar los aspectos (etapas, procederes, etc) que la evaluación, como
proceso, debe cumplimentar; identificar elementos de la evaluación factibles de ser
evaluados para valorar su calidad ; y acoger la metaevaluación como estrategia y
herramienta en la reducción de desventajas y abusos de la evaluación al reconocer sus
debilidades y fortalezas y propugnar el fortalecimiento de su practica. Sobre estas cuatro
pautas para contener los efectos desfavorables de la evaluación se referirán los epígrafes
que siguen.
externa y en las cuales intervienen determinados componentes del sistema [Ver Anexos I,
Tabla 5, pág. 11].
Para la autora, el proceso de evaluación externa, proceso más complejo del SIEVAL con
una significativa repercusión y trascendencia en la certificación de la calidad, es el conjunto
de actividades y acciones recogidas en un modelo de evaluación y desplegadas en un
contexto real por sus actores en compleja dinámica para propiciar el logro de los objetivos
de la evaluación a cuya realización óptima se llegará siempre y cuando estén creadas todas
las condiciones necesarias (antes, durante y después de la evaluación) que favorezcan el
flujo, procesamiento y obtención de información útil para la retroalimentación entre los
componentes del proceso. Los componentes del proceso no pueden existir aisladamente,
sus roles son determinantes y su presencia es obligatoria para que el proceso se materialice,
aunque dentro del sistema sus componentes puedan, a su vez, intercambiarse en la
ejecución de diferentes funciones, determinadas por el tipo de evaluación que se realice y
las etapas del proceso en que se encuentren. [Ver Anexos I, Fig.5 pág. 20].
En el contexto cubano, partiendo de la metodología seguida por el SEA-M para realizar el
proceso de evaluación externa a los programas de maestrías, la autora pudo identificar las
siguientes etapas (están implícitas pero no definidas en documentos del SEA-M):
familiarización y determinación de la evaluabilidad del programa (involucra los resultados
de la autoevaluación); organización de la evaluación y selección de los evaluadores;
determinación de los actores del proceso de evaluación in situ; definición del plan de
evaluación y organización de los evaluadores en grupos de trabajo; recogida de datos e
información; valoración e interpretación de la información recogida; redacción del informe
final; determinación de las audiencias con derecho a conocer las conclusiones de la
evaluación; presentación y difusión de los resultados; y toma de decisiones. Se propone
incorporar las etapas de seguimiento del plan de mejora y la metaevaluación, las cuales no
estaban supuestas en el SEAM durante el desarrollo de este trabajo. [Ver Anexos I,
pág.12-13].
Como componentes del SIEVAL se identifican el objeto de la evaluación (programa o el
centro a evaluar); actores que intervienen en la evaluación: los evaluados (demandantes y
destinatarios de la evaluación), los agentes de la evaluación (evaluadores externos o
internos) y las audiencias (personas autorizadas institucionalmente y legalmente para
conocer la información sobre los resultados de la evaluación); el instrumento evaluativo
(guía que contempla aquellas áreas susceptibles de ser evaluadas); los documentos para la
evaluación (documentos normativos para la realización de los procesos de evaluación y
documentos inherentes al programa); y los resultados de la evaluación, que se recogen en
el informe final donde se expresan fortalezas, debilidades, conclusiones y recomendaciones
de los evaluadores. Los componentes en conjunto (sistema) se desenvuelven en un contexto
o ambiente más amplio (ámbito académico, social), pero a su vez cada uno de ellos, por
las acciones posteriores; factibilidad, que estén dadas todas las condiciones para que la
evaluación se realice en un ambiente natural de manera que sólo se utilicen los recursos y el
tiempo imprescindible para lograr sus propósitos; legitimidad, referida a las repercusiones
que la evaluación suele o puede tener sobre las personas afectadas por ella, aconsejándose
proteger debidamente los derechos de todos los participantes en los procesos evaluativos y
pasando por la ética y la justeza demostrada por todos los participantes; precisión, que con
la evaluación se obtenga la información prevista y adecuada, la que realmente se pretendía
obtener; seguridad, relacionada con la validez y validación de la evaluación. La palabra
validez como sinónimo de autenticidad, utilidad, eficacia, vigencia y valor; y validación,
significando admisión, aprobación, ratificación, homologación, autorización, certificación,
garantía y seguridad.
Mientras que la calidad del instrumento evaluador (Guía de Evaluación), como eje
alrededor del cual se desarrolla la investigación evaluativa, se refleja en aspectos tales
como el acatamiento, en su diseño, de preceptos epistemológicos referidos al conjunto de
variables e indicadores de calidad contenidos que respetan la perspectiva intrínseca de la
calidad evaluando los resultados y los procesos mediante los cuales se llega a ellos; la
observancia de la responsabilidad externa de la evaluación al contener elementos
evaluables justos y objetivos, cuidando así la perspectiva extrínseca de la calidad; su
multidimensionalidad al contener todos los criterios que sean necesarios medir (los tres
momentos de vida de los programas: su diseño e inicios, su desarrollo y sus resultados); el
equilibrio de sus indicadores cualitativos y cuantitativos; la claridad y precisión de la
redacción de los criterios a medir para que no afloren ambigüedades; la exhaustividad de
los elementos incluidos; y los medios con que se acompaña para la recogida de la
información.
En consecuencia, el instrumento de evaluación debe ser útil, en tanto se logren los objetivos
para lo que fue diseñado como método e instrumento de trabajo; objetivo, porque se adapta
a las condiciones reales en que se desarrolla el objeto evaluado y coadyuva a valoraciones y
conclusiones exentas, lo más posible, de subjetivismos y parcialidades; válido, fiable y
legítimo, en tanto la información recogida permite una valoración real de lo evaluado, no
adulterada por personalismos o desarraigos éticos o profesionales de los agentes del
proceso, así como que posibilita el cumplimiento de lo normado para un proceso de
evaluación, despertando la confianza de los evaluados y los destinatarios de la evaluación;
integral, en cuanto a su proyección hacia todos los elementos del objeto a evaluar como un
todo coherente; exhaustivo, relacionado con una aplicación que agote todos los detalles en
el momento de recogida, interpretación y valoración de la información útil; exclusivo, al
distinguir y limitarse al objeto que se evalúa, reflejando todos los aspectos potencialmente
evaluables y de obligatorio cumplimiento por el objeto para ser lo que es y llegar a ser lo
que se desea ser.
Más allá de la capacidad del instrumento para medir o evaluar lo que se pretende o desea
medir, Camperos[xxxv] le adjudica a la validez, entre otras, las siguientes características: la
validez como suma inductiva de las evidencias existentes (empíricas) de lo observado y
medido con las consecuencias potenciales de su interpretación y los usos de los resultados
obtenidos, es decir de cómo se utilizó ese instrumento, a qué preguntas responde, de las
condiciones de la recopilación de datos, de las características de las personas que
proporcionan los datos y, particularmente, de la interpretación de los resultados; lo
importante no es validar los instrumentos (validez como propiedad), sino las inferencias
derivadas (validación de sus interpretaciones) y otros indicadores que le sean inherentes lo
cual hace de la validación un proceso continuo y unitario, que casi nunca es completo o
totalmente acabado; la validez siempre se refiere al grado en el cual la evidencia empírica y
el soporte teórico es adecuado, conveniente y apropiado para interpretar las acciones
basadas en los resultados de la medición; la validez descansa en la capacidad creadora y la
personalidad del investigador o evaluador, quien aplica los procedimientos e instrumentos y
conduce el análisis e interpretación de los resultados obtenidos con dichos procedimientos e
instrumentos. Lo fundamental en la validez es demostrar que los hallazgos encontrados
responden con fidelidad o reflejan y se aproximan con propiedad al constructo estudiado o
al significado del concepto en estudio.
Se concibe la validación como un proceso continuo y gradual de acopio de datos, que
fundamenten el uso e interpretación que se hará de un instrumento de medición o
procedimiento dado. La validez de la medición se refiere a la solidez de las inferencias que
se hagan a partir de los resultados del proceso de acopio de datos, pero está contaminada
por las influencias del contexto en que se enmarcan esos resultados, la teoría subyacente y
la postura del investigador o evaluador. [xxxvi] Muy ligado al concepto de validez del
instrumento (cuando mide lo que pretende medir) están los conceptos de fiabilidad y
objetividad. Se afirma que “la fiabilidad es el techo de la validez”[xxxvii] y que desde el
punto de vista práctico suele considerarse como “la consistencia entre las puntuaciones que
otorgan a una misma variable diferentes evaluadores, o la persistencia de las puntuaciones
cuando se aplica el mismo instrumento de evaluación en diferentes momentos” [xxxviii]. Es
decir, “la exactitud de los datos, en el sentido de su estabilidad, repetición o
precisión.”[xxxix] Mientras que la objetividad es cuando se facilita que la puntuación se
produzca al margen del juicio personal del evaluador.
Según Ma. Antonia Casanova[xl], la subjetividad es algo que impregna a toda actividad
humana, y es indiferente que se manifieste a través de números y estadísticas o a través de
informes descriptivos. Si la evaluación supone la emisión de un juicio de valor, ese valor
asignado dependerá siempre del marco teórico de referencia que tenga quien evalúa en cada
momento, de su ideología, de sus creencias y de sus conocimientos previos. Pero en ningún
caso hay que confundir la subjetividad crítica y racional con el subjetivismo, siendo este
último el que deberá tratar de evitarse. El subjetivismo supone una interpretación parcial y
tendenciosa de los datos y, desde ese punto de partida, ninguna valoración será fiable, pues
siempre arrojará aquellos resultados que el evaluador desee obtener, lo cual se manifiesta,
bien a través de una recogida de datos mediatizada por un objetivo falseado e impuesto
cuya consecución y beneficios se quieren justificar, bien mediante la elaboración de un
informe sesgado sobre esos mismos datos.
En conformidad con lo anterior se llega a la convicción de que para juzgar y demostrar la
calidad de la evaluación es necesario someterla a una evaluación, la Metaevaluación que
puede aportar evidencias de su validez y de la utilidad de la información obtenida, así como
proporcionar sugerencias para mejorar la práctica evaluativa.
calidad de los servicios evaluativos, evitar o enfrentarse a las prácticas ilegales o a los
servicios que no son de interés público, señalar el camino para el perfeccionamiento de la
profesión y promover una mayor comprensión de la empresa evaluativa”.[xliii] Además,
plantea que otros autores han discutido el concepto bajo la etiqueta de auditoría educativa.
La Metaevaluación al ser una obligación de todos los profesionales de la evaluación para
asegurar la calidad de su propia actividad induce a preguntarse ¿quién evalúa a los
evaluadores?. Por analogía con el término “evaluación”, la Metaevaluación ha sido y es
comúnmente considerada como aquella investigación sistemática cuyo objetivo es emitir un
juicio acerca de la calidad o los méritos de una evaluación. La evaluación se convierte, de
esta forma, en el objeto de estudio del metaevaluador
En correspondencia con todo lo anterior, Stufflebeam[xliv] define la Metaevaluación, más
específicamente, como un proceso para describir y enjuiciar la actividad evaluativa y en
contraposición al conjunto de ideas concernientes a qué constituye una buena evaluación.
Por eso plantea que al entenderse la metaevaluación como una forma de evaluación, su
conceptualización debe ser coherente con la conceptualización de la evaluación y expone
así ocho premisas sobre la evaluación:
1 Es la valoración del mérito, de ese modo, la metaevaluación significa la valoración o
estimación del mérito del empeño evaluativo.
2 Sirve a la toma de decisión y a la rendición de cuenta, por tanto, la metaevaluación
deberá proporcionar información proactiva de soporte (o respaldo) a las decisiones que
se toman en la conducción del trabajo evaluativo y deberá proporcionar información
retroactiva para ayudar a los evaluadores responsables de su trabajo evaluativo anterior.
Es decir, la metaevaluación debe ser formativa y sumativa.
3 Debe valorar la finalidad, diseños, implementación y resultados, así mismo la
metaevaluación debe evaluar la importancia de los objetivos de la evaluación, la
idoneidad de su diseño, la adecuación de la implementación al diseño de la evaluación y
la cualidad e importancia de los resultados de la evaluación.
4 Debe proporcionar una información descriptiva, crítica y además, recomendaciones
apropiadas. Igualmente, la metaevaluación debe describir y juzgar el trabajo evaluativo,
recomendando cómo puede ser perfeccionado y cómo los hallazgos pueden ser usados
apropiadamente.
5 Debe servir a todas las personas, tanto aquellas que están involucradas en ella como
aquellas que han sido afectadas por el programa. Consecuentemente la metaevaluación
debe servir a los evaluadores y a todas las personas interesadas en el trabajo de los
evaluadores. 6.Debe ser conducida por personas internas (evaluación formativa) y
externas al programa (evaluación sumativa). Por tanto, se debe conducir una
metaevaluación formativa y obtener juicios externos del valor global de las actividades
evaluativas realizadas.
6 La evaluación involucra el proceso de esbozar los asuntos a los que se deben dirigir, el
proceso de obtención de la información necesaria y su uso para la toma de decisión y la
rendición de cuentas. Los metaevaluadores deben implementar tres pasos: determinar los
asuntos específicos a que debe dirigirse la metaevaluación; acopiar, organizar y analizar
la información necesaria y finalmente emplear la información obtenida en la toma de
decisión apropiada y en la rendición de cuenta.
7 La evaluación debe ser técnicamente adecuada, útil, efectiva, no tendenciosa,
comprensible y justa[xlv]. La metaevaluación debe satisfacer los mismos criterios.
En opinión de Bonifacio Jiménez[xlvi], la Metaevaluación tiene que ver con varias
cuestiones teleológicas: el rigor de la evaluación en todo el proceso como su finalidad; la
mejora, al preguntarse por el resultado de la evaluación, por la capacidad de transformación
de la práctica evaluada y por el enlace entre la evaluación y la mejora al final y durante el
desarrollo del proceso; con la transferibilidad, cuando la Metaevaluación se pregunta por
las garantías de aplicación de las conclusiones a otras experiencias y contextos; la ética en
que se desarrolla la evaluación, la finalidad que se le atribuye, las aplicaciones que se
desprenden, los posibles abusos que la perviertan, etc.; y con el aprendizaje, al permitir
aprender de los errores y de los aciertos. Reflexionar sobre la evaluación ayuda a
comprender el fenómeno y permite elaborar pautas de intervención en situaciones nuevas.
Resulta de interés para el presente trabajo el aspecto referido a la transferibilidad el cual
plantea que cada contexto tiene su carácter concreto e irrepetible y de su estudio no se
extrae la comprobación de hipótesis de carácter general. La experiencia es irrepetible en sí
misma y es difícilmente aplicable en su integridad, ya que otro programa se moverá en
otras coordenadas y en otro ambiente distinto. La transferibilidad es un proceso que permite
aplicar los hallazgos conseguidos a otra situación diferente/similar. Cuando hay que
enfrentarse a otra situación, en parte distinta (ya que no es la misma) y en parte semejante
(ya que tiene elementos comunes), surgen interrogantes tales como: ¿hasta qué punto son
válidos en esta nueva situación los resultados obtenidos en la primera?, ¿son aplicables a
este contexto aquellas conclusiones?, ¿se encuentran aquí los mismos procesos?.
Por su parte, Fernández Ballesteros [xlvii] da otra perspectiva de la metaevaluación al
plantear que esta debería referirse a tres operaciones diferentes:
1 Valoración de otra valoración que esté en curso o que haya finalizado, tomándose la
sugerencia de Scriven de que el evaluador realice una auto-evaluación de su propia
valoración, preferiblemente del informe final, antes de entregárselo a quienes lo
encargaron, lo que puede contribuir al buen uso del informe final. Otra estrategia
consiste en favorecer los comentarios críticos de los académicos.
En cuanto a los problemas en el área legal / contractual, se indica que las evaluaciones
necesitan estar protegidas por convenios, contratos, o acuerdos entre las partes, tanto para
garantizar la colaboración eficiente como para proteger sus derechos. Entre los problemas
técnicos se incluye: la identificación de los objetivos y las variables de la evaluación para lo
que el metaevaluador debe revisar el diseño de evaluación; encontrar las condiciones de
pertinencia, el propósito y la importancia de la evaluación; verificar la flexibilidad del
diseño para adicionar nuevas variables durante el estudio evaluativo; el marco de trabajo
investigativo que debe guiar al evaluador, donde se especifica las condiciones bajo las
cuales deben acopiarse y reportarse los datos, así como, la interpretación de los hallazgos y
las alternativas de trabajo investigativo (diseño experimental, encuestas, estudio de casos y
visitas in situ, etc). Las evaluaciones tienen que ser informativas por lo que el reporte sobre
la misma y su difusión oportuna ocupa un lugar muy importante, por tanto, los
metaevaluadores deberán determinar si han sido utilizadas las técnicas de comunicación
apropiadas para interpretar y trasmitir los hallazgos a las audiencias predeterminadas.
Los problemas administrativos se relacionan con el mecanismo organizativo, la locación, la
política y metodología evaluativas, el personal de apoyo, las facilidades en el plantel, el
cronograma para la recogida de datos y la rendición de la información resultante de la
evaluación, adiestramiento de todo el personal involucrado, y el presupuesto para la
evaluación. Por su parte, las consideraciones morales, éticas y de utilidad se corresponden
entre otros, con algunos de los propósitos sociales valiosos como la posición filosófica en la
evaluación, la valoración de los evaluadores relacionada con interrogantes sobre la
posibilidad de conflictos entre los valores y normas técnicas y el sistema de valores del
cliente. Por último, se plantea la posibilidad de problemas relacionados con la objetividad
en la labor del evaluador, la perspectiva de la utilidad y el costo/ eficacia del plan
evaluativo.
En cuanto a la predeterminación de los posibles parámetros a evaluar en la metaevaluación
se puede encontrar una gran diversidad de criterios desde el punto de vista teórico y es por
eso que para Ester García Sánchez[lii], el principal problema con el que se enfrenta una
metaevaluación es el de los criterios conforme a los cuales se evalúen las evaluaciones, ya
que aún son escasas las propuestas teóricas formuladas de manera específica para la
metaevaluación a tal punto que algunas de las metaevaluaciones que se han llevado a cabo
hasta la fecha no son sino aplicaciones de modelos teóricos elaborados para la realización
de evaluaciones.
Algunas reflexiones han girado en torno a cuestiones de carácter metodológico (una
evaluación será tanto más válida cuanto mayor sea la utilización de técnicas cuantitativas
como paradigma de la calidad de la evaluación); otras, en cambio, se han ocupado
principalmente de la ética de la evaluación como los representantes de la corriente
cualitativista que defienden que la evaluación debe ser justa y debe promover la
participación de todos los sectores afectados por la política pública (House, Stake o
referida como la oportunidad que ofrece el proceso de evaluación a todos los participantes,
a pesar de las diferencias, para participar y aportar en la toma de decisiones y la
trascendencia, como la significancia del proceso de evaluación en términos de vigencia y
amplitud, para la comprensión y reconceptualización de la acción que se evalúa, así como
de los planes de mejoramiento.
Una vez expuestos los posibles criterios que se tomarán en consideración para la
Metaevaluación hay que responder al cuándo y al cómo se implementará el proceso de
metaevaluación. Por ejemplo, en el documento Some Evaluation Questions[lxii] las
recomendaciones varían desde hacer la metaevaluación para cada evaluación o hacerla
periódicamente. La prescripción general es que la metaevaluación puede ser realizada
utilizando la misma lógica general (y a veces los mismos métodos) que para la evaluación
primaria, desde las primeras interrogantes ¿qué tiene que hacer la evaluación para que sea
una buena evaluación?, ¿a través de qué estándares?. Midiendo el desempeño de la
evaluación con atención a estos aspectos y sintetizando los resultados para alcanzar un
juicio sobre sus los méritos, la metaevaluación puede ser aplicada a cada etapa de la
evaluación, hasta la revisión durante la evaluación del reporte completo, sometiéndolo a
consultas y críticas de forma independiente.
Pazos, Leonardo (2002) La evaluación de programas sociales en el Estado Liberal. VII Congreso
Internacional del CLAD sobre la Reforma del Estado y de la Administración Pública, Lisboa,
Portugal , 8-11 Oct. 2002
[xiv] Ruiz Ruiz, José M., 1996, pág. 46.
[xv] Pérez Juste, Ramón (1995), pág. 115
[xvi] Poggioli, Lisette, (1996).
[xvii] Ruiz Ruiz, José Ma. , 1996, pág. 47
[xviii] Windham, 1992. Citado en Poggioli, Lisette, 1996, pág. 57)
[xix] Chapman y Mahlck, 1993 . Citado en Poggioli, Lisette, 1996, pág.57
[xx] Windham, Levin y Bathory , 1990. Citado en Poggioli, Lisette, 1996, pág. 58
[xxi] Hernán Ayarza E., Director adjunto del centro Interunivesritario de Desarrollo CINDA, (1995) :
La evaluación y el mejoramiento de la calidad de la docencia. IGLU.Gestión d ela Calidad y el
cambio. Canadá
[xxii] Tomado del Diccionario de la Ciencia de la Educación, 1983
[xxiii] Tiana Ferrer, Alejandro (1996): Tratamiento y usos dela información en evaluación.
Documentos –5 Programa Evaluación de la Calidad de la Educación. Consultado en Internet el
14/3/02
[xxiv] Toranzos, Lilia: El problema de la calidad en el primer plano de la agenda educativa.
Programas Evaluación de la Calidad de la Educación Documento –2. Consultado en Internet el
14/3/02.
[xxv] Toranzos, Lilia: El problema de la calidad en el primer plano de la agenda educativa.
Programas Evaluación de la Calidad de la Educación Documento –2. Consultado en Internet el
14/3/02.
[xxvi] Tiana: Tiana Ferrer, Alejandro. (1996) : Tratamiento y usos de la información en evaluación.
Documentos-5. Programa Evaluación de la calidad de la educación. Consultado en Internet. El
14/3/02
[xxvii] Tiana Ferrer, Alejandro. (1996) : Tratamiento y usos de la información en evaluación.
Documentos-5. Programa Evaluación de la calidad de la educación. Consultado en Internet. El
14/3/02
[xxviii] Idem
[xxix] Santos, Miguel Angel ( 1993): En Idem
[xxx] Alkin, Daillak y White, (1979): En Tiana, 1996. Tratamiento y usos de la información en
evaluación. Documentos-5. Programa Evaluación de la calidad de la educación. Consultado en
Internet. El 14/3/02
[xxxi] Gento
[xxxii] Entrevista al Dr. Corral Ruso, 2000
[xxxiii] Guba y Lincoln (1985) : En Escudero , Tomás (2003): Desde los tests hasta la investigación
evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación. Revista
Electrónica de investigación y Evaluación Educativa, V 9, N 1. http://www.uv.es/RELIEVE/v9n1/
RELIEVEv9n1_1.htm. Consultado julio 2003
[xxxiv] Daniel L. Stufflebeam, presidente del «Joint Committee on Standars for Educational
Evaluation» y actual director del «Evaluation Center» de la Western Michigan University (sede del
Joint Committee) y del CREATE (Center for Research on Educational Accountability and Teacher
Evaluation),
[xxxv] Camperos, Mercedes 1997, pág. 10
[xxxvi] Messick, 1989. Citado en Camperos, Mercedes, 1997, pág. 18
[xxxvii] Gento, S. ( 1989). Citado en Ídem.
[xxxviii] Schapiro, M y Sardy, H. (1985): Citado en Ídem.
Chile. Se puede afirmar, por ejemplo, que no es hasta finales de los 80’ y principios de los
90’ que se evidencia en América Latina el uso de modelos de evaluación “con la intención
de ser eficientes” [viii], es decir, optimizar el uso de sus escasos recursos por lo que “resurge
en la región la problemática del Estado Evaluador dentro del contexto del neo-liberalismo
institucional que reclama justificar el uso eficiente de los recursos estatales”[ix].
Al hacer una caracterización del estado actual de la actividad evaluativa y de acreditación
en América Latina, Fernández Lamarra[x] plantea que las iniciativas y los organismos de
evaluación y acreditación se han desarrollado de manera muy abierta a la influencia de la
experiencia internacional (regional y extra-regional) en un marco de discusión,
colaboración y construcción regional centroamericano; la fragilidad y escasa cohesión e
integración de los subsistemas de educación superior en la mayoría de los países de la
región ha limitado la definición e impulso de políticas nacionales claras en materia de
evaluación y acreditación de la educación superior (escaso apoyo de los gobiernos
(Ministerios), escasez de recursos financieros disponibles para emprender acciones de
mayor alcance y proyección); se ha avanzado en la “cultura de la evaluación”, registrándose
un mayor desarrollo en lo referido a la evaluación diagnóstica para el mejoramiento de la
calidad y de la pertinencia institucional, y no con fines de acreditación; se implementan
procesos tendentes a la acreditación de carreras de grado a partir de criterios y estándares
preestablecidos con extensa trayectoria en Brasil y en Argentina y para programas de
carácter regional también en Centroamérica a través de SICAR para el reconocimiento
regional; los procesos tendentes a la aprobación de nuevas instituciones universitarias
privadas o para la revisión de su funcionamiento, han posibilitado limitar la proliferación
excesiva de nuevas instituciones y tender a una mayor homogeneidad en cuanto a los
niveles de calidad; por último, la tendencia a la articulación de los procesos nacionales y
regionales de acreditación de carreras o titulaciones en Europa y en América Latina, que
posibilita aprovechar el nuevo espacio común de Educación Superior Unión Europea,
América Latina y el Caribe.
Fernández y Zavala[xi] al referirse también a la evaluación y acreditación en América
Latina hace las siguientes reflexiones: la experiencia latinoamericana de los últimos
cincuenta años, buscando un modelo de desarrollo adecuado, ha demostrado que mucho
más útil para nuestra realidad es tener en cuenta las diferencias culturales, de sistema
político y de desarrollo económico que obviarlas copiando recetas o aceptando lo que está
de moda porque es sinónimo de lo moderno sin reflexionar sobre su validez y/o utilidad. Es
erróneo desligar las decisiones sobre modelos de evaluación en América Latina de
consideraciones básicas como qué es lo que se pretende lograr con las evaluaciones, bajo
qué circunstancias se han aplicado y dentro de qué paradigma administrativo. [Ver Anexos
II Tabla 19 Iniciativas regionales, pág.54].
En Europa, como resultado del proceso Sorbona-Bolonia (1998, 1999) y de las Cumbres de
la Comunidad Europea, la educación superior se ha encaminado hacia cuatro direcciones:
– la evaluación que se realiza, en correspondencia con los agentes evaluadores, puede ser
interna y/o externa. La Guía de Evaluación resulta, en la práctica, un instrumento
evaluador multipropósito al utilizarse tanto para la autoevaluación, como para la
evaluación externa. La evaluación externa se corresponde, por su finalidad, con la
evaluación sumativa dirigida a los resultados: resultados del programa en una edición
concluida (sus procesos finalizados en un momento concreto), buscando la
certificación de la calidad de dicho programa, pero el SEA-M también coadyuva al
posterior perfeccionamiento del programa, por lo que puede enmarcarse en la
evaluación formativa. Desde el punto de vista de su extensión se realiza una
evaluación global al proyectarse hacia todos los componentes del programa evaluado
de forma integral y por el momento de aplicación, la evaluación del SEAM puede
determinarse como una evaluación final, pues se realiza al terminar un período
determinado del programa cuantificando y analizando los resultados obtenidos durante
ese tiempo.
2 En cuanto a la finalidad, objetivos y usos de la evaluación en general:
– con ella se persigue obtener información válida y fiable para determinar las causas de
los logros o de los aspectos negativos del programa (o institución) para luego proponer
las recomendaciones o sugerencias de modificaciones imprescindibles con vistas a su
mejora.
– no se utiliza como instrumento de dominación, control o punición, ni para establecer
jerarquizaciones discriminantes de programas e instituciones o hacer depender la
entrega de presupuestos, según los resultados obtenidos, lo cual es completamente
improcedente en Cuba.
3 En cuanto a la metodología utilizada y los procedimientos en la práctica evaluativa:
– se cuenta con un patrón de calidad (conjunto de estándares), que en el caso de las
maestrías, “persigue identificar un modelo ideal al cual deben aproximarse los
programas en Cuba, el que define el deber ser del posgrado cubano, entendiendo por
calidad la conjunción de la excelencia académica y la pertinencia social en su
acepción más amplia”(Artículo 18. Reglamento del SEA-M)
– se realiza por estándares preestablecidos en una Guía a la que se someten todos los
programas e instituciones del país por igual.
– a la evaluación externa le precede, como requisito indispensable, una autoevaluación y
a la acreditación le precede una evaluación externa.
– se basa en el principio del carácter voluntario de la solicitud de los interesados de un
proceso de evaluación externa a partir del cumplimiento de determinados requisitos
iniciales establecidos en el reglamento, aunque hay limitaciones temporales para
mantener la categoría obtenida (por ejemplo, ver Artículo 6 y 13 del Reglamento del
SEA-M).
– la evaluación externa es realizada por evaluadores no profesionales, seleccionados de
entre un grupo de prestigiosos profesionales de las distintas ramas del saber que
proceden de las diferentes universidades del país u otros organismos y cumplen con
determinados requisitos de idoneidad sin obtener ningún tipo de pago.
– se ha tenido en cuenta la opinión de los implicados e interesados en la concepción,
desarrollo y valoración de los sistemas de evaluación y sus instrumentos, llegándose a
un consenso para su implementación.
4 Los subsistemas del SUPRA han sido diseñados con un alcance nacional respondiendo a
las condiciones homogéneas propiciadas por el Sistema Nacional de Educación
Superior. En el caso particular del SEA-M, se han tenido en cuenta las características y
condiciones homogéneas dispuestas en el Reglamento de la Educación de Posgrado para
programas de maestrías, lo que ha posibilitado alcanzar una homogeneidad en los
estándares, en los procedimientos y en los objetivos que se persiguen con la evaluación
en el contexto cubano.
5 En Cuba la calidad en la educación superior se garantiza mediante un sistema de control,
evaluación y acreditación, constituido por tres subsistemas: Subsistema de Control
Estatal, que implica inspecciones estatales, auditorías, visitas de trabajo, evaluación del
cumplimiento de la planeación estratégica y de los objetivos en cada curso académico;
Subsistema de Evaluación Institucional, que contempla la autoevaluación y evaluación
externa de las Instituciones de Educación Superior (IES) y de sus distintas unidades
organizativas (Departamento Docente, Facultad, Centro de Estudio, Centros de
Investigación e Institución de Educación Superior, Sedes Universitarias Municipales); y
un Subsistema de Acreditación extendido a las carreras, especialidades, maestrías y
doctorados.
Resumen: A la actividad evaluativa y acreditadora se dedican organizaciones y entidades
nacionales e internacionales, gubernamentales y no gubernamentales, con o sin fines de
lucros y se implementan sistemas de evaluación y acreditación nacionales, regionales y
transnacionales para garantizar la calidad en la educación. Han surgido organizaciones
nacionales e internacionales que controlan, coordinan acreditan o certifican la actividad de
otras agencias o entidades acreditadoras. Existen organismos internacionales relacionados
con la educación y el ámbito económico como la UNESCO, el Banco Mundial, la
Organización para la Cooperación y Desarrollo Económicos (OCDE), que han trazado
políticas e iniciativas, estimulando a la evaluación y la acreditación como instrumento
potenciador de la calidad y la excelencia de las universidades, institución generadora de
conocimientos y recursos humanos capacitados para dar respuesta a los nuevos retos del
desarrollo científico-técnico, económico y productivo.
Se evalúan y acreditan las instituciones de forma integral y los programas, ya sea ex - ante
o ex - post para la autorización, la ratificación o cierre de los mismos. Desde el punto de
vista metodológico la evaluación y la acreditación están asociadas a procesos de evaluación
interna (especialmente de autoevaluación) y de evaluación externa, realizada por pares
externos; a estándares de calidad a nivel nacional e internacional (indicadores cualitativos y
cuantitativos); y se establecen categorías o niveles de acreditación que expresan diferentes
umbrales de calidad en la educación. Existe una diversidad en la forma de hacer la
evaluación sustentada en la pluralidad teórica sobre la evaluación que ha ido
transformándose según la experiencia acumulada por cada país y en la complejidad en los
distintos sistemas de educación nacionales.
En Cuba, la implantación del SUPRA ha sido posible por la existencia de una voluntad
política que se traduce en el propósito manifiesto del mejoramiento de la calidad de
programas e instituciones, su perfeccionamiento y el otorgamiento de la certificación del
nivel de calidad por ellos demostrado a partir del cumplimiento de estándares previamente
establecidos, así como en el fomento de una cultura de la calidad entre los actores y el
aseguramiento de la formación de recursos humanos de alto nivel en programas e
instituciones educativas de excelencia que impulsen el desarrollo científico y tecnológico
nacional. Estas condiciones y objetivos imponen y propician la implementación de un
Sistema de Metaevaluación para velar por la calidad de la evaluación, la cual no está exenta
de dificultades en el contexto cubano. Igualmente, sería recomendable abrir el debate sobre
los resultados de los procesos de evaluación y acreditación y el impacto de los mismos
como una forma, no de rendición de cuentas, sino como reflejo de la confianza y la
responsabilidad depositada en las instancias evaluadoras y acreditadoras del MES, que en
su quehacer llevan a la práctica la política evaluativa que el Estado cubano respalda y la
sociedad exige.
selección de los evaluadoresha sido un tanto empírica y muy difícil debido a quelas
personas seleccionadas son sacadas de su medio familiar y laboral, lo cual se torna
complicadopor las responsabilidades que desempeñan, sobre todo,alhacer coincidir las
fechas de inicio de los procesos y la movilidad de los mismos; actuar como evaluadoresno
les reportamotivación desde el punto de vista material o intelectual y al no estar en su plan
de trabajo no se le da prioridad a esta actividad. Se recomienda que los evaluadores y
miembros del CTE debieran estar sujetos a una licitación o que haya una bolsa ampliada
yheterogénea, donde se trate de no repetir, en un mismo año, al mismo evaluador y evitar la
rutinización del proceso y comprobándosela ausencia de relaciones entre evaluadores
yevaluados.
– Entrega de la documentación: al 70% de los evaluadores entrevistados se les entregó
la documentación del programa en tiempo y forma.
– Determinación de la evaluabilidad del programa: en ella participó el 70% de los
evaluadores entrevistados.
– Independenciay autonomía de los evaluadores durante el proceso: el90% de
losevaluadores entrevistadosla tuvo. En general,no hubo interferencias de los
evaluados enel trabajo de los evaluadoresa pesar de la interactividad de los procesos.
– Peso de las consideraciones de los evaluadoresen las conclusiones del proceso de
acreditación: el 50% de losevaluadores entrevistadosafirma que síson tenidas en
cuenta, un20%opina que sólo a nivel de la CEy un20% desconoce las conclusiones del
proceso. Otros entrevistados (no evaluadores)plantearon que se han respetado
loscriterios de los evaluadores, ya que sobre la base de la informacióndada por ellos es
queel CTE y la JAN pueden hacer sus propias conclusiones.
►Se reconoce que el peso del trabajo de los evaluadores todavía es poco y puede
vérseles,por algunas instancias intermedias,como invasores de su territorio.
– Necesidad del experto del CTE durante el proceso como observador: el 100% de los
entrevistados opina que sí es necesariohasta que no se tenga plena garantíade que los
evaluadores sean expertos o profesionales de la evaluación, porque el proceso de su
preparación es muy rápido. El experto actúa como asesoral tener más experiencia
ydominio de los reglamentos posibilitando lahomogeneidad en el proceso;garantizando
que no haya sesgos, hiperbolización e ideas preconcebidas de los evaluadores;
manteniendo la comunicación entre las partes; u orientando en general. Sin embargo,
hay quienplantea que se supone que los evaluadores tengan los códigos éticos
necesarios por lo que no sería necesaria la figura del experto del CTE en el proceso.
– Imparcialidad del experto del CTE: la generalidad de los entrevistados opina que el
comportamientodel experto durante el proceso es imparcial al no estar comprometido
con el programa, aún al ser de la misma especialidad y despojarse de la institución a la
especialidad, se les llamó y pidió su currículo vitae y fueron investidos por el Ministro
del MES. Se considera que debiera tenerse en cuenta, además, el ser expertos en
evaluación a nivel nacional.
– Sesiones de trabajo de la JAN: los documentos de los procesos de evaluaciónexterna
son repartidos entrelosgrupos de trabajo ya organizados y al final,se presenta cada caso
en plenaria, realizándose unavotación generalpara ratificaro no el nivel de certificación
propuesto por el equipo de trabajo. Se concibió el voto unánime como procedimiento
de trabajo en el momento de decidir la certificacióna otorgar.
► En las sesiones de la JANel nivel de credibilidad decrecee implica la burocratización de
la actividad desde el primer momento en que se les entrega a sus
miembrosdocumentoselaborados por otras personas (evaluadores y/o CTE) por lo quela
actividad sevuelve un“creer en”. La posibilidad de que se tome en cuentala opinión de
alguien es muy limitada porque ya todo viene preparado.
Se considera pertinente perfeccionar el trabajo en la JANpor ser una actividad muy
complicada, donde sus participantes son personas conmuchas responsabilidades.
► No siempre están presentes los compañeros de la Secretaríade la JANo no están a
tiempo completo por tener otras actividades. Los miembros de la CE que realizaron la
evaluación externa no participan en las sesiones de trabajo de la JAN
• Resultados de los procesos de acreditación:
– Aceptación por los evaluados: No se han hecho reclamaciones por falta de ética de los
evaluadores en su proceder.
► En dos procesos no se estuvo de acuerdo con los resultados de la JAN por no
corresponderse los mismos ni con el trabajo realizado, ni con el informe dado porlos
evaluadores; los resultados no reflejan la situación real del programa ni la posiciónde los
involucrados en el mismo, ni de los propios evaluadores; y no son trasmitidos a los
interesados en un tiempo prudencial para que en caso de apelación se tenga la posibilidad
de hacerla.Los motivos de las apelaciones presentadas están relacionados con la no
aceptación de determinados señalamientos identificados comodebilidades (actividades
docentesimpartidas en diferentes locales oprácticas de laboratorios hechasen otros
centrosgenerado por la falta de condiciones pero por relaciones personales y no por tenerse
convenios); por no estar ahora certificado el programa o por no obtenerse la categoría de
programaexcelente. La respuesta de la apelación ha sido demorada en varios meses.
Paso 2: Por analogía con los momentos de desarrollo del programa (momento inicial,
relacionado con la suficiencia y pertinencia del diseño del programa;desarrollo que se
corresponde con la equidad, la organización y los recursos del programa en su puesta en
práctica; momento final, sus resultados), se identificaron aspectos metaevaluables en
correlación con los momentos del proceso evaluativo: la eficacia, la eficiencia,
efectividad, trascendencia e impacto de la evaluación externa. [Ver en Anexos III, Tabla
46, pág.107]
Paso 3: Identificación de aspectos imprescindibles en el cumplimiento de cada etapa del
proceso de evaluación que, de no acatarse, se convierten en debilidades o deficiencias del
proceso y en aspectos metaevaluables. [Ver en Anexos III, Tabla 45, pág. 106].
De lo anterior se derivó una primera versión de la Guía de Metaevaluación con ocho
variables, que se nombraron en correspondencia con la terminología internacional y la
conceptualización de criterios tradicionalmente utilizados para medir la calidad de la
evaluación: Pertinencia, Suficiencia, Equidad, Organización y Recursos (gestión, recursos
y marco del proceso), Eficacia, Efectividad, Eficiencia, Impacto y Trascendencia de la
evaluación [ver en Anexos III Momentos del diseño integrados Tabla 47 pág.108yVariante
1 de la Guía , Tabla 49, pág.110-112].
Posteriormente, se hizo el análisis de los aspectos del proceso de evaluación externa y
acreditación (en su realidad) que verdaderamente tributabana cada una de las variables
identificadas [ver Anexos III, Tabla 48, pág.109]. Esto permitió definirque había elementos
metaevaluables que, en la primera versión de la guía, quedaban fuera: la observancia de la
legalidad (cumplimiento de normas establecidas antes, durante y después del proceso); todo
lo referente a la acreditación como proceso que también cumplimenta normas y se basa en
la información aportada por la evaluación externa; la transparencia de los procesos y su
validación a través del cumplimiento de lo previamente establecido. En cambio, la
transferibilidad no se retoma por ser un elemento que, aunque estárelacionado con el
proceso de evaluación externa (condiciones, resultados y actuaciones), tributa más a la
implementación del sistemade evaluación como experiencia generalizada en el ámbito
nacional que a un proceso evaluativo, en particular.
Con el fin de validar la pertinencia de las variables y los criterios del primer diseño de la
Guía, en las entrevistas de la tercera y cuarta etapa investigativas se introdujeron
interrogantes relacionadas con la categoría Conceptualización que permitió recoger el
estado de opinión sobre las características que deben cumplir los procesos de evaluación
externa, la necesidad de realizar procesos de metaevaluación y sobre cuáles parámetros o
aspectos debían tenerse en cuenta para su realización. Sobre la necesidad de la
metaevaluación,el 83%de los 18 entrevistados al respecto respondió que sí era necesario
con argumentos que no difieren delos sustentados por la autora al diseñar su investigación,
entre los que se pueden citar los siguientes: la evaluación es una actividad en la que
intervienen factores humanos y debido a la carga subjetiva que ellos portan hay riesgos de
cometer errores; por tanto, se deben afinar los instrumentos, sacar experiencias positivas
para las próximas evaluaciones. La Metaevaluación se convertiría en un instrumento de
perfeccionamiento permanente del sistema de evaluación al controlarla calidad de los
procesos de evaluación externa, aunque haya o no reclamación; corroboraría los resultados
y la validez de los procesos al comprobar si hay alguna violación, lo que posibilita un
mayor conocimiento y reflexión sobre lo que se hace,ya que cada proceso de evaluación
tiene sus características. Si se tiene en cuenta a la sociedad que está más allá de los IES (la
región donde está enclavado el programa y toda la comunidad científica), el SEAM tiene un
efecto social significativo, por lo que está obligado a mejorar a partir de los resultados de
las evaluaciones realizadas. La propia complejidad del sistema exige un perfeccionamiento
constante en correspondencia con el desarrollo científico-técnico. Todo proceso es
susceptible de ser mejorado, perfeccionado y cambiado y la metaevaluación de la
evaluación sería la evaluación de un proceso de gestión al permitir perfeccionar
perspectivamente los instrumentos y las metodologías usadas, el automonitoreo y la
automejora del sistema de evaluación vigente, haciéndolo más pertinente.
Como parámetros para medir la evaluación, los entrevistados identificaron: claridad en
los procedimientos del proceso, dada en el conocimiento previo de qué se va a medir para
contemplar todas las posibles situaciones imprevistas; los proceder es utilizados y las
condiciones en las que se realizó el proceso; la correspondencia del resultado de la
evaluación con la realidad del programa; la justeza, objetividad, seriedad, calidad,
imparcialidad y rigor de la evaluación; carácter educativo e inspirador del proceso;
capacidad de las variables y parámetros, determinada en la claridad de su definición al
recoger los elementos determinantes y en la efectividad de su respuesta a la realidad que se
evalúa; aspectos tangibles del proceso que puedan ser medidos y que están presentes en las
evaluaciones; idoneidad de los evaluadores: selección correcta, conocimiento profundo de
los indicadores y su preparación con respecto al objeto evaluado; definición de los
objetivos de la evaluación; análisis y cumplimiento de las normas establecidas para evaluar
(si son claras, si se prestan o no a diferentes interpretaciones, si las puntuaciones asignadas
están bien ponderadas); integralidad,como sistema que persigue un fin y en la satisfacción
en el plano espiritual (expectativas y necesidades de los estudiantes al adquirir
conocimientos); impacto de los egresados; fiabilidad de los instrumentos utilizados; el
agotar las fuentes primarias de información posibles; grado de compromiso de los actores
del proceso; impacto del proceso de evaluación sobre el programa (percepción de la
evaluación de los evaluados, qué ganaron y para qué les sirvió);grado de aceptación de los
evaluados con los resultados; y difusión del sistema de evaluación como tal para que se
conozca y mejorarlo, aún antes de su aplicación. Se corrobora así la coincidencia de
muchos de los aspectos a incluir en el instrumento metaevaluativo sugeridos por la autora
con la información recogida de las entrevistas.
Como último paso se agruparon todos los parámetros o criterios e indicadores de las
variantes anteriores de la guía haciéndolos coincidir con tres de las categorías utilizadas en
las entrevistas: Realidad del proceso de evaluación externa, Realidad del proceso de
acreditación y Significación de los procesos, esta última tomando el nombre de
Repercusión de los resultados de los procesos de evaluación externa y acreditación; se
desecharon la Conceptualización y el Perfeccionamiento de los procesos[Ver Anexos III,
Tabla 48 pág.109 y Fig.8 pág. 87]. En consecuencia,las tres categorías identificadas como
focos de atención de la metaevaluación cumplían con los requisitos para convertirse en las
dimensiones de la variante final de la Guía de Metaevaluación [Ver en Anexos IV,
pág.162]. Esto se justifica al perseguir el objetivo de reflejar, en el instrumento
metaevaluativo,el proceso de evaluación externa y de acreditación en su
dinámica,enmarcados en la realidad en la que están inmersos, así como resaltarla
trascendencia de estos procesos en el desarrollo y el futuro de la práctica evaluativa y del
sistema de evaluación, en general, mientras que en los diseños anteriores se reflejaba la
evaluación como resultado y no como proceso. La descripción de la Guía se hace en el
Capítulo IV.
Resumen: Se logró el diseño de la Guía de Metaevaluación, de la metodología
metaevaluativa, del documento Ficha Técnica; se verificó en la práctica que la concepción
sistémica de la Metaevaluación no era errada y se derivaronlas siguientes reflexiones y
recomendaciones:
1 El innegable salto de calidad evidenciado desde la génesis del SEA-M que se pone de
manifiesto en la preparación de documentos normativos; en la aparición de la figura del
experto – observador del CTE en el proceso de evaluación externa; en la tendencia a la
homogeneidad de la información a recepcionar y en los procedimientos; y en la
existencia de una mayor cultura evaluativa, lo cual permite hablar de dos etapas
cualitativamente diferentes en la aplicación del SEA-M.
2 Persistencia de debilidades en los procesos de evaluación externa y acreditación, así
como la identificación de aspectos del SEA-M, que deben ser sujetos a un reanálisis y a
un perfeccionamiento, en general.
3 Para que el SEA-M garantice la calidad de los programas y su mejora a través de
procesos pertinentes, equitativos, participativos y pueda satisfacer las necesidades
crecientes de los destinatarios de los programas y no sólo la certificación pública, se
recomienda como estrategia evaluativa velar por la relación sistémica Evaluación
Interna- Evaluación Externa-Acreditación-Metaevaluación, donde el proceso de
evaluación externa constituye un todo coherente en que todos sus elementos conforman
una secuencia lógica, imprescindible para alcanzar los objetivos propuestos para la
evaluación.
acreditación de las maestrías y del SEA-M sobre la base de los conocimientos derivados del
procesamiento de la información obtenida en dichos procesos: evidencias de las no
conformidades (debilidades) o la ratificación de sus fortalezas, para posteriormente hacer
recomendaciones y propiciar su mejora. La Metaevaluación al ser aplicada a cualquier
sistema de evaluación y acreditación en su integralidad contribuye a la determinación de
políticas y estrategias evaluativas más acertadas, ya que la evaluación externa, la
acreditación y la metaevaluación deben tener como meta la mejora continua de los objetos
susceptibles de ser evaluados, en particular, y la mejora continua de la Educación, en
general. La certificación no debe ser considerada como un fin, y menos aún, como el
instrumento ideal que garantiza la calidad, suplantando en este rol a la evaluación
formativa.
El perfeccionamiento del SEA-M estará basado en las generalizaciones de las no
conformidades (debilidades) reiteradas y evidenciadas como resultado de estudios
comparativos y/o de casos de un número determinado de procesos de evaluación externa y
acreditación metaevaluados, lo cual implicaría la validación de la Guía de Evaluación y del
sistema, en general. Esta validación podría fundamentarse en la determinación de aquellos
aspectos evaluables que no son generalizables a todos los programas; en los aspectos de la
Guía de Evaluación que no cumplen con el principio de contextualización inherente a la
evaluación o en aquellos en que el peso de la ponderación en la Guía no es adecuado, o en
el análisis de tendencia de sus variables. No se desecharían las no conformidades atribuidas
a cada proceso, que dependen de su diseño, de las circunstancias objetivas o el contexto en
que este se realice, de las características, intereses personales o profesionales de los agentes
que intervienen en la evaluación, por lo que estas debilidades típicas serán consideradas
como no conformidades factibles en cualquier otro caso y en cualquier otro momento. La
Metaevaluación tributará también al perfeccionamiento del SEA-M al proporcionar
información y conocimientos que facilitarán valorar el impacto de la evaluación y de la
acreditación al revelar y describir la actuación y reacción (positiva y/o negativa) de los
evaluados ante el proceso a que fueron sometidos y ante sus resultados; al comprobar la
satisfacción o no de sus expectativas; y al valorar el nivel de aceptación e implementación
de las recomendaciones de mejoras resultantes de los procesos.
La Metaevaluación, como actividad pluridisciplinar, al valorar la calidad con que se
desarrolló el proceso de evaluación externa y de acreditación estará valorando la suficiencia
del sistema implementado y la suficiencia del programa sujeto a la evaluación primaria. Se
entiende aquí como “calidad”, la calidad extrínseca e intrínseca del programa y de la propia
evaluación, sin obviar que en la Metaevaluación los estándares de calidad establecidos
también estarán sujetos, inevitablemente, a la percepción de calidad de la evaluación que
tenga el experto metaevaluador al igual que en la evaluación la tiene el experto evaluador
sobre la calidad de un programa. En consecuencia, se pueden determinar dos niveles de
actuación de la Metaevaluación: en un primer nivel, actuará directamente sobre los
procesos de evaluación externa y acreditación culminados y los programas que han sido
sujetos a ellos para ratificar sus fortalezas y evidenciar sus debilidades y determinar
aquellas otras que no fueron evidenciadas por la evaluación primaria; en un segundo nivel,
influirá en el Sistema de Evaluación y Acreditación para comprobar si en su en basamento
se ratifican, o no, los principios inspiradores de la política evaluativa difundida: la
pertinencia, la justeza, la transparencia y el carácter participativo de la evaluación, entre
otros.[Ver en Anexos IV Fig.19 pág. 140].
De esta forma la Metaevaluación permitirá aprehender las claves de la política evaluativa
gubernamental; planificar y realizar una evaluación solvente; remitirse a la toma de
decisión basada en la información obtenida y validada en los procesos evaluativos;
promover una mejor comprensión de la empresa evaluativa y coadyuvar a la profundización
de la cultura evaluativa en el ámbito educativo; asegurar la calidad de los servicios
evaluativos por medio de una metodología que posibilite evidenciar la actuación ética de
las personas involucradas y la valoración de las posibles consecuencias negativas derivadas
de su aplicación con el objetivo de evitar prácticas ilegales; establecer en qué medida la
evaluación realizada ha ampliado sus objetivos y ha cumplido con su misión; proporcionar
evidencias de la competencia técnica del evaluador y averiguar hasta qué punto los
instrumentos utilizados son adecuados para obtener la información deseada; analizar y
valorar el aporte de los resultados de los procesos de evaluación externa y acreditación para
encausar su perfeccionamiento a través de estudios comparativos, de tendencias y de
impacto.
La Metaevaluación no deja de ser también un recurso o una alternativa práctica ante
posibles discrepancias o conflictos surgidos durante y después de realizada la evaluación
externa y la acreditación. En estos casos, un proceso de metaevaluación podrá realizarse en
cumplimiento de la solicitud de una o de las partes (evaluados y evaluadores) o por otras
instancias involucradas en el proceso de evaluación externa, cuando la parte evaluada
entienda que el proceso no ha sido justo y transparente al existir dudas sobre los
procedimientos o la calificación otorgada por los evaluadores; cuando hayan quejas de una
o de las partes por el clima no favorable en el que se desarrolló el proceso o por los
métodos y técnicas utilizadas por los evaluadores, así como por la falta de ética o
profesionalidad por ellos demostrada; cuando se entienda que hay menoscabo de la
integridad de los evaluadores por rumores o acusaciones infundadas hechas por la parte
evaluada; o cuando la instancia acreditadora juzgue que la información suministrada resulta
insuficiente o viciada por la subjetividad de los evaluadores u otros agentes implicados en
la evaluación externa. Con la Metaevaluación no sólo se protegerá el buen uso de la
información acopiada en la evaluación externa en la toma de decisiones, sino también se
protegerá a los objetos evaluados y a todas aquellas personas que intervienen en los
procesos evaluativos al cuidar de sus derechos y velar por sus obligaciones en la
observancia de las buenas prácticas en dichos procesos.
METAEVALUAR
¿Quién la Expertos seleccionados: metaevaluadores, quienes responden a un órgano
ejecuta? responsable y especializado en esta actividad: Órgano Metaevaluador
¿Cómo? Por una metodología preestablecida a seguir en todos los casos
¿Dónde? Lugar donde se desarrolló la evaluación primaria
¿Cuándo? En dependencia de los objetivos: antes, durante y después de la
evaluación.
¿Con qué? Disponibilidad de recursos financieros, materiales y humanos previstos
para la metaevaluación, previamente concertados con los demandantes y
los responsables del proceso de evaluación.
La Metaevaluación y la Evaluación generan un círculo autoreferente sobre la calidad, tanto
del objeto evaluado como del metaevaluado, lo que posibilita un desarrollo hacia la
perfección. Todo proceso de evaluación que se lleve a cabo en el ámbito universitario, al
ser parte de las acciones propias de su quehacer, debe tener implícito un componente
metaevaluativo, de manera que haya oportunidad de redimensionar, a tiempo, el proceso de
evaluación, o para la sistematización del mismo en aras de obtener nuevos conocimientos
que tributen aportes al perfeccionamiento de la práctica evaluativa.
Morfológicamente, la palabra “metaevaluación” en su composición contiene el prefijo
metá- (de origen griego) que significa “cambio, mutación, más allá, que engloba, después,
posterior”, por lo que el término perfectamente se acomoda a la definición y a la
representación que se pretende establecer del concepto de Metaevaluación cuando se le
reconoce como un proceso que engloba a otros procesos, que se realiza, por preferencia,
posteriormente a estos y que va más allá al posibilitar cambios y mejoras en los mismos con
vista a una nueva proyección. A partir de esto, la autora del presente trabajo entiende la
Metaevaluación como el proceso que investiga, basado en evidencias, las debilidades y
fortalezas que marcan a los procesos de evaluación y/o acreditación con el objetivo de
observar y ratificar el cumplimiento, por parte de los sujetos, de los aspectos éticos,
metodológicos, normativos y técnicos que rigen en estos procesos. Los resultados se
tomarán en cuenta con el fin de propiciar el aseguramiento de la calidad y la proyección
del ulterior perfeccionamiento, tanto del Sistema de Evaluación y Acreditación vigente
como de los propios programas evaluados y acreditados, así como para el reconocimiento
de la práctica y la política evaluativa. [Ver Anexos IV, Fig.16 y 18 Mapas conceptuales
pág.137 y 139]
De esta definición se concluye que la Metaevaluación es necesaria, pero no es un proceso
de obligatoria aplicación a cada uno de los procesos de evaluación externa y/o acreditación
culminados y se ejecutará en respuesta a la debida solicitud y justificación de su necesidad,
o cuando se quieran hacer estudios investigativos a solicitud de alguna instancia. Por su
parte, las “debilidades” son concebidas como aquellas no conformidades con lo
indicadores. [Ver Anexos IV, Guía de Metaevaluación, pág.162-171]. Las tres dimensiones
son:
1 Realidad del proceso de evaluación externa, con cinco variables: formación de los
evaluadores externos, metodología utilizada en el proceso de evaluación externa,
organización del proceso de evaluación externa y recursos para su desarrollo,
resultados del proceso de evaluación externa y observancia de la legalidad durante el
proceso. Estas variables contemplan un total de 23 criterios y 77 indicadores.
2 Realidad del proceso de acreditación, con cuatro variables: formación de los
miembros de la Junta Nacional de Acreditación, metodología del proceso, observancia
de la legalidad y resultados del proceso. Estas incluyen seis criterios y 16 indicadores.
3 Repercusión de los resultados de los procesos de evaluación externa y acreditación,
con dos variables: trascendencia e impacto de dichos procesos, que incluyen cuatro
criterios y siete indicadores.
La finalidad de un proceso de metaevaluación no es propiamente dar una calificación
numérica o cualitativa de cómo se llevó a cabo la evaluación externa y la acreditación, sino
determinar aquellos momentos o aspectos del proceso donde se hayan cometido violaciones
o errores (no conformidades) en detrimento del propio proceso, para lo cual es
imprescindible una valoración meramente cualitativa. A pesar de que la Metaevaluación no
debe derivar en un proceso estrictamente cuantitativo que desvirtuaría sus objetivos
primarios y complicaría las acciones al originarse dudas, ambigüedades e insatisfacciones
innecesarias, se estima inevitable establecer, dentro de la Guía de Metaevaluación, un
puntaje como la representación numérica y simbólica de la suficiencia de las acciones
cumplimentadas dentro de los procesos de evaluación externa y de acreditación. Se asume,
entonces, la nomenclatura numérica comprendida entre los umbrales de 0 a 5, donde 5 es el
umbral máximo (positivo) y el cero, el mínimo (menos positivo) [Ver Anexos IV,
Metodología metaevaluativa, pág.147-161]. El no otorgamiento de un rango o valor no es
más que la correspondencia con el no cumplimiento de lo reglamentado por la evaluación
primaria, es decir, con la existencia de no conformidades detectadas en los procesos de
evaluación externa y de acreditación. La guía tendrá un máximo de 55 puntos (5 por cada
una de las once variables) que llevada a la escala anterior equivale a cinco y el puntaje
general equivaldrá al por ciento del cumplimiento de lo normado. [Ver Anexos IV pág.169
documentos para la puntuación].
El otorgamiento de la puntuación se basará en las evidencias que aporten los datos que se
recepcionen y la información cualitativa que se procese a partir de las fuentes establecidas
para ello (entrevistas, estudio de la documentación del proceso de evaluación externa y del
programa), o de otras acciones indagatorias convenientes con lo que se registrará el grado
de no conformidades encontradas en los procesos de evaluación externa y de acreditación.
Esto permitirá orientar al equipo metaevaluador en sus pesquisas y posibilitará el eficaz
citar, entre las bondades de esta herramienta, el brindar una representación gráfica de un
sistema; una plataforma objetiva para tomar decisiones; mecanismos para medir la
efectividad del cambio; potentes editores para definición de los procesos, flujos y
actividades basadas en costes; proporciona una vista del modelo en forma de árbol;
diagrama de contexto para todo el ámbito; puntos de vista y clarificación de propósitos; las
propiedades definidas por el usuario; la captura de información sobre la organización,
entorno y factores críticos de éxito; diagramas de descomposición por actividades y la
consistencia reforzada a través del modelo.
El BPwin incluye tres metodologías de modelación. La metodología IDEF-0 (Procesos
Empresariales- Business Process - IDEF-0), técnica para analizar el sistema completamente
como un set de actividades o funciones interrelacionadas, donde las actividades
(representadas por verbos en infinitivo) son analizadas independientemente de los objetos
que la conforman. La metodología DFD (Flujos de Datos -Data Flow Diagram-DFD)
modela el sistema como una red de actividades que procesan datos hacia y desde el
almacén, dentro y fuera de los límites del sistema representado y se usa en la
complementación de la gestión de la información del sistema. La metodología IDEF-3
(Flujos de Trabajo -Process Flow IDEF-3) tiene como objetivo proveer un método
estructurado que describe una situación como una secuencia de eventos ordenada y describe
cualquier objeto participante como las reglas de asociación. Estas metodologías son,
actualmente, aplicadas en el mundo empresarial y de los negocios, pero perfectamente
trasladable a la modelación de otros procesos como los procesos educativos.
La modelación mediante el BPwin de los procesos de evaluación externa, acreditación y
metaevaluación propicia la evidencia de la utilidad, en caso de aprobarse la metodología
propuesta, de esta herramienta (complementada con una Base de Datos) en la eficiente
gestión de la información del SisMeta, garantizando su validez y la retroalimentación de la
información entre todos sus elementos. Para emprender el modelado con el BPwin se
partió, primeramente, de la elaboración de mapas conceptuales sobre el contenido de la
evaluación externa y de la metaevaluación como concepción, así como del proceso de
metaevaluación, propiamente dicho para lo cual se utilizó la herramienta CmapTools 3.10
[Ver Anexos IV, Fig.15, 16, 18, pág.136, 137,139 ].
En el marco del All Fusion Process Modeler se asume el concepto de proceso como el
conjunto de actividades interrelacionadas entre sí que, a partir de una o varias entradas de
información, dan lugar a una o varias salidas también de información con un valor añadido
para el usuario. Por su parte, se define como modelo, la representación de una realidad
compleja, por lo que al modelar un proceso se sintetizan las relaciones dinámicas que en él
se dan, se prueban sus premisas y se predicen sus efectos, dando la oportunidad de
organizar y documentar la información sobre el sistema. Por tanto, al asumir el modelo
informático del SisMeta se persiguen los siguientes propósitos: [Ver Anexos IV, Tabla 24
Reporte de propiedades del modelo, pág.172]
actividad es ejecutada correctamente y qué outputs son producidos; sus mecanismos, son
los recursos con los que se ejecuta la actividad: personas, máquinas o equipamiento que
se utilizan para ejecutar la actividad; y por último, la información de salida de los
procesos de evaluación y acreditación, información y datos procesados por ellos que han
sido transformados en sus resultados.
2 Output del proceso de metaevaluación: es aquella información obtenida por el propio
proceso metaevaluativo una vez que se haya procesado toda la información de entrada
(Input) llegada a él, cuyos referentes están contenidos en la Guía de Metaevaluación.
3 Controles: políticas, regulaciones y procedimientos establecidos para llevar a cabo la
actividad metaevaluativa, entre los que se encuentran: Metodología metaevaluativa:
procedimientos [Anexos IV, pág.147], Guía de Metaevaluación [Anexos IV, pág. 162] y
Principios de Buenas Prácticas para el desarrollo de la actividad metaevaluativa
[Anexos IV, pág. 145].
4 Mecanismos del proceso metaevaluativo: personal asociado al Órgano Metaevaluador,
el equipamiento, infraestructura y los insumos imprescindibles para realizar la actividad.
los evaluadores y evaluados sin la previa aceptación de todas las partes, ni por los canales
que no sean los establecidos en el reglamento.
Resumen: En correspondencia con el objetivo principal de esta tesis, la concepción del
Sistema de Metaevaluación (SisMeta) se basa en dos argumentos claves:
1 Para valorar la calidad de la evaluación externa y la acreditación se propone un conjunto
de parámetros que tratan de responder a las condiciones en que se desarrollan estos
procesos (objeto de la metaevaluación) y las condiciones de los programas educativos
(objetos de la evaluación) en el contexto educativo cubano. En la Guía del SisMeta se
introducen los aspectos que reflejan la realidad de los procesos inherentes a él y no
aspectos que pudieran responder a intereses de representantes de determinados sectores
de la sociedad o del ámbito académico como supuestos clientes o consumidores de la
evaluación o aspectos relacionados con determinadas áreas que influyen en el desarrollo
de esos procesos como pudieran ser la económica o financiera (costos de la evaluación)
o la política en cuanto al interés de favorecer a unos más que a otros. Aspectos que en el
medio cubano se resuelven o se analizan de diferente forma o por diferentes mecanismos
en comparación con otros contextos en los cuales, para valorar la calidad de la
evaluación, se han adoptados y adaptados parámetros propuestos por agencias
internacionales o utilizan aspectos que recrean su propia realidad y necesidades.
2 El SisMeta es un sistema integral que se consolida a través de cuatros marcos
referenciales: el teórico-conceptual, el metodológico, el organizativo o institucional y el
marco legal-normativo. Se basa en la selección, almacenamiento, procesamiento y
generación de información válida que posibilita un flujo y reflujo de información
generada por los procesos y actividades contemplados en él y que constituye la esencia
del aseguramiento de la calidad de los procesos de evaluación externa y de acreditación
y su posterior perfeccionamiento. Por tanto, además del trabajo de campo realizado, el
modelo informático del SisMeta ha proporcionado un medio de verificar la factibilidad
de crear un sistema que sea capaz de responder al problema que se trata de solucionar
con este trabajo de tesis: propiciar el aseguramiento continuo de la calidad de los
procesos de evaluación externa y acreditación de los programas de maestrías y el
perfeccionamiento del SEA-M.
6- Conclusiones
En Cuba, la implementación del Sistema de Evaluación y Acreditación de las Maestrías,
producto autóctono, nutrido de lo mejor de las prácticas evaluativas internacionales
estudiadas y de la experiencia evaluativa acumulada en el ámbito educativo nacional, debe
ser considerada en sí misma una innovación y, a su vez, promotora de innovaciones y
mejoras, no sólo en los programas evaluados por él, sino también en su repercusión para la
creación de otros instrumentos y metodologías evaluativas en el ámbito de la Educación
Superior cubana. Con el SEA-M se introduce un nuevo enfoque de la evaluación al
trascender, cualitativamente, las experiencias de supervisión y control de la calidad
preponderantes en la Educación Superior cubana hasta el momento de su oficialización. A
pesar del salto de calidad que se ha alcanzado en su puesta en práctica, es evidente que el
SEA-M no escapa a la imperfección como toda obra humana, lo que implica la necesidad
de someterlo a una metodología metaevaluativa. Con este fin se propone, en el marco de
esta tesis, el diseño del Sistema de Metaevaluación (SisMeta), cuya implementación
permitirá el aseguramiento de la calidad y el mejoramiento continuo de los procesos de
evaluación externa y acreditación y el perfeccionamiento del propio SEAM, lo cual se
evidencia en los resultados de la investigación que se pone a consideración:
1 En la creación del Sistema de Metaevaluación (SisMeta) se asume la siguiente
concepción y composición:
– Un concepto propio de la metaevaluación como sistema y como proceso en la que se
determinan una tipología de la metaevaluación y los ámbitos en los que ella actúa. El
SisMeta, concebido con un enfoque preponderantemente cualitativo y sistémico
basado en la gestión de información para ser más eficiente, se sustenta en tres pilares:
el sujeto como agente que actúa y ejerce influencias; la información, como
propiciadora de la retroalimentación que se produce entre los procesos y las personas;
y el mayor grado de objetividad posible, basado en las evidencias que se manifiestan
en la información generada y procesada y en el buen uso de la información resultante,
transformada en conocimientos.
– Se introduce y desarrolla el concepto de Sistema de Metaevaluación como un sistema
integral que contiene a los procesos de evaluación externa, acreditación y al proceso
de metaevaluación, conformando un todo, pero a su vez son independientes. La
metaevaluación, basada en las evidencias de las fortalezas y las no conformidades en la
implementación de los procesos de evaluación externa y de la acreditación, es el nivel
cualitativamente superior para la validación de su calidad, propiciando la
retroalimentación en todo el sistema.
– El SisMeta tiene como finalidad el aseguramiento de la calidad de los procesos de
evaluación externa y acreditación de las maestrías (objeto de la metaevaluación) para
7- Recomendaciones
1 Promover la metodología metaevaluativa como método y medio en la conservación y
generalización de las experiencias y conocimientos adquiridos en la práctica evaluativa
que pueden tributar a nuevas investigaciones o estudios comparativos, sobre tendencias
y de impacto de la evaluación externa y la acreditación que proporcionarían el
aseguramiento de la calidad y el perfeccionamiento del SEA-M en su integralidad y de
cada uno de sus procesos, Esto coadyuvaría a la determinación de políticas y estrategias
evaluativas más acertadas.
2 Estudiar la propuesta del SisMeta, sometida a consideración, por las entidades
correspondientes y, en la medida de las posibilidades, propiciar su implementación no
sólo en el marco del SEA-M, sino también en el marco de los otros sistemas incluidos en
el Sistema Universitario de Programas de Acreditación (SUPRA), haciéndose las
adecuaciones pertinentes.
3 Propiciar la continuación de esta investigación con la creación de un software que
incluiría la confección y gestión de las Bases de Datos a partir de los procesos de
metaevaluación, con el objetivo de obtener información y conocimientos para el
perfeccionamiento del SEA-M.
4 Promover la metodología y el enfoque de sistema y de proceso en la compresión de los
procesos de evaluación y acreditación a otros niveles: carreras, instituciones y otras
modalidades de postgrado.
5 Extender el método de modelación informática fundamentado en la gestión de
información a los procesos de evaluación y acreditación, en general por las bondades
que este proporciona: económicas, instructivas y facilitadoras.
6 Se sugiere la implementación de procesos de metaevaluación como alternativa para
resolver situaciones conflictivas en la práctica evaluativa: no aceptación de los
resultados de la evaluación externa y acreditación, y/o en la identificación de violaciones
u omisiones en los procedimientos durante los procesos.
7 Se recomienda la culminación del código ético para la práctica evaluativa en el marco
del SEA-M.
8- Bibliografía
1.Abarca Ponce, Ma. Pilar: La evaluación de programas educativos. Editora Escuela Española S.A, Madrid,
España, 1989.
2.Acosta, Vladimir: “Desafíos y objetivos regionales para los años 90 en América Latina y el Caribe”. Revista
Educación Superior y Sociedad. Vol.1, No.1-CRESALC, Venezuela, 1989.
3.Aguerrondo, Inés: “La calidad de la Educación: Ejes para su definición y evaluación”. La Educación. Año
XXXVIII, No.116, OEA, Washington D.C., 1993.
4.Aguilar Hernández, Marielos: “La evaluación institucional de las universidades. Tendencias y desafíos” en
VI Congreso Universitario UCR. htm. consultado en Internet el 13/8/03.
5.Alarcón Alba, Francisco; Guillermo Luna, Julio: “La evaluación y acreditación de la Educación Superior en
Centroamérica” en La Evaluación y la Acreditación de la Educación Superior en América Latina y el
Caribe, Pág. 57. UNESCO - IESALC, Editorial ENPES-Mercie Group, CUJAE, Ciudad de La
Habana, Cuba, 2003.
6.Alcántara, Armando: “Tendencias mundiales en la Educación Superior: el papel de los organismos
multilaterales”. UNAM, México.Doc html consultado en Internet el 27/9/02
7.Alfaro V. Gilberto; Sánchez Virginia: Criterios y aspectos para conducir procesos de meta evaluación. Un
análisis de casos. Universidad Nacional Heredia, Costa Rica.
8.Aljure Nasser, Emilio: Lineamientos para la Acreditación de la Educación Superior en Colombia.
Documento de trabajo. Comisión 2. Conferencia Regional sobre Políticas y Estrategias para la
Transformación de la Educación Superior en América Latina. CRESALC-UNESCO-MES,La
Habana 18-22 de noviembre de 1996
9.Álvarez B, Neptalí y Morles Victor: “El futuro de la educación de posgrado. Los sistemas nacionales de
Educación Avanzada”. Revista Investigación y Posgrado, Vol. II, No.2-1996.Venezuela, 1996.
10.Alvira Martín, Francisco: Metodología de la evaluación de programas. Centro de Investigaciones
Sociológicas (CIS), Madrid, 1991.
11.Anónimo: “Sistema Centroamericano de Evaluación y Acreditación de la Educación Superior
(SICEVAES)”. Revista Universidades, No.12-1996, julio-diciembre. México,1996.
12.Anónimo: Evaluation Policy and Framework Saskatchewon Post-Secondary Education and skills training.
Canada, November, 1998. Doc.pdf consultado el 5/6/03.
13.nónimo: Convención de Salamanca. Doc. pdf consultado en Internet el 3/9/03.
14Anónimo: Declaración conjunta de los Ministros de Educación europeos. Comunicación oficial. Praga, 19
de marzo 2001. Doc. pdf consultado en Internet el 25/2/03.
15.Anónimo: Documento de trabajo: Las Organizaciones internacionales de cooperación y la educación. Sus
principales definiciones. En Revista Iberoamericana de Educación (OEI).Programa Calidad y
Equidad en la Educación. Consultado en Internet el 14/3/02.
16.Anónimo: Modelo Europeo de la Calidad. Un camino hacia la excelencia. Home page Assurance Quality
Assessors (AQA). Sitio Web: http://www.aqa.es/loc/modelo.doc.html consultado el 11/10/02.
17.Anónimo: Task Force Peer Review. Models for The Peers. Peer Review VAS/FH/HES/SUP 2001.The
Swiss University.
18.ANUIES: Acreditación Universitaria en América Latina. Antecedentes y experiencias. ANUIES.
Colección de Bibliotecas de la Educación Superior, México, 1993.
19.Armanet, Pilar: “Garantía de la Educación Superior en el contexto de la globalización”.Ministerio de
Educación .Chile. Doc. pdf consultado en Internet el 1/4/04.
20.ArosemenaRomán, Jorge: “Problemática para el establecimiento y perspectivas de la acreditación de
programas entre las universidades mexicanas y centroamericanas para la continuación de estudios”.
EnCalidad y cooperación internacional en la Educación Superior de América Latina y el Caribe.
Memorias de la reunión preparatoria de la Conferencia Regionalsobre Políticas y Estrategias para la
transformación de la Educación Superior en América Latina y el Caribe, La Habana, 1996. ANUIES/
CSUCA/ CRESALC/ UNESCO. Serie: Políticas y Estrategias, No. 6, 1996.
21.Arrién, Juan B.: Calidad y acreditación: exigencias a la universidad. Documento de Trabajo. Comisión 2.
Conferencia Regional sobre Políticas y estrategias para la transformación de la Educación Superior
en América Latina y el Caribe. CRESALC-UNESCO-MES,La Habana 18-22 de noviembre, 1996.
22.Ayarza E, Hernán: “La Evaluación, el Cambio y el Mejoramiento de la calidad de la docencia”. IGLU.
Gestión de la Calidad y el Cambio, octubre, Canadá, 1995.
23.Barnett, Ronald: Poder, esclarecimiento y evaluación de la calidad”. Revista Universidad Futura, Vol.3,
No.8 y 9, pág.59,México, 1995.
24. Benítez, Francisco; Fernández Aurora y otros: “La calidad de la Educación Superior Cubana”. Revista
Cubana de Educación Superior, No.1, Vol. XVII. CEPES- Universidad de La Habana. Cuba, 1997.
25. Bjørnkilde, Thomas; Bason, Christian: Meta Evaluation of the Evaluations of Higher Education in
Denmark. Paper for Case-study Session at the 4 th EES Conference in Lausanne, October
12-14-2000.
26. Bordas, Inmaculada: La evaluación de programas para el cambio. 1992.
27. Brunner, José Joaquín: “Calidad y evaluación en la Educación Superior”. En Evaluación y Acreditación
Universitaria. (Metodologías y experiencias). Editorial Nueva Sociedad, pág. 9, 1997.
28. Brunner, José Joaquín: “La evaluación de la Investigación”. Revista Universidad Futura, Vol. 3, No. 8 y 9,
.México, 1997.
29. Bueno Sánchez, Eramis: Metodología de la Investigación. Centro de Estudios Demográficos (CEDEM) de
la Universidad de La Habana, Ciudad de La Habana, Cuba, 1994
30. Burbano López, Galo: “Política de gestión y mejoramiento de la calidad de la educación superior
colombiana”. En Calidad y cooperación internacional en la Educación Superior de América Latina y
el Caribe. Memorias de la reunión preparatoria de la Conferencia Regional sobre Políticas y
Estrategias para la transformación de la Educación Superior en América Latina y el Caribe.
ANUIES/ CSUCA/ CRESALC/ UNESCO. Serie: Políticas y Estrategias, No. 5, 1996.
31. Bustos, Eduardo: Aseguramiento de la calidad en la Educación Trasnacional. Comisión Nacional de
acreditación de Posgrado (CONAP).Chile. Doc. pdf. consultado en Internet el 1/4/04.
32. Camperos, Mercedes: “El concepto unitario de validez y la evaluación educativa”. Revista Pedagógica.
Vol. XVIII, No. 5, abril-junio, Venezuela, 1997.
33. Carita Bonilla, Luis: “La cooperación internacional en la nueva dimensión de la universidad”. En La
transformación universitaria en vísperas del tercer milenio. Serie: Políticas y Estrategias, No.6.
Memorias del Simposio AUGM/ UDUAL/ CRESALC/ UNESCO, 1996
34. Casaliz, Pierre: “Gestión estratégica y evaluación de la calidad”. 1er Encuentro Interuniversitario
Nacional sobre evaluación de la calidad, La Habana, 1995.
35. Casanova, M. A.: La evaluación garantía de calidad para el centro educativo. Ediciones Edelvives,
Zaragoza, España, 1992.
36. Casassus, Juan; Arancibia, Violeta; Froemel, Juan E.: Laboratorio Latinoamericano de Evaluación de
Calidad de la Educación. Revista Iberoamericana de Educación, Número 10. Evaluación de la
Calidad de la Educación. Organización de Estados Iberoamericanos. Consultado en Internet el
14/03/02.
37. Cobo Suero, Juan Manuel: “El reto de la calidad en la Educación. Propuesta de un modelo sistémico”.
Revista de Educación Superior, No.308, septiembre-diciembre, pág. 353. España, 1995.
38. Colás Bravo, M. Pilar; Rebollo, Ma. de los Ángeles: Evaluación de programas: una guía práctica.
Editorial Kronos. España, 1994.
39. Comunidades Europeas: Comunicación “El papel de las universidades en la Europa del conocimiento”.
Bruselas, 5 / 2 / 2003. COM (2003) 58 final. Documento pdf. consultado 28/5/03.
40. CONACYT -Padrón de Programas de Posgrado de Excelencia. Convocatoria de actualización.
Documentos. México.
41. CONEAU: Lineamientos para la Evaluación Institucional. Ministerio de Cultura y Educación .Aprobado
por resolución No.094-CONEAU-1997. Aportes del Comité Ejecutivo del CIN y el CRUP. Doc. pdf.
consultado 20/7/00.
42. Consejo Europeo de Barcelona: Conclusiones de la Presidencia. En Ministerio de Educación, Cultura y
Deporte de España: Documento-Marco. La integración del sistema universitario español en el
espacio europeo de enseñanza superior. Febrero 2003. Documento pdf. consultado el 22/ 9/03.
43. Cook, T.D.; Reichardt, Ch. S. (Eds): Métodos cualitativos y cuantitativos en la investigación evaluativa.
Editorial Morata, S.A. Madrid, España, 1986.
44. COPAES- Consejo para la Acreditación de la Educación Superior: Manual del procedimiento para el
reconocimiento de organismos acreditadotes de programas académicos de nivel superior. Doc. pdf
consultado en Internet el 18/2/04.
45. Correa Uribe, Santiago y otros: Investigación evaluativa. Módulo 6. En Especialización en teoría, métodos
y técnicas de investigación social. Instituto Colombiano para el Fomento de la Educación Superior,
ICFES. Bogotá, Colombia, 1996. Consultado en diciembre 2000. Sitio Web:
http://www.icfes.gov.co/es/fomento/gcfom/pub/libros/ser_inv_soc/modulo6.pdf
46. Council for Higher Education Accreditation (CHEA): FACT SHEET # 3. Twelve important Questions
about External Quality Review. September, 2001. Documento pdf. Sitio Web: www.chea.org
consultado el 19/2/04.
47. Council for Higher Higher Education Accreditation (CHEA): FACT SHEET # 4. A Framework for
Meeting. Transfer of credit Responsabilities. Documento pdf. Sitio Web: http://www.chea.org
consultado el 19/2/04.
48. Council for Higher Education Accreditation (CHEA): The Fundamentals of Accreditation. What Do You
Need to Know? September, 2002. .Documento pdf. Sitio Web: http://www.chea.org consultado el
19/2/04.
49. Council for Higher Higher Education Accreditation (CHEA): How Do They Operate to Assure Quality?.
FACT SHEET #5 Accrediting Organizations in the U.S., December 2002. .Documento pdf. Sitio
Web: http://www.chea.org consultado el 9/1/04.
50. Council for Higher Higher Education Accreditation (CHEA): FACT SHEET # 1.Profile Accreditation.
August, 2003. Documento pdf. Sitio Web: www.chea.org consultado el 19/2/04.
51. Council for Higher Higher Education Accreditation (CHEA): International Quality Review and
Accreditation .The Role of CHEA Accreditors. Doc.html consultado el 9/1/04. Sitio Web:
http://www.chea.org
52. Crespo, Ismael: El panorama de la Evaluación y Acreditación de la Educación Superior en España con
referencia al marco europeo. En el Seminario-Taller Internacional “Evaluación y Acreditación de la
Educación Superior en América Latina y el Caribe”. Buenos Aires 8 y 9 de mayo de 2003.
Documento pdf consultado el 3/8/03.
53. Criteria Glossary for Sound Evaluation Plans. Sitio Web: http://glossary.htm
54. Cruz Cardona, Victor: Evaluación y Acreditación de Programas de Posgrado. Guía de Autoevaluación de
la AUIP. 2da Edición, Universidad del Valle, Colombia, 1995.
55. Cunhra, Luis Antonio: “El caso paradigmático de Brasil: Evaluación cualitativa de la universidad
brasileña”. Diálogo No.13, septiembre, pág. 6. España, 1994.
56. Chan-goo, Yi: Evaluating The Nacional R&D Evaluation System in Korea. Electronics and
Telecommunications Research Institute (ETRI). Tayon, Korea. Doc. pdf abstract 111 consultado el
4/6/03.
57. Chaves de Rezende Martins, Ricardo: “El Sistema de Seguimiento de los programas de posgrado en
Brasil. Notas críticas sobre Evaluación”. Revista Investigación y Posgrado. Vol. II, No.2.Venezuela,
1996.
58. Chené Louise; Freedman Bárbara: Evaluando la evaluación: un estudio de casos. (español e inglés).
Canadá Sitio Web: http://www.INQAAHE.htm. Consultado 24/11/00.
59. Deiros, Beatríz; Álvarez, Jesús: “La Evaluación académica de programas de posgrado: retos y
dificultades”. Revista Cubana de Educación Superior. Vol. XVIII, No.1-1998, pág.81. Ciudad de La
Habana, Cuba, 1998.
60. de Oliveira Carvalho Abigail y Spagnolo Fernando: “Veinte años de evaluación de posgrados en Brasil: la
experiencia del CAPES”. En Evaluación y Acreditación Universitaria (metodologías y experiencias),
pág.151. Brasil, 1997.
61. de la Torre, Saturnino: Innovación Curricular. Proceso, Estrategias y Evaluación. Editorial Dykinson,
S.L., 1994.
62. de la Torre, Saturnino: Cómo innovar en los centros educativos. Estudios de casos. Editorial Escuela
Española, España, 1998.
63. Diamant, Ana Estela: Propuesta para un análisis comparativo de instrumentos de evaluación de logros
académicos. Documento 4. Programa Evaluación de la Calidad de la Educación. Sitio Web: http://
www.campus-oei.org/revista consultado el 14/03/02.
64. Díaz, Mario de Miguel: La Evaluación de los centros educativos. España, 1990.
65. Diccionario de la Ciencia de la Educación. Publicación Diagonal, Santillana, 1983.
66. Dirección de Posgrado de la Universidad de La Habana: Informes y documentos Cuba, 1995-1996.
67. Documento: La transformación universitaria en vísperas del tercer milenio. Memorias del Simposio
AUGM/UDUAL/ CRESAL/ UNESCO. Serie 6: Políticas y Estrategias. Caracas, 1996.
68. Dopico, Mateo, Ileana: La Guía de Evaluación del Sistema de Evaluación y Acreditación de Maestrías
(SEA-M). Algunas consideraciones. Tesis defendida en opción al título de Master en Ciencias de la
Educación Superior. CEPES, Universidad de La Habana, 2000.
69. Dopico, Mateo, Ileana: “La evaluación de programa como sistema”. Revista Aula Abierta No. 78,
Diciembre 2001. Instituto de Ciencias de la Educación (ICE). Universidad de Oviedo, Oviedo,
España. ISSN: O210-2773, 2001.
70. Dopico, Mateo, Ileana: “Evaluar la evaluación en la búsqueda de la calidad”. Trabajo presentado en poster
en la Sexta Junta Consultiva de Posgrado en el marco del 3er Congreso Internacional de Educación
Superior, Universidad 2002. Ciudad de La Habana, Cuba, 2002
71. Dopico, Mateo, Ileana: “Metaevaluación: ¿Por qué y para qué?”. Revista Cubana de Educación Superior.
Editada por el Centro de Estudios para el Perfeccionamiento de la Educación Superior (CEPES) de la
Universidad de La Habana, Vol. XXIII, No. 3, Año 2003. ISSN 0257-4314. Cuba, 2003.
72. Dopico, Mateo, Ileana: “La evaluación y la metaevaluación: dos procesos y una estrategia para la gestión
de la calidad”. Ponencia (PER- 269) presentada en el VII Taller Internacional sobre la Educación
Superior y sus perspectivas .Comisión 9: Evaluación curricular y de programas (6/2/04). En el marco
del 4to Congreso Internacional de Educación Superior, Universidad 2004. Ciudad de La Habana,
Cuba, 2004.
73. Eaton, Judith S.: In Accreditation Accountable. The Continuing Conversation between Accreditation and
Quality Assurance. CHEA Monograph, Series 2003, number 1.Council for Higher Education
Accreditation )CHEA), Washington, D.C. U.S.A. Sitio Web: www.chea.org consultado 17/2/04.
74. Eaton, Judith S.: Letter from president: The Value of Accreditation: four pivotal roles. May, 2003.
Council for Higher Education Accreditation (CHEA). Doc. pdf. pre_ltr_values_accrd_5-03. Sitio
Web: www.chea.org
75. Enciclopedia General de la Educación: Evaluación e investigación. Tomo 2. Editorial OCÉANO.
Barcelona, España.
76. Escudero Escorza, Tomás: “Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de
intenso desarrollo de la evaluación en educación”. Revista Electrónica de Investigación y Evaluación
Educativa, vol.9, n.1. 2003 http://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1.htm..
77. Escudero Escorza, Tomás: Enfoques modélicos y estrategias en la evaluación de centros educativos.
Instituto de Ciencias de la Educación Universidad de Zaragoza. España, 1997. Revista Electrónica de
Investigación y Evaluación Educativa, vol.3, n.1, consultada 4/6/03 Sitio Web:
http://www.uv.es/RELIEVE/v3n1/RELIEVEv3n1_1.htm ..
78. Espí L., Nora: “Líneas de trabajo compartidas en acreditación en Iberoamérica” (Cuba). Revista
Iberoamericana de Educación (OEI), No.35 (2004).Doc.pdf., consultado el 12/3/06. Sitio Web:
http://www.oei/campusoei/revista/rie3 5
79. Estebaranz García, Araceli: Práctica e innovación curricular. Universidad de Sevilla, España, 1995.
80. Fernández-Ballesteros, Rocío: Evaluación de Programas. Una guía práctica en ámbitos sociales,
educativos y de salud. Editorial Síntesis, Madrid, España, 1996.
81. Fernández, J.: La evaluación de la calidad docente. En Teoría y Métodos de Evaluación.. Edit. Cincel,
Madrid, España, 1991.
82. Fernández Lamarra, Norberto: “Los procesos de evaluación y acreditación universitaria en América
Latina”. En Evaluación de la calidad y la acreditación. Espacio Común de Educación Superior Unión
Europea, América Latina y el Caribe (UEALC). Ed. Agencia Nacional de Evaluación de la Calidad y
Acreditación (ANECA), España, 2003.
83. Fernández Lamarra, Norberto: “Hacia la convergencia de los sistemas de educación superior en América
Latina”. Revista Iberoamericana de Educación. No.35 (2004). Doc. pdf consultado el 12/3/06. Sitio
Web: www.oei/campusoei/revista/rie35
84. Fernández Zavala, Luís: Evaluación y estado en América Latina. Tendencias y vicisitudes del estado
evaluador estadounidense y sus repercusiones para la reinvención de la evaluación en América
Latina. (Primera parte) Profesor adjunto de University of New Mexico.
Sitio Web: http://www.iacd.oas.org/Interamerhtml/Riverhtml/riv_zav_zav.htm# consultado 14/1/04.
85. Figaredo, Francisco y Davyt, Amilcar: “Calidad y Evaluación de la Educación Superior en los
documentos de la UNESCO”. Evaluación, Vol.2, No. 3 (5), septiembre, Brasil, 1997.
86. Forner, Angel; Latone Antonio: Diccionario terminológico de investigación educativa y psicopedagógica.
Barcelona. EUB, SL. España, 1996.
87. Foulquié, Paul: Diccionario de Pedagogía. OIKOS-Tau, S.A. Ediciones. España, 1976.
88. Froment Eric (2003): Un espacio europeo para la evaluación de la calidad. En Evaluación de la Calidad y
Acreditación. Espacio Común de Educación Superior Unión Europea, América Latina y Caribe
(UEALC). Ed. Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA), España,
2003.
89. Gabriela Molina, María: Estudio sobre criterio para la evaluación de la justicia social en las instituciones
educativas. En Programa Calidad y Equidad en la Educación. consultado el 22/02/02.Sitio Web:
http//www.campus-oei.org/calidad/ideas.htm.
90. Gago Huguet, Antonio: “Evaluación Universitaria en América Latina”. Revista Universidades, No.11,
enero-julio, México, 1996.
91. Gago Huguet, Antonio: “Calidad, acreditación y evaluación institucional”. En Calidad y cooperación
internacional en la Educación Superior de América Latina y el Caribe. Memorias de la reunión
preparatoria de la Conferencia Regional sobre Políticas y Estrategias para la transformación de la
Educación Superior en América Latina y el Caribe. ANUIES/CSUCA/CRESALC/UNESCO. Serie:
Políticas y Estrategias, No.5. 1996.
92. Gago Huguet, Antonio: “El CENEVAL y la evaluación externa de la educación en México”.Vol.2, No.2,
2000. Centro Nacional de Evaluación para la Educación Superior. Conferencia magistral impartida
en el III Foro Nacional de Educación “La tecnología educativa que México necesita”. Evento
organizado por Coparmex y el Centro de Enseñanza Técnica y superior (Cetys-Universidad)
Ensenada, Baja California, México. Mayo 5, 2000. Revista Electrónica de Investigación Educativa, 2
(2). Consultado el 2779/02.
Sitio Web. http://redie.ens.vabc.mx/vol2no2/contenido-gago.html.
93. García Guadilla, Carmen: “Nuevas exigencias a la Educación Superior en América Latina”. Revista
Educación Superior y Sociedad, Vol.1, No.1, enero-junio. CRESALC-UNESCO, 1991
94. García Guadilla, Carmen: “Globalización y conocimiento en tres escenarios.” Revista Educación Superior
y Sociedad (CRESALC), Vol.6, No.1-1995. Venezuela, 1995
95. García Sánchez, Ester: Metaevaluación. En Reyes, Ramón (Dir.) Diccionario Crítico de Ciencias Sociales.
Universidad Carlos III, Madrid, España. Consultado el 20/03/ 01
Sitio Web: http// d-egsanhez1.htm
96. García, Santiago: Ajuste del sistema de Educación Superior a las exigencias comunitarias. Universidad de
Alcalá, España. Doc. pdf consultado en Internet 1/4/04.
97. Gento Palacios, Samuel; Castillo Arredondo, Santiago: Modelos de Evaluación de Programas Educativos
(Capítulo I). Antonio Medina Rivilla (ed.) Evaluación de Programas Educativos, Centros y
Profesores de. Editorial Universitas, S.A. España, 1995.
98. González, Julia y otros: “Tunning –América Latina: un proyecto de las universidades”. Revista
Iberoamericana de Educación, No.35 (2004). Doc. pdf. consultado el 12/3/04. Sitio Web:
www.oei/campusoei/revista/rie35
99. González F, Luís Eduardo; Ayarza E., Hernán: “Calidad, evaluación institucional y acreditación en la
Educación Superior en la región latinoamericana y del Caribe”. Documento Central. Comisión 2.
Conferencia Regional sobre Políticas y Estrategias para la transformación de la Educación Superior
en América Latina. CRESALC-UNESCO-MES. La Habana, Cuba, 1996.
100. Gónzales López, Ignacio: “Propuesta de Evaluación Institucional universitaria en el ámbito
internacional”.Universidad de Córdova, España. II Congreso Iberoamericano de Didáctica
universitaria. En Revista Iberoamericana de Educación (OEI).Noviembre 2002. Doc. pdf consultado
el 11/12/02.Sitio Web: http://www.oei/campusoei/revista/
101. Gottifredi, Juan Carlos: “La pertinencia de la Educación Superior”. En La transformación universitaria
en vísperas del tercer milenio. Serie: Políticas y Estrategias, No.6. Memorias del Simposio
AUGM/UDUAL/CRESALC/UNESCO.1996.
102. Guba, E. G; Lincoln, Y.S: Fourth generation evaluation .Newbury Park, Ca. Sage. 1989.
103. Guin, Jaques: “El nuevo despertar de la Educación Superior en Francia”. Revista Universidad Futura.
Vol.3, No. 8 y 9, p.73. México, 1991.
104. Hernández Cejas, María Lourdes: Bases del Sistema de Información para el servicio con Agentes de
Seguridad y Protección. Tesis en obtención del título de Master en Gestión de la Información.
Cátedra UNESCO. Facultad de Economía. Universidad de La Habana.2005
120. Malo Salvador: “Estrategias y prácticas conjuntas en América Latina”. En Evaluación de la calidad y
acreditación. Espacio Común de Educación Superior Unión Europea, América Latina y el Caribe
(UEALC). Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA), Madrid, 2003.
pág. 59. Miembro del Centro Nacional de Evaluación para la Educación Superior (CENEVAL) de
México.
121. Marquís, Carlos: “El rol del estado frente a la evaluación de la calidad”. Documento de trabajo.
Comisión 2. Conferencia Regional sobre Políticas y Estrategias para la transformación de la
Educación Superior en América Latina y el Caribe. CRESALC-UNESCO-MES. La Habana, Cuba,
1996.
122. Martín, Elvira: “Evaluación universitaria. Algunas experiencias de la Enseñanza Superior Cubana”.
Revista Cubana de Educación Superior. Vol. 13, No.1, pág. 55. Editada por CEPES-UH, Ciudad de
La Habana, Cuba, 1993.
123. Martín, Elvira; Álvarez, Jesús: “La política Pública y la Educación Superior”. Revista Cubana de
Educación Superior. Vol. XVIII, No.1-1998, pág.65. Editada por CEPES-UH Ciudad de La Habana,
Cuba, 1998.
124. Martínez, Eduardo: “La evaluación de la educación superior”. En Evaluación y Acreditación
Universitaria. Metodologías y experiencias. Editorial Nueva Sociedad., pág.75, 1997.
125. Martínez Mediano, Catalina: “Evaluación de programas educativos. Investigación educativa. Modelos de
evaluación de programas”. Cuadernos de la UNED, No159. Ed. Torán, S.A., Madrid, España, 1997.
126. Martínez Mediano, Catalina: “La evaluación para la mejora de la calidad de los centros educativos”. En
Décima conferencia mundial trianual: Pedagogía de la diversidad: creando una cultura de paz.
Sociedad española de Pedagogía. Doc.html consultado el 15/10/02. Sitio Web:
http://www.uv.es/soespe
127. Mc Kinley, Kenneth H.: Metaevaluation Report of the Evaluation of the Michigan Public School
Academy Initiative. May 1999. Doc. Html. Sitio Web:
www.wmich.edu/evalctr/charter/micharter.html y
www.wmich.edu/evalctr/charter/reports/metaeval.html
128. Medina Rivilla, Antonio; Villar Angulo, Luis Miguel: Evaluación de Programas Educativos. Editorial
Universitas, S.A. España, 1995.
129. Medina Rivilla, Antonio; Villar Angulo, Luis Miguel: Evaluación de programas, centros y profesores.
Madrid, Ed. Universitas, S.A. España, 1995
130. MES-Cuba: “Estudio sobre los antecedentes, situación actual y perspectivas de la Evaluación y la
Acreditación en la República de Cuba”. UNESCO-MES-IESALC, La Habana. Cuba, mayo
2003.Doc. pdf consultado el 10/7/03.
131. MES-Cuba: Reglamento de la Educación de Posgrado de la República de Cuba. Resolución No.6/96.
132. Ministerio de Educación y Cultura. Consejo de Universidades-España: Indicadores en la Universidad:
información y definiciones. Plan Nacional de Evaluación de la Calidad de las Universidades, España,
1999.
133. Mokate, Karen Marie: Convirtiendo el “monstruo” en aliado: la evaluación como herramienta de la
gerencia social. Instituto Interamericano para el Desarrollo Social – INDES Abril de 2000 – Versión
modificada1, 2003.Departamento de Integración y Programas Regionales. Serie de Documentos de
trabajo I-23.Washington, D.C. EE.UU. Doc. pdf. consultado el 28/7/04.
134. Molina, María Gabriela: Estudio sobre criterios para la evaluación de la justicia social en las
instituciones educativas. Sitio Web: http://www.campus-oei.org/calidad/ideas.htm consultado el
22/02/02.
135. Montano Durán, Alejandro: La acreditación de instituciones de educación superior y programas
académicos en algunos países de América. México. Documento preparado para el Seminario de la
XVII Asamblea General del Consejo Universitario Interamericano para el Desarrollo Económico y
Social CUIDES/IUCESD, Chile, 1997.
Sitio Web: http// montano2.htm consultado el 20 /03/00.
136. Morles, Víctor: “La Educación de Posgrado como objeto de estudio e investigación”. En La Bibliografía
del Posgrado. Venezuela, 1995.
137. Morles, Víctor: “La experiencia internacional sobre evaluación y acreditación de la Educación Superior
y de posgrado: una visión panorámica”. Revista Educación Superior y Sociedad, CRESALC. Vol.7,
No.7-, pág. 59, Venezuela, 1996.
138. Neave, Guy: On the Cultivation, Efficiency and Enterprise: an Overview of Recent Trends in Higher
Education in Western Europe, 1986-1988-european Journal of Education, vol.23, No. 1-2, 1988.
139. Neave, Guy; Vught, Frans van (eds): Prometheus Bound. The Changing Relationship between
Government and Higher Education in Western Europe, Pergamon Press, Oxford, 1991.
140. Neave, Guy: “La política de calidad: Evolución de la Enseñanza Superior en Europa Occidental”.Revista
de Educación Superior, No.308, septiembre-diciembre, pág.7.CRESALC. Venezuela, 1995.
141. Núñez Jover, Jorge: “Epistemología y Posgrado. Cuando hablamos de Política de Posgrado en qué
concepción de la ciencia nos apoyamos? O será que esto no importa?”. Intervención en la II Junta
Consultiva sobre el Posgrado en Iberoamérica. Ciudad de La Habana, Cuba, 1994.
142. Núñez Jover, Jorge: “Universidad, Investigación y Posgrado. Nuevos horizontes prácticos y
epistémicos”. Revista cubana de Educación Superior, No.1-1996, CEPES- Universidad de La
Habana. Ciudad de La Habana, Cuba. 1996.
143. Núñez Jover, Jorge; Ravenet Ramírez, Mariana y otros: “El Posgrado en la Universidad: una mirada a
los noventa”. Revista Cubana de Educación Superior. Vol. XVII, No.3-1997. Ciudad de La Habana,
Cuba, 1997.
144. Núñez Jover, Jorge: Evaluación académica, postgrado y sociedad. En Gestión de la calidad del posgrado
en Iberoamérica, Ed. AUIP, 2000.
145. Octovi Fullati, Genis: “Antropología de la evaluación”. En Salmerón Pérez, Honorario (ed.) Evaluación
Educativa. Teoría, metodología y aplicaciones en áreas de conocimiento. España, 1994.
146. Oteiza, Enrique: “Situación y perspectiva del Posgrado en América Latina y el Caribe”. Revista Diálogo
No. 13, septiembre. España, 1994.
147. Pallán Figueroa, Carlos: Evaluación, acreditación y calidad de la educación en México. Hacia un sistema
nacional de evaluación y acreditación”. En Calidad y cooperación internacional en la Educación
Superior de América Latina y el Caribe. Memorias de la reunión preparatoria de la Conferencia
Regional sobre Políticas y Estrategias para la transformación de la Educación Superior en América
Latina y el Caribe. Serie Políticas y Estrategias, No.5. ANUIES/CSUCA/CRESALC/UNESCO,
1996.
148. Peace Lenn, Maryorie: “La Globalización en la Educación Superior: Temas transnacionales de acceso,
movilidad y calidad”. Centro Nacional de Educación Superior, Washington, D.C., U.S.A. Doc.pdf
consultado en Internet el 19/1/04.
149. Pérez Juste, Ramón y otros: Evaluación de Programas y Centros Educativos. UNED, Madrid, España,
1995.
150. Pérez Juste, Ramón; García Ramos, José Manuel: Diagnóstico, evaluación y toma de decisiones.
Ediciones Rialps, S.A. Madrid. España, 1995.
151. Pérez Juste, Ramón: Hacia una educación de calidad, gestión, instrumentos y evaluación. España, 2000.
152. Pérez Serrano, Gloria: Investigación cualitativa. Retos e interrogantes. La Muralla S.A., España, 1994.
153. Plan Nacional de Evaluación de la calidad de las universidades. Guía de evaluación. Consejo de
Universidades. Secretaría General. Madrid, España. 1998.
154. Popkewitz, Thomas S.: “Algunos problemas y problemáticas en la producción de la evaluación”. Revista
de Educación, No. 299, septiembre - diciembre, pág. 95. España, 1992.
155. Poggioli, Lissette: “Calidad de la Educación: una metodología para establecer un sistema de indicadores
educacionales”. Revista Análisis. Vol.4, No.4 y 5. Universidad Pedagógica Experimental Libertador,
Venezuela, 1996.
156. Program Evaluation and Review. Program Evaluation Methods: Measurement and Attribution of
Program Results. En Review Practices and Studies. Government Review and Quality Services.
Deputy Comtroller General Branch. Treasury Board of Canada, Secretariat. Third Edition. Sitio
Web: http://www.tbs-sct.gc.ca/pe/Publications/pem.htm consultado 19/02/01.
157. Propuesta del Sistema Nacional de Evaluación y Acreditación de la Educación Superior. ANUIES. En
Calidad y cooperación internacional en la Educación Superior de América Latina y el Caribe.
Memorias de la reunión preparatoria de la Conferencia Regional sobre Políticas y Estrategias para la
transformación de la Educación Superior en América Latina y el Caribe.
ANUIES/CSUCA/CRESALC/UNESCO. Serie Políticas y Estrategias, No.5, 1996.
158. Rama, Claudio: La Educación transnacional: el tercer “schock” en la Educación Superior en América
Latina. (Director del instituto internacional para la Educación Superior en América Latina y el
Caribe). IEASALC/UNESCO, 2004. Boletín No. 68 de IESALC .Observatorio de la Educación
Superior en América Latina y el Caribe. Documento pdf. consultado el 26/3/04.
159. Ramlow, Mary E.: The Program Evaluation Standars. Summary of the Standards. The Evaluation Center,
Western Michigan University, EE.UU.
Sitio Web: http://wmich.edu Consultado el 4/5/2002.
174. Ruiz Ruiz, José María: Cómo hacer una evaluación de centros educativos. Narcea, S.A. de Ediciones.
España, 1996.
175. Ruiz Ruiz, José María: Teoría del curriculum: diseño y desarrollo curricular. Editorial Universitas, S.A.
España, 1996.
176. Ruiz Ruiz, José María: Cómo mejorar la institución educativa. Evaluación de la innovación y del
cambio. Análisis de casos. España, 1998.
177. Salcedo Galvis, Hernando: “Evaluación Institucional y Acreditación: Dos vías complementarias hacia la
excelencia de los Estudios de Posgrado”. Revista Análisis, Vol.3, No. 3 y 4. Segunda etapa.
Venezuela, 1995.
178. Salmerón Pérez, Honorario: Evaluación educativa: teoría, metodología y aplicaciones en áreas de
conocimiento. Granada, Grupo Editorial Universitario. España, 1997.
179. Scriven, Michael: Evaluation Bias and Its Control. Paper #4 .En Occasional Papers Series. June, 1975
Doc. html Metaevaluation, consultado el 10/4/02.
180. Scriven, Michael: The Logic and Methodology of Checklist. June, 2000. Doc. html consultado el 10/4/02
181. Scriven, Michael: Evaluation Thesaurus. Fourth Edition. Newbury Park; Sage, 1991.
182. Scriven, Michael: A Conversational Guide to the Key Evaluation Checklist Thesaurus (4 th ed.) This
handout is based on the entry KEY EVALUATION CHECKLIST (KEC) in the Evaluation.
Newbury Park. Sage. 1991.
183. Shade Angelika: El sistema de acreditación de Alemania. En Evaluación de la calidad y acreditación.
Espacio Común de Educación Superior Unión Europea, América Latina y el Caribe (UEALC).
ANECA, Madrid, 2003.
184. Shadish, Williams: Some Evaluation Questions. ERIC/AE Digest. The Educational Resources
Information Center, ERIC, 1998. Identifier: ED423311.ERIC Digest. Consultado en Internet el 20 /
02/00.
185. Sheele, Jacob P.: Quality Assurance as an European Challenge. Quality Assurance in Higher Education
after the Bologna declaration, with an emphasis on follow-up procedure. Sinergie rapport di ricersa
N.9/2000. Doc.pdf 34scheele del 16/2/01 consultado el 19/8/03.
186. SICEVAES: Sistema Centroamericano de Evaluación y Acreditación de la Educación Superior-
SICEVAES. Secretaría General, CSUCA. En Calidad y cooperación internacional en la Educación
Superior de América Latina y el Caribe. Memorias de la reunión preparatoria de la Conferencia
Regional sobre Políticas y Estrategias para la transformación de la Educación Superior en América
Latina y el Caribe. ANUIES/ CSUCA/ CRESALC/ UNESCO. Serie: Políticas y Estrategias, No.5,
1996.
187. Stake, Robert E.: Program evaluation particulary responsive evaluation. Paper #5.Presented at
Conference “New Trends in Evaluation”, Goteborg, Sweeden, October, 1973. En Occasional Papers
Series. Center for Instrutional Research and Curriculum Evaluation. University of Illinois. Doc.html ,
consultado en Internet el 8/4/02.
188. Stufflebeam, Daniel; Shinkfield Anthony J.: Evaluación sistémica. Guía teórica y práctica. Paidós-
M.E.C. Madrid, España, 1987.
189. Stufflebeam, Daniel: Meta-evaluation. Paper #3. En Occasional Papers Series. Doc.pdf. Web/OPS
#03.PDF. Consultado el 8/4/02.
190. Stufflebeam, Daniel: Personnel Evaluation Systems Metaevaluation Checklist (Based on The Personnel
Evaluation Standards). June, 2000.Doc.html consultado en Internet el 11/4/02.
191. Tejada Fernández, José: Los agentes de la innovación en los centros educativos, profesores, directivos y
asesores. Ediciones Aljibe. España, 1996.
192. Terán P, Carmita: El problema de calidad en la educación superior. Sitio Web: http//CALIDAD.htm
Consultado el 22/02/00.
193. The Danish Centre for Quality Assurance and Evaluation of Higher Education (Evalueringscenteret):
Meta Evaluation of the Evaluations of Higher Education in Denmark. Comisionado por el Ministerio
de Educación danés y supervisado por el PLS RAMBOLL Management in 1998.
194. The European commission: Evaluation of European Higher Education: A status Report. DG XXII by The
Centre for Quality Assurance and Evaluation of Higher Education Denmark in cooperation with
Comité National d´ Evaluation, France. September 1998. Doc. pdf consultado en Internet 14/1/04.
195. The Evaluation Center: Glossary of Evaluation Terms. Western Michigan University, 2002. Sitio Web:
http://www.wmich.ed
196. The Joint Committee on Standards for Educational Evaluation: Normas de evaluación para programas,
proyectos y material educativo. Versión en español. Editorial Trillas, México, 1988
197. Tiana Ferrer, Alejandro: Tratamiento y usos de la información en evaluación. Documento 5 del
Programa Evaluación de la Calidad de la Educación. 1996. Sitio web: http://www.campus-
oei.org/revista consultado el 14/03/02.
198. Tiana Ferrer, Alejandro: Evaluación de la calidad de la Educación. Revista Iberoamericana de
Educación. Número 10. Evaluación de la Calidad de la Educación. Organización de Estados
Iberoamericanos (OEI), España. Sitio Web: www.campus-oei.org/revista consultado el 14/03/02.
199. Tiana Ferrer, Alejandro: La evaluación de los sistemas educativos. Revista Iberoamericana de
Educación. Número 10. Evaluación de la Calidad de la Educación. Organización de Estados
Iberoamericanos. Sitio Web: www.campus-oei.org/revista consultado el 14/03/02.
200. Toranzos, Lilia: El problema de la calidad en el primer plano de la agenda educativa. Documento 2.
Programa Evaluación de la Calidad de la Educación. Sitio Web: www.campus-oei.org/revista
consultado el 14/03/02.
201. Toranzos, Lilia: Evaluación y Calidad. Revista Iberoamericana de Educación. Número 10. Evaluación de
la Calidad de la Educación. Organización de Estados Iberoamericanos. Sitio Web:
http://www.campus-oei.org/revista consultado el 18/03/02.
202. Torres Medina, Salim Salomón: Análisis y propuesta de un modelo para automatizar los flujos de
información en los procesos administrativos: el caso del Centro de Capacitación de Yamaha de
México S.A de C.V. Tesis par optar por el título de Master en Gestión de la Información en las
Organizaciones. Cátedra UNESCO. Facultad de Economía. Universidad de La Habana. 2005.
203. Teichler, Ulrich: “Beneficios y peligros de la evaluación”. Artículo fotocopiado por CEPES.1993.
204. Tunnermann, Carlos: “La Universidad de cara al Siglo XXI”. En Reinversión de la Universidad. ICFES,
pág.30, 1995.
205. Tunnermann, Carlos: “Una nueva visión de la educación superior”. Revista Educación Superior y
Sociedad. CRESALC. Vol.6, No.1-1995. Venezuela, 1995.
206. Tunnermann, Carlos: “Calidad de la Educación superior”. En Bases para la transformación de la
Educación Superior en América Latina. Memorias de la Mesa Redonda organizada por la CRESALC
en el marco de la Séptima Reunión de Ministros de Educación de América Latina y el Caribe
(MINEDLAC VII). Serie: Políticas y Estrategias, No.4, 1996.
207. UNESCO: Documento de Política para el cambio y el desarrollo en la Educación Superior. Resumen
ejecutivo, 1996.
208. U.S.News &World Report 1998. Annual Guide Exclusive Rankings. America’s Best Graduate Schools.
EE.UU., 1998.
209. Weiss H., Carol: Investigación evaluativa. Métodos para determinar la eficiencia de los programas de
acción. Editorial Trillas, México, 1996.
210. Wesley Suyder, Jr, Conrad: Development Discussion Papers No.760. Program Evaluation Guidelines
and Framework for Ghana Education. Harvard Institute for International Development. Harvard
University. June, 2000.Doc. consultado en Internet el 20/2/03.
211. Widmer,Thomas: Evaluation Standards in The Context of Sustainability EASY-ECO Evaluation of
Sustainability EuroConference May 23 – 25, 2002 Vienna / Austria Supported by the European
Commission, Research DG, Human Potential Programme, Widmer 1/11 High-Level Scientific
Conferences, Contract No. HPCF-CT-2001-00286. Consultado el 20-01-03.
212. Widmer, Thomas; Landert, Charles; Bachmann, Nicole: Evaluation Standards of Seval, The Swiss
Evaluation Society (Seval Standards), 2000.
213. Witrock, M.: La investigación de la enseñanza. Tomo II. M.E.C, Ed. Paidós, Madrid, 1989.
214. Valle, Victor Manuel: “Algunos criterios para evaluar programas de Educación Superior a nivel de
Posgrado”. Revista Universidades, Anuario, México, 1986.
215. Van Dammen, Dirk: “La Iniciativa Conjunta de la Calidad (Joint Quality Iniative)”. En Evaluación de la
Calidad y Acreditación. Espacio Común de Educación Superior Unión Europea, América Latina y el
Caribe (UEALC), pág. 37. Editado por ANECA, Madrid, España, 2003.
216. Van Vunght, Franz A.: “La calidad de la Educación Superior en Europa. El siguiente paso”. Revista
Universidad Futura, Vol.3, No. 8 y 9, p.59. México, 1991.
217. Vicerrectoría de la Universidad de La Habana: Informe sobre la Universalización previo a la Asamblea
Nacional del Poder Popular, Cuba, 2004.
218. Villanueva, Ernesto: La Educación Transnacional y la Comisión Nacional de Evaluación y Acreditación
Universitaria (CONEAU).Panorama del sistema de educación superior argentino: el contexto de la
expansión de la educación transnacional. Argentina. Doc. pdf consultado en Internet el 1/4/04.
219. Villanueva, Ernesto: “La Acreditación en América Latina: El caso de Argentina en la RIACES y en el
MERCOSUR” .Revista Iberoamericana de Educación, No.35 (2004). Doc.pdf consultado el 12/3/06.
Sitio Web: http://www.oei/campusoei/revista/rie35/
220. Villarroel, Cesar: Calidad y acreditación universitarias latinoamericanas para Latinoamérica. Documento
de trabajo. Comisión 2. Conferencia Regional sobre Políticas y Estrategias para la transformación de
la Educación Superior en América Latina y el Caribe. CRESALC-UNESCO, Ciudad La Habana,
Cuba, 1996.
221. Vroeijenstijn, A.I.: Improvement and Accountability navigating between Scylla and Charybdis. Guide
for External Quality Assessment in Higher Education 1995.Higher. Education Policy Series 30.
Jessica Kingsley publishers. London and Bristol, Pennsylvania. 1995. (Asesor de la Asociación de
Universidades de los Países Bajos).
222. Yarzábal, Luis: “Situación de la Educación Superior en América Latina y el Caribe”. En Bases para la
transformación de la Educación Superior en América Latina. Memorias de la Mesa Redonda
organizada por la CRESALC en el marco de la Séptima Reunión de Ministros de Educación de
América Latina y el Caribe (MINEDLAC VII). Serie: Políticas y Estrategias, No.4, 1996.
223. Young, David: The Academic audit. Unit. En Goedegebure/ Maassen/ Westerheidjen. Pág. 30, 1990.
224. Yuehluen Hu& Han Chiang Chen: La Metaevaluación de la evaluación de la Educación Superior
efectuada en 1977 en Taiwan. Documento en Inglés. Sitio Web: http//INQAAHE. Documento htm.
consultado el 24/11/00.
225. Zubillaga, Carlos: Relatoría general. En La transformación universitaria en víspera del tercer milenio.
Serie: Políticas y Estrategias, No.6. Memorias del Simposio. AUGM/UDUAL/CRESALC/UNESCO,
1996.
10- Anexos
PERIODO CARACTERIZACION
! Como práctica profesional no era desconocida antes de 1930, pero tampoco era un
movimiento reconocible. El hecho de evaluar individuos y programas apareció, como mínimo,
en el año 2000 a. C., cuando algunos oficiales chinos dirigieron unas investigaciones de los
servicios civiles,
P ! Siglo V a.C., cuando Sócrates y otros maestros griegos utilizaron cuestionarios evaluativos
como parte de su metodología didáctica.
R ! Siglo XIX, en Inglaterra, se utilizaron comisiones reales para evaluar los servicios públicos.
E ! 1845- en los Estados Unidos, Horace Mann dirigió una evaluación, basada en test de
rendimiento, para saber si las escuelas de Boston educaban bien a sus estudiantes.
T ! 1887 - 1898, Joseph Rice estudió los conocimientos en ortografía de 33 000 estudiantes de
un amplio sector escolar. Este estudio está generalmente reconocido como la primera evaluación
formal sobre un programa educativo realizado en América.
Y ! En los últimos años del siglo XIV empezó a crearse el movimiento para la acreditación de
instituciones educativas y programas en los Estados Unidos; desde entonces, el proceso de
L acreditación se ha convertido en uno de los principales medios para evaluar los servicios
educativos.
E ! Una aproximación aún mayor a la evaluación se produjo, en los primeros años del siglo XX,
con la aparición de los tests estandarizados. Este acontecimiento formaba parte de un gran
esfuerzo que pretendía que la educación fuera más eficiente para que un mayor número de
R estudiantes pudiera utilizar los recursos entonces disponibles en las escuelas”.
! Década del 1920, la vasta expansión de los sistemas educativos urbanos hizo necesario
(hasta- estructurar los programas educativos para facilitar con ello que miles de estudiantes pudieran
1930) cambiarse de escuela con regularidad. En los Estados Unidos de Norteamérica se crearon
pruebas estandarizadas para medir habilidades y logros, a fin de evaluar el progreso de esos
estudiantes.
T ! Ralph Tyler acuñó el término evaluación educacional y publicó una amplia y renovadora
visión del currículo y la evaluación.
Y ! Se intenta convertir la educación en un sistema dinámico e innovador que a la vez se fuera
L renovando a sí mismo. Tyler participa de lleno en este movimiento. Le encargaron la
investigación del hoy famoso Eight-Year Study (Smith y Tyler, 1942) para examinar la
E efectividad de ciertos currículos renovadores y estrategias didácticas que se estaban empleando
R en treinta escuelas a lo largo de todo el país
I
Desarrolla su método:
A
N ! Definía la evaluación como algo que determina si han sido alcanzados ciertos objetivos.
O ! Se centra en determinar el grado de éxito, por lo que se opone a métodos indirectos que
determinan factores como la calidad de la enseñanza, el número de libros que hay en la
(primeros
biblioteca , los materiales y la participación de la comunidad..
años de la
década de ! Incluía comparaciones entre los resultados y los objetivos, ya no necesitaba recurrir a
los 30) costosas y problemáticas comparaciones entre grupos de control y grupos experimentales.
PERIODO CARACTERIZACION
1
De la • Tiempo para olvidar la guerra, dejar atrás la Depresión, crear y desarrollar aptitudes, adquirir
recursos, y lograr disfrutar de la “buena vida”.
! Grandes contrastes en la sociedad norteamericana: una “expansión” y la
“complacencia en la emisión de juicios sobre los graves problemas de la sociedad”;
I “época de plenitud” y de “pobreza, desesperación en las ciudades del interior y en las
áreas rurales”.
N ! Período de “profundos prejuicios raciales y de segregación e inconciencia de la
O población blanca ante semejante mal”; “de exorbitante consumo y de gran despilfarro
C de los recursos naturales sin preocuparse por el futuro” y “de abrumador desarrollo de
la industria y capacidad militar....”.
E ! Expansión de ofertas educacionales, del personal y de las facilidades; se construyeron
N edificios; aparecieron instituciones educativas de nuevo tipo (colegios comunitarios); se
C incrementaron desmesuradamente las inscripciones en los programas educativos para maestros y
las inscripciones en los colegios aumentaron espectacularmente.
I ! En general, “no hay un gran interés en formar profesores competentes, en localizar y
A solucionar las necesidades de los menos privilegiados o en identificar y solucionar los problemas
del sistema educativo”.
! Década de 1950, la aplicación de pruebas estandarizadas alcanzó proporciones masivas y las
1946 - organizaciones profesionales interesadas en examinar dichas pruebas tomaron las medidas
1957 necesarias para regular las actividades de sus miembros.
! Se escribía sobre la evaluación y sobre la recopilación de los datos pero no se hacían intentos
de mejorar los servicios educativos.
! Las agencias federales y estatales aún no estaban demasiado introducidas en el campo de la
evaluación de programas por lo que había ausencia de ayudas exteriores y de apoyos para la
realización de evaluaciones en todos los niveles de la educación. Esta falta de objetivos provocó
también el retraso de los aspectos técnicos de la evaluación.
! Durante las décadas de 1930, 1940 y 1950, los avances en la evaluación consistieron en su
mayoría, en la medición del rendimiento del estudiante; sin embargo, a principios de la década
de 1960, se añaden muchos adelantos relacionados con la medición de programas, proyectos y
materiales educativos.
D ! Auge de las evaluaciones de proyectos de currículos a gran escala, financiadas por
estamentos federales.
E ! Los educadores ya no podían hacer o no hacer las evaluaciones a su antojo y las
L metodologías evaluativas debían estar relacionadas con conceptos tales como utilidad y
relevancia.
! La evaluación se convirtió en una industria y en una profesión dependiendo del dinero de los
R contribuyentes para su financiamiento
E ! Como consecuencia del lanzamiento, por parte de la URSS, del Sputnik en 1957, el gobierno
A federal respondió promulgando la National Defense Education Act de 1958. esta acta
proporcionó nuevos programas educativos en matemáticas, ciencias e idiomas, y creó servicios
L asesores y programas de encuestas en los distritos escolares. Se asignaron fondos para evaluar
I estos programas. “Estos programas y proyectos se acompañaban del requisito fundamentalmente
impuesto por el Congreso, que exigía a los educadores evaluar su trabajo. Como resultado, la
S evaluación educativa se expandió enormemente y se diversificó”.
M ! En las evaluaciones que se realizan están representados los cuatro métodos abordados: el
O método de Tyler para definir los objetivos de los nuevos currículos y para valorar el grado en
que estos objetivos quedaban alcanzados; los nuevos test estandarizados a nivel nacional para
reflejar mejor los objetivos y contenidos de los nuevos curricula; el método del criterio
(1958- profesional para valorar las propuestas y verificar periódicamente los resultados, finalmente, la
1972) evaluación de los resultados del desarrollo del currículo a través de pruebas concretas.
! Principios de los 60’, algunos de los más importantes evaluadores educacionales se dieron
cuenta de que su trabajo y sus conclusiones no ayudaban demasiado a los que elaboraban
curricula, y no respondían a las preguntas sobre los programas que planteaban aquellos que
2
necesitaban comprobar su grado de efectividad. La “flor y nata” de la comunidad evaluativa
educacional participó en estos esfuerzos para evaluar los nuevos curricula; estaban
adecuadamente financiados y aplicaban cuidadosamente la tecnología que había ido
desarrollándose durante la pasada década o incluso antes. A pesar de todo esto, empezaron a
darse cuenta de que sus esfuerzos no tenían éxito.
! Cronbach recomendó la reconceptualización de la evaluación como un proceso consistente
en recoger y formalizar información que pueda ayudar a quienes elaboran los currículos. Se
reconocía la necesidad de evaluar las metas, examinar las inversiones, analizar el
perfeccionamiento y la prestación de los servicios, determinar los resultados que se desean ( o no
se desean) obtener del programa. Necesidad de enjuiciar el mérito o el valor del objeto quede la
evaluación
! 1965 se desencadenó la Guerra contra la pobreza. Estos programas invirtieron billones de
dólares en reformas que pretendían igualar y aumentar las oportunidades para todos los
ciudadanos de los Estados Unidos a través de una amplia serie de servicios sanitarios, sociales y
educativos.
! La expansión de la economía permitió que el gobierno federal financiara estos programas, y
se consiguió un gran apoyo de toda la nación para desarrollar lo que el presidente Johnson llamó
la Gran Sociedad.
! Como consecuencia de la preocupación por el posible despilfarro de las inversiones en la
educación, si no se exigían algunos requisitos en la contabilidad, se promulga en 1965 el Acta de
la Educación Elemental y Secundaria que incluía requisitos específicos para la evaluación.
! Los test estandarizados que se habían elaborados con el fin de determinar el promedio del
grado de conocimientos de los estudiantes no sirvieron para casi nada cuando hubo que
diagnosticar las necesidades y valorar los avances de los niños menos favorecidos, cuyo
desarrollo educativo se encontraba muy por detrás del de sus compañeros de clase media. Estos
test eran relativamente inadecuados para discernir las diferencias entre escuelas y /o programas,
principalmente a causa de sus propiedades psicométricas y el alcance de sus contenidos. En
lugar de determinar los resultados directamente relacionados con una escuela o un programa en
concreto, estos tests determinaban, en el mejor de los casos, el grado de aprendizaje, centrándose
casi en los mismos rasgos que los tests de aptitudes.
! Surgieron problemas en la aplicación de los tests estandarizados dada las diferencias
existentes entre un lugar y otro por lo que iban en contra de los preceptos de Tyler que
enfatizaba la importancia de tener en cuenta la variación de los objetivos de un lugar a otro, por
lo que era muy difícil aplicar este modelo a nivel nacional. No se facilitaba la información del
sector más necesitado.
! Las visitas in situ o inspecciones realizadas por expertos, a pesar que fueron utilizadas por
responsables gubernamentales, no resultaron aceptables como primera estrategia evaluativa por
carecer de “objetividad” y el “rigor” estipulado en la legislación.
! Los gobiernos federales, estatales, y locales estadounidenses asignaron cada año varios
millones de dólares para colaborar con los evaluadores y ayudar a responder estas preguntas.
Con los fondos disponibles se aplicaron miles de evaluaciones en la mayoría de los distritos
escolares, ya fueran grandes o pequeños y tuvieran o no experiencia en la evaluación. Los
evaluadores respondieron con diversos proyectos, procedimientos más elaborados, mejor
instrumental, mayores servicios y la expansión de capacitación. Se destinó una gran cantidad de
tiempo, dinero y esfuerzo en el mejoramiento de la evaluación educativa.
! El Congreso comenzó a impacientarse con la aparente incapacidad de los evaluadores para
determinar si los programas multimillonarios ayudaban del todo a mejorar la educación de los
niños.
! Como respuesta a esta necesidad, el Committee on Test Standards, al cual se había asignado
en 1974 la revisión de los Standards for Educational and Psychological Test, incluyó en este
documento una sección de la evaluación de programas y el uso de pruebas en el proceso. Sin
embargo, se estimó que dicho esfuerzo quedaba fuera del ámbito de trabajo de los revisores y,
por tanto, se sugirió nombrar un nuevo comité que se encargara de tales aspectos. A partir de
este momento, un comité de planeación asignado por la American Educational Research
Association, la American Psychological Association y el National Council on Measurement in
3
Education, estudió el caso y propuso el lanzamiento de un proyecto para desarrollar las normas,
pero no para el uso específico de pruebas en la evaluación, sino para la evaluación educativa
general. Dicha recomendación la adoptaron tres organizaciones. Subsecuentemente, se invitó a
otras organizaciones a participar en tal esfuerzo; las aceptaron, se agregaron a las tres
organizaciones fundadoras y designaron al Joint Committee Standards for Educational
Evaluation (Comité Mixto de Normas para Evaluación Educativa), el cual empezó a trabajar en
el otoño de 1975.
! Se creó el National Study Committee on Evaluation que concluyó que la evaluación
educacional “era víctima de una grave enfermedad” y recomendó el desarrollo de nuevas teorías
y métodos de evaluación, así como nuevos programas para preparar a los propios evaluadores.
! Aparecen nuevas conceptualizaciones sobre la evaluación:
• Provus (1971), Hammond (1967), Eisner (1967) y Metfessel y Michael (1967) propusieron
una reforma del modelo Tyler.
• Glaser (1963), Tyler (1967) y Popham (1971) recomendaron los tests basados en criterios
como una alternativa a los tests basados en normas.
• Cook (1966) pidió la utilización del método de análisis sistemático para la evaluación de
programas.
• Scrinven (1967), Stufflebeam (1967, 1971) y Stake (1967) crearon nuevos modelos de
evaluación que se alejaban radicalmente de los anteriores.
Estas conceptualizaciones reconocían la necesidad de evaluar las metas, examinar las
inversiones, analizar el perfeccionamiento y la prestación de los servicios, determinar los
resultados que se desean (o no se desean) obtener del programa e insistieron en la necesidad de
enjuiciar el mérito o el valor del objeto de la evaluación
PERIODO CARACTERIZACION
! 1973-El campo de la evaluación empezó a cristalizar y a emerger como una profesión
diferenciada de las demás. Aparecen publicaciones como Educational Evaluation and Policy
D Analisys, Studies in Evaluation. CEDR Quartely, Evaluation Review, New Directions for
E Program Evaluation, Evaluation and Program Planning y Evaluation News.
L ! Se ofrecen cursos de metodología evaluativa distinguiéndola de la metodología investigativa
en muchas universidades de Estados Unidos. De modo creciente se fundan centros para la
P investigación y el desarrollo de la evaluación entre los que se encuentran la unidad de evaluación
R de Northwest Regional Educational Laboratory, el Center for The Study of Evaluation de la
UCLA, el Stanford Evaluation Consortium, entre otros.
O ! Se publica entonces por el Joint Committee (1981), entidad formada por 12 organizaciones
F profesionales, las normas para juzgar las evaluaciones de los programas educativos, proyectos y
E materiales, y establece un mecanismo para repasar y revisar las Normas y facilitar su uso.
S ! Existencia de tres grandes paradigmas en evaluación educativa: el cuantitativo, el cualitativo
I y el mixto a los que respondieron modelos como el conductista-eficientista, el humanístico y el
holístico respectivamente.
O ! A estos modelos se corresponden diferentes métodos evaluativos, creados principalmente por
N autores norteamericanos como por ejemplo: Aparecen métodos evaluativos como :
A -La Evaluación orientada hacia los objetivos de Tyler, iniciada y continuada por otros muchos
L investigadores entre ellos Metfessel y W.B.Michael, que ampliaron su metodología.
I -El Método científico de evaluación de Edward A. Suchman
S -La Planificación evaluativa de L.J.Cronbach
-La Evaluación orientada hacia el perfeccionamiento (CIPP) de Daniel L. Stufflebeam.
M
-El Método evaluativo centrado en el cliente de R.E. Stake
O -El Método contrapuesto de evaluación de T.R. Owens y R.L.Wolf, una de cuyas derivaciones
(1973
constituye el modelo judicial
hasta 80’)
-La Evaluación iluminativa, o Método holístico de Stake, B.Mc Donald, L. Stenhouse
-El Método evaluativo orientado hacia el cliente de M.S. Scriven.
4
Cinco momentos del desarrollo de la evaluación según los objetivos que se
perseguían con la misma. Tomado de Jesús Garantos Alós
MOMENTO 1
Orígenes remotos de la evaluación: la medición científica de los fenómenos y conductas humanas de finales
del siglo XIX o principios del XX.
Elementos potenciadores y definitorios de esta corriente: Auge de las corrientes filosóficas positivistas y
empíricas que propugnaron la objetividad, el rigor científico en el estudio de la conducta humana, frente al
subjetivismo. Desarrollo y aplicación d e los métodos estadísticos al estudio de las diferencias humanas
individuales. Una mayor preocupación, en la sociedad industrial, por estudiar los problemas que planteaban
en la práctica educativa y la necesidad de unos mecanismos que aseguraran la acreditación y a la vez la
selección de los alumnos en los diferentes niveles educativos.
"Evaluación centrada en el establecimiento de diferencias individuales pudiendo determinar la posición
relativa del sujeto dentro de un grupo normativo de tal forma que la aplicación de un test de rendimiento
era sinónimo de evaluación educativa, dejando en el olvido la representatividad y congruencia con los
objetivos evaluativos.
"Los test informaban algo sobre los alumnos, pero nada sobre los programas o currícula con los que se
había enseñado.
MOMENTO 2
"Años 20 surge un movimiento renovador marcado por una aproximación más científica y sistemática al
desarrollo de currículum y a los problemas de la práctica escolar.
" Años 30 –investigación Eigth Year Study of Secondary Education dirigida por Tyler con la que se
pretendía elaborar nuevos currícula y enfoques en la relación enseñanza-aprendizaje. Se hacía necesario
determinar con el máximo rigor si el proceso instructivo había producido el cambio esperado.
" Enfoque y contribución de Tyler:
• La evaluación como proceso que tiene por objeto determinar en qué medida se han logrado unos
objetivos previamente establecidos.
• La evaluación se diferencia de la medición. Evaluar no es simplemente aplicar un instrumento de
medida sino que supone un juicio de valor sobre la información recogida.
• Los objetivos previamente establecidos serán el criterio referencial para poder emitir un juicio de valor.
• Los organizadores fundamentales del proceso instructivo y de la evaluación son los objetivos educativos
definidos en términos de conducta.
• Ofrece un modelo para conducir un proceso evaluativo.
• El objeto de del proceso evaluativo es determinar el cambio ocurrido en los alumnos, para informar a los
alumnos, padres, profesores y además arrojar luz sobre la eficacia del propio programa educacional.
MOMENTO 3
5
! Los trabajos de Tyler no tienen continuidad de forma inmediata
! La evaluación de la efectividad de los programas sociales de los años 50 en EE.UU se extiende al sistema
educativo diez años más tarde.
! Dos factores básicos inciden en el desarrollo tan espectacular de la evaluación educativa:
El descontento americano por la escuela pública y la provisión de ingentes cantidades de fondos
subvencionando nuevos programas educativos que han de ser evaluados apara justificar la bondad de los
mismos. Las fuertes inversiones en programas educativos llevan parejo un movimiento conocido por
“accountability” o de rendición de cuentas sobre la efectividad o mérito de los programas educativos.
Movimiento de responsabilidad escolar, desarrollado en EE.UU a principios de los setenta.
! Es objeto de evaluación el rendimiento del alumno y todos aquellos factores que convergen en el programa
educativo: profesor, medios, contenidos , experiencias de aprendizaje, organización...
! La evaluación de programas cobra en los 60’ y 70’ un auge inusual surgiendo una nueva modalidad de
investigación aplicada que se ha venido en llamar investigación evaluativa.
! Cronbach (1963) y Scriven (1967) publican el Course improvement through Evaluation y The Methodology
on Evaluation aportando valiosas ideas sobre evaluación y fundamentalmente evaluación de programas.
MOMENTO 4
MOMENTO 5
Años 70 y siguientes se caracterizan por una abundante proliferación de modelos evaluativos: Guba y
Lincoln (1982) refieren la existencia de más de 40 modelos propuestos en la literatura especializada.
Los modelos evaluativos son enmarcados en dos grandes grupos: la evaluación cuantitativa o
experimental y la evaluación cualitativa, naturalista o etnográfica.
6
Guba y Lincoln: Generaciones en la concepción de la evaluación. Características
7
Tabla 2. Postulados de la evaluación naturalista o de cuarta generación.1
LA EVALUACIÓN ES UN PROCESO:
Entre los evaluadores y las audiencias que crean, de un modo colaborativo, una construcción de
consenso sobre el valor del objeto evaluado. La evaluación crea la realidad y que la valoración construida
está sujeta a revisiones y cambios continuos. Ninguna parte del proceso de la evaluación debe
considerarse libre de valores.
Que recoge datos en continua valoración e interpretación, dentro de una unidad inseparables y
simultánea, en donde los hechos y valores van unidos. La recogida de datos y su interpretación o
valoración son inseparables. Los hachos no tienen significado excepto dentro de un marco teórico de
valores.
Local. Los fenómenos únicamente pueden se comprendidos dentro del contexto en el que se estudian; los
hallazgos dependen del contexto y no pueden ser generalizados a otras situaciones; tampoco los
problemas ni las situaciones, si bien pueden ser adaptadas, aprendiendo de ellas, a través de la experiencia
vicaria.
Socio-político. Los aspectos sociales, culturales y políticos lejos de ser meros detractores son un aspecto
integrante del proceso, al menos tan importantes como la adecuación metodológica.
Enseñanza-aprendizaje donde todos los miembros aprenden unos de otros.
Continuo, recursivo y divergente, porque sus hallazgos son creados mediante construcciones sociales
sujetas a revisión. Las evaluaciones deben ser continuamente recicladas y actualizadas. Una buena
evaluación sugiere más preguntas que respuestas y no tiene un punto final natural.
Emergente con resultados impredecibles a priori.
Para compartir responsabilidades más que para asignarlas que implica por igual a todas las partes .Que
implica a los evaluadores y a las audiencias en unas relaciones hermenéuticas-.dialécticas, en los
siguientes sentidos:
! Es una actividad educativa que pretende lograr el consenso y tras clarificar los aspectos que entran en
conflicto.
! Proceso colaborativo en el que los grupos participantes comparten, con el evaluador, el poder para
tomar decisiones sobre la metodología y la interpretación.
! Proceso en el que la distinción entre la investigación básica y aplicada queda anulada; de ese modo
ayuda , simultáneamente , a comprender y clarificar la naturaleza de las necesidades de la acción
! Los evaluadores mantienen contacto directo con los participantes en la evaluación, no pudiendo
realizarse una evaluación efectiva a distancia, lejos del lugar en el que se producen los
acontecimientos.
1
Tomado de Guba Y Lincoln (1985): Citado en Egon Guba e Yvonna Lincoln: la evaluación naturalista en el
libro Evaluación de programas educativos .Investigación evaluativa .modelos de evaluación de programas.
Catalina Martínez Mediano. Cuadernos de la UNED, Madrid, 1996 Ed. Torán S.A
8
Tabla 3. Enfoques (modelos) de la evaluaciónEn función de los objetivos que persiguen, de
sus métodos, de sus instrumentos, etc., y no en cuanto a su pertenencia o no a los modelos
cuantitativo o cualitativo, se destacan los siguientes enfoques:
9
Tabla 4.Paradigmas y Modelos de evaluación
10
Tabla 5. Fases o etapas de la evaluación propuestas por diferentes autores
11
Descripción de las etapas del proceso de evaluación externa a los programas
de maestrías, según la metodología del SEAM
12
7-Redacción del informe final: como documento de trabajo y reflexión, el informe final es el
producto del consenso de todos los evaluadores por lo que ha de ser un informe directo,
integral y exhaustivo para que pueda ser comprendido por todos los interesados. El contenido
del informe se organizará según las variables e indicadores y cumplimentando las normas
establecidas para la elaboración del mismo. En su contenido el informe contemplará la
descripción del objeto evaluado y su contexto; la descripción de los propósitos de la
evaluación y quiénes la realizan; la descripción de los procedimientos desarrollados para el
acopio de datos e información incluidos estos y las fuentes; la descripción de los medios y
técnicas utilizados para la valoración e interpretación de la información; los resultados de la
evaluación (debilidades y fortalezas del programa) y las recomendaciones para la mejora del
programa.
8-Determinación de las audiencias con derecho a la información de los resultados de la
evaluación, presentación y difusión de los mismos: El CA determinará quiénes son las
personas que deben estar en la presentación del informe final de la evaluación una vez
culminado el proceso de evaluación e informará a los evaluadores. La presentación del
informe final se hará en plenaria con los representantes de las audiencias correspondientes o
destinatarios de la evaluación: miembros del Comité Académico, profesores, tutores,
estudiantes del programa, egresados del programa, directivos del área y de diferentes niveles,
otros profesores del centro, directivos de entidades empleadoras, dirigentes de organizaciones
políticas y de masa si procede y usuarios potenciales del programa. Los resultados que se dan
se expresan en debilidades y fortalezas del programa, así como las recomendaciones y
sugerencias de los evaluadores al programa. No se da la calificación obtenida según las
variables de la Guía de Evaluación ni la calificación final. Tampoco los evaluadores expresan
criterios definitivos en cuanto a la certificación de calidad a otorgar al programa.
9. Toma de decisiones: Esta etapa es, a su vez, el comienzo de otra etapa del programa
cualitativamente superior: el perfeccionamiento o la mejora del programa. Realmente la
evaluación no culminó con el informe pues corresponde al Comité Académico y a aquellas
personas comprometidas con el programa hacer el análisis de las recomendaciones sugeridas
en el informe final por los evaluadores, la toma de decisiones y la creación de las condiciones
para la puesta en práctica de las mismas.
10. Seguimiento al programa evaluado: se sugiere la incorporación de esta etapa que
actualmente no se determina en la metodología empleada. Resulta muy importante porque
permite corroborar el cumplimento de las recomendaciones o la adaptación de las mismas en
el programa, así como los cambios que se han introducido por los evaluados y no esperar a una
próxima evaluación externa para su verificación.
11. Metaevaluación: en esta etapa jugarán roles los metaevaluadores, evaluadores y
evaluados. Se propone esta etapa en caso de que sea necesario dilucidar aspectos no claros de
la evaluación que conlleve a la discrepancia de los evaluados con los resultados arrojados por
la evaluación o con la actuación de los evaluadores. Se podrá implementar a propuesta de otras
instancias como la instancia acreditadora si se necesita ganar en claridad en aspectos
normativos y procesuales de la evaluación externa primaria realizada o en el caso de que la
información no haya sido lo suficientemente exhaustiva o válida que facilite la mejor toma de
decisión sobre la certificación de la calidad del programa.
13
Figura 1. Interrelación de la Guía de Evaluación con los otros componentes del Sistema Integral de
Evaluación (SIEVAL)
14
Figura 2. Modelo evaluativo de programa. (Ramón Pérez Juste, 1995)
Adecuación a la situación
de partida Viabilidad
Continuidad
Decisiones
Incorporación de
las mejoras
Plan de seguimiento
15
Descripción del Modelo de Pérez Juste
Objeto 1- Contenido del programa: Se evalúa la relación del programa con la teoría que lo sustenta y/o con el
estado actual del campo científico/ técnico de que se trate, cuanto de la posible existencia de reduccionismos, la
coherencia entre el programa y las bases socio-psico-pedagógicas en que dice ampararse y la actualización,
equilibrio y ponderación entre las partes y ausencia de sesgos de los temas, teorías, escuelas, principios, etc. y se
evalúa la relevancia desde perspectivas como la demanda social, la utilidad y la funcionalidad o el mismo valor
formativo de los contenidos seleccionados.
Objeto 2- Calidad Técnica del programa: Se evalúa en qué medida el programa aparece inicialmente
diferenciado para acomodarse a la diversidad y a las diferencias individuales por medio de objetivos
diferenciados, adecuación a los alumnos en cuanto a la metodología y medios a utilizar, en cuanto a la variedad
de actividades individuales y grupales a desarrollar y en cuanto al sistema de evaluación propuesto.
Objeto 3- Evaluabilidad del programa: Se evalúa la cualidad de ser evaluable, la relevancia de la información
disponible. Que contenga o no la información básica, en el grado y calidad adecuados para poder ser evaluado,
según la concepción que de tal concepto se posea por parte del evaluador. Un programa tendrá tantas más
posibilidades de ser evaluado cuanto mejor cumpla ciertas exigencias en su contenido, en su metodología y hasta
en su lenguaje, que debe ser claro y preciso.
Dimensión II- Adecuación a los destinatarios o al contexto. Se evalúa el programa en sí mismo en relación
con las necesidades del estudiante como punto de especial referencia, ya que cada grupo de destinatarios tiene su
propia vida por lo que es preciso adecuarlo, acomodarlo a sus características. Se evalúa la personalización en una
de sus dimensiones fundamentales: la individualización didáctica. Es decir la acomodación a los niveles de
partida de los alumnos, a sus conocimientos básicos, sus intereses y motivaciones. Sus necesidades en suma.
Objeto 1- Respuesta a necesidades y carencias: debe realizarse la evaluación de necesidades a fin de evitar que
ciertos deseos más o menos caprichosos se puedan convertir en el elemento base de un programa sistemático, se
está ante la evaluación de necesidades. Entiéndase necesidad como necesidad sentida (subjetivo) y la carencia
(objetivo) como el no poseer determinados conocimientos, formación en técnicas, destrezas y estrategias. Las
necesidades/carencias detectadas deben traducirse en metas a largo plazo, en objetivos a medio/corto plazo del
programa de que se trate. La articulación de las necesidades en el programa supone la selección de estrategias de
intervención, la preparación de las actividades pertinentes, la previsión de la temporalización y de los
medios/recursos e incluso de cara a la evaluación, su traducción a manifestarse observable.
Objeto 2- Establecimiento de prioridades: La evaluación en este aspecto debe atender, entre otros criterios
fundamentales, de una parte, a la existencia o no, y a su calidad técnica, de datos relativos al diagnóstico de
necesidades; de otra, a la coherencia entre las necesidades detectadas y priorizadas y el programa formulado. Por
ejemplo, el carácter técnico/experto que contempla los aspectos de relevancia/trascendencia/gravedad,
rentabilidad, inmediatez, eficacia y responsabilidad y los aspectos eminentemente subjetivos como
interés/motivación expresa y las expectativas personales/grupales como fuente potencial de energías de cambio.
Objeto - Viabilidad del programa. Se evalúa la acomodación y congruencia del programa con ciertas
características de la institución, de su personal y del marco social en que la institución se halle encuadrada para lo
que se toman como criterios el realismo en sus metas, adecuadas a medios y recursos (humanos, técnicos y
materiales); el aprovechamiento es decir, la adecuada dinamización, el plan y orden, así como la suficiencia de
apoyos logrados cuando sean necesarios; la capacitación del profesorado en las técnicas para dar respuesta a las
necesidades y dificultades del aprendizaje; la disponibilidad de los medios y la demanda de los interesados
16
Segundo momento: Desarrollo. Dos dimensiones. Seis objetos.
El interés de la evaluación se centra, no en lo planificado, sino en lo llevado a la práctica. La evaluación del
proceso de aplicación de los programas parece venir exigida por las propias características que definen los
procesos educativos, entre los que nos parece conveniente destacar su complejidad y su prolongada duración,
hechos ambos que pueden dar lugar, con frecuencia, a los denominados efectos no planeados que en ocasiones,
pueden además ser no deseados.
Dimensión I-Proceso de ejecuciónSe evalúa la conformidad o la falta de ella entre la planificación y el desarrollo,
la presencia de desfases significativas, la aparición de efectos no deseados, la constatación de resultados
parciales, conformes o apartados de los previstos. Se evalúan:
! Actividades diseñadas para detectar su grado de eficacia, su real poder motivador, su grado de adecuación a
intereses y capacidades del alumnado.
! Actividades en secuencia: para detectar el punto en que una serie comienza a fallar (causas). Si el desarrollo
del programa se realizó en los tiempos previstos o hubo rupturas en la secuencia.
! Temporalización: no siempre se cuenta con información suficiente para asignar tiempos en la fase de
planificación. Es decir más o menos tiempo, lo cual se refleja en actitudes negativas como la ansiedad,
cansancio, aburrimiento, falta de interés.
! Flexibilidad/rigidez: encontrar el punto de equilibrio de la aplicación
Dimensión II- Marco del programa. Se tiene en cuenta desde el aula, el centro, la coexistencia del programa de
cada profesor con otros programas y la coherencia institucional, es decir, la coherencia del marco o contexto de
referencia con las metas y hasta metodologías del programa. Los criterios para evaluar son la conformidad con la
planificación, la coherencia institucional, la satisfacción del personal, la existencia de desfases/desajustes, los
resultados parciales y la aparición de efectos no programados.
Dimensión I- Medidas y logros. Se orienta a la constatación y/o al contraste del programa La medida de los
resultados puede valorarse a partir de la calidad técnica de sus instrumentos, fiabilidad y validez de los datos y
para ello han de ser coherentes con los con los objetivos planificados y con el proceso de enseñanza desarrollado,
además de representativos de los verdaderos saberes alcanzados por los usuarios del programa.
Dimensión II- Valoración. Para hacerse efectiva necesita la existencia de criterios y referencias adecuados al
objeto y a la función a que sirve el programa. Dos de las más importantes referencias son los niveles conseguidos
por el programa en ocasiones anteriores y los estándares internacionales, nacionales tomados como punto de
partida. Junto a ello, es preciso tomar en consideración un conjunto de circunstancias en que el programa se
aplica; de hecho, los resultados de la evaluación inicial y procesual, además de su sentido propio, sirven como
criterios de la valoración.
1-Criterios para valorar las actividades, los productos conseguidos por los destinatarios del programa, o cada uno
de los momentos, dimensiones u objetos que lo integran.
2- Referencias: elementos o puntos de vista con relación a los que se valora el programa, en su conjunto o en sus
partes cuando alcancen entidad la cantidad suficiente: referencia normativa, si existiera algún problema y en
casos de competencia entre programas; referencia criterial, a partir de las metas y niveles previamente
especificados técnicamente por los responsables e idiosincrasia, considerando el conjunto de circunstancias o sus
resultados en situaciones precedentes.
Dimensión III- Continuidad.Se toman criterios referidos a los resultados como son los niveles de pre-
especificación (en términos criteriales o normativos, o bien de naturaleza idiosincrática), relativos a los medios
utilizados en su determinación; la idoneidad del planteamiento metodológico; la calidad técnica de los
instrumentos; la corrección de su interpretación; la adecuación de las técnicas de análisis; la existencia de un
sistema de control interno del plan; grado de participación de los implicados y el sistema de revisión establecido
sobre las decisiones tomadas.
17
Figura 3. Posibles objetos de la evaluación
Políticas
Educativas Centros o instituciones
Sistema Facultades
educativo
Departamentos
Servicios
universitarios
OBJETO DE Programas
EVALUACIÓN Programas/
¿Quése Cursos posgrado Carreras
evalúa? (pregrado)
Procesos
Enseñanza-
aprendizaje
Recursos humanos
Claustro de profesores Necesidades Aprendizaje
18
Figura 4. Componentes de un Sistema Integral de Evaluación de programa según la
función que realizan
Objeto
(Programa)
Resultados
Informe final
(conclusiones-
recomendaciones)
Actores
intervinientes
Destinatarios
(audiencias)
19
Figura 5. Representación gráfica del proceso de evaluación externa. Componentes
ProcesodeEvaluación
DOC. PROGRAMA
Calidadtécnica
NORMATIVOS
Desarrollo
Resultados
Doc.del
programa Etapas
evaluación
Medios e Patrónde
instrumentos calidad
Debilidades
•Recogida, valoracióne INFORMEFINAL Fortalezas
interpretaciónde Recomendaciones
información
•Técnicas evaluativas
aplicadas AUDIENCIAS
AUTORIZADO
RATIFICADO
CERTIFICADO
TOMADEDECISIONES EXCELENCIA
20
Descripción de los componentes del Sistema de Evaluación y Acreditación
de Maestría (SEAM)
21
Tabla 6. Indicadores de la KEC de Scriven. Primera versión
22
describirlos como parte de los afectados, impactados o
implicados.
8-LAS NECESIDADES Y VALORES de los afectados y 5-VALOR: El criterio de mérito que se tenga para
potencialmente impactados .Esto incluye tanto los deseos la evaluación, teniendo en cuenta las necesidades
como las necesidades, y también los valores como las del cliente y los estándares profesionales relevantes:
normas sobre el mérito y los ideales juzgados o supuestos la oportunidad (que sea oportuna), relevancia,
(véase punto 9); las metas definidas del programa, cuando costo-eficacia, justicia validez, necesidades
se lleve a cabo una evaluación basada en metas; y las relevantes y apropiadas del clientes y otras más.
necesidades, y otras cosas, del instigador, el controlador, el Debe ser validada y no sólo expresada. Hay alguna
inventor, etc., puesto que están indirectamente afectados. presunción evaluativa del evaluador evidente en la
La importancia relativa de estas consideraciones, a menudo evaluación, o se es apropiadamente transparente a
opuestas, depende de las consideraciones éticas y este respecto?
funcionales.
9-NORMAS: ¿Existen normas preexistentes y
objetivamente valoradas, acerca del mérito o el valor, que
deban aplicarse? ¿Procede alguna de ellas del cliente y el
consumidor, de la función y de las necesidades/valores?
(Esto incluye los ideales asignados; véanse los ideales del
punto 8). Si se tienen en cuenta las metas, y si pueden ser
valoradas como apropiadas (por ejemplo, por una
valoración de las necesidades), legales/éticas y todo lo
demás debe comprobarse si han aparecido en el número 8
para ser aceptadas como una norma relevante en el punto 9.
10-PROCESO: ¿Qué limitaciones/ costes/ beneficios se 6-PROCESO: Si la evaluación fue bien diseñada o
aplican a la operación normal del evaluado (no a sus ejecutada. Por ejemplo, si la evaluación fue creada
efectos o resultados del punto 11)? En particular: legales/ para facilitar la propia evaluación. El reporte y la
ético-morales/ políticas/ administrativas/ estéticas/ difusión de los resultados. Si el evaluador respetó la
hedónicas/ científicas. Un proceso administrativo tiene confidencialidad. ¿Se intensifica la credibilidad?.
limitaciones especialmente significativas en lo que se Se valoran los resultados como errores falsos
refiere al “grado de realización”, esto es, hasta qué punto la positivos versus falso negativo. Si se muestra la
operación real cumple las estipulaciones del programa o las consideración relacionada con lo impactado a través
suposiciones del patrocinador acerca de su operación. Un de la evaluación. Disposición para el balance del
proceso científico debe utilizar indicadores de los poder.
resultados finales científicamente reconocidos; también
material científicamente (o históricamente) solvente de un
libro de texto o curso. Puede constituir un problema ético la
relativa importancia concedida a la satisfacción de las
necesidades de la población escogida y las necesidades de
carrera o condición de otra gente afectada, como por
ejemplo el personal del programa.
11-RESULTADOS: ¿Qué efectos ha producido el 7-RESULTADOS: Incluye los reportes y sus
evaluando (deseados o indeseados)? Resulta útil una matriz efectos buenos y malos con una extensión
de efectos: población afectada x tipo de efecto (cognitivo previsible por el evaluador .Además incluye los
/afectivo/ psicomotor/ sanitario/ social/ ambiental) x por la efectos del proceso de evaluación: si el uso de la
puntuación de las Z de tiempo de reacción (inmediata/ al información en la toma de decisiones aumentó la
final del tratamiento/ más tarde) x duración x cada productividad o debilitó la moral.
componente o dimensión (si se requiere la evaluación
analítica). Para algunos propósitos, los deseados (por
ejemplo, control de programa, responsabilidad legal), para
otros, no debe hacerse distinción (la evaluación del
producto orientada hacia el consumidor).
12-PODER DE GENERALIZACIÓN: a otras personas 10-GENERALIZACION: Otros usos del diseño, en
/lugares /tiempos /versiones. “Personas” significa tanto el otro momento, en otros programas diferentes, otros
personal como los receptores. Esto también puede sitios, etc.
denominarse posibilidad de distribución, posibilidad de
venta/ exportación/ duración/ modificación.
23
13-COSTES: En dólares –psicológico- de personal; inicial- 8-COSTOS: ¿Cuál fue el costo de la evaluación?.
repeticiones (incluyendo preparación, mantenimiento y (Especialmente no en dinero). ¿Qué alternativas
perfeccionamiento), directo/ indirecto- inmediato/ hubo para estos costos (incluyendo no haciendo
retardado /rebajado; si conviene, por componentes más allá)?.
14-COMPARACIONES: con opciones alternativas, 9-COMPARACIONES: Competidor crítico para la
incluyendo las opciones reconocidas y las no reconocidas, evaluación, usando un juicio fundamentado, y
las disponibles y las que se pueden crear. Los principales utilizando otros modelos evaluativos.
contendientes en este campo son los “competidores
críticos” y se identifican en términos de coste más
efectividad. Normalmente incluyen a aquellos que
producen efectos similares o mejores por un precio menor,
y mejores efectos por un coste extra razonables (efectos)
15-SIGNIFICADO. Una síntesis de todo lo anterior. La 11-SIGNIFICACION: Por encima de toda la
validación del procedimiento sintético es, a menudo, una de síntesis para alcanzar o lograr una lectura sobre el
las tareas evaluativas más dificultosas. Normalmente, no valor y el mérito de la evaluación.
puede dejarse al cliente que, por lo general, está mal
equipado en experiencia y objetividad; y las fórmulas-por
ejemplo, los cálculos de coste-beneficio rara vez resultan
adecuadas. Lo más útil es una flexible suma ponderada.
16-RECOMENDACIONES: Esto puede o no ser 12-RECOMENDACIONES: Se pueden o no seguir,
requerido, y puede o no desprenderse de la evaluación; pero pueden incluir: lo que se rechaza, se confirma,
aunque sean requeridas, puede que no sea posible se acepta e implementación.
proporcionar ninguna puesto que los únicos tipos que
pueden resultar apropiados no disponen de pruebas
científicas específicas en el campo de la investigación.(Los
recursos disponibles para la evaluación resultan cruciales
aquí)
17-EL INFORME: El vocabulario, la extensión, el diseño, 13-REPORTE: Del metaevaluador.
el medio, la localización y el personal para su presentación
necesitan un cuidadosos examen, igual que la protección/
privacidad/ publicidad y la investigación previa o la
circulación de os borradores finales preliminares
18-LA METAEVALUACIÓN. La evaluación debe ser
evaluada preferiblemente antes de a) su realización, b) la
difusión final del informe. La evaluación externa es
deseable, pero primero el evaluador principal debe aplicar
la lista de control de indicadores a la propia evaluación.
Los resultados de la metaevaluación deben ser utilizados
formativamente pero también pueden ser incorporados al
informe o transmitidos (resumidamente) al cliente y otras
audiencias adecuadas. (Las “audiencias” aparecen en el
metapunto 7, puesto que son el “mercado” y los
“consumidores” de la evaluación).
24
Tabla 7. Indicadores de la KEC de Scriven. Versión del 2002
PART B: FOUNDATIONS
1. Historical, contemporary, and any projected settings for program; identify any upstream
Background stakeholders (and their stakes) other than clients; identify enabling and more recent relevant
and legislation or funders' policy changes; underlying rationale, a.k.a. official program theory, and
Context political logic (if any); general results of lit review on similar interventions (including fugitive
studies, Internet); previous evaluations, if any, and their impact, if any.
2. Not just the official description of program plus components but a correct and complete
Descriptions description in enough detail to recognize, perhaps enough detail (if this is being considered) to
and replicate it. Detailed description of goals/mileposts (if not in goal-free mode). Expect
Definitions divergences from story told in Checkpoint 1. Meaning of 'technical terms,' i.e., those that will
not be in prospective audiences' vocabulary. Note significant patterns/analogies/metaphors that
are used by participants or that occur to you. Distinguish an instigator's efforts in trying to start
up a program from the program itself.
25
3. Consumers comprise the recipients of the services/products (i.e., the downstream direct
Consumers impactees). These people are sometimes called 'clients' but they are clients of the program not
of the evaluation so it's usually better for an evaluator to restrict the use of the term 'client' to
the sponsor of (the person signing the contract, explicit or implicit) for the evaluation. To these
must be added the downstream indirect impactees (e.g., recipient's family or co-workers), who
are impacted via ripple effect. Program staff members are also impactees, but we keep them
separate (by calling them the midstream impactees) because the obligations to them are very
different and much weaker in most kinds of program evaluation (they are not the raison d'etre of
the program). The funding agency, taxpayers, and political supporters, who are also impactees
in some sense are also treated differently (and called upstream impactees), except when they are
also recipients.
4. A.k.a. 'strengths assessment.' The financial, physical, and social-relational assets of (4.1) the
Resources program and (4.2) the impacted population; includes for example the abilities and knowledge of
staff, volunteers, and other supporters, on the program side; and the financial resources of
impactees, on that side. This includes what could have been used, not just what was used (this
defines the 'possibility space,' i.e., the range of what could have been done). May be helpful to
list typical resources that were not used/available on this occasion. For example, to what extent
were impactees, stakeholders, fundraisers, volunteers, donors, families and friends not involved
as much as they could usefully have been involved?
PART C: SUBEVALUATIONS
Each of these involves a fact-finding phase (Step I), followed by the combination of the facts
with whatever values (from 5 above) bear on those facts, which yields the sub-evaluation (Step
II). In other words, going from What's So? to So What?
Identify the relevant value dimensions from the following list, then add 'stars, bars, and steps.'
5. Values The 'stars' are the weights, i.e., the relative or absolute importance of the dimensions of merit or
other values that will be used to get from the facts to the evaluative conclusions. They may be
expressed qualitatively (e.g., letter grades) or quantitatively (e.g., points on a ten point scale).
The 'bars' are minimum standards for acceptability, if any. Bars and stars may be set on any
relevant properties (dimensions of merit), values, or standards; or on dimensions of valued
performance; and may additionally include holistic bars or stars. (In more sophisticated work,
one also establishes 'steps,' i.e., the points on a performance dimension where the weighting
(i.e., value allocation) jumps abruptly from one level to another.) Bars and steps may be fuzzy
as well as precise. At least check the following values for relevance: (i) needs of the impacted
population, via a needs assessment (distinguish performance needs from treatment needs, met
needs from unmet, and meetable needs from ideal but impractical or impossible with present
resources (consider the Resources checkpoint); (ii) criteria of merit from the definition of the
evaluand and from standard usage (e.g., numbers impacted, depth of impact); (iii) legal and (iv)
ethical requirements, including (reasonable) safety for all impactees; (v) fidelity to alleged
specs ('authenticity'; see Checkpoint 5); (vi) personal and organizational goals, if not goal-free;
(vi) professional standards of quality that apply to the evaluand (does not include the Program
Evaluation Standards, which apply only to the evaluation, see Checkpoint 15), (vii) logical
(e.g., consistency); (viii) legislative; (ix) scientific/technical; (x) market; (xi) expert judgment of
quality (sometimes this is not fully reducible to directly measurable criteria, e.g., in real estate
appraisal, cheese manufacture, some medical specialties); (xii) historical/traditional/cultural
standards. Of course, identifying/applying some of these will require expert advice and/or
impactee/stakeholder advice. NOTE: you must include any values here that you will use in
evaluating the side-effects (not just the intended effects); some of these will only occur to you
after you find the side-effects (Checkpoint 7), but that's not a problem—this is an iterative list,
which means one comes back to modify findings on earlier checkpoints.
26
6. Process Assessment of the quality of everything significant that happens or applies before true outcomes
emerge, including causally relevant context and support (e.g., the quality of the student body,
the administration's support of the faculty). This checkpoint also covers: goals, design,
implementation (i.e., degree of implementation of supposed program, a.k.a. 'authenticity' or
'actualization'), management, quality of work (and workers, if you can justify that inference),
activities, procedures; perhaps also the quality of the original logic of the program and its
current (implicit or explicit) logic. What is called 'input evaluation' is covered here, because the
quality of the input either becomes (an essential part of) the quality of the process, or is
irrelevant (e.g., the quality of students at Harvard). Process also includes some intermediate
results of the process, e.g., an admirably large number of CPR classes provided by the Red
Cross, because these are not a value in themselves; the true value is the outcome resulting from
these classes, which (we hope) is saved lives. The classes are part of the process of trying to
save those lives, the process that defines the Red Cross program.
PART D: CONCLUSIONS
11. Overall Combine the sub-evaluations into an overall evaluation (i.e., a unidimensional
Significance conclusion—a grade or a rank) or, if that is not required, into a profile (a multi-
dimensional conclusion). The focus (point of view) is usually the present and future
impact on consumers' needs, subject to the constraints of ethics and the law, by
comparison with any alternatives; but there should usually also be some conclusion that
refers to the client's (and other stakeholders') needs for information (and wants, if
feasible), e.g., unrealized/potential value, if calculable.
12.[possible] These are often requested or expected, or even said to be a necessary part of good
Recommendations evaluation, but this is tricky territory, and giving explanations is in fact on the fringes of
and Explanations the duties of an evaluator. (This is clearly true, since evaluations in which one has no idea
of the operative mechanism ('black-box evaluations') are not only feasible, but often
extremely valuable in many cases, e.g., in determining the true efficacy of native remedies
or new analgesics.) One should distinguish: micro-recommendations—those concerning
minor management and equipment choices/use—some of which are often possible at no
extra cost; but note that in general providing explanations of success/failure in terms of
components/context/decisions will require identifying the true operating logic/theory of
program operation (by contrast with the original and current official or implicit logic).
And macro-recommendations—about the disposition of the whole program (fund, cut,
modify, export, etc.)—always require a lot more than that, namely (i) extensive
knowledge of the context-of-decision for the decision-makers (who are often not the
clients for the evaluation) and (ii) possession of correct (not just believed) logic or theory
of the decision space, key parts of which are often not available to anyone, including the
most expert of experts (in the present state of the art, there may be no generally accepted
true theory about the operation of such organizations) or only available to a board of
directors, or to select legislators. Macro-recommendations typically also require: (iii) the
ability to predict the results of recommended changes, something that even a true program
theory (like many social science theories) is often not able to do with any reliability,
because explanatory theories are often not capable of predictions (contrary to the
positivists' oversimplified philosophy of science, still quite widely accepted by those not
understanding its flaws). Plain predictions of the program's future, without changes, are
also often requested, and are usually very hazardous. Despite the above, procedural
recommendations, e.g., about needed further research or data-gathering or evaluation
procedures, are often possible and useful.
27
13. [possible] If any can be determined, and if appropriate. (The inference from poor work to poor
Responsibility workers in Checkpoint 6 is a simple example of this.) Allocating blame or praise requires
and Justification extensive knowledge of (i) the key players' knowledge at the time of decision-making; (ii)
their resources and responsibilities; as well as (iii) an ethical analysis of their options, and
(iv) certainty about whose decision actually caused the good/bad result (this may be
several people). Not many evaluators have the qualifications to do this kind of analysis;
the 'blame game' is very different from evaluation in most cases, and should not be
undertaken lightly. Still, sometimes mistakes are made that you can identify, and if they
have major consequences they should be pointed out.
14. Report and Conveying the conclusions. Requires making choices between or including: oral or
Support written, long or short, public or private, single or multiple actual presentations, technical
and nontechnical versions. Should also include post-report help, e.g., handling questions,
explaining the report's significance for different groups including users, staff, and funders.
Getting the results (and incidental knowledge findings) into the relevant databases, if any,
and recommending creation of one where beneficial; and into wider publication channels
if appropriate.
15. Metaevaluation Evaluation of this evaluation: to identify its strengths/limitations/other uses. Can obtain
relevant input to this by: (i) using an external evaluator of the evaluation; (ii) applying this
list to the evaluation itself; (iii) using a special metaevaluation checklist (there are three or
four available); (iv) replicating the evaluation and comparing the results; (v) doing the
evaluation using a different methodology and comparing the results; or (vi) applying the
Professional Standards. It's preferable to combine more than one of these approaches,
certainly to include (vi). Notes: (a) Usability and not actual use is a key criterion of merit,
the latter being at best a weak indicator of the former, since it depends heavily on the fast-
changing internal politics of the client's organization. (b) Implementation i.e., use, does
not entail high usability, it may have been very difficult because of poor usability. (c)
Usability directly covers evaluations without recommendations, a category which
includes many important, complete, and influential evaluations. (d) Evaluation impact
often occurs years after submission, and often occurs even if the evaluation was rejected
completely when submitted. (e) Look for contribution to the client's organization's
knowledge management system; if none, recommend creating it.
General Note A: The two checkpoints marked 'possible'—12 and 13—are not always relevant or feasible and
always require extra time/costs. They are mentioned because they are often supposed to be obligatory or
obviously part of any professional evaluation, which is not strictly true; and to provide some guidance for
estimating cost if they are feasible and desired by the client.
General Note B: The explanatory remarks here should not be regarded as more than approximations to the
content of each checkpoint. More detail can be found in the Evaluation Thesaurus, Michael Scriven, (4th.
edition, Sage, 1991), under Key Evaluation Checklist and crosslistings. However, the above version of the
KEC is significantly revised and improved, with help from many students and colleagues, most recently, Jane
Davidson (extensively), Emil Posavac and Rob Brinkerhoff (indirectly), and Andrea Wulf. More suggestions
are very welcome: scriven@aol.com.
This checklist is being provided as a free service to the user. The provider of the checklist has not
modified or adapted the checklist to fit the specific needs of the user and the user is executing his
or her own discretion and judgment in using the checklist. The provider of the checklist makes no
representations or warranties that this checklist is fit for the particular purpose contemplated by
user and specifically disclaims any such warranties or representations.
28
Tabla 8. Las 30 normas del Joint Committee
Los estándares relativos a la utilidad de la evaluación Los estándares relativos a la factibilidad implican
tienen por objetivo que ésta sirva a las necesidades asegurar que la evaluación sea realista, prudente,
de información de los usuarios, destinatarios de la diplomática y austera lo cual se normaliza a través de
evaluación a través de 7 normas: tres normas:
U1.Identificación de los implicados. Las personas F1. Procedimientos prácticos. Los procedimientos
relacionadas o afectadas `por la evaluación deben ser evaluativos deben ser prácticos tratando de minimizar
identificadas de tal forma que sus necesidades los trastornos que puedan producirse durante la
puedan ser tenidas en cuenta. recogida de información.
U2.Credibilidad del evaluador. Las personas que F2.Viabilidad política. La evaluación debe ser
llevan a cabo la valuación deben ser tanto dignas de planificada y llevada a cabo anticipando las diferentes
confianza como competentes para llevar a cabo la posiciones de los distintos grupos implicados de tal
evaluación con el fin de que los hallazgos de la forma que su cooperación pueda ser obtenida y que
evaluación logren máximo de credibilidad y los intentos de boicot de las tareas evaluativas, o de
aceptación. introducción de sesgos por parte de alguno de estos
U3.Ámbito de la información y selección. La grupos, pueda ser advertida y controlada.
información recogida debe ser ampliamente F3.Coste efectividad. La evaluación debe ser eficiente
seleccionada incluyendo cuestiones pertinentes en y producir información de suficiente valor de tal
relación con el programa, así como ser sensible a las forma que los recursos invertidos puedan ser
necesidades de los clientes y otros especificados justificados.
implicados.
U4.Identificación de valores. Las perspectivas,
procedimientos y lógica utilizada en la interpretación
de los resultados deben ser cuidadosamente descritas
de tal forma que las bases en el establecimiento de
juicios valorativos esté clara.
U5.Claridad del informe. El informe de evaluación
debe describir claramente el programa que está
siendo valorado, incluyendo su contexto y sus
objetivos, procedimientos y resultados de la
evaluación de manera que la información esencial
sea prevista y pueda ser fácilmente entendida.
U6.Oportunidad y difusión del informe. Los
hallazgos significativos y el informe de evaluación
deben ser difundidos a los potenciales usuarios de
modo que puedan ser utilizados oportunamente.
U7.Impacto de la evaluación. Las evaluaciones
deben ser planificadas, conducidas e informadas de
tal forma que estimulen el seguimiento continuado
por parte de los implicados para que la probabilidad
de la utilización de la evaluación sea maximizada.
Probidad (P) Adecuación (A) (accuracy)
Las normas referidas a la probidad tratan de asegurar Las normas de adecuación o exactitud tratan de
que la evaluación sea realizada legal, ética y con la asegurar que una evaluación revelará y expresará
debida atención al bienestar de aquellos implicados información técnicamente adecuada sobre aquellas
en la evaluación así como de los afectados por sus características que determinan valor o mérito del
resultados, lo cual se norma a través de los ocho programa evaluado lo cual se articula a través de los
estándares siguientes: doce estándares siguientes:
P1. Orientación de servicio. Las evaluaciones deben A1.Documentación sobre el programa. El programa
ser diseñadas para ayudar a las organizaciones a evaluado debe ser descrito y documentado clara y
atender y servir con efectividad a las necesidades de precisamente de tal forma que pueda ser claramente
29
toda la gama de participantes implicados. identificado.
P2.Convenios formales. Las obligaciones de las A2.Análisis del contexto. El contexto en el que el
partes implicadas (qué debe hacerse, cómo, por programa existe debe ser examinado con detalles
quiénes, cuándo) deben ser acordadas mediante un suficiente de modo que sus probables influencias
documento de tal forma que tales partes estén sobre el programa sean identificadas.
obligadas a seguir todas las condiciones del acuerdo A3. Descripción de propósitos y procedimientos. Los
o, formalmente, a renegociarlas. propósitos y procedimientos de la evaluación deben
P3. Derechos de los sujetos humanos. Las ser controlados y descritos con suficiente detalle de
evaluaciones deben ser planificadas y realizadas manera que puedan ser identificados y evaluados.
respetando y protegiendo los derechos y el bienestar A4. Fuentes admisibles de información. Las fuentes
de los sujetos humanos. de información utilizadas en una evaluación de
P4.Los evaluadores deben respetar la dignidad programa deben ser descritas con suficientemente
humana y su valor en sus interacciones con otras detalle de forma tal que la adecuación de la
personas asociadas con la evaluación de manera que información pueda ser evaluada.
los participantes no estén amenazados y no se vean A5.Información válida. Los procedimientos de
perjudicados. recogida de información deben ser seleccionados o
P5. Evaluación completa y adecuada. La evaluación desarrollados y, entonces, administrados, de manera
debe ser completa y adecuada en sus análisis y que la interpretación alcanzada sea válida para el uso
registro de los puntos fuertes y débiles del programa que se pretende.
evaluado, de forma tal que los primeros puedan A6. Información fiable. Los procedimientos de
robustecerse y loas aspectos problemáticos puedan recogida de información deben ser seleccionados o
ser resueltos. desarrollados y, entonces, administrados, de tal forma
P6. Declaración de resultados. Las partes que se asegure que la información obtenida sea
contratantes de una evaluación deben asegurar que suficientemente fiable para el uso propuesto.
el conjunto de los resultados y a las pertinentes A7. Información sistemática. La información
limitaciones sean accesibles a las personas afectadas recogida, procesada e informada en una evaluación
por la evaluación así como a cualquier otro con debe ser sistemáticamente revisada y cualquier error
expresos derechos legales a recibir los resultados. encontrado debe ser corregido.
P7.Conflicto de intereses. Los conflictos de intereses A8.Análisis de información cuantitativa. La
deben ser manejados con apertura y honestidad de tal información cuantitativa en una evaluación debe ser
forma que no comprometan el proceso de evaluación apropiada y sistemáticamente analizada de forma que
y los resultados. las cuestiones relevantes sean eficazmente
P8.Responsabilidad fiscal. La signación al evaluador contestadas.
y otras partidas presupuestarias deben reflejarse A9. Análisis de información cualitativa. La
contablemente y, en todo caso, ajustarse prudente y información cualitativa en una evaluación debe ser
éticamente de forma que puedan ser contabilizadas y apropiada y sistemáticamente analizada de forma que
apropiadas. las cuestiones relevantes sean eficazmente
contestadas.
A10. Justificación de conclusiones. Las conclusiones
encontradas en una evaluación deben ser
explícitamente justificadas de tal forma que los
implicados puedan valorarlas.
A11.Informe imparcial. Los procedimientos de
informe deben ser salvaguardados contra la distorsión
causada por sentimientos personales y sesgos de
cualquiera de las partes en la evaluación de manera
que el informe refleje claramente los hallazgos de la
evaluación.
A12. Metaevaluación. La evaluación, en sí misma,
debe ser formativa y sumativamente juzgada por
medio de estos u otros pertinentes estándares de tal
forma que su ejecución sea apropiadamente guiada y,
una vez cumplida, los implicados puedan examinar
minuciosamente sus puntos fuertes y débiles.
30
Tabla 9. Aspectos a medir en la Metaevaluación por Alfaro Gilberto y Sánchez Virginia
ASPECTOS DESCRIPCIÓN
CONTEXTO En el que dicho proceso se lleva a cabo
Ofrecer condiciones óptimas que permitan llegar a buen
GESTION INSTITUCIONAL término con un proceso que requiere del compromiso,
respeto y colaboración de todos los participantes
Los que se ponen a disposición para facilitar un proceso de
RECURSOS HUMANOS evaluación que generen confianza y credibilidad
Los adecuados para poder obtener y procesar la
APOYO LOGISTICO e información desde la cual se realizarán las valoraciones
INFRAESTRUCTURA TECNOLOGICA correspondientes.
Tabla 10. Criterios para enjuiciar las evaluaciones: Guba y Lincoln 2 (1989) Primer
grupo de criterios: paralelismo con los del paradigma positivista
2
Martínez Mediano, Catalina (1996): Evaluación de programas educativos. Investigación evaluativa. Modelos de
evaluación de programas. Capítulo XIII. Egona Guba e Ivonnas Lincoln: La evaluación naturalista. Cuadernos de
la UNED Madrid, Ed..Torán S.A.
31
Tabla 10. Criterios para enjuiciar las evaluaciones Guba y Lincoln (1989).Continuación
32
AMERICAN EVALUATION ASSOCIATION GUIDING PRINCIPLES
SYSTEMATIC INQUIRY
! Adhere to highest appropriate technical standards.
! Explore with client the shortcomings and strengths of various evaluation questions and methods to answer
them.
! Communicate methods accurately and in sufficient detail to allow others to understand, interpret and critique
the evaluation.
COMPETENCE
! Possess the education, abilities, skills and experience appropriate for the evaluation.
! Practice within the limits of your professional training and competence.
! Seek continually to maintain and improve competencies.
INTEGRITY/HONESTY
! Negotiate honestly with clients and other relevant stakeholders about costs, evaluation tasks, limitations of
methods, likely scope of results, and uses of evaluation data.
! Record all changes in the original evaluation project plan and the reasons for these changes.
! Seek to determine, and where appropriate be explicit about, your own, the clients’ and other stakeholders’
interests concerning the conduct and outcomes of the evaluation.
! Disclose any roles or relationships you have concerning what is being evaluated that might pose a
significant conflict of interest with your role as an evaluator.
! Do not misrepresent procedures, data or findings, and prevent or correct any substantial misuses by others,
within reasonable limits.
! If you determine that certain procedures or activities seem likely to produce misleading evaluative
information or conclusions, communicate your concerns to the client and work to resolve them. If resolution is
not achieved and if the misleading evaluation proceeds, you may legitimately decline to conduct the evaluation
or take other actions.
! Disclose all sources of financial support of your evaluation and the source of the request for the evaluation,
unless there are compelling reasons to the contrary.
33
! Barring compelling reasons to the contrary, allow all relevant stakeholders to have access to evaluation
information and actively disseminate this information to stakeholders if resources allow. Present results as
clearly and simply as accuracy allows.
! Maintain a balance between client needs and other needs. When client interests conflict with other interests
or with these guiding principles, explicitly identify and discuss the conflicts with the client and relevant
stakeholders. Work to resolve these, or, when resolution is not possible, determine whether continued work on
the evaluation is advisable.
! Go beyond an analysis of particular stakeholder interests when considering the welfare of society as a
whole, in view of the fact that evaluators have obligations that encompass the public interest and good and the
fact that the public interest and good are rarely the same as the interests of any particular group, including the
client.
Note: These principles are paraphrased and condensed from the official statement (America
Evaluation Association Task Force on Guiding Principles for Evaluators,1995)
N – Utility
The utility standards are to guarantee that an evaluation is oriented to the information needs of the intended
evaluation users.
N1 Stakeholder Identification: Those participating in, and those persons affected by, an evaluation are identified
in order that their interests and needs can be taken into account.
N2 Clarifying Evaluation Objectives: All persons who take part in an evaluation are concerned that the objectives
of the evaluation are made clear to all stakeholders.
N3 Credibility: Those who conduct evaluations are both competent and trustworthy; this helps ensure that the
evaluation results are accorded a maximum amount of acceptance and credibility.
N4 Scope and Selection of Information: The scope and selection of the information collected permits pertinent
questions to be asked of the evaluandum while simultaneously taking the interests and needs of the party
contracting the evaluation, as well as other stakeholders, into account.
N5 Transparency in Assessment: The underlying reasoning and point of view used to arrive at the interpretation
of the results are described in such a manner that the bases for the value judgments are clear.
N6 Comprehensiveness and Clarity of the Report: Evaluation reports describe the evaluandum, including its
context, objectives, the questions asked, the procedure(s) used, and the results of the evaluation. This ensures that
the pertinent information is made available and can be readily understood.
N7 Timeliness in Reporting: Significant interim results and (the) final report(s) are made available to the intended
users in such a fashion that they can be used in a timely manner.
N8 Evaluation Impact: The planning, execution, and presentation of an evaluation encourages stakeholders both
to follow the process of evaluation and utilize the evaluation.
D- Feasibility
The feasibility standards ensure that an evaluation is conducted in a realistic, considered, diplomatic and cost
effective manner.
D1 Practical Procedures: Evaluation procedures are designed in such a manner that the necessary information is
collected without disrupting the evaluandum or the evaluation.
D2 Political Viability and Support: Evaluations take the various positions of different interests into consideration
in their planning and execution in order to win their cooperation and discourage attempts by one or another group
to limit evaluation activities or distort or misuse the results.
D3 Cost Efficiency: Evaluations produce information of a value justifying the financial resources expended.
34
K Propriety
The propriety standards ensure that an evaluation is conducted in a legal and ethnical manner and that the welfare
of stakeholders is given appropriate attention.
K1 Formal Agreements:The obligations of the parties to an evaluation (specifying what, how, by whom and when
what is to be done) are set forth in written agreements that obligate the parties to fulfill all the conditions of the
agreements, or if not, to renegotiate these agreements.
K2 Protecting Individual Rights: Evaluations are planned and executed in such a manner as to protect and respect
human rights and welfare.
K3 Human Interaction: Evaluations are laid out in such a manner that contacts between participants are
characterized by mutual respect.
K4 Complete and Fair Assessment: In their assessment and depiction of strengths and weaknesses in the
evaluandum, evaluations are both complete and fair, such that strengths can be built on and problem areas
addressed.
K5 Disclosure of Findings: The contracting parties to an evaluation ensure that the evaluation results are made
available to the affected persons as well as to all those who have a legitimate claim to receive these results.
K6 Declaring Conflicts of Interest: Conflicts of interest are addressed openly and honestly in a manner that they
will least compromise evaluation processes and conclusions.
G-Accuracy
The accuracy standards ensure that an evaluation produces and disseminates valid and usable information.
G1 Documentation of the Evaluandum: The evaluandum is clearly and precisely described and documented so
that it can be unambiguously identified.
G2 Analysis of Context: The influences of the context on the evaluandum are identified.
G3 Description of Objectives and Procedures: The objectives, questions, and procedures used in and by the
evaluation are described and documented with sufficient precision that they are identifiable and can be judged.
G4 Trustworthy Information Sources: The sources of information used in an evaluation are sufficiently precisely
described that the appropriateness of the information can be assessed.
G5 Valid and Reliable Information: The procedures for collecting information are so chosen or developed, and
then employed, that the validity and reliability of the interpretation arrived at is ensured for the given purpose.
G6 Systematic Information Checks: The information that is collected, analyzed, and presented in an evaluation is
systematically: checked for errors.
G7 Qualitative and Quantitative Analysis: Qualitative and quantitative information in an evaluation are
systematically and appropriately analyzed so that the questions posed in the evaluation are actually answered.
G8 Substantiated Conclusions: The conclusions reached by an evaluation are explicitly substantiated in a manner
that stakeholders can follow and that permits them to assess the conclusions.
G9 Objective Reporting: Reporting is free from distortion through personal feelings or preferences for one or
another party to the evaluation; evaluation reports fairly reproduce the results.
G10 Metaevaluation: The evaluation itself will be evaluated on the basis of existing (or other important)
standards so that the execution can be done accordingly and so that stakeholders can in the end assess the
strengths and weaknesses of an evaluation.
35
Tabla 11. The SEVAL Standards: A Functional Overview: The following overview indicates which
Standards are most relevant for various evaluation activities:
Decision to Conduct an Evaluation Defining the Evaluation
U1 Identifying Stakeholders U1 Identifying Stakeholders
U2 Clarifying the Objectives of the Evaluation U2 Clarifying the Objectives of the Evaluation
U3 Credibility A1 Precise Description of the Object of Evaluation
U8 Evaluation Impact A2 Analyzing the Context
F2 Anticipating Political Viability A3 Precise Description of Goals, Questions, and
F3 Cost Effectiveness Procedures
P1 Formal Written Agreement A10 Metaevaluation
K6 Declaring Conflicts of Interest
A1 Precise Description of the Object of Evaluation
A2 Analyzing the Context
A10 Metaevaluation
Planning the Evaluation Evaluation Budgeting
36
&DUDFWHUL]DFLyQGHOFRQWH[WRVRFLDO\HGXFDWLYRHXURSHR,QLFLDWLYDVSDUDOD
PHMRUDGHODFDOLGDGGHODHGXFDFLyQKDFLDHO6LJOR;;,
([LVWHQ XQRV FHQWURV GH HQVHxDQ]D VXSHULRU HQ OD 8QLyQ (XURSHD \ DSUR[LPDGDPHQWH
HQWRGD(XURSDTXHFXHQWDQFRQXQQ~PHURFDGDYH]PD\RUGHHVWXGLDQWHVPiVGHPLOORQHV
HQHODxR
/DVXQLYHUVLGDGHVIXQFLRQDQHQXQHQWRUQRFDGDYH]PiVJOREDOL]DGRHQFRQVWDQWHHYROXFLyQ
PDUFDGR SRU XQD FUHFLHQWH FRPSHWHQFLD SDUD DWUDHU \ FRQVHUYDU D ORV PiV FXDOLILFDGRV \ SRU OD
DSDULFLyQ GH QXHYDV QHFHVLGDGHV D ODV TXH HVWiQ REOLJDGDV D UHVSRQGHU /DV XQLYHUVLGDGHV HXURSHDV
JHQHUDOPHQWHWLHQHQPHQRVDWUDFWLYR\PHGLRVILQDQFLHURVTXHODVGHORV(VWDGRV8QLGRV
(OiPELWRXQLYHUVLWDULRHXURSHRHVWiRUJDQL]DGRHVHQFLDOPHQWHDQLYHOQDFLRQDO\UHJLRQDOSRU
OR TXH H[LVWH XQD LPSRUWDQWH GLYHUVLGDG HQ WpUPLQRV GH RUJDQL]DFLyQ JHVWLyQ \ FRQGLFLRQHV GH
IXQFLRQDPLHQWR LQFOXLGDV ODV FXHVWLRQHV GH HVWDWXWR FRQGLFLRQHV GH WUDEDMR \ FRQWUDWDFLyQ GH ORV
SURIHVRUHV\ORVLQYHVWLJDGRUHVODVGLIHUHQFLDVFXOWXUDOHV\OHJLVODWLYDVDXQTXHWDPELpQH[LVWHQGHQWUR
GHFDGDSDtV\DTXHQRWRGDVODVXQLYHUVLGDGHVWLHQHQODPLVPDIXQFLyQQLUHVSRQGHQGHOPLVPRPRGR
QLFRQODPLVPDUDSLGH]DORVDFRQWHFLPLHQWRVTXHOHVDIHFWDQ
/DVXQLYHUVLGDGHVHXURSHDVVHHQIUHQWDQDFWXDOPHQWHDODQHFHVLGDGGHDGDSWDUVHDSURIXQGRV
FDPELRV UHODFLRQDGRV FRQ DVSHFWRV WDOHV FRPR HO DXPHQWR GH OD GHPDQGD GH IRUPDFLyQ VXSHULRU
PDQWHQLHQGR \ UHIRU]DQGR OD H[FHOHQFLD GH OD HQVHxDQ]D \ OD LQYHVWLJDFLyQ TXH VH RIUHFH \
JDUDQWL]DQGRDOPLVPRWLHPSRXQDFFHVRDPSOLRHTXLWDWLYR\GHPRFUiWLFRDODHQVHxDQ]DVXSHULRUOD
LQWHUQDFLRQDOL]DFLyQ GH OD HGXFDFLyQ \ OD LQYHVWLJDFLyQ TXH VH DFHOHUD QRWDEOHPHQWH SRU ODV QXHYDV
WHFQRORJtDVGHODLQIRUPDFLyQ\ODFRPXQLFDFLyQ\VHWUDGXFHDVXYH]HQXQDPD\RUFRPSHWHQFLDHQWUH
ODV GLVWLQWDV XQLYHUVLGDGHV \ ORV GLVWLQWRV SDtVHV SHUR WDPELpQ HQWUH ODV XQLYHUVLGDGHV \ ODV GHPiV
LQVWLWXFLRQHV WHQLpQGRVH HQ FXHQWD TXH XQD SDUWH FDGD YH] PiV LPSRUWDQWH GH ODV GRWDFLRQHV
HFRQyPLFDVDVLJQDGDVD ODVXQLYHUVLGDGHVVHDWULEX\HVREUHODEDVHGHFULWHULRVGH FRPSHWLWLYLGDGHO
GHVDUUROORGHXQDFRRSHUDFLyQHVWUHFKD\HILFD]HQWUHODVXQLYHUVLGDGHV\ODLQGXVWULDODPXOWLSOLFDFLyQ
GHORVOXJDUHVGHSURGXFFLyQGHFRQRFLPLHQWRVODUHRUJDQL]DFLyQGHORVFRQRFLPLHQWRVODDSDULFLyQGH
QXHYDVH[SHFWDWLYDV
/DXQLYHUVLGDGHVUHVSRQVDEOHGHVXPRGRGHIXQFLRQDPLHQWR\GHJHVWLyQGHVXVDFWLYLGDGHV\
SUHVXSXHVWRVDQWHVXVSDWURFLQDGRUHV\DQWHORVFLXGDGDQRVORTXHVXSRQHXQDSUHVLyQFDGDYH]PD\RU
SDUD TXH VH LQFRUSRUHQ D VXV HVWUXFWXUDV GH JHVWLyQ \ GH JRELHUQR UHSUHVHQWDQWHV GHO PXQGR QR
DFDGpPLFR GDGR TXH VH ILQDQFLD D WUDYpV GH LPSRUWDQWHV IRQGRV S~EOLFRV \ SULYDGRV \ ORV
FRQRFLPLHQWRV TXH SURGXFH \ WUDQVPLWH WLHQHQ XQD UHSHUFXVLyQ VLJQLILFDWLYD HQ OD HFRQRPtD \ OD
VRFLHGDG
/D H[FHOHQFLD KD GHMDGR GH JHQHUDUVH \ GH PHGLUVH D QLYHO QDFLRQDO LQFOXVR HQ ORV SDtVHV
HXURSHRVPiVJUDQGHVVLQRPiVELHQDHVFDODGHODFRPXQLGDGHXURSHDRPXQGLDO
/D PRYLOLGDG GH ORV HVWXGLDQWHV VLJXH VLHQGR EDMD HQ (XURSD (Q WpUPLQRV JHQHUDOHV ODV
SHUVSHFWLYDVGHFDUUHUDSURIHVLRQDOHQODVXQLYHUVLGDGHVHXURSHDVVRQOLPLWDGDV\EDVWDQWHLQFLHUWDV
8QD WHUFHUD SDUWH GH ORV HXURSHRV WUDEDMDQ KR\ HQ GtD HQ VHFWRUHV TXH H[LJHQ XQ DOWR QLYHO GH
FRQRFLPLHQWRVPiVGHOHQSDtVHVFRPR'LQDPDUFD\6XHFLD\HVWRVVHFWRUHVKDQFRQWULEXLGRSRU
VtVRORDODFUHDFLyQGHODPLWDGGHORVQXHYRVSXHVWRVGHWUDEDMRJHQHUDGRVHQWUH\
(QHOVyORHOGHORVHVWXGLDQWHVHXURSHRVUHDOL]DEDQVXVHVWXGLRVHQRWURSDtVHXURSHR\DXQTXHOD
PRYLOLGDGGHORVLQYHVWLJDGRUHVHVVXSHULRUDODGHODPHGLDGHODSREODFLyQVHPDQWLHQHDXQQLYHOLQIHULRUDOGH
ORV(VWDGRV8QLGRV/DPRYLOLGDGHVWXGLDQWLOSUiFWLFDPHQWHVRORVHUHDOL]DGHDOILQDOGHOFLFORHGXFDWLYRGHJUDGR
\GXUDQWHHOSRVWJUDGRGHELGRDODVGLILFXOWDGHV\WUDEDVTXHVXSRQHHOUHFRQRFLPLHQWRGHWtWXORV\SHULRGRVGH
HVWXGLR
/DV XQLYHUVLGDGHV FRQWULEX\HQ D OD FRQVHFXFLyQ GH ORV GHPiV REMHWLYRV GH OD HVWUDWHJLD GH
/LVERD FRQFUHWDPHQWH DO HPSOHR \ D OD FRKHVLyQ VRFLDO DVt FRPR D OD PHMRUD GHO QLYHO HGXFDWLYR
JHQHUDOHQ(XURSD
$FWXDOPHQWH HO Q~PHUR GH MyYHQHV HXURSHRV WLWXODUHV GH XQ GLSORPD GH HQVHxDQ]D VXSHULRU
VXSHUDFRQFUHFHVDOGHODVJHQHUDFLRQHVDQWHULRUHV
$SUR[LPDGDPHQWHXQGHORVHXURSHRVGHHQWUH\DxRVSRVHHQXQWtWXORGHHQVHxDQ]D
VXSHULRU PLHQWUDV TXH HVWH SRUFHQWDMH VyOR VH VLW~D HQ HO SDUD HO WUDPR GH HGDG FRPSUHQGLGD
HQWUHORV\ORVDxRV
6L VH FRQVLGHUD DO FRQMXQWR GH OD SREODFLyQ GH HQWUH \ DxRV OD WDVD GH HPSOHR GH ORV
WLWXODGRVGHODHQVHxDQ]DVXSHULRU&,1(\VHVLWXDEDHQHQXQHVGHFLUFHUFDGH
SXQWRVSRUHQFLPDGHODPHGLDJOREDOGHWRGRVORVQLYHOHVGHHQVHxDQ]D\FDVLSXQWRVSRUHQFLPD
GHODWDVDFRUUHVSRQGLHQWHDODVSHUVRQDVTXHVyORKDQDOFDQ]DGRHOQLYHOGHODHQVHxDQ]DVHFXQGDULD
LQIHULRU&,1(GHD
/DWDVDGHGHVHPSOHRGHORVWLWXODGRVGHODHQVHxDQ]DVXSHULRUVHVLWXDEDHQHQXQHV
GHFLUODWHUFHUDSDUWHGHODWDVDFRUUHVSRQGLHQWHDODVSHUVRQDVFRQXQEDMRQLYHOGHFXDOLILFDFLyQ
/DVXQLYHUVLGDGHVHXURSHDVDFRJLHURQHQHODXQRVHVWXGLDQWHVH[WUDQMHURVIUHQWHD
PiVGHHQHOFDVRGHODVXQLYHUVLGDGHVQRUWHDPHULFDQDVSURFHGHQWHVHQVXPD\RUtDGH$VLD
/RV (VWDGRV 8QLGRV DWUDHQ SURSRUFLRQDOPHQWH XQ Q~PHUR PXFKR PiV HOHYDGR GH HVWXGLDQWHV
H[WUDQMHURVGHFXUVRVDYDQ]DGRVGHLQJHQLHUtDPDWHPiWLFDHLQIRUPiWLFD\UHWLHQHQHQPD\RUPHGLGDD
ORV WLWXODUHV GH GRFWRUDGR DSUR[LPDGDPHQWH XQ GH ORV HXURSHRV TXH REWLHQHQ VX WtWXOR HQ ORV
(VWDGRV8QLGRVVLJXHYLYLHQGRDOOtYDULRVDxRV\PXFKRVGHHOORVSHUPDQHFHQHQHOSDtV
/DPRYLOLGDGGHORVHVWXGLDQWHVVLJXHVLHQGRPDUJLQDOHQ(XURSD(QVyORHOGHORV
HVWXGLDQWHV HXURSHRV UHDOL]DEDQ VXV HVWXGLRV HQ RWUR SDtV HXURSHR \ DXQTXH OD PRYLOLGDG GH ORV
LQYHVWLJDGRUHV HV VXSHULRU DODGH OD PHGLDGH ODSREODFLyQVH PDQWLHQHDXQQLYHO LQIHULRU DOGH ORV
(VWDGRV8QLGRV
/DV XQLYHUVLGDGHV SDUWLFLSDQ DFWLYDPHQWH HQ HO FRQMXQWR GH ODV DFFLRQHV GHO SURJUDPD
6Ï&5$7(6(5$6086'HVGHVXSXHVWDHQPDUFKDVHKDQEHQHILFLDGRGHHVWHSURJUDPDPiVGHXQ
PLOOyQ GH HVWXGLDQWHV \ FDGD DxR DSUR[LPDGDPHQWH SURIHVRUHV RSWDQ SRU OD PRYLOLGDG HQ HO
PDUFRGHGLFKRSURJUDPD
(O SURJUDPD /(21$5'2 SUHVWD DSR\R D SUR\HFWRV GH PRYLOLGDG HQWUH XQLYHUVLGDGHV \
HPSUHVDVGHORVFXDOHVVHKDQEHQHILFLDGRSHUVRQDVHQWUH\
1XPHURVDV UHGHV WHPiWLFDVLQWHUXQLYHUVLWDULDVFRQWULEX\HQDVtDUHIRU]DU ODFRRSHUDFLyQ D QLYHO
HXURSHR \D TXH DFW~DQ FRPR WKLQNWDQN JUXSR GH UHIOH[LyQ VREUH HO IXWXUR R OD HYROXFLyQ GH VX
PDWHULD
/D &RPXQLGDG KD DSR\DGR OD SXHVWD HQ PDUFKD GHO 6LVWHPD (XURSHR GH 7UDQVIHUHQFLD GH
&UpGLWRV(&76FX\RREMHWLYRHVHOUHFRQRFLPLHQWRGHORVSHUtRGRVGHHVWXGLR
/DVXQLYHUVLGDGHV WDPELpQSDUWLFLSDQHQODLQLFLDWLYD(XURSD\VXSODQGHDFFLyQSDUDHO
TXH SRWHQFLD HO GHVDUUROOR HQ WRGDV ODV XQLYHUVLGDGHV GHO DFFHVR HQ OtQHD FDPSXV YLUWXDO GH ORV
HVWXGLDQWHVHLQYHVWLJDGRUHV
(VWDFRRSHUDFLyQVHH[WLHQGHDVLPLVPRDRWUDVUHJLRQHVGHOPXQGRFRPRODUHJLyQPHGLWHUUiQHD
5XVLD \ ORV 1XHYRV (VWDGRV ,QGHSHQGLHQWHV \ ORV SDtVHV HQ GHVDUUROOR D WUDYpV GH ORV SURJUDPDV
7(0386 $/)$ \ $VLD /LQN ³(UDVPXV :RUOG´ TXH SHUPLWLUi DSR\DU OD FUHDFLyQ GH ³PiVWHUV
HXURSHRV´FRQHOREMHWRGHDWUDHUD(XURSDDDOJXQRVGHORVPHMRUHVHVWXGLDQWHVGHOPXQGRSDUDTXH
UHDOLFHQHVWXGLRVHQDOPHQRVGRVSDtVHVHXURSHRV
(OGHVIDVHHQWUHODRUJDQL]DFLyQGHODVXQLYHUVLGDGHVDQLYHOGH(VWDGRPLHPEUR\ODDSDULFLyQGH
GHVDItRVTXHVXSHUDQODVIURQWHUDVQDFLRQDOHVKDDXPHQWDGRHQORV~OWLPRVDxRVFRPRFRQVHFXHQFLDGH
ODFRQMXQFLyQGHORVVLJXLHQWHVIDFWRUHVODDSDULFLyQGHXQDXWpQWLFRPHUFDGRHXURSHRGHOWUDEDMRHQHO
TXH ORV FLXGDGDQRV HXURSHRV GHEHQ WHQHU OD SRVLELOLGDG GH GHVSOD]DUVH OLEUHPHQWH \ HQ HO TXH ODV
GLILFXOWDGHVTXHSODQWHD HOUHFRQRFLPLHQWRGHODVFXDOLILFDFLRQHV DGTXLULGDV FRQVWLWX\HQ XQREVWiFXOR
REVROHWRODVH[SHFWDWLYDVHQPDWHULDGHUHFRQRFLPLHQWRVXUJLGDVDUDt]GHODVDFFLRQHVOOHYDGDVDFDER
SRU OD SURSLD 8QLyQ (XURSHD SDUD IRPHQWDU OD PRYLOLGDG HVSHFLDOPHQWH PHGLDQWH OD LQLFLDWLYD
(5$6086 OD DSDULFLyQ GH XQD RIHUWD JOREDOL]DGD GH GLVWLQWRV SURJUDPDV XQLYHUVLWDULRV OD
SHUVLVWHQFLDGHODIXJDGHFHUHEURVHVWXGLDQWHVHLQYHVWLJDGRUHVGHDOWRQLYHO\HOPDQWHQLPLHQWRGHXQ
QLYHO FRPSDUDWLYDPHQWH EDMR GH DFWLYLGDG GH ODV XQLYHUVLGDGHV HXURSHDV D QLYHO LQWHUQDFLRQDO OD
LQWHQVLILFDFLyQ GH HVWRV IDFWRUHV SURYRFDGD SRU OD DPSOLDFLyQ GH OD 8QLyQ TXH JHQHUDUi XQD PD\RU
KHWHURJHQHLGDGGHOSDQRUDPDXQLYHUVLWDULRHXURSHR
/RV SURFHGLPLHQWRV HXURSHRV GH JDUDQWtD GH OD FDOLGDG YDUtDQ HQRUPHPHQWH HQ OR TXH UHVSHFWD D
HQIRTXHGHILQLFLyQGHODVSDODEUDVFODYHV\DJHQWHVGHJDUDQWtDGHODFDOLGDG
6H HMHFXWDQ LQLFLDWLYDV D QLYHO QDFLRQDO FRQWLQHQWH H LQWHUQDFLRQDO SDUD HO PHMRUDPLHQWR GH OD
FDOLGDGGHODHGXFDFLyQ
• (O6LVWHPD(XURSHRSDUDODPHMRUDGHODFDOLGDG(48,6RIUHFHGHVGHXQDDFUHGLWDFLyQTXHVHWUDGXFHHQODHWLTXHWD
(48,6SDUDHVFXHODVGHQHJRFLRV
• /D$VRFLDFLyQGHODV8QLYHUVLGDGHV(XURSHDV(8$TXHGHVGHRIUHFHXQSURJUDPDGHHYDOXDFLyQLQVWLWXFLRQDOHQHO
TXHKDQSUDFWLFDGRPiVGHHYDOXDFLRQHVLQVWLWXFLRQDOHVHQSDtVHVLQFOX\HQGRLQVWLWXFLRQHVODWLQRDPHULFDQDV
• &DVLWRGRVORV(VWDGRVPLHPEURV\SDtVHVFDQGLGDWRVDOD&(KDQLQYHUWLGRHQVLVWHPDVGHDVHJXUDPLHQWRGHFDOLGDGTXH
HVWiQLQWHJUDGRVGHIRUPDYROXQWDULDHQOD5HG(XURSHDSDUDHO$VHJXUDPLHQWRGHOD&DOLGDG(14$(XURSHDQ1HWZRUNIRU
4XDOLW\$VVXUDQFHLQ+LJKHU(GXFDWLRQFUHDGDHQ
• $VRFLDFLRQHVLQWHUQDFLRQDOHVYLQFXODGDVDOPXQGRXQLYHUVLWDULRTXHVHSUHRFXSDQSRUODFDOLGDGGHODGRFHQFLDFRPROD
(XURSH'LPHQVLRQRI,QVWLWXWLRQDO4XDOLW\0DQDJHPHQWROD,QWHUQDWLRQDO1HWZRUNIRU4XDOLW\$VVXUDQFH$JHQFLHVLQ+LJKHU
(GXFDWLRQ,14$$+(
• 'HVGHHOFXUVRVHKDQSXHVWRHQPDUFKDRWUDVLQLFLDWLYDVWUDQVQDFLRQDOHVFRQHODSR\RHFRQyPLFR\HVWUXFWXUDO
GHOD&RPLVLyQ(XURSHDFRPRVRQHO3UR\HFWR7XQLQJ(GXFDWLRQDO6WUXFWXUHVLQ(XURSHHQPDUFDGRHQHOSURFHVRGH/D
6RUERQD%RORQLD3UDJD%HUOtQSDUWLFLSDQXQLYHUVLGDGHVFRQHOREMHWLYRGHGHILQLUFULWHULRVFRPXQHVSDUDHODSUHQGL]DMHHQ
FLQFRGLVFLSOLQDV1HJRFLRV &LHQFLDVGH OD(GXFDFLyQ*HRORJtD+LVWRULD\0DWHPiWLFDVDVtFRPRFULWHULRVSURIHVLRQDOHV
FRPXQHVHQWpUPLQRVGHFRQRFLPLHQWRVKDELOLGDGHV\FRPSHWHQFLDVXWLOL]DQGRODVH[SHULHQFLDVDFXPXODGDVHQORVSURJUDPDV
(5$6086\6Ï&5$7(6GHVGH
• (QHOVHFUHDHO(VSDFLR&RP~QGH(GXFDFLyQ6XSHULRU8QLyQ(XURSHD$PpULFD/DWLQD\&DULEH8($/&SDUD
IDFLOLWDUODPRYLOLGDGGHHVWXGLDQWHVSURIHVRUHVHLQYHVWLJDGRUHVODFUHDFLyQGHVLVWHPDVGHFUpGLWRVFRPSDWLEOHVTXHSHUPLWDQHO
UHFRQRFLPLHQWR\ODFRQYDOLGDFLyQGHSHUtRGRVGHHVWXGLRVUHVSHWDQGRODOHJLVODFLyQYLJHQWHHQFDGDSDtVDVtFRPRIDFLOLWDUHO
LQWHUFDPELRGHH[SHULHQFLDVUHIHUHQWHVDODGLUHFFLyQHYDOXDFLyQ\JHVWLyQGHORVVLVWHPDVGHHGXFDFLyQGHODVWUHVUHJLRQHV\VXV
FODYHVIXQGDPHQWDOHVVRQODFRQILDQ]DPXWXD\HOUHFRQRFLPLHQWR
• &RQVWLWXLGDRILFLDOPHQWHHQPD\RGHOHQ%XHQRV$LUHVOD5HG,EHURDPHULFDQDSDUDOD$FUHGLWDFLyQGHOD&DOLGDG
GHOD(GXFDFLyQ6XSHULRU5,$&(6FRQODDVLVWHQFLDGHUHSUHVHQWDQWHVGHDJHQFLDVGHDFUHGLWDFLyQGHODFDOLGDG\GH0LQLVWHULRV
GH(GXFDFLyQGHSDtVHVLEHURDPHULFDQRVHQWUHORVTXHHVWiQ(VSDxD0p[LFR&XED$UJHQWLQD&KLOH%ROLYLD*XDWHPDOD
&RVWD5LFD(FXDGRU8UXJXD\\&RORPELD6XREMHWLYRSULQFLSDOHVSURPRYHUODFRRSHUDFLyQ\HOLQWHUFDPELRGHLQIRUPDFLyQ\
ODVEXHQDVSUiFWLFDVHQWUHORVGLVWLQWRVRUJDQLVPRV\HQWLGDGHVGHDFUHGLWDFLyQSDUDDOFDQ]DUODFRKHVLyQUHJLRQDOHQPDWHULDGH
HYDOXDFLyQ\DFUHGLWDFLyQ\FRQWULEXLUDODSURIXQGL]DFLyQGHORVSURFHVRVGHLQWHJUDFLyQVXEUHJLRQDOHVHQPDUFKD\DFWXDUFRPR
LQWHUORFXWRUFRQRWURVRUJDQLVPRVGHFDUiFWHULQWHUQDFLRQDO
• (QQRYLHPEUHGHDJHQFLDVGHDFUHGLWDFLyQGH$OHPDQLD$XVWULD%pOJLFD+RODQGD,UODQGD1RUXHJD6XL]D\
(VSDxDILUPDURQHQ&yUGRED(VSDxDHODFXHUGRGHFRQVWLWXFLyQGHO&RQVRUFLR(XURSHRGH$FUHGLWDFLyQ(&$6XREMHWLYR
HVFRQWULEXLUDODFUHDFLyQGHO(VSDFLR(XURSHRGH$FUHGLWDFLyQTXHLQFOX\DHOUHFRQRFLPLHQWRPXWXRWDQWRELODWHUDOFRPR
PXOWLODWHUDOSDUDTXHODVGHFLVLRQHVVREUHDFUHGLWDFLyQWRPDGDVHQXQSDtVVHDQDFHSWDGDVHQHOUHVWR6HSXHGHQPHQFLRQDU
WDPELpQOD,QLFLDWLYD&RQMXQWDGHOD&DOLGDG-RLQW4XDOLW\,QLDWLYHHO5HJLVWUR0XQGLDOGHOD&DOLGDGOD$VRFLDFLyQGHODV
8QLYHUVLGDGHV(XURSHDV(8$HO6LVWHPDGH(YDOXDFLyQGHOD&DOLGDGGHOD(QVHxDQ]DGHOD,QJHQLHUtD6(&$,
)URPHQW (ULF 8Q HVSDFLR HXURSHR SDUD OD HYDOXDFLyQ GH OD FDOLGDG (Q (YDOXDFLyQ GH OD FDOLGDG \
DFUHGLWDFLyQ(VSDFLRFRP~QGH(GXFDFLyQ6XSHULRU8QLyQ(XURSHD$PpULFD/DWLQD\&DULEH8($/&(GLWDGR
SRU$1(&$(VSDxD
(Q)LFKDVLQIRUPDWLYDVGHSURJUDPDV\DFWLYLGDGHV$1(&$
6LWLRKWWSZZZMRLQWTXDOLW\QO
7DEOD2EMHWLYRVGHOSURFHVRGHVGHOD6RUERQDKDVWD%HUOtQ
'(&/$5$&,Ï1'(/$625%21$
³3URPRYHUODFRQYHUJHQFLDHQWUHORVVLVWHPDVQDFLRQDOHVGHOD(GXFDFLyQ´
%2/21,$
*HQHUDOL]DFLyQGHO6LVWHPDGH&UpGLWRV(XURSHR
$GRSFLyQGHO6XSOHPHQWRDOGLSORPD
$GRSFLyQGHXQDHVWUXFWXUDEDVDGDHQGRVFLFORV
35$*$(675$7(*,$6
5HFRQRFLPLHQWRDFDGpPLFRXQPDUFRGHFXDOLILFDFLRQHVFRP~Q\IOH[LEOH
&RPSHWLWLYLGDG HQ IRUPDFLyQ H LQYHVWLJDFLyQ GHQWUR \ IXHUD GH QXHVWUDV
IURQWHUDV
6$/$0$1&$3$5/$0(172(8523(2
&80%5(%$5&(/21$
(GXFDFLyQ\ELHQHVWDUVRFLDO
(VWDEOHFLPLHQWRGHVLVWHPDVHGXFDWLYRVGHPi[LPDFDOLGDG
*5$=%(5/,1
(/(63$&,2(8523(2'(('8&$&,Ï1683(5,25
• 'HVDUUROODUOD(XURSDGHOFRQRFLPLHQWR
• 'HVDUUROODUXQVLVWHPDHGXFDWLYRGHFDOLGDG
• 'HVDUUROODUHOUHIHUHQWHHXURSHR
&/$9(6'(/$5()250$(8523($
• (GXFDFLyQFRPRDSUHQGL]DMH
• 7LWXODFLRQHVRULHQWDGDVDSHUILOHVSURIHVLRQDOHV
• 2EMHWLYRVFRPSHWHQFLDV\FRQRFLPLHQWRV
• 0HWRGRORJtDVGRFHQWHV
• 'HVDUUROORVDGPLQLVWUDWLYRV\GHJHVWLyQ
7RPDGRGH6DQWLDJR*DUFtD3UHVLGHQWHGHOD$VRFLDFLyQ$OH[DQGHUYRQ+XPEROGWGH(VSDxD
&DWHGUiWLFRGHOD8QLYHUVLGDGGH$OFDOi
$PSOLDFLyQ VREUH ORV REMHWLYRV TXH VH SHUVLJXHQ FRQ XQD (GXFDFLyQ 6XSHULRU GH
H[FHOHQFLDHQ(XURSD
(Q OD &RPXQLFDFLyQ GH OD &RPLVLyQ GH ODV &RPXQLGDGHV (XURSHDV %UXVHODV ³(O
SDSHOGHODVXQLYHUVLGDGHVHQOD(XURSDGHOFRQRFLPLHQWR´VHSODQWHDTXHOD8QLyQ(XURSHD
QHFHVLWD ³XQ HQWRUQR XQLYHUVLWDULR VDQHDGR \ IORUHFLHQWH´ H[FHOHQFLD HQ VXV XQLYHUVLGDGHV
SDUD RSWLPL]DU ORV SURFHVRV TXH VXVWHQWDQ OD VRFLHGDG GHO FRQRFLPLHQWR \ ORJUDU HO REMHWLYR
ILMDGR HQ HO &RQVHMR (XURSHR GH /LVERD FRQYHUWLUVH HQ ³OD HFRQRPtD PiV FRPSHWLWLYD \
GLQiPLFDGHOPXQGREDVDGDHQHOFRQRFLPLHQWRFDSD]GHVXVWHQWDUHOFUHFLPLHQWRHFRQyPLFR
\ FUHDU XQ PD\RU Q~PHUR GH SXHVWRV GH WUDEDMR GH PHMRU FDOLGDG \ XQD PD\RU FRKHVLyQ
VRFLDO´
(O&RQVHMR(XURSHRGH%DUFHORQDUHFRQRFLyHVWDQHFHVLGDGGHH[FHOHQFLDDODERJDUSRU
TXHORVVLVWHPDVHXURSHRVHGXFDWLYRVVHFRQYLUWLHUDQHQXQDUHIHUHQFLDGHFDOLGDGPXQGLDO
SDUDHO(QFRQVHFXHQFLDVHPDQLILHVWDTXHVLODFUHDFLyQGHXQD(XURSDEDVDGDHQHO
FRQRFLPLHQWR UHSUHVHQWD SDUD ODV XQLYHUVLGDGHV XQD IXHQWH GH RSRUWXQLGDGHV WDPELpQ
UHSUHVHQWDFRQVLGHUDEOHVGHVDItRVGHELGRDTXHOD(GXFDFLyQ6XSHULRU(XURSHDVHGHVDUUROODHQ
XQPDUFRFRPSOHMR
(O LQWHUpV SRU LPSOHPHQWDU OD HYDOXDFLyQ GH ODV XQLYHUVLGDGHV HXURSHDV FUHFLy
QRWDEOHPHQWHDSDUWLUGHFRQODSXEOLFDFLyQGHOGRFXPHQWR&UHFLPLHQWRFRPSHWLWLYLGDG
HPSOHR 5HWRV \ SLVWDV SDUD HQWUDU HQ HO VLJOR ;;, /LEUR %ODQFR HODERUDGR SRU OD
&RPXQLGDG(XURSHDSDUDSURSRQHUVROXFLRQHVDORVJUDYHVSUREOHPDVGHULYDGRVGHOGHVFHQVR
HQHOULWPRGHFUHFLPLHQWRGHODHFRQRPtDHXURSHDHQGHVYHQWDMDIUHQWHDORV(VWDGRV8QLGRV\
-DSyQ HQ FXDQWR D HPSOHR PHUFDGR H[WHULRU LQYHVWLJDFLyQ LQQRYDFLyQ WHFQROyJLFD \
HODERUDFLyQGHQXHYRVSURGXFWRVLQGXVWULDOHV
&RPXQLFDFLyQGHOD&RPXQLGDG(XURSHD³(OSDSHOGHODVXQLYHUVLGDGHVHQOD(XURSDGHOFRQRFLPLHQWR´
&RQVHMR (XURSHR GH %DUFHORQD &RQFOXVLRQHV GH OD 3UHVLGHQFLD (Q 0LQLVWHULR GH (GXFDFLyQ &XOWXUD \
'HSRUWHGH(VSDxD'RFXPHQWR0DUFR/DLQWHJUDFLyQGHOVLVWHPDXQLYHUVLWDULRHVSDxROHQHOHVSDFLRHXURSHRGH
HQVHxDQ]DVXSHULRU)HEUHUR'RFXPHQWRSGIEDMDGRGH*RRJOHHO
'RFXPHQWR &UHFLPLHQWR FRPSHWLWLYLGDG HPSOHR 5HWRV \ SLVWDV SDUD HQWUDU HQ HO VLJOR ;;,&RPXQLGDG
(XURSHD %ROHWtQ 6XSOHPHQWR (Q $JXLODU +HUQiQGH] 0DULHORV /D HYDOXDFLyQ LQVWLWXFLRQDO GH ODV
XQLYHUVLGDGHV7HQGHQFLDV\GHVDItRV9,&RQJUHVR8QLYHUVLWDULR8&5KWP%DMDGRGH*RRJOHHO
7DEOD&UpGLWRV(&76HQOD8QLyQ(XURSHD\6XSOHPHQWRHXURSHRDOWtWXORGHGRFWRU
/RVFUpGLWRV(&76GHWUDQVIHUHQFLD\DFXPXODFLyQVHEDVDQHQHOWUDEDMRGHO
HVWXGLDQWHVWXGHQWZRUNORDG
FUpGLWRV(&76UHSUHVHQWDQ
VHPDQDVDSUR[GHHVWXGLRDWLHPSRFRPSOHWR
KRUDVDSUR[GHWUDEDMRGHOHVWXGLDQWH
FUpGLWRHTXLYDOHDPQKRUDVGHWUDEDMR
&UpGLWRV(&76HQ(VSDxD
&UpGLWRVGHWUDQVIHUHQFLD\DFXPXODFLyQPLGHQHOWUDEDMRGHOHVWXGLDQWH
&UpGLWRVSRUFXUVRDFDGpPLFRVHPDQDV
&UpGLWR KK
5HVXPHQGHODHVWUXFWXUDGHODWLWXODFLyQ
*UDGR&UpGLWRV(XURSHRV(&76
3RVJUDGR&UpGLWRV(XURSHRV(&76
6XSOHPHQWRHXURSHRDOWtWXORGHGRFWRU
Ö &HUWLILFDGR TXH LQFOXLUi LQIRUPDFLyQ DFDGpPLFD \ SURIHVLRQDO TXH SXHGD VHU
FRQWUDVWDGD SRU OD XQLYHUVLGDG \ HO PXQGR ODERUDO 5HIOHMDUi OD WUD\HFWRULD
DFDGpPLFD\SURIHVLRQDOGHFDGDHVWXGLDQWHFRQVXVGDWRV
• LQIRUPDFLyQVREUHODWLWXODFLyQFDPSRVGHHVWXGLRQDWXUDOH]DGHOD
LQVWLWXFLyQHQODTXHVHFXUVy
• QLYHOGHORVHVWXGLRVGXUDFLyQGHOSURJUDPD\UHTXLVLWRVGHDFFHVR
• FRQWHQLGRGHODWLWXODFLyQ\UHVXOWDGRVIRUPDGHHVWXGLRUHTXLVLWRVGHO
SURJUDPDFUpGLWRVFDOLILFDFLRQHVHQODVPDWHULDV
• RWUDVLQIRUPDFLRQHVUHODWLYDVDODFFHVRDRWURVHVWXGLRV\DODFRQGLFLyQ
SURIHVLRQDO
3DUDODLPSODQWDFLyQGHHVWHVXSOHPHQWRHXURSHRVHSUHYpQGRVHWDSDV
3ULPHUDIDVHWUDQVLWRULDHQODTXHVHSRGUiH[SHGLUSDUDORVWtWXORVDFWXDOHV
6HJXQGDGHILQLWLYDXQDYH]TXHYHDQODOX]ODVQXHYDVWLWXODFLRQHVFRQIRUPHD
ORVFUpGLWRVHXURSHRV
(O0RGHOR(XURSHRGH([FHOHQFLDDGDSWDGRDORVFHQWURVHGXFDWLYRV
,PSODQWDU HO 0RGHOR ()40 VLJQLILFD XWLOL]DUOR FRPR UHIHUHQWH SDUD SURGXFLU XQ FDPELR FXOWXUDO
TXH LQFRUSRUH H LQWHJUH ORV YDORUHV \ SULQFLSLRV EiVLFRV GH OD H[FHOHQFLD HPSUHVDULDO \ FRPR
PHWRGRORJtDGHPHMRUDSHUPDQHQWHSDUDDOFDQ]DUGLFKDH[FHOHQFLD/DLPSODQWDFLyQHVXQSURFHVRTXH
UHTXLHUH)RUPDFLyQ'LDJQyVWLFR\3ODQHVGHDFFLyQHQFDPLQDGRVDOD0HMRUDSHUPDQHQWH
(O0RGHORSURSRUFLRQDXQHVTXHPDJHQHUDOSDUDDSOLFDUODDXWRHYDOXDFLyQ\UHDOL]DUPHMRUDV6X
IXHU]DSURFHGHGHODFRPSUHQVLyQGHODVUHODFLRQHVTXHH[LVWHQHQWUHORVGLYHUVRVFULWHULRV
(VWiIRUPDGRSRUGRVEORTXHVHOGHORVDJHQWHV\HOGHORVUHVXOWDGRV&RQHOREMHWLYRSXHVWRHQORV
UHVXOWDGRV ILQDOHV TXH HV OD VDWLVIDFFLyQ GH ODV QHFHVLGDGHV GHO FOLHQWH FRQFUHWDGRV HQ UHVXOWDGRV GHO
SURSLR FOLHQWH GH OD LQVWLWXFLyQ HO DOXPQR ORV UHVXOWDGRV HQ HO SHUVRQDO GH OD LQVWLWXFLyQ \ ORV
UHVXOWDGRV HQ OD VRFLHGDG HV D WUDYpV GHO EORTXH GH ORV DJHQWHV FRQFUHWDGRV HQ HO OLGHUD]JR GH OD
LQVWLWXFLyQHQVXSROtWLFD\HVWUDWHJLDHQHOSHUVRQDOGHODLQVWLWXFLyQ\HQORVFRODERUDGRUHV\UHFXUVRV
TXHFRQWULEX\HQHQODFRQFUHFLyQGHODUHDOL]DFLyQGHORVSURFHVRVSDUDFRQVHFXFLyQGHORVORJURVHQ
FRKHUHQFLDFRQODVQHFHVLGDGHVGHOFOLHQWH
(O0RGHOR(XURSHRGH*HVWLyQGH&DOLGDGDGDSWDGRDORVFHQWURVHGXFDWLYRVVHUiODUHIHUHQFLDSDUD
ODHYDOXDFLyQGHODVPHPRULDV\ODFRQFHVLyQGHOSUHPLRHQFXDOTXLHUDGHVXVPRGDOLGDGHV
/DVROLFLWXGVHUiHYDOXDGD\SXQWXDGDGHDSXQWRV6HGDXQYDORUUHODWLYRDFDGDXQRGHORV
QXHYH FULWHULRV GHO 0RGHOR /DV FLIUDV LQGLFDGDV PDUFDQ HO Q~PHUR Pi[LPR GH SXQWRV TXH SXHGHQ
DVLJQDUVHDFDGDXQRGHHOORV\VXHTXLYDOHQWHSRUFHQWXDO
&ULWHULRVGHOEORTXHGHORVDJHQWHVRIDFLOLWDGRUHVSXQWRV
¾ /LGHUD]JRFRPSRUWDPLHQWR\DFWXDFLyQGHGLULJHQWHVGHODLQVWLWXFLyQHQFDPLQDGRDFRQGXFLUHO
FHQWURKDFLDODJHVWLyQGHODFDOLGDGSXQWRV
¾ 3ODQLILFDFLyQ\HVWUDWHJLDUHIHULGDDODPLVLyQORVYDORUHV\ODGLUHFFLyQHVWUDWpJLFDGHOFHQWUR\
DOPRGRHQTXHVHLPSODQWDQORVSUR\HFWRVGHODRUJDQL]DFLyQSXQWRV
¾ *HVWLyQGHOSHUVRQDOFHQWUDGDHQODIRUPDHQTXHODLQVWLWXFLyQXWLOL]DDOPi[LPRHOSRWHQFLDOGH
VXSHUVRQDOSDUDODPHMRUDFRQWLQXDGHODLQVWLWXFLyQSXQWRV
¾ &RODERUDGRUHV\5HFXUVRVUHIHULGRDOHVWDEOHFLPLHQWRGHDOLDQ]DVFRQFRODERUDGRUHV\DOD
JHVWLyQXVR\FRQVHUYDFLyQGHORVPHGLRVPDWHULDOHVDOVHUYLFLRGHODVIXQFLRQHVGHODRUJDQL]DFLyQ
SXQWRV
¾ 3URFHVRVUHIHULGRDODIRUPDHQFyPRVHLGHQWLILFDQORVSURFHVRVVHSODQLILFDQVHJHVWLRQDQVH
DSOLFDQVHUHYLVDQ\VHHYDO~DQ\VHPHMRUDQHQFRKHUHQFLDFRQORVHVWiQGDUHVUHSUHVHQWDWLYRVGHORV
SUR\HFWRVGHODLQVWLWXFLyQHGXFDWLYDSXQWRV
&ULWHULRVGHOEORTXHGHORVUHVXOWDGRVSXQWRV
¾5HVXOWDGRV HQ OD 6DWLVIDFFLyQ GHO FOLHQWH OR TXH VH HVSHUD TXH FRQVLJD HO FHQWUR HGXFDWLYR HQ
UHODFLyQFRQVXPLVLyQSXQWRV
¾5HVXOWDGRVHQOD6DWLVIDFFLyQGHOSHUVRQDODGHFXDGDUHVSXHVWDDODVQHFHVLGDGHV\H[SHFWDWLYDVGH
ODVSHUVRQDVTXHWUDEDMDQHQODRUJDQL]DFLyQ,QWHJUDFDPSRVFRPRHODPELHQWHODERUDOODIRUPDFLyQ
FRQWLQXDODVDOXGRODVHJXULGDGSXQWRV
¾5HVXOWDGRV HQ OD ,PSDFWR VRFLDO TXp FRQVLJXH HO FHQWUR HQ UHODFLyQ FRQ ODV QHFHVLGDGHV \
H[SHFWDWLYDVGHODVRFLHGDG\HQHOHQWRUQRSUy[LPRSXQWRV
¾5HQGLPLHQWRTXpFRQVLJXHHOFHQWURHQUHODFLyQFRQOD3ROtWLFDVXHVWUDWHJLD\SODQLILFDFLyQ\FRQ
UHVSHFWRDODVDWLVIDFFLyQGHODVQHFHVLGDGHV\H[SHFWDWLYDVSXQWRV
&DUDFWHUtVWLFDVGHO0RGHOR(XURSHRGH([FHOHQFLD()40
'LQiPLFR YD HYROXFLRQDQGR \ DGDSWiQGRVH D ORV FDPELRV TXH VH SURGXFHQ HQ HO HQWRUQR
&HQWHQDUHVGHH[SHUWRVHQULTXHFHQHVWHPRGHORDxRWUDVDxRFRQVXVDSRUWDFLRQHV
3HUIHFWDPHQWHDSOLFDEOHDFXDOTXLHUWLSRGHHPSUHVDXRUJDQL]DFLyQWDQWRGHOVHFWRUSULYDGRFRPR
GHOS~EOLFRKRVSLWDOHVFHQWURVGHHQVHxDQ]DD\XQWDPLHQWRVHQWLGDGHVQROXFUDWLYDV\SRUVXSXHVWR
HQ 3<0( \D VHDQ pVWDV LQGXVWULDOHV R GH VHUYLFLRV H LQFOXVR HQ PLFUR 3<0( R SHTXHxDV
RUJDQL]DFLRQHV
0D\RUpQIDVLVHQOD([FHOHQFLDTXHHODQWHULRU0RGHORGH*HVWLyQGHOD&DOLGDG1RVHWUDWDGHXQ
PRGHORGHHYDOXDFLyQSDUDHODVHJXUDPLHQWRGHODFDOLGDGVLQRTXHSUHWHQGHLUPiVDOOiEXVFDQGROD
H[FHOHQFLDHLQFRUSRUDQGRORVSULQFLSLRVGHOD&DOLGDG7RWDOGHXQDPDQHUDH[SOtFLWD
6XSRQHXQPDUFRGHWUDEDMRQRSUHVFULSWLYRTXHUHFRQRFHTXHODH[FHOHQFLDGHXQDRUJDQL]DFLyQ
VHSXHGHORJUDUGHPDQHUDVRVWHQLGDPHGLDQWHGLVWLQWRVHQIRTXHV3UHWHQGHVHUXQD³JXtDGHVFULSWLYDGH
RUJDQL]DFLyQ GH LQVWLWXFLRQHV´ GHQWUR GHO SDUDGLJPD GH &DOLGDG 7RWDO FRQ HO ILQ GH D\XGDU D ODV
RUJDQL]DFLRQHVDFRQRFHUVHXWLOL]DQGRODHVWUDWHJLDGHODDXWRHYDOXDFLyQPHGLDQWHODFRPSDUDFLyQGH
ORV LQGLFDGRUHV GHVFULSWLYRV GHO 0RGHOR FRQ HO IXQFLRQDPLHQWR UHDO GH OD RUJDQL]DFLyQ OR FXDO
FRQFOXLUtD HQ XQ LQIRUPH GHVFULSWLYR HQ HO TXH VH UHIOHMDQ ORV DVSHFWRV GH IXQFLRQDPLHQWR \ ORJURV
SRVLWLYRV GH OD RUJDQL]DFLyQ DVt FRPR DTXHOORV QHFHVLWDGRV GH PHMRUD TXH VHUtDQ REMHWR GH SODQHV \
SUR\HFWRVGHPHMRUDGHODLQVWLWXFLyQ
'HILQH IDFWRUHV FUtWLFRV SDUD HO EXHQ IXQFLRQDPLHQWR GH XQD RUJDQL]DFLyQ D ORV TXH GHQRPLQD
FULWHULRV LQWHJUDGRV SRU LQGLFDGRUHV /D FRPSUREDFLyQ VLVWHPiWLFD GH OD H[LVWHQFLD R QR GH GLFKRV
LQGLFDGRUHV SHUPLWH WHQHU XQ FRQRFLPLHQWR REMHWLYR GHO IXQFLRQDPLHQWR GHO FHQWUR SDUD HODERUDU
SUR\HFWRV\SODQHVGHPHMRUD
)XQGDPHQWDFLyQGHO0RGHORGH([FHOHQFLDHXURSHR(QORVSULQFLSLRVGHOPRYLPLHQWR
GHOD&DOLGDG7RWDOTXHLQWHJUDODVWHRUtDVGHOD(YDOXDFLyQGH3URJUDPDVH,QVWLWXFLRQHV\ODV
7HRUtDV GH 2UJDQL]DFLyQ (PSUHVDULDO HQ FRQWLQXD UHYLVLyQ SDUD VX YDOLGDFLyQ HPStULFD \
JHQHUDOL]DFLyQ
3UHPLVD GHO 0RGHOR (XURSHR GH ([FHOHQFLD /D 6DWLVIDFFLyQ GH &OLHQWH \ (PSOHDGRV \ HO
,PSDFWRHQOD6RFLHGDGVHFRQVLJXHQPHGLDQWHXQ/LGHUD]JRTXHLPSXOVHOD3ROtWLFD\(VWUDWHJLDODV
SHUVRQDV GH OD RUJDQL]DFLyQ ODV $OLDQ]DV \ 5HFXUVRV \ ORV 3URFHVRV KDFLD OD FRQVHFXFLyQ GH OD
([FHOHQFLDHQORV5HVXOWDGRVGHODRUJDQL]DFLyQ´
)LQDOLGDGGHOPRGHORDSOLFDGRDOiPELWRHGXFDWLYR&RQRFHUODUHDOLGDGGHOFHQWURGH
XQPRGRULJXURVR\UHIOH[LRQDUVREUHHOODORTXHSRVLELOLWDUi\HODERUDUSODQHV\HVWUDWHJLDV
GHPHMRUD
0DSDGHORV&ULWHULRVGHO0RGHOR /D EDVH GHO 0RGHOR GH ([FHOHQFLD HQ HO
iPELWR HGXFDWLYRDO LJXDO TXH HQHO VHFWRU
HPSUHVDULDO HV OD DXWRHYDOXDFLyQ
HQWHQGLGD FRPR XQ H[DPHQ JOREDO \
VLVWHPiWLFR GH ODV DFWLYLGDGHV \ UHVXOWDGRV
GHXQDRUJDQL]DFLyQTXHVHFRPSDUDFRQXQ
PRGHOR GH H[FHOHQFLD SDUD FRQVHJXLU XQD
FRPSUHQVLyQ GHWDOODGD GHO &HQWUR
(GXFDWLYR \ UHDOL]DU XQ GLDJQyVWLFR VREUH
FXDO HV OD VLWXDFLyQ GHO FHQWUR VHxDODQGR
ORVSXQWRVIXHUWHV\ODViUHDVGHPHMRUD$
SDUWLU GH HVWH GLDJQyVWLFR VH HODERUDQ
SURSXHVWDV GH PHMRUD REMHWLYDV FRQFUHWDV
\ FRQVHJXLEOHV HQ XQ SOD]R GHWHUPLQDGR
DUELWUDQGRXQVHJXLPLHQWRGHGLFKRSODQGH
PHMRUD H LQWURGXFLpQGRVH HQ HO FHQWUR XQD
GLQiPLFDGHPHMRUDFRQWLQ~DODJHVWLyQGHODFDOLGDG/DDXWRHYDOXDFLyQXWLOL]DODHVWUDWHJLDGHOFLFOR
GH 'HPLQJ /DV DFWLYLGDGHV GH PHMRUD FRQVWDQWH VH UHDOL]DQ PHGLDQWH OD VHFXHQFLD GH SODQLILFDU OD
PHMRUDLPSOHPHQWDUODYHULILFDUVXVHIHFWRV\DFWXDUHQIXQFLyQGHORVUHVXOWDGRVGHGLFKDYHULILFDFLyQ
/DYHUVLyQHQYLJRUGHVGHHOGHO0RGHOR()40GH([FHOHQFLDGLILHUHGHODYHUVLyQDQWHULRUHQ
QXHYRQRPEUHGHOPRGHOR0RGHOR()40GH([FHOHQFLDVHVXSULPHODSDODEUDHPSUHVDULDOHO
&ULWHULRSDVDDOODPDUVH&RODERUDGRUHV\5HFXUVRVHQORVQRPEUHVGHORVFULWHULRV\VH
VXVWLWX\HODSDODEUD6DWLVIDFFLyQSRU5HVXOWDGRVHOQXHYRQRPEUHGHO&ULWHULRHV5HQGLPLHQWR
)LQDOGHODRUJDQL]DFLyQVHLQWURGXFHODOyJLFD5('(5TXHLQWHJUDGHXQDIRUPDPiVFRPSOHWDODV
DQWLJXDVUHJODVGHHYDOXDFLyQ(QHOPDSDGHOPRGHORVHVXEUD\DODLPSRUWDQFLDGHODLQQRYDFLyQ\HO
DSUHQGL]DMH DxDGLHQGR XQD IOHFKD GH UHDOLPHQWDFLyQ 6H LQVLVWH WDPELpQ HQ HVWRV GRV FRQFHSWRV HQ
YDULRVVXEFULWHULRV
9DORUDFLyQGHO0RGHOR(XURSHRGH*HVWLyQGH&DOLGDGSDUDODHGXFDFLyQ
&RQVWLWX\HXQLQVWUXPHQWRTXHFRQWULEX\HDODIRUPDFLyQHQJHVWLyQGHODFDOLGDGDODYH]TXHRIUHFHXQ
PDUFRGHUHIHUHQFLDFRQXQRVLQGLFDGRUHV\OHQJXDMHFRP~QTXHYDDSHUPLWLUFRQRFHUHOIXQFLRQDPLHQWR
GHORVFHQWURV
6X DSOLFDFLyQ YD DVRFLDGD D OD UHDOL]DFLyQ GH SURFHVRV GH DXWRHYDOXDFLyQ FRQ HO ILQ GH YDORUDU HO
SURJUHVRGHODLQVWLWXFLyQ\HVWDEOHFHU3ODQHVGH0HMRUD
6HEDVDHQODXWLOL]DFLyQGHKHFKRV\GDWRVUHFRJLGRVGHIRUPDVLVWHPiWLFD
/D DXWRHYDOXDFLyQ FRQFOX\H HQ XQ DXWRLQIRUPH EDVDGR HQ HO DQiOLVLV GH OD LQIRUPDFLyQ UHFRJLGD TXH
SHUPLWDQIXQGDPHQWDUORV3ODQHV\3UR\HFWRVGHPHMRUD
6XDSOLFDFLyQDORV&HQWURV(GXFDWLYRVQHFHVLWDGHXQDPD\RUHODERUDFLyQGHVXVLQGLFDGRUHVDGDSWDGRV
D ODV FDUDFWHUtVWLFDV GHO VLVWHPD HGXFDWLYR EXVFDQGR ORJUDU XQ PD\RU FRPSURPLVR GH OD FRPXQLGDG
HGXFDWLYDSRUODFDOLGDG\XQDLPSOLFDFLyQGHORVPLHPEURVGHORVFHQWURVHGXFDWLYRVHQHOGHVDUUROORGH
LQGLFDGRUHV TXH DSRUWHQ LQIRUPDFLyQ VREUH OD JHVWLyQ GH ORV FHQWURV \ OD FDOLGDG GH ORV SURJUDPDV
HGXFDWLYRV\GHORVSURFHVRVSDUDODFRQVHFXFLyQGHORVREMHWLYRVHGXFDWLYRV
3RVLFLRQD\UHODFLRQDHQWUHVtGHXQDPDQHUDRUGHQDGDDVSHFWRVPRGHUQRVGHOD*HVWLyQFRPRSXHGHQ
VHUODJHVWLyQGHOFRQRFLPLHQWR\GHODLQIRUPDFLyQ\ODJHVWLyQGHODLQQRYDFLyQGHODWHFQRORJtDRGHOD
FUHDWLYLGDG FRQ DVSHFWRV FOiVLFRV TXH QR SRU VHU DQWHULRUHV HQ HO WLHPSR WDQWR HQ VX FRQFHSWXDOL]DFLyQ
FRPR HQ VX GHVDUUROOR PHWRGROyJLFR VRQ PHQRV LPSRUWDQWHV R QRV SRGHPRV SHUPLWLU GHVFXLGDU FRPR
SXHGHQ VHU OD JHVWLyQ GH OD HVWUDWHJLD OD FRPXQLFDFLyQ LQWHUQD OD JHVWLyQ GH ORV ULHVJRV HFRQyPLFRV \
ILQDQFLHURV\ODVHJXULGDGODERUDO
3HUPLWHRUGHQDUHLQWHUUHODFLRQDUWRGRVHVWRVHOHPHQWRVGHODJHVWLyQ/DVRUJDQL]DFLRQHVTXHUHDOL]DQ
XQD$XWRHYDOXDFLyQVXHOHQGHVFXEULUPiVGHXQFHQWHQDUGHiUHDVGHPHMRUDGHVGHDTXHOODVTXHH[LJHQ
XQDWRPDGHGHFLVLyQHVWUDWpJLFDDRWUDVTXHUHTXLHUHQDUUHJORVUiSLGRVHVSHFtILFRV
7DEOD'HVFULSFLyQGHDOJXQDVLQLFLDWLYDVWUDQVQDFLRQDOHVHQ(XURSD
3UR\HFWR7XQLQJ
)XQGDPHQWR GHO SUR\HFWR 7XQLQJ VHJ~Q HO ,QIRUPH )LQDO 3UR\HFWR SLORWR )DVH GHO 7XQLQJ
(GXFDWLRQDO6WUXFWXUHVLQ(XURSHUHDOL]DGRSRUPiVGH8QLYHUVLGDGHV
6HRULHQWDKDFLDFRPSHWHQFLDVJHQpULFDV\HVSHFtILFDVDFDGDiUHDWHPiWLFDGHORVJUDGXDGRVGH
SULPHUR\VHJXQGRFLFOR
7LHQH XQ LPSDFWR GLUHFWR HQ HO UHFRQRFLPLHQWR DFDGpPLFR JDUDQWtD \ FRQWURO GH FDOLGDG
FRPSDWLELOLGDGGHORVSURJUDPDVGHHVWXGLRDQLYHOHXURSHRDSUHQGL]DMHDGLVWDQFLD\DSUHQGL]DMH
SHUPDQHQWH
1RVHFHQWUDHQORVVLVWHPDVHGXFDWLYRVVLQRHQODVHVWUXFWXUDV\HOFRQWHQLGRGHORVHVWXGLRV6H
KD GLVHxDGR XQD PHWRGRORJtD SDUD OD FRPSUHQVLyQ GHO FXUUtFXOR \ SDUD KDFHUOR FRPSDUDEOH
LQWURGXFLpQGRVHHOFRQFHSWRGHUHVXOWDGRVGHODSUHQGL]DMH\FRPSHWHQFLDV
6H KD HVFRJLGR HO QRPEUH GH 7XQLQJ SDUD UHIOHMDU OD LGHD GH TXH ODV XQLYHUVLGDGHV QR HVWiQ
EXVFDQGRODDUPRQL]DFLyQGHVXVSURJUDPDVRFXDOTXLHURWUDFODVHGHFXUUtFXORHXURSHRXQLILFDGR
QRUPDWLYR R GHILQLWLYR VLQR VLPSOHPHQWH SXQWRV GH DFXHUGR GH FRQYHUJHQFLD \ HQWHQGLPLHQWR
PXWXR\SRUORTXHVXSRQHGHSXHVWDDSXQWRGHODXQLYHUVLGDGHXURSHDIUHQWHDOUHWRGH%RORQLD
%XVFD³DILQDU´ODVHVWUXFWXUDVHGXFDWLYDVGH(XURSDDEULHQGRXQGHEDWHFX\DPHWDHVLGHQWLILFDU
H LQWHUFDPELDU LQIRUPDFLyQ \ PHMRUDU OD FRODERUDFLyQ HXURSHD SDUD HO GHVDUUROOR GH OD FDOLGDG
HIHFWLYLGDG\WUDQVSDUHQFLD
7XQLQJ QR HVSHUD GHVDUUROODU QLQJXQD HVSHFLH GH FXUUtFXORV HXURSHRV QL GHVHD FUHDU QLQJ~Q
FRQMXQWRGHHVSHFLILFDFLRQHVGHDVLJQDWXUDVSDUDOLPLWDURGLULJLUHOFRQWHQLGRHGXFDWLYR\RSRQHU
ILQDODULFDGLYHUVLGDGGHODHGXFDFLyQVXSHULRUHXURSHD
(OSUR\HFWRQRGHVHDUHVWULQJLUDORVDFDGpPLFRV\HVSHFLDOLVWDVRSHUMXGLFDUODDXWRQRPtDORFDO
RQDFLRQDO
/D FRPSHWLWLYLGDG H[LJH OD WUDQVSDUHQFLD HQ OD GHILQLFLyQ GH UHVXOWDGRV GHO DSUHQGL]DMH \ GH
FRPSHWHQFLDV\XQVLVWHPDGHFUpGLWRVTXHSHUPLWDODFRPSDUDFLyQ$HVWHUHVSHFWRVRQFUXFLDOHV
ODPHWRGRORJtD\KHUUDPLHQWDVGHO6LVWHPD(XURSHRGH7UDQVIHUHQFLD\$FXPXODFLyQGH&UpGLWRV
(&76DFXHUGRVGHDSUHQGL]DMHWUDQVIHUHQFLDGHKLVWRULDODFDGpPLFR\HQXQIXWXURGHVFULSWRUHV
GHQLYHO\GHFXUVRVTXHVHDMXVWHQDODVQHFHVLGDGHVGHORVHVWXGLDQWHVTXHVHGHVSOD]DQDRWUD
XQLYHUVLGDGRORVTXHVHTXHGDQHQVXSDtV
(OSUR\HFWR7XQLQJFRQVLGHUDTXHODVWLWXODFLRQHVOOHJDUiQDVHUFRPSDUDEOHV\FRPSDWLEOHVVLHO
GHVHPSHxR SURIHVLRQDO GH ORV SRVHHGRUHV GH GLFKRV WtWXORV HV FRPSDUDEOH \ VL VX SHUILOHV
DFDGpPLFRV\SURIHVLRQDOHVWDPELpQORVRQ6HSURSRQHFRPRYiOLGRHOGHODVFRPSHWHQFLDVSDUD
H[SUHVDUODFRPSDULELOLGDGHQWpUPLQRVGHODVFDSDFLGDGHVTXHSXHGHQGHVDUUROODUORVSRVHHGRUHV
GHXQDWLWXODFLyQ
,QLFLDWLYD&RQMXQWDGHOD&DOLGDG -RLQW4XDOLW\
• $FFLyQGHORVJRELHUQRVIODPHQFRV\KRODQGpVSXHVWDHQPDUFKDSDUDIRUWDOHFHUODFRRSHUDFLyQ
PXWXDGHQWURGHOSURFHVRGH%RORQLD(QHOODSDUWLFLSDXQJUXSREDVWDQWHJUDQGHGHSDtVHVHQWUH
ORVTXHGHVWDFDSRUVXLPSOLFDFLyQ(VSDxD
• 8QRGHORVUHVXOWDGRVPiVFRQRFLGRVGHOWUDEDMRGHOD,QLFLDWLYDHVHOHOHQFRGHODVWLWXODFLRQHV
GH'XEOtQHQHOTXHVHGHVFULEHQGLVWLQWDVOLFHQFLDWXUDVDOFDQ]iQGRVHXQDFXHUGRDFHUFDGHOD
WHUPLQRORJtD\ORVHOHPHQWRVEiVLFRV
5HJLVWUR0XQGLDOGHOD&DOLGDG
7LHQHHOREMHWLYRGHFUHDUXQDHVSHFLHGHDFUHGLWDFLyQ
3UR\HFWRWULEXWDULRGHODLGHDGHTXHHODVHJXUDPLHQWRGHFDOLGDGHVXQDDFWLYLGDGTXHVHSXHGHKDFHUHQHO
WLHPSROLEUHFRQODVSURSLDVQRUPDV\ORVSURSLRVSXQWRVGHUHIHUHQFLD
6HFUHHTXHSXHGHUHVXOWDU~WLOHODERUDUXQPDUFRGHUHIHUHQFLDFRP~QSDUDWRGRHOPXQGRTXHVHSXHGD
XWLOL]DU SDUD GHVDUUROODU XQ UHFRQRFLPLHQWR EODQGR R OLJKW GHO DVHJXUDPLHQWR GH OD FDOLGDG SDUD ORV
HVWXGLDQWHV SDUD HO PXQGR H[WHULRU SDUD ODV LQVWLWXFLRQHV TXH WLHQHQ TXH WUDWDU FRQ HVWDV DJHQFLDV GH
DVHJXUDPLHQWRGHODFDOLGDG
(MHPSORGHHQIRTXHPXOWLODWHUDOLQLFLDGRSRUOD$VRFLDFLyQ,QWHUQDFLRQDOGH3UHVLGHQWHVGH8QLYHUVLGDG
SHURVHHVWiGHEDWLHQGRHQXQHVSDFLRPiVDPSOLR\WLHQHHODSR\RGHO)RUR*OREDOGHOD81(6&2
$VRFLDFLyQGHODV8QLYHUVLGDGHV(XURSHDV(8$
6H FUHD HQ 6DODPDQFD HQ DEULO GH FRPR UHVXOWDGR GH OD IXVLyQ HQWUH OD &RQIHUHQFLD GH 5HFWRUHV
(VSDxROHV&5(\OD&RQIHGHUDFLyQGH&RQIHUHQFLDVQDFLRQDOHVGH5HFWRUHV
(QWUH VXV PLHPEURV VH VXPDQ SDtVHV HXURSHRV H LQFOX\H XQLYHUVLGDGHV FRPR PLHPEURV
LQGLYLGXDOHV\FRQIHUHQFLDVGHUHFWRUHVFRPRPLHPEURVFROHFWLYRV
6XPLVLyQHVHQFLDOHVLPSXOVDUODLPSOHPHQWDFLyQGHXQHVSDFLRHXURSHRSDUDODHGXFDFLyQVXSHULRU\OD
LQYHVWLJDFLyQ
3DUDFRQVHJXLU HVWHREMHWLYR OD(8$VLUYH DOVHFWRUFXPSOLHQGRGRV IXQFLRQHV SULQFLSDOHV FRPRSDUWH
UHSUHVHQWD DO VHFWRU HQ ODV GLVFXVLRQHV SROtWLFDV FRPR RUJDQL]DFLyQ GH VHUYLFLRV RIUHFH XQ HOHQFR GH
VHUYLFLRVDORVPLHPEURVSDUDD\XGDUOHVDIRUWDOHFHUVXFDOLGDG\DVtUHIRU]DUHOVHFWRUHQFRQMXQWR(QWUH
HVWRV VHUYLFLRV H[LVWHQ SURJUDPDV FRPR HO 3URJUDPD GH 5HYLVLyQ ,QVWLWXFLRQDO TXH HYDO~D OD JHVWLyQ
HVWUDWpJLFD\ODFDSDFLGDGGHFDPELRGHODVLQVWLWXFLRQHVHO3UR\HFWRGH&DOLGDGGHOD&XOWXUDILQDQFLDGR
SRUHO3URJUDPD6yFUDWHV\GHVWLQDGRDGHVDUUROODUXQDFXOWXUDLQWHUQDGHFDOLGDGHQWUHODVLQVWLWXFLRQHV
/D(8$FHOHEUyXQDFRQYHQFLyQHQPD\RGHOGRQGHOOHYRDFDERHOGHEDWHGHFyPRKDFHUDYDQ]DUHO
SURFHVR GH %RORQLD HQ HO FXDO VH LQFOX\HURQ ORV VLJXLHQWHV SXQWRV UHIRU]DU (XURSD HQ HO FRQWH[WR GH OD
JOREDOL]DFLyQ HQOD]DU HO HVSDFLR HXURSHR SDUD OD HGXFDFLyQ VXSHULRU \ OD LQYHVWLJDFLyQ PHMRUDU HO
JRELHUQR \ OD JHVWLyQ LQVWLWXFLRQDOHV GHVDUUROODU XQD FXOWXUD GH FDOLGDG LQWHUQD HQ ODV XQLYHUVLGDGHV
JDUDQWL]DUTXHODVLQVWLWXFLRQHVVHDQORVSULQFLSDOHVDJHQWHVHQORVGHEDWHV
6LVWHPDGH(YDOXDFLyQGHOD&DOLGDGGHOD(QVHxDQ]DGHOD,QJHQLHUtD6(&$,
6LVWHPDGHHYDOXDFLyQGHODFDOLGDGGHVDUUROODGRHQHOPDUFRGHO3URJUDPD&ROXPEXVZZZFROXPEXV
ZHEFRPTXHVHSUHSDUyFRQODFRQIRUPDFLyQGHXQJUXSRGHH[SHUWRVGHHYDOXDFLyQGHHVWDGLVFLSOLQD
GH GLIHUHQWHV XQLYHUVLGDGHV GH (FXDGRU 0p[LFR &RORPELD &KLOH %UDVLO $UJHQWLQD ,WDOLD $OHPDQLD
(VSDxD\GHO5HLQR8QLGR
3UHWHQGHVHUXQDKHUUDPLHQWDWpFQLFDPHQWHFRUUHFWDJHQHUDGD\SUREDGDHQXQFRQWH[WRLQWHUQDFLRQDO
3URSRQH D ODV LQVWLWXFLRQHV XQLYHUVLWDULDV XQD PHWRGRORJtD \ ORV LQVWUXPHQWRV GH DSOLFDFLyQ QHFHVDULRV
SDUDDQDOL]DU\YDORUDUODLQIOXHQFLDGHORVIDFWRUHVTXHDIHFWDQDODFDOLGDGGHODHQVHxDQ]DGHLQJHQLHUtD\
RIUHFLHQGRFULWHULRV\UHFRPHQGDFLRQHVSDUDDERUGDUSURFHVRGHPHMRUDGHODFDOLGDG
6HIXQGDPHQWDHQODQRFLyQGHFDOLGDGJOREDOGHODHQVHxDQ]DHOFXDOSODQWHDORVVLJXLHQWHVFRPSRQHQWHV
FDOLGDGGHOSODQGHHVWXGLRGHOSURFHVRGHHQVHxDQ]DGHORVUHVXOWDGRVLQPHGLDWRVFDOLGDGGHLQWHJUDFLyQ
GHOJUDGXDGRDOPHUFDGRODERUDO
7LHQH LQGLFDGRUHVDJUXSDGRV HQ IDFWRUHV TXHVRQ SODQ GH HVWXGLRVFRQGLFLRQHVGHLQJUHVRGH ORV
HVWXGLDQWHVSURFHVRGHHQVHxDQ]DDSUHQGL]DMHUHVXOWDGRVLQPHGLDWRVHLQWHJUDFLyQGHORVJUDGXDGRV
$FWXDOPHQWHVHHVWiFXOPLQDQGRHOWHUFHUFLFORGHO6(&$,FRQODSDUWLFLSDFLyQGHFDUUHUDVGHLQJHQLHUtD
GHXQLYHUVLGDGHVODWLQRDPHULFDQDVILQDQFLDGRHQVXWRWDOLGDGODVSURSLDVXQLYHUVLGDGHV
$1(&$$JHQFLD1DFLRQDOGH(YDOXDFLyQGHOD&DOLGDG\$FUHGLWDFLyQGH(VSDxD
$&5(',7$&,21
(MH SULQFLSDO GH ODV DFWXDFLRQHV DFUHGLWDFLyQ GH WtWXORV RILFLDOHV FRPSHWHQFLD H[FOXVLYD HQ HVWH FDPSR
RWRUJDGDSRUOD/H\GH8QLYHUVLGDGHVRWRUJDOD(OiPELWRGHDSOLFDFLyQGHODDFUHGLWDFLyQDEDUFD
/DVHQVHxDQ]DVFRQGXFHQWHVDODREWHQFLyQGHWtWXORVGHFDUiFWHURILFLDO
/DVHQVHxDQ]DVFRQGXFHQWHVDODREWHQFLyQGHWtWXORVGH'RFWRU
/RVFHQWURVTXHLPSDUWDQHQVHxDQ]DVFRQDUUHJORDVLVWHPDVHGXFDWLYRVH[WUDQMHURV
/DDFUHGLWDFLyQHVXQH[DPHQGHOGHVDUUROOR\GHORVUHVXOWDGRVGHODVHQVHxDQ]DVTXHH[LJHODVXSHUDFLyQ
GH HVWiQGDUHV GH FDOLGDG SUHYLDPHQWH HVWDEOHFLGRV SDUD FDGD WLSR GH WLWXODFLyQ D ORV HIHFWRV GH VX
KRPRORJDFLyQSRUHO*RELHUQR
3URFHVR GH DFUHGLWDFLyQ YDORUDFLyQ LQWHUQD GH OD WLWXODFLyQ FRPSUREDGD SRU XQ FRPLWp H[WHUQR FX\R
UHVXOWDGRHVXQLQIRUPHTXHSURSRQHODDFUHGLWDFLyQRQRDFUHGLWDFLyQGHODWLWXODFLyQHYDOXDGD
3DUD OOHYDU D FDER OD HYDOXDFLyQ SDUD OD DFUHGLWDFLyQ GH ODV HQVHxDQ]DV RILFLDOHV OD DJHQFLD KD FRQVWLWXLGR
FLQFR JUXSRV GH H[SHUWRV XQR SRU FDGD FDPSR FLHQWtILFR TXH KDQ GHILQLGR VHLV FULWHULRV JHQHUDOHV
3URJUDPD IRUPDWLYR 2UJDQL]DFLyQ GH OD HQVHxDQ]D 5HFXUVRV KXPDQRV 5HFXUVRV PDWHULDOHV 3URFHVR
IRUPDWLYR \ 5HVXOWDGRV 6H GHVJORVDQ HQ YDULRV VXEFULWHULRV H LQGLFDGRUHV GH DFUHGLWDFLyQ EDVDGRV HQ HO
HVWXGLR FRPSDUDGR GH H[SHULHQFLDV GHVDUUROODGDV HQ (XURSD \ (VWDGRV 8QLGRV \ HQ VX DGDSWDFLyQ D ODV
FDUDFWHUtVWLFDVGHODVHQVHxDQ]DVHVSDxRODV
(OWUDEDMRUHDOL]DGRSRUHVWRVJUXSRVKDVLGRH[DPLQDGR\YDOLGDGRSRUHO&RPLWp1DFLRQDOGH$FUHGLWDFLyQ
/D UHDOL]DFLyQ GH ORV SUR\HFWRV SLORWR VH HIHFW~D D WLWXODFLRQHV GH XQLYHUVLGDGHV (O PRGHOR GH
DFUHGLWDFLyQVHVRPHWHUiDODYDOLGDFLyQLQWHUQDFLRQDODWUDYpVGHODVUHGHVGHDJHQFLDVGHDFUHGLWDFLyQGHODV
TXHOD$JHQFLDIRUPDSDUWHFRPRHO&RQVRUFLR(XURSHRGH$FUHGLWDFLyQ
/D $JHQFLD KD HODERUDGR ODV *XtDV GH 9DORUDFLyQ ,QWHUQD \ ([WHUQD SDUD OD DSOLFDFLyQ GH ORV FULWHULRV H
LQGLFDGRUHVGHDFUHGLWDFLyQ
352*5$0$ '( (9$/8$&,Ï1 ,167,78&,21$/ (YDOXDFLyQ SDUD OD PHMRUD GH ODV
WLWXODFLRQHV
&RQWLQXLGDG GH ORV 3ODQHV 1DFLRQDOHV GH &DOLGDG GH ODV 8QLYHUVLGDGHV \ HYDO~D ODV HQVHxDQ]DV
XQLYHUVLWDULDV XWLOL]DQGR ORV PLVPRV FULWHULRV H LQGLFDGRUHV TXH VHUiQ DSOLFDGRV SDUD OD DFUHGLWDFLyQ GH
WLWXODFLRQHV
6XVREMHWLYRVVRQ
9 3URPRYHUSURFHVRVGHUHIOH[LyQDQiOLVLV\GLDJQyVWLFRTXHLQFUHPHQWHQODFDOLGDGGHODVHQVHxDQ]DV
9 3UHSDUDU D OD WLWXODFLyQ SDUD ORV IXWXURV SURFHVRV GH DFUHGLWDFLyQ DO DSRUWDUOH XQ PD\RU JUDGR GH
FRQRFLPLHQWRSURSLR\PD\RUH[SHULHQFLDHQORDVSURFHVRVGHHYDOXDFLyQ
9 3URSRUFLRQDULQIRUPDFLyQDODV$GPLQLVWUDFLRQHV3~EOLFDV\DOFRQMXQWRGHODVRFLHGDGVREUHODFDOLGDG
GHORVWtWXORVXQLYHUVLWDULRV\VXVSODQHVGHPHMRUD
(O SURJUDPD FRQVWD GH XQD IDVH GH DXWRHYDOXDFLyQ FRQWUDVWDGD FRQ XQD HYDOXDFLyQ H[WHUQD \ XQ LQIRUPH
ILQDO HQ HO TXH VH UHFRJHQ ODV SURSXHVWDV GH PHMRUD $O ILQDOL]DU HO SURFHVR VH HODERUDUiQ LQIRUPHV
WUDQVYHUVDOHVGHUHVXOWDGRVGHODWLWXODFLyQHYDOXDGD
(Q OD SULPHUD FRQYRFDWRULD GH OD $1(&$ SDUWLFLSDQ WLWXODFLRQHV GH XQLYHUVLGDGHV /D DJHQFLD KD
SXEOLFDGRXQD*XtDGH$XWRHYDOXDFLyQ\XQD*XtDGH(YDOXDFLyQ([WHUQD
$1(&$(9$/8$&,Ï1'(/352)(625$'2
(YDO~DODDFWLYLGDGGRFHQWHHLQYHVWLJDGRUDGHOSURIHVRUDGRDHIHFWRVGHVXFRQWUDWDFLyQODERUDOHQXQD
XQLYHUVLGDG SDUD OR TXH OD /H\ 2UJiQLFD GH 8QLYHUVLGDGHV H[LJH OD SUHYLD HYDOXDFLyQ SRVLWLYD GH OD
PLVPD 3RU RWUD SDUWH HO 5HDO 'HFUHWR GH +DELOLWDFLyQ GHO SURIHVRUDGR DVLJQD D OD $JHQFLD
FRPSHWHQFLDV HQ FLQFR VXSXHVWRV GHO SURFHVR GH KDELOLWDFLyQ SUHYLD SHWLFLyQ GHO &RQVHMR GH
&RRUGLQDFLyQ8QLYHUVLWDULD
3DUD ORV FDQGLGDWRV D VHU FRQWUDWDGRV SRU FXDOTXLHU GH ODV XQLYHUVLGDGHV GHO WHUULWRULR QDFLRQDO OD
$JHQFLD HIHFW~D HYDOXDFLRQHV FXUULFXODUHV GH IRUPD JUDWXLWD D OR ODUJR GH WRGR HO DxR \ HPLWH XQ
FHUWLILFDGRTXHHVYiOLGRHQHVWHiPELWRSRUWLHPSRLQGHILQLGR
6H SXHGHVROLFLWDUODHYDOXDFLyQ GH OD $1(&$FRQFDUiFWHUSUHYLR DODFRQWUDWDFLyQHQXQLYHUVLGDGHV
S~EOLFDV SDUD ODV VLJXLHQWHV ILJXUDV 3URIHVRU $\XGDQWH 'RFWRU 3URIHVRU &RODERUDGRU 3URIHVRU
&RQWUDWDGR'RFWRU
$SDUWLUGHODxRWRGDVODVXQLYHUVLGDGHVSULYDGDVGHEHUiQFRQWDUFRQXQGHOSURIHVRUDGRHQ
SRVHVLyQ GHO LQIRUPH IDYRUDEOH HPLWLGR SRU OD $JHQFLD (Q HO SULPHU DxR GH IXQFLRQDPLHQWR GHO
SURJUDPDOD$JHQFLDKDHYDOXDGRDVROLFLWDQWHVGHORVTXHHOKDREWHQLGRLQIRUPHIDYRUDEOH
HQHOFRQMXQWRGHODVGLIHUHQWHVILJXUDV
$1(&$&(57,),&$&,Ï1
/D FHUWLILFDFLyQ HV XQ SURFHVR GH HYDOXDFLyQ H[WHUQD VROLFLWDGR GH IRUPD YROXQWDULD SRU OD XQLGDG D
HYDOXDU SRU HO TXH VH FRPSUXHED HO FXPSOLPLHQWR GH XQ FRQMXQWR GH HVSHFLILFDFLRQHV SUHYLDPHQWH
HVWDEOHFLGDV 6X REMHWLYR IXQGDPHQWDO HV HO UHFRQRFLPLHQWR GH OD FDOLGDG GH OD XQLGDG HYDOXDGD DVt
FRPRUHFRPHQGDUPHWRGRORJtDVSDUDSURPRYHUODPHMRUDFRQWLQXDGHORVSURJUDPDV\VHUYLFLRVGHODV
XQLYHUVLGDGHV
/D $JHQFLD GHVDUUROOD GLYHUVDV DFWXDFLRQHV HQ HO iPELWR GH OD FHUWLILFDFLyQ 0HQFLyQ GH &DOLGDG HQ
SURJUDPDV GH 'RFWRUDGR &HUWLILFDGR GH &DOLGDG GH ORV 6HUYLFLRV GH %LEOLRWHFD GH ODV 8QLYHUVLGDGHV
&HUWLILFDGR GH &DOLGDG GH 7tWXORV 3URSLRV &HUWLILFDGR GH &DOLGDG GH ,QVWLWXWRV 8QLYHUVLWDULRV GH
,QYHVWLJDFLyQ
)LJXUD$1(&$02'(/2'($&5(',7$&,Ï1&5,7(5,26
3URJUDPD
)RUPDWLYR
2UJDQL]DFLyQGH
OD(QVHxDQ]D
3URFHVR 5HVXOWDGRV
5HFXUVRV )RUPDWLYR
+XPDQRV
5HFXUVRV
0DWHULDOHV
7DEOD6REUHODHYDOXDFLyQ\DFUHGLWDFLyQHQ&XED
3$,6 (17,'$' 352&(',0,(1726 $6(*85$0,(172'(/$
$&5(',7$'25$ &$/,'$'
-$1 (YDOXDFLyQGHSURJUDPDVGHPDHVWUtDV 6835$
-XQWD1DFLRQDOGH 6($0
$FUHGLWDFLyQ
/D*XtDGH(YDOXDFLyQFRQXQDHVFDODGH 6LVWHPD8QLYHUVLWDULRGH3URJUDPDV
8QLGDG HVSHFLD FDOLILFDFLyQ GH SXQWRV LQFOX\H GH$FUHGLWDFLyQ
OL]DGD H LQGHSHQ YDULDEOHV 3HUWLQHQFLD H LPSDFWR VRFLDO
GLHQWHGHOUHVWRGHODV SXQWRV 7UDGLFLyQ GH OD LQVWLWXFLyQ \
GLUHFFLRQHV GHO 0(6 FRODERUDFLyQLQWHULQVWLWXFLRQDOSXQWRV
EULQGiQGROH DVt D ORV &XHUSR GH SURIHVRUHV \ WXWRUHV 2EMHWLYR SULQFLSDO HV ³FRQWULEXLU D
SURFHVRV GH HYD SXQWRV 5HVSDOGR PDWHULDO \OD PHMRUD GH OD FDOLGDG GH OD
DGPLQLVWUDWLYR GHO SURJUDPD SXQWRV
OXDFLyQ XQ FDUiFWHU HGXFDFLyQ VXSHULRU HQ &XED
H[WHUQR VLVWpPLFR H (VWXGLDQWHV SXQWRV \ &XUUtFXOR PHGLDQWH OD FHUWLILFDFLyQ DO QLYHO
LQWHJUDGR SXQWRV QDFLRQDO H LQWHUQDFLRQDO GH
SURJUDPDV H LQVWLWXFLRQHV TXH
&RPSXHVWD SRU XQ &RQ QLYHOHV GH DFUHGLWDFLyQ 3URJUDPD FXPSODQ UHTXLVLWRV GH FDOLGDG
Q~PHUR QR PD\RU GH $XWRUL]DGR5DWLILFDGRFRQDOPHQRVHO HVWDEOHFLGRV´L
H[SHUWRV SURYH SXQWRV GH ORV SXQWRV
QLHQWHV GH ODV &HUWLILFDGR FRQ DO PHQRV HO
6XEVLVWHPDV
GLIHUHQWHV SXQWRV ([FHOHQFLD DO PHQRV HO
,QVWLWXFLRQHV DGVFULWDV SXQWRV
6($0
DO 0(6 \ GH ORV
2UJDQLVPRV GH OD &RQLQGHSHQGHQFLDGHODSXQWXDFLyQWRWDO
$GPLQLVWUDFLyQ REWHQLGD HO SURJUDPD GHEHUi DSUREDU 6LVWHPDGH(YDOXDFLyQ\
$FUHGLWDFLyQGH0DHVWUtDV
&HQWUDO GHO (VWDGR LQGLFDGRUHVGHREOLJDWRULRFXPSOLPLHQWR
2$&(
([LJH DO PHQRV GRV HGLFLRQHV GHO
'HVLJQD HQWUH VXV SURJUDPD FRQFOXLGDV FRQ VXV
PLHPEURV XQD FRUUHVSRQGLHQWHV DXWRHYDOXDFLRQHV \ XQD 2EMHWLYRV
6HFUHWDUtD(MHFXWLYD HGLFLyQ HQ HMHFXFLyQ KDFHU XQD VROLFLWXG
RILFLDOGHHYDOXDFLyQH[WHUQDSRUHO5HFWRU $OFDQ]DU ORV PHMRUHV QLYHOHV GH
&XHQWD FRQ &RPLWpV RHO'LUHFWRUGHODLQVWLWXFLyQDOD-XQWDGH FDOLGDG HQ OD IRUPDFLyQ DFDGpPLFD
7pFQLFRV (YDOXDGRUHV $FUHGLWDFLyQ 1DFLRQDO -$1 KDEHU GHSRVWJUDGR\HYLWDUXQLQFUHPHQWR
&7(yUJDQRV DX[L REWHQLGR UHVXOWDGRV VDWLVIDFWRULRV HQ OD GHVRUGHQDGR GH SURJUDPDV GH
OLDUHV HQFDUJDGRV GHO HYDOXDFLyQ H[WHUQD GHVSOHJDGD SRU XQD PDHVWUtD FRQ PDUFDGRV GHVQLYHOHV
DVHVRUDPLHQWR PHWR FRPLVLyQ GH H[SHUWRV FRQWDU FRQ XQ GHFDOLGDG
GROyJLFR D ORV GLFWDPHQ IDYRUDEOH GHO &RPLWp 7pFQLFR
SURFHVRV GH DFUHGL (YDOXDGRU \ OD GHFLVLyQ SRVLWLYD GH OD )RPHQWDU XQD FXOWXUD GH OD
WDFLyQHLQWHJUDGRVSRU -$1 FDOLGDG HQWUH ORV DFWRUHV GH ODV
XQQ~PHURPi[LPRGH PDHVWUtDV \ HO PHMRUDPLHQWR
SURIHVRUHV H ([LVWH XQ 3DWUyQ GH &DOLGDG GHEHU VHU FRQWLQXR GH ORV SURJUDPDV GH HVWH
LQYHVWLJDGRUHV GH GHODVPDHVWUtDVFXEDQDVUHIHUHQWHWHyULFR QLYHO
UHFRQRFLGR SUHVWLJLR GHORVHVWiQGDUHVTXHGHEHQDOFDQ]DUVH
DFDGpPLFR
& (YDOXDFLyQLQVWLWXFLRQDO
$OFDQ]DU OD FHUWLILFDFLyQ S~EOLFD
GH OD FDOLGDG GH ORV SURJUDPDV
2EMHWLYRV DFUHGLWDGRV \ OD SRVLEOH XWLOL]DFLyQ
8 /D HYDOXDFLyQ H[WHUQD HV VROLFLWDGD SRU
3URPRYHU RUJDQL]DU ODV XQLYHUVLGDGHV GHEH HQYLDU D
GH HVWDV FHUWLILFDFLRQHV SDUD OD
KRPRORJDFLyQ \ FRQYDOLGDFLyQ GH
HMHFXWDU\FRQWURODUOD 6HFUHWDULDGHOD-$1ODVDXWRHYDOXDFLRQHV WLWXODFLRQHV GH HJUHVDGRV FRQ
SROtWLFD GH DFUH FRUUHVSRQGLHQWHV GH ORV 'HSDUWDPHQWRV LQVWLWXFLRQHVH[WUDQMHUDV
GLWDFLyQ SDUD OD GRFHQWHV )DFXOWDGHV \ GHO SURSLR ,(6
% (GXFDFLyQ 6XSHULRU FXDQGR VH UHDOL]D OD GH OD ,(6 OD *DUDQWL]DU TXH ORV VHUYLFLRV
DVt FRPR FRRUGLQDU 6HFUHWDUtD(MHFXWLYDGHOD-$1VHOHFFLRQD HGXFDFLRQHV DO QLYHO GH PDHVWUtDV
ORV GLIHUHQWHV SURFH ODV )DFXOWDGHV D HYDOXDU \ FXDQGR VH TXH VH RIUH]FDQ DO H[WUDQMHUR VHDQ
$ VRV GH HYDOXDFLyQ UHDOL]DODGHOD)DFXOWDGVHHYDO~DQWRGRV GHFDOLGDGUHFRQRFLGD
LQVWLWXFLRQDO HQ ORV ORV'HSDUWDPHQWRV GRFHQWHV 6HUHDOL]DUi
FHQWURV DGVFULSWRV DO VLHPSUHTXHKD\DDSUREDGRXQDDXGLWRUtD
6($&8
0(6 HFRQyPLFD FRPR Pi[LPR HQ HO SOD]R GH
XQDxRDQWHULRUDODVROLFLWXG
6LVWHPDGH(YDOXDFLyQ\
$FUHGLWDFLyQGH&DUUHUDV
8QLYHUVLWDULDV
6($(
6LVWHPDGH(YDOXDFLyQ\
$FUHGLWDFLyQGH(VSHFLDOLGDGHVGH
3RVJUDGR
6($'
6LVWHPDGH(YDOXDFLyQ\
$FUHGLWDFLyQGH'RFWRUDGRV
7DEOD1LYHOHV\HVFDODVGHSXQWXDFLyQSDUDODDFUHGLWDFLyQQDOJXQRVSDtVHV
ODWLQRDPHULFDQRV
$8,3 $UJHQWLQD %UDVLO &RORPELD &XED 0p[LFR 9HQH]XHOD
'RFWRUDGRV
0DHVWUtDV
([FHOHQWH ([FHOHQWH
([FHOHQWH
± ([FHOHQFLD
\
! $SUREDGR
0DHVWUtD
$FUHGLWDGR
([FHOHQWH
0X\ 0X\ 0X\EXHQD &HUWLILFDGR &RQGLFLRQDGR
EXHQD EXHQD FRQ
$FUHGLWDGR ! REVHUYDFLRQHV
±
%XHQD
5DWLILFDGR &RQGLFLRQDGR
FRQFDUiFWHUGH
%XHQD %XHQD > HPHUJHQWH
± $XWRUL]DGR
1R 1RDFUHGLWD 1RDSUREDGR
UHFRPHQGDGR
\ $XWRUL]DGR
7RPDGRGH1HSWDOtÈOYDUH]HQ/LEURGH$8,3$FWXDOL]DFLyQGHODLQIRUPDFLyQGH&XEDSRU,OHDQD'RSLFR
7DEOD9DULDEOHVXWLOL]DGDVHQORVVLVWHPDVGHHYDOXDFLyQ\DFUHGLWDFLyQGHDOJXQRV
SDtVHVODWLQRDPHULFDQRV\GHOD$8,3
&2/20%,$
(JUHVDGRV 2UJDQL]DFLyQDGPLQLVWUDWLYD\ 3URGXFFLyQELEOLRJUiILFD
UHJODPHQWR
3URIHVRUHV &XHUSRDFDGpPLFR 3UR\HFWRVGHLQYHVWLJDFLyQ &XHUSRGHGLVHUWDQWHV
\SXEOLFDFLRQHV
\FRQYHQLRVFRQ
JUXSRV QDFLRQDOHV H
LQWHUQDFLRQDOHV
$GPLQLVWUDFLyQ (TXLSDPLHQWR 5HFXUVRV ItVLFRV WHFQROyJLFRV \ 5HFXUVRVKXPDQR
ELEOLRWHFD\FHQWURV ILQDQFLHURV
GHGRFXPHQWDFLyQ
&267$5,&$ &8%$ 0(;,&2 9(1(=8(/$
3ODQGH(VWXGLRV &XUUtFXOR 3ODQGHHVWXGLRV 3ODQGHHVWXGLRV\SHUILO
&RPSURPLVRLQVWLWXFLRQDO 5HFXUVRVKXPDQRV
&RQWH[WR H LPSRUWDQFLD GHO 3ODQWDItVLFD
SURJUDPDHYDOXDGR
'RWDFLyQ
5HFXUVRVGHIRUPDFLyQ
7DEOD5HSUHVHQWDFLyQGHODVYDULDEOHVFRPXQHVDORVVLVWHPDVGH
HYDOXDFLyQ\DFUHGLWDFLyQGHSDtVHVUHIHULGRVHQOD7DEOD
9DULDEOHV &DQWLGDG GH VLVWHPDV
TXHODLQFOX\HQ
&XUUtFXOR3ODQGHHVWXGLR3URJUDPD3URJUDPDV
DFDGpPLFRV3ODQGHHVWXGLRV\SHUILO
$OXPQRV(VWXGLDQWHV
3URIHVRUHV&XHUSRDFDGpPLFR3ODQWDDFDGpPLFD&XHUSRGH
GLVHUWDQWH
$GPLQLVWUDFLyQ
2UJDQL]DFLyQDGPLQLVWUDWLYD$SR\RPDWHULDO
\DGPLQLVWUDWLYR
(QWRUQRLQVWLWXFLRQDO0DUFRLQVWLWXFLRQDO0DUFRQRUPDWLYR
LQVWLWXFLRQDO
,PSDFWRVRFLDO3HUWLQHQFLDVRFLDOHLPSDFWR9LQFXODFLyQH
LPSDFWRHQORVVHFWRUHVVRFLDO\SURGXFWLYR
5HFXUVRVItVLFRVPDWHULDOHV\ILQDQFLHURV5HFXUVRVItVLFRV
WHFQROyJLFRV\ILQDQFLHURV)LQDQFLDPLHQWR
ÈUHD\OtQHDVGHLQYHVWLJDFLyQ/tQHDVGHLQYHVWLJDFLyQ
3UR\HFWRVGHLQYHVWLJDFLyQ\SXEOLFDFLRQHV
&RQYHQLRVFRQJUXSRVQDFLRQDOHVHLQWHUQDFLRQDOHV
&RODERUDFLyQLQWHULQVWLWXFLRQDO&RQYHQLRV
3URGXFFLyQELEOLRJUiILFD3XEOLFDFLRQHV
5HFXUVRVKXPDQRV
3HUWLQHQFLDVRFLDO
,QIUDHVWUXFWXUDGHDSR\R\ItVLFD3ODQWDItVLFD
/H\HQGD3DUDFDGDYDULDEOHVHXWLOL]DHOFRORUFRQHOTXHVHLGHQWLILFDQHQODWDEODDQWHULRU
6,&$5 DFUHGLWD OD &DOLGDG DFDGpPLFD \ OD &DWHJRUtD 5HJLRQDO &HQWURDPHULFDQD GH SURJUDPDV GH
SRVJUDGR GH XQLYHUVLGDGHV PLHPEURV GHO &68&$ H[FHSFLRQDOPHQWH GH SURJUDPDV GH JUDGR 9DORUD \
SURPXHYH OD FRRSHUDFLyQ \ HO LQWHUFDPELR DFDGpPLFR UHJLRQDO \ OD IRUPDFLyQ GH UHFXUVRV KXPDQRV
GRWDGRVGHXQDSHUVSHFWLYDFHQWURDPHULFDQDGHOTXHKDFHUGHVXGLVFLSOLQD$FWXDOPHQWHVHHQFXHQWUDHQ
SURFHVR GH UHRULHQWDFLyQ FRQ HO SURSyVLWR GH DFUHGLWDU WDPELpQ SURJUDPDV GH SRVJUDGRV QDFLRQDOHV \
DPSOLDU HO PDUFR LQVWLWXFLRQDO HQ TXH RSHUD SDUD HVWDEOHFHU OD &RPLVLyQ &HQWURDPHULFDQD GH
$FUHGLWDFLyQGH3URJUDPDVGH3RVJUDGR
6,&(9$(6 /RV SURFHVRV GH HYDOXDFLyQ HQ HVWH PDUFR HVWiQ RULHQWDGRV DO PHMRUDPLHQWR GH OD
FDOLGDG GH ORV SURJUDPDV GH JUDGR GH ODV XQLYHUVLGDGHV HVWDWDOHV GH OD UHJLyQ SDUD SUHSDUDUVH SDUD OD
DFUHGLWDFLyQ
&RQVHMR&HQWURDPHULFDQRSDUDOD$FUHGLWDFLyQ&&$UH~QHDGLIHUHQWHVVHFWRUHVXQLYHUVLGDGHV
HVWDWDOHV SULYDGDV PLQLVWHULRV GH HGXFDFLyQ FROHJLRV SURIHVLRQDOHV \ ORV GLVWLQWRV RUJDQLVPRV GH
HYDOXDFLyQ\DFUHGLWDFLyQH[LVWHQWHV\HQIRUPDFLyQGHODUHJLyQ,QLFLDWLYDPiVLPSRUWDQWH\FRQPD\RU
SRWHQFLDO GH LPSDFWR KR\ GtD HQ PDWHULD GH HYDOXDFLyQ \ DFUHGLWDFLyQ GH OD FDOLGDG GH OD HGXFDFLyQ
VXSHULRU &HQWURDPHULFDQD (O &&$ VXSRQH PLHPEURV WLWXODUHV \ VXSOHQWHV LGHQWLILFDGRV FRPR
SHUVRQDOLGDGHVQRWDEOHVGHORVSDtVHVFHQWURDPHULFDQRVTXHQRUHSUHVHQWHQJRELHUQRVQLXQLYHUVLGDGHVQL
VHFWRUHV VRFLDOHV HQ SDUWLFXODU /D PLVLyQ GHO &&$ HV OD GH FRQWULEXLU DO PHMRUDPLHQWR FRQWLQXR GH OD
FDOLGDGSHUWLQHQFLDHLQWHJUDFLyQGHOD(GXFDFLyQ6XSHULRU&HQWURDPHULFDQDPHGLDQWHODDFUHGLWDFLyQHO
UHFRQRFLPLHQWR\ODSURPRFLyQGHRUJDQLVPRVGHDFUHGLWDFLyQTXHIXQFLRQHQHQFDGDSDtVRHQODUHJLyQ
FRQWiQGRVHHQWUHVXVSULQFLSDOHVIXQFLRQHVODVGH
'HWHUPLQDUODVSROtWLFDVSURFHGLPLHQWRVFULWHULRV\HVWiQGDUHVSDUDODHYDOXDFLyQDFUHGLWDFLyQ\HO
UHFRQRFLPLHQWR UHJLRQDO GH DJHQFLDV DFUHGLWDGRUDV IRUPDOPHQWH HVWDEOHFLGDV TXH IXQFLRQHQ HQ OD
UHJLyQ D WRQR FRQ ORV HVWiQGDUHV \ SULQFLSLRV LQWHUQDFLRQDOPHQWH UHFRQRFLGRV UHVSHWDQGR HO PDUFR
OHJDOGHFDGDSDtV
2WRUJDU UHFRQRFLPLHQWR UHJLRQDO D ORV RUJDQLVPRV DFUHGLWDGRUHV GH (GXFDFLyQ VXSHULRU TXH
IXQFLRQHQ HQ OD UHJLyQ VREUH OD EDVH GH OD YHULILFDFLyQ GHO FXPSOLPLHQWR GH ODV SROtWLFDV FULWHULRV \
HVWiQGDUHVGHO&&$
3URPRYHU\DSR\DUODFUHDFLyQGHDJHQFLDVXRUJDQLVPRVGHDFUHGLWDFLyQHQORVSDtVHVGHODUHJLyQ
GRQGHQRH[LVWDQDVtFRPRODFUHDFLyQGHRUJDQLVPRVUHJLRQDOHVHVSHFLDOL]DGRVGHDFUHGLWDFLyQ
&RDG\XYDU DO IRUWDOHFLPLHQWR \ WUDQVIRUPDFLyQ GH ORV RUJDQLVPRV GH DFUHGLWDFLyQ TXH QR FXPSODQ
FRQ ORV UHTXLVLWRV SDUD VX UHFRQRFLPLHQWR \ SURPRYHUi HO LQWHUFDPELR \ FRODERUDFLyQ HQWUH ORV
RUJDQLVPRVGHDFUHGLWDFLyQTXHUHFRQR]FD
$VRFLDFLyQ GH 8QLYHUVLGDGHV 3ULYDGDV GH &HQWURDPpULFD $835,&$ IXQGDGD HQ \
IRUPDGD SRU XQLYHUVLGDGHV SULYDGDV GH SDtVHV (O 6DOYDGRU +RQGXUDV 1LFDUDJXD \ &RVWD 5LFD
RUJDQL]D\UHDOL]DSURFHVRVGHHYDOXDFLyQ\DFUHGLWDFLyQLQVWLWXFLRQDOGHVXVXQLYHUVLGDGHVPLHPEURV6X
-XQWD'LUHFWLYDHVURWDWLYDQRWLHQHVHGHItVLFDSHUPDQHQWH\VX&RPLVLyQGH$FUHGLWDFLyQFRPSXHVWDSRU
PLHPEURVQRHVSHUPDQHQWH\VHQRPEUDVRORFXDQGRVHUHDOL]DXQDFRQYRFDWRULDSDUDDFUHGLWDFLyQ
-XQLRGHORV0LQLVWURVGH(GXFDFLyQGHORVSDtVHVGHO0(5&2685\ORVGH&KLOH\%ROLYLD
DSUREDURQXQ0HPRUDQGRGH(QWHQGLPLHQWRSDUDOD,PSOHPHQWDFLyQGHXQ0HFDQLVPR([SHULPHQWDOSDUD
OD $FUHGLWDFLyQ GH &DUUHUDV GH *UDGR /RV RUJDQLVPRV GH FRPSHWHQFLD D QLYHO QDFLRQDO VHUiQ ODV
³$JHQFLDV 1DFLRQDOHV GH $FUHGLWDFLyQ´ 6H HVWDEOHFH OD FUHDFLyQ GH OD ³5HXQLyQ GH $JHQFLDV GH
$FUHGLWDFLyQ GHO 0(5&2685´ FRPR LQVWDQFLD GH PRQLWRUHR \ FRRSHUDFLyQ UHJLRQDO TXH OOHYDUi HO
UHJLVWURGHHYDOXDGRUHVTXHVHUiUHYLVDGRSHULyGLFDPHQWHWHQLpQGRVHHQFXHQWDHOGHVHPSHxRGHTXLHQHV
KD\DQ SDUWLFLSDGR HQ ORV SURFHVRV GH DFUHGLWDFLyQ (VWDUi GLVSRQLEOH SDUD VX FRQVXOWD SRU SDUWH GH ODV
LQVWLWXFLRQHV GH HGXFDFLyQ VXSHULRU \ SDUD VX XWLOL]DFLyQ SRU ODV DJHQFLDV QDFLRQDOHV GH DFUHGLWDFLyQ
$1$3DUD OD SUHSDUDFLyQ GH ORV UHVSHFWLYRV GLFWiPHQHV GH DFUHGLWDFLyQ ODV $1$V GHEHQ WHQHU HQ
FXHQWD ODV FRQFOXVLRQHV GHO LQIRUPH GH DXWRHYDOXDFLyQ ODV RSLQLRQHV GH ORV FRPLWp GH SDUHV VREUH HO
SURFHVR GH DXWRHYDOXDFLyQ HO FXPSOLPLHQWR GH ORV FULWHULRV \ SDUiPHWURV HVWDEOHFLGRV \ VX
UHFRPHQGDFLyQHQFXDQWRDOUHVXOWDGRVJOREDOHVGHSURFHVRGHDFUHGLWDFLyQHOJUDGRGHFXPSOLPLHQWRGH
ODV PHWDV \ REMHWLYRV LQVWLWXFLRQDOHV HO UHVXOWDGR GH RWURV SURFHVRV GH DFUHGLWDFLyQ QDFLRQDO R
LQWHUQDFLRQDO RWURV DQWHFHGHQWHV OHJDOHV R UHJODPHQWDULRV SURSLRV GH ODV GLVSRVLFLRQHV QDFLRQDOHV
GLFWiPHQHV GH ODV $1$V SXHGHQ VHU $FUHGLWDFLyQ SRU HO SOD]R GH YLJHQFLD 1R DFUHGLWDFLyQ
7DEOD,QLFLDWLYDVUHJLRQDOHVGHDFUHGLWDFLyQ\KRPRORJDFLyQHQ$/
$PpULFD/DWLQD
7DEOD5HVXOWDGRVGHORVSURFHVRVGHDFUHGLWDFLyQGHSURJUDPDVGHPDHVWUtDVSRUHO6($
0+DVWDHQHURVHHYDOXDURQSURJUDPDVGHPDHVWUtDV
5DWLILFDGRV
7RWDOGH
PHQFLRQHV
DFUHGLWDGDV
7RWDOGHSURJUDPDV
DFUHGLWDGRV
1RDFUHGLWDGRV
7RWDOPHQFLRQHV
HYDOXDGDV
7RWDOGHSURJUDPDV
HYDOXDGRV
2EVHUYDFLyQKD\SURJUDPDVTXHVXVPHQFLRQHVIXHURQDFUHGLWDGDVLQGHSHQGLHQWHVHQGLVWLQWDV
IHFKDV
7RWDOGHSURJUDPDV
HYDOXDGRV
7RWDOGH$SHODFLRQHV
7DEOD5HVXOWDGRVGHODHYDOXDFLyQGHSURJUDPDVSRUUHXQLRQHVGHOD-$1KDVWDMXOLR
5HXQLRQHV-$1 ([FHO &HUWLILF 5DWLILFDGR 1RDFUHGLWDGR 7RWDO
1R
'LF
1R0DU
1R PHQFLRQHV
-XO SURJUDPDV
DSHODFLRQHV
7RWDO PHQFLRQHV
SURJUDPDV
3URJUDPDVDFUHGLWDGRV
3URJUDPDVGH([FHOHQFLD GHOWRWDOGHSURJUDPDV
TXHSDVDURQHOSURFHVR
3URJUDPDV&HUWLILFDGRV
3URJUDPDV5DWLILFDGRV
([SHULHQFLDVPHWDHYDOXDWLYDVLQWHUQDFLRQDOHV
7DLZiQ(QXQDQiOLVLVUHDOL]DGRDOSURFHVRGHDFUHGLWDFLyQGHODVXQLYHUVLGDGHVGH7DLZDQ
LPSOHPHQWDGR HQ <XHKOXHQ +X \ +DQ &KLDQJ &KHQ VH FXHVWLRQDQ ORV VLJXLHQWHV
DVSHFWRV¢$OFDQ]yHVWDDFUHGLWDFLyQODPHWDWUD]DGD"¢(OSDWUyQXWLOL]DGRHQODDFUHGLWDFLyQ
HV YiOLGR" ¢6RQ ORV HYDOXDGRUHV OR VXILFLHQWHPHQWH SURIHVLRQDOHV" ¢(O DXWRHVWXGLR
DXWRFRQRFLPLHQWR KD DOFDQ]DGR HO DXWRSHUIHFFLRQDPLHQWR" ¢(O UHSRUWH LQIRUPH GH OD
DFUHGLWDFLyQ VHUi DFHSWDGR SRU ODV XQLYHUVLGDGHV" (VWRV DVSHFWRV IXHURQ LQYHVWLJDGRV
H[DPLQ
727$/ iQGRVH
6ROLFLWXGHVGHDFUHGLWDFLyQ
HO
VLVWHPD
3URJUDPDVQRSUHVHQWDGRV GH
3URJUDPDVQRFXPSOHQFRQ WUDEDMR
UHTXLVLWRV GH OD
DFUHGLWD
FLyQ FRQ WUHV SURSyVLWRV FRQRFHU ORV HIHFWRV GH OD DFUHGLWDFLyQ GH OD (GXFDFLyQ 6XSHULRU
UHDOL]DGD HQ HO SDtV HYDOXDU HO SURFHVR GH DFUHGLWDFLyQ HQ ORV WpUPLQRV GH ODV GLPHQVLRQHV
<XHKOXHQ+X +DQ&KLDQJ&KHQ/D0HWDHYDOXDFLyQGHODHYDOXDFLyQGHOD(GXFDFLyQ6XSHULRUHIHFWXDGD
HQHQ7DLZDQ
WUDEDMRSUHOLPLQDUFULWHULRVGHDFUHGLWDFLyQDXWRHVWXGLROXJDUGHODHYDOXDFLyQUHVXOWDGRV\
RIUHFHU ODV VXJHUHQFLDV FRQFUHWDV SDUD OD DFUHGLWDFLyQ IXWXUD GH ODV XQLYHUVLGDGHV \ GH ODV
SROtWLFDVGHODWRPDGHGHFLVLRQHVUHFRJLGDVHQXQFXHVWLRQDULRTXHGLVHxDURQORVHVSHFLDOLVWDV
FRQODLQWHQFLyQGHDFRSLDUODVRSLQLRQHVVREUHODYDOLGH]\ODYHUDFLGDGODDFUHGLWDFLyQ/RV
DXWRUHVVHSODQWHDQDVtODQHFHVLGDGGHODPHWDHYDOXDFLyQHQWHQGLGDFRPRODHYDOXDFLyQGHOD
HYDOXDFLyQXVDQGRXQDPHWRGRORJtDSDUDHYDOXDUODHYDOXDFLyQ\UHH[DPLQDQGRHOGLVHxRHO
SURFHVR\ORVHIHFWRVGHODHYDOXDFLyQ
%UDVLO8QVHJXQGRFDVRGHPHWDHYDOXDFLyQHVHOUHIHULGRDODH[SHULHQFLDHQOD8QLYHUVLGDG
9HLJD GH %UDVLO GRQGH VH FUHD XQD &RPLVLyQ GH (YDOXDFLyQ SDUD DQDOL]DU OD HYDOXDFLyQ
LQVWLWXFLRQDO UHDOL]DGD HQ HVWD XQLYHUVLGDG WHQLHQGR HQ FRQVLGHUDFLyQ HO HOHPHQWR
PHWDHYDOXDGRU/DPHWDHYDOXDFLyQRODHYDOXDFLyQGHODHYDOXDFLyQHVWXYRSUHVHQWHGXUDQWH
WRGR HOGHVDUUROOR GHO WUDEDMRGH DXWRFRQRFLPLHQWR\ DXWRSHUIHFFLRQDPLHQWRGHVGH OD SURSLD
FUHDFLyQ GH OD &RPLVLyQ GH (YDOXDFLyQ 7RGDV ODV IRUPDV GH UHFRQVLGHUDFLyQ GH ODV
HYDOXDFLRQHV \ GLDJQyVWLFRV LQYROXFUDURQ D XQ JUXSR GH OD FRPXQLGDG DFDGpPLFD /D
HYDOXDFLyQ FRQVWDQWH \ SHUPDQHQWH GH ODV DFFLRQHV HYDOXDWLYD D SHVDU GH PHUHFHU XQ
WUDWDPLHQWRPiVSURIXQGR\VLVWHPiWLFRVHFRQYLUWLHURQHQSHUFHSWLEOHV\FRQFUHWDVLQGLFDQGR
ODPRGLILFDFLyQGXUDQWHHOSURFHVR
(QHODUWtFXORGH5DQFDxR'HOPD*1\%HQYHQXWL2OHGLDVHSODQWHDTXHXQDHYDOXDFLyQ
TXHKDFHXQDUHIOH[LyQVREUHODVDFFLRQHVHYDOXDWLYDVSXHGHHVWDUUHODFLRQDGDFRQODH[WHQVLyQ
GH ODV DFFLRQHV OD YDOLGH] \ OD YHUDFLGDG GHO SURFHVR HYDOXDWLYR OD SDUWLFLSDFLyQ GH OD
FRPXQLGDG OD DGHFXDGD FDQWLGDG GH UHFXUVRV KXPDQRV ILQDQFLHURV \ PDWHULDOHV OD SHUIHFWD
FRPXQLFDFLyQGHORVUHVXOWDGRVODVPRGLILFDFLRQHVIXWXUDVODLQYHVWLJDFLyQGHODFDOLGDGGHOD
HQVHxDQ]D \ HO DSUHQGL]DMH HO SHUIHFFLRQDPLHQWR GH ORV FXUUtFXORV \ ORV SURJUDPDV \ OD
FRQWULEXFLyQHQHOSURFHVRGHWRPDGHGHFLVLRQHVHWF
&DWDOXxD (VSDxD %DUWRORPp \ RWURV HVSHFLDOLVWDV OOHYDURQ D FDER XQ DQiOLVLV GH ORV
PRGHORVLQVWLWXFLRQDOHVGHHYDOXDFLyQGHFHQWURVXWLOL]DGRVHQ&DWDOXxDVHLVHQWRWDODORVTXH
DxDGLHURQGRVHXURSHRV(&,6\*5,'6\XQRDPHULFDQR'(/$:$5(7UDVFRQVXOWDUOD
OLWHUDWXUD HVSHFLDOL]DGD VREUH HO WHPD HVWH HTXLSR HVWDEOHFLy XQ OLVWDGR GH FULWHULRV
FRPSDUDWLYRVDJUXSDGRVHQORVFLQFREORTXHVVLJXLHQWHVREMHWLYRVGHODHYDOXDFLyQREMHWRGH
ODHYDOXDFLyQPHWRGRORJtDGHHYDOXDFLyQFULWHULRVGHHYDOXDFLyQ\HOSDSHOGHOHYDOXDGRU
((88*DOOHJRVQRVLQIRUPDGHXQDPHWDHYDOXDFLyQGHDFWXDOHVPRGHORVGHHYDOXDFLyQGH
FHQWURV HQ (VWDGRV 8QLGRV OOHYDGD D FDER SRU HO &5($7( &HQWHU IRU 5HVHDUFK RQ
(GXFDWLRQDO $FFRXQWDELOLW\ DQG 7HDFKHU (YDOXDWLRQ HQ OD TXH VH UHYLVDURQ XQ WRWDO GH
FLQFXHQWD \ XQ PRGHORV GH GLVWLQWR FDUiFWHU QDFLRQDO UHJLRQDO HVWDWDO ORFDO \ GH DJHQFLDV
S~EOLFDV\SULYDGDV(VWHHVWXGLRSDUWLyGHODFODVLILFDFLyQGHPRGHORVUHIOHMDGDHQHOHVWXGLR
GH 5LFKDUGV TXH LQFOX\H ORV VLJXLHQWHV WLSRV GH PRGHORV GH HYDOXDFLyQ GH FHQWURV
5DQFDxR 'HOPD * 1 %HQYHQXWL 2OHGLD 0HWDHYDOXDWLRQ D UHFRQVLGHUDWLRQ RI 8QLYHUVLGDGH 9HLJD GH
$OPHLGD¶VHYDOXDWLYHSURSRVDO5-%UDVLO
5DQFDxR 'HOPD * 1 %HQYHQXWL 2OHGLD 0HWDHYDOXDWLRQ D UHFRQVLGHUDWLRQ RI 8QLYHUVLGDGH 9HLJD GH
$OPHLGD¶VHYDOXDWLYHSURSRVDO5-%UDVLO
%DUWRORPp
*DOOHJRV
0RGHORV FHQWUDGRV HQ HO FXPSOLPLHQWR 0RGHORV FHQWUDGRV HQ HO GLDJQyVWLFR \ 0RGHORV
FHQWUDGRVHQHOUHQGLPLHQWR
*UDQ %UHWDxD %UXQQHU UHILHUH TXH ODV GLUHFWULFHV SROtWLFDV FRQWHQLGDV HQ XQ :KLWH 3DSHU
GHODxRHQ*UDQ%UHWDxDLQWURGXFHQXQDWULSOHGLVWLQFLyQSDUDODHYDOXDFLyQGHFDOLGDG
GHODGRFHQFLDFRQWUROGHFDOLGDGLQWUtQVHFREDVDGRHQPHFDQLVPRVLQWHUQRVSDUDPDQWHQHU\
PHMRUDU OD FDOLGDG GH VX SURYLVLyQ DXGLWRUtD GH FDOLGDG FRQVLVWHQWH HQ HO H[DPHQ H[WHUQR
GLULJLGR D SURSRUFLRQDU VHJXULGDG GH TXH ODV LQVWLWXFLRQHV WLHQHQ HQ VX OXJDU PHFDQLVPRV
LQWHUQRV GH FRQWURO GH FDOLGDG \ HYDOXDFLyQ GH FDOLGDG PHGLDQWH H[DPHQ \ MXLFLRV H[WHUQRV
VREUH OD FDOLGDG GH OD HQVHxDQ]D \ HO DSUHQGL]DMH HQ FDGD LQVWLWXFLyQ (Q FXDQWR D OD
DXWRHYDOXDFLyQLQVWLWXFLRQDOFRQWUROGHODFDOLGDGLQWUtQVHFRHO&RPLWpGH9LFHFDQFLOOHUHV\
3ULQFLSDOHV &9&3 KD HVWDEOHFLGR XQD $FDGHPLF $XGLW 8QLW $$8 TXH DVLVWH D ODV
LQVWLWXFLRQHV LQGLYLGXDOHV HMHUFLHQGR UHVSHFWR GH HOODV XQD IRUPD GH PHWDHYDOXDFLyQ FRPR
KDFH HO ,QVSHFWRUDGR +RODQGpV GH OD (GXFDFLyQ 6XSHULRU ³DO SURYHHU VHJXULGDG GH TXH ORV
PHFDQLVPRV \ PpWRGRV GH HYDOXDFLyQ HPSOHDGRV VRQ DSURSLDGRV D VX REMHWLYR \ VH HVWiQ
DSOLFDQGRHQODSUiFWLFD´
/D SUHVLyQ HYDOXDWLYD TXH VH KD OHYDQWDGR HQ *UDQ %UHWDxD KD LGR DFRPSDxDGD SRU HO XVR
UHODWLYDPHQWHLQWHQVRGHSHUIRUPDQFHLQGLFDWRUVLQGLFDGRUHVGHGHVHPSHxRGHHQXQFLDGRV
XVXDOPHQWH GH FDUiFWHU FXDQWLWDWLYR VREUH UHFXUVRV HPSOHDGRV \ ORJURV REWHQLGRV HQ iUHDV
UHOHYDQWHVSDUDREMHWLYRVHVSHFtILFRVGHODHPSUHVDVRQXQLQVXPRFODYHSDUDORVSURFHVRVGH
DFFRXQWDELOLW\ WDQWR KDFLD GHQWUR GH ODV LQVWLWXFLRQHV FRPR IUHQWH D ORV RUJDQLVPRV
ILQDQFLDGRUHV (O &RQVHMR 1DFLRQDO GH FDOLGDG TXH KDFH ³DXGLWRUtDV´ SDUD GHWHUPLQDU VL ORV
SURFHGLPLHQWRVVRQDGHFXDGRVJHQHUDOPHQWHSURGXFHXQLQIRUPHS~EOLFR
'LQDPDUFD (Q HO GRFXPHQWR 0HWD (YDOXDWLRQ RI WKH (YDOXDWLRQV RI +LJKHU (GXFDWLRQ LQ
'HQPDUNVHSUHVHQWDXQHVWXGLRGHLPSDFWRGHODVHYDOXDFLRQHVGHVGHKDVWDHQ
OD HGXFDFLyQ VXSHULRU GH 'LQDPDUFD $ HVWH HVWXGLR GH LPSDFWR OR GHQRPLQDURQ
PHWDHYDOXDFLyQ\VHEDVyHQXQGLVHxRPHWRGROyJLFRFRQGRVFRPSRQHQWHVXQRFXDQWLWDWLYR\
RWUR FXDOLWDWLYR \ FRQVLVWLy HQ OD UHDOL]DFLyQ GH HQFXHVWDV HQ SULPHU OXJDU D ORV MHIHV GH
GHSDUWDPHQWR \ IDFXOWDGHV HQ VHJXQGR OXJDU HQWUHYLVWDV SURIXQGDV D ORV YLFHFKDQFHOORUV \
ILQDOPHQWH VH KL]R HO HVWXGLR GH FDVRV GHQWUR GH VHLV FDPSRV HGXFDWLYRV TXH FXEULHURQ
GLIHUHQWHV WLSRV GH IDFXOWDGHV GRQGH VH UHDOL]DURQ HYDOXDFLRQHV (O DQiOLVLV GH ORV UHVXOWDGRV
GHO HVWXGLR EDVDGR SULQFLSDOPHQWH HQ XQD YDORUDFLyQ VXEMHWLYD GH ODV SHUVRQDV GHQWUR GHO
VLVWHPDHGXFDFLRQDOORVHYDOXDGRVFRQHOREMHWLYRGHDQDOL]DUHOYtQFXORHQWUHHOSURFHVRGH
HYDOXDFLyQ\HOLPSDFWRDUURMyORVLJXLHQWH
%UXQQHU-RVp-RDTXtQ&DOLGDG\HYDOXDFLyQHQODHGXFDFLyQVXSHULRU(Q(YDOXDFLyQ\$FUHGLWDFLyQ
8QLYHUVLWDULD0HWRGRORJtDV\([SHULHQFLDV(GLWRUHV(GXDUGR0DUWtQH]\0DULR/HWHOLHU(G1XHYD6RFLHGDG
<RXQJ'DYLG7KH$FDGHPLFDXGLW8QLWHQ*RHGHJHEXUH0DDVVHQ:HVWHUKHLGMHQ3DJ
%M¡UQNLOGH 7KRPDV %DVRQ &KULVWLDQ 0HWD (YDOXDWLRQ RI WKH (YDOXDWLRQV RI +LJKHU (GXFDWLRQ LQ
'HQPDUN3DSHUIRU&DVHVWXG\6HVVLRQDWWKHWK((6&RQIHUHQFHLQ/DXVDQQH2FWREHU
0HWD(YDOXDWLRQRIWKH(YDOXDWLRQVRI+LJKHU(GXFDWLRQLQ'HQPDUNUHDOL]DGRSRUHO(YDOXHULQJVFHQWHUHW
7KH'DQLVK&HQWUHIRU4XDOLW\$VVXUDQFHDQG(YDOXDWLRQRI+LJKHU(GXFDWLRQFRPLVLRQDGRSRUHO0LQLVWHULRGH
(GXFDFLyQGDQpV\VXSHUYLVDGRSRUHO3/65$0%2//0DQDJHPHQWLQ
$ SHVDU TXH HO VLVWHPD GH HYDOXDFLyQ IXH DSR\DGR SRU ORV SURIHVLRQDOHV GHO VLVWHPD
HGXFDFLRQDO HVWRV HVWiQ PX\ HVFpSWLFRV VREUH HO VLVWHPD GH HYDOXDFLyQ SRU OR TXH SXHGHQ
VXEHVWLPDUHOLPSDFWRGHODHYDOXDFLyQ
'HVSXpV GH KDEHU SDVDGR SRU SURFHVRV GH HYDOXDFLyQ VH KDQ UHDOL]DGR FDPELRV
SDUWLFXODUPHQWH HQ DVSHFWRV UHODFLRQDGRV FRQ ORV REMHWLYRV GH OD HGXFDFLyQ FRQWHQLGR \
FRPSRVLFLyQ GH ODV DVLJQDWXUDV /DV HYDOXDFLRQHV KDQ WHQLGR WDPELpQ LPSDFWR HQ PHQRU
PHGLGDHQODVKDELOLGDGHVSHGDJyJLFDV\SURIHVLRQDOHVGHORVSURIHVRUHV\HQORVPpWRGRVGH
HQVHxDQ]D
/DV HYDOXDFLRQHV KDQ LQIOXLGR HQ HO HVWDEOHFLPLHQWR GHO VLVWHPD GH DVHJXUDPLHQWR GH OD
FDOLGDG HQ DSUR[LPDGDPHQWH XQR GH FXDWUR FDVRV GH OD HGXFDFLyQ \ KDQ WHQLGR XQ LPSDFWR
GLUHFWR DOOt GRQGH ORV HYDOXDGRUHV KLFLHURQ UHFRPHQGDFLRQHV TXH QR KDQ VLGR WRPDGDV HQ
FXHQWDSRUORVHYDOXDGRV(QVHJXQGROXJDUODVHYDOXDFLRQHVKDQDFWXDGRFRPRXQSURFHVRGH
FDPELRFDWDOtWLFR\DFHOHUDGRHQFDPLQDGRHQPXFKRVFDVRVDKDFHUORPiVREMHWLYR
6H GHPRVWUy TXH HO HOHPHQWR SDUWLFLSDWLYR HQ WpUPLQRV GH DXWRHYDOXDFLyQ HV GH JUDQ
LPSRUWDQFLDSDUDHOLPSDFWRGHODHYDOXDFLyQHQODHGXFDFLyQVXSHULRUDSHVDUGHTXHGLFKR
SURFHVR FRQVXPH PXFKR WLHPSR 6L ODV UHFRPHQGDFLRQHV SDUWHQ R HVWiQ EDVDGDV HQ ORV
UHVXOWDGRVGHODDXWRHYDOXDFLyQHVPX\SUREDEOHTXHVHDQLPSOHPHQWDGDV
/D SDUWLFLSDFLyQ GH ORV FHQWURV HQ OD DXWRHYDOXDFLyQ LQGLFD HO JUDGR GH XWLOL]DFLyQ GH ODV
HYDOXDFLRQHV HQ HO VHFWRU GH OD HGXFDFLyQ TXH HVWi FDUDFWHUL]DGR SRU XQ DOWR JUDGR GH
DXWRQRPtD\SURIHVLRQDOL]DFLyQ
([LVWHXQDFRUUHODFLyQHQWUHHOQ~PHURGHFHQWURVLQYROXFUDGRVHQODHYDOXDFLyQ\HOQLYHO
GHLPSDFWR
7KRPDV:LGPHU SODQWHDTXHVHSXHGHGLIHUHQFLDUODVGHPDQGDVKHFKDVDODHYDOXDFLyQHQ
UHODFLyQ FRQ ORV GRV FULWHULRVGHYDORUDFLyQGLIHUHQWHVD VDEHU LQWHUQR\ H[WHUQR\HO XVR GH
HOORV SDUD YDORUDU OD FXDOLGDG GH XQD HYDOXDFLyQ \ DVXPH WUHV QLYHOHV GH FRQVWUXFWRV HO
SULPHUR HO SURJUDPD R HO SUR\HFWR TXH VH HYDO~D HO VHJXQGR OD HYDOXDFLyQ \ HO WHUFHUR OD
PHWDHYDOXDFLyQ 8Q HYDOXDGRU SXHGH DVt HYDOXDU XQ SURJUDPD X RWUR REMHWR EDVDGR HQ ORV
REMHWLYRV GHO SURJUDPD FULWHULR GH HYDOXDFLyQ YDORUDFLyQ LQWHUQR SHUR WDPELpQ SXHGH
HYDOXDUXQSURJUDPDEDVDGRHQODVLJQLILFDFLyQVRFLDOGHOSURJUDPDFULWHULRGHHYDOXDFLyQ
YDORUDFLyQ H[WHUQD (O PLVPR UD]RQDPLHQWR SXHGH VHU DSOLFDGR D XQD HYDOXDFLyQ FRPR
FRQVWUXFWRGHVHJXQGRRUGHQGRQGHHOFULWHULRGHYDORUDFLyQUHOHYDQWHSXGLHUDVHUHQSULPHU
OXJDU ORV REMHWLYRV GH OD HYDOXDFLyQ FULWHULR GH YDORUDFLyQ LQWHUQD \ HQ VHJXQGR OXJDU OD
WHRUtD \ PHWRGRORJtD GH OD HYDOXDFLyQ JHQHUDO FULWHULR GH YDORUDFLyQ H[WHUQD 3RU DQDORJtD
HVWH DUJXPHQWR SXHGH SURVHJXLU HQ HO WHUFHU RUGHQ \ VL VH HPSUHQGH XQD YDORUDFLyQ R
HYDOXDFLyQ GH XQD HYDOXDFLyQ HQWRQFHV VH SXHGH KDEODU GH XQD PHWDHYDOXDFLyQ \ VXUJH
HQWRQFHVODLQWHUURJDQWHGHTXLpQHYDO~DXQDPHWDHYDOXDFLyQ>9HU7DEOD@
:LGPHU7KRPDV(9$/8$7,2167$1'$5'6,17+(&217(;72)6867$,1$%,/,7<
($6<(&2(YDOXDWLRQRI6XVWDLQDELOLW\(XUR&RQIHUHQFH0D\±9LHQQD$XVWULD6XSSRUWHGE\WKH
(XURSHDQ &RPPLVVLRQ 5HVHDUFK '* +XPDQ 3RWHQWLDO 3URJUDPPH :LGPHU +LJK/HYHO 6FLHQWLILF
&RQIHUHQFHV&RQWUDFW1R+3&)&7&RQVXOWDGRHO
1LYHOHVSURSXHVWRVSRU7KRPDV:LGPHUFRQVXVFRUUHVSRQGLHQWHVEDVHVGHYDORUDFLyQ
/HYHO 2EMHFW %DVLVIRU,QWHUQDO %DVLVIRU([WHUQDO
$VVHVVPHQW&ULWHULD $VVHVVPHQW&ULWHULD
)LUVW2UGHU 3URJUDP3URMHFW 2EMHFWLYHVRIWKH 6RFLDO6LJQLILFDQFHRIWKH
6HFRQG2UGHU (YDOXDWLRQ 2EMHFWLYHVRIWKH (YDOXDWLRQ7KHRU\DQG
7KLUG2UGHU 0HWDHYDOXDWLRQ 2EMHFWLYHVRIWKH0HWD
&RQVWUXFWV HYDOXDWLRQ
(QFRQVHFXHQFLDORVGRV~OWLPRVLQVWUXPHQWRVVRQGHULYDGRVGHORVFRQWHQLGRVVLJQLILFDWLYRV
RGHORVUHVXOWDGRVGHODVHYDOXDFLRQHVODEDVHSDUDODLQYHVWLJDFLyQHVODHYLGHQFLDWHPiWLFD
TXH ODV SURSLDV HYDOXDFLRQHV SXHGHQ SURSRUFLRQDU 8Q PHWDDQiOLVLV UHTXLHUH XQ VXILFLHQWH
Q~PHURGHHVWXGLRVHYDOXDWLYRVH[LVWHQWHVTXHSHUPLWDXQDUHVSXHVWDFXDQWLWDWLYDSDUDUHQGLU
FXHQWD D XQ DVXQWR HVSHFtILFR (VWH IRFR FXDQWLWDWLYR WtSLFDPHQWH KDFH XQ PHWDDQiOLVLV
RULHQWDGR PiV HVWUHFKDPHQWH TXH XQD VtQWHVLV GH HYDOXDFLyQ 8QD VtQWHVLV GH HYDOXDFLyQ
UHTXLHUHXQJUXSRWHPiWLFRHQWUHORVHVWXGLRVHYDOXDWLYRVVREUHHOFXDOHVWiEDVDGRSRUORTXH
HQVXHQIRTXHFXDOLWDWLYRHVWiFLUFXQVFULWDGHIRUPDPHQRVHVWUHFKD>9HU7DEOD@
9LVLyQGHORUGHQGHORVLQVWUXPHQWRV
,QVWUXPHQW 'HVFULSWLRQ
(YDOXDWLRQ &RQWHQW 6\QWKHVLV RI 9DULRXV (YDOXDWLRQ 6WXGLHV ODUJHO\
6\QWKHVLV TXDOLWDWLYHJOREDOHYDOXDWLRQFURVVVHFWLRQDODQDO\VLV
0HWD$QDO\VLV 4XDQWLWDWLYH,QWHJUDWLRQRIWKH5HVXOWVRI9DULRXV
(YDOXDWLRQ6WXGLHVUHVHDUFKV\QWKHVLV
0HWDHYDOXDWLRQ (YDOXDWLRQRI(YDOXDWLRQV6\VWHPDWLF$VVHVVPHQWRIWKH
4XDOLW\RIRQHRUPRUH(YDOXDWLRQ6WXGLHV
8QD PHWDHYDOXDFLyQ HQ FRQWUDVWH WLHQH IXQGDPHQWDOPHQWH XQ REMHWLYR GLIHUHQWH FRPR OD
HYDOXDFLyQ GH XQD R PiV HYDOXDFLRQHV TXH LQWHQWD HVWDEOHFHU VLVWHPiWLFDPHQWH HO YDORU \ HO
PpULWR GH OD HYDOXDFLyQ R HYDOXDFLRQHV (Q RWUDV SDODEUDV XQD PHWDHYDOXDFLyQ YDORUD OD
FDOLGDG GH XQD HYDOXDFLyQ \ SRU HVR HOOD QHFHVLWD FULWHULRV GH YDORUDFLyQ &RPR VH VHxDOy
SUHYLDPHQWHDPERVFULWHULRVODHYDOXDFLyQGHREMHWLYRVFULWHULRGHYDORULQWHUQR\ODWHRUtD\
Tabla 22. Estadísticas generales de las etapas de la investigación
63
Tabla 23.
64
Resultado 1: Descripción de la Guía de Evaluación
1-En el SEAM se identificó un Patrón de Calidad que contiene seis estándares por los cuales
será medida la calidad de los programas de maestrías que se convirtieron, más tarde, en las
variables que componen la actual Guía de Evaluación. Por tanto, la Guía de Evaluación cuenta
con 6 variables y un total de 68 ítems evaluables. El puntaje de la guía alcanza la cifra de 110
puntos.
5. Estudiantes 10 puntos 9% 5 4 1 4
65
Tabla 25 .Análisis de los Indicadores de la Guía de Evaluación del SEA-M
(Variante 1)
Momento de Variables de Descriptores Descriptores Descriptores % según
la la Guía cuantitativos cualitativos mixtos momento
Evaluación
1.Pertinencia e 1.1 1.2
impacto
4.Respaldo
material y
administrat. 4.1,4.2.2,4.5 4.2,4.3
5.Estudiante 5.1
6.Curriculum 6.8
66
Tabla 25-A. Variables e Indicadores según el momento del programa
100%
80%
Inicio
60% Desarrollo
Final
40%
20%
0%
50
40
Inicio
30 Desarrollo
20 Final
10
50%
40%
cuantitativos
30%
cualitativos
20% mixtos
10%
0%
67
Tabla 26. Etapa Investigativa I : Análisis de las variables de la Guía de Evaluación en
comparación con las características que debe cumplir un programa de calidad según criterios
de los entrevistados
Características de un programa de maestría de calidad En la Guía
Garantía de la bibliografía con acceso físico real SI
Garantía del claustro en cantidad y calidad SI
Tiempo real de dedicación por el estudiante SI
Aseguramiento material. SI
Efecto del programa en la vida profesional del egresado (publicaciones, campo de investigación, SI
posibilidad de entrar en un mercado de trabajo, salario, etc..)
Riqueza de las tesis. Aportes y su valor NO
Satisfacción tanto de estudiantes como de profesores en que el trabajo valió la pena NO
Carácter instrumental del programa, es decir el programa debe servir para algo NO
Carácter integral y sistemático de las asignaturas del programa en correspondencia con el objetivo de NO
salida que tiene el programa.
Cuando no hay abandono de estudiantes, lo cual es un índice de calidad. NO
Pertinencia del programa. Respuesta a las necesidades del desarrollo de profesionales en el área NO
Tabla 27. Etapa Investigativa I: Análisis de las variables de la Guía en comparación con los
parámetros a evaluar dentro de un Sistema de Evaluación propuestos por los directivos en
las entrevistas realizadas.
68
Reflexiones finales de la Etapa Investigativa I
Se pudo constatar que:
1. La implementación del SEA-M debe ser considerada en sí misma una innovación y, a su
vez, promotora de innovaciones y mejoras en los programas de maestrías que se evalúan por
dicho sistema. Con él se introduce en el ámbito educativo cubano la Evaluación y
Acreditación de programas con un nuevo enfoque al trascender cualitativamente los niveles de
control de la calidad implícitos en las experiencias de supervisión y control imperantes hasta el
momento, las inspecciones y al proyectarse hacia el exterior del propio sistema educativo.
2. El SEAM es un producto autóctono, que se ha nutrido de lo mejor de las prácticas
evaluativas internacionales estudiadas y de la experiencia acumulada en Cuba mediante la
inspección u otro tipo de control. El SEA-M es el fruto de un proceso de reflexión, de
maduración y de arduo trabajo de un grupo de compañeros, fundamentado en las condiciones
reales en que desarrollan los programas dentro del contexto académico cubano.
3. La implementación de forma experimental en la Universidad de La Habana del Sistema
de Evaluación significó el despertar de la cultura evaluativa en el ámbito académico. Cultura
que lleva intrínsecamente la conciencia de la necesidad de realizar procesos de autoevaluación,
evaluación externa y de acreditación y según se enriquezca esta experiencia, irá
desarrollándose cada vez más.
4. La Guía de Evaluación diseñada para el SEA-M presenta un balance adecuado entre la
valoración cuantitativa y la cualitativa. A través de sus indicadores se representan los tres
momentos esenciales de todo proceso de evaluación: el programa en sí mismo, el desarrollo y
los resultados del programa, aunque, desde este punto de vista, la ponderación no está
debidamente balanceada: de los 40 descriptores analizados el 60% refiere a la evaluación del
programa en sí mismo, un 25 % al proceso y el 15% tributa a los resultados del programa.
5. La Guía de Evaluación del SEA-M es un instrumento multipropósito, se utiliza para
realizar procesos de autoevaluación, evaluación externa y para la posterior acreditación.
Cumple con preceptos teóricos referidos en la literatura consultada al contemplar los aspectos
esenciales para evaluar un programa: pertinencia, impacto social, tradición de la institución,
colaboración interinstitucional, cuerpo de profesores y tutores, estudiantes y currículo
contemplados también en sistemas de evaluación de otros países. Sin embargo, en la Guía hay
ausencia de aspectos evaluables en un programa no incluidos dentro de sus variables como el
proceso de enseñanza - aprendizaje y el seguimiento al egresado, entre otros.
6. Existe una correspondencia entre el puntaje establecido por la Guía para cada variable y
la prioridad otorgada por los expertos y evaluadores entrevistados a dichas variables.
7. La contextualización de la evaluación en tanto su realización “sea en función de y para
un contexto socio cultural, económico y político determinado” 1, exige que la teoría, el
método, las técnicas, procedimientos e instrumentos que la identifican estén al servicio de
dicho contexto en que tiene lugar su práctica, de las necesidades y expectativas de los grupos
involucrados, y no que sean los métodos y técnicas utilizadas los que determinen las
características, complejidad y alcance de la evaluación.
8. En su concepción y praxis la evaluación es un sistema integral, donde se articulan y se
interrelacionan varios componentes protagonistas y otros elementos no menos importantes.
Dada la complejidad del sistema, este no está exento de imperfecciones y subjetividades. No
hay sistema de evaluación perfecto.
1
Hernando Salcedo Galvis (1995
69
Tabla 28. Generalidades y estadísticas
ETAPA INVESTIGATIVA II
70
Resultados de la Etapa Investigativa II
71
Tabla 30. Resultado 1 Objetivo 1.2: Descripción de las funciones de las instancias del
MES participantes en la evaluación: JAN, COPEP, CTE, CE
72
Tabla 30-A. Resultado 1 Objetivo 1.3: Identificación de las etapas conducentes a la evaluación
externa y deficiencias detectadas
73
Tabla 31. Resultado 2: Revisión de expedientes de siete procesos culminados
Objetivo 2.1: Comprobar la presencia y/o Objetivo 2.2 Analizar los instrumentos de
ausencia de la documentación establecida en los recogida de la información utilizados por los
expedientes. evaluadores.
Objetivo 2.3.Estudiar y analizar informes elaborados por evaluadores y los dictámenes del
CTE. (Estudiados 8 informes)
Debilidades detectadas en relación con:
• En uno aparece la participación de cinco evaluadores. (Reglamentado 3)
• Diferente extensión (2 a 10 cuartillas).
• Diferentes formatos. (Por variables, por fortaleza / debilidades o por ambos)
• Ausencia de firmas (3 casos) de evaluados y evaluadores o indistintamente.
• Ausencia de fecha de elaboración del informe.
(4 casos)
• Ausencia de fecha del proceso. (3 casos)
• Diferente duración del proceso. (de 3 a 5 días)
• No referencia de las fuentes de información: entrevistas y encuestas, o indistintamente (5 casos)
• No referencia a visitas realizadas (5 casos).
• Aparecen indistintamente recomendaciones generales y específicas. (En un caso no aparece nada).
74
Resultado 3. Información derivada las entrevistas. Etapa Investigativa II
Información recogida
1- Se dio el caso de que un evaluador o los evaluadores: sin experiencia evaluativa; no eran de la especialidad
del programa; de que pertenezcan a un mismo centro; que su actuación haya sido poco objetiva en alguna de las
etapas del proceso; no tuvieran la suficiente claridad de cómo medir alguno de los parámetros ni dominio del
sistema de posgrado; no se hayan estudiado la documentación previamente por no haber sido entregada por el
nivel correspondiente externo al programa; van más a los papeles que a los resultados derivados para la práctica
social, sin tener en cuenta la carencia de recursos actuales y fueron autoritarios (inflexibles, no oían criterios)
durante el proceso
2. De 3 pares académicos, 2 fueron mal seleccionados y el proceso se tuvo que repetir.(1 caso)
3. En la reunión con el CTE para la elaboración del dictamen final participó solamente uno de los evaluadores en
representación de la comisión evaluadora.
5. Las conclusiones se hicieron verbalmente no medió documento escrito alguno ni se firmó nada por las partes.
8. Clima de incertidumbre durante el proceso para los evaluados por no contar previamente con información
importante para el proceso como era el documento Sobre las particularidades del SEAM: categorías de
acreditación, procedimientos y beneficios de los programas autorizados, acreditados y de excelencia
9. No se poseía por parte de los evaluados de la lista actualizada de la documentación que debían contener los
expedientes de los estudiantes y del programa. La lista que se tenía no estaba vigente, por lo que se desconocía
que debía estar determinado documento en los expedientes.
13. Se tiene la impresión de que la opinión (dictamen) del CTE es una conclusión personal y no de una
comisión.
14. El dictamen no refleja exactamente lo que dijeron los evaluadores en las conclusiones del proceso.
75
Tabla 32. Generalidades y Estadísticas
76
Tabla 33. Generalidades y Estadística
ETAPA INVESTIGATIVA IV
77
Tabla 34. Indicadores de la Guía de Evaluación del SEA-M de obligatorio
cumplimiento o invalidantes.
78
Junta de Acreditación
Nacional
JAN
Comisión Nacional
de Grado
Secretaría ejecutiva
de la JAN
COPEP
Autoriza los programas Dirección de Evaluación
Direcciòn de Posgrado
MES Comité Técnico
Evaluador CTE
Comité Académico
79
Tabla 35. Contenido de las entrevistas a directivos del centro y del programa
80
Tabla 35. Contenido de las entrevistas a directivos del centr y del programa
(Continuación)
81
Tabla 36. Contenido de las entrevistas a directivos del MES
y miembros de la JAN
82
Tabla 37. Preguntas complementarias a directivos del MES y miembros de la JAN
(Continuación)
Miembros de la JAN
Pregunta Dimensiones Variables Indicadores
1,5 Calidad del sistema de 1.1Fiabilidad de los
evaluación (SEAM) instrumentos.
5.1Evidencia de un salto
cualitativo del SEAM
2, 3 Organización del proceso de 2.1 Proceso de selección
acreditación de los miembros de la
JAN
2.2 Formación de los
miembros de la JAN
2.3 Organización de las
sesiones de trabajo de la
JAN
4 Conceptual Actividad evaluativa
Proceso de evaluación Acreditación
Proceso de acreditación
Directivos del MES
Pregunta Dimensiones Variables Indicadores
12 Calidad del sistema de Innovaciones y mejoras
evaluación (SEAM) introducidas al SEAM
13 Impacto de los procesos de Mejoras e innovaciones ! Seguimiento
evaluación externa introducidas al cumplimiento de
las recomendaciones
de la Comisión
Evaluadora
14 Metodología empleada en los Nivel de participación de ! Participación
proceso de acreditación los evaluadores en el de los evaluadores en
proceso de acreditación las sesiones de
trabajo de la JAN.
! Información a
los evaluadores de
las conclusiones del
proceso de
acreditación
83
Tabla 38. Contenido de las entrevistas a Evaluadores
84
Tabla 38. Contenido de las entrevistas a Evaluadores (continuación)
Pre- Dimensiones Variables Indicadores
gunta
7 Metodología utilizada en los 7.11.Recogida de ! Técnicas aplicadas por los
procesos de evaluación información evaluadores (Inciso 7.7)
externa ! Selección de la muestra para las
entrevistas (Inciso 7.8)
! Jerarquización de las entrevistas
realizadas (Inciso 7.9)
! Calidad de los formularios de las
entrevistas (Inciso 7.10)
! Calidad del instrumento evaluador
(variables e indicadores)
! (Inciso 7.11.4)
7 Resultados del proceso de 7.13 Homogeneidad en las ! Consenso entre los evaluadores.
evaluación externa conclusiones de la ! Coincidencia de la proposición de
evaluación externa (Inciso certificación entre la CE y el CTE (
7.13) Inciso 7.16)
85
Figura 8. Diagrama integrador de las dimensiones tenidas en cuenta para las
entrevistas por categorías determinadas
Futuro
Presente inmediato Futuro mediato
¿Qué se ¿Qué resultados ¿Qué resultados
hace y se obtienen a se obtienen a
Presente
cómo? corto plazo? mediano plazo?
¿Qué se
hace y
cómo?
Categorías
Conceptualización Realidad del proceso de Realidad del proceso de Significación de los Perfeccionamiento de
evaluación externa acreditación procesos los procesos
Proceso de
Evaluación Formación Formación Trascendencia Calidad del
de evaluadores Miembros de de la sistema
la JAN evaluación (SEAM)
Acreditación Metodología
en el proceso Innovación y
Metodología Impacto de la mejora de los
en el proceso evaluación procesos de
evaluación
Meta- Organización externa
evaluación del proceso
Organización
del proceso
Actuación de Innovación y
los mejora de los
evaluadores procesos de
Observancia acreditación
de la legalidad
Resultados del
proceso
Resultados del
proceso
Observancia
de la legalidad
86
Procesamiento de la información recogida en las Fichas Técnicas de
los procesos de evaluación externa y acreditación estudiados
Tabla 39. Estadísticas generales de los procesos de evaluación y acreditación estudiados en las etapas de
investigación II, III, IV (2000-2004)
88
Tabla 40. Estadísticas en detalles de los procesos de evaluación externa y acreditación analizados
Proceso Evalua- Experto Duración del Documentos Debilidades Recomenda Debilidades Complemen- Debilidad
dores CTE proceso ausentes al programa ciones por CTE tación es detec-
por CE tadas
2-2000-1 3 5 Dictamen CTE 16 13 9
2-2000-2 4 Si 4 Expediente 18 1 8
2-2000-3 3 4 ---------- 13 13 5 8
2-2000-4 3 5 Dictamen CTE 7 4 7
2-2000-5 3 5 ---------- 12 7 5
2-2001-6 3 Si 6 Dictamen CTE 3 0 13
2-2001-7 3 2 ----------- 4 5 12 7
2-2001-8 3 5 --------- 3 4 8
3021 3 Si 5 No 10 5 12 7
3022 3 Si 5 No 21 No No SI 4
3023 4 No 6 No 12 6 4
3024 3 Si 4 No 11 Si (no dato Igual a la CE
exacto) más una nueva
3025 3 Si No dato Dictamen CTE 17 4 No 5
3026 3 Si 5 No 27 5/5 5 13
3027 3 No 7 Expediente 15 1 Igual a CE 7
3028 2 Si 4 No 7 6 9 8
3029 4 No 3 No 13 No No SI 7
30210 3 No 3 No 11 No Igual a la CE SI 4
más una nueva
4031 3 Si 5 Informe de la CE No dato No dato 7 NO SI
4032 4 2 alternos 5 Expediente 14 13 Igual de la CE NO apela SI
más 3 ción
4033 4 No 5 No 18 4 Igual de la CE NO apela SI
más 3 ción
89
Tabla 41 Caracterización de los procesos de evaluación externa y acreditación analizados
90
Tabla 41. Caracterización de los procesos (continuación)
91
Observaciones de los procesos de evaluación externa y acreditación analizados
Procesos de la Etapa II
" Sólo 2 procesos con participación de un experto del CTE, la participación del mismo se instauró a partir de determinada fecha.
" 6 programas que obtuvieron más del 86% del total de los puntos de la Guía de Evaluación (110 puntos) uno de los requisitos para
obtener el nivel de programa excelente; sin embarg, 3 de ellos obtuvieron el nivel de certificado
" Un programa tiene desaprobado un indicador invalidante; sin embargo, se le otorgó el nivel de programa excelente.
" El otorgamiento de un nivel de acreditación debe estar respaldado por la coincidencia de lo cualitativo y lo cuantitativo
entendiéndose que lo cuantitativo debe ser la expresión numérica del análisis cualitativo exhaustivo y tener implícito los indicadores
invalidantes.
" Los indicadores invalidantes traen contradicción en el otorgamiento del puntaje y del nivel de acreditación por lo que se considera
oportuno un nuevo análisis de la Guía. Se recomienda que no debieran existir indicadores invalidantes, sino que se les otorgue el
puntaje a estos indicadores por su importancia.
" En tres procesos se tuvo que realizar complementaciones para que la JAN pudiera aclarar sus dudas y llegar a conclusiones
correctas. Esto puede ser el resultado de una mala determinación de la evaluabilidad del programa antes de comenzar el proceso o
por mal trabajo de la Comisión Evaluadora.
" En un proceso las conclusiones de la CE estuvo dividida por lo que se elaboraron dos informes finales.
" Un programa acreditado como programa de excelencia a pesar de tener indistintamente dos indicadores invalidantes no aprobados.
" Programas con el porcentaje de puntuación entre el 50 % -69% para Ratificado = 2 ( No se otorgó a ningún programa)
" Programas con el porcentaje de puntuación entre 70% y 79% para Certificado = 5
" Programas con el porcentaje de puntuación entre 80% o más para Excelente = 3 (Se le otorgó a un solo programa)
" En 4 procesos no participó el experto del CTE.
" La duración de los procesos osciló entre 3 y 7 días
Procesos de la Etapa IV
" Programas con el porcentaje de puntuación entre el 50 % -69% para Ratificado = 0 . Se otorgó a 1 programa.
" Programas con el porcentaje de puntuación entre 70% y 79% para Certificado = 3 . No se otorgó a ningún programa.
" Programas con el porcentaje de puntuación entre 80% o más para Excelente= 0 . No se otorgó a ningún programa
92
Gráfico 4. Procesos según la certificación recibida hasta 2006
ratificados excelencia
21 27
excelencia
certificados
ratificados
certificado
59
93
Conclusiones derivadas del estudio de 31 procesos de evaluación externa y
acreditación culminados
Como resultado se detectaron deficiencias en los procesos que se relacionan con aspectos del
propio proceso, y con las dimensiones establecidas en los formularios de las entrevistas para la
recogida de información para esta investigación. A continuación se dan las deficiencias
detectadas con algunas de las incidencias.
2-Ausencia de documentos obligatorios en los expedientes del proceso como son: solicitud
para la realización del proceso de evaluación externa y acreditación al Rector o Director del
centro por parte de los responsables del programa (6 procesos); solicitud para la realización
del proceso de evaluación externa y acreditación a la JAN(6 procesos); formularios o
trascripción de las entrevistas y encuestas realizadas( 8 procesos); listado de profesores y
tutores del programa; dictamen de aprobación del programa; resultados de las dos
autoevaluaciones obligatorias para el proceso; plan de desarrollo del programa;
reconocimientos sociales obtenidos por profesores y tutores; líneas de investigación del centro
auspiciador del programa; currículum de los profesores; planillas SEAM-3E, 4E, 5E; el
documento técnico del programa; dictamen del CTE (están aparte); y listado de egresados
extranjeros.
94
! Se señalan debilidades al programa sin aclarar las causas o si la responsabilidad es del
centro auspiciador del programa o ajena a este.
! No correspondencia, en contenido, entre las debilidades situadas y las recomendaciones
hechas por los evaluadores.
! No correspondencia de la cantidad de las debilidades situadas y las recomendaciones
hechas. Estas están por debajo o están ausentes totalmente.
! Se sitúan como debilidades aspectos que realmente no lo son, sino más bien son los
motivos o las causas de las posibles debilidades que se plantean.
! No coincidencia entre las debilidades señaladas por la CE y el CTE; este último aporta
“debilidades nuevas” sin haber realizado la evaluación externa in situ.
! Contradicción entre las debilidades situadas y la información recogida en las entrevistas
que no respaldan los señalamientos.
! Se sitúan debilidades que no se corresponden totalmente con la realidad del programa
! Se sitúan debilidades al programa por la CE que entran en contradicción con las
conclusiones dadas.
! La redacción de las debilidades señaladas por la CE fue modificada por el CTE en su
dictamen
! Se omiten debilidades situadas por la CE en el Dictamen del CTE
! Se sitúan varias debilidades que refieren a un mismo aspecto
! No se hacen recomendaciones
! Se señalan aspectos que más que una debilidad son recomendaciones y no queda claro cuál
es el aspecto negativo del programa. No se tiene claro qué es una “debilidad”. Si es un
aspecto con el que no cumple el programa para llegar a lo establecido por la Guía de
Evaluación para obtener excelencia o aquel aspecto que no se tiene.
! Se sitúan como debilidades aspectos que no tienen que ver directamente con el programa,
sino con la política o proyección del centro empleador de los estudiantes y egresados.
! En el informe de la CE se plantean debilidades que en el Dictamen del CTE aparecen
como fortalezas.
! Se sitúan debilidades en apartado si ser consideradas dentro del conjunto de las debilidades
determinadas y sí son debilidades.
! Error de suma (total) de la puntuación dada en el Informe final de la CE: por encima (2
procesos) o por debajo (4 procesos).
! Error de suma (total) de la puntuación dada en el Dictamen del CTE (3 procesos).
! No coincidencia de la puntuación otorgada en el Informe final de la CE y en el Dictamen
del CTE: el CTE otorga una mayor (6 procesos) o menor puntuación (1 proceso).
! Se otorga una puntuación no adecuada en correspondencia con las debilidades señaladas
en l variable (1 proceso).
! Se dejan de otorgar todos los puntos y no se sitúan debilidades en la variable en el
dictamen del CTE (1 proceso)
95
! No cumplimiento de aspectos formales: no aparece la fecha del proceso y ausencia de la
firma del coordinador del CTE.
! No exhaustividad del contenido: no descripción del proceso de evaluación externa (en
todos los casos) , del clima del proceso, de las actividades realizadas por los evaluadores
(en todos los casos ), ni del contexto del programa ; no aparecen recomendaciones (3
procesos).
96
Tabla 42. Debilidades detectadas en los procesos de evaluación externa estudiados en
todas las etapas y su correspondencia con las dimensiones determinadas para las
entrevistas.
97
2-Elaboración de 2-200-1,2-2000-
los informes No descripción de visitas realizadas, contexto, clima del proceso 4,3021,3023,3022,3024,3027,
finales por la CE 3028, 3029, 30210, 4032,4033
2.1.No exhaustividad
del contenido
No referencia a los resultados de las entrevistas y encuestas realizadas. 2-2001-8,3022,3026,3028, 3029
No referencia a las fuentes de información 2-2000-4
No referencia al cronograma de trabajo 3022, 3023,3024
No aclara aspectos señalados al programa como debilidades 3023
No aparece la propuesta del nivel de certificación 4032,4033
No aparece valoración de los expedientes de los estudiantes revisados. 4031
No claridad en la edición que se evalúa o en la que se concentra la evaluación externa. 2-2000-1
Referencia de resultados de entrevistas sin diferenciar los aspectos que se valoran según los 3021
entrevistados (egresados, cursistas, profesores)
Utilización de terminología indistintamente por los evaluadores. 3021
Utilización de categorías valorativas por los evaluadores que por su carga subjetiva no 3023 (“suficiente”)
aclaran o respaldan la puntuación otorgada.
2.2 No cumplimiento No aparece fecha de elaboración del informe. 3022, 3023, 3025,3027, 3028
de aspectos formales No aparece la fecha del proceso de evaluación 2-2000-1, 2-2000-4, 3021
No aparece el título del programa 3021
Sin firma de los evaluadores 2-2000-1,2-2000-4,3022,3023,3024,
3025,3026, 4032,4033
Con firma de alguno de los evaluadores 2-2000-3, 2-2000-5, 3021, 30210
Sin firma de los evaluados 2-2000-4, 2-2000-5, 3022,3024
3025,3027,3028, 30210, 4032,4033
Con firma de alguno de los evaluados 3021
Sin formato definido 2-2000-4
No aparece puntuación por variables 2-2000-1, 2-2000-5
No aparece puntuación general 3023,3028,3029
Puntuación aparece aparte del informe 2-2000-4
2.3 No uniformidad
en la extensión de los
informes.
98
Dimensiones Proceso
3.Determinación de debilidades al programa.
3.1 Determinación de debilidades al programa sin aclarar las causas de las mismas ni de quién es la responsabilidad ya sea 2-200-1, 3022
del centro o ajena a este.
3.2. No correspondencia de la cantidad de debilidades situadas al programa con las recomendaciones sugeridas por 2-2000-1, 2-200-3, 2-2000-4,
evaluadores. Estas se quedan por debajo o están ausentes totalmente. 2-2000-5, 3022, 3025,3027,4033
3.3 Determinación de debilidades en aspectos que realmente no lo son, mas bien son los motivos o causas de las posibles 2-2000-3, 2-2000-5, 3025
debilidades que pudieran derivarse de ellos.
3.4 No coincidencia en debilidades determinadas por la CE y el CTE (este sitúa debilidades nuevas) 2-2001-7, 2-2001-8, 4032
3.5. Contradicción entre las debilidades situadas y la información recogida en las entrevistas que no respaldan a las 3021
primeras.
3.6 Varias debilidades señaladas a un mismo aspecto 3022
3.7 Se redactan las debilidades de forma tal que son recomendaciones y no queda claro cuál es el aspecto negativo del 3023,3024,3025, 4032
programa. (No se tiene claro qué significa “debilidad” si es un aspecto que no se cumple para llegar a lo establecido por la
Guía como excelencia o el aspecto que no se cumple por no tenerse.)
3.8. Se sitúan aspectos deficientes en apartado y no dentro del conjunto de las debilidades determinadas y realmente sí son 3023
debilidades
3.9. Se determinan debilidades a aspectos que no tienen que ver directamente con el programa sino con la política o la 3024
proyección del centro empleador del maestrante
3.10. Se determinan debilidades al programa que no se corresponden totalmente con la realidad del mismo ( en la práctica) 3027, 4033
3.11.Se determinan debilidades que entran en contradicción con las conclusiones dadas por la misma CE 3029
3.12.En el dictamen del CTE se encuentran debilidades determinadas por la CE pero modificadas en su redacción 4032
3.13 En el dictamen del CTE no aparecen debilidades determinadas por loa CE 4032
3.14 No se hacen recomendaciones 3022
3.15 En el informe de la CE se plantean debilidades que en el dictamen del CTE aparecen como fortalezas 3023
3.16 No correspondencia en contenido entre las debilidades situadas y las recomendaciones hechas por los evaluadores 4033
4.Otorgamiento de la puntuación en el Informe Final de la CE y el Dictamen del CTE
4.1Error de suma de los puntos por los evaluadores Por encima 3024, 3028
Por debajo:3029,30210,4032, 4033
4.2.Error de suma en al Dictamen del CTE 3021, ,3026,30210
4.3.No coincidencia de la puntuación entre el Informe Final de la CE y el Dictamen del CTE. 3021,3022,3023,3026,3027, 3028
4.4.El CTE otorga más puntuación que la CE 3022,3023,3028,30210,4033,4031
4.5 El CTE otorga menos puntuación que la CE 4033
4.6.Se otorga puntuación no adecuada en correspondencia con las debilidades determinadas en la variable 4031
4.7.No se otorgan todos los puntos en variables sin el respaldo de debilidades situadas 3026 (Dictamen del CTE)
99
Dimensiones Aspectos Procesos
5.Elaboración del Dictamen del
CTE
5.1 No exhaustividad del contenido No aparecen recomendaciones 3022, 3023,4033
No descripción del proceso de evaluación externa General para todos Ej. 3023
No descripción del clima del proceso. General para todos Ej. 3023
No descripción del contexto del programa. General para todo Ej. 3023
No descripción de las actividades de los evaluadores. General para todos Ej. 3023
No aparecen recomendaciones 3022,3023,4033
5.1Aspectos formales No fecha del proceso 3022
No firma del coordinador del CTE ni sus miembros 3023,3026,3028,
4031,4032, 4033
6.Determinación de la Programas sujetos a proceso de evaluación externa sin cumplir con el % de 3028, 3029
evaluabilidad doctores estipulados o con dudas al respecto.
Programas sujetos a proceso de evaluación externa con documentación 4031
entregada deficiente.
Programas sujetos a proceso de evaluación externa y después en la JAN han 3021,3022, 3029, 30210
surgido dudas para las conclusiones o no han sido acreditados por lo que han
sido sometidos a procesos de complementación.
7.Falta de consenso en las Existencia de dos informes finales de la CE con criterios divididos. 3026, 4032
conclusiones de la CE o mal
trabajo en equipo de los
evaluadores
8. Conclusiones y resultados de
los procesos
8.1 Correspondencia de la puntuación Cuando la puntuación recibida es adecuada para un nivel de acreditación 2-2001-7,
recibida por la Guía y el nivel de determinado y no hay indicadores invalidantes desaprobados pero se otorga un 3022,3027,3029,30210,
acreditación recibido nivel menor de acreditación. 4031
Cuando la puntuación recibida es alta, la acreditación otorgada es alta pero hay 2-20001-8,3024
indicadores invalidantes desaprobados
8.2 No coincidencia en el nivel de 3022 CE / (CTE +JAN), 3027 (CE+CTE) / JAN
acreditación otorgado por la CE, CTE 3029 (CE+CTE) / JAN, 30210 (CE+CTE) / JAN
y la JAN 4032 CE / CTE / JAN
8.3 Contradicciones entre la CE y la Se plantean aspectos como debilidad por la CE y 3023
CTE como fortaleza por el CTE
100
Dimensiones Aspectos Procesos
9.Procesos de complemen- Proceso de complementación donde participó un evaluador que había participado en la 3021
tación y apelación evaluación externa primaria
10. Trabajo de los No presencia física de todos los evaluadores en los días de trabajo . 3026
evaluadores No amplia comunicación entre evaluadores y evaluados 3029
Deficiencias en el procesamiento de la información 3029
11.Participación del experto Ausencia del experto en el proceso 3023,3027,3029
del CTE en el proceso Alternancia de expertos del CTE en un mismo proceso 4032
12.Toma de decisiones Por parte del CTE cuando se reciben dos informes de la CE 3026
Tabla 43. Cantidad de debilidades detectadas por las variables de la Guía de Evaluación
Variables 1 2 3 4 5 6
Procesos
Variables donde se detectaron problemas en general en los procesos de evaluación 2 1 5 5 4 3
externa cometido por los evaluadores
Variables donde se situaron debilidades por los evaluadores 15 7 15 18 14 16
Variables donde se situaron debilidades por el CTE 4 4 2 9 6 9
Variables con problemas de puntuación
101
Gráfico 5. Incidencias y debilidades situadas en los procesos analizados
Incidencias en general
18
16
14 Debilidades situadas
por evaluadores
12
10 Debilidades situadas
8 por el CTE
6
Problemas de
4
puntuación
2
0 Indicadores
1 2 3 4 5 6 invalidantes
desaprobados
102
Modelo. Ficha Técnica de los procesos de evaluación externa realizada a los
programas de maestrías.
Código
1-Datos generales
Fecha del proceso Duración (días) # Evaluadores # Experto del CTE
Varia- Informe Comisión % del Invali- Informe Comité Técnico % del Invali-
bles Evaluadora (CE) total dantes Evaluador (CTE) total dantes
1
2
3
4
5
6
Total
103
5-Debilidades detectadas por variables al programa en la evaluación externa
104
Tabla 44. Deficiencias factibles en los procesos de evaluacion externa y en su
regulaciones según la política evaluativa, la metodología, aspectos éticos y la
información recepcionada
Entre los aspectos éticos se pudieran detectar Deficiencias relacionadas con la información
deficiencias relacionadas con: ! Selección adecuada de las personas a entrevistar por
su confiabilidad.
! Cumplimiento por los evaluadores ! Riqueza de la información aportada por los
seleccionados con las aptitudes y actitudes encuestados y entrevistados
establecidas para ejercer como tales ! Calidad de la documentación presentada por los
! Cumplimento de lo establecido para la evaluados.
selección de los evaluadores ! Existencia de documentos adecuados para la
! Confiabilidad de la información brindada recogida de la información.
por los evalaudos ! Calidad de los cuestionarios utilizados por los
evaluadores.
! Calidad del informe final de los evaluadores
105
Tabla 45. Aspectos metaevaluables según las etapas de la evaluación externa
106
Tabla 46. Aspectos metaevaluables según los momentos del proceso de evaluación
externa
107
Momento II Momento III : PASOS Diseño 1
Posibles defi- 1-Por etapas 2-Por momentos del proceso de 3-Por los ámbitos de la evaluación Variable 1
ciencias en: de la evaluación evaluación Pertinencia de la evaluación
Política Determinación Suficiencia Pertinencia Variable 2
evaluativa de la evaluabilidad Impacto Suficiencia de la evaluación
del programa Inicial
Suficiencia
Social
Pertinencia
Eficiencia
Eficacia
Determinación Equidad Efectividad Variable 3
Aspectos de los actores Transparencia Equidad de la evaluación
metodoló- de la evaluación Desarro Organización Gestión Político Legitimidad
gicos llo y
Recursos Transferibilidad
Recursos
Marco Trascendencia
Definición Eficacia Eficacia Variable 4
Información del plan de Organización y recursos del
recogida evaluación y Eficiencia Institucio- Eficiencia proceso
organización Final nal Equidad
del trabajo Efectividad Gestión / Recursos / Marco
de los evaluadores Impacto Trascendencia
Trascendencia
Recogida Fundamento teórico del Variable 5
Aspectos de datos e sistema Eficacia de la evaluación
éticos información Validez de la
Científico metodología del sistema
Validez del instrumento
evaluativo usado
Valoración e Variable 6
interpretación Efectividad de la evaluación
de datos e información
Redacción informe final Variable 7
Eficiencia de la evaluación
Difusión informe final Variable 8 Impacto y trascendencia
Tabla 47 Momentos del diseño de la variante 1 de la Guía de Metaevaluación
108
Tabla 48. Correlación de aspectos inherentes a los procesos de evaluación externa y acreditación con variables
identificadas durante el proceso de diseño de la Guía de Metaevaluación
109
Tabla 49. Variante 1 Guía de Metaevaluación: Total de puntos 180
1.1 Realización en cumplimiento de una solicitud ya sea de algunas de las partes comprometidas con el
programa o de agentes externos al programa
1.2 Solicitud debidamente encauzada
1.3 Cumplimiento de los objetivos de la evaluación
1.4 Respuesta a los objetivos previstos por los demandantes
1.5 Implementación en el momento establecido en la demanda
1.6 Adecuación al contexto en que se desarrolla el programa evaluado
VARIABLE 2 SUFICIENCIA DE LA EVALUACIÓN
TOTAL DE PUNTOS 25
INDICADORES PUNTAJE
2.1 Adecuación del proceso al diseño de la evaluación previsto en cuanto a su organización
2.2 Adecuación a los aspectos contemplados en el instrumento evaluativo
2.3 Cambios efectuados con respecto a la planificación inicial debidamente justificados e informados.
VARIABLE 3 EQUIDAD DE LA EVALUACIÓN.
TOTAL DE PUNTOS 10
INDICADORES PUNTAJE
3.1 Nivel de participación de los comprometidos con el programa: directivos, profesores y estudiantes.
3.2 Nivel de participación de agentes externos intervinientes en el programa: empleadores y egresados.
3.3 Identificación de las audiencias destinatarias de los resultados
VARIABLE 4 ORGANIZACIÓN Y RECURSOS
TOTAL DE PUNTOS 30
INDICADORES PUNTAJE
4.1 GESTION
4.1.1 Apoyo logístico brindado por la institución para propiciar condiciones de convivencia de los
evaluadores dentro del contexto en que se desarrolla la evaluación
4.1.2 Apoyo logístico de la institución para el desplazamiento de los evaluadores
4.1.3 Personal de apoyo para facilitar las acciones de los evaluadores
4.2 RECURSOS
4.2.1 Disponibilidad de medios de cómputo
4.2.2 Disponibilidad de recursos materiales
4.2.3 Disponibilidad de locales de trabajo
4. 3 MARCO
4.3.1 Clima favorable al proceso
4.3.2 Comunicación entre las partes
4.3.3 Coordinación del trabajo entre las partes
4.3.4 Libertad de acción de los evaluadores
110
evaluativo.
6.1.2 Contiene descripción del objeto evaluado y su contexto
6.1.3 Contiene propósitos (objetivos) de la evaluación
6.1.4 Contiene los procedimientos desarrollados para el acopio de datos e información
6.1.5 Contiene descritas las fuentes de información
6.1.6 Contiene descritos los medios y técnicas utilizados para la elaboración e interpretación
de la información recogida
6.1.7 Contiene los resultados de la evaluación (debilidades, fortalezas del programa)
6.1.8 Contiene las recomendaciones de los evaluadores para la posterior toma de decisiones:
mejora del programa, continuar o cerrar el programa.
6.1.9 Imparcialidad de la información
6.2 Difusión y presentación del informe
6.2.1 Discusión previa del informe con los evaluados
6.2.3 Aceptación del informe por los evaluados
6.2.3 Difusión del informe en tiempo y forma
6.2.4 Presentación del informe a las audiencias
6.2.5 Aceptación del informe por las audiencias
6.2.6 Recogida por los evaluadores de las sugerencias hechas por las audiencias
111
FORMULARIOS PARA LA REALIZACIÓN DE LAS ENTREVISTAS
Fecha __________________
Relación directa con los procesos de evaluación y de acreditación. Sí_______No_______
Introducción
Soy M.Sc. Ileana Dopico Mateo profesora de la Universidad de La Habana que actualmente está
realizando un estudio sobre los procesos de evaluación externa realizados hasta el momento a los
programas de maestría con el propósito de elevar la calidad de la evaluación y acreditación de
programas en la Educación Superior. Sus criterios y opiniones son de vital importancia para este
estudio. La información que brinde estará amparada por el principio del anonimato.
Gracias por su atención
112
8. Opine si la difusión de los resultados de los procesos de evaluación y acreditación
ayudaría:
$ A la mejora de los programas. Sí______ No_____ ¿Por qué?
$ A una mayor demanda de los programas. Sí______ No_____¿Por qué?
113
FORMULARIO 2. ENTREVISTAS A EVALUADORES
Identificación Sí No Cantidad
Miembros del Comité Académico
Directivos de la institución auspiciadora
Profesores
Estudiantes
Egresados
Empleadores
114
7.10. ¿Cómo usted caracterizaría los formularios que le fueron entregados para su aplicación
en las entrevistas durante el proceso?
7.11. Opine sobre:
Identificación Sí No Cantidad
Miembros del Comité Académico
Directivos de la institución auspiciadora
Profesores
Estudiantes
Egresados
Empleadores
7.15.¿Participó usted en la reunión con el CTE para el análisis de los resultados del proceso
evaluativo? Sí_____ No_______ ¿Por qué?
7.16.¿Las conclusiones a las que arribaron los evaluadores coincidieron con las dictaminadas
por el CTE?
Sí________ Parcialmente________ No__________ No sé____________
7.17.¿La propuesta de calificación otorgada por los evaluadores coincidió con la otorgada por
la JAN? Sí________ Parcialmente________ No__________ No sé____________
115
a) La independencia en su actuación durante el proceso
b) Al peso de sus consideraciones para las conclusiones del proceso.
c) A la posterior toma de decisiones
a) Su necesidad
b) Su imparcialidad durante el proceso
c) Influencia en las conclusiones del proceso de acreditación.
10. Según su opinión, ¿qué aspectos usted perfeccionaría en los procesos de evaluación de
programas de maestrías que se llevan a cabo?
11. Según su opinión, ¿qué aspectos usted perfeccionaría en los procesos de acreditación de
programas de maestrías que se llevan a cabo?.
15. Según su consideración, ¿qué necesitarían los evaluadores para realizar su trabajo con
más calidad?.
116
FORMULARIO 3. Entrevistas a directivos del centro y del programa
Si Más/menos No
Con experiencia evaluativa
Especialista de la rama del programa
Con poder comunicativo
Dominio en el tratamiento de la información
Otros_____________________________________________________________
117
8. En relación con la institución o centro que auspicia el programa:¿Cómo considera la
organización del proceso evaluativo? Fundamente sólo si su respuesta está en los rangos de
poco suficiente, insuficiente y muy insuficiente:
9. Piense, no se apure: ¿Cómo calificaría usted el informe final presentado por los
evaluadores?.
10. Según su criterio, ¿considera usted que las audiencias identificadas como destinatarias
de los resultados de la evaluación fueron las adecuadas?. Mencione las audiencias
identificadas. Si______ No______
11. ¿Considera usted que en el proceso de evaluación el nivel de participación (profesores,
estudiantes, egresados, empleadores, directivos de diferentes niveles) fue Alto_______
Medio________ Bajo______ o Nulo______?
12. En su criterio, ¿calificaría usted los resultados de la evaluación como Objetivos______
Poco objetivos_____ o Parcializados_______?
13. Si usted está en desacuerdo con algunos de los resultados negativos (debilidades)
determinados por el proceso evaluativo, por favor, menciónelos y explique brevemente su
desacuerdo.¿Por qué?
14. Mencione tres aspectos positivos y tres negativos que permitan hablar de impacto de la
evaluación (cambios al programa después del proceso evaluativo ) realizada para los intereses del
centro y del programa.
15. Mencione tres aspectos positivos y tres negativos que permitan hablar de trascendencia de
la evaluación realizada para los intereses del centro y del programa.
16. Según su opinión, ¿después de conocerse los resultados de la evaluación puede decirse que
la demanda por el programa: a) aumentó_____ b) disminuyó_____ o c) se mantiene
118
Tabla 50 Acopio en tablas Excel de la información obtenida sobre procesos de
evaluación y acreditación analizados (ejemplo)
120
10,7 Balance anual del trabajo científico-técnico
10,8 Resumen sobre características de bibliografía No
10,9 Dictamen de aprobación del programa No
10,1 Dictamen sobre cambios en el programa No Si
10,1 Listado de profesores y tutores
10,1 Participación de profesores en eventos Si Si
10,1 Curriculum de profesores Si Si
10,1 Listado de egresados extranjeros por edic.
10,2 Valoración revisión expedientes de estudiantes
10,2 Valoración tesis revisadas
11 CRONOGRAMA DE ACTIVIDADES DE LA C.E No No Si
12 INFORME DE LA COMISION EVALUADORA No Si Si Si
13 DICTAMEN DEL CTE EN EXPEDIENTE Si Si Si
14 Acreditación propuesta por la CE
No
15 Acreditación propuesta por el CTE acredit. No acredit. Acreditada
No
16 Acreditación propuesta por la JAN Acredit. acredit. No acredit. Acredit.
17 APELACIÓN
Observaciones.
Los documentos del 2 al 7 obligatorios según
Procedimiento para la solicitud de Acreditación
de maestrías en Cuba por el SEA-M
121
Fecha del proceso SI
Descripción actividades eval. SI
Descripción del objeto evaluado SI
Descripción del contexto
Evaluaciones anteriores
Sobre el clima del proceso
Sobre condiciones materiales
proceso
Sólo firma presidente comisión
Firma coordinador del CTE SI SI NO
Sobre muestra escogida
Visitas realizadas
Fecha de elaboración
122
5.1 (Inval) (2) 1 ( R) 2 ( C/E) 1.5 ( C)
5,2 1 0,5 0,5
5.3 (Inval 5.3.1 )(2) 2 (E) 2 ( E) 2 ( E)
5,4 3 2 3
5,5 0 0 0
Invalidantes NO NO NO
Variable 6 (15) 12 11 13,5
6.1 (Inval) (2) 2 ( C/ E) 2( C/ E) 2( C/ E)
6,2 2 0,5 2
6,3 1 1 1
6,4 0 0,5 1
6.5 (Inval) (3) 2 (R / C ) 2 (R / C ) 3 (E)
6.6 (Inval) (3) 2(R / C ) 2 (R / C ) 2 (R / C )
6,7 1 1 0,5
6,8 2 2 2
Invalidantes NO NO NO
Calificación general NO APARECE 67 83 94,5
No No
Propuesta de acreditación ACREDITADO acredit. acredit. Acredit
Coherencia
Objetividad
Imparcialidad
Lenguaje
Observaciones: el dictamen es firmado por el
coordinador del CTE
o tiene su pie de firma
Leyenda
Diferencia de puntuación
Casillas en blanco = No o que no se tiene la
información
123
6,3 Mención que se evalúa
6,4 Por variables SI SI Si
6,5 Por Fortalezas y debilidades Si
6,6 Conclusiones Si SI Si
7 Contenido general
7,1 Fortalezas definidas Si Si Si
7,2 Debilidades definidas Si Si Si
7,3 Recomendaciones/ aspectos
7,4 Recomendaciones generales Si
7,5 Eval. cuantitativa / variable Si Si Si
7,6 Eval.cuantitativa final Si Si
7,7 Fecha del proceso Si Si
7,8 Descripción actividades eval. Si Si Si
7,9 Descripción del objeto evaluado Si Si Si
7,1 Descripción del contexto
7,11 Evaluaciones anteriores
7,12 Sobre el clima del proceso
7,13 Sobre condiciones materiales
proceso
7,14 Firmas todos los evaluadores solo 2 No Si
7,15 Sólo firma presidente comisión
7,16 Firma director/decano
7,17 Firma coordinador del CA
7,18 Revisión de documentos/cuáles?
7,19 Sobre muestra escogida
7,2 Visitas realizadas
7,21 Fecha de elaboración
7,22 Sobre encuestas 26
cursistas 12
egresados 14
directivos institucional
miembros CA
profesores y tutores
empleadores
7,23 Sobre entrevistas 16 Si / 4
cursistas 3
egresados 4
directivos institucional 1
miembros CA 4 1
profesores y tutores 2 1
empleadores 3 1
8 Calificación por variables
Variable 1 (15) 13 11 13,5
1.1 (Inval) (5) 5 (E) 5 (E) 5 (E)
1,2 3 2 2,5
124
1.3(Inval) (6) 5(C) 4 ( R) 6 (E)
Invalidantes NO NO NO
Variable 2 (14) 14 9,5 14
2,1 1 0 1
2,2 2 1,5 2
2.3 (Inval) (5) 5 ( E) 4(C) 4(C)
2.4 (Inval) (3) 2 ( C) 2 ( C) 3 (E)
2,5 2 1 2
2,6 2 1 2
Invalidantes NO NO NO
Variable 3 (30) 5 26 26
3.1 (Inval. 100%) (15) 0 15 ( E) 15 ( E)
3,2 0 4 5
3,3 2 2 2
3,4 1 2 1
3,5 2 3 3
Invalidantes SI NO NO
Variable 4 (25) 17 18,5 20
4.1 (Inval) (7) 5 ( C) 6 ( C/ E) 5 ( C)
4.2 (Inval) (7) 5 ( C) 5(C) 6 ( C/ E)
4,3 2 3 3
4,4 2 2 2
4,5 1 0,5 0,5
4,6 1 1 2,5
4,7 1 1 1
Invalidantes NO NO NO
Variable 5 (10) 7 6,5 8
5.1 (Inval) (2) 1 ( R) 2 ( C/E) 1.5 ( C)
5,2 1 0,5 0,5
5.3 (Inval 5.3.1 )(2) 2 (E) 2 ( E) 2 ( E)
5,4 3 2 4
5,5 0 0 0
Invalidantes NO NO NO
Variable 6 (15) 12 11 13,5
6.1 (Inval) (2) 2 ( C/ E) 2( C/ E) 2( C/ E)
6,2 2 0,5 2
6,3 1 1 1
6,4 0 0,5 1
6.5 (Inval) (3) 2 (R / C ) 2 (R / C ) 3 (E)
6.6 (Inval) (3) 2(R / C ) 2 (R / C ) 2 (R / C )
6,7 1 1 0,5
6,8 2 2 2
Invalidantes NO NO NO
Calificación general 68 82,5 95
Propuesta de acreditación Pendiente Acreditada Acredit/Exc
125
8 Coherencia
9 Objetividad
10 Imparcialidad
11 Lenguaje
12 Observaciones
126