A
Lo que un programa HACE con sus insumos para producir productos; el trabajo directo o servicios entregados.
A structured, time-bound reflection process conducted immediately after a specific activity or milestone to capture what was planned, what happened, why the difference, and what should change.
Un conjunto estructurado de preguntas de aprendizaje prioritarias que guían la indagación sistemática durante toda la implementación del programa, convirtiendo los datos de monitoreo en conocimiento accionable para la toma de decisiones.
Un documento que especifica lo que un evaluador o consultor entregará, dentro de qué plazo, presupuesto y restricciones.
El examen sistemático de los resultados para determinar si un programa alcanzó sus resultados pretendidos, distinguiendo entre resultados esperados e inesperados, y evaluando la significancia y sostenibilidad de los cambios observados.
Un enfoque sistemático para analizar contenido de comunicación, identificando patrones, temas y sesgos en datos de texto, audio o vídeo mediante codificación estructurada.
Un enfoque estructurado para construir un caso creíble sobre cómo y por qué un programa contribuyó a los resultados observados, sin requerir atribución experimental.
Un enfoque sistemático para comparar los costos y resultados de intervenciones alternativas para identificar cuál ofrece la mejor relación calidad-precio en el logro de objetivos específicos.
Un proceso estructurado para identificar a todas las partes con interés en un programa, mapear sus roles, influencia y necesidades de información, e informar cómo el M&E debe involucrarlas.
Un método sistemático para identificar, analizar y reportar patrones (temas) en datos cualitativos mediante codificación y categorización.
El proceso sistemático de recopilar evidencia, reflexionar sobre ella y utilizarla para mejorar la estrategia del programa y la implementación.
El proceso sistemático mediante el cual una organización captura, analiza y aplica lecciones de la experiencia para mejorar el desempeño del programa y la toma de decisiones.
Un proceso sistemático para verificar que los datos recopilados cumplen con cinco dimensiones de calidad: Validez, Integridad, Precisión, Fiabilidad y Oportunidad, asegurando que los datos sean idóneos para la toma de decisiones.
La distinción entre probar que un programa causó directamente resultados (atribución) frente a construir un caso creíble de que contribuyó a los resultados junto con otros factores (contribución).
Las auditorías examinan el cumplimiento financiero y normativo; las evaluaciones valoran la eficacia y el impacto de los programas.
B
Una persona, hogar u organización que recibe beneficios directos de las actividades o productos de un programa.
C
La jerarquía secuencial del cambio desde las actividades a través de productos, resultados e impacto que muestra cómo se espera que un programa genere cambio.
Un enfoque de monitoreo participativo cualitativo que recopila y selecciona sistemáticamente historias de cambio para identificar y compartir los resultados más significativos de un programa.
El tiempo total, esfuerzo y recursos requeridos de los respondientes e implementadores para completar las actividades de Recolección de Datos, equilibrado con las necesidades de Calidad de los Datos y la capacidad del Programa.
The process of determining whether an intervention caused observed outcomes by establishing a credible counterfactual and ruling out alternative explanations.
La elección entre medir cada unidad en una población (censo) frente a seleccionar un subconjunto (muestra) determina el costo, la precisión y las inferencias que puede hacer sobre su programa.
Un proceso estructurado para recopilar, analizar y actuar sobre la información para mejorar el desempeño y los resultados del programa.
Períodos estructurados y recurrentes de reflexión y adaptación donde los equipos del programa revisan datos, extraen lecciones y ajustan la implementación en consecuencia.
Marco de USAID para integrar la colaboración, el aprendizaje y la adaptación en el diseño y la gestión del programa.
A composite indicator combines multiple individual indicators into a single index or score, enabling measurement of multidimensional concepts that cannot be captured by a single metric.
Extraneous variables that correlate with both the intervention and the outcome, creating spurious associations that threaten causal inference in evaluation.
La comparación entre lo que sucedió y lo que habría sucedido en ausencia de una intervención, la base fundamental para establecer la atribución causal en una evaluación de impacto.
Un enfoque de evaluación retrospectiva que identifica, verifica y analiza resultados que han ocurrido, luego determina si y cómo el programa contribuyó a ellos.
El marco OCDE-CAD proporciona cinco criterios estándar —relevancia, eficiencia, eficacia, impacto y sostenibilidad— para evaluar sistemáticamente el mérito y el valor de las intervenciones de desarrollo.
D
Información no numérica capturada a través de palabras, imágenes u observaciones que revela el cómo y el porqué detrás de los resultados del programa, proporcionando profundidad y contexto a los hallazgos cuantitativos.
Datos numéricos recolectados mediante medición estructurada, que permite el análisis estadístico, la generalización y la comparación objetiva entre programas y contextos.
El desglose de datos agregados por características de subgrupos, como sexo, edad, ubicación o estado de vulnerabilidad, para revelar inequidades y diferencias en el alcance y los resultados del programa.
Una familia de diseños de evaluación que estiman efectos causales del programa sin asignación aleatoria, utilizando métodos estadísticos para construir grupos de comparación creíbles.
El proceso de diseñar cuestionarios estructurados y protocolos de encuesta para recopilar datos confiables, válidos y accionables de una población definida.
Un enfoque estructurado para recopilar datos de condiciones iniciales que informa directamente las decisiones del proyecto, minimiza la carga y permite una comparación válida con las mediciones de línea final.
Un enfoque estructurado para construir la infraestructura organizacional, los procesos y las capacidades necesarios para recopilar, analizar y utilizar datos de M&E para la toma de decisiones durante todo el ciclo de vida de un programa.
Active, intentional process of sharing M&E findings with relevant audiences to promote understanding, learning, and evidence use.
E
El proceso de comunicar sistemáticamente el progreso del programa, los resultados y la información financiera a las organizaciones financiadoras según sus requisitos y plazos específicos.
Un diseño de evaluación experimental que asigna aleatoriamente participantes a grupos de tratamiento y control para establecer la atribución causal entre una intervención y los resultados observados.
Entrevistas en profundidad, semiestructuradas con individuos seleccionados por su conocimiento específico, experiencia o perspectivas relevantes para las preguntas de la evaluación.
El proceso de establecer referentes de desempeño específicos y con plazos definidos con los cuales se medirá el progreso y los logros del programa.
Enfoques intencionales para compartir hallazgos de M&E e información del programa con las partes interesadas para influir en las decisiones, fortalecer la rendición de cuentas y promover el aprendizaje.
Un enfoque de evaluación estructurado que utiliza criterios predefinidos y niveles de desempeño para evaluar sistemáticamente programas, proyectos o intervenciones contra estándares establecidos.
Un enfoque de evaluación en el que cada decisión de diseño está impulsada por las necesidades de los usuarios primarios previstos, las personas específicas que realmente utilizarán los hallazgos para tomar decisiones específicas.
Una evaluación centrada en evaluar la probidad financiera, los controles internos y el cumplimiento de las regulaciones financieras y los estándares de contratación.
Una evaluación centrada en evaluar si un programa cumple con los requisitos y estándares legales, regulatorios, de donantes y organizacionales.
Un enfoque de autoevaluación donde los participantes del programa evalúan sistemáticamente su propio trabajo para mejorar los programas y asegurar la apropiación futura.
Una revisión preliminar de si un programa está suficientemente maduro y documentado para ser evaluado de manera significativa.
Un enfoque riguroso de evaluación que mide el efecto causal de un programa sobre los resultados comparando lo que ocurrió con lo que habría ocurrido en su ausencia.
Un enfoque de evaluación que combina sistemáticamente datos cuantitativos y cualitativos para proporcionar una comprensión más completa de los efectos, mecanismos y contexto del programa.
Un proceso sistemático para identificar y analizar brechas entre las condiciones actuales y los resultados deseados, estableciendo la base de evidencia para el diseño del programa y la selección de indicadores.
Evaluación de cómo se implementa un programa, si las actividades se entregan según lo planificado y cumplen con los estándares de calidad previstos.
Una evaluación centrada en determinar si un programa está cumpliendo con sus obligaciones con las partes interesadas, incluyendo donantes, beneficiarios y organismos reguladores.
Evaluación de los beneficios continuados y la funcionalidad de un programa después de que ha finalizado la financiación externa, examinando si los resultados persisten y los sistemas permanecen operativos.
Un enfoque de evaluación diseñado para programas complejos y adaptativos en los que los objetivos y procesos son emergentes, y el evaluador trabaja junto al equipo del programa como un socio de aprendizaje incorporado.
Una evaluación de qué tan bien un programa u organización está logrando sus resultados previstos y operando eficientemente frente a los estándares y metas establecidos.
Un enfoque de evaluación realizado durante la implementación del programa para proporcionar retroalimentación inmediata para la gestión adaptativa y las correcciones de curso.
La dimensión temporal de la evaluación: la ex-ante ocurre antes de la implementación para informar el diseño, mientras que la ex-post ocurre después de la finalización para evaluar resultados y lecciones.
La evaluación formativa mejora los programas durante la implementación; la evaluación sumativa juzga su mérito general después de la finalización.
Un enfoque de evaluación que involucra activamente a las partes interesadas y beneficiarios en todas las etapas, desde el diseño hasta el uso de los hallazgos, asegurando la propiedad local y la relevancia.
Un enfoque de recolección de datos condensado diseñado para generar información procesable rápidamente, utilizando típicamente métodos cualitativos y cuantitativos simplificados en contextos con restricciones de tiempo.
Enfoque de evaluación que pregunta qué funciona, para quién, en qué circunstancias y por qué, identificando los mecanismos a través de los cuales los programas producen resultados en contextos específicos.
F
El proceso de desarrollar habilidades, sistemas y relaciones que permiten a individuos y organizaciones alcanzar sus objetivos de desarrollo de manera sostenible.
El proceso de fortalecer el conocimiento, las habilidades, los sistemas y los recursos que las organizaciones y los individuos necesitan para diseñar, implementar y utilizar el monitoreo y la evaluación de manera efectiva.
G
Un enfoque de gestión que utiliza el aprendizaje continuo a partir de datos de monitoreo y evaluación para ajustar las estrategias y actividades del programa en respuesta a la evidencia o el contexto cambiantes.
Un enfoque de gestión que centra las decisiones, los recursos y la rendición de cuentas de la organización en lograr resultados definidos, utilizando evidencia del monitoreo y la evaluación.
Los procesos sistemáticos para la recolección, almacenamiento, seguridad y mantenimiento de la Calidad de los Datos a lo largo del ciclo de vida de los datos para asegurar que la información sea precisa, accesible y utilizable para la toma de decisiones.
El proceso sistemático de capturar, organizar y aplicar lecciones, evidencia e ideas de M&E a través de programas y a lo largo del tiempo para mejorar la toma de decisiones organizacional.
El uso sistemático de datos de monitoreo, hallazgos de evaluación y retroalimentación para guiar decisiones del programa, mejorar resultados y asegurar la rendición de cuentas a las partes interesadas.
Un método de recolección de datos cualitativos que reúne a 6-10 participantes para discutir un tema específico, generando perspectivas valiosas a través de la interacción grupal y experiencias compartidas.
H
Relatos narrativos que ilustran cómo un programa ha influido en las vidas de los beneficiarios, combinando resultados cuantitativos con experiencia humana cualitativa.
Un punto de control o evento intermedio significativo que señala el progreso hacia una meta, utilizado para rastrear si un programa está en el cronograma para lograr sus resultados previstos.
I
Efectos a largo plazo y de mayor nivel atribuibles o contribuidos por un programa; cambio más amplio más allá de los resultados individuales.
The first formal deliverable from an evaluation team, detailing refined methodology before primary data collection.
Una variable específica, observable y medible que monitorea el progreso hacia un resultado o producto.
La elección entre indicadores estándar proporcionados por donantes e indicadores personalizados específicos del programa, equilibrando los requisitos de cumplimiento con la relevancia contextual.
Medidas indirectas utilizadas cuando la medición directa del resultado previsto es imposible, poco práctica o demasiado costosa, requiriendo una validación cuidadosa para asegurar que representen con precisión el constructo objetivo.
Un marco de calidad para diseñar indicadores que sean Específicos, Medibles, Alcanzables, Relevantes y Temporales, asegurando que proporcionen datos confiables y accionables para la toma de decisiones.
Un documento periódico presentado por programas a donantes que detalla el progreso de la implementación, el rendimiento de los indicadores y los problemas clave.
Informes cualitativos, basados en historias, que contextualizan indicadores cuantitativos con explicaciones de qué sucedió, por qué sucedió y qué significa para el aprendizaje del programa y la toma de decisiones.
La recopilación, compilación y presentación sistemática de datos de indicadores para rastrear el rendimiento del programa y comunicar resultados a las partes interesadas y donantes.
Recursos invertidos en un programa (fondos, personal, materiales, tiempo) que permiten que las actividades se lleven a cabo.
K
The deliberate practice of capturing, organizing, and distributing insights, lessons, and best practices across teams and organizations to improve programme performance and avoid repeating mistakes.
L
Documented insights from programmes identifying what worked, what did not work, and why, with actionable specificity.
Datos de condiciones iniciales recopilados al inicio de un proyecto para establecer un punto de referencia para medir el cambio y establecer metas de indicadores.
Un punto final de recolección de datos al finalizar el programa que mide los resultados alcanzados contra los valores de línea de base y meta.
Un punto de recolección de datos realizado a mitad de un programa para evaluar la trayectoria y permitir decisiones adaptativas.
A systematic, critical synthesis of existing research on a specific topic, identifying what is known, gaps in knowledge, and evidence for programme design.
La cadena causal que conecta las actividades del programa con los resultados previstos, mostrando cómo y por qué se espera que un conjunto de intervenciones conduzca al cambio deseado.
El Muestreo de Evaluación de Calidad Lógica es un método rápido de toma de decisiones que clasifica programas o áreas como aprobado/no aprobado frente a un umbral, comúnmente utilizado para el monitoreo de programas de salud.
M
Un enfoque de monitoreo y evaluación que involucra activamente a las partes interesadas, especialmente los beneficiarios, en cada etapa, desde el diseño hasta el uso de los hallazgos para la toma de decisiones.
Un enfoque de monitoreo y evaluación que examina sistemáticamente cómo los programas afectan de manera diferente a mujeres, hombres, niñas y niños, y asegura que los procesos de M&E en sí mismos no refuercen las desigualdades de género.
Un enfoque participativo de planificación y monitoreo que rastrea cambios de comportamiento en las personas, grupos y organizaciones con las que un programa trabaja directamente, en lugar de resultados de desarrollo a largo plazo.
El documento estructurado que especifica qué se medirá, cómo, por quién y con qué frecuencia.
Colección estructurada de indicadores organizados por nivel de resultados que da seguimiento al rendimiento del programa a través de un portafolio, centrándose en lo que cambió en lugar de lo que se entregó.
Una matriz estructurada que resume el diseño de un proyecto, vinculando actividades a resultados esperados a través de una jerarquía clara de objetivos con indicadores, fuentes de verificación y supuestos.
Un documento de mapeo estructurado que vincula cada pregunta de evaluación con sus fuentes de datos, métodos de recopilación, indicadores y enfoque de análisis, sirviendo como el plan operativo para ejecutar una evaluación.
Los sistemas, procesos y estructuras que permiten a las organizaciones rendir cuentas a las partes interesadas, incluidas las comunidades, donantes y socios, por su desempeño, decisiones y uso de recursos.
Un enfoque sistemático y continuo para mejorar el desempeño del programa mediante aprendizaje iterativo, retroalimentación y adaptación.
Los principios y prácticas para producir informes de evaluación y monitoreo que sean claros, creíbles, accionables y adaptados a sus audiencias previstas.
El valor específico que se espera que alcance un indicador para una fecha definida, cuantificando cómo se ve el éxito.
La evaluación sistemática de la calidad de una evaluación, evaluando si cumplió con los estándares profesionales y produjo hallazgos creíbles y útiles.
Enfoques sistemáticos para seleccionar un subconjunto de una población para representar el todo, equilibrando la validez estadística con las limitaciones prácticas.
Un enfoque sistemático para recopilar datos observando y registrando directamente comportamientos, interacciones y procesos tal como ocurren en entornos naturales.
Seguimiento de si un programa se implementa de acuerdo con los estándares, políticas y requisitos legales acordados.
La recolección y análisis continuo de datos durante la implementación del programa para permitir la detección rápida de problemas y acción correctiva oportuna.
El monitoreo es el seguimiento continuo y sistemático de las actividades y productos del programa; la evaluación es la valoración periódica y en profundidad de los resultados, el impacto y la atribución causal.
Un método de muestreo probabilístico donde cada miembro de la población tiene una oportunidad conocida e igual de ser seleccionado, permitiendo la inferencia estadística a la población más amplia.
Un enfoque de muestreo no probabilístico donde los investigadores seleccionan deliberadamente a los participantes basándose en características o conocimientos específicos relevantes para los objetivos de la investigación.
Un método de muestreo que divide la población en conglomerados y selecciona aleatoriamente conglomerados enteros en lugar de individuos.
N
El uso estratégico de la narrativa para hacer que los hallazgos de M&E sean memorables, accionables e influyentes para los tomadores de decisiones y las partes interesadas.
El principio fundamental de M&E que establece que las actividades del programa y de evaluación no deben exponer a los participantes, comunidades o personal del programa a daños físicos, psicológicos, sociales o económicos, y deben identificar y mitigar activamente los riesgos de daño antes de que ocurran.
P
Una visualización de indicadores clave de monitoreo que permite una evaluación rápida del rendimiento del programa de un vistazo.
Interfaces de gestión visual que muestran indicadores clave de desempeño en tiempo real, permitiendo a los equipos de programa y partes interesadas monitorear el progreso, identificar problemas y tomar decisiones basadas en datos.
Un documento operativo detallado que traduce su marco lógico y teoría del cambio en requisitos de M&E accionables, especificando qué datos recopilar, cuándo, de quiénes y cómo se utilizarán.
Las preguntas abarcadoras que una evaluación investigará, distintas de las preguntas de encuesta o entrevista.
La porción del presupuesto de un programa dedicada a las actividades de monitoreo, evaluación y aprendizaje.
Primary data is collected firsthand for a specific purpose; secondary data is existing data repurposed for new analysis. Each has distinct trade-offs in cost, timeliness, and relevance.
Productos directos y tangibles de las actividades del programa; lo que el programa produce, no lo que ganan los beneficiarios.
The explicit articulation of how a programme is expected to produce change.
Un punto de referencia o valor estándar utilizado para medir el progreso, típicamente derivado de datos históricos, estándares de la industria o programas comparables.
R
Un método de análisis de caso único para inferencia causal que prueba si los mecanismos causales predichos por una Teoría del Cambio operaron realmente en un caso específico, utilizando evidencia sistemática para evaluar afirmaciones causales.
Structured gatherings where programme teams and stakeholders pause to examine what happened, why it happened, and what should change as a result.
The consistency and repeatability of a measurement, whether the same tool produces stable results across repeated applications, different raters, or different time periods.
La responsabilidad de ser transparente, informar y responder a las partes interesadas sobre el desempeño y las decisiones del programa.
Obligaciones de M&E especificadas en acuerdos de subvención y políticas de donantes que dan forma al diseño del sistema y a la Elaboración de Informes.
Cambios en el comportamiento, conocimiento, habilidades o condiciones resultantes de los productos del programa, experimentados por los beneficiarios.
Recolección sistemática y uso de insumo de los beneficiarios del programa sobre sus experiencias, necesidades y prioridades para mejorar la rendición de cuentas y la relevancia del programa.
Un enfoque riguroso y estructurado para identificar, valorar y sintetizar toda la evidencia disponible sobre una pregunta de evaluación específica utilizando métodos explícitos y reproducibles.
Factores externos que podrían impedir el éxito del programa y sus estrategias de mitigación planificadas.
S
El proceso sistemático de seleccionar y refinar indicadores de desempeño que sean específicos, medibles, alcanzables, relevantes y con un plazo definido para rastrear el progreso del programa de manera efectiva.
Error sistemático en la recolección de datos, análisis o interpretación que distorsiona los resultados y amenaza la validez de los hallazgos de M&E.
Una medida estadística que indica si los resultados observados son probablemente debidos a un efecto real en lugar del azar, típicamente evaluada mediante p-valores y prueba de hipótesis.
El proceso sistemático de identificar, seleccionar e integrar hallazgos de múltiples estudios para informar el diseño del programa, la evaluación y la toma de decisiones.
Marco de evaluación que asigna valores monetarios a resultados sociales para calcular el retorno de la inversión.
Condiciones fuera del control del programa que deben cumplirse para que el programa tenga éxito según lo planificado.
T
Una explicación estructurada de cómo y por qué se espera que un conjunto de actividades conduzca a resultados deseados, mapeando la lógica causal desde los insumos hasta el impacto.
Un documento formal que define el alcance, objetivos, metodología y requisitos para una evaluación, sirviendo como el contrato principal entre la organización comisionante y el equipo de evaluación.
Utilizar la evidencia de M&E para informar decisiones de programa, gestión y políticas en lugar de intuición o hábito.
Uso de múltiples fuentes de datos, métodos o perspectivas para contrastar hallazgos y fortalecer la validez de las conclusiones de la evaluación.
V
El grado en que una evaluación demuestra con precisión las relaciones causales (validez interna) y generaliza los hallazgos más allá del contexto del estudio (validez externa).
El equilibrio óptimo entre costo, calidad y resultados, logrando los mejores resultados con los recursos invertidos, evaluado a través de las 4E: economía, eficiencia, eficacia y equidad.
El uso estratégico de gráficos, paneles de control e infografías para comunicar datos de monitoreo a diversas partes interesadas, transformando números crudos en información accionable para la toma de decisiones.