La guía práctica de monitoreo, evaluación, rendición de cuentas y aprendizaje. Explore marcos, métodos y definiciones para profesionales de M&E.
Pilares
Marcos y metodologías principales
Análisis de Contribución
Un enfoque estructurado para construir un caso creíble sobre cómo y por qué un programa contribuyó a los resultados observados, sin requerir atribución experimental.
Cambio Más Significativo
Un enfoque de monitoreo participativo cualitativo que recopila y selecciona sistemáticamente historias de cambio para identificar y compartir los resultados más significativos de un programa.
Cosecha de Resultados
Un enfoque de evaluación retrospectiva que identifica, verifica y analiza resultados que han ocurrido, luego determina si y cómo el programa contribuyó a ellos.
Diseño Cuasi-Experimental
Una familia de diseños de evaluación que estiman efectos causales del programa sin asignación aleatoria, utilizando métodos estadísticos para construir grupos de comparación creíbles.
Evaluación Centrada en la Utilización
Un enfoque de evaluación en el que cada decisión de diseño está impulsada por las necesidades de los usuarios primarios previstos, las personas específicas que realmente utilizarán los hallazgos para tomar decisiones específicas.
Evaluación de Impacto
Un enfoque riguroso de evaluación que mide el efecto causal de un programa sobre los resultados comparando lo que ocurrió con lo que habría ocurrido en su ausencia.
Evaluación del Desarrollo
Un enfoque de evaluación diseñado para programas complejos y adaptativos en los que los objetivos y procesos son emergentes, y el evaluador trabaja junto al equipo del programa como un socio de aprendizaje incorporado.
Evaluación Participativa
Un enfoque de evaluación que involucra activamente a las partes interesadas y beneficiarios en todas las etapas, desde el diseño hasta el uso de los hallazgos, asegurando la propiedad local y la relevancia.
Evaluación Realista
Enfoque de evaluación que pregunta qué funciona, para quién, en qué circunstancias y por qué, identificando los mecanismos a través de los cuales los programas producen resultados en contextos específicos.
Gestión Basada en Resultados
Un enfoque de gestión que centra las decisiones, los recursos y la rendición de cuentas de la organización en lograr resultados definidos, utilizando evidencia del monitoreo y la evaluación.
Mapeo de Alcances
Un enfoque participativo de planificación y monitoreo que rastrea cambios de comportamiento en las personas, grupos y organizaciones con las que un programa trabaja directamente, en lugar de resultados de desarrollo a largo plazo.
Marco de Resultados
Colección estructurada de indicadores organizados por nivel de resultados que da seguimiento al rendimiento del programa a través de un portafolio, centrándose en lo que cambió en lugar de lo que se entregó.
Marco Lógico / Marco Lógico
Una matriz estructurada que resume el diseño de un proyecto, vinculando actividades a resultados esperados a través de una jerarquía clara de objetivos con indicadores, fuentes de verificación y supuestos.
Rastreo de Procesos
Un método de análisis de caso único para inferencia causal que prueba si los mecanismos causales predichos por una Teoría del Cambio operaron realmente en un caso específico, utilizando evidencia sistemática para evaluar afirmaciones causales.
Teoría del Cambio
Una explicación estructurada de cómo y por qué se espera que un conjunto de actividades conduzca a resultados deseados, mapeando la lógica causal desde los insumos hasta el impacto.
Conceptos clave
Prácticas y procesos clave
Adaptive Management
A management approach that uses continuous learning from monitoring and evaluation data to adjust programme strategies and activities in response to changing evidence or context.
Agendas de Aprendizaje
Un conjunto estructurado de preguntas de aprendizaje prioritarias que guían la indagación sistemática durante toda la implementación del programa, convirtiendo los datos de monitoreo en conocimiento accionable para la toma de decisiones.
Análisis de Costo-Efectividad
Un enfoque sistemático para comparar los costos y resultados de intervenciones alternativas para identificar cuál ofrece la mejor relación calidad-precio en el logro de objetivos específicos.
Aseguramiento de la Calidad de los Datos
Un proceso sistemático para verificar que los datos recopilados cumplen con cinco dimensiones de calidad: Validez, Integridad, Precisión, Fiabilidad y Oportunidad, asegurando que los datos sean idóneos para la toma de decisiones.
Baseline Design
A structured approach to collecting initial condition data that directly informs project decisions, minimizes burden, and enables valid comparison with endline measurements.
Carga de Recolección de Datos
El tiempo total, esfuerzo y recursos requeridos de los respondientes e implementadores para completar las actividades de Recolección de Datos, equilibrado con las necesidades de Calidad de los Datos y la capacidad del Programa.
Desagregación
El desglose de datos agregados por características de subgrupos, como sexo, edad, ubicación o estado de vulnerabilidad, para revelar inequidades y diferencias en el alcance y los resultados del programa.
Diseño de Encuesta
El proceso de diseñar cuestionarios estructurados y protocolos de encuesta para recopilar datos confiables, válidos y accionables de una población definida.
Diseño de Sistema de M&E
Un enfoque estructurado para construir la infraestructura organizacional, los procesos y las capacidades necesarios para recopilar, analizar y utilizar datos de M&E para la toma de decisiones durante todo el ciclo de vida de un programa.
Entrevistas con Informante Clave
Entrevistas en profundidad, semiestructuradas con individuos seleccionados por su conocimiento específico, experiencia o perspectivas relevantes para las preguntas de la evaluación.
Establecimiento de Metas
El proceso de establecer referentes de desempeño específicos y con plazos definidos con los cuales se medirá el progreso y los logros del programa.
Ética en M&E
Los principios y estándares que guían la conducta ética del monitoreo y la evaluación, protegiendo los derechos y la dignidad de los participantes, asegurando una elaboración de informes honesta y gestionando el poder de manera responsable.
Evaluación Basada en Rúbricas
Un enfoque de evaluación estructurado que utiliza criterios predefinidos y niveles de desempeño para evaluar sistemáticamente programas, proyectos o intervenciones contra estándares establecidos.
Evaluación de Métodos Mixtos
Un enfoque de evaluación que combina sistemáticamente datos cuantitativos y cualitativos para proporcionar una comprensión más completa de los efectos, mecanismos y contexto del programa.
Evaluación de Necesidades
Un proceso sistemático para identificar y analizar brechas entre las condiciones actuales y los resultados deseados, estableciendo la base de evidencia para el diseño del programa y la selección de indicadores.
Evaluation Criteria (DAC)
The OECD-DAC framework provides five standard criteria, relevance, efficiency, effectiveness, impact, and sustainability, for systematically assessing the merit and value of development interventions.
Evaluation Matrix
A structured mapping document that links each evaluation question to its data sources, collection methods, indicators, and analysis approach, the operational blueprint for executing an evaluation.
Fortalecimiento de Capacidades para M&E
El proceso de fortalecer el conocimiento, las habilidades, los sistemas y los recursos que las organizaciones y los individuos necesitan para diseñar, implementar y utilizar el monitoreo y la evaluación de manera efectiva.
Gestión de Datos
Los procesos sistemáticos para la recolección, almacenamiento, seguridad y mantenimiento de la Calidad de los Datos a lo largo del ciclo de vida de los datos para asegurar que la información sea precisa, accesible y utilizable para la toma de decisiones.
Grupos Focales
Un método de recolección de datos cualitativos que reúne a 6-10 participantes para discutir un tema específico, generando perspectivas valiosas a través de la interacción grupal y experiencias compartidas.
Indicadores Proxy
Medidas indirectas utilizadas cuando la medición directa del resultado previsto es imposible, poco práctica o demasiado costosa, requiriendo una validación cuidadosa para asegurar que representen con precisión el constructo objetivo.
Indicadores SMART
Un marco de calidad para diseñar indicadores que sean Específicos, Medibles, Alcanzables, Relevantes y Temporales, asegurando que proporcionen datos confiables y accionables para la toma de decisiones.
Knowledge Management for M&E
The systematic process of capturing, organising, and applying lessons, evidence, and insights from M&E across programmes and over time to improve organisational decision-making.
M&E Sensible al Género
Un enfoque de monitoreo y evaluación que examina sistemáticamente cómo los programas afectan de manera diferente a mujeres, hombres, niñas y niños, y asegura que los procesos de M&E en sí mismos no refuercen las desigualdades de género.
Mecanismos de Rendición de Cuentas
Los sistemas, procesos y estructuras que permiten a las organizaciones rendir cuentas a las partes interesadas, incluidas las comunidades, donantes y socios, por su desempeño, decisiones y uso de recursos.
Métodos de Observación
Un enfoque sistemático para recopilar datos observando y registrando directamente comportamientos, interacciones y procesos tal como ocurren en entornos naturales.
No Hacer Daño
El principio fundamental de M&E que establece que las actividades del programa y de evaluación no deben exponer a los participantes, comunidades o personal del programa a daños físicos, psicológicos, sociales o económicos, y deben identificar y mitigar activamente los riesgos de daño antes de que ocurran.
Planes de M&E
Un documento operativo detallado que traduce su marco lógico y teoría del cambio en requisitos de M&E accionables, especificando qué datos recopilar, cuándo, de quiénes y cómo se utilizarán.
Reporting Best Practices
The principles and practices for producing evaluation and monitoring reports that are clear, credible, actionable, and tailored to their intended audiences.
Sampling Methods
Systematic approaches for selecting a subset of a population to represent the whole, balancing statistical validity with practical constraints.
Selección y Desarrollo de Indicadores
El proceso sistemático de seleccionar y refinar indicadores de desempeño que sean específicos, medibles, alcanzables, relevantes y con un plazo definido para rastrear el progreso del programa de manera efectiva.
Stakeholder Analysis
A structured process for identifying all parties with an interest in a programme, mapping their roles, influence, and information needs, and informing how M&E should engage them.
Términos de Referencia de Evaluación
Un documento formal que define el alcance, objetivos, metodología y requisitos para una evaluación, sirviendo como el contrato principal entre la organización comisionante y el equipo de evaluación.
Value for Money
The optimal balance of cost, quality, and outcomes, achieving the best results for the resources invested, assessed through the 4Es: economy, efficiency, effectiveness, and equity.
Visualización de Datos para M&E
El uso estratégico de gráficos, paneles de control e infografías para comunicar datos de monitoreo a diversas partes interesadas, transformando números crudos en información accionable para la toma de decisiones.
Términos
Definiciones y glosario
Accountability Evaluation
EvaluationAn evaluation focused on assessing whether a programme is meeting its obligations to stakeholders, including donors, beneficiaries, and regulatory bodies.
Actividad
FrameworksLo que un programa HACE con sus insumos para producir productos; el trabajo directo o servicios entregados.
After-Action Review
LearningA structured, time-bound reflection process conducted immediately after a specific activity or milestone to capture what was planned, what happened, why the difference, and what should change.
Alcance del Trabajo
PlanningUn documento que especifica lo que un evaluador o consultor entregará, dentro de qué plazo, presupuesto y restricciones.
Análisis a Nivel de Resultado
MethodsEl examen sistemático de los resultados para determinar si un programa alcanzó sus resultados pretendidos, distinguiendo entre resultados esperados e inesperados, y evaluando la significancia y sostenibilidad de los cambios observados.
Análisis de Contenido
MethodsUn enfoque sistemático para analizar contenido de comunicación, identificando patrones, temas y sesgos en datos de texto, audio o vídeo mediante codificación estructurada.
Análisis Temático
MethodsUn método sistemático para identificar, analizar y reportar patrones (temas) en datos cualitativos mediante codificación y categorización.
Aprendizaje
LearningEl proceso sistemático de recopilar evidencia, reflexionar sobre ella y utilizarla para mejorar la estrategia del programa y la implementación.
Aprendizaje Organizacional
LearningEl proceso sistemático mediante el cual una organización captura, analiza y aplica lecciones de la experiencia para mejorar el desempeño del programa y la toma de decisiones.
Atribución frente a Contribución
MethodsLa distinción entre probar que un programa causó directamente resultados (atribución) frente a construir un caso creíble de que contribuyó a los resultados junto con otros factores (contribución).
Audit vs Evaluation
EvaluationAudits examine financial and regulatory compliance; evaluations assess programme effectiveness and impact.
Beneficiario
Cross-CuttingUna persona, hogar u organización que recibe beneficios directos de las actividades o productos de un programa.
Cadena de Resultados
FrameworksLa jerarquía secuencial del cambio desde las actividades a través de productos, resultados e impacto que muestra cómo se espera que un programa genere cambio.
Causal Inference
MethodsThe process of determining whether an intervention caused observed outcomes by establishing a credible counterfactual and ruling out alternative explanations.
Censo vs Muestra
Data CollectionLa elección entre medir cada unidad en una población (censo) frente a seleccionar un subconjunto (muestra) determina el costo, la precisión y las inferencias que puede hacer sobre su programa.
Ciclo de Retroalimentación
LearningUn proceso estructurado para recopilar, analizar y actuar sobre la información para mejorar el desempeño y los resultados del programa.
Ciclos de Aprendizaje
LearningPeríodos estructurados y recurrentes de reflexión y adaptación donde los equipos del programa revisan datos, extraen lecciones y ajustan la implementación en consecuencia.
CLA (Colaboración, Aprendizaje y Adaptación)
LearningMarco de USAID para integrar la colaboración, el aprendizaje y la adaptación en el diseño y la gestión del programa.
Cluster Sampling
Data CollectionA sampling method that divides the population into clusters and randomly selects entire clusters rather than individuals.
Compliance Monitoring
EvaluationTracking whether a programme is implemented according to agreed standards, policies, and legal requirements.
Composite Indicator
IndicatorsA composite indicator combines multiple individual indicators into a single index or score, enabling measurement of multidimensional concepts that cannot be captured by a single metric.
Confounding Variables
MethodsExtraneous variables that correlate with both the intervention and the outcome, creating spurious associations that threaten causal inference in evaluation.
Contrafactual
MethodsLa comparación entre lo que sucedió y lo que habría sucedido en ausencia de una intervención, la base fundamental para establecer la atribución causal en una evaluación de impacto.
Datos Cualitativos
Data CollectionInformación no numérica capturada a través de palabras, imágenes u observaciones que revela el cómo y el porqué detrás de los resultados del programa, proporcionando profundidad y contexto a los hallazgos cuantitativos.
Datos Cuantitativos
Data CollectionDatos numéricos recolectados mediante medición estructurada, que permite el análisis estadístico, la generalización y la comparación objetiva entre programas y contextos.
Dissemination
LearningActive, intentional process of sharing M&E findings with relevant audiences to promote understanding, learning, and evidence use.
Elaboración de Informes a Donantes
LearningEl proceso de comunicar sistemáticamente el progreso del programa, los resultados y la información financiera a las organizaciones financiadoras según sus requisitos y plazos específicos.
Empowerment Evaluation
MethodsA self-evaluation approach where programme participants systematically assess their own work to improve programmes and secure future ownership.
Ensayo Controlado Aleatorizado
MethodsUn diseño de evaluación experimental que asigna aleatoriamente participantes a grupos de tratamiento y control para establecer la atribución causal entre una intervención y los resultados observados.
Estrategias de comunicación
Cross-CuttingEnfoques intencionales para compartir hallazgos de M&E e información del programa con las partes interesadas para influir en las decisiones, fortalecer la rendición de cuentas y promover el aprendizaje.
Evaluación de Auditoría
EvaluationUna evaluación centrada en evaluar la probidad financiera, los controles internos y el cumplimiento de las regulaciones financieras y los estándares de contratación.
Evaluación de Cumplimiento
EvaluationUna evaluación centrada en evaluar si un programa cumple con los requisitos y estándares legales, regulatorios, de donantes y organizacionales.
Evaluación de Evaluabilidad
EvaluationUna revisión preliminar de si un programa está suficientemente maduro y documentado para ser evaluado de manera significativa.
Evaluación de Procesos
EvaluationEvaluación de cómo se implementa un programa, si las actividades se entregan según lo planificado y cumplen con los estándares de calidad previstos.
Evaluación de Sostenibilidad
EvaluationEvaluación de los beneficios continuados y la funcionalidad de un programa después de que ha finalizado la financiación externa, examinando si los resultados persisten y los sistemas permanecen operativos.
Evaluación en Tiempo Real
EvaluationUn enfoque de evaluación realizado durante la implementación del programa para proporcionar retroalimentación inmediata para la gestión adaptativa y las correcciones de curso.
Evaluación Ex-Ante vs Ex-Post
EvaluationLa dimensión temporal de la evaluación: la ex-ante ocurre antes de la implementación para informar el diseño, mientras que la ex-post ocurre después de la finalización para evaluar resultados y lecciones.
Evaluación Formativa vs Evaluación Sumativa
EvaluationLa evaluación formativa mejora los programas durante la implementación; la evaluación sumativa juzga su mérito general después de la finalización.
Evaluación Rápida
MethodsUn enfoque de recolección de datos condensado diseñado para generar información procesable rápidamente, utilizando típicamente métodos cualitativos y cuantitativos simplificados en contextos con restricciones de tiempo.
Fortalecimiento de Capacidades
LearningEl proceso de desarrollar habilidades, sistemas y relaciones que permiten a individuos y organizaciones alcanzar sus objetivos de desarrollo de manera sostenible.
Gestión del Desempeño
PlanningEl uso sistemático de datos de monitoreo, hallazgos de evaluación y retroalimentación para guiar decisiones del programa, mejorar resultados y asegurar la rendición de cuentas a las partes interesadas.
Historias de Impacto
Cross-CuttingRelatos narrativos que ilustran cómo un programa ha influido en las vidas de los beneficiarios, combinando resultados cuantitativos con experiencia humana cualitativa.
Hito
IndicatorsUn punto de control o evento intermedio significativo que señala el progreso hacia una meta, utilizado para rastrear si un programa está en el cronograma para lograr sus resultados previstos.
Impacto
MethodsEfectos a largo plazo y de mayor nivel atribuibles o contribuidos por un programa; cambio más amplio más allá de los resultados individuales.
Inception Report
EvaluationThe first formal deliverable from an evaluation team, detailing refined methodology before primary data collection.
Indicador
IndicatorsUna variable específica, observable y medible que monitorea el progreso hacia un resultado o producto.
Indicadores Personalizados vs Estándar
IndicatorsLa elección entre indicadores estándar proporcionados por donantes e indicadores personalizados específicos del programa, equilibrando los requisitos de cumplimiento con la relevancia contextual.
Informe de Progreso
LearningUn documento periódico presentado por programas a donantes que detalla el progreso de la implementación, el rendimiento de los indicadores y los problemas clave.
Informe Narrativo
LearningInformes cualitativos, basados en historias, que contextualizan indicadores cuantitativos con explicaciones de qué sucedió, por qué sucedió y qué significa para el aprendizaje del programa y la toma de decisiones.
Informes de Indicadores
LearningLa recopilación, compilación y presentación sistemática de datos de indicadores para rastrear el rendimiento del programa y comunicar resultados a las partes interesadas y donantes.
Insumo
FrameworksRecursos invertidos en un programa (fondos, personal, materiales, tiempo) que permiten que las actividades se lleven a cabo.
Knowledge Sharing
LearningThe deliberate practice of capturing, organizing, and distributing insights, lessons, and best practices across teams and organizations to improve programme performance and avoid repeating mistakes.
Lessons Learned
LearningDocumented insights from programmes identifying what worked, what did not work, and why, with actionable specificity.
Línea de Base
IndicatorsDatos de condiciones iniciales recopilados al inicio de un proyecto para establecer un punto de referencia para medir el cambio y establecer metas de indicadores.
Línea Final
IndicatorsUn punto final de recolección de datos al finalizar el programa que mide los resultados alcanzados contra los valores de línea de base y meta.
Línea Media
Data CollectionUn punto de recolección de datos realizado a mitad de un programa para evaluar la trayectoria y permitir decisiones adaptativas.
Literature Review
MethodsA systematic, critical synthesis of existing research on a specific topic, identifying what is known, gaps in knowledge, and evidence for programme design.
Lógica de Intervención
FrameworksLa cadena causal que conecta las actividades del programa con los resultados previstos, mostrando cómo y por qué se espera que un conjunto de intervenciones conduzca al cambio deseado.
LQAS
MethodsEl Muestreo de Evaluación de Calidad Lógica es un método rápido de toma de decisiones que clasifica programas o áreas como aprobado/no aprobado frente a un umbral, comúnmente utilizado para el monitoreo de programas de salud.
M&E Participativo
MethodsUn enfoque de monitoreo y evaluación que involucra activamente a las partes interesadas, especialmente los beneficiarios, en cada etapa, desde el diseño hasta el uso de los hallazgos para la toma de decisiones.
Marco de M&E
PlanningEl documento estructurado que especifica qué se medirá, cómo, por quién y con qué frecuencia.
Mejora Continua
LearningUn enfoque sistemático y continuo para mejorar el desempeño del programa mediante aprendizaje iterativo, retroalimentación y adaptación.
Meta
IndicatorsEl valor específico que se espera que alcance un indicador para una fecha definida, cuantificando cómo se ve el éxito.
Meta-evaluación
EvaluationLa evaluación sistemática de la calidad de una evaluación, evaluando si cumplió con los estándares profesionales y produjo hallazgos creíbles y útiles.
Monitoreo en Tiempo Real
PlanningLa recolección y análisis continuo de datos durante la implementación del programa para permitir la detección rápida de problemas y acción correctiva oportuna.
Monitoring vs Evaluation
Cross-CuttingMonitoring is the continuous, systematic tracking of programme activities and outputs; evaluation is the periodic, in-depth assessment of outcomes, impact, and causal attribution.
Muestreo Aleatorio
MethodsUn método de muestreo probabilístico donde cada miembro de la población tiene una oportunidad conocida e igual de ser seleccionado, permitiendo la inferencia estadística a la población más amplia.
Narración de historias para el impacto
Cross-CuttingEl uso estratégico de la narrativa para hacer que los hallazgos de M&E sean memorables, accionables e influyentes para los tomadores de decisiones y las partes interesadas.
Panel de Control
LearningUna visualización de indicadores clave de monitoreo que permite una evaluación rápida del rendimiento del programa de un vistazo.
Paneles de Control de Desempeño
LearningInterfaces de gestión visual que muestran indicadores clave de desempeño en tiempo real, permitiendo a los equipos de programa y partes interesadas monitorear el progreso, identificar problemas y tomar decisiones basadas en datos.
Performance Evaluation
EvaluationAn assessment of how well a programme or organisation is achieving its intended results and operating efficiently against established standards and targets.
Preguntas de Evaluación
EvaluationLas preguntas abarcadoras que una evaluación investigará, distintas de las preguntas de encuesta o entrevista.
Presupuesto de M&E
PlanningLa porción del presupuesto de un programa dedicada a las actividades de monitoreo, evaluación y aprendizaje.
Primary vs Secondary Data
MethodsPrimary data is collected firsthand for a specific purpose; secondary data is existing data repurposed for new analysis. Each has distinct trade-offs in cost, timeliness, and relevance.
Producto
FrameworksProductos directos y tangibles de las actividades del programa; lo que el programa produce, no lo que ganan los beneficiarios.
Programme Theory
FrameworksThe explicit articulation of how a programme is expected to produce change.
Punto de Referencia
IndicatorsUn punto de referencia o valor estándar utilizado para medir el progreso, típicamente derivado de datos históricos, estándares de la industria o programas comparables.
Purposive Sampling
Data CollectionA non-probability sampling approach where researchers deliberately select participants based on specific characteristics or knowledge relevant to the research objectives.
Reflection Sessions
LearningStructured gatherings where programme teams and stakeholders pause to examine what happened, why it happened, and what should change as a result.
Reliability
MethodsThe consistency and repeatability of a measurement, whether the same tool produces stable results across repeated applications, different raters, or different time periods.
Rendición de Cuentas
Cross-CuttingLa responsabilidad de ser transparente, informar y responder a las partes interesadas sobre el desempeño y las decisiones del programa.
Requisitos de Donantes
PlanningObligaciones de M&E especificadas en acuerdos de subvención y políticas de donantes que dan forma al diseño del sistema y a la Elaboración de Informes.
Resultado
FrameworksCambios en el comportamiento, conocimiento, habilidades o condiciones resultantes de los productos del programa, experimentados por los beneficiarios.
Retroalimentación de Beneficiarios
MethodsRecolección sistemática y uso de insumo de los beneficiarios del programa sobre sus experiencias, necesidades y prioridades para mejorar la rendición de cuentas y la relevancia del programa.
Revisión Sistemática
EvaluationUn enfoque riguroso y estructurado para identificar, valorar y sintetizar toda la evidencia disponible sobre una pregunta de evaluación específica utilizando métodos explícitos y reproducibles.
Risks and Risk Mitigation
PlanningExternal factors that could prevent programme success and their planned mitigation strategies.
Sesgo
MethodsError sistemático en la recolección de datos, análisis o interpretación que distorsiona los resultados y amenaza la validez de los hallazgos de M&E.
Significancia Estadística
MethodsUna medida estadística que indica si los resultados observados son probablemente debidos a un efecto real en lugar del azar, típicamente evaluada mediante p-valores y prueba de hipótesis.
Síntesis de Evidencia
MethodsEl proceso sistemático de identificar, seleccionar e integrar hallazgos de múltiples estudios para informar el diseño del programa, la evaluación y la toma de decisiones.
SROI (Retorno Social de la Inversión)
MethodsMarco de evaluación que asigna valores monetarios a resultados sociales para calcular el retorno de la inversión.
Supuestos
PlanningCondiciones fuera del control del programa que deben cumplirse para que el programa tenga éxito según lo planificado.
Toma de Decisiones Basada en Evidencia
LearningUtilizar la evidencia de M&E para informar decisiones de programa, gestión y políticas en lugar de intuición o hábito.
Triangulación
MethodsUso de múltiples fuentes de datos, métodos o perspectivas para contrastar hallazgos y fortalecer la validez de las conclusiones de la evaluación.
Validez (Interna y Externa)
MethodsEl grado en que una evaluación demuestra con precisión las relaciones causales (validez interna) y generaliza los hallazgos más allá del contexto del estudio (validez externa).