PillarMétodos12 min read

Análisis de Contribución

Un enfoque estructurado para construir un caso creíble sobre cómo y por qué un programa contribuyó a los resultados observados, sin requerir atribución experimental.

Cuándo Usar

El análisis de contribución es el enfoque adecuado cuando necesita decir algo creíble sobre si su programa hizo una diferencia — pero no puede realizar un ensayo controlado aleatorio, y simplemente presentar datos de resultados sin explicar el vínculo causal sería poco convincente.

Úselo cuando:

  • La atribución es cuestionada — múltiples donantes, intervenciones paralelas o factores contextuales complejos hacen imposible aislar el efecto de su programa
  • Los RCT no son factibles — restricciones éticas, logísticas o de costos descartan diseños experimentales
  • La teoría del cambio necesita validación — desea probar si sus supuestos causales se mantuvieron durante la implementación, no solo reportar números
  • Los donantes requieren una narrativa de contribución — las evaluaciones para DFID, USAID o UNDP esperan cada vez más una explicación de cómo el programa contribuyó, no solo qué productos se entregaron
  • El programa es complejo o adaptativo — múltiples vías, ciclos de retroalimentación o contextos cambiantes significan que un modelo simple de insumo-producto no captura lo que sucedió

El análisis de contribución es menos apropiado cuando los resultados son fácilmente medibles y atribuibles (use un diseño simple pre-post), cuando necesita probar la causalidad para propósitos de formulación de políticas (considere un diseño cuasi-experimental), o cuando la pregunta de evaluación se trata principalmente de qué resultados ocurrieron en lugar de por qué (use cosecha de resultados).

Escenario¿Usar Análisis de Contribución?Mejor Alternativa
Programa complejo, sin grupo de control
Querer probar causalidad rigurosamenteNoDiseño Cuasi-Experimental
Resultados son impredecidos o emergentesNoCosecha de Resultados
Necesita entender por qué la ToC fallóSí, junto conRastreo de Procesos
Programa tiene intervención clara y aisladaNoRCT o evaluación de impacto
Múltiples donantes, contribución cuestionada

Cómo Funciona

El análisis de contribución sigue un proceso de seis pasos desarrollado por John Mayne. El objetivo no es probar que su programa causó los resultados, sino construir una historia de contribución — una narrativa documentada y respaldada por evidencia que haga plausible que su programa contribuyó significativamente a los cambios observados.

Paso 1: Establecer el problema de atribución

Defina la pregunta de evaluación con precisión. ¿Qué resultados está afirmando que el programa contribuyó? ¿Qué período de tiempo? ¿Qué población? Reconozca lo que puede y no puede probar de antemano. Este paso evita excederse y enfoca la recolección de evidencia.

Paso 2: Desarrollar o revisar la teoría del cambio

El análisis de contribución descansa en una Teoría del Cambio como su columna vertebral analítica. Si no tiene una, constrúyala. Si la tiene, haga explícitos los vínculos causales y los supuestos — cada vínculo se convierte en una proposición comprobable.

Paso 3: Recopilar evidencia sobre la teoría del cambio

Recopile datos para probar si cada vínculo en la Teoría del Cambio se mantuvo durante la implementación. Use una mezcla de datos cuantitativos y cualitativos: datos de monitoreo, encuestas, entrevistas con informantes clave, revisión de documentos, grupos focales. Para cada vínculo causal, pregunte: ¿Hay evidencia de que este paso ocurrió? ¿Qué tan fuerte es esa evidencia?

Paso 4: Ensamblar la historia de contribución

Sintetice la evidencia en una narrativa que camine desde las actividades del programa hasta los resultados. Sea explícito sobre dónde la evidencia es fuerte, dónde es parcial y dónde está ausente. La historia de contribución debe leerse como un argumento razonado, no como un reporte de números.

Paso 5: Buscar y abordar explicaciones rivales

Identifique explicaciones alternativas para los resultados observados: otros programas operando en el mismo espacio, cambios contextuales (cambios de políticas, choques económicos), o efectos de selección. Presente evidencia que descarte estos rivales o reconózcalos honestamente y explique por qué la contribución de su programa sigue siendo plausible.

Paso 6: Revisar y fortalecer la historia de contribución

Use el proceso como un ejercicio de aprendizaje. Donde la evidencia es débil o las explicaciones rivales son convincentes, revise su Teoría del Cambio o señale qué evidencia adicional es necesaria. Un buen análisis de contribución mejora el diseño de su próximo programa.

Componentes Clave

Un análisis de contribución completo requiere:

  • Una afirmación causal clara — una declaración precisa de a qué se argumenta que su programa contribuyó, para quién, y durante qué período
  • Una teoría del cambio explícita — con todos los vínculos causales y supuestos documentados (no solo un diagrama)
  • Evidencia por vínculo — datos o hallazgos cualitativos para cada paso en la Teoría del Cambio, evaluados por calidad y relevancia
  • Prueba de explicaciones rivales — documentación explícita de causas alternativas y por qué son insuficientes o incompletas
  • Una historia de contribución — un documento narrativo (típicamente de 3 a 10 páginas) que sintetice lo anterior en un argumento coherente
  • Puntuación de confianza — una declaración transparente de qué tan fuerte o débil es la afirmación de contribución general, y qué aumentaría la confianza
  • Triangulación de métodos mixtos — al menos dos fuentes de evidencia independientes para cada afirmación causal principal

Mejores Prácticas

Comience con la Teoría del Cambio, no con los datos. El error más común es recopilar datos primero y luego tratar de construir una historia causal hacia atrás. La Teoría del Cambio debe determinar qué datos necesita, no al revés.

Mapee intervenciones a resultados explícitamente. Antes de recopilar nuevos datos, documente cada actividad de programa existente y mapearla al resultado específico al que se supone que contribuye. Esto evita la racionalización post-hoc.

Fortalezca la plausibilidad con evidencia externa. Las historias de contribución se vuelven más creíbles cuando citan investigación o programas comparables que muestran que los mismos mecanismos causales funcionan. Cite literatura relevante, evaluaciones sectoriales o metanálisis.

Defina su pregunta de evaluación como una pregunta de contribución. Enmarque como "¿En qué medida X contribuyó a Y?" en lugar de "¿Causó X Y?". Esto establece el nivel correcto de rigor y evita la desviación del alcance.

Use triangulación iterativa. Pase la historia de contribución por el personal del programa, miembros de la comunidad y un revisor par externo. Diferentes partes interesadas identificarán explicaciones rivales que no ha considerado. Cada ronda fortalece la historia.

Sea transparente sobre los niveles de confianza. Una historia de contribución que reconoce honestamente evidencia débil en ciertos vínculos es más creíble — y más útil — que una que sobreestima la certeza. Califique cada vínculo causal: Evidencia fuerte / Evidencia moderada / Evidencia débil / Sin evidencia.

Errores Comunes

Tratarlo como una excusa para evitar el rigor. El análisis de contribución no es una forma de evitar recopilar buenos datos. Aún requiere recolección sistemática de evidencia. La diferencia de los diseños experimentales es el tipo de evidencia y la afirmación hecha, no el estándar de calidad.

Ignorar explicaciones rivales. La debilidad más común en las historias de contribución es no probar seriamente causas alternativas. Si no aborda rivales, los revisores y donantes lo harán. Construya la prueba de explicaciones rivales en el diseño, no como un pensamiento posterior.

Confundir contribución con atribución. El objetivo es una afirmación de contribución plausible, no prueba de causalidad. Declaraciones como "Nuestro programa causó el 30% de la mejora" generalmente son injustificables y socavan la credibilidad. Diga en cambio: "La evidencia apoya una contribución significativa de nuestro programa, con los otros factores clave siendo X e Y".

Saltarse el paso de revisión de la Teoría del Cambio. Muchos evaluadores producen la historia de contribución pero nunca la retroalimentan en el diseño del programa. Esto desperdicia el valor de aprendizaje primario del método.

Usarlo para programas simples. El análisis de contribución es intensivo en recursos. Para una intervención bien definida y simple con una vía causal única, un diseño pre-post con un grupo de comparación será más eficiente y más convincente.

Documentación débil. Una historia de contribución que no se puede rastrear hasta fuentes de evidencia específicas no es una historia de contribución — es una afirmación. Cada afirmación causal necesita una fuente de evidencia citada.

Ejemplos

Programa de medios de vida, África Oriental. Un programa de agricultura de pequeños productores financiado por USAID de cuatro años en Kenia afirmó haber contribuido al aumento del ingreso familiar entre 40,000 beneficiarios. Se realizó un análisis de contribución para la evaluación final. La Teoría del Cambio mapeó la vía desde los insumos de capacitación hasta la apropiación de conocimientos, cambio de prácticas, mejora del rendimiento, hasta el cambio de ingresos. Los datos de monitoreo confirmaron la asistencia a la capacitación y las puntuaciones de conocimiento. Las encuestas agrícolas mostraron mejoras en el rendimiento correlacionadas con la adopción de prácticas. La explicación rival — una temporada de lluvias favorable — se abordó comparando las tendencias de rendimiento entre no participantes en la misma geografía (sin mejora similar). La historia de contribución calificó la contribución del programa como "confianza moderada a alta" para los resultados de rendimiento y "confianza moderada" para los ingresos, reconociendo la volatilidad de precios como un factor de confusión.

Gobernanza e incidencia, África Occidental. Un programa de fortalecimiento de la sociedad civil financiado por la UE en Ghana buscó demostrar la contribución a la mejora de la transparencia presupuestaria a nivel distrital. Se ensambló una historia de contribución usando análisis documental (aumentaron las divulgaciones presupuestarias), entrevistas con informantes clave con funcionarios financieros distritales y socios de la sociedad civil, y un ejercicio de mapeo de políticas. La explicación rival — una nueva política de transparencia del gobierno nacional — fue significativa. La historia de contribución argumentó que la capacitación en incidencia del programa informó directamente a la coalición de la sociedad civil que presionó por la política, documentando tres reuniones clave. La afirmación fue calificada "alta confianza para la influencia en políticas, confianza moderada para el cambio de prácticas a nivel distrital".

Sistemas de salud, Asia Meridional. Un programa de nutrición apoyado por UNICEF en Bangladesh enfrentó un entorno de atribución complejo: múltiples donantes, campañas de nutrición gubernamentales y una caída de precios de productos básicos globales se superpusieron con mejoras en las tasas de retraso en el crecimiento infantil. Un análisis de contribución mapeó las vías de entrega específicas del programa (comunicación para el cambio social y de comportamiento a nivel comunitario, capacitación de trabajadores de salud) contra los cambios observados. En lugar de reclamar crédito por la reducción agregada del retraso en el crecimiento, la historia de contribución se centró estrechamente en las 120 uniones del programa, mostrando efectos de respuesta a la dosis (áreas de implementación de mayor intensidad mostraron cambios más rápidos) y descartando efectos de selección diferenciales. La puntuación de confianza fue "moderada" para la contribución a la reducción del retraso en el crecimiento en las áreas del programa.

Comparado Con

MétodoTipo de Afirmación¿Contrafactual?Mejor para
Análisis de ContribuciónContribución plausibleNoProgramas complejos, múltiples donantes
Rastreo de ProcesosRastreo de mecanismosNoExplicar cómo ocurrió un resultado específico
Diseño Cuasi-ExperimentalAtribución causalSí (grupo de comparación)Programas con tratamiento/comparación claros
Evaluación de ImpactoAtribución causalSí (grupo de control)Afirmaciones de causalidad rigurosas relevantes para políticas
Cosecha de ResultadosDocumenta qué cambióNoResultados emergentes en cambio complejo
Evaluación RealistaQué funciona para quiénParcialEntender mecanismos contextuales

Indicadores Relevantes

Existen 31 indicadores alineados con donantes en los marcos de USAID, DFID, UNDP y OECD-DAC para evaluar la calidad de la evaluación y la contribución del programa. Los más comúnmente citados:

  • Fuerza de la evidencia que vincula las actividades del programa con los cambios observados (escala: 1-5)
  • Número de explicaciones rivales probadas en el informe final de evaluación
  • Grado en que los supuestos de la ToC del programa son apoyados por la evidencia de implementación
  • Puntuación de calidad de la triangulación de métodos mixtos utilizada en la evaluación
  • Proporción de vínculos causales en la ToC con datos de monitoreo o evaluación de apoyo

Herramientas Relacionadas

  • MEStudio Logic Model Builder — mapee su Teoría del Cambio como el fundamento analítico antes de comenzar un análisis de contribución
  • Planificador de Evaluación — estructure su matriz de recolección de evidencia por vínculo causal

Temas Relacionados

Lectura Adicional

  • Mayne, J. (2012). "Contribution Analysis: Coming of Age?" Evaluation, 18(3), 270-280. El documento metodológico fundamental.
  • Mayne, J. (2001). "Addressing Attribution Through Contribution Analysis." The Canadian Journal of Program Evaluation, 16(1), 1-24. La formulación original.
  • DFID (2012). Broadening the Range of Designs and Methods for Impact Evaluations. Departamento del Reino Unido para el Desarrollo Internacional. Cubre el análisis de contribución junto con enfoques experimentales.
  • OECD-DAC (2019). Evaluating Development Co-operation: A Compendium. Incluye orientación sobre análisis de contribución para programas complejos.