Cuándo Usar
La evaluación del desarrollo (DE) es el enfoque correcto cuando el programa mismo aún está siendo diseñado, cuando las metas y estrategias son genuinamente emergentes, y cuando la adaptación en tiempo real es más importante que demostrar lo que ya se ha construido. Desarrollada por Michael Quinn Patton, la DE fue diseñada para el espacio entre la evaluación formativa (que asume un programa relativamente estable) y la evaluación sumativa (que requiere una finalización).
Úsela cuando:
- El programa es una innovación social — el equipo está descubriendo genuinamente qué funciona mediante iteración; no hay un modelo establecido para probar o escalar
- El entorno es altamente complejo — cambios políticos, cambios de mercado o dinámicas sociales emergentes significan que el programa debe adaptarse continuamente para permanecer relevante
- Las metas están evolucionando — la teoría del cambio del programa se está construyendo y probando durante la implementación, no se aplica desde un documento de diseño
- La retroalimentación en tiempo real es más valiosa que un informe final — el equipo del programa necesita pensamiento evaluativo incrustado en su trabajo, no un veredicto externo al final
- DFID o donantes similares apoyan la programación adaptativa — un número creciente de donantes financia explícitamente la DE como parte de las inversiones en gestión adaptativa
La DE no es apropiada para programas establecidos con una teoría del cambio estable, para evaluaciones donde la rendición de cuentas al donante requiere una comparación definida antes/después, o para situaciones donde la independencia del evaluador debe mantenerse por completo (la naturaleza incrustada de la DE crea desafíos de límites de rol).
| Escenario | ¿Usar Evaluación del Desarrollo? | Mejor Alternativa |
|---|---|---|
| Programa innovando activamente | Sí | — |
| Programa estable, probando eficacia | No | Evaluación de Impacto |
| Entender por qué varían los resultados | No | Evaluación Realista |
| Donante requiere veredicto sumativo | No | Formativa + Sumativa |
| Programa necesita datos de desempeño | Junto a | Planes de MEL |
| Aprendizaje de respuesta de emergencia | Sí | — |
Cómo Funciona
A diferencia de la evaluación convencional, que opera en una secuencia de programa-entonces-evaluar, la evaluación del desarrollo es simultánea con el desarrollo del programa. El evaluador es un socio reflexivo, no un observador externo.
Paso 1: Establecer el rol y los límites del evaluador
El evaluador DE está incrustado en el equipo del programa — asistiendo a reuniones del equipo, contribuyendo a discusiones de estrategia y proporcionando retroalimentación evaluativa en tiempo real. Los límites deben ser negociados explícitamente: el evaluador mantiene la independencia intelectual y la perspectiva evaluativa incluso mientras trabaja junto al equipo.
Paso 2: Apoyar el desarrollo de la teoría
En programas complejos, la teoría del cambio es ella misma emergente. La primera contribución del evaluador a menudo es ayudar al equipo a hacer explícita y comprobable su teoría implícita.
Paso 3: Diseñar monitoreo en tiempo real
Identificar las incertidumbres críticas en la teoría emergente y diseñar procesos de recolección de datos ligeros y rápidos que puedan informar decisiones en semanas, no meses. Esto no es un sistema integral de M&E — es recolección de datos dirigida para responder las preguntas específicas con las que el equipo del programa está lidiando ahora.
Paso 4: Proporcionar retroalimentación evaluativa continua
El producto principal de la DE no es un informe — es un flujo continuo de pensamiento evaluativo alimentado en las decisiones del programa. Esto podría ser un memorándum breve después de una consulta con partes interesadas, un análisis de patrones de observaciones de visitas de campo, o una síntesis de señales tempranas de resultados.
Paso 5: Documentar aprendizaje y refinamiento de la teoría
Con el tiempo, el proceso DE genera un registro evolutivo de lo que se ha intentado, lo que se aprendió y cómo ha cambiado la teoría del programa. Esta documentación se convierte en la base para evaluaciones sumativas posteriores y para compartir aprendizaje con el campo más amplio.
Componentes Clave
- Evaluador integrado — un evaluador profesional que trabaja como socio de aprendizaje dentro del equipo del programa, no como revisor externo
- Procesos de retroalimentación en tiempo real — métodos de recolección y síntesis de datos ligeros que producen hallazgos en días o semanas
- Teoría del cambio viva — una teoría del programa explícitamente documentada y actualizada regularmente que captura lo aprendido
- Documentación de la innovación — registro sistemático de lo que se está intentando, adaptando y abandonando, y por qué
- Claridad de roles — acuerdo explícito entre el evaluador, el equipo del programa y el financiador sobre qué es y qué no es la DE
- Informe de evaluación del desarrollo — documentación periódica de aprendizaje y desarrollo de la teoría (no un informe de evaluación tradicional)
- Integración con la gestión adaptativa — los hallazgos DE deben conectarse a los procesos de toma de decisiones, no solo circularse como documentos
Mejores Prácticas
Aclare el rol del DE antes de comenzar. Los evaluadores DE que no están claros sobre su rol se vuelven capturados (dejan de evaluar y solo apoyan al equipo) o marginados (el equipo deja de interactuar con ellos). Negocie y documente el rol del evaluador explícitamente al inicio del programa.
Use la ToC como hipótesis de trabajo, no como marco fijo. La teoría del programa en DE es una hipótesis sobre cómo ocurrirá el cambio. Cada experiencia de implementación es una oportunidad para probarla y refinarla — no para medir el desempeño contra ella.
No dependa únicamente del monitoreo rutinario. Los datos rutinarios le dicen qué está pasando, no por qué — y en programas emergentes, el "por qué" es la pregunta crítica. La DE requiere métodos que indagen mecanismos, no solo rastreen indicadores.
Conduzca evaluaciones en tiempo real durante emergencias y giros. Cuando el contexto del programa cambia drásticamente — una crisis política, un cambio de financiamiento, un fallo mayor de implementación — una revisión rápida DE puede proporcionar el pensamiento evaluativo necesario para navegar el cambio.
Documente lo que no se persiguió. La contribución más subutilizada de la evaluación del desarrollo es documentar el camino no tomado — las hipótesis rechazadas, las estrategias abandonadas y las razones. Este aprendizaje a menudo es invisible en informes de evaluación convencionales.
Errores Comunes
Tratar el DE como una excusa para evitar el rigor. La ausencia de resultados preespecificados no significa que todo vale. La DE aún requiere recolección sistemática de datos, razonamiento transparente e información honesta de lo que no está funcionando.
Desdibujar la independencia del evaluador. Cuando el evaluador se convierte en un miembro del personal del programa de facto, pierde la distancia evaluativa que hace valiosa su contribución. El evaluador debe poder decir "esto no está funcionando" sin miedo a socavar su posición en el equipo.
Usar el lenguaje del DE para una evaluación formativa convencional. La DE no es solo "evaluación hecha temprano". Es un enfoque específico para programas genuinamente complejos y emergentes. Aplicar la etiqueta a una evaluación formativa estándar malinterpreta ambas.
Omitir conectar los hallazgos del DE con las decisiones. El pensamiento evaluativo que permanece en el cuaderno del evaluador no sirve a nadie. Construya ciclos de retroalimentación explícitos entre los hallazgos DE y los procesos de toma de decisiones del programa.
No planificar la transición a la evaluación sumativa. La DE genera documentación valiosa del desarrollo del programa. Planifique desde el inicio cómo se usará esto cuando el programa llegue a un punto donde la evaluación sumativa sea apropiada.
Ejemplos
Innovación social, Canadá. Una fundación nacional en Canadá usó evaluación del desarrollo para apoyar un fondo de innovación social de cinco años probando nuevos modelos para el empleo juvenil en comunidades marginadas. El equipo DE incrustado asistió a reuniones estratégicas trimestrales, realizó observaciones etnográficas rápidas en sitios de implementación y produjo breves informativos mensuales de aprendizaje. Durante los primeros 18 meses, la evaluación documentó siete revisiones de la teoría a medida que los organismos subvencionados descubrieron qué estrategias de compromiso con empleadores producían colocaciones laborales duraderas versus colocaciones a corto plazo. Estos hallazgos se compartieron en toda la cartera, permitiendo que los organismos subvencionados aprendieran unos de otros casi en tiempo real.
Programa de salud adaptativo, África Oriental. Un programa de fortalecimiento de sistemas de salud financiado por DFID en Uganda usó DE para apoyar a un equipo trabajando en tres distritos políticamente complejos. El evaluador documentó cómo la teoría del programa cambió de un enfoque de lado de la oferta (capacitación de trabajadores de salud) a un enfoque de lado de la demanda (compromiso comunitario) en 12 meses a medida que el equipo respondía a instalaciones que se negaban a implementar cambios. La documentación DE proporcionó la base de evidencia para una revisión de diseño a mitad del programa que el donante aprobó sin requerir el proceso habitual de evaluación externa.
Respuesta de emergencia, Asia Meridional. Tras una respuesta a un ciclón en Bangladesh, una gran ONG internacional usó una evaluación del desarrollo rápida en tiempo real para evaluar qué mecanismos de coordinación estaban produciendo asignación eficiente de recursos versus cuáles estaban creando cuellos de botella. La evaluación duró seis semanas junto a la respuesta. Tres cambios de coordinación se implementaron dentro del periodo de evaluación basados en hallazgos, cada uno documentado y probado en tiempo real. El informe final se completó dentro de la fase de respuesta en lugar de después.
Comparado con
| Enfoque | Fase del Programa | Rol del Evaluador | Producto Principal |
|---|---|---|---|
| Evaluación del Desarrollo | Durante la innovación | Socio integrado | Aprendizaje en tiempo real |
| Evaluación Formativa | Durante la implementación estable | Asesor externo | Recomendaciones de mejora |
| Evaluación Sumativa | Post-programa | Evaluador externo | Veredicto de eficacia |
| Evaluación Centrada en la Utilización | Cualquiera | Externo con enfoque en el usuario | Hallazgos relevantes para la toma de decisiones |
| Evaluación Realista | Posterior o durante | Analista externo | Teoría de rango medio |
Indicadores Relevantes
16 indicadores en marcos de DFID, UNDP y fundaciones. Ejemplos clave:
- Número de adaptaciones del programa documentadas formalmente como informadas por hallazgos del DE
- Calificación de calidad del proceso de compromiso evaluador-equipo (calificada por ambas partes)
- Frecuencia de retroalimentación en tiempo real proporcionada al equipo del programa (meta: al menos mensual)
- Grado de refinamiento de la teoría del cambio documentado durante el periodo de evaluación
Herramientas Relacionadas
- MEStudio Logic Model Builder — para desarrollar y actualizar la teoría del cambio viva
- Evaluation Planner — para estructurar el enfoque de monitoreo del DE y la recolección de datos en tiempo real
Temas Relacionados
- Gestión Adaptativa — la práctica de gestión de programas que el DE está diseñado para apoyar
- Evaluación Centrada en la Utilización — un enfoque relacionado donde las necesidades del usuario previsto impulsan todas las decisiones de evaluación
- Agendas de Aprendizaje — las prioridades de aprendizaje estructuradas que pueden anclar la recolección de datos del DE
- Teoría del Cambio — el marco vivo que el DE prueba y refina continuamente
- Cambio Más Significativo — un método complementario para capturar resultados inesperados o transformadores durante el DE
Lecturas Adicionales
- Patton, M.Q. (2011). Evaluación del Desarrollo: Aplicando Conceptos de Complejidad para Mejorar la Innovación y el Uso. Nueva York: Guilford Press. El texto fundacional.
- Patton, M.Q., McKegg, K., & Wehipeihana, N. (2016). Ejemplares de Evaluación del Desarrollo: Principios en la Práctica. Nueva York: Guilford. Estudios de caso de 12 evaluaciones del DE.
- Gamble, J. (2008). Un Compendio de Evaluación del Desarrollo. Montreal: Fundación McConnell. Una introducción concisa para profesionales.
- DFID (2014). Ampliando el Rango de Diseños y Métodos para Evaluaciones de Impacto. Cubre enfoques de desarrollo junto con diseños experimentales.