This is an Eval Central archive copy, find the original at triplead.blog.

La cooperación internacional para el desarrollo atraviesa un periodo de transformaciones profundas. Factores como el giro hacia el aislacionismo en la política exterior estadounidense durante la administración Trump, los efectos socioeconómicos de la pandemia de COVID-19, la prolongada crisis en Ucrania y la reciente escalada de violencia en Gaza han provocado una contracción significativa de los flujos de financiamiento. Esta nueva configuración afecta transversalmente a agencias multilaterales, organizaciones no gubernamentales y actores de cooperación bilateral, obligándolos a repensar sus capacidades institucionales.
En este escenario, muchas organizaciones han respondido con estrategias de reducción de costes —incluyendo recortes de personal y disminución de actividades programáticas— para mantener su viabilidad operativa. Aunque comprensibles desde una lógica de eficiencia, estas medidas pueden derivar en un efecto colateral preocupante: la marginalización de la eficacia como criterio estratégico central y el debilitamiento de las funciones de evidencia.
Estas funciones —que incluyen evaluación, monitoreo, análisis de desempeño, estudios temáticos, gestión del conocimiento, investigación aplicada, sistemas de datos y estructuras de aprendizaje organizacional— son esenciales para generar, interpretar y utilizar información útil en la toma de decisiones. Según Newman, Fisher y Shaxson (2012), el fortalecimiento de estas funciones no puede limitarse a una mejora técnica, sino que requiere transformaciones estructurales en capacidades, incentivos, liderazgo y cultura organizativa.
Un aspecto a tener en cuenta es que en muchas organizaciones, la medición del desempeño – a nivel individual, de equipos y organizacional- no es fiable (o, incluso, como se sabe que no es fiable, no se usa o no se puede utilizar para la toma de decisiones). Como indica Green (2024), la proliferación de métricas centradas en productos (outputs) desconectados del impacto real ha debilitado el potencial de estas funciones para orientar el cambio. Este diagnóstico se alinea con la crítica de Natsios (2010) a la “contraburocracia”: un sistema que premia la cuantificación superficial y penaliza la comprensión contextual.
Durante los años de expansión presupuestaria post-pandemia, las funciones de evidencia tuvieron una oportunidad histórica para consolidarse como eje de aprendizaje y adaptación estratégica. Sin embargo, múltiples estudios (Green, 2024; Center for Global Development, 2023) revelan que, en muchos casos, estas funciones no lograron identificar, poner sobre la mesa o romper los cuellos de botella sistémicos ni ejercer una voz crítica frente a las prioridades impuestas externamente.
Este patrón refleja lo que March y Olsen (1989) definieron como complicidad sistémica: las instituciones reconocen los fallos, pero optan por no confrontarlos debido a presiones internas, dependencia financiera o miedo a las consecuencias. En ese marco, la evidencia deja de ser una palanca de mejora y se transforma en un ejercicio ritualizado.
Eyben et al. (2015) y Honig (2022) alertan sobre cómo la presión por mostrar resultados positivos y la subordinación de la evaluación a agendas políticas han erosionado su independencia. Esta desconexión entre producción de evidencia y decisiones estratégicas es lo que Parkhurst (2017) denomina un “gobierno disfuncional de la evidencia”: evidencia generada, pero no gobernada de forma adecuada ni útil.
Pero existen otros enfoques alternativos o complementarios que permiten recuperar el potencial transformador de estas funciones. Andrews, Pritchett y Woolcock (2017) plantean la necesidad de construir capacidades desde el contexto, priorizando la solución de problemas reales y no la aplicación de recetas estándar. En esa línea, Patton (2011) y Bamberger et al. (2015) impulsan evaluaciones adaptativas, centradas en el aprendizaje, especialmente útiles en contextos inciertos y dinámicos. La OCDE (2022), por su parte, ha actualizado sus criterios de evaluación precisamente para fomentar mayor utilidad, flexibilidad y adecuación contextual.
Finalmente, Lafortune, Fuller y Schmidt-Traub (2018) demuestran que varios países están avanzando en la institucionalización de las funciones de evidencia como parte integral de sus sistemas de gobernanza pública, no como un requisito externo, sino como parte de una arquitectura estratégica orientada al cambio.
Funciones de evidencia en riesgo: Barreras estructurales que aseguran su debilidad
La precariedad de las funciones de evidencia no es un accidente coyuntural, sino el resultado de barreras estructurales persistentes, tanto a nivel del sistema de cooperación como de su funcionamiento interno:
Barreras del sistema de cooperación internacional
- Fragmentación entre actores (bilaterales, multilaterales, ONGD): Lógicas y sistemas de rendición no alineados generan duplicaciones y dificultan el aprendizaje colectivo (OCDE, 2022; Eyben et al., 2015).
- Dependencia de prioridades políticas de los donantes: Las agendas de evidencia quedan subordinadas a calendarios financieros y geopolíticos externos (Green, 2024; Parkhurst, 2017).
- Éxito como fetiche institucional: Se valora lo que puede medirse fácil y positivamente, más que lo que es relevante pero complejo o incómodo (Honig, 2022; Natsios, 2010).
Barreras internas de las funciones de evidencia
- Baja integración con la toma de decisiones estratégicas: Muchas unidades de M&E tienen baja incidencia real (Newman et al., 2012).
- Diseño institucional débil: Ausencia de gobernanza clara, recursos sostenibles y alineación con planificación (Lafortune et al., 2018).
- Capacidades limitadas: Falta de dominio en análisis cualitativo, evaluaciones formativas o enfoques sistémicos (Bamberger et al., 2015; Woolcock, 2013).
Barreras específicas de la función de evaluación
- Débil independencia frente a las unidades implementadoras (Eyben et al., 2015).
- Uso ritualizado de informes sin consecuencias reales (Parkhurst, 2017).
- Déficit de apropiación local en los procesos evaluativos (Roche, 1999).
Crisis y Cambio: ¿Oportunidad de Reforma o Gatopardismo (cambiar algo para que nada cambie)?
Frente a este diagnóstico, la coyuntura puede leerse de dos maneras opuestas:
Escenario 1: Adaptación regresiva (gatopardismo)
- Recortes que debilitan aún más las funciones de evidencia.
- Simplificación metodológica que refuerza usos administrativos de la evaluación.
- Mayor centralización del poder sobre la evidencia, sin abrir espacio al disenso o la crítica.
Resultado: que “todo cambie para que nada cambie”.
Escenario 2: Punto de inflexión para la reforma
- Fortalecimiento de las funciones de evidencia como núcleo estratégico organizacional.
- Creación de sistemas híbridos de evidencia, integrando datos, narrativas, participación y adaptabilidad.
- Redefinición de incentivos hacia el uso transformador y no ritual de la evidencia.
Estrategias para evitar el gatopardismo
- No reducir presupuestos críticos sin evaluar su impacto estratégico.
- Asegurar el liderazgo político del uso de evidencia, desde los más altos niveles.
- Crear espacios para el aprendizaje institucional honesto, incluso incómodo.
¿Será esta crisis un punto de quiebre para reconfigurar las funciones de evidencia como herramientas de transformación institucional, o simplemente una etapa más de ajustes superficiales que perpetúan la disfunción?
Aprender de los Errores: 10 Principios para Reconstruir las Funciones de Evidencia
Aquí tienes una lista integrada que fusiona y armoniza el contenido de ambas versiones, manteniendo la profundidad conceptual de la segunda lista y la claridad de la primera:
Aprender de los Errores: 10 Principios para Reconstruir las Funciones de Evidencia (Versión Integrada)
- Garantizar la independencia institucional de las unidades responsables de la evidencia, incluyendo su autonomía operativa y financiera (Eyben et al., 2015).
- Priorizar la medición de procesos, resultados e impactos, más allá de la entrega de productos (outputs) (Natsios, 2010).
- Adoptar enfoques adaptativos y sensibles a la complejidad y al contexto (Patton, 2011; Bamberger et al., 2015).
- Identificar y visibilizar cuellos de botella sistémicos, incluso si resultan políticamente incómodos, evitando la autocensura (Green, 2024).
- Formar equipos con competencias políticas y técnicas, capaces de comprender dinámicas internas de poder (Eyben et al., 2015).
- Fomentar culturas institucionales orientadas al aprendizaje, no solo al cumplimiento o control (OECD DAC EvalNet, 2023).
- Utilizar métodos cualitativos y narrativos, como complemento al análisis cuantitativo (Woolcock, 2003).
- Incluir las voces de actores locales y destinatarios de las intervenciones (Roche, 1999).
- Reforzar la calidad y transparencia de los datos, utilizados para informar decisiones (Sandefur & Glassman, 2015).
- Situar las funciones de evidencia en el núcleo estratégico del diseño institucional, integrándolas al centro de la organización (Lafortune et al., 2018).
Conclusión
La evaluación -como parte central de las funciones de evidencia– debe recuperar su potencia crítica y su rol estratégico.
En tiempos de restricciones, el reto no es sobrevivir haciendo menos, sino reformular cómo hacemos lo esencial para que importe más.
Fortalecer estas funciones no es solo una cuestión técnica: es una decisión política de alto impacto para el futuro de la cooperación.
Referencias
- Andrews, M., Pritchett, L., & Woolcock, M. (2017). Building State Capability: Evidence, Analysis, Action. Oxford University Press.
- Bamberger, M., Vaessen, J., & Raimondo, E. (2015). Dealing with Complexity in Development Evaluation. SAGE.
- Center for Global Development (2023). The Post-COVID Shrinking of Aid and its Impact on Accountability Mechanisms.
- Eyben, R., Guijt, I., Roche, C., & Shutt, C. (2015). The Politics of Evidence and Results in International Development. Routledge.
- Green, D. (2024). How to be a Critical Friend: The Role of Evaluation in a Shrinking Aid World. Oxfam Blog.
- Honig, D. (2022). Navigation by Judgment: Why and When Top-Down Management of Foreign Aid Doesn’t Work. Oxford University Press.
- Lafortune, G., Fuller, G., & Schmidt-Traub, G. (2018). How Evidence-Based is Public Policy? SDSN.
- March, J.G., & Olsen, J.P. (1989). Rediscovering Institutions: The Organizational Basis of Politics. Free Press.
- Natsios, A. (2010). The Clash of the Counter-bureaucracy and Development. CGD Essay.
- Newman, K., Fisher, C., & Shaxson, L. (2012). Stimulating Demand for Evidence-Based Policy-Making. IDS Bulletin.
- OECD (2022). Evaluation Criteria: Adapted Definitions and Principles for Use. OECD Publishing.
- OECD DAC EvalNet (2023). Strengthening the Use of Evidence in Fragile and Conflict-Affected Contexts.
- Parkhurst, J. (2017). The Politics of Evidence: From Evidence-Based Policy to the Good Governance of Evidence. Routledge.
- Patton, M. Q. (2011). Developmental Evaluation: Applying Complexity Concepts to Enhance Innovation and Use. Guilford Press.
- Roche, C. (1999). Impact Assessment for Development Agencies: Learning to Value Change. Oxfam.
- Sandefur, J., & Glassman, A. (2015). The Political Economy of Bad Data. Journal of Development Studies.
- Woolcock, M. (2013). Using Case Studies to Explore the External Validity of Complex Development Interventions. Evaluation, 19(3), 229–248.