• Skip to primary navigation
  • Skip to main content

EvalCentral Blog

Archiving & Amplifying Evaluation

  • Twitter (@evalcentral)
  • Show Search
Hide Search

Reimaginando la evaluación en tiempos de cambio

This is an Eval Central archive copy, find the original at triplead.blog.

En tiempos de incertidumbre estructural y cuestionamiento o agotamiento de modelos, tanto la cooperación internacional como su aparato evaluativo atraviesan una fase de transición profunda. Este post esta dentro de la serie «Repensar la ayuda». Como analicé en «Liminalidad: oportunidad para reformular la ayuda» (Rodríguez Ariza, 2025a), nos encontramos en un momento liminal, en el sentido propuesto por Victor Turner: un umbral donde lo anterior se cuestiona, erosiona, agota o descompone sin que lo nuevo esté plenamente definido. Esta zona intermedia, más que un vacío, puede ser un campo fértil de reinvención. ¿Qué implica evaluar desde este umbral? ¿Qué horizontes se abren cuando las estructuras pierden su aura de inevitabilidad?

Una variable crítica en este escenario es la irrupción de la inteligencia artificial (IA) en el campo evaluativo. Su despliegue puede representar una palanca de renovación o, por el contrario, consolidar los sesgos y ritualismos de los modelos cuestionados o agotados. Evaluar desde el umbral exige también repensar el lugar de la IA en los procesos evaluativos, desde la generación de evidencia hasta la rendición de cuentas y la deliberación pública.

1. ¿Qué está en crisis? Erosión o desgaste de paradigmas

La evaluación dominante, anclada en la neutralidad tecnocrática, comienza a mostrar su cuestionamiento o agotamiento. Modelos centrados sobre todo en resultados cuantificables, estándares universales y lógicas verticales ya no responden a contextos de injusticia estructural ni a relaciones de poder desiguales. En «Evaluación y cooperación en tiempos de restricciones» (Rodríguez Ariza, 2025b), abordé cómo estas lógicas han colonizado el campo, desplazando el sentido público y deliberativo de la evaluación. La crisis no es solo metodológica y técnica: es ética, epistemológica y política.

Asimismo, como desarrollé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta crisis implica también una pérdida de legitimidad institucional. Las estructuras de ayuda se perciben rígidas, lejanas o desconectadas de las prioridades reales. En ese marco, la evaluación no puede seguir (a) siendo una herramienta que señala más los síntomas que las causas últimas u originarias, (b) centrada en aspectos más operativos y/o periféricos que estructurales. Debe dejar de ser un instrumento de verificación burocrática para transformarse en vehículo de reconstrucción de confianza, legitimidad y pertinencia social.

La IA se inserta aquí como catalizador ambiguo. Puede contribuir a la transparencia y eficiencia, pero también perpetuar automatismos, opacidad algorítmica o una “gobernanza sin sujeto”. Sin dirección crítica, podría reforzar una evaluación despolitizada, funcionalista y reduccionista.

2. Crítica estructural al sistema evaluativo

Una parte del sistema actual de evaluación funciona como un dispositivo simbólico más que como una herramienta transformadora. Autores como Michael Power (1997) en The Audit Society, y Dahler-Larsen (2011) en The Evaluation Society, han demostrado cómo las evaluaciones tienden a convertirse en rituales de rendición de cuentas, en algunos casos de gran rigor y calidad técnica, pero en muchas ocasiones sin utilidad real. Este ritualismo genera a menudo:

  • Evaluaciones costosas, pero de baja utilidad práctica.
  • Informes desconectados de la toma de decisiones.
  • Poca participación significativa de actores clave.
  • Reificación de lo cuantificable sobre lo relevante.

A ello se suma el fenómeno del adanismo evaluativo: movimientos o llamadas a la renovación a través de propuestas que se dicen innovadoras pero que, en realidad, repiten ideas ya existentes, muchas de ellas desde hace decenios, pero sin aplicarlas adecuadamente. A pesar de décadas de literatura sobre evaluación transformadora, participativa, enfocada al uso o basada en justicia social (Mertens, 2009; Patton, 2011; Greene, 2007), estos enfoques rara vez se implementan por falta de voluntad política, recursos o estructuras habilitantes. El enfoque al uso o a la utilización tiene más de 50 años. Nancy Fraser (2013) y Ruth Levitas (2013) ya advertían cómo ciertos marcos transformadores quedan relegados por el mainstream tecnocrático.

Incluso las propias oficinas de evaluación a veces reproducen las lógicas que deberían cuestionar: jerarquías rígidas, baja accountability o captura institucional. Las oficinas de evaluación, en ocasiones son jerárquicas y desconectadas de la planificación, replicando las lógicas burocráticas que dicen evaluar. Estudios recientes han documentado cómo estas unidades suelen operar en silos, con débil influencia estratégica y bajo impacto real en las decisiones políticas (ITAD, 2021; OECD DAC, 2022). Además, sufren de “accountability blanda”, reportando a estructuras no técnicas o desvinculadas del uso de resultados (como los Boards) (Patton, 2011; Segone, 2010).

Experiencias como las de UN Women, UNICEF o la Global Evaluation Initiative han señalado la necesidad de modelos institucionales más híbridos, que combinen independencia técnica con relevancia estratégica y anclaje en estructuras deliberativas. También se requiere avanzar hacia espacios de evaluación que actúen como nodos de colaboración y creación conjunta (Cabaj & Weaver, 2016), con capacidad de escucha institucional, co-diseño y aprendizaje organizacional.

Este rediseño institucional no puede recaer únicamente en reformas normativas: debe venir acompañado de cambios culturales y tecnológicos. La IA puede contribuir a mejorar la trazabilidad, transparencia y coordinación de sistemas evaluativos, pero solo si está al servicio de nuevas lógicas organizativas y de gobernanza, evitando reforzar estructuras verticales y opacas (Bamberger, 2022; Sanderson & De Silva, 2022).

Como planteé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta situación erosiona la legitimidad pública y limita el potencial democrático de la evaluación.

3. Ejes analíticos para reimaginar la evaluación

1.Crítica al adanismo evaluativo: Denuncia la constante producción de “nuevas” metodologías sin haberse aplicado las anteriores. Por ejemplo, Stake (1983) y House (1993) ya ofrecían modelos ricos, pero poco implementados. La revisión histórica es clave para evitar falsas innovaciones. La IA puede tanto rescatar conocimiento olvidado como reforzar esta obsesión por “lo nuevo”.

2.Evaluación como práctica política y estética: Desde Puig de la Bellacasa (2017) y Sultana (2021), hasta Greene (2007), se propone una evaluación que escuche, cuide y afecte. Lo sensorial, lo narrativo y lo afectivo son dimensiones legítimas. La IA, aquí, enfrenta límites claros: ¿cómo cuantificar la afectividad o representar el cuidado?

3.Revisión crítica de estructuras evaluativas: Las oficinas de evaluación, a veces jerárquicas y desconectadas, replican las lógicas burocráticas que dicen evaluar. Requieren ser reformuladas como espacios de colaboración, trabajo y creación conjunta (togetherness), dialógicos, abiertos y adaptativos. Las soluciones tecnológicas deben acompañarse de rediseños institucionales profundos, según confirman diversas experiencias institucionales y estudios especializados.

4.Evaluación en tiempos de transición: El concepto de liminalidad (Turner, 1969; Rodríguez Ariza, 2025a) permite operar desde la ambigüedad y contingencia, abriendo espacio para negociaciones deliberativas y futuros emergentes. La IA puede ayudar a modelar escenarios y simular alternativas, pero no sustituye el juicio ético ni la deliberación política.

5.Hacia una política de evaluación posburocrática: Inspirados en Patton (2011) y Miraftab (2016), se requiere rediseñar la función evaluativa desde instituciones más porosas, distribuidas y capaces de articularse con actores locales. Aquí, la IA puede ser útil para facilitar diálogos horizontales, solo si se gobierna con criterios de justicia algorítmica.

    4. Orientaciones operacionales transformadoras

    Estas orientaciones responden directamente a los ejes críticos anteriores, formando una hoja de ruta para reconfigurar el sistema evaluativo desde su raíz hasta su operación concreta.

    (Eje 1) Superar el adanismo evaluativo:

    • En lo posible, conocer nuestro pasado como comunidad evaluativa, recuperar y aplicar enfoques existentes (como los de Stake y House) y evitar la reinvención superficial, pero que no llega a aprender de aciertos y errores pasados e incorporar o a poner en practica enfoques anteriores.
    • IA: puede sistematizar e implementar buenas prácticas acumuladas si se orienta a tal fin.

    (Eje 2) Integrar la dimensión estética y afectiva:

    • Incorporar metodologías narrativas, evaluación basada en el cuidado, escucha profunda.
    • IA: útil en visualización, pero limitada para captar dimensiones afectivas o contextuales.

    (Eje 3) Reformular estructuras evaluativas:

    • Fomentar accountability interna (vertical y horizontal), romper silos y promover el diálogo estratégico dentro de y entre las funciones de planificación, seguimiento y evaluación.
    • IA: riesgo de concentración algorítmica de decisiones si no se democratiza su uso.

    (Eje 4) Activar evaluaciones descentralizadas y situadas:

    • Integrar, potenciar y poner en valor funciones evaluativas regionales y nacionales, más cercanas a los efectos transformadores.
    • IA: puede facilitar el análisis distribuido y contextualizado, si se adapta al entorno local.

    (Eje 5) Fortalecer capacidades colaborativas y de diseño sistémico:

    • Impulsar enfoques como Collective Impact (Kania & Kramer), reducir la ritualidad colaborativa.
    • IA: puede facilitar coordinación, pero no garantiza voluntad política ni apropiación / ownership real.

    Tabla de vínculos entre ejes y orientaciones

    Eje Analítico Orientación Operacional Principal Efecto estructural propuesto Rol de la IA
    1. Crítica al adanismo evaluativo Recuperar y aplicar enfoques pasados relevantes Coherencia histórica, evitar modas metodológicas efímeras Puede rescatar y aplicar conocimiento existente o promover modas acríticas
    2. Evaluación como práctica política y estética Incorporar narrativas, afectos y cuidado como dimensiones legítimas Evaluaciones más humanas, resonantes y transformadoras Potencia lo visual, pero puede invisibilizar lo sensible y no cuantificable
    3. Revisión crítica de estructuras evaluativas Fortalecer accountability, evitar silos, fomentar diálogo institucional Oficinas evaluativas más transparentes y democráticas Mejora la transparencia, pero puede concentrar poder algorítmico
    4. Evaluación en tiempos de transición Diseñar evaluaciones abiertas a ambigüedad y aprendizaje colectivo Capacidad adaptativa ante incertidumbre y contextos dinámicos Ayuda a simular escenarios futuros, pero tiende a estandarizar respuestas
    5. Política de evaluación posburocrática Promover colaboración real, descentralización y co-diseño con actores Evaluación estratégica, legitimada socialmente y más eficaz Facilita coordinación, pero puede tecnocratizar la participación

    5. Conclusión: transitar el umbral como gesto transformador

    Los umbrales siempre han sido espacios de vulnerabilidad y posibilidad. Evaluar desde la liminalidad no implica suspender el juicio, sino reformularlo desde marcos más justos, plurales y abiertos al devenir. Como he señalado, «evaluar en tiempos liminales no es aplicar un checklist, sino acompañar una transición de paradigmas».

    Este llamado interpela especialmente a evaluadoras y evaluadores: se requiere valentía profesional, imaginación crítica y voluntad de diseñar evaluaciones que estén a la altura de los desafíos emergentes.

    Referencias

    Bamberger, M. (2022). Artificial Intelligence and the Future of Evaluation. BetterEvaluation.

    Cabaj, M., & Weaver, L. (2016). Collective Impact 3.0: An evolving framework for community change. Tamarack Institute.

    Carden, F. (2009). Knowledge to Policy: Making the Most of Development Research. IDRC.

    Dahler-Larsen, P. (2011). The Evaluation Society. Stanford University Press.

    EVALSDGs. (2020). Evaluation to Accelerate Progress towards the SDGs.

    Floridi, L. (2019). Establishing the rules for digital ethics. Nature.

    Fraser, N. (2013). Fortunes of Feminism. Verso.

    Greene, J. C. (2007). Mixed Methods in Social Inquiry. Jossey-Bass.

    House, E. R. (1993). Professional Evaluation. Sage.

    ITAD. (2021). Rethinking Evaluation Use. ITAD.

    Kania, J., & Kramer, M. (2011, 2022). Collective Impact. Stanford Social Innovation Review.

    Levitas, R. (2013). Utopia as Method. Palgrave Macmillan.

    Miraftab, F. (2016). Insurgent Planning: Situating Radical Planning. In Routledge Handbook of Planning Theory.

    OECD DAC. (2022). Principles of Development Evaluation.

    Patton, M. Q. (2011). Developmental Evaluation. Guilford Press.

    Power, M. (1997). The Audit Society: Rituals of Verification. Oxford University Press.

    Preskill, H. (2014). Learning Culture and Collective Impact. FSG.

    Puig de la Bellacasa, M. (2017). Matters of Care: Speculative Ethics in More than Human Worlds. University of Minnesota Press.

    Rodríguez Ariza, C. (2025a). Liminalidad: oportunidad para reformular la ayuda. TripleAD.

    Rodríguez Ariza, C. (2025b). Evaluación y cooperación en tiempos de restricciones. TripleAD.

    Rodríguez Ariza, C. (2025c). Reiniciar el desarrollo. TripleAD.

    Sanderson, I., & De Silva, M. J. (2022). Ethics of AI in Development Evaluation. IDS Working Paper.

    Segone, M. (Ed.) (2010). From Policies to Results: Developing Capacities for Country Monitoring and Evaluation Systems. UNICEF.

    Stake, R. E. (1983). Program Evaluation, Particularly Responsive Evaluation. Western Michigan University.

    Sultana, F. (2021). Climate Change, Racism and Feminist Geography. Dialogues in Human Geography.

    Turner, V. (1969). The Ritual Process: Structure and Anti-Structure. Aldine.

    Zenda Ofir. (2023). Evaluation in Turbulent Times. African Evaluation Journal.

    Nota: Este artículo fue redactado con apoyo de inteligencia artificial, que también sugirió algunas de las referencias bibliográficas incluidas. Sin embargo, las ideas centrales, el enfoque y la selección final del contenido son completamente mías

    June 22, 2025 by Carlos

    Filed Under: TripleAD

    Eval Central Logo

    Footer

    Eval Central developed and managed by Chris Lysy (@clysy) of Freshspectrum.com · Copyright © 2025