Evaluación realista
La evaluación realista tiene por objetivo identificar los mecanismos causales generativos subyacentes que explican cómo se causaron los resultados y cómo influye el contexto sobre ellos.
Descripción general
La evaluación realista se centra en responder la pregunta: “¿Qué funciona, para quién, en qué sentidos, en qué medida, en qué contextos, y cómo?”.
Pawson y Tilley (1997), quienes desarrollaron inicialmente el enfoque de evaluación realista, sostuvieron que, para ser útiles para los responsables de tomar decisiones, las evaluaciones tienen que identificar “¿qué funciona en qué circunstancias y para quién?”, antes que limitarse a preguntar: “¿funciona esta intervención?” Pawson y Tilley propusieron que una evaluación realista debía producir afirmaciones “contexto-mecanismo-resultado” (CMR) de acuerdo con la siguiente tónica: “En este contexto, ese mecanismo específico se disparó para estos actores, generando aquellos resultados. En aquel contexto, este otro mecanismo se disparó, generando estos otros resultados.” Otras personas evaluadoras que utilizan la evaluación realista han incorporado características de la intervención como un elemento adicional a las configuraciones CMR, dando como resultado la fórmula C+I+M=R (Punton y Vogel, 2020), o ICAMR - Intervención-Contexto-Actor-Mecanismo-Resultado (Mukumbank et al., 2018).
La comprensión realista de cómo funcionan los programas
La filosofía realista (Pawson y Tilley usan el término "realismo científico") considera que una intervención funciona (o no) porque los actores toman decisiones particulares en respuesta a la intervención (o no). El "razonamiento" de los actores en respuesta a los recursos u oportunidades proporcionados por la intervención es lo que causa los resultados.
Estrictamente hablando, el término "mecanismo generativo" se refiere a los impulsores sociales o psicológicos subyacentes que "causan" el razonamiento de los actores. Por ejemplo, un programa de habilidades para padres puede haber logrado diferentes resultados para los padres y las madres. El mecanismo que genera diferentes "razonamientos" por parte de las madres y los padres puede relacionarse con las normas sociales dominantes sobre los roles y responsabilidades de las madres y los padres. Mecanismos adicionales pueden estar situados en esferas psicológicas, sociales u otras.
El contexto importa: en primer lugar, influye en el "razonamiento" y, en segundo lugar, los mecanismos generativos solo pueden funcionar si las circunstancias son correctas. Volviendo a nuestro ejemplo, puede haber diferentes creencias sociales acerca de los roles y responsabilidades de las madres y los padres en diferentes culturas, lo que puede afectar la forma en que los padres responden al programa de crianza. Si los padres pueden poner en práctica su nuevo aprendizaje dependerá de una serie de factores, tal vez el tiempo que tengan disponible, sus propias creencias sobre la crianza de los hijos o su salud mental. Finalmente, el contexto puede proporcionar explicaciones alternativas de los resultados observados, y estos deben tenerse en cuenta durante el análisis.
Emprendiendo una evaluación realista
Desarrollando la teoría inicial del programa
La evaluación realista comienza con la teoría y termina con la teoría. En otras palabras, el propósito de una evaluación realista es tanto probar y perfeccionar la teoría del programa como determinar si el programa funcionó en un entorno particular y cómo lo hizo.
La teoría del programa describe cómo se espera que la intervención conduzca a sus efectos y en qué condiciones debe hacerlo. La teoría inicial del programa puede basarse en investigaciones, conocimientos, experiencias y suposiciones previas de los diseñadores de la intervención sobre cómo funcionará la intervención. La diferencia entre los enfoques de evaluación realista y otros tipos de evaluación, basada en la teoría, de los programas es que una teoría de programas realista especifica qué mecanismos generarán los resultados y qué características del contexto afectarán si esos mecanismos funcionan o no. Idealmente, estos elementos (mecanismos, resultados, contexto) se explicitan en la etapa de diseño de la evaluación, ya que permite diseñar la recopilación de datos para enfocarse en probar los diferentes elementos de la teoría del programa.
Eligiendo los métodos de evaluación
La evaluación realista es método-neutral (es decir, no impone el uso de métodos particulares).
Al igual que con cualquier evaluación, la elección de la recolección de datos y los métodos y herramientas de análisis deben guiarse por los tipos de datos necesarios para responder a las preguntas de la evaluación o, más específicamente, para probar la teoría inicial del programa en todas sus dimensiones.
Por lo general, los datos cuantitativos y cualitativos se recopilan en una evaluación realista, a menudo con datos cuantitativos centrados en el contexto y los resultados, y datos cualitativos centrados en mecanismos generativos. Debido a que el análisis realista utiliza principalmente comparaciones intra-programa (es decir, comparaciones entre diferentes grupos involucrados en el mismo programa) para probar la teoría inicial, un diseño de evaluación realista no necesita construir grupos de comparación. Más bien, la teoría refinada del programa se probará posteriormente en un contexto diferente en un próximo estudio. A menudo se utiliza el diseño del estudio de caso, por lo que la selección de casos es generalmente intencional, ya que los casos deberían permitir la "prueba" de la teoría inicial del programa en todas sus dimensiones.
Utilizando un enfoque realista de análisis de datos
El análisis realista de datos está impulsado por los principios del realismo: la evaluación realista explica el cambio provocado por una intervención al referirse a los actores que actúan y cambian (o no) una situación en condiciones específicas y bajo la influencia de eventos externos (incluida la intervención misma). Se considera que los actores y las intervenciones están integrados en una realidad social que influye en cómo se implementa la intervención y cómo los actores responden a ella (o no). La configuración de contexto-mecanismo-resultado (CMO, por sus siglas en inglés) se utiliza como la estructura principal para el análisis realista.
En la primera fase del análisis, los datos se organizan en relación con la teoría inicial del programa, es decir, si los datos se relacionan con lo que se hizo (las actividades de intervención) o con el contexto, el mecanismo, el resultado y (grupos de) actores. Los datos cualitativos están codificados y se aplican métodos apropiados para analizar datos cuantitativos. Los datos sobre los resultados se desglosan por subgrupos (que se seleccionaron sobre la base de la teoría del programa).
Una vez que se identifican los patrones de resultados, se pueden analizar los mecanismos que generan esos resultados, siempre que se disponga de los tipos de datos correctos. Los contextos en los que los mecanismos particulares "activaron", o no, se pueden determinar. Los contextos pueden relacionarse con los subgrupos para los cuales se generaron resultados y/o con otros actores, procesos de implementación, condiciones organizativas, socioeconómicas, culturales y políticas.
El proceso analítico no es necesariamente secuencial, pero debería dar lugar a un conjunto de declaraciones de "contexto-mecanismo-resultado" (CMO): "En este contexto, ese mecanismo en particular se activó para estos actores, generando esos resultados. En ese contexto, este otro mecanismo se activó, generando estos resultados diferentes".
La última fase del análisis consiste en determinar qué configuración(es) de CMO ofrece la explicación más sólida y plausible del patrón observado de los resultados. Esta configuración de CMO resultante se compara con la teoría inicial del programa, que se modifica (o no) según los hallazgos de la evaluación.
Utilizando los hallazgos de la evaluación realista
Tanto los mecanismos generativos como las teorías de programas pueden considerarse a diferentes niveles de abstracción, desde muy específicos (individuos particulares dentro de programas particulares) hasta bastante abstractos (a través de diferentes tipos de programas). Pawson y Tilley argumentaron que las "teorías de rango medio"* (MRT, por sus siglas en inglés) son las más útiles. Las MRT son lo suficientemente específicas para generar proposiciones particulares para probar y lo suficientemente generales para aplicar en diferentes situaciones. Normalmente, las MRT se desarrollan a lo largo del tiempo en base a acumulación de conocimientos adquiridos a través de una serie de estudios que permiten una especificación gradual de los hallazgos realistas. Todos los tipos de teoría en la evaluación realista (teoría de programas, teorías sobre mecanismos particulares, CMO y teoría formal) son más útiles si se desarrollan en un nivel medio de abstracción.
Debido a que la evaluación realista utiliza la idea de causalidad generativa (es decir, los mecanismos solo se activan cuando el contexto es propicio), los realistas son modestos en sus afirmaciones, indicando que una evaluación no puede producir resultados universalmente aplicables. En el mejor de los casos, la evaluación puede dar sentido a los procesos complejos que subyacen a los programas al formular explicaciones plausibles ex post. Puede indicar las condiciones en las que la intervención funciona (o no) y cómo lo hacen. Esta especificación realista permite a los tomadores de decisiones evaluar si las intervenciones que tuvieron éxito en un entorno pueden tener éxito en otro, y ayuda a los planificadores de programas a adaptar las intervenciones a los contextos específicos.
*Una teoría de rango medio se entiende como "la teoría que se encuentra entre las hipótesis de trabajo menores pero necesarias... y los esfuerzos sistemáticos integrales para desarrollar una teoría unificada que explique todas las uniformidades observadas de comportamiento social, organización social y cambio social" [Merton, RK. (1968). Teoría social y estructura social. Nueva York: The Free Press, p39]. En esencia, "rango medio" se refiere al grado de abstracción y puede referirse a la teoría de programas, mecanismos generativos, CMOs, teorías formales, etc.
Características consistentes con una perspectiva de vías causales
Una perspectiva de vías causales en la evaluación se centra en comprender cómo, por qué y en qué condiciones se produce o se ha producido un cambio. Se utiliza para entender las cadenas interconectadas de vínculos causales que conducen a una variedad de resultados e impactos. Es probable que dichas vías causales involucren a múltiples actores, factores contribuyentes, eventos y acciones, y no solo las actividades asociadas con el programa, proyecto o política sometido a evaluación o sus objetivos declarados.
La Evaluación Realista puede usarse de formas que incorporen las siguientes características de una perspectiva de vías causales:
Una perspectiva de vías causales en la evaluación se centra en comprender cómo, por qué y en qué condiciones se produce o se ha producido un cambio. Se utiliza para entender las cadenas interconectadas de vínculos causales que conducen a una variedad de resultados e impactos. Es probable que dichas vías causales involucren a múltiples actores, factores contribuyentes, eventos y acciones, y no solo las actividades asociadas con el programa, proyecto o política sometido a evaluación o sus objetivos declarados.
La Evaluación Realista puede utilizarse de formas que incorporen las siguientes características de una perspectiva de vías causales:
- Valora las narrativas de los actores: La evaluación realista prueba explícitamente teorías de cambio hipotetizadas recopilando información de los encuestados acerca de los contextos, mecanismos y/o resultados y la teoría del programa.
- Incide en el poder y la inclusión: La evaluación realista tiene el potencial para incidir en el poder y la inclusión, garantizando que la estrategia de muestreo sea diseñada para involucrar comunidades privadas de sus derechos y buscar información sobre el contexto y mecanismos conducentes al cambio.
- Formula vías detalladas y con matices: La evaluación realista genera un análisis detallado de los resultados que se producen a partir de los cambios en el razonamiento de los actores en respuesta a una intervención, así como los mecanismos generativos subyacentes (impulsores psicológicos o sociales) que influyen en los cambios en el razonamiento.
- Presta atención a una variedad de resultados e impactos: La evaluación realista busca explicar resultados previstos e imprevistos, así como positivos y negativos.
- Utiliza un enfoque iterativo, de bricolaje, para el diseño de evaluación: El análisis de la información es iterativo, las teorías iniciales del programa son probadas y se utilizan etapas más tempranas del análisis para refinar el diseño de evaluación para etapas posteriores y/o la teoría del programa.
- Ayuda a comprender la variación contextual: Comprender el contexto es fundamental para la evaluación realista, que pregunta: “¿Qué funciona, para quién, en qué sentidos, en qué medida, en qué contextos y cómo?”. El contexto influye en los mecanismos causales, y por lo tanto los resultados solo pueden ser alcanzados si las circunstancias son correctas.
- Se basa en una variedad de estrategias de inferencia causal: Las evaluaciones realistas pueden utilizar metodologías de inferencia causal, desde rastreo de procesos, coincidencia de patrones y comparación hasta modelos predictivos.
- Adopta un enfoque adecuado a la complejidad para la evaluación de la calidad y el rigor: Las descripciones y justificaciones claras de cómo el análisis ha utilizado datos para desarrollar, confirmar, refutar o refinar una o más teorías del programa contribuyen a la credibilidad y el rigor. Los hallazgos de evaluaciones realistas acerca de las razones por las cuales las intervenciones funcionan (o no) en contextos específicos respaldan las decisiones en torno a la transferencia de un programa a una ubicación diferente.
Ejemplo
Evaluación realista del programa Desarrollo de la Capacidad para Usar Evidencia de Investigaciones (BCURE)
El programa
El programa Desarrollo de la Capacidad para Usar Evidencia de Investigaciones (BCURE, por sus siglas en inglés) fue una iniciativa de 15.7 millones de libras esterlinas financiada por el Departamento de Desarrollo Internacional del Reino Unido (DFID) durante el período 2013-2017. Seis contrapartes ejecutoras trabajaron con los gobiernos de 12 países de ingreso bajo y medio en África y Asia en el fortalecimiento de capacidades de funcionarios públicos y parlamentarios para utilizar evidencia de investigaciones en la toma de decisiones. Para ello se desarrollaron habilidades, incentivos y los sistemas requeridos para acceder, evaluar y aplicar evidencia.
BCURE utilizó una variedad de intervenciones diseñadas y combinadas de distintas formas – entre ellas capacitación, mentoring, diálogos sobre políticas y asistencia técnica para desarrollar herramientas y lineamientos en materia de evidencia. Los proyectos fueron de alcance y escala diferente, algunos trabajando con ministerios individuales y otros abarcando todo el sistema de gobierno.
La evaluación
El DFID encargó una evaluación que debía ser ejecutada por un equipo independiente de Itad paralelamente al programa durante el período 2014-2017. El objetivo de la evaluación era entender si BCURE funcionaba, y cómo y por qué el desarrollo de capacidades puede contribuir a un mayor uso de evidencia en el desarrollo de políticas en los muy diferentes contextos en los que operaba el programa, informando las decisiones programáticas dentro del DFID y más allá de este.
Este énfasis en el “cómo” y el “por qué” funcionaba BCURE entrañaba la necesidad de un enfoque de evaluación que hiciera uso de la teoría. Se selecciónó el enfoque de evaluación realista por encima de otros enfoques basados en la teoría porque resulta especialmente útil en programas piloto donde no está claro cómo y por qué funcionará la intervención, donde los programas se implementan en múltiples escenarios y es probable que conduzcan a diferentes resultados para diferentes grupos en diferentes contextos, y donde los comisionados están interesados en extraer lecciones acerca de cómo ampliar o implementar una intervención.
Cómo aplicamos un enfoque realista
La evaluación del programa BCURE fue conceptualizada en términos de tres etapas amplias: desarrollar la teoría, probar la teoría y refinar la teoría. Dichas etapas fueron iterativas antes que lineales; es decir, la teoría se desarrollaba, probaba, refinaba y probaba, refinaba y probaba nuevamente a medida que el conocimiento se acumulaba.
Desarrollar la teoría
Se desarrolló una teoría preliminar del programa al inicio de la evaluación, basada en el conocimiento existente del equipo y corazonadas profesionales acerca de la naturaleza del desarrollo de capacidades y de qué forma puede contribuir al uso de evidencia en el desarrollo de políticas. Estos criterios dieron forma a las preguntas de investigación para una revisión bibliográfica realista, que identificó teorías adicionales y mecanismos posibles en la literatura más amplia. Estas se utilizaron para desarrollar una teoría del programa más detallada y la primera iteración de configuraciones CMR. Se incorporaron características de la intervención como un elemento adicional a las configuraciones CMR para dar como resultado la formulación C+I+M=R. Esto ayudó a separar los factores de la intervención que BCURE controlaba (tales como diseño o duración de la capacitación) de los factores contextuales que no controlaba (tales como actitudes de los capacitandos).
Probar la teoría
Se recopilaron datos en seis de los 12 países del programa BCURE – Bangladesh, Kenia, Pakistán, Sierra Leona, Sudáfrica y Zimbabue. La evaluación se basó principalmente en datos cualitativos en forma de entrevistas semiestructuradas con 567 partes interesadas por espacio de tres años, utilizando guías tópicas para probar el conjunto más reciente de CIMRs. La evaluación se basó asimismo en datos de seguimiento, documentación del programa y, ahí donde fue posible, documentos gubernamentales tales como herramientas y políticas desarrolladas en colaboración con las contrapartes de BCURE.
Refinar la teoría
Las configuraciones CIMR se revisaron mediante un proceso iterativo. Se usó una base de datos Microsoft Excel hecha a medida para analizar los datos a nivel de países, en que las filas representaban los resultados referenciados por los encuestados de las entrevistas y las columnas contenían las descripciones de las partes interesadas acerca de cómo y por qué se produjo o no se produjo el resultado, como factores de intervención, contexto y mecanismo. Cada año, la evidencia a nivel país era sintetizada para explorar cómo y por qué diferentes intervenciones contribuían a diferentes patrones de resultados en diferentes contextos. El proceso de síntesis involucraba a todo el equipo de evaluación en forma de talleres de análisis para identificar patrones, conceptos y metáforas que aplicaran en todos los casos e inquirir por las diferencias. Este proceso producía un conjunto basado en evidencia de CIMRs refinados.
A todo lo largo de la evaluación, las configuraciones CIMR evolucionaron significativamente a lo largo de múltiples rondas de prueba y refinamiento. La revisión bibliográfica identificó 19 CIMRs, refinadas a 15 luego del primer año de levantamiento de datos. En el segundo año, algunas fueron canceladas, otras fueron fusionadas y otras fueron añadidas, probándose en total 14 CIMRs. En el tercer año, el equipo advirtió la necesidad de enfocarse en una cantidad menor de CIMRs para impulsar una investigación más en profundidad. Se priorizó un subconjunto conforme a los intereses del DFID, y se presentó un conjunto definitivo de cinco CIMRs probadas en el informe final. Ver el ejemplo más abajo:
Exponer la utilidad
Ahí donde se proporciona asistencia técnica para incorporar evidencia dentro de un proceso de política o para desarrollar una herramienta con el fin de mejorar el acceso, la evaluación o el uso de evidencia (I), esto puede generar políticas o productos de alta calidad (R) que expongan el valor de la evidencia en términos de calidad, rendimiento y entrega (M) y conduzcan a la adopción (R) y difusión (R) del procedimiento o de la herramienta. Esto es más probable cuando actores externos “acompañan” a socios gubernamentales en la coproducción de políticas o herramientas de manera flexible, receptiva y colaborativa (I), donde las políticas son altamente prioritarias o las herramientas sirven para encarar un problema reconocido (C), y donde las herramientas son intuitivas e interactivas (I) y genuinamente facilitan el que los funcionarios tomen decisiones y desempeñen su trabajo de mejor manera y con mayor eficiencia (M).
Uso y utilidad de la evaluación
La evaluación realista de BCURE impactó la política y la práctica con y más allá del DFID. El enfoque añadió valor de dos maneras principales:
- Ofreció una forma robusta de analizar la causalidad. Desarrollar y probar configuraciones CIMR realistas agregó una precisión sustancial y profundidad analítica a los hallazgos. Desarrollar, probar y refinar iterativamente estas teorías ayudó a garantizar que estuvieran arraigadas en la experiencia de las contrapartes ejecutoras y criterios más amplios de la literatura más vasta, lo cual enriqueció la relevancia, el peso empírico y la portabilidad hacia otros escenarios.
- Ayudó a generar hallazgos útiles, relevantes para las políticas, que sirvieron para informar programas de seguimiento. Esto se debió en parte a que las teorías fueron iterativamente refinadas a lo largo de tres años, informadas por las perspectivas de las partes interesadas y consideraciones pragmáticas acerca de cómo enmarcar las teorías de la manera más operativa. Al señalar los contextos y factores de intervención necesarios para que los mecanismos “se disparen”, la evaluación también pudo generar lecciones intuitivas y accesibles para futuros proyectos. Contribuyó a ello el enmarcar los mecanismos con etiquetas cotidianas y considerar cuidadosamente cómo comunicar las CIMRs en el informe final para minimizar la jerga realista (más adelante ahondamos en este tema).
Todos los informes de evaluación y otros productos se encuentran disponibles en el sitio web de Itad.
Consejo para ELEGIR este enfoque (recomendaciones y trampas)
Un diseño de evaluación realista es adecuado para evaluar cómo funcionan las intervenciones en situaciones complejas porque le permite al evaluador desarmar la red causal de las condiciones subyacentes a dichas intervenciones.
Una evaluación realista proporciona información que indica cómo funciona la intervención (es decir, mecanismo generativo) y las condiciones que se necesitan para que un mecanismo en particular funcione (es decir, especificación de contextos) y, por lo tanto, es probable que sea más útil para los responsables de la formulación de políticas que otros tipos de evaluación.
Al igual que con cualquier evaluación, el alcance de la evaluación realista debe establecerse dentro de los límites de tiempo y recursos disponibles. El uso de un enfoque realista para la evaluación no es necesariamente más intensivo en recursos o tiempo que otras evaluaciones basadas en la teoría, pero puede ser más costoso que un simple diseño de evaluación inicial y final.
En general no es posible explorar cada aspecto de una intervención, especialmente si esta es compleja y de grandes dimensiones, utilizando un enfoque realista. Deberán tomarse decisiones respecto de en qué partes de la teoría de una intervención o programa focalizarse. Las necesidades e intereses del comisionado de la evaluación deberán guiar dichas decisiones.
Consejo para UTILIZAR este enfoque (recomendaciones y trampas)
Evaluaciones realistas de gran escala o más complicadas son idealmente llevadas a cabo por equipos interdisciplinarios, ya que esto normalmente permite una consideración más amplia de mecanismos probables. Sin embargo, es posible realizar una evaluación realista con profesionales individuales y en evaluaciones a pequeña escala.
Si la teoría del programa/MRT se hace explícita junto con los actores principales, puede llevar a una mejor comprensión compartida de la intervención. Esto, a su vez, podría mejorar la apropiación y conducir a intervenciones más adecuadas al contexto.
Desarrollar la teoría causal también puede contribuir a una mejor definición de lo que se necesita evaluar y, por lo tanto, cuáles son las preguntas clave de la evaluación.
Permitir suficiente tiempo para evaluar las interacciones entre la intervención, los actores y el contexto.
Este texto fue traducido como parte de una cooperación entre BetterEvaluation, DEval y ReLAC, con apoyo financiero del Ministerio alemán Federal de Cooperación Economica y Desarrollo.
Recursos
Los libros que mencionamos a continuación son lecturas recomendadas sobre los antecedentes filosóficos y el desarrollo general de este enfoque:
- Realist evaluation
Pawson, R. & Tilley, N. (1997). Realistic Evaluation. London: Sage.
- The science of evaluation: A realist manifesto
Pawson, R. (2013). The science of evaluation: a realist manifesto, London, SAGE Publications.
Guías
- Quality standards for realist evaluation for evaluators and peer-reviewers: The RAMESES II project (PDF)
Wong, G., Westhorp, G., Greenhalgh, J., Manzano, A., Jagosh, J., Pawson R., y Trisha Greenhalgh (2017).
Los estándares de calidad abarcan lo siguiente:
1. El propósito de la evaluación
2. Comprender y aplicar un principio realista de causalidad generativa en evaluaciones realistas
3. Construir y refinar una teoría o teorías del programa realista
4. Diseño de evaluación
5. Metodologías de recolección de datos
6. Estrategia de reclutamiento de muestra
7. Análisis de datos
8. Informes - Magenta book supplementary guide – Realist evaluation (PDF)
Esta breve guía cubre los siguientes temas:
1. Evaluación realista: Qué es y cuándo utilizarla
2. Introducción a la evaluación realista
3. Desarrollo de la teoría realista: contexto, mecanismo y resultado
4. Un ejemplo teórico
5. Cómo aplicar el marco realista a la evaluación
6. Otros ejemplos de evaluación realista
Referencias y recursos adicionales Esta introducción ayudará a las personas que realizan y comisionan evaluaciones a decidir si un enfoque realista es apropiado para evaluar el impacto de una política o un programa en particular.
Documentos de discusión
Pawson, R., y Tilley, N. (2001). Realistic Evaluation Bloodlines. American Journal of Evaluation 22: 317-324.
Este artículo analiza seis diferentes investigaciones de las ciencias sociales alrededor del mundo que utilizan una variedad de métodos y estrategias para extraer conclusiones acerca de las evaluaciones realistas. Concluyen proporcionando seis lecciones clave que pueden ser aprendidas de sus hallazgos acerca de la evaluación realista.
- A realist diagnostic workshop
Pawson, R., y Manzano-Santaella, A. (2012). A realist diagnostic workshop. Evaluation 18:176-191.
Este artículo explora cómo realizar una investigación realista mediante una crítica constructiva de “evaluaciones realistas” recientemente publicadas.
- Is realist evaluation keeping its promise? A literature review of methodological practice in health systems research
[¿Está cumpliendo su promesa la evaluación realista? Una revisión bibliográfica de la práctica metodológica en la investigación de sistemas de salud]
Marchal, B., Van Belle, S., Van Olmen, J., Hoerée, T., y Kegels, G. (2012). Is realist evaluation keeping its promise? A literature review of methodological practice in health systems research. Evaluation, 18, 192-212.
Esta revisión bibliográfica identifica cómo se aplican conceptos de la evaluación realista en la investigación sobre sistemas de salud y los problemas metodológicos hallados. El documento analiza la necesidad de orientación metodológica y mayor claridad en torno a las definiciones de mecanismos y contexto y cómo se puede describir y evaluar la configuración de contexto, mecanismo e intervención.
- Unpacking Black Boxes: Mechanisms and Theory Building in Evaluation
Astbury, B., y Leeuw, F. (2010). Unpacking Black Boxes: Mechanisms and Theory Building in Evaluation. American Journal of Evaluation 31(3):363-381.
Este artículo realiza aclara lo que significan los mecanismos en el contexto de la evaluación de programas. Se identifican tres características principales de los mecanismos, y se propone una posible tipología para los mecanismos. Se analizan las implicaciones teóricas y prácticas para las evaluaciones, así como algunas precauciones que habría que tener en cuenta al investigar los mecanismos que podrían plausiblemente ser atribuidos a los resultados de un programa.
- Understanding ‘context’ in realist evaluation and synthesis
Greenhalgh, J., y Manzano, A. (2021)
Este informe se basa en una revisión de 40 estudios intencionalmente seleccionados para explorar la forma en que el contexto es conceptualizado en revisiones y evaluaciones realistas. La revisión analiza cómo se define y operativiza el contexto en los hallazgos. Se identificaron dos narrativas sobre el contexto: el contexto como las características observables que ponen en marcha una cadena de eventos o el contexto que opera de una manera dinámica, emergente a través del tiempo. Se analizan las diferentes implicaciones de la forma en que se conceptualiza el contexto para el diseño, los objetivos y el impacto de las revisiones y evaluaciones realistas.
- Reality bites: Making realist evaluation useful in the real world
Punton, M., Vogel, I., Leavy, J., Michaelis, C., y Boydell, E. (2020). CDI Practice Paper 22, Brighton, IDS.
“Este documento de práctica presenta lecciones de cuatro grandes evaluaciones realistas multipaíses de intervenciones complejas realizadas por Itad desde el 2013. Sostiene que la evaluación realista puede añadir valor mejorando la claridad, profundidad y portabilidad de los hallazgos, ayudando a las personas evaluadoras a lidiar con el contexto y la complejidad de manera pragmática y proporcionando herramientas y lentes útiles a los ejecutores para que evalúen críticamente sus programas y generen aprendizaje. Sin embargo, los evaluadores realistas que recién empiezan enfrentan diversas posibles dificultades, especialmente en evaluaciones a gran escala. Este documento comparte lecciones sobre cómo Itad ha manejado estos desafíos, que pueden ser útiles para otros evaluadores trabajando en contextos similares de desarrollo internacional y más allá de este.”
- Evaluating complex public health interventions: Theory, methods and scope of realist enquiry
Connelly, J. (2007). Evaluating complex public health interventions: theory, methods and scope of realist enquiry. Journal of Evaluation in Clinical Practice 13(6):935-941.
"Este artículo sostiene que los modelos estándar utilizados para estudiar intervenciones de salud complejas son inadecuados, y que el realismo crítico “propone una teoría causal sustantiva, un final al dualismo hecho-valor y un modelo coherente y emancipatorio de acción social; todas estas características representan una versión sistemática y convincente de las prácticas de salud pública y un enfoque coherente para la evaluación de intervenciones de salud pública complejas”.
- The evaluation of health and social care partnerships: An analysis of approaches and synthesis for the future
Dickinson, H. (2006). The evaluation of health and social care partnerships: an analysis of approaches and synthesis for the future. Health Soc Care Community 14:375-383.
Este artículo sugiere que las teorías de cambio y los enfoques de evaluación realista cumplen roles diferentes y complementarios en la evaluación de las alianzas de atención social, y que las limitaciones prácticas de estos enfoques pueden ser abordadas interpretando dichos enfoques por medio de un marco de realismo crítico.
Sitios web
- RAMESES (Realist And Meta-narrative Evidence Syntheses: Evolving Standards)
El proyecto RAMESES (Síntesis de evidencia realista y metanarrativa: estándares en evolución) produjo estándares tanto para informes como de calidad para evaluaciones realistas, así como recursos y materiales de capacitación en materia de evaluación realista que abarcan lo siguiente:
Preguntas frecuentes sobre evaluación realista
Evaluación realista, síntesis realista, investigación realista - ¿qué hay en un nombre?
¿Qué es un mecanismo? ¿Qué es un mecanismo programático?
Qué quieren decir los realistas por contexto
Filosofías y diseño de evaluación
Protocolos y evaluación realista
Una comprensión realista de fidelidad programática
Evaluación realista y consideraciones éticas
La teoría en la evaluación realista
Desarrollo de teorías de programas realistas
La retroducción en la evaluación realista
La entrevista realista
Entrevistar en el marco de una evaluación realista – un “conjunto inicial” de preguntas
Trabajar con un bibliotecario/a en una revisión realista - Theory-driven Inquiry (archived link)
El Instituto de Medicina Tropical de Amberes (Bélgica) es anfitrión del sitio web de investigación basada en la teoría que incluye una relación general de metodologías de evaluación realista, síntesis realista y evaluación basada en la teoría, así como enlaces a publicaciones relevantes.
Ejemplos de estudios realistas en atención de salud
- Benefits of realist evaluation for rapidly changing health service delivery
Jagosh, J, Stott, H., Halls, S., Thomas, R., Liddiard, C., Cupples, M., Cramp, F., Kersten, P., Foster, D., y Walsh, N.E. (2022)
Este artículo contiene reflexiones en torno a una evaluación realista de fisioterapia de primer contacto en atención primaria para identificar cinco consideraciones importantes para mejorar la calidad de los productos de evaluación realista en el estudio de la entrega de servicios de salud rápidamente cambiantes.
- Using Realistic Evaluation to Evaluate a Practice-level Intervention to Improve Primary Healthcare for Patients with Lo…
Byng, R., Norman, I., y Redfern, S. (2005). Uso de la evaluación realista para evaluar una intervención a nivel de práctica para mejorar la atención primaria de salud para pacientes con enfermedades mentales a largo plazo. Evaluation, 11, 69-93
Byng et al. (2005) aplicó principios de la evaluación realista para evaluar un programa de salud mental en el [servicio nacional de salud del Reino Unido, N.T.] NHS.
- Exposing the key functions of a complex intervention for shared care in mental health: case study of a process evaluati…
Byng, R., Norman, I., Redfern, S., y Jones, R. (2008). Exposición de funciones clave de una intervención compleja de atención compartida en salud mental: estudio de caso de una evaluación de proceso. BMC Health Serv Res 8: 274.
Byng et al. (2008) aplicaron principios de la evaluación realista para evaluar un programa de salud mental en el NHS.
“La evaluación realista ofreció un útil marco teórico para esta evaluación de proceso, al permitir enfocarse específicamente en el contexto. Si bien intervenciones complejas podrían aparentar estar ‘fuera de control’ debido a sus variadas manifestaciones en diferentes situaciones, las evaluaciones de proceso sensibles al contexto pueden ayudar a identificar las funciones clave de la intervención.”
- Tackling health inequalities through partnership working: learning from a realist evaluation
Evans, D., y Killoran, A. (2000). Abordaje de las desigualdades de salud mediante el trabajo en alianzas: aprendizajes de una evaluación realista. Critical Public Health 10:125-140.
Evans y Killoran presentan la evaluación de un Programa Integral de Adquisiciones de la Autoridad de Educación en Salud, y específicamente de proyectos de demostración que prueban las alianzas para el abordaje de las desigualdades de salud.
- Unearthing how, why, for whom and under what health system conditions the antiretroviral treatment adherence club inter…
Este artículo analiza una evaluación que utilizó el marco ICAMR - Intervención-Contexto-Actor-Mecanismo-Resultado para evaluar un programa que propugnaba la adhesión al tratamiento antirretroviral.
- Keeping it real: using mechanisms to promote use in the realist evaluation of the building capacity to use research evi…
Este artículo examina una evaluación que utilizó el marco C+I+M=R – añadiendo características de la intervención e identificando el contexto, el mecanismo y los resultados en una evaluación realista de un programa de desarrollo de capacidad organizacional para utilizar la evidencia de investigaciones.
Este texto fue traducido como parte de una cooperación entre BetterEvaluation, DEval y ReLAC, con apoyo financiero del Ministerio alemán Federal de Cooperación Economica y Desarrollo.
Sources
Merton, R.K. (1968). Social theory and social structure. New York: The Free Press
Mukumbang, F.C., Marchal, B., Van Belle, S., y van Wyk, B. (2018) desentierran cómo, porqué, para quién y bajo qué condiciones del sistema de salud funciona la intervención del “club” de adherencia a la terapia antirretroviral en Sudáfrica: un enfoque para refinar la teoría realista. BMC Health Serv Res 18, 343.
Punton, M., y Vogel, I. (2020). Keeping it real: using mechanisms to promote use in the realist evaluation of the building capacity to use research evidence program. New Directions for Evaluation 2020(167), 87-100.
Fuente de la imagen: Mobius Transform of a regular circle packing, por fdecomite en Flickr