Search

Primary tabs

Show search hints

Search results

  1. Synthesise data from a single evaluation

    Task

    To develop evaluative judgments, the evaluator draws data from the evaluation and systematically synthesises and values the data. There are a range of options that can be used for synthesis and valuing.

  2. Synthesise Data Across Evaluations

    Task

    These options answer questions about a type of intervention rather than about a single case – questions such as “Do these types of interventions work?” or “For whom, in what ways and under what circumstances do they work?” The task involves locating the evidence (often involving bibliographic searches of databases, with particular emphasis on finding unpublished studies), assessing its quality and relevance in order to decide whether or not to include it, extracting the relevant information, and synthesizing it.  Different options use different strategies and have different definitions of what constitutes credible evidence.

  3. Probability Sampling

    Task

    How will you sample?

  4. Existing documents and data

    Task

    How will you collect and/ or retrieve data?

  5. Establish decision making processes

    Task

    A variety of decisions must be made during an evaluation including: what the focus of the evaluation will be; who will undertake the evaluation; how data will be collected and analysed; how the evaluation will be reported; and who will have access to the final report. Therefore, it is important to establish a decision making process to ensure agreement can be reached on how decisions will be made.

  6. Support use

    Task

    Following up on the agency response to evaluation findings is an essential part of supporting use. However, this is often a management responsibility rather than an evaluators. You can work with managers to provide a list of options for follow-up as part of the final report. Indeed, time should be built into the evaluation budget to account for support beyond report delivery. There are a range of options that can be used:

  7. Identify potential unintended results

    Task

    Many evaluations and logic models only focus on intended outcomes and impacts - but positive or negative unintended results can be important too.

    Use these options before a program is implemented to identify possible unintended outcomes and impacts, especially negative impacts (that make things worse not better) that should also be investigated and tracked.

    Make sure your data collection remains open to unintended results that you have not anticipated by including some open-ended questions in interviews and questionnaires, and by encouraging reporting of unexpected results.

  8. Extrapolate findings

    Task

    An evaluation usually involves some level of generalising of the findings to other times, places or groups of people. 

  9. Review evaluation (do meta-evaluation)

    Task

    Reviewing an evaluation (also known as meta-evaluation) can be done before an evaluation (reviewing the plan) or afterwards.  Prior to finalising the evaluation it is useful to review the reporting of the evaluation process, findings and conclusions in order to establish the validity of the findings and to ensure that the key messages from the evaluation are clear and consistent with the findings.

  10. Comprendre et engager les parties prenantes

    Task
    This is an automatic google translation. We are currently working on an improved translation.

    Les intervenants sont des gens qui ont un intérêt dans l'évaluation, y compris les principaux utilisateurs prévus et d'autres.

    Comprendre et en tenant compte des priorités et préoccupations des différentes parties prenantes informe planification de l'évaluation, des stratégies de communication pendant et après l'évaluation et prend en charge l'utilisation des résultats de l'évaluation.

    Les principaux utilisateurs prévus - des gens qui prendront des décisions sur la base des résultats de l'évaluation - sont un groupe important de parties prenantes (Il ya une tâche distincte d'identifier les principaux utilisateurs escomptés dans le cluster de FRAME des tâches)..

    D'autres parties prenantes incluent les personnes qui seront touchées par les décisions prises pendant ou après l'évaluation (le personnel du programme, les participants au programme et les bénéficiaires) et les utilisateurs secondaires de résultats de l'évaluation. Les résultats des évaluations sont souvent d'intérêt pour les décideurs politiques et les défenseurs pour ou contre un plan d'action particulier.

    Différents intervenants peuvent participer à différentes fins et à différentes phases de planification et de mise en œuvre l'évaluation. Il peut ne pas être possible ni approprié d'engager toutes les parties prenantes potentielles.

    Impliquer les parties prenantes lors de la planification et de la mise en œuvre évaluation peut ajouter de la valeur par:

    fournissant des perspectives sur ce qui sera considéré comme crédible, de haute qualité et d'évaluation utiles

    contribuer à la logique du programme et le cadrage des questions d'évaluation clés

    faciliter la collecte de données de qualité

    aider à donner un sens à des données qui ont été recueillies

    accroître l'utilisation des résultats de l'évaluation par la construction de la connaissance et un soutien pour l'évaluation.

    La participation des intervenants est également important pour la gestion des risques en particulier lors de l'évaluation d'un programme ou d'une politique controversée dans laquelle les parties prenantes clés sont connus pour avoir des vues opposées. Il est important de comprendre les différents points de vue sur ce qui sera considéré preuve crédible des résultats et des impacts

    Also Available In: English

Pages