hero-pic

Blog

3 ateliers captivants, 3 continents différents

24 mai, 2013

3 ateliers captivants, 3 continents différents

Le Congrès annuel de la Société canadienne d’évaluation est à nos portes : plus que quelques semaines avant d’échanger et de profiter du programme complet qui nous attend à Toronto! Pour vous donner une idée de la dimension internationale que revêt le Congrès, vous montrer à quel point nous incarnons le thème de l’édition 2013, L’évaluation sans frontières, et vous mettre en appétit, nous avons élaboré le présent sommaire des ateliers dirigés par des conférenciers du monde entier :

Évaluer efficacement les conséquences sociales en utilisant des outils TIC innovants, avec études de cas africains et démonstration en direct

DrValGCet atelier présente les outils et les techniques TIC (technologies de l’information et des communications) novateurs permettant de mesurer et de communiquer les résultats d’un projet ou d’un programme aux intervenants (p. ex. donateurs, bailleurs de fonds, superviseurs ou grand public). Vous découvrirez les composantes d’un plan d’évaluation et de suivi efficace fondées sur les TIC ainsi que les méthodes et les outils nécessaires à la collecte de données, l’analyse statistique et la production de rapports.

Sommaire : (accompagnement hautement interactif et personnalisé)

  • différenciation de la supervision et du suivi ainsi que de l’évaluation et de la recherche
  • composantes d’un plan d’évaluation et de suivi réussi
  • introduction à l’évaluation et au suivi à l’aide de TIC (logiciels, matériel, systèmes d’exploitation)
  • outils TIC de pointe appliqués à l’évaluation et au suivi (y compris la collecte, le stockage et la diffusion de données par téléphone cellulaire et tablette électronique)
  • détermination des indicateurs de résultats de votre projet
  • données et types de données, défis de la collecte
  • méthodes quantitatives et qualitatives
  • rédaction d’une publication scientifique et d’un rapport efficaces sur l’évaluation et le suivi

Dans cet atelier, vous apprendrez…

  • à utiliser des outils TIC dans le cadre de la collecte et de l’analyse de données
  • à recourir à un système d’information géographique pour mettre en correspondance des interventions ciblées
  • à utiliser les concepts d’évaluation et de suivi, de recherche et d’évaluation dimpact

Les compétences professionnelles visées par cet atelier incluent:

Économiste du développement et gestionnaire du savoir, Valentine J. Gandhi, Ph. D., a travaillé pendant 11 ans en Asie et en Afrique à l’échelon local et politique. Fondateur de The Development CAFÉ, il est également conseiller auprès de plusieurs donateurs internationaux et organismes des Nations Unies sur l’évaluation d’impact et le renforcement des capacités organisationnelles, la promotion du travail d’équipe et la formation au genre en entreprise.

La sociologue Vida Razavi intègre les outils fondés sur les TIC à ses travaux de recherche, notamment en ce qui a trait à l’activation de l’empathie chez les enfants d’âge scolaire. Elle est rédactrice pour une revue internationale gérée par The Development CAFÉ intitulée « The Development Review ».

Niveau: intermédiaire
Conditions de participation: une certain expérience en évaluation, des connaissances de base relatives aux modèles logiques et à leur utilisation, des connaissances en analyse qualitative et quantitative et en rédaction de rapports.
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

 

Évaluation responsabilisante

fettermanL’évaluation responsabilisante renforce la capacité des programmes et favorise leur amélioration. Elle permet de développer son autonomie en apprenant à évaluer ses propres programmes. Cette démarche repose sur le principe suivant : plus on effectue ses évaluations soi-même, plus on a tendance à trouver ses constatations et ses recommandations crédibles et à les utiliser (parce qu’on en est l’auteur). Parmi les concepts clés figurent des amis au regard critique, les cycles de réflexion et d’action et la communauté d’apprenants.

Les principales étapes de l’évaluation responsabilisante sont les suivantes : 1) déterminer une mission; 2) faire le point – établir un plan de départ; 3) planifier l’avenir – fixer des objectifs et mettre en place des stratégies pour les atteindre. Le rendement réel est comparé aux points de référence et aux objectifs.

Dans le cadre de l’évaluation responsabilisante, l’évaluateur joue un rôle de guide ou d’animateur. L’atelier mettra également l’accent sur la production de résultats mesurables grâce à l’évaluation responsabilisante, assortie d’études de cas.

Dans cet atelier, vous apprendrez…

  • les principales étapes de l’évaluation responsabilisante
  • les concepts clés encadrant la démarche (accent mis sur la responsabilité)
  • comment sélectionner les outils technologiques appropriés pour mener une évaluation responsabilisante

Les compétences professionnelles visées par cet atelier incluent:

Créateur de l’évaluation responsabilisante, David Fetterman, Ph. D. fait partie de ses plus fervents défenseurs. Auteur de trois ouvrages sur le sujet (Empowerment Evaluation Principles in Practice, Foundations of Empowerment Evaluation et Empowerment Evaluation: Knowledge and Tools for Self-assessment and Accountability) et de nombreux articles, il a récemment publié Empowerment Evaluation in the Digital Villages: Hewlett Packard’s $15 Million Race Toward Social Justice (Stanford University Press). Il gère un blogue sur l’évaluation collaborative, participative et responsabilisante pour l’American Evaluation Association. Son article sur l’évaluation responsabilisante dans l’American Journal of Evaluation (co-écrit avec Abe Wandersman, Ph. D.) fait partie des publications en ligne les plus consultées de la revue (2007-2008). David a reçu les prix les plus prestigieux de l’American Evaluation Association, dont il est l’ancien président, pour ses travaux théoriques et pratiques.

Niveau: débutant
Conditions de participation: aucune
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

 

Interférence causale et méthodes qualitatives et mixtes

Jane_Davidson_headshot« La causalité, c’est ce lien entre les moustiques et les piqûres de moustique : s’il est facilement compris par les deux parties, il n’a jamais été défini de manière satisfaisante par les philosophes ni les scientifiques. » – Scriven (1991)
Nombreux sont ceux qui affirment que l’interférence causale ne peut être établie sans des études quantitatives à grande échelle, des techniques statistiques de qualité et un contrôle du programme ou de l’intervention.

Mais n’existe-t-il pas des moyens d’obtenir une réponse approximative à la question de la causalité, même en se fondant sur des données probantes obtenues par une méthode qualitative ou mixte? Selon moi, c’est possible, et c’est ce que je vais tenter de vous démontrer.

Cet atelier présentera huit stratégies pratiques fondées sur le bon sens qui visent à démontrer l’existence d’un lien de causalité : (1) questions aux observateurs; (2) rapport entre le contenu et les résultats; (3) mode opératoire; (4) synchronisation logique; (5) lien dose-réponse; (6) comparaisons; (7) variables de contrôle; (8) mécanismes de causalité. Vous découvrirez comment une combinaison judicieuse de données probantes peut étayer l’argument d’un lien de causalité, et ce, à un niveau de certitude cohérent dans ce contexte.

Dans cet atelier, vous apprendrez…

  • huit stratégies pratiques fondées sur le bon sens et axées sur l’interférence causale
  • comment insérer des éléments de causalité dans des questions d’entrevue et d’enquête
  • à utiliser de multiples sources de données probantes afin d’étayer le lien de causalité

Les compétences professionnelles visées par cet atelier incluent:

Jane E. Davidson, Ph. D. est l’auteure d’Evaluation Methodology Basics: The Nuts and Bolts of Sound Evaluation (2004, Sage Publications), guide à l’intention des cycles supérieurs et des praticiens en évaluation très prisé en Amérique du Nord et dans le monde entier. Son livret recherché et intitulé Actionable Evaluation Basics: Getting succinct answers to the most important questions est disponible en anglais sur Amazon.
Jane tient un blogue très apprécié, « GenuineEvaluation.com » avec Patricia Rogers, Ph. D. Toutes deux se sont engagées à améliorer la qualité de l’évaluation, refusant de la sacrifier au profit des titres de compétence ou des jeux de pouvoir. Elle a lancé et dirigé le premier doctorat en évaluation entièrement interdisciplinaire au monde (dispensé au Centre d’évaluation de l’Université du Western Michigan) Lauréate du prix Marcia Guttentag de l’American Evaluation Association en 2005, elle a poursuivi des études de troisième cycle en psychologie organisationnelle avec Michael Scriven à l’Université Claremont Graduate en Californie, en se spécialisant dans l’évaluation.

Niveau: intermédiaire
Conditions de participation: un minimum de connaissances pratiques en matière d’exécution et de commande d’évaluations ou d’utilisation des résultats
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

Consultez cet espace pour obtenir davantage de renseignements sur le Congrès 2013, abonnez-vous à notre bulletin d’information ou suivez-nous sur LinkedIn, Facebook, Twitter, YouTube et Google+.

 



Comments are closed.

Dernier gazouillis

@CESToronto2013