hero-pic

Ateliers

Congrès Annuel De La Société Canadienne D’évaluation | Toronto 2013

Ateliers de perfectionnement professionnel de la SCÉ

Les ateliers auront lieu le dimanche 9 juin 2013.
Sauf avis contraire, ils seront animés en anglais.

Compétences requises à l’exercice de l’évaluation, dans le contexte canadien

Les animateurs ont relevé un maximum de trois compétences en évaluation qui seront abordées dans leur atelier. Cliquez pour obtenir un aperçu des compétences requises à l’exercice de l’évaluation au Canada.

La Version Imprimable →

 

ATELIERS D’UNE JOURNÉE

(1) Évaluation responsabilisante – Débutant
(2) Gestion de données : du modèle logique au rapport final – Intermédiaire
(3) Évaluer efficacement les conséquences sociales en utilisant des outils TIC innovants, avec études de cas africains et démonstration en direct – Intermédiaire
(4) ANNULÉ: Boîte à outils Web analytique à l’intention des évaluateurs – Intermédiaire
(5) Développer et vérifier la logique des modèles logiques : règles et leçons tirées de l’expérience – Intermédiaire
(6) Interférence causale et méthodes qualitatives et mixtes – Intermédiaire
(7) Évaluation sommaire de l’impact – Intermédiaire / Avancé
(8) Leçons tirées des stratégies axées sur la culture et leur application aux Premières Nations – Avancé

ATELIERS DU MATIN

(9) ANNULÉ: Un sommaire ne suffit pas : production efficace de rapports d’évaluation
(10) Introduction à la gestion de projet pour évaluateurs – Débutant
(11) Évaluation des programmes de formation – Intermédiaire
(12) ANNULÉ: Stratégie axée sur les forces grâce à l’analyse SOAR : une approche originale de la planification stratégique – Intermédiaire
(13) Renforcer les capacités et la culture en évaluation – Intermédiaire
(14) ANNULÉ: en français – La mesure du rendement et l’évaluation : l’élaboration de modèles logiques et processuels pour identifier les indicateurs de rendement – Intermédiaire
(15) Faire avancer la recherche en évaluation et publier ses travaux – Intermédiaire
(16) Enjeux de pointe dans les sondages en évaluation – Avancé

ATELIERS DE L’APRÈS-MIDI

(17) Démontrer l’impact de la recherche : mesurer le rendement des investissements grâce à un cadre d’impact – Débutant
(18) Analyse de données qualitatives en contexte – Débutant
(19) ANNULÉ: Présenter ses arguments : évaluation efficace des besoins – Intermédiaire
(20) Présentation intelligente des données – Intermédiaire
(21) Écrire pour être lu – Intermédiaire
(22) ANNULÉ: Développement international et raisons de l’évolution : mesurer la réussite et les échecs et trouver des moyens d’influer sur les futurs choix en matière d’aide
(23) Processus d’apprentissage en évaluation de développement – Intermédiaire / Avancé
(24) Au-delà du modèle logique : méthodes avancées d’élaboration de cadres d’évaluation – Intermédiaire / Avancé


1. Évaluation responsabilisante

L’évaluation responsabilisante renforce la capacité des programmes et favorise leur amélioration. Elle permet de développer son autonomie en apprenant à évaluer ses propres programmes. Cette démarche repose sur le principe suivant : plus on effectue ses évaluations soi-même, plus on a tendance à trouver ses constatations et ses recommandations crédibles et à les utiliser (parce qu’on en est l’auteur). Parmi les concepts clés figurent des amis au regard critique, les cycles de réflexion et d’action et la communauté d’apprenants.

Les principales étapes de l’évaluation responsabilisante sont les suivantes : 1) déterminer une mission; 2) faire le point – établir un plan de départ; 3) planifier l’avenir – fixer des objectifs et mettre en place des stratégies pour les atteindre. Le rendement réel est comparé aux points de référence et aux objectifs.

Dans le cadre de l’évaluation responsabilisante, l’évaluateur joue un rôle de guide ou d’animateur. L’atelier mettra également l’accent sur la production de résultats mesurables grâce à l’évaluation responsabilisante, assortie d’études de cas.

Dans cet atelier, vous apprendrez…

  • les principales étapes de l’évaluation responsabilisante
  • les concepts clés encadrant la démarche (accent mis sur la responsabilité)
  • comment sélectionner les outils technologiques appropriés pour mener une évaluation responsabilisante

Les compétences professionnelles visées par cet atelier incluent:

Créateur de l’évaluation responsabilisante, David Fetterman, Ph. D. fait partie de ses plus fervents défenseurs. Auteur de trois ouvrages sur le sujet (Empowerment Evaluation Principles in Practice, Foundations of Empowerment Evaluation et Empowerment Evaluation: Knowledge and Tools for Self-assessment and Accountability) et de nombreux articles, il a récemment publié Empowerment Evaluation in the Digital Villages: Hewlett Packard’s $15 Million Race Toward Social Justice (Stanford University Press). Il gère un blogue sur l’évaluation collaborative, participative et responsabilisante pour l’American Evaluation Association. Son article sur l’évaluation responsabilisante dans l’American Journal of Evaluation (co-écrit avec Abe Wandersman, Ph. D.) fait partie des publications en ligne les plus consultées de la revue (2007-2008). David a reçu les prix les plus prestigieux de l’American Evaluation Association, dont il est l’ancien président, pour ses travaux théoriques et pratiques.

Niveau: débutant
Conditions de participation: aucune
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

2. Gestion de données : du modèle logique au rapport final

Offert dans le cadre du Summer Evaluation Institute et commandité par les Centers for Disease Control et l’American Evaluation Association, cet atelier a remporté un franc succès au cours des trois dernières années. Apprenez comment faciliter la collecte, l’analyse et la présentation des données d’études d’évaluation complexes pour l’évaluateur, et ce, de manière pertinente pour le client. Cumulant plus de 25 ans d’expérience à titre de conseillère, Gail vous livrera quelques leçons durement apprises sur l’art et la manière d’interagir avec les intervenants, de poser les bonnes questions ainsi que de collecter et analyser les données pertinentes, puis de présenter vos constatations de façon utile.

Vous aurez l’occasion de travailler en petits groupes sur de véritables échantillons de travail afin de tenter de résoudre des problèmes de collecte et de gestion de données, et vous repartirez avec de nouvelles idées ainsi que plusieurs outils et techniques utiles à appliquer dans votre contexte d’évaluation de programmes.

Dans cet atelier, vous apprendrez…

  • comment échafauder une étude à partir d’un modèle logique
  • comment poser les bonnes questions en matière d’évaluation pour établir un plan de collecte des données
  • comment analyser, résumer, intégrer et présenter des données

Les compétences professionnelles visées par cet atelier incluent:

Consultante, formatrice et rédactrice en évaluation, Gail Vallance Barrington a animé beaucoup d’ateliers pour la Société canadienne d’évaluation et l’American Evaluation Association. Elle a récemment rejoint les rangs de la « Dynamic Dozen » qui réunit les meilleurs présentateurs de l’American Evaluation Association. Depuis plus de 25 ans, elle est propriétaire et dirige sa propre société conseil, Barrington Research Group, Inc. En plus d’une centaine d’évaluations de programmes et d’études de recherche appliquée du niveau fédéral à l’échelle locale, elle a mis au point de nombreuses techniques de collecte, d’organisation et d’analyse de données complexes ainsi que des méthodes de préparation d’excellents rapports. Son dernier ouvrage, Consulting Start up & Management: A Guide for Evaluators & Applied Researchers (SAGE, 2012), est inspiré de son expérience de consultante. En 2008, elle a remporté le Prix de la Contribution à l’évaluation au Canada de la Société canadienne d’évaluation.

Niveau: intermédiaire
Conditions de participation: expérience en évaluation, connaissances élémentaires de modèles logiques et de leur utilisation, notions en analyse qualitative et quantitative ainsi qu’en rédaction de rapports
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

3. Évaluer efficacement les conséquences sociales en utilisant des outils TIC innovants, avec études de cas africains et démonstration en direct

Cet atelier présente les outils et les techniques TIC (technologies de l’information et des communications) novateurs permettant de mesurer et de communiquer les résultats d’un projet ou d’un programme aux intervenants (p. ex. donateurs, bailleurs de fonds, superviseurs ou grand public). Vous découvrirez les composantes d’un plan d’évaluation et de suivi efficace fondées sur les TIC ainsi que les méthodes et les outils nécessaires à la collecte de données, l’analyse statistique et la production de rapports.

Sommaire : (accompagnement hautement interactif et personnalisé)

  • différenciation de la supervision et du suivi ainsi que de l’évaluation et de la recherche
  • composantes d’un plan d’évaluation et de suivi réussi
  • introduction à l’évaluation et au suivi à l’aide de TIC (logiciels, matériel, systèmes d’exploitation)
  • outils TIC de pointe appliqués à l’évaluation et au suivi (y compris la collecte, le stockage et la diffusion de données par téléphone cellulaire et tablette électronique)
  • détermination des indicateurs de résultats de votre projet
  • données et types de données, défis de la collecte
  • méthodes quantitatives et qualitatives
  • rédaction d’une publication scientifique et d’un rapport efficaces sur l’évaluation et le suivi

Dans cet atelier, vous apprendrez…

  • à utiliser des outils TIC dans le cadre de la collecte et de l’analyse de données
  • à recourir à un système d’information géographique pour mettre en correspondance des interventions ciblées
  • à utiliser les concepts d’évaluation et de suivi, de recherche et d’évaluation dimpact

Les compétences professionnelles visées par cet atelier incluent:

Économiste du développement et gestionnaire du savoir, Valentine J. Gandhi, Ph. D., a travaillé pendant 11 ans en Asie et en Afrique à l’échelon local et politique. Fondateur de The Development CAFÉ, il est également conseiller auprès de plusieurs donateurs internationaux et organismes des Nations Unies sur l’évaluation d’impact et le renforcement des capacités organisationnelles, la promotion du travail d’équipe et la formation au genre en entreprise.

La sociologue Vida Razavi intègre les outils fondés sur les TIC à ses travaux de recherche, notamment en ce qui a trait à l’activation de l’empathie chez les enfants d’âge scolaire. Elle est rédactrice pour une revue internationale gérée par The Development CAFÉ intitulée « The Development Review ».

Niveau: intermédiaire
Conditions de participation: une certain expérience en évaluation, des connaissances de base relatives aux modèles logiques et à leur utilisation, des connaissances en analyse qualitative et quantitative et en rédaction de rapports.
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

4. Boîte à outils Web analytique à l’intention des évaluateurs

REMARQUE: Cette session n’est plus offert

Cet atelier est une introduction à la Web analytique et à son application en évaluation de programmes. Pendant la séance, les participants découvriront les applications de la Web analytique à l’évaluation et au suivi de programmes, les paramètres et indicateurs courants et l’élaboration de rapports et de tableaux de bord, en plus d’apprendre concrètement comment configurer ses outils de Web analytique.

Cet atelier a été conçu pour les évaluateurs de programmes qui possèdent peu ou pas d’expérience en Web analytique et qui veulent être capables d’intégrer des données Web et de médias sociaux à leur travail de suivi et d’évaluation. Il est également destiné aux gestionnaires de programmes qui souhaitent comprendre de quelle manière ces outils de mesure peuvent optimiser le rendement des programmes.

Dans cet atelier, vous apprendrez…

  • comment appliquer la Web analytique à l’évaluation et au suivi de programmes
  • les indicateurs et paramètres courants en Web analytique
  • à vivre une expérience concrète de configuration d’outils de Web analytique

5. Développer et vérifier la logique des modèles logiques : règles et leçons tirées de l’expérience

L’atelier porte sur l’utilisation des modèles logiques dans la planification et l’évaluation de programmes et de projets. Divers types de modèles logiques assortis de leurs définitions courantes seront proposés et analysés. Une batterie de tests de vérification de la cohérence des modèles logiques sera présentée auxquels les participants soumettront leur modèle logique ou ceux qui sont élaborés par l’instructeur. En outre, ils auront la possibilité d’utiliser leurs propres tests et de les analyser avec le reste des participants à l’atelier. Des exemples dans les domaines de la santé, de l’agriculture et du développement international seront étudiés, ainsi que les méthodes couramment utilisées par les pouvoirs publics, mais aussi les organismes sans but lucratif et d’autres secteurs.

Dans cet atelier, vous apprendrez…

  • à décrire les divers types de modèles logiques
  • à identifier des méthodes de vérification de la logique
  • à appliquer les tests à des programmes de divers secteurs : santé, développement international, etc.

Les compétences professionnelles visées par cet atelier incluent:

Harry Cummings, Ph. D. enseigne l’évaluation de programmes à l’Université de Guelph. Depuis 20 ans, il anime des ateliers de perfectionnement professionnel et organise régulièrement des séances dans le cadre des congrès des Sociétés européenne et canadienne d’évaluation. Il est l’auteur de publications sur les modèles logiques et l’évaluation fondée sur les résultats. En 2012, il a élaboré un cours de deux jours sur les modèles logiques pour le compte de la SCÉ.

Niveau: intermédiaire
Conditions de participation: expérience en modèles logiques
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

6. Interférence causale et méthodes qualitatives et mixtes

« La causalité, c’est ce lien entre les moustiques et les piqûres de moustique : s’il est facilement compris par les deux parties, il n’a jamais été défini de manière satisfaisante par les philosophes ni les scientifiques. » – Scriven (1991)
Nombreux sont ceux qui affirment que l’interférence causale ne peut être établie sans des études quantitatives à grande échelle, des techniques statistiques de qualité et un contrôle du programme ou de l’intervention.

Mais n’existe-t-il pas des moyens d’obtenir une réponse approximative à la question de la causalité, même en se fondant sur des données probantes obtenues par une méthode qualitative ou mixte? Selon moi, c’est possible, et c’est ce que je vais tenter de vous démontrer.

Cet atelier présentera huit stratégies pratiques fondées sur le bon sens qui visent à démontrer l’existence d’un lien de causalité : (1) questions aux observateurs; (2) rapport entre le contenu et les résultats; (3) mode opératoire; (4) synchronisation logique; (5) lien dose-réponse; (6) comparaisons; (7) variables de contrôle; (8) mécanismes de causalité. Vous découvrirez comment une combinaison judicieuse de données probantes peut étayer l’argument d’un lien de causalité, et ce, à un niveau de certitude cohérent dans ce contexte.

Dans cet atelier, vous apprendrez…

  • huit stratégies pratiques fondées sur le bon sens et axées sur l’interférence causale
  • comment insérer des éléments de causalité dans des questions d’entrevue et d’enquête
  • à utiliser de multiples sources de données probantes afin d’étayer le lien de causalité

Les compétences professionnelles visées par cet atelier incluent:

Jane E. Davidson, Ph. D. est l’auteure d’Evaluation Methodology Basics: The Nuts and Bolts of Sound Evaluation (2004, Sage Publications), guide à l’intention des cycles supérieurs et des praticiens en évaluation très prisé en Amérique du Nord et dans le monde entier. Son livret recherché et intitulé Actionable Evaluation Basics: Getting succinct answers to the most important questions est disponible en anglais sur Amazon.
Jane tient un blogue très apprécié, « GenuineEvaluation.com » avec Patricia Rogers, Ph. D. Toutes deux se sont engagées à améliorer la qualité de l’évaluation, refusant de la sacrifier au profit des titres de compétence ou des jeux de pouvoir. Elle a lancé et dirigé le premier doctorat en évaluation entièrement interdisciplinaire au monde (dispensé au Centre d’évaluation de l’Université du Western Michigan) Lauréate du prix Marcia Guttentag de l’American Evaluation Association en 2005, elle a poursuivi des études de troisième cycle en psychologie organisationnelle avec Michael Scriven à l’Université Claremont Graduate en Californie, en se spécialisant dans l’évaluation.

Niveau: intermédiaire
Conditions de participation: un minimum de connaissances pratiques en matière d’exécution et de commande d’évaluations ou d’utilisation des résultats
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

7. Évaluation sommaire de l’impact

Aujourd’hui, les évaluations sommaires de l’impact (ÉSI) sont effectuées en moins de deux mois, coûtent moins de 25 000 $ US et obtiennent de bons résultats aux tests de validité et de fiabilité. Les ÉSI peuvent être utilisées ex-post à des fins sommatives ou ex-ante dans le cadre d’évaluations formatives ou de développement. Une ÉSI triangule l’avis de trois groupes d’experts afin d’obtenir un verdict sur l’évolution progressif des effets attribuable à l’intervention. Elle s’appuie sur une nouvelle approche des contrefactuels, « la solution négociée », ainsi que sur une méthode de mesure simplifiée. Conçue pour avoir une grande influence et une efficacité optimale, l’ÉSI peut donner lieu à des avis valides et fiables sur l’évolution progressive des effets ciblés attribuable à l’intervention.

Les participants découvriront l’impact de l’ÉSI sur l’évaluation grâce à des discussions en groupe ou en petits groupes entrecoupées de courtes descriptions de l’animateur.

Dans cet atelier, vous apprendrez…

  • les principes de l’évaluation de l’impact rapide
  • les principes de l’évaluation en ressources naturelles et les paramètres de développement durable
  • les façons dont une méthode peut améliorer les perspectives d’utilisation et d’influence

Les compétences professionnelles visées par cet atelier incluent:

Andy Rowe Ph. D. a plus de trois décennies d’expérience en matière d’évaluation et a travaillé en Amérique du Nord, en Afrique, en Asie et en Europe. Il est un ancien président de la Société canadienne d’évaluation et détient un doctorat de la London School of Economics. Il travaille aujourd’hui principalement dans des contextes où les ressources naturelles sont en cause. Il a développé plusieurs méthodes novatrices pour combler les lacunes dans les pratiques d’évaluation, y compris sa démarche d’évaluation d’impact rapide.

Niveau: intermédiaire / avancé
Conditions de participation: expérience et connaissance des divers objectifs de l’évaluation et très bonne connaissance des résultats d’évaluations
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00

8. Leçons tirées des stratégies axées sur la culture et leur application aux Premières Nations

En applicant des méthodes d’animation en fonction de la culture, comme l’utilisation d’espaces ouverts, la visualisation de photos, les discussions de groupe, le modelage de cire et les techniques de respiration, cet atelier se consacre aux méthodes d’évaluation adaptées au contexte autochtone et aux techniques de dépassement des difficultés. Nous verrons aussi comment utiliser des techniques diverses et multiples de connaissances culturelles et la technologie pour rehausser les évaluations en contexte autochtone en revenant sur nos expériences. Après avoir examiné un exemple à suivre d’évaluation axée sur la culture, nous chercherons comment améliorer l’évaluation grâce aux enseignements culturels et à la technologie. Enfin, nous examinerons nos expériences et les leçons apprises sur le terrain et consulterons certains de nos rapports où nous avons utilisé des outils d’évaluation reposant sur les connaissances culturelles et la technologie avant de discuter de la façon dont ces méthodes pourraient améliorer nos rapports.

Dans cet atelier, vous apprendrez…

  • les méthodes d’évaluation adaptées au contexte autochtone – Comment mettre en œuvre des évaluations efficaces pour les Premières Nations
  • les diverses méthodes d’utilisation de la technologie en évaluation
  • des exemples à suivre en ce qui a trait à l’évaluation axée sur la culture

Les compétences professionnelles visées par cet atelier incluent:

Andrea L.K. Johnston est présidente-directrice générale de Johnston Research Inc. Cumulant 15 ans d’expérience en évaluation en contexte autochtone, elle a dirigé plus de 120 projets pour des organisations et collectivités régionales et nationales ainsi que des gouvernements fédéral, provinciaux et territoriaux. Andrea est considérée comme une spécialiste de l’application des connaissances sur les Autochtones en évaluation.

Évaluatrice accréditée, elle a reçu le prix d’Excellence en évaluation de la section de l’Ontario en 2010. Rédactrice invitée du numéro d’hiver 2010 de la Revue canadienne d’évaluation de programme, elle est l’auteure de deux articles : « Aboriginal Ways of Knowing: Aboriginal-led Evaluation » et « Using Technology to Enhance Aboriginal Evaluations ». Elle siège actuellement au conseil d’administration de la section de l’Ontario de la Société canadienne d’évaluation.

Chercheuse chevronnée, Lori Meckelborg, B.A (spécialisé) possède plus de dix ans d’expérience en conseil et en gestion de projet en contexte autochtone. Ses recherches sont axées sur la santé de la population, l’évaluation de programmes et la planification stratégique. Elle s’intéresse notamment aux approches participatives de l’évaluation de programmes, à l’éthique en évaluation et à l’évaluation adaptée à la culture.

Niveau: avancé
Conditions de participation: au moins deux ans d’expérience en évaluation et compréhension des pratiques méthodologiques de base
Horaire: le dimanche 9 juin de 9 h 00 à 16 h 00


9. Un sommaire ne suffit pas : production efficace de rapports d’évaluation

REMARQUE: Cette session n’est plus offert

En tant qu’évaluateurs, vous avez à cœur d’effectuer la meilleure évaluation possible. Mais quelle importance accordez-vous à la communication efficace de vos résultats? Considérez-vous que votre travail est terminé une fois votre rapport final exhaustif envoyé? La production de rapports est une compétence importante pour tout évaluateur qui souhaite que ses résultats soient largement diffusés et que ses recommandations soient appliquées.

Au cours de cet atelier interactif, les participants découvriront trois principes clés d’une production de rapports réussie et prendront part à une discussion sur son importance en matière d’efficacité. Ils prendront connaissance d’un large éventail de techniques innovantes de production de rapports et pourront travailler en groupes sur des exemples concrets.

Dans cet atelier, vous apprendrez…

  • le rôle de la communication et de la production de rapports en ce qui a trait aux bonnes pratiques d’évaluation
  • trois principes clés pour communiquer efficacement ses résultats
  • quatre techniques innovantes de production de rapports

10. Introduction des évaluateurs à la gestion de projet

À une époque où les ressources sont limitées et où les organisations doivent produire plus avec moins, la bonne gestion de projet permet de mener à bien les projets à moindre coût et dans le respect des délais. Cet atelier s’appuie sur des études de cas pour offrir aux évaluateurs néophytes en gestion de projet des outils et des techniques pratiques permettant de cerner et de gérer les risques d’un projet en planifiant et en administrant les échéances et les ressources, à la fois humaines et financières.

Parmi les sujets abordés figurent le cycle de vie d’un projet (lancement, planification, exécution, clôture), ses contraintes et le triangle de la gestion de projet (échéances, coût, portée).

Dans cet atelier, vous apprendrez…

  • les étapes du cycle de vie d’un projet et méthodes d’organisation de la séquence logique des activités/processus permettant de faciliter l’atteinte des objectifs d’un projet
  • comment appliquer les outils et les techniques afin de gérer les contraintes d’un projet comme les échéances, le budget et la portée
  • comment définir les activités, déterminer l’enchaînement des tâches, estimer les besoins en ressources, calculer la durée des activités et élaborer un calendrier du projet

Les compétences professionnelles visées par cet atelier incluent:

Travailleuse sociale autorisée et spécialiste en gestion de projet, Judy Lifshitz, ÉA, est gestionnaire d’évaluation au Bureau de la vérification et de l’évaluation d’Agriculture et Agroalimentaire Canada. Elle s’occupe notamment de l’évaluation, de la planification, de la mise en œuvre et de la production de rapports. Membre de la Section de la Capitale nationale, Judy fait partie du Comité de perfectionnement professionnel et du Groupe de travail cadre sur le mentorat de la SCÉ.

Niveau: débutant
Conditions de participation: aucune
Horaire: le dimanche 9 juin de 9 h 00 à midi

11. Évaluation des programmes de formation

On entend souvent que les participants à un programme de formation sont satisfaits de leur expérience. Bien que leurs réactions affectives au programme soient importantes, comment savoir celui-ci a rempli ses objectifs, modifié leurs comportements et leur a permis d’acquérir des connaissances?

Cet atelier de niveau intermédiaire, qui présente les modèles d’évaluation à plusieurs niveaux de programmes de formation en évaluation de Kirkpatrick et de Guskey, s’appuie de manière interactive sur les connaissances des participants en ce qui a trait aux modèles logiques. Des approches hybrides d’évaluation des programmes d’évaluation reposant sur des modèles logiques et les méthodes d’évaluation à plusieurs niveaux seront étudiées. Elles donneront un aperçu plus complet des effets des programmes de formation en offrant aux bailleurs de fonds et aux gestionnaires de programmes de nombreuses sources de données sur lesquelles fonder leurs décisions. Les participants élaboreront et en retireront un plan d’évaluation exhaustif fondé sur leur expérience et les connaissances acquises pendant l’atelier qu’ils utiliseront tout au long de la séance. Les méthodes de collecte, d’analyse et de visualisation des données correspondant aux diverses étapes ou niveaux des approches hybrides seront abordées et expliquées.

Dans cet atelier, vous apprendrez…

  • les notions fondamentales des méthodes d’évaluation de programmes à plusieurs niveaux de Kirkpatrick et de Guskey
  • comment intégrer les modèles logiques et les méthodes à plusieurs niveaux à des approches hybrides qui s’avéreront utiles dans le cadre d’évaluations de programmes de formation
  • comment mettre au point un plan d’évaluation des programmes de formation exhaustif

Les compétences professionnelles visées par cet atelier incluent:

Éducateur et chercheur chevronné, Sid Ali, Ph. D, ÉA, jouit d’une expertise en mesure psychopédagogique et en évaluation de programmes. Il est titulaire d’une maîtrise en éducation et d’un doctorat en mesure et en évaluation de l’Université de Toronto. Fin stratège, il a conceptualisé, mis en œuvre et géré de multiples projets d’élaboration et d’évaluation de programmes à grande échelle.

Niveau: intermédiaire
Conditions de participation: connaissance des modèles logiques et des principes de l’évaluation de programmes
Horaire: le dimanche 9 juin de 9 h 00 à midi

12. Stratégie axée sur les forces grâce à l’analyse SOAR : une approche originale de la planification stratégique

REMARQUE: Cette session n’est plus offert

Cet atelier offre un aperçu d’une méthode différente de planification stratégique. Cette démarche, connue sous le nom de SOAR (« Strengths », « Opportunities », « Aspirations » et « Results », ce qui signifie Forces, Possibilités, Aspirations et Résultats) est un cadre de planification stratégique axé sur les atouts et les tentatives de compréhension des interactions organisationnelles qui tient compte de l’avis des acteurs pertinents. À la fin de l’atelier, les participants auront une meilleure compréhension de cette méthode ainsi que des outils qu’ils peuvent utiliser dans leur propre organisation.

Dans cet atelier, vous apprendrez…

  • comment mieux encadrer la planification stratégique
  • les différences entre les analyses SOAR et FFPM (forces, faiblesses, possibilités, menaces)
  • comment mettre au point de nouvelles techniques d’identification des forces organisationnelles

13. Renforcer les capacités et la culture en évaluation

La culture organisationnelle axée sur le soutien est indispensable à la promotion et à l’intégration de l’évaluation. Cet atelier, qui s’appuie sur les récentes publications de Mayne, de Kim, de Boyle et Lemaire ainsi que de Sonnichsen, traite des fondements conceptuels des capacités et de la culture de l’évaluation. Une synthèse de la documentation sur la compréhension de la capacité organisationnelle d’évaluation (Revue canadienne d’évaluation de programme, vol. 23[3]) sera intégrée aux notions. Un modèle d’évaluation et de comparaison des capacités et de la culture sera présenté.

Les participants devront s’évaluer ainsi que leur organisation grâce au modèle. Les questions relatives à la localisation du régime d’évaluation, au lien entre l’évaluation, la planification et la budgétisation stratégiques, au rôle de l’évaluation dans la prise de décision et à la création de la demande en la matière feront partie du diagnostic de la culture axée sur l’évaluation. Les participants recevront un manuel d’instruction pour évaluer leur propre environnement et élaborer des stratégies à appliquer au travail.

Dans cet atelier, vous apprendrez…

  • l’importance de la culture axée sur l’évaluation dans la pratique de cette dernière
  • la nécessité d’utiliser les capacités pour bâtir une culture
  • comment élaborer des stratégies pour instaurer une culture

Les compétences professionnelles visées par cet atelier incluent:

Kaireen Chaytor, ÉA, a effectué des évaluations à titre de conseillère dans le cadre de projets financés par les gouvernements fédéral ou provinciaux. Elle travaille également dans le secteur sans but lucratif. Kaireen a siégé au conseil national de la Société canadienne d’évaluation (SCÉ) et a occupé la fonction de présidente de la section de la Nouvelle-Écosse. En 2003, la SCÉ, dont elle est membre titulaire depuis 2011, lui a remis une distinction nationale pour sa contribution à la théorie et à la pratique évaluatives. Elle siège au jury d’accréditation de la Société et au conseil d’administration du Fonds de la Société canadienne d’évaluation pour l’éducation. Kaireen a enseigné l’évaluation de programmes dans divers contextes, comme dans le cadre du Programme de perfectionnement en gestion pour les femmes, du Programme de leadership du secteur sans but lucratif et de la Série sur les compétences essentielles en évaluation de la SCÉ et a souvent offert des services adaptés aux ministères et organismes fédéraux.

Nancy Carter, Ph. D., est directrice des services d’évaluation de la Fondation pour la recherche en santé de la Nouvelle-Écosse, où elle offre des conseils visant à accélérer les initiatives d’évaluation du système de santé de la province. Titulaire d’un doctorat en comportement organisationnel et gestion des ressources humaines de la Rotman School of Management de l’Université de Toronto, elle a déjà animé des ateliers lors des précédentes éditions du Congrès de la SCÉ et d’autres événements professionnels entre pairs. Nancy a effectué des présentations à l’échelle nationale et internationale sur une diversité de sujets relatifs à l’évaluation et donne actuellement un cours d’introduction à l’évaluation qu’elle a développé pour le compte d’une autorité régionale de la santé.

Niveau: intermédiaire
Conditions de participation: expérience en intégration de l’évaluation à des organisations ou connaissances en matière d’apprentissage organisationnel
Horaire: le dimanche 9 juin de 9 h 00 à midi

14. en français – La mesure du rendement et l’évaluation : l’élaboration de modèles logiques et processuels pour identifier les indicateurs de rendement

REMARQUE: Cette session n’est plus offert

Il y a encore beaucoup de confusion entre l’évaluation et la mesure (ou surveillance) du rendement, encore plus lorsque l’on considère l’approche à la vérification du rendement. La situation se complique lorsque l’on tente d’appuyer les décisions de la gestion en présentant de l’information pertinente et en temps voulu sur le rendement.

Cet atelier d’une demi-journée présentera un cadre conceptuel et des techniques permettant aux participants :

  • 1) de comprendre la distinction entre les théories de l’évaluation, de la vérification et de la mesure du rendement, et la relation entre ces fonctions et la mesure du rendement dans le contexte de la gestion axée sur les résultats;
  • 2) d’élaborer des cadres de mesure du rendement par la formulation de théories du changement et l’utilisation de techniques de modélisation (modèles logiques et processuels) appuyant le développement de plans stratégiques et opérationnels pour les interventions publiques;
  • 3) d’identifier et de choisir des indicateurs de rendement qui appuient et informent efficacement la mise en œuvre de politiques, de programmes et d’initiatives du gouvernement et qui répondent adéquatement aux besoins et exigences organisationnelles en matière de reddition de comptes.

Dans cet atelier, vous apprendrez…

  • la distinction entre les théories de l’évaluation, de la vérification et de la mesure du rendement, et la relation entre ces fonctions et la mesure du rendement dans le contexte de la gestion axée sur les résultats
  • l’approche intégrée à la mesure du rendement par la formulation de théories du changement et l’utilisation de techniques de modélisation (modèles logiques et processuels) appuyant le développement de plans stratégiques et opérationnels pour les interventions publiques
  • l’approche à l’identification et à la sélection des indicateurs de rendement qui appuient et informent efficacement la mise en œuvre de politiques, de programmes et d’initiatives du gouvernement et qui répondent adéquatement aux besoins et exigences organisationnelles en matière de reddition de comptes

15. Faire avancer la recherche en évaluation et publier ses travaux

Nombreux sont les évaluateurs passionnés de recherche mais qui ne parviennent pas à mener des travaux en évaluation ou à les faire publier. Cet atelier a été conçu pour les aider à passer à l’action en démontrant la nécessité de mettre l’accent sur une démarche (et un développement conceptuel) plus empirique en évaluation. Les participants apprendront à mener des recherches en évaluation en effectuant des travaux pratiques et expérientiels en petits groupes. Ils pourront poser leurs questions en matière de recherche et bénéficier de la rétroaction de leurs pairs à propos de leurs méthodes de travail. Enfin, ils profiteront des conseils et astuces du rédacteur en chef de la Revue canadienne d’évaluation de programme sur la préparation de manuscrits en vue de leur publication dans des revues à comité de lecture.

Dans cet atelier, vous apprendrez…

  • les dernières grandes nouvelles relativement à l’état de la recherche empirique en évaluation
  • comment mener des recherches en évaluation
  • comment préparer des manuscrits en vue de leur publication dans des revues à comité de lecture

Rédacteur en chef de la Revue canadienne d’évaluation de programme, Robert Schwartz, Ph. D. est à l’origine de plusieurs publications à comité de lecture dans les domaines de l’évaluation, de la mesure du rendement, de la responsabilité et des politiques en santé publique. Sa présentation sur les façons de se faire publier au Congrès national de la SCÉ à Halifax en 2012 a été bien accueillie et les ateliers sur le perfectionnement professionnel qu’il a organisés dans plusieurs pays sont toujours très appréciés des participants.

Niveau: intermédiaire
Conditions de participation: aucune
Horaire: le dimanche 9 juin de 9 h 00 à midi

16. Enjeux de pointe dans les sondages

En évaluation, les enquêtes sont omniprésentes. Malgré son extrême souplesse et sa grande efficacité, cette méthode pose un certain nombre de problèmes qu’il faut aborder pour obtenir des résultats pratiques.

L’objectif de la séance consiste à examiner les quatre sujets suivants et à en discuter : (1) passage du cadre d’évaluation à la planification de l’enquête (p. ex. opérationnalisation des concepts, échantillons, échelles et budgétisation); (2) vérification de la compréhension commune des questions (p. ex. prétest et traduction); (3) techniques d’amélioration des taux de réponse; (4) analyse d’autres enquêtes. Les animateurs présenteront brièvement chaque sujet, formuleront les problèmes rencontrés et communiqueront des solutions glanées dans la documentation et dans le cadre de leur propre pratique. Les participants devront faire part de leur expérience, donner des exemples et faire appel à leur esprit critique tout au long du séminaire.

Dans cet atelier, vous apprendrez…

  • comment passer de la planification de l’évaluation à la conception d’un questionnaire et à la budgétisation
  • comment élaborer des questionnaires d’une fiabilité et d’une validité optimales
  • comment maximiser le taux de réponse

Les compétences professionnelles visées par cet atelier incluent:

Participant à une centaine d’évaluations, Benoît Gauthier, ÉA, se spécialise dans les méthodes de pointe en recherche sociale. Il a enseigné à l’École nationale d’administration publique, à l’Université du Québec en Outaouais et à l’Université d’Ottawa. La Société canadienne d’évaluation lui a décerné les prix de la Contribution à l’évaluation au Canada et de services rendus à la Société. Benoît est l’auteur de Recherche sociale, manuel en recherche sociale de référence, cinq fois édité.
Simon Roy, Ph. D., ÉA, a mené plus de 60 évaluations de programmes depuis 1995. Co-auteur du dernier cours de la SCÉ sur les enquêtes, il a mis au point le premier cours de la SCÉ sur les modèles logiques. Lauréat du prix du Fonds d’éducation de la Société canadienne d’évaluation pour sa contribution à la recherche en pratique évaluative, il enseigne l’évaluation de programmes.

Niveau: avancé
Conditions de participation: au moins deux ans d’expérience en évaluation. Les participants devront également avoir conçu et effectué leur propre enquête.
Horaire: le dimanche 9 juin de 9 h 00 à midi


17. Démontrer l’impact de la recherche : mesurer le rendement des investissements grâce à un cadre d’impact

L’évaluation de l’impact oriente la prise de décision sur une multitude de programmes et de politiques. Dans le domaine de la recherche en santé, les intervenants (chercheurs, établissements de recherche, bailleurs de fonds et utilisateurs du savoir) doivent démontrer l’impact du soutien à ce type de recherche. L’Académie canadienne des sciences de la santé (ACSS) a mis au point un cadre destiné à appuyer la démonstration des effets de la recherche qui a été appliqué avec succès au Canada et à l’étranger.

Cet atelier présente le cadre de l’ACSS et ses composantes. Les participants découvriront le modèle ainsi qu’une liste exhaustive d’indicateurs destinés à évaluer les effets de la recherche en santé en fonction du cadre. Ils apprendront à l’appliquer à leur propre travail grâce à des exemples concrets et des exercices en petits groupes. S’il a été mis au point pour la recherche en santé, le cadre est applicable à d’autres types de recherche. Les participants recevront un manuel d’instruction compilant les enseignements tirés de la séance afin de les appliquer à leur travail.

Dans cet atelier, vous apprendrez…

  • la base des concepts de l’évaluation de l’impact
  • le cadre de l’Académie canadienne des sciences de la santé (ACSS) et de ses indicateurs destinés à « mesurer le rendement des investissements consentis en recherche en santé » et dans la recherche en général
  • comment appliquer le cadre de l’ACSS grâce à des exercices guidés portant sur des études de cas

Les compétences professionnelles visées par cet atelier incluent:

Nancy Carter, Ph. D., est directrice des services d’évaluation de la Fondation pour la recherche en santé de la Nouvelle-Écosse, où elle offre des conseils visant à accélérer les initiatives d’évaluation du système de santé de la province. Titulaire d’un doctorat en comportement organisationnel et gestion des ressources humaines de la Rotman School of Management de l’Université de Toronto, elle a déjà animé des ateliers lors des précédentes éditions du Congrès de la SCÉ et d’autres événements professionnels entre pairs. Nancy a effectué des présentations à l’échelle nationale et internationale sur une diversité de sujets relatifs à l’évaluation et donne actuellement un cours d’introduction à l’évaluation qu’elle a développé pour le compte d’une autorité régionale de la santé.
Travailleur social autorisé et titulaire d’une maîtrise en service social, Rob Chatwin compte nombre d’années d’expérience au sein d’organisations de soins de santé et au gouvernement fédéral. Il se consacre principalement à l’élaboration de cadres d’évaluation à partir de modèles logiques en vue de planifier et d’évaluer des programmes et des politiques. Actuellement, il est directeur de l’évaluation et de la reddition de comptes en matière de rendement à la Fondation pour la recherche en santé de la Nouvelle-Écosse. Rob est membre du conseil d’administration de la section de la Nouvelle-Écosse affiliée à la Société canadienne d’évaluation.

Niveau: débutant
Conditions de participation: expérience en rédaction de rapports, un atout
Horaire: le dimanche 9 juin de 13 h 00 à 16 h 00

18. Analyse de données qualitatives en contexte

Cet atelier comporte trois volets. Le premier donne un aperçu des méthodes d’analyse de données qualitatives et de la théorie ancrée dans la pratique. Le deuxième consiste en un exercice sur papier avec des citations, des codes et des mémos. Le dernier volet se présente sous la forme d’un exercice axé sur la théorie fondée sur la pratique et la cartographie de réseau. Les deux exercices s’appuient sur des données réelles sur papier. Il s’agit d’une présentation orale interactive accompagnée de diapositives PowerPoint. Des résumés des méthodes qualitatives, des logiciels et des ressources en ligne seront distribués. Enfin, l’animateur effectuera une comparaison entre les méthodes manuelles et les solutions logicielles.

Dans cet atelier, vous apprendrez…

  • des méthodes d’analyse de données qualitatives et de la théorie ancrée dans la pratique
  • comment coder et annoter des données en appliquant plusieurs méthodes d’analyse de données qualitatives
  • comment utiliser divers logiciels axés sur l’analyse de données qualitatives (p. ex. Atlas-ti, QDA Miner et N-Vivo)

Les compétences professionnelles visées par cet atelier incluent:

Cumulant 20 ans d’expérience dans les domaines de l’évaluation et de la recherche, Reed Early, ÉA, a enseigné des cours universitaires en méthode d’évaluation qualitative et quantitative. Représentant du conseil national de la SCÉ, ancien président de la section de la Colombie-Britannique, coprésident de l’édition 2010 du Congrès de la SCÉ et de son Comité national de perfectionnement professionnel, il accorde une grande importance à la progression de l’évaluation. Reed s’intéresse particulièrement aux questions méthodologiques et logicielles relatives à l’analyse de données qualitatives.

Niveau: débutant
Conditions de participation: aucune
Horaire: le dimanche 9 juin de 13 h 00 à 16 h 00

19. Présenter ses arguments : évaluation efficace des besoins

REMARQUE: Cette session n’est plus offert

Vous avez besoin de vous rafraîchir la mémoire ou d’apprendre comment effectuer une évaluation des besoins? Pour être plus exhaustives et plus convaincantes, vos évaluations doivent parer à toutes les éventualités, s’appuyer sur un argumentaire solide et se traduire par la meilleure conception de programmes possible.

Dans cet atelier, vous apprendrez…

  • le rôle de l’évaluation des besoins dans la planification de programmes
  • les six critères à remplir pour une évaluation exhaustive des besoins
  • les sources de données les plus courantes dans le cadre d’une évaluation des besoins

20. Présentation intelligente des données

Des diagrammes et graphiques d’une grande clarté sont précieux : ils permettent d’économiser l’énergie mentale de votre auditoire, de conserver l’attention des lecteurs et de rehausser la présentation de votre contenu. Vous pouvez atteindre ce niveau de communication intelligente en vous appuyant sur les outils que vous possédez déjà.

Dans le cadre de cet atelier de trois heures, vous apprendrez les pratiques exemplaires de la conception de graphiques fondée sur la recherche pour exposer vos données de façon intelligente. Pendant la séance, l’accent portera sur les règles fondamentales de conception d’un bon graphique, notamment sur l’élaboration des présentations dans Excel qui marquent les esprits à partir des paramètres par défaut. Il est instamment recommandé d’apporter des versions imprimées des graphiques que vous utilisez actuellement pour révision et discussion pendant l’atelier. Ainsi, vous pourrez utiliser votre logiciel de création de graphiques de façon plus intelligente.

Dans cet atelier, vous apprendrez…

  • la théorie du traitement visuel et son intérêt en évaluation
  • les pratiques exemplaires en graphisme fondées sur la théorie du traitement visuel
  • comment mettre en valeur vos données en suivant des étapes simples et immédiatement applicables grâce à des pratiques exemplaires en graphisme et à la théorie du traitement visuel

Les compétences professionnelles visées par cet atelier incluent:

Stephanie Evergreen, Ph. D. a fondé et présidé le Data Visualization and Reporting TIG d’AEA. Elle a publié sur le sujet dans « New Directions for Evaluation » et co-écrit un volume sur la présentation de données. Son ouvrage «Presenting Data Effectively» sortira aux éditions Sage à l’automne 2014.En plus de cours à titre de conférencière invitée à l’Université du Western Michigan, elle a créé sa propre société, Evergreen Evaluation, dans le cadre de laquelle elle donne des ateliers et des webinaires privés et pour des clients comme le Centre de recherche pédagogique et United Way of the Bay Area sur le sujet et des thèmes connexes. Stephanie a été mandatée par l’American Evaluation Association pour former ses présentateurs aux webinaires et dans le cadre de la Potent Presentations Initiative.

Niveau: intermédiaire
Conditions de participation: savoir créer des graphiques simples dans Excel en utilisant les paramètres par défaut
Horaire: le dimanche 9 juin de 13 h 00 à 16 h 00

21. Écrire pour être lu

Les intervenants peuvent tirer des enseignements des rapports d’évaluation très accessibles et intéressants. Pour les lecteurs dont la langue maternelle n’est pas l’anglais, la lisibilité et la clarté revêtent une importance primordiale. Les styles d’écriture adoptés à l’université pouvant en réalité nuire à l’efficacité d’un texte, des experts en communication d’entreprise ont mis au point des stratégies simples de rédaction de documents convaincants et attrayants pour les chercheurs.

Dans le cadre de cet atelier hautement interactif, vous appliquerez plusieurs stratégies simples visant à conserver l’attention de votre lectorat. Si le divertissement sera au rendez-vous, vous retirerez également de précieux conseils de cette séance qui a connu un grand succès lors des dernières activités nationales et provinciales organisées par la SCÉ.

Dans cet atelier, vous apprendrez…

  • comment formuler vos idées de manière simple quand on n’est ni évaluateur ni de langue maternelle anglaise
  • comment structurer des phrases dynamiques et des paragraphes cohérents et convaincants
  • plusieurs compétences requises à l’exercice de l’évaluation au Canada (voir ci-après)

Les compétences professionnelles visées par cet atelier incluent :

Christine Frank, Ph. D. est une évaluatrice et une éducatrice chevronnée. À la tête de Christine Frank & Associates, elle effectue régulièrement des évaluations de programmes et offre des formations à diverses organisations. Elle a également enseigné les communications d’entreprise pendant bien des années et a co-écrit un manuel sur le sujet. Membre du jury d’accréditation de la SCÉ, elle est titulaire d’un doctorat en éducation. De 2000 à 2008, elle enseigné aux cycles supérieurs les fondements du programme d’analyste de recherche au Collège Georgian à Barrie.

Niveau: intermédiaire
Conditions de participation: expérience en rédaction de rapports, un atout
Horaire: le dimanche 9 juin de 13 h 00 à 16 h 00

22. Développement international et raisons de l’évolution : mesurer la réussite et les échecs et trouver des moyens d’influer sur les futurs choix en matière d’aide

REMARQUE: Cette session n’est plus offert

L’évaluation sans frontières nous oblige à éviter la facilité. Pour mettre au point des méthodologies, il faut tenir compte de facteurs contextuels et discerner les éléments qui fonctionnent de ceux qui ne fonctionnent pas afin de trouver des méthodes efficaces d’application des enseignements tirés du passé et de prendre de meilleures décisions à l’avenir. Le domaine de l’aide au développement international et de la réduction de la pauvreté dans le monde est émaillé de débats sur la responsabilité et l’efficacité complexifiés par l’histoire, les différences culturelles ainsi que le paysage géopolitique et le contexte sécuritaire en constante évolution.

Deux grandes organisations humanitaires au Canada ont lancé deux initiatives audacieuses et palpitantes visant à mettre en lumière des thèmes importants souvent négligés de l’aide internationale : Ingénieurs sans frontières Canada publie chaque année un rapport d’échecs et Plan Canada a piloté une campagne inédite intitulée « Parce que je suis une fille ». Cet atelier traitera de la genèse, des défis, des méthodologies et des stratégies de communication relatifs à ces sujets peu explorés. L’atelier est ouvert aux participants de tous niveaux, qui seront invités à faire part de leur expérience et de leurs idées en petits groupes.

Dans cet atelier, vous apprendrez…

  • des concepts et des principes clés, en plus d’amasser des ressources documentaires relatives à l’évaluation et au suivi dans le domaine de l’aide au développement international et de la réduction de la pauvreté dans le monde
  • ce qu’est la gestion fondée sur les résultats
  • l’importance de la participation des clients et de la communication stratégique des résultats

23. Processus d’apprentissage en évaluation de développement

Les processus d’apprentissage jouent un rôle crucial dans l’évaluation de développement (ED) en soutenant l’innovation sociale et l’élaboration de programmes. Au XXIe siècle, la complexité, l’adaptation et l’innovation sont devenus la norme dans le secteur public en matière de prestation de services à une société en constante évolution. Les nouveaux programmes reposent souvent sur la compréhension de certains besoins ou problèmes essentiels, des acteurs et de la population cible, mais n’ont pas encore donné lieu à un modèle normalisé d’intervention ou de prestation de services qui y répondent. Au moment de l’élaboration de plans et de la mise en œuvre de mesures et d’activités, l’ED devient un moyen d’évaluer et d’orienter les interventions et les activités des programmes qui contribuent à combler ces besoins sociaux.

L’atelier donne un aperçu des principes de l’évaluation de développement et présente les outils d’apprentissage des processus utilisés par les évaluateurs chevronnés pour orienter le développement, la durabilité et l’efficacité de l’intervention.

Dans cet atelier, vous apprendrez…

  • comment répondre aux intérêts uniques, aux enjeux émergents et aux contextes complexes en utilisant vos compétences pratiques interpersonnelles et situationnelles
  • comment décoder et inspirer la pensée évaluative en appliquant vos compétences pratiques techniques et de gestion et en les intégrant au cycle de travail, au schéma d’évaluation ainsi qu’à la collecte, à l’analyse, à l’interprétation et à la communication de données
  • comment devenir un membre efficace à part entière d’une équipe en utilisant vos compétences en pratique réflexive pour faciliter le processus d’apprentissage

Les compétences professionnelles visées par cet atelier incluent:

Wendy Rowe, Ph. D. est professeure à la School of Leadership. Elle y enseigne et y anime des ateliers axés sur le développement du leadership, la gestion du changement, la recherche-action, l’examen évaluatif, la mesure du rendement, le travail d’équipe et l’animation, la planification stratégique et la gestion financière. Animatrice chevronnée en évaluation de programmes, elle collabore avec des organisations à l’amélioration de leur rendement et de leurs capacités. Elle donne régulièrement des cours dans le cadre de la Série sur les compétences essentielles en évaluation de la SCÉ.
Keiko Kuji-Shikatani, Ph. D., facilite quotidiennement l’apprentissage professionnel au travail dans le secteur public en s’appuyant sur un modèle logique pour encourager la pensée évaluative et orienter l’évaluation de développement. Elle a encadré des ateliers d’apprentissage professionnels sur l’évaluation de développement offerts à divers auditoires au Canada et dans le monde entier. Elle enseigne également les principes fondamentaux de l’évaluation de programmes dans le cadre du Programme de formation des éducateurs internationaux de l’Université Queen’s.

Niveau: intermédiaire / avancé
Conditions de participation: notions fondamentales en évaluation
Horaire: le dimanche 9 juin de 13 h 00 à 16 h 00

24. Au-delà du modèle logique : méthodes avancées d’élaboration de cadres d’évaluation

Les cadres d’évaluation de qualité sont un des principaux facteurs déterminants d’une évaluation réussie. En plus de bons modèles logiques et d’enjeux d’évaluation appropriés, les cadres d’évaluation de qualité reposent sur une stratégie adaptée aux problèmes d’évaluation, y compris les questions relatives à l’efficacité, à l’efficience et à l’économie. Les meilleures stratégies témoignent d’une analyse approfondie des données disponibles, notamment de leur qualité, et de méthodologies adaptées qui permettent aux évaluateurs de recueillir des données probantes et d’évaluer les impacts additifs des programmes, comme des stratégies de comparaison optimales.

Au cours de cette séance, nous examinerons des techniques avancées d’évaluation des données, de même que des principes et des techniques de détermination des meilleures stratégies d’évaluation en fonction des paramètres du programme, de l’objectif de l’évaluation et des sources d’information disponibles. Enfin, nous aborderons des techniques relatives à l’établissement de budgets en évaluation, notamment celles reposant sur des méthodes qualitatives et quantitatives.

Dans cet atelier, vous apprendrez…

  • comment trouver et analyser les données disponibles, y compris leur qualité, en vue du développement et de la sélection des méthodes
  • comment sélectionner les meilleures stratégies, y compris la combinaison de méthodes particulières et de stratégies de comparaison, les mieux adaptées aux problèmes d’évaluation
  • comment établir les coûts des diverses options afin d’évaluer les programmes

Cet atelier portera sur les compétences en évaluation suivantes:

Simon Roy, Ph. D., ÉA, a mené plus de 60 évaluations de programmes depuis 1995, parmi lesquelles plusieurs projets comportant des enquêtes à portée régionale et nationale. Co-auteur du dernier cours de la SCÉ sur les enquêtes, il enseigne l’évaluation de programmes à temps partiel à l’Université d’Ottawa.
Benoît Gauthier, ÉA, a contribué à plus de 100 évaluations depuis le début de sa carrière et a développé plusieurs cadres d’évaluation. M. Gauthier a enseigné plusieurs cours à l’École nationale d’administration publique. Les deux animateurs ont co-écrit plusieurs articles dans la Revue canadienne d’évaluation de programme.

Niveau: intermédiaire / avancé
Conditions de participation: aucune
Horaire: le dimanche 9 juin de 13 h 00 à 16 h 00


Dernier gazouillis

@CESToronto2013