PillarMéthodes11 min read

Évaluation Centrée sur l'Utilisation

Une approche d'évaluation où chaque décision de conception est guidée par les besoins des utilisateurs principaux visés, les personnes spécifiques qui utiliseront effectivement les résultats pour prendre des décisions spécifiques.

Quand Utiliser

L'Évaluation Centrée sur l'Utilisation (ECU) est l'approche appropriée lorsque la préoccupation principale est d'assurer que les résultats de l'évaluation sont effectivement utilisés — et pas seulement produits. Développée par Michael Quinn Patton, l'ECU part d'un principe simple mais radical : les évaluations ne sont jugées non pas uniquement par la qualité méthodologique, mais par le fait qu'elles produisent des résultats qui éclairent de véritables décisions. Une évaluation que personne n'utilise est un échec, quelle que soit sa qualité technique.

Utilisez-la lorsque :

  • Les évaluations précédentes n'ont pas été utilisées — une histoire de rapports d'évaluation qui prennent la poussière indique que le processus de conception a ignoré les utilisateurs prévus
  • Les décideurs ont des choix spécifiques et limités dans le temps à faire — et l'évaluation peut être conçue pour fournir exactement l'information nécessaire, au moment nécessaire
  • Plusieurs parties prenantes ont des besoins d'information différents — l'ECU fournit un cadre pour négocier et prioriser entre des besoins concurrents
  • La politique du bailleur ou de l'organisation l'exige — CRS, CARE et plusieurs donateurs bilatéraux ont institutionnalisé l'ECU comme leur approche d'évaluation standard
  • Renforcement des capacités d'évaluation — impliquer les utilisateurs dans le processus d'évaluation renforce leurs capacités à utiliser des preuves dans la prise de décision future

L'ECU n'est pas une excuse pour ne produire que les résultats que les utilisateurs veulent voir. L'évaluateur maintient son indépendance professionnelle et rapporte les résultats honnêtement, même lorsqu'ils sont inconfortables. L'ECU façonne les questions et la communication autour des besoins des utilisateurs, pas les résultats eux-mêmes.

ScénarioUtiliser ECU ?Meilleure Alternative
Résultats d'évaluation systématiquement ignorésOui
Décision d'adaptation spécifique du programme en attenteOui
L'attribution causale est l'objectif principalEn parallèleÉvaluation d'Impact
Le programme est très complexe et émergentEn parallèleÉvaluation Développementale
Les mandats du bailleur exigent un rapportage de redevabilitéEn parallèleGestion Axée sur les Résultats

Comment Cela Fonctionne

L'ECU n'est pas une méthode de collecte de données spécifique — c'est un cadre de processus pour concevoir toute évaluation autour des besoins des utilisateurs. L'évaluateur applique la pensée évaluative et la rigueur professionnelle à toutes les méthodes les plus appropriées pour les questions que les utilisateurs ont besoin de voir résolues.

Étape 1 : Identifier le(s) utilisateur(s) principal(aux) visé(s)

C'est l'étape la plus critique. L'utilisateur principal visé est une personne ou des personnes spécifiques et nommées qui utiliseront les résultats pour prendre une décision spécifique. "Le programme" n'est pas un utilisateur. "Le Directeur du Programme, qui présentera les résultats au Conseil d'Administration en mars pour décider de renouveler le contrat" est un utilisateur. Patton appelle cela le "facteur personnel" — les utilisateurs abstraits produisent des évaluations abstraites que personne n'utilise.

Étape 2 : Identifier l'utilisation prévue

Quelles décisions ou actions spécifiques le principal utilisateur prendra-t-il sur la base de l'évaluation ? L'utilisation prévue façonne tout : les questions, les méthodes, le calendrier et l'approche de communication. Utilisation non encore déterminée = conception d'évaluation non encore possible.

Étape 3 : Impliquer les utilisateurs dans la conception de l'évaluation

Impliquer les utilisateurs principaux visés dans le développement des questions d'évaluation, la révision de la conception de l'évaluation et l'interprétation des résultats préliminaires. Ce n'est pas une consultation publique — c'est une relation de travail avec les personnes spécifiques qui utiliseront les résultats.

Étape 4 : Adapter les méthodes aux questions, pas à la convention

Dans l'ECU, les questions d'évaluation (dérivées des besoins des utilisateurs) déterminent les méthodes — et non l'inverse. Si les utilisateurs ont besoin d'une réponse rapide en six semaines, une évaluation d'impact de deux ans est incorrecte quelle que soit sa supériorité méthodologique. Utilisez toutes les méthodes qui produisent des résultats crédibles et utiles dans le calendrier de décision des utilisateurs.

Étape 5 : Communiquer pour l'utilisation

Le format, le moment et le cadrage des résultats doivent être adaptés à la façon dont les utilisateurs les consommeront et les partageront. Un rapport technique de 60 pages livré deux semaines après une décision du Conseil d'Administration ne sert à personne. Un bref de deux pages avec des recommandations claires, livré avant la décision, le fait.

Étape 6 : Suivre l'utilisation

Après la livraison des résultats, suivre pour documenter comment ils ont été utilisés (ou pourquoi ils ne l'ont pas été). Cette redevabilité boucle la boucle et permet à l'évaluateur d'améliorer l'utilisation future.

Composantes Clés

  • Utilisateurs principaux visés nommés — individus spécifiques, pas des organisations ou des audiences générales
  • Utilisation visée spécifiée — documentée avant le début de la conception de l'évaluation
  • Processus d'engagement des utilisateurs — implication structurée des utilisateurs dans le développement des questions et l'interprétation
  • Évaluateur en tant que facilitateur actif — l'évaluateur gère activement le processus d'utilisation, pas seulement la collecte de données
  • Méthodes sélectionnées pour leur utilité — choix de conception justifiés par ce qui produira des résultats utiles, pas par la convention méthodologique
  • Plan de communication — produits adaptés aux besoins et au calendrier de décision de chaque utilisateur identifié
  • Documentation de l'utilisation — enregistrements de la façon dont les résultats ont été réellement utilisés

Meilleures Pratiques

Nommez l'utilisateur, nommez l'utilisation. La discipline d'écrire le nom et le rôle spécifiques du principal utilisateur visé et la décision spécifique qu'ils doivent prendre transforme la planification d'évaluation abstraite en utilité concrète. Faites cela avant tout le reste.

Commencez par l'utilisation, pas par les questions. L'évaluation conventionnelle commence par "que voulons-nous savoir ?" L'ECU commence par "que devons-nous décider, et quelle information améliorerait cette décision ?" La différence est subtile mais conséquente.

Protégez l'indépendance de l'évaluateur. L'engagement des utilisateurs ne signifie pas que l'évaluateur dit aux utilisateurs ce qu'ils veulent entendre. La responsabilité de l'évaluateur est de fournir des résultats honnêtes et crédibles. L'ECU façonne les questions et la communication, pas les résultats.

Alignez le calendrier de l'évaluation sur le calendrier de la décision. Une évaluation livrée après qu'une décision a été prise est inutile. Construisez le calendrier de l'évaluation autour du moment où les utilisateurs ont besoin des résultats.

Documentez l'utilisation visée dans les Termes de Référence. Les Termes de Référence de l'évaluation devraient énoncer explicitement les principaux utilisateurs visés et les décisions spécifiques que l'évaluation éclairera. Cela crée une redevabilité pour l'utilisation dès le départ.

Erreurs Courantes

Identifier des organisations au lieu de personnes comme utilisateurs. "Le Ministère de la Santé" n'est pas un utilisateur. "Dr. Amara Diallo, Directrice des Soins de Santé Primaires, qui décide de recommander une mise à l'échelle nationale" est un utilisateur. La spécificité sur qui utilisera les résultats est ce qui fait fonctionner l'ECU.

Confondre la consultation avec l'engagement. Montrer un projet de rapport aux parties prenantes pour commentaires est une consultation. L'ECU exige une implication substantielle des utilisateurs dans le développement des questions, l'examen de la méthodologie et l'interprétation préliminaire des résultats.

Utiliser l'ECU comme justification pour éviter des méthodes rigoureuses. "L'utilisateur n'a pas besoin d'un RCT, il a juste besoin d'une enquête de base" est valide — si une enquête de base fournit réellement des réponses crédibles aux questions de l'utilisateur. L'ECU n'est pas une raison de faire une évaluation de moindre qualité ; c'est une raison de choisir la bonne qualité d'évaluation pour les questions qui comptent.

Négliger de boucler la boucle d'utilisation. Si vous ne suivez pas après la livraison des résultats pour documenter ce qui a été décidé et comment les résultats l'ont influencé, vous n'avez aucune preuve d'utilisation — seulement l'espoir de celle-ci.

Traiter l'ECU comme une méthodologie. L'ECU est un cadre de processus, pas une méthode de collecte de données. Les méthodes mixtes, les enquêtes, les études de cas et les entretiens peuvent tous être utilisés dans une approche ECU. Les méthodes sont choisies en fonction de ce qui produira des résultats crédibles et utiles pour les utilisateurs identifiés.

Exemples

Examen à mi-parcours, Afrique de l'Ouest. Un programme d'autonomisation économique des femmes financé par CARE au Sénégal a utilisé l'ECU pour son examen à mi-parcours. L'utilisateur principal visé était le Directeur de Pays, qui devait décider laquelle des trois composantes du programme approfondir et laquelle mettre hors service avant la planification de l'Année 3. L'évaluation a été conçue avec trois ensembles de résultats distincts : un pour la décision de financement du Directeur de Pays, un pour les ajustements opérationnels de l'équipe du programme, et un pour les exigences de redevabilité du bailleur. Chaque ensemble utilisait des données de la même évaluation mais était cadré, formaté et chronologé différemment. Le Directeur de Pays a mis en œuvre les trois changements de composantes recommandés dans les 30 jours suivant la réception des résultats.

Évaluation sommative, Afrique de l'Est. Un programme de gouvernance financé par USAID au Kenya a utilisé l'ECU pour son évaluation finale. Les principaux utilisateurs visés étaient la Mission de USAID et la contrepartie du programme du gouvernement hôte, chacun ayant des utilisations prévues différentes. L'évaluateur a géré un atelier d'apprentissage conjoint où les deux parties ont examiné les résultats préliminaires ensemble, clarifiant les interprétations et identifiant les implications avant que le rapport final ne soit rédigé. Le rapport résultant a été utilisé directement dans la conception du programme de suivi de USAID — une utilisation documentée qui satisfaisait aux exigences d'utilisation de l'évaluation de USAID.

Apprentissage organisationnel, Asie du Sud. Une ONG internationale au Bangladesh avec un historique d'évaluations qui n'ont pas été lues a commandé un examen du processus ECU avant de mener toute nouvelle évaluation. L'examen a identifié que les évaluations passées avaient échoué parce qu'elles répondaient à des questions qu'aucun décideur ne se souciait et qu'elles étaient livrées après que les décisions avaient été prises. Le cadre ECU a ensuite été appliqué pour redessiner le système d'évaluation, reliant explicitement les questions d'évaluation au cycle annuel d'examen du programme.

Comparé À

ApprochePoint de DépartRôle de l'ÉvaluateurFocus Principal
ECUBesoins et décisions des utilisateursFacilitateur de l'utilisationUtilisation de l'évaluation
Évaluation DéveloppementaleProgramme émergentPartenaire intégréApprentissage en temps réel
Évaluation RéalisteThéorie du ChangementAnalyste externeCompréhension des mécanismes
Sommative conventionnelleQualité méthodologiqueÉvaluateur externeVerdict de redevabilité
Évaluation participativeAutonomisation des parties prenantesPartenaire collaboratifInclusion démocratique

Indicateurs Pertinents

24 indicateurs dans les cadres CRS, USAID, DFID et CARE. Exemples clés :

  • Nombre d'utilisateurs principaux visés engagés de manière substantielle dans la conception de l'évaluation (cible : minimum 2)
  • Proportion de questions d'évaluation directement traçables aux besoins de décision des utilisateurs nommés
  • Instances documentées de résultats d'évaluation utilisés dans des décisions de programme ou organisationnelles dans les 6 mois suivant le rapport
  • Score de satisfaction des utilisateurs pour la pertinence et l'opportunité de l'évaluation (noté sur une échelle de 1-5)

Outils Connexes

  • Planificateur d'Évaluation — structurez votre conception d'évaluation avec les utilisateurs, l'utilisation visée et le calendrier

Sujets Connexes

  • Termes de Référence d'Évaluation — le document où les utilisateurs et l'utilisation visée doivent être spécifiés
  • Agendas d'Apprentissage — un outil complémentaire pour identifier les questions d'apprentissage prioritaires à travers l'organisation
  • Gestion Adaptative — la pratique de gestion de programme qui dépend de l'utilisation des résultats d'évaluation en temps réel
  • Évaluation Développementale — l'approche de Patton pour les programmes complexes et émergents, qui partage la focalisation sur l'utilisation de l'ECU
  • Plans de SEA — le plan de suivi opérationnel qui fournit des données pour les évaluations centrées sur l'utilisation

Lectures Complémentaires

  • Patton, M.Q. (2008). Évaluation Centrée sur l'Utilisation. 4e éd. Thousand Oaks: Sage. Le texte fondateur et complet.
  • Patton, M.Q. (2012). Essentiels de l'Évaluation Centrée sur l'Utilisation. Thousand Oaks: Sage. Une version introductive accessible.
  • CRS (2011). Fondamentaux de la SEA en Pratique. Catholic Relief Services. Met en œuvre l'ECU comme norme organisationnelle pour toutes les évaluations.
  • Johnson, K., Greenseid, L.O., Toal, S.A., King, J.A., Lawrenz, F., & Volkov, B. (2009). "Recherche sur l'Utilisation des Évaluations." American Journal of Evaluation, 30(3), 377-410. Revue de recherche sur les facteurs d'utilisation des évaluations.