PillarMéthodes12 min read

Analyse de Contribution

Une approche structurée pour établir un cas crédible de la manière dont et pourquoi un programme a contribué aux résultats observés, sans nécessiter d'attribution expérimentale.

Quand Utiliser

L'analyse de contribution est la bonne approche lorsque vous devez affirmer de manière crédible si votre programme a fait la différence — mais que vous ne pouvez pas mener un essai contrôlé randomisé, et que présenter simplement des données de résultats sans expliquer le lien causal serait peu convaincant.

Utilisez-la lorsque :

  • L'attribution est contestée — plusieurs bailleurs, interventions parallèles ou facteurs contextuels complexes rendent impossible l'isolement de l'effet de votre programme
  • Les ECR ne sont pas réalisables — des contraintes éthiques, logistiques ou de coût excluent les designs expérimentaux
  • La théorie du changement nécessite une validation — vous voulez tester si vos hypothèses causales ont tenu pendant la mise en œuvre, pas seulement rapporter des chiffres
  • Les bailleurs exigent un récit de contribution — les évaluations pour DFID, USAID ou UNDP attendent de plus en plus une explication de comment le programme a contribué, pas seulement quels produits ont été livrés
  • Le programme est complexe ou adaptatif — plusieurs voies, boucles de rétroaction ou contextes changeants signifient qu'un simple modèle intrant-produit ne capture pas ce qui s'est passé

L'analyse de contribution est moins appropriée lorsque les résultats sont facilement mesurables et attribuables (utilisez un design pré-post simple), lorsque vous devez prouver la causalité à des fins de prise de décision politique (envisagez un plan quasi-expérimental), ou lorsque la question d'évaluation porte principalement sur quoi les résultats se sont produits plutôt que pourquoi (utilisez la récolte des résultats).

ScénarioUtiliser l'Analyse de Contribution ?Meilleure Alternative
Programme complexe, pas de groupe témoinOui
Vouloir prouver la causalité rigoureusementNonPlan Quasi-Expérimental
Résultats imprévus ou émergentsNonRécolte des Résultats
Besoin de comprendre pourquoi la ToC a échouéOui, en parallèleTraçage de Processus
Programme a une intervention claire et isoléeNonECR ou Évaluation d'Impact
Multiples bailleurs, contribution contestéeOui

Comment Cela Fonctionne

L'analyse de contribution suit un processus en six étapes développé par John Mayne. L'objectif n'est pas de prouver que votre programme a causé les résultats, mais de construire un récit de contribution — un récit documenté et étayé par des preuves qui rend plausible que votre programme a contribué de manière significative aux changements observés.

Étape 1 : Exposer le problème d'attribution

Définissez la question d'évaluation avec précision. Quels résultats affirmez-vous que le programme a contribué à ? Quelle période ? Quelle population ? Reconnaissez ce que vous pouvez et ne pouvez pas prouver d'emblée. Cette étape empêche de trop s'étendre et concentre la collecte de preuves.

Étape 2 : Développer ou revoir la théorie du changement

L'analyse de contribution repose sur une ToC comme colonne vertébrale analytique. Si vous n'en avez pas, construisez-la. Si vous en avez une, explicitez les liens causaux et les hypothèses — chaque lien devient une proposition testable.

Étape 3 : Rassembler des preuves sur la théorie du changement

Collectez des données pour tester si chaque lien de la ToC a tenu pendant la mise en œuvre. Utilisez un mélange de données quantitatives et qualitatives : données de suivi, enquêtes, entretiens avec informateurs clés, revue de documents, groupes de discussion. Pour chaque lien causal, demandez : Y a-t-il des preuves que cette étape s'est produite ? Quelle est la force de ces preuves ?

Étape 4 : Assembler le récit de contribution

Synthétisez les preuves en un récit qui parcourt les activités du programme jusqu'aux résultats. Soyez explicite sur là où les preuves sont fortes, là où elles sont partielles, et là où elles sont absentes. Le récit de contribution doit se lire comme un argument raisonné, pas un rapport de chiffres.

Étape 5 : Rechercher et traiter les explications rivales

Identifiez les explications alternatives pour les résultats observés : d'autres programmes opérant dans le même espace, changements contextuels (modifications politiques, chocs économiques), ou effets de sélection. Présentez soit des preuves qui éliminent ces rivaux, soit reconnaissez-les honnêtement et expliquez pourquoi la contribution de votre programme reste plausible.

Étape 6 : Réviser et renforcer le récit de contribution

Utilisez le processus comme un exercice d'apprentissage. Là où les preuves sont faibles ou les explications rivales convaincantes, réviser votre ToC ou signaler quelles preuves supplémentaires sont nécessaires. Une bonne analyse de contribution améliore la conception de votre prochain programme.

Composants Clés

Une analyse de contribution complète nécessite :

  • Une revendication causale claire — une déclaration précise de ce que votre programme est argué avoir contribué à, pour qui, et pendant quelle période
  • Une théorie du changement explicite — avec tous les liens causaux et hypothèses documentés (pas seulement un diagramme)
  • Preuves par lien — données ou résultats qualitatifs pour chaque étape de la ToC, évalués pour la qualité et la pertinence
  • Test d'explications rivales — documentation explicite des causes alternatives et pourquoi elles sont insuffisantes ou incomplètes
  • Un récit de contribution — un document narratif (généralement 3-10 pages) synthétisant les éléments ci-dessus en un argument cohérent
  • Note de confiance — une déclaration transparente de la force ou de la faiblesse de la revendication de contribution globale, et ce qui augmenterait la confiance
  • Triangulation par méthodes mixtes — au moins deux sources de preuves indépendantes pour chaque revendication causale majeure

Meilleures Pratiques

Commencez par la ToC, pas les données. L'erreur la plus courante est de collecter des données d'abord puis d'essayer de construire un récit causal à l'envers. La ToC devrait déterminer quelles données vous avez besoin, pas l'inverse.

Cartographiez les interventions aux résultats explicitement. Avant de collecter de nouvelles données, documentez chaque activité de programme existante et mappez-la au résultat spécifique auquel elle est censée contribuer. Cela empêche la rationalisation post-hoc.

Renforcez la plausibilité avec des preuves externes. Les récits de contribution deviennent plus crédibles lorsqu'ils citent des recherches ou des programmes comparables montrant que les mêmes mécanismes causaux fonctionnent. Citez la littérature pertinente, les évaluations sectorielles ou les méta-analyses.

Définissez votre question d'évaluation comme une question de contribution. Formulez-la comme "Dans quelle mesure X a-t-il contribué à Y ?" plutôt que "Est-ce que X a causé Y ?". Cela définit le bon niveau de rigueur et empêche la dérive de portée.

Utilisez la triangulation itérative. Faites passer le récit de contribution auprès du personnel du programme, des membres de la communauté et d'un pair examinateur externe. Différentes parties prenantes identifieront des explications rivales que vous n'avez pas considérées. Chaque tour renforce le récit.

Soyez transparent sur les niveaux de confiance. Un récit de contribution qui reconnaît honnêtement des preuves faibles à certains liens est plus crédible — et plus utile — que celui qui surestime la certitude. Notez chaque lien causal : Preuves fortes / Preuves modérées / Preuves faibles / Aucune preuve.

Erreurs Courantes

Le traiter comme une excuse pour éviter la rigueur. L'analyse de contribution n'est pas un moyen d'éviter de collecter de bonnes données. Elle nécessite toujours une collecte de preuves systématique. La différence avec les designs expérimentaux est le type de preuves et la revendication faite, pas la norme de qualité.

Ignorer les explications rivales. La faiblesse la plus courante dans les récits de contribution est de ne pas tester sérieusement les causes alternatives. Si vous ne traitez pas les rivaux, les examinateurs et les bailleurs le feront. Intégrez le test d'explications rivales dans la conception, pas comme une pensée après-coup.

Confondre contribution et attribution. L'objectif est une revendication de contribution plausible, pas la preuve de causalité. Des déclarations comme "Notre programme a causé 30% de l'amélioration" sont généralement injustifiables et sapent la crédibilité. Dites plutôt : "Les preuves soutiennent une contribution significative de notre programme, les autres facteurs clés étant X et Y."

Sauter l'étape de révision de la ToC. De nombreux évaluateurs produisent le récit de contribution mais ne le nourrissent jamais dans la conception du programme. Cela gaspille la valeur d'apprentissage principale de la méthode.

L'utiliser pour des programmes simples. L'analyse de contribution est intensive en ressources. Pour une intervention bien définie, simple avec une seule voie causale, un design pré-post avec un groupe de comparaison sera plus efficace et plus convaincant.

Documentation faible. Un récit de contribution qui ne peut pas être retracé jusqu'à des sources de preuves spécifiques n'est pas un récit de contribution — c'est une assertion. Chaque revendication causale a besoin d'une source de preuves citée.

Exemples

Programme de moyens de subsistance, Afrique de l'Est. Un programme d'agriculture de petits exploitants financé par USAID de quatre ans au Kenya a affirmé avoir contribué à l'augmentation du revenu des ménages parmi 40 000 bénéficiaires. Une analyse de contribution a été menée pour l'évaluation finale. La ToC a cartographié la voie des intrants de formation à travers l'adoption des connaissances, le changement de pratique, l'amélioration du rendement, jusqu'au changement de revenu. Les données de suivi ont confirmé la participation à la formation et les scores de connaissances. Les enquêtes agricoles ont montré des améliorations de rendement corrélées à l'adoption de pratiques. L'explication rivale — une saison de pluies favorable — a été traitée en comparant les tendances de rendement parmi les non-participants dans la même géographie (aucune amélioration similaire). Le récit de contribution a noté la contribution du programme comme "confiance modérée à élevée" pour les résultats de rendement et "confiance modérée" pour le revenu, reconnaissant la volatilité des prix comme un facteur confondant.

Gouvernance et plaidoyer, Afrique de l'Ouest. Un programme de renforcement de la société civile financé par l'UE au Ghana cherchait à démontrer la contribution à une meilleure transparence budgétaire au niveau du district. Un récit de contribution a été assemblé en utilisant l'analyse de documents (divulgations budgétaires augmentées), des entretiens avec informateurs clés avec les officiers de finances du district et les partenaires OSC, et un exercice de cartographie politique. L'explication rivale — une nouvelle politique de transparence gouvernementale nationale — était significative. Le récit de contribution a soutenu que la formation au plaidoyer du programme a directement informé la coalition OSC qui a fait du lobbying pour la politique, documentant trois réunions pivots. La revendication a été notée "confiance élevée pour l'influence politique, confiance modérée pour le changement de pratique au niveau du district."

Systèmes de santé, Asie du Sud. Un programme de nutrition soutenu par UNICEF au Bangladesh a fait face à un environnement d'attribution complexe : plusieurs bailleurs, campagnes gouvernementales de nutrition, et une baisse des prix mondiaux des produits de base se sont tous superposés aux améliorations des taux d'insuffisance pondérale infantile. Une analyse de contribution a cartographié les voies de livraison spécifiques du programme (SBCC au niveau communautaire, formation des travailleurs de santé) contre les changements observés. Plutôt que de réclamer le crédit pour la réduction globale de l'insuffisance pondérale, le récit de contribution s'est concentré étroitement sur les 120 unions du programme, montrant des effets dose-réponse (zones de mise en œuvre à plus haute intensité ont montré un changement plus rapide) et éliminant les effets de sélection différentiels. La note de confiance était "modérée" pour la contribution à la réduction de l'insuffisance pondérale dans les zones du programme.

Comparé à

MéthodeType de RevendicationContrefactuel ?Meilleur Usage
Analyse de ContributionContribution plausibleNonProgrammes complexes, multiples bailleurs
Traçage de ProcessusTraçage de mécanismeNonExpliquer comment un résultat spécifique s'est produit
Plan Quasi-ExpérimentalAttribution causaleOui (groupe de comparaison)Programmes avec traitement/comparaison clairs
Évaluation d'ImpactAttribution causaleOui (groupe témoin)Revendications causales rigoureuses pertinentes pour les politiques
Récolte des RésultatsDocumente ce qui a changéNonRésultats émergents dans un changement complexe
Évaluation RéalisteCe qui fonctionne pour quiPartielComprendre les mécanismes contextuels

Indicateurs Pertinents

31 indicateurs alignés sur les bailleurs existent à travers les cadres USAID, DFID, UNDP, et OECD-DAC pour évaluer la qualité de l'évaluation et la contribution du programme. Les plus couramment cités :

  • Force des preuves reliant les activités du programme aux changements observés (échelle : 1-5)
  • Nombre d'explications rivales testées dans le rapport d'évaluation final
  • Degré auquel les hypothèses de la ToC du programme sont soutenues par les preuves de mise en œuvre
  • Note de qualité de la triangulation par méthodes mixtes utilisée dans l'évaluation
  • Proportion des liens causaux dans la ToC avec des données de suivi ou d'évaluation supportant

Outils Connexes

  • MEStudio Logic Model Builder — mappez votre ToC comme fondation analytique avant de commencer une analyse de contribution
  • Evaluation Planner — structurez votre matrice de collecte de preuves par lien causal

Sujets Connexes

Lectures Complémentaires

  • Mayne, J. (2012). "Analyse de Contribution : Venir de l'âge ?" Évaluation, 18(3), 270-280. L'article méthodologique fondateur.
  • Mayne, J. (2001). "Aborder l'Attribution par l'Analyse de Contribution." Revue canadienne d'évaluation de programmes, 16(1), 1-24. La formulation originale.
  • DFID (2012). Élargir la gamme de conceptions et de méthodes pour les évaluations d'impact. Département britannique du développement international. Couvre l'analyse de contribution avec les approches expérimentales.
  • OECD-DAC (2019). Évaluer la Coopération au Développement : Un Recueil. Inclut des orientations sur l'analyse de contribution pour les programmes complexes.