Logframe Quality Assessment

AI Prompt Templates

Copy a prompt into Claude, ChatGPT, or Gemini. Paste your document at the bottom and run.

Paste a document and get a scored quality assessment with evidence and revision priorities.

4,540 characters
You are an expert M&E advisor. Score the logframe I will provide using the rubric below.

SCORING RUBRIC - Logframe Quality Assessment
Score each dimension 1-5 using these criteria:

DIMENSION 1: Intervention Logic
- Score 5: Causal chain is explicit and directionally correct at all levels (activity → output → outcome → goal). Each link has a stated rationale. A reviewer unfamiliar with the programme can trace the full logic without additional explanation.
- Score 4: Causal chain is mostly coherent with 1-2 gaps where a connection is assumed rather than explained.
- Score 3: Causal chain is partially coherent. Key levels are present and broadly sequenced correctly, but multiple links are assumed rather than explained and a reviewer would need supplementary information to follow the logic.
- Score 2: Several gaps in causal reasoning. Some outputs do not clearly lead to stated outcomes.
- Score 1: No clear causal logic. Activities and outcomes appear unrelated.

DIMENSION 2: Indicator Quality
- Score 5: All indicators are specific (who/what/where), measurable, time-bound, and directly measure the stated result. Disaggregation variables specified where relevant.
- Score 4: Most indicators meet SMART criteria. 1-2 lack a time dimension or are slightly broad but still measurable.
- Score 3: Some indicators meet SMART criteria but roughly half are missing one or more elements (time dimension, specificity, or direct alignment to the result statement). Data collection would be possible but would require clarification on several indicators.
- Score 2: Several indicators are proxy measures. Missing time dimensions or disaggregation.
- Score 1: Indicators are vague, unmeasurable, or do not correspond to the result statements.

DIMENSION 3: Assumptions and Risks
- Score 5: Assumptions stated at outcome and goal levels. Each is specific, testable, and genuinely external to programme control (not trivially true).
- Score 4: Assumptions present at most levels. 1-2 vague but major dependencies identified.
- Score 3: Assumptions present at some levels. Key external dependencies are acknowledged but stated broadly, and some are trivially true or could be interpreted as programme activities rather than external conditions.
- Score 2: Incomplete - present at some levels, absent at others. Many trivially true or actually programme activities.
- Score 1: No assumptions stated. Major external dependencies not identified.

DIMENSION 4: Results Hierarchy
- Score 5: Standard structure throughout (activities produce outputs; outputs enable outcomes; outcomes contribute to goal). Each level consistently differentiated.
- Score 4: Mostly correct. 1-2 items at the wrong level.
- Score 3: Overall hierarchy is recognizable but several items appear at the wrong level. The distinction between outputs and outcomes is inconsistently applied, and a reviewer could identify which level is intended only with additional context.
- Score 2: Multiple items at the wrong level. Outputs and outcomes consistently confused.
- Score 1: No recognizable hierarchy. Activities and outcomes collapsed into one level.

DIMENSION 5: Monitoring Provisions
- Score 5: Sources of verification specified per indicator. Collection frequency, responsible party, and method documented. At least one indicator per results level.
- Score 4: Sources listed for most indicators. Frequency or responsible party missing for 1-2.
- Score 3: Sources of verification listed for most indicators but are often generic. At least one of collection frequency, responsible party, or method is consistently missing. Most results levels have some indicator coverage.
- Score 2: Sources generic ("project records") without specifying how data will actually be collected. Several levels lack indicators.
- Score 1: No sources of verification. Major results levels have no indicators.

OUTPUT FORMAT:
Return your assessment as a table followed by a summary:

| Dimension | Score (1-5) | Evidence from Logframe | Priority Revision |
|-----------|-------------|----------------------|-------------------|
| Intervention Logic | | | |
| Indicator Quality | | | |
| Assumptions and Risks | | | |
| Results Hierarchy | | | |
| Monitoring Provisions | | | |

**Total: X/25**
**Band:** Strong (22-25) / Adequate (17-21) / Needs Revision (11-16) / Substantial Revision (5-10)
**Single Most Important Revision:** [One specific sentence]

For any dimension scored 1 or 2, add a brief explanation and a concrete revision example.

LOGFRAME TO SCORE:
[Paste your logframe here]

Critères d'Évaluation

Logique d'Intervention
5Excellent

La chaîne causale est explicite et correctement orientée à chaque niveau (activité → extrant → effet → objectif). Chaque lien a une justification énoncée. Un évaluateur non familier avec le programme peut suivre la logique complète sans explication supplémentaire.

4Bon

La chaîne causale est majoritairement cohérente avec 1 à 2 lacunes où une connexion est supposée plutôt qu'expliquée. La logique globale est plausible.

3Adéquat

La chaîne causale est partiellement cohérente. Les niveaux clés sont présents et globalement séquencés correctement, mais plusieurs liens sont supposés plutôt qu'expliqués et un évaluateur aurait besoin d'informations supplémentaires pour suivre la logique.

2À Améliorer

Plusieurs lacunes dans le raisonnement causal. Certains extrants ne mènent pas clairement aux effets énoncés. Nécessite une explication significative pour avoir un sens.

1Inadéquat

Aucune logique causale claire. Les activités et les effets semblent sans rapport. Se lit comme une liste de livrables, pas un argument causal.

Qualité des Indicateurs
5Excellent

Tous les indicateurs sont spécifiques (qui, quoi, où), mesurables, limités dans le temps et mesurent directement le résultat énoncé. Les variables de désagrégation sont spécifiées le cas échéant.

4Bon

La plupart des indicateurs répondent aux critères SMART. 1 à 2 manquent d'une dimension temporelle ou sont légèrement larges mais mesurables en pratique.

3Adéquat

Certains indicateurs répondent aux critères SMART, mais environ la moitié manquent d'un ou plusieurs éléments (dimension temporelle, spécificité ou alignement direct avec l'énoncé du résultat). La collecte de données serait possible mais nécessiterait des clarifications sur plusieurs indicateurs.

2À Améliorer

Plusieurs indicateurs sont des mesures indirectes larges. Manque de dimensions temporelles ou de désagrégation. Nécessiterait des clarifications avant la collecte de données.

1Inadéquat

Les indicateurs sont vagues, immesurables ou ne correspondent pas aux énoncés des résultats. Ne peuvent pas être opérationnalisés sans révision majeure.

Hypothèses et Risques
5Excellent

Les hypothèses sont énoncées aux niveaux des effets et de l'objectif. Chacune est spécifique, vérifiable et véritablement externe au contrôle du programme. Non trivialement vraie.

4Bon

Hypothèses présentes à la plupart des niveaux. 1 à 2 dépendances majeures identifiées mais vagues.

3Adéquat

Hypothèses présentes à certains niveaux. Les dépendances externes clés sont reconnues mais énoncées de manière générale, et certaines sont trivialement vraies ou pourraient être interprétées comme des activités du programme plutôt que des conditions externes.

2À Améliorer

Incomplet : présent à certains niveaux mais absent à d'autres. Beaucoup sont trivialement vraies ou sont en fait des activités du programme.

1Inadéquat

Aucune hypothèse énoncée. Les dépendances externes majeures n'ont pas été identifiées.

Hiérarchie des Résultats
5Excellent

La hiérarchie suit une structure standard (les activités produisent des extrants ; les extrants permettent des effets ; les effets contribuent à l'objectif). Chaque niveau est clairement défini et constamment différencié.

4Bon

Majoritairement correct. 1 à 2 éléments au mauvais niveau. La structure globale est reconnaissable.

3Adéquat

La hiérarchie globale est reconnaissable, mais plusieurs éléments apparaissent au mauvais niveau. La distinction entre les extrants et les effets est appliquée de manière incohérente, et un évaluateur ne pourrait identifier le niveau visé qu'avec un contexte supplémentaire.

2À Améliorer

Plusieurs éléments au mauvais niveau. Extrants et effets systématiquement confondus.

1Inadéquat

Aucune hiérarchie reconnaissable. Activités et effets regroupés en une seule liste.

Dispositions de Suivi
5Excellent

Sources de vérification spécifiées par indicateur. Fréquence de collecte, partie responsable et méthode documentées. Au moins un indicateur par niveau de résultat.

4Bon

Sources listées pour la plupart des indicateurs. Fréquence ou partie responsable manquante pour 1 à 2. La plupart des niveaux ont une couverture d'indicateurs.

3Adéquat

Sources de vérification listées pour la plupart des indicateurs mais sont souvent génériques. Au moins un des éléments suivants (fréquence de collecte, partie responsable ou méthode) est systématiquement manquant. La plupart des niveaux de résultats ont une certaine couverture d'indicateurs.

2À Améliorer

Sources génériques (« dossiers de projet ») sans spécifier comment les données seront réellement collectées. Plusieurs niveaux manquent d'indicateurs.

1Inadéquat

Aucune source de vérification. Les niveaux de résultats majeurs n'ont pas d'indicateurs. L'approche de suivi n'est pas abordée.

Interprétation des Scores

Total (sur 25)NiveauProchaine Étape
22-25SolideRaffinements mineurs uniquement
17-21AdéquatTraiter les dimensions signalées avant la soumission
11-16Nécessite une RévisionRetour à l'équipe de conception avec la sortie de l'IA comme note de révision
5-10Révision SubstantielleFaciliter un atelier de conception avant toute nouvelle rédaction