Decision-Linked Measurement Quality

AI Prompt Templates

Copy a prompt into Claude, ChatGPT, or Gemini. Paste your document at the bottom and run.

Paste a document and get a scored quality assessment with evidence and revision priorities.

5,785 characters
You are an expert M&E specialist with deep grounding in decision-linked measurement. Score the deliverable I will provide using the rubric below. The deliverable may be a MEL plan, indicator reference sheet, monitoring brief, evaluation report, learning agenda, or any document expected to drive decisions rather than only describe state.

SCORING RUBRIC - Decision-Linked Measurement Quality
Score each dimension 1-5 using these criteria:

DIMENSION 1: Decision Identification
- Score 5: All four elements present. Decisions are explicitly named (not implied or assumed), scoped (the choice being made is clear, e.g., "continue, modify, or discontinue activity X"), tied to a named decision-maker (specific role or person, not "the team"), and timing or cadence is specified (when the decision is made, on what schedule).
- Score 4: At least three of four elements present. Decisions named and scoped; decision-maker or timing partial.
- Score 3: Decisions named but scope is vague, decision-makers are unnamed or grouped (e.g., "leadership"), or timing is unspecified. Reader can guess at decisions.
- Score 2: Decisions implied but not named. Reader has to infer what decisions the data is supposed to inform.
- Score 1: No decisions identified. The deliverable describes data, indicators, or findings without connecting them to any decision.

DIMENSION 2: Data-to-Decision Mapping
- Score 5: All four elements present. Every indicator, finding, or data product maps to a specific identified decision. The link is traceable in both directions (start with a decision, find the data; start with data, find the decision). No orphan indicators (every indicator serves a decision). No orphan decisions (every decision has data to inform it).
- Score 4: At least three of four elements present. Most indicators or findings map to decisions; one or two orphans on either side.
- Score 3: Mapping is partial or scattered. Some indicators map clearly; others are routine or "nice to know" without an attached decision. Up to four orphans, or one decision lacking data.
- Score 2: Less than half of indicators or findings have a clear decision linkage. Significant orphan indicators or unmapped decisions.
- Score 1: No mapping between data and decisions visible.

DIMENSION 3: Threshold and Trigger Logic
- Score 5: All four elements present. Thresholds are quantified (e.g., "below 60 percent completion") or qualitatively specified (e.g., "if community feedback indicates X"). Different actions are explicitly tied to different threshold ranges. Trigger conditions are documented (when does the threshold get evaluated). Decision rules are transparent enough that anyone reading the document could apply them consistently.
- Score 4: At least three of four elements present. Thresholds and actions tied; trigger timing or transparency partial.
- Score 3: Some thresholds defined but actions vague ("we will review"), or actions defined but no thresholds, or thresholds set but trigger timing unclear.
- Score 2: Thresholds mentioned in passing but no decision rule attached. Reader cannot tell what triggers action.
- Score 1: No thresholds or trigger logic. Indicators and findings are presented without decision rules.

DIMENSION 4: Audience and Use Specification
- Score 5: All four elements present. Each data product names a specific audience (role or person, not generic "stakeholders"). A specific use case is named for each product (what the audience will do with it). Format is appropriate to the audience's capacity and context (e.g., a one-page brief for senior leaders, a detailed dashboard for analysts). A distribution mechanism is specified (how the audience accesses or receives the product, on what cadence).
- Score 4: At least three of four elements present. Audience and use case named; format or distribution partial.
- Score 3: Audiences named generically (e.g., "stakeholders," "donors") with weak use specification. Format appropriate but distribution unspecified, or vice versa.
- Score 2: Audience named generically. No clear use case. Format mismatched to audience capacity.
- Score 1: No audience or use specification. Data products exist without a named user.

DIMENSION 5: Action Pathway and Follow-Through
- Score 5: All four elements present. Findings translate into specific recommendations (not generic "improve" or "strengthen"). Recommendations link to identified decisions. Action owners are named for each recommendation. A follow-up or accountability mechanism is documented (when progress is reviewed, who reviews it).
- Score 4: At least three of four elements present. Recommendations and decisions tied; action ownership or follow-up partial.
- Score 3: Recommendations exist but are generic. Some link to decisions, some do not. Action owners absent or unclear. No follow-up cadence.
- Score 2: Recommendations are observations restated as imperatives ("data quality should improve"). No action ownership. No follow-up.
- Score 1: No action pathway. Findings are described without recommendations or accountability.

OUTPUT FORMAT:
Return your assessment as a table followed by a summary:

| Dimension | Score (1-5) | Evidence from Document | Priority Revision |
|-----------|-------------|------------------------|-------------------|
| Decision Identification | | | |
| Data-to-Decision Mapping | | | |
| Threshold and Trigger Logic | | | |
| Audience and Use Specification | | | |
| Action Pathway and Follow-Through | | | |

**Total: X/25**
**Band:** Strong (22-25) / Adequate (17-21) / Needs Revision (11-16) / Substantial Revision (5-10)
**Single Most Important Revision:** [One specific sentence]

For any dimension scored 1 or 2, add a brief explanation and a concrete revision example.

DOCUMENT TO SCORE:
[Paste your deliverable here]

Critères d'Évaluation

Identification des Décisions
5Excellent

Les quatre éléments présents. Décisions explicitement nommées (pas implicites), définies en portée, liées à un décideur nommé, et calendrier ou cadence spécifiés.

4Bon

Au moins trois éléments. Décisions nommées et définies en portée ; décideur ou calendrier partiels.

3Adéquat

Décisions nommées mais portée vague, décideurs non nommés ou regroupés, ou calendrier non spécifié.

2Nécessite une Amélioration

Décisions implicites mais non nommées. Le lecteur doit déduire les décisions.

1Insuffisant

Aucune décision identifiée.

Cartographie Données-Décisions
5Excellent

Les quatre éléments présents. Chaque indicateur/résultat cartographié à une décision spécifique. Lien traçable dans les deux directions. Aucun orphelin.

4Bon

Au moins trois éléments. La plupart cartographient ; un ou deux orphelins de chaque côté.

3Adéquat

Cartographie partielle ou dispersée. Jusqu'à quatre orphelins ou une décision sans données.

2Nécessite une Amélioration

Moins de la moitié des indicateurs ont un lien clair avec les décisions.

1Insuffisant

Aucune cartographie visible.

Logique de Seuils et Déclencheurs
5Excellent

Les quatre éléments présents. Seuils quantifiés ou qualitativement spécifiés. Actions liées aux plages. Conditions de déclenchement documentées. Règles transparentes.

4Bon

Au moins trois éléments. Seuils et actions liés ; calendrier ou transparence partiels.

3Adéquat

Certains seuils mais actions vagues, OU actions sans seuils, OU seuils avec calendrier peu clair.

2Nécessite une Amélioration

Seuils mentionnés mais sans règle de décision.

1Insuffisant

Aucun seuil ou logique de déclenchement.

Spécification d'Audience et d'Usage
5Excellent

Les quatre éléments présents. Audience spécifique nommée (rôle ou personne). Cas d'usage spécifique. Format approprié. Mécanisme de distribution spécifié.

4Bon

Au moins trois éléments. Audience et cas d'usage nommés ; format ou distribution partiels.

3Adéquat

Audiences génériques avec spécification d'usage faible. Format approprié mais distribution non spécifiée, ou vice versa.

2Nécessite une Amélioration

Audience générique. Aucun cas d'usage. Format inadapté.

1Insuffisant

Aucune spécification d'audience ou d'usage.

Voie d'Action et Suivi
5Excellent

Les quatre éléments présents. Résultats traduits en recommandations spécifiques. Recommandations liées aux décisions. Responsables nommés. Mécanisme de suivi documenté.

4Bon

Au moins trois éléments. Recommandations et décisions liées ; responsabilité ou suivi partiels.

3Adéquat

Recommandations génériques. Certaines liées aux décisions, d'autres non. Responsables absents. Aucune cadence de suivi.

2Nécessite une Amélioration

Recommandations sont des observations reformulées en impératifs. Aucune responsabilité. Aucun suivi.

1Insuffisant

Aucune voie d'action.

Interprétation du Score

Total (sur 25)NiveauProchaine Étape
22-25SolideLe document est lié aux décisions. Utilisez tel quel ou avec des ajustements mineurs.
17-21AdéquatAborder les dimensions signalées avant la diffusion aux décideurs. Correction la plus probable : resserrer la logique de seuils et la spécification d'audience.
11-16Nécessite une RévisionRévision substantielle requise. Utilisez l'invite de Révision pour identifier et corriger les lacunes de liaison aux décisions.
5-10Révision SubstantielleLe document décrit l'état mais ne impulse pas les décisions. Reconstruisez en commençant par un inventaire des décisions et cartographiez les indicateurs vers ces décisions.