MEL Plan Review

AI Prompt Templates

Copy a prompt into Claude, ChatGPT, or Gemini. Paste your document at the bottom and run.

Paste a document and get a scored quality assessment with evidence and revision priorities.

5,138 characters
You are an expert M&E advisor. Score the MEL Plan I will provide using the rubric below.

SCORING RUBRIC - MEL Plan Review
Score each dimension 1-5 using these criteria:

DIMENSION 1: Indicator Coverage & Quality
- Score 5: SMART indicators present for every output and outcome level. Each indicator is specific (names target group, location, metric), measurable, time-bound, and directly measures the stated result. Targets set with baseline reference. Disaggregation variables (sex, age, location) specified where relevant.
- Score 4: Indicators present at most levels. 1-2 lack a time dimension or are slightly broad but still operationalizable.
- Score 3: Indicators present at all levels but several are partially operationalizable. Targets present but missing baseline references for some. Disaggregation specified for major indicators but not consistently applied.
- Score 2: Several indicators are proxy measures or too vague. Missing indicators at one or more results levels. Targets absent or set without baselines.
- Score 1: Indicators absent or unmeasurable. Cannot be operationalized. No targets.

DIMENSION 2: Data Collection Systems
- Score 5: Each indicator has a specified collection tool or source (not just "project records"), collection frequency, and a named responsible position. The system is realistic given staffing and geography.
- Score 4: Collection method and frequency documented for most indicators. Responsible party missing for 1-2. System broadly feasible.
- Score 3: Collection tools or sources identified for most indicators but descriptions are generic for some (e.g., "project records" without further detail). Frequency documented but responsible positions missing for several indicators.
- Score 2: Generic sources listed ("community registers," "reports") without specifying how data will actually be collected. Frequency or responsibility gaps across multiple indicators.
- Score 1: No collection system described. It is unclear how any indicator will actually be measured.

DIMENSION 3: Data Quality Assurance
- Score 5: The plan explicitly addresses how data quality will be verified before use - covering at least validity (measures what it claims), reliability (consistent across collectors), and completeness (no systematic gaps). Includes a review or spot-check process.
- Score 4: DQA is addressed for key indicators. 1-2 dimensions of quality (e.g., timeliness) not covered.
- Score 3: DQA section present and covers at least one quality dimension with a named process, but reliability or completeness checks are absent or described only in general terms. Spot-check process referenced but not specified.
- Score 2: DQA mentioned but generic ("data will be checked for accuracy"). No specific processes described.
- Score 1: No DQA provisions. Data quality is assumed rather than managed.

DIMENSION 4: Roles & Responsibilities
- Score 5: Named positions (not individuals) assigned for: data collection, data entry, analysis, reporting, and decision-making. Supervision and escalation paths described.
- Score 4: Most roles assigned. Supervision or escalation path missing but core collection and reporting roles clear.
- Score 3: Roles assigned to named positions for data collection and reporting but analysis and decision-making roles unspecified. No supervision or escalation path. Accountability for data quality unclear.
- Score 2: Roles vague or assigned to units rather than positions. Unclear who is accountable for data quality or reporting deadlines.
- Score 1: No roles assigned. The plan does not specify who does anything.

DIMENSION 5: Learning & Adaptive Management
- Score 5: Specific review cycles defined (frequency, who participates, what decisions they feed into). At least one mechanism for data to trigger adaptive management - program adjustments based on findings. Learning documentation process specified.
- Score 4: Review cycles mentioned. Link to decision-making implied but not explicit. Learning documentation referenced.
- Score 3: At least one review cycle defined with a stated frequency, but participant roles and decision links are vague. Some reference to adaptive management but no trigger conditions or adjustment process described.
- Score 2: "Data will be used to inform decisions" stated without specifying when, by whom, or through what process.
- Score 1: No learning provisions. The plan covers data collection only, not use.

OUTPUT FORMAT:
Return your assessment as a table followed by a summary:

| Dimension | Score (1-5) | Evidence from MEL Plan | Priority Revision |
|-----------|-------------|------------------------|-------------------|
| Indicator Coverage & Quality | | | |
| Data Collection Systems | | | |
| Data Quality Assurance | | | |
| Roles & Responsibilities | | | |
| Learning & Adaptive Management | | | |

**Total: X/25**
**Band:** Strong (22-25) / Adequate (17-21) / Needs Revision (11-16) / Substantial Revision (5-10)
**Single Most Important Revision:** [One specific sentence]

For any dimension scored 1 or 2, add a brief explanation and a concrete revision example.

MEL PLAN TO SCORE:
[Paste your MEL Plan here]

Critères d'Évaluation

Couverture et Qualité des Indicateurs
5Excellent

Indicateurs SMART à chaque niveau d'extrant et de résultat. Chacun est spécifique, mesurable, limité dans le temps et mesure directement le résultat énoncé. Cibles définies avec référence à la ligne de base. Désagrégation spécifiée le cas échéant.

4Bon

Indicateurs à la plupart des niveaux. 1-2 manquent d'une dimension temporelle ou sont légèrement larges mais opérationnalisables.

3Adéquat

Indicateurs présents à tous les niveaux mais plusieurs sont partiellement opérationnalisables. Cibles présentes mais références de ligne de base manquantes pour certaines. Désagrégation spécifiée pour les indicateurs majeurs mais non appliquée de manière cohérente.

2Nécessite Amélioration

Plusieurs indicateurs sont des mesures indirectes ou trop vagues. Manquants à un ou plusieurs niveaux. Cibles absentes ou sans lignes de base.

1Insuffisant

Indicateurs absents ou immesurables. Ne peuvent pas être opérationnalisés. Pas de cibles.

Systèmes de Collecte de Données
5Excellent

Chaque indicateur a un outil ou une source de collecte spécifique, une fréquence et un poste responsable désigné. Le système est réaliste compte tenu du personnel et de la géographie.

4Bon

Méthode et fréquence de collecte documentées pour la plupart des indicateurs. Partie responsable manquante pour 1-2. Système globalement faisable.

3Adéquat

Outils ou sources de collecte identifiés pour la plupart des indicateurs mais génériques pour certains. Fréquence documentée mais postes responsables manquants pour plusieurs indicateurs.

2Nécessite Amélioration

Sources génériques listées sans spécifier comment les données seront réellement collectées. Lacunes de fréquence ou de responsabilité pour plusieurs indicateurs.

1Insuffisant

Aucun système de collecte décrit. Il n'est pas clair comment un indicateur sera réellement mesuré.

Assurance Qualité des Données
5Excellent

Aborde explicitement la validité, la fiabilité et l'exhaustivité avant l'utilisation des données. Inclut un processus d'examen ou de vérification ponctuelle avec une partie responsable désignée.

4Bon

L'AQD est abordée pour les indicateurs clés. 1-2 dimensions de qualité non couvertes.

3Adéquat

Section AQD présente et couvre au moins une dimension de qualité avec un processus désigné. Les vérifications de fiabilité ou d'exhaustivité sont absentes ou décrites uniquement en termes généraux. Processus de vérification ponctuelle référencé mais non spécifié.

2Nécessite Amélioration

L'AQD est mentionnée mais de manière générique. Aucun processus spécifique décrit.

1Insuffisant

Aucune disposition AQD. La qualité des données est supposée plutôt que gérée.

Rôles et Responsabilités
5Excellent

Postes désignés attribués pour : la collecte, la saisie, l'analyse, le rapportage des données et la prise de décision. Chemins de supervision et d'escalade décrits.

4Bon

La plupart des rôles sont attribués. Chemin de supervision ou d'escalade manquant mais les rôles clés sont clairs.

3Adéquat

Rôles attribués pour la collecte et le rapportage des données mais les rôles d'analyse et de prise de décision ne sont pas spécifiés. Pas de chemin de supervision ou d'escalade. La responsabilité de la qualité des données n'est pas claire.

2Nécessite Amélioration

Rôles vagues ou attribués à des unités plutôt qu'à des postes. Il n'est pas clair qui est responsable.

1Insuffisant

Aucun rôle attribué. Le plan ne spécifie pas qui fait quoi.

Apprentissage et Gestion Adaptative
5Excellent

Cycles d'examen spécifiques définis avec les participants et les liens de décision. Au moins un mécanisme de gestion adaptative. Processus de documentation de l'apprentissage spécifié.

4Bon

Cycles d'examen mentionnés. Lien avec la prise de décision implicite mais non explicite.

3Adéquat

Au moins un cycle d'examen défini avec une fréquence indiquée, mais les rôles des participants et les liens avec les décisions sont vagues. Quelques références à la gestion adaptative mais aucune condition de déclenchement ou processus d'ajustement décrit.

2Nécessite Amélioration

"Les données seront utilisées pour éclairer les décisions" énoncé sans spécifier quand, par qui ou par quel processus.

1Insuffisant

Aucune disposition d'apprentissage. Le plan couvre uniquement la collecte, pas l'utilisation.

Interprétation du Score

Total (sur 25)NiveauProchaine Étape
22-25SolideAjustements mineurs seulement
17-21AdéquatAborder les dimensions signalées avant la soumission
11-16Nécessite une RévisionRetourner à l'équipe MEL avec le résultat de l'IA comme note de révision
5-10Révision SubstantielleReconcevoir le système MEL avant de poursuivre