Comment construire une gouvernance de l'IA pour votre fonction S&E

Chaque grand donateur s'attend désormais à une forme de gouvernance de l'IA. Ce cadre en 6 points, synthétisé à partir des exigences de l'ONU, du Royaume-Uni, de la Banque Mondiale et de l'UE, vous offre une structure défendable avant votre premier projet pilote d'IA.

La gouvernance de l'IA pour le S&E n'est pas un exercice de conformité que l'on réalise après qu'un problème survienne. C'est la structure qui rend l'utilisation de l'IA défendable auprès des donateurs, crédible pour les parties prenantes et sûre pour les personnes dont vous traitez les données. La bonne nouvelle : la plupart de ses éléments s'appuient sur les pratiques de protection des données et de qualité de l'évaluation que vous avez déjà.

Les 6 Piliers de la Gouvernance de l'IA

Synthétisé à partir des contrôles des donateurs les plus explicites : les principes de l'IA du système des Nations Unies, le guide pratique de l'IA du gouvernement britannique, les politiques de confidentialité et d'accès de la Banque mondiale, et les exigences de la loi sur l'IA de l'UE. Appliquez les six avant de déployer tout cas d'utilisation de l'IA à grande échelle.

1

Évaluation des Risques

Avant d'utiliser l'IA pour toute tâche de S&E, évaluez : Quel est le potentiel de préjudice ? Quels droits pourraient être affectés ? Quelle est la sensibilité du contexte ? Le système des Nations Unies exige que les décisions relatives aux droits fondamentaux ne soient jamais cédées à l'IA. Si votre cas d'utilisation implique des populations vulnérables, l'allocation de ressources ou des jugements évaluatifs sur des personnes, le niveau de risque est élevé.

2

Gouvernance des Données

Établissez la base légale pour le traitement des données avec les outils d'IA. Appliquez la minimisation des données (ne partagez que ce qui est nécessaire). Sécurisez les données en transit et au repos. Évaluez les risques de transfert transfrontalier (particulièrement pertinent pour les outils d'IA basés sur le cloud). La politique de confidentialité de la Banque mondiale exige un traitement légitime, équitable et transparent avec une limitation de la finalité.

3

Conception de la Supervision Humaine

Définissez où les humains examinent, valident et peuvent annuler les résultats de l'IA. Ceci est non négociable dans les cadres des Nations Unies, du Royaume-Uni et de la Banque mondiale. Les documents méthodologiques de l'IEG de la Banque mondiale sont explicites : « les experts du domaine doivent valider et interpréter les résultats ». Intégrez des points de révision dans le flux de travail, et non comme des réflexions après coup.

4

Validation et Contrôle Qualité

Établissez des contrôles de précision, des processus d'examen par les pairs et des procédures de contrôle des changements. L'IEG de la Banque mondiale utilise des « procédures rigoureuses de contrôle qualité et de gestion des changements » pour maintenir la robustesse de l'analyse assistée par l'IA. Pour le S&E, cela signifie : vérifier ponctuellement les résultats de l'IA par rapport aux données sources, faire vérifier l'analyse assistée par l'IA par un deuxième examinateur, et suivre la qualité des résultats au fil du temps.

5

Transparence et Documentation

Divulguez l'utilisation de l'IA dans les sections de méthodologie d'évaluation et les rapports. Maintenez des pistes d'audit des outils d'IA utilisés, à quelle fin, avec quelles données et comment les résultats ont été validés. La reproductibilité est importante : un autre évaluateur devrait être capable de comprendre et d'examiner votre processus assisté par l'IA.

6

Suivi et Réponse aux Incidents

La gouvernance de l'IA n'est pas une liste de contrôle unique. Surveillez les performances des outils d'IA au fil du temps. Ayez un processus pour signaler les incidents (résultats inattendus, violations de données, biais détectés). Réévaluez la gouvernance périodiquement et lorsque les outils, les données ou les contextes changent. Incluez des critères de mise hors service.


La gouvernance en pratique

Scénarios réels de S&E montrant la différence entre l'utilisation non gouvernée et gouvernée de l'IA.

Codage qualitatif assisté par l'IA

Vague prompt

"Nous avons utilisé ChatGPT pour coder 200 transcriptions d'entretiens. Cela nous a fait gagner des semaines." Mais : les données des participants ont été téléchargées vers un outil d'IA commercial sans accord de traitement des données. Personne n'a validé le codage par rapport à des codeurs humains. Le rapport d'évaluation ne mentionne pas l'utilisation de l'IA. Lorsque le bailleur de fonds demande comment les thèmes ont été identifiés, vous ne pouvez pas expliquer le processus.

Codage qualitatif assisté par l'IA

4Cs prompt

"Nous avons utilisé un outil d'IA pour faciliter le codage initial de 200 transcriptions. Nous avons d'abord mené une EIPD (Étude d'Impact sur la Protection des Données), utilisé uniquement des extraits anonymisés, validé les codes de l'IA par rapport au codage humain sur un échantillon de 20 % (92 % d'accord), documenté le processus dans notre section méthodologique et conservé les journaux d'audit." Défendable, transparent, crédible.

Cadres d'indicateurs générés par l'IA

Vague prompt

"L'IA a généré notre cadre d'indicateurs en une heure au lieu de trois jours." Mais : l'IA a halluciné des définitions d'indicateurs qui ne correspondent pas aux définitions standard du bailleur de fonds. Personne n'a vérifié par rapport au manuel d'indicateurs du bailleur de fonds. Le cadre logique contient désormais des approches de mesure plausibles mais incorrectes qui échoueront à l'évaluation finale.

Cadres d'indicateurs générés par l'IA

4Cs prompt

"Nous avons utilisé l'IA pour générer un projet de cadre d'indicateurs, puis nous avons validé chaque définition d'indicateur par rapport au manuel du bailleur de fonds et à notre théorie du changement. Nous avons identifié 3 définitions hallucinées et 2 sources de données mal alignées. L'IA a permis de gagner du temps de rédaction, mais la validation par des experts a garanti l'exactitude." L'IA accélère, les humains vérifient.

Acquisition d'outils d'évaluation basés sur l'IA

Vague prompt

"Nous avons acheté une plateforme d'analyse d'IA pour notre équipe S&E." Mais : le contrat ne contient aucune clause de transparence. Vous ne pouvez pas auditer la manière dont l'outil traite vos données. Lorsque l'outil produit une conclusion discutable, vous ne pouvez pas expliquer la méthodologie. Le fournisseur peut modifier le modèle sans préavis.

Acquisition d'outils d'évaluation basés sur l'IA

4Cs prompt

"Avant l'acquisition, nous avons exigé : la transparence sur le modèle et les données d'entraînement, la clarté de la propriété intellectuelle (PI), l'attribution de la responsabilité en cas d'erreurs, l'accès à l'audit, la notification des changements de modèle et la suppression des données à la fin du contrat." Le UK AI Playbook recommande explicitement d'aborder la PI, la transparence et la responsabilité dans l'acquisition d'IA.


5 Principes de Gouvernance Essentiels pour Chaque Équipe de S&É

La supervision humaine est non négociable

Le système des Nations Unies, le gouvernement britannique et la Banque Mondiale convergent tous sur ce point : l'IA ne doit pas prendre de décisions autonomes dans des contextes à enjeux élevés. Pour le S&É, cela signifie que chaque résultat d'IA qui éclaire un jugement évaluatif, une allocation de ressources ou un rapport destiné aux parties prenantes doit faire l'objet d'une étape de révision humaine.

Réalisez une EIPD avant votre premier projet pilote d'IA

Les Études d'Impact sur la Protection des Données (EIPD) sont des exigences standard en vertu du RGPD britannique et émergent comme une meilleure pratique mondiale. Évaluez : quelles données personnelles sont transmises à l'outil d'IA, quels sont les risques transfrontaliers, quelle est la base légale et quelles garanties sont en place. Faites-le de manière proactive, et non après un incident.

Divulguez l'utilisation de l'IA dans les sections méthodologiques

La transparence est une exigence dans les cadres des Nations Unies, du Royaume-Uni et de la Banque Mondiale. Lorsque l'IA a aidé à l'analyse de données, au codage, à la synthèse ou à la rédaction, mentionnez-le dans votre méthodologie d'évaluation. Expliquez quel outil, quelle tâche, quelle validation a été appliquée. Le silence sur l'utilisation de l'IA est un risque pour la crédibilité.

Mettez en place la gouvernance avant le premier projet pilote

N'attendez pas d'avoir 10 cas d'utilisation de l'IA pour rédiger des lignes directrices de gouvernance. Le cadre politique modèle des Nations Unies exige des structures de responsabilité institutionnelles avant le déploiement. Rédigez des lignes directrices d'utilisation de base, des règles de partage de données et des exigences de divulgation avant que quiconque n'utilise l'IA pour un travail réel de S&É.

Intégrez la gouvernance dans les contrats d'approvisionnement

Le 'UK AI Playbook' recommande d'aborder la transparence, la responsabilité, la propriété intellectuelle, la gestion des erreurs et l'accès à l'audit dans l'approvisionnement en IA. Lors de l'achat d'outils d'IA pour le S&É, exigez : la transparence du modèle, les droits de suppression des données, la notification des changements de modèle et une responsabilité claire en cas d'erreurs.


Générateur de liste de contrôle de gouvernance de l'IA

Utilisez cette invite pour générer une liste de contrôle de gouvernance personnalisée pour un cas d'utilisation spécifique de l'IA dans votre travail de S&E.

Invite pour la liste de contrôle de gouvernance de l'IA en S&E

J'ai besoin que vous génériez une liste de contrôle de gouvernance de l'IA pour un cas d'utilisation spécifique en S&E. La liste de contrôle doit couvrir les 6 domaines de gouvernance. Cas d'utilisation : [DÉCRIRE : ex., "Utilisation de l'IA pour faciliter le codage qualitatif de 150 entretiens avec des informateurs clés pour une évaluation à mi-parcours"] Contexte : - Organisation : [ONG / agence de l'ONU / gouvernement / cabinet de conseil] - Donateur(s) : [USAID / FCDO / UE / Banque Mondiale / ONU / autre] - Sensibilité des données : [Faible : pas de données personnelles / Moyenne : données anonymisées / Élevée : données personnelles identifiables] - Population : [DÉCRIRE la population cible/affectée] - Outil d'IA : [ChatGPT / Claude / Gemini / outil personnalisé / pas encore sélectionné] Pour chacun des 6 domaines de gouvernance ci-dessous, veuillez fournir : 1. Une liste de contrôle oui/non de 3 à 4 éléments spécifiques à ce cas d'utilisation 2. Un "signal d'alarme" qui devrait arrêter le processus 3. Une action recommandée si la liste de contrôle n'est pas entièrement respectée Domaines : 1. Évaluation des risques (potentiel de préjudice, droits, sensibilité au contexte) 2. Gouvernance des données (base légale, minimisation, sécurité, transferts) 3. Supervision humaine (points de révision, autorité de dérogation, limites de décision) 4. Validation et CQ (vérifications de précision, examen par les pairs, contrôle des changements) 5. Transparence et Documentation (divulgation, piste d'audit, reproductibilité) 6. Suivi et Réponse aux Incidents (suivi des performances, processus d'incident, réévaluation) Formater comme une liste de contrôle imprimable avec des cases à cocher.

Passez à l'étape suivante

La gouvernance est le fondement. Une fois votre cadre établi, évaluez la préparation de votre équipe et commencez à utiliser les outils d'IA en toute confiance.

Related Quick Guides