Cómo proteger la privacidad de los datos al usar IA para M&E
Los datos de los beneficiarios pertenecen a los beneficiarios, no a los servidores de IA. El Marco SAFE le ayuda a usar herramientas de IA sin arriesgar una violación de la protección de datos, una infracción del cumplimiento del donante o la pérdida de la confianza de la comunidad.
La diferencia entre el uso responsable de la IA y una violación de datos es lo que haces antes de pegar. Cuatro pasos previenen consistentemente los errores de privacidad que cuestan a los programas su credibilidad y sus relaciones comunitarias.
El Marco SAFE
Siga estos cuatro pasos cada vez que utilice IA con datos de M&E. Omita cualquiera de ellos y correrá el riesgo de exponer a las personas que su programa pretende proteger.
Examinar
Examine sus datos en busca de información de identificación personal antes de utilizar cualquier herramienta de IA. Nombres, números de teléfono, coordenadas GPS, números de identificación, fechas de nacimiento y datos demográficos de grupos pequeños que podrían identificar a individuos.
Anonimizar
Reemplace los identificadores directos con códigos (P1, P2), cambie las ubicaciones exactas por regiones, convierta las fechas de nacimiento en rangos de edad y elimine los detalles de contacto. Un número de teléfono omitido en una transcripción es un número de teléfono en un servidor externo.
Filtrar
Comparta solo lo que la IA necesita para realizar el trabajo. ¿Limpiar nombres de ubicaciones? Envíe la columna de ubicación, no el conjunto de datos completo. ¿Codificar transcripciones? Envíe extractos anonimizados, no el archivo completo con metadatos.
Evaluar
Verifique los resultados de la IA en busca de riesgo de reidentificación antes de compartirlos. Si la IA devuelve una cita que podría identificar a alguien ("la única jefa de aldea en el Distrito de Lira"), redáctela antes de usarla en informes.
Uso de IA: Riesgoso vs. Seguro
Escenarios reales de M&E que muestran cómo pequeños cambios en lo que compartes marcan la diferencia entre el uso responsable y una filtración de datos.
Análisis de Datos Cualitativos
"Aquí hay 15 páginas de transcripciones de entrevistas. Codifícalas por tema." Acabas de subir nombres completos, nombres de aldeas y detalles del estado de salud a un servidor en la nube. Si el donante audita tu manejo de datos, no podrás explicar esto.
Análisis de Datos Cualitativos
"Aquí hay 3 páginas de extractos anonimizados. Participantes etiquetados como P1-P12, ubicaciones reemplazadas por Región A/B/C. Codifícalos por tema según estas 3 preguntas de investigación." Mismo resultado analítico, cero riesgo de privacidad.
Limpieza de Datos
"Limpia esta hoja de cálculo de 800 registros de beneficiarios." La IA ahora tiene nombres, números de teléfono, edades, estado de discapacidad y niveles de ingresos de 800 personas. Esos datos pueden persistir en servidores externos para entrenamiento o registro.
Limpieza de Datos
"Tengo una columna con 50 nombres de distritos de una encuesta de Kenia. Señala los errores ortográficos y sugiere correcciones." Compartiste solo la columna que necesita limpieza, sin datos personales adjuntos.
Redacción de Informes con Estudios de Caso
"Escribe un estudio de caso sobre María, de 34 años, que vive en la aldea de Busia y recibió transferencias de efectivo para sus 3 hijos después de la muerte de su esposo." Esa es una persona identificable en un servidor de IA. Ella no dio su consentimiento para esto.
Redacción de Informes con Estudios de Caso
"Escribe un estudio de caso sobre una mujer jefa de hogar en el oeste de Kenia que participó en un programa de transferencia de efectivo. Tiene hijos en edad escolar y es la única proveedora de ingresos." Mismo poder narrativo, nadie identificado.
5 Reglas para un Uso de IA Seguro para la Privacidad
Nunca pegues datos brutos de beneficiarios en herramientas de IA en la nube
ChatGPT, Claude y Gemini funcionan en servidores externos. Una vez que los datos salen de tu máquina, no puedes controlar su almacenamiento, acceso o retención. Anonimiza primero, siempre, sin excepciones.
Busca identificadores indirectos, no solo nombres
"La única maestra en el subcondado de Kapchorwa" no contiene un nombre, pero identifica a una persona. La demografía de grupos pequeños, las ocupaciones raras y las fechas de eventos específicos pueden reidentificar a individuos incluso después de eliminar los nombres.
Comparte la estructura y muestras, no conjuntos de datos completos
Describe tus datos a la IA: "Tengo 800 registros con columnas para distrito, rango de edad y puntuación de consumo de alimentos." Luego pega 5-10 filas anonimizadas como ejemplos. La IA puede escribir tu código de análisis solo a partir de la estructura.
Usa herramientas de IA locales para datos sensibles
Los modelos de código abierto que se ejecutan en tu propia máquina (Ollama, LM Studio) mantienen los datos sin conexión. Si tu conjunto de datos contiene estado de salud, preocupaciones de protección o revelaciones de VBG, el procesamiento local es la única opción responsable.
Consulta primero la política de IA y datos de tu donante
USAID, FCDO, la UE y la mayoría de las agencias de la ONU ahora tienen una guía específica sobre el uso de la IA con datos de programas. Algunas prohíben completamente la IA en la nube para los datos de beneficiarios. Encuentra y lee la política antes de empezar.
Plantilla de Prompt Segura para la Privacidad (Copiar y Pegar)
Utilice esta plantilla para describir sus datos a la IA sin compartir información sensible. Rellene los campos entre corchetes y péguela en ChatGPT, Claude o Gemini.
Tengo un [TIPO DE DATOS: conjunto de datos de encuestas / transcripciones de entrevistas / registros de monitoreo / expedientes de casos] de un programa de [TIPO DE PROGRAMA, ej., 'seguridad alimentaria'] en [REGIÓN, ej., 'África Oriental']. Estructura del conjunto de datos: [NÚMERO DE REGISTROS, ej., '800'] registros con columnas para [LISTA DE COLUMNAS, ej., 'distrito, rango de edad, género, puntuación de consumo de alimentos, índice de estrategias de afrontamiento']. Se han eliminado todos los identificadores personales. Los participantes están codificados como [ESQUEMA DE CODIFICACIÓN, ej., 'P1 a P800']. Las ubicaciones son [NIVEL DE UBICACIÓN, ej., 'solo a nivel de distrito, sin nombres de subcondados o aldeas']. Aquí hay una muestra anonimizada de [TAMAÑO DE LA MUESTRA, ej., '10'] filas: [PEGAR DATOS DE MUESTRA ANONIMIZADOS AQUÍ] Por favor, [TAREA, ej., 'identifique los 3 problemas de calidad de datos más comunes en esta muestra y sugiera un flujo de trabajo de limpieza para el conjunto de datos completo']. Importante: No intente inferir ni reconstruir ninguna información personal. Trabaje únicamente con los datos anonimizados proporcionados.
Póngalo en práctica
Proteja los datos de los beneficiarios mientras sigue aprovechando la IA para su trabajo de M&E. Comience con el Marco SAFE y explore nuestras herramientas gratuitas diseñadas para un uso responsable de la IA.
Related Quick Guides
How to Run a DPIA for AI in M&E
A 4-step process to assess data protection risks before uploading data to any AI tool.
Read guideHow to Build AI Governance for M&E
The 6-point governance framework every M&E team needs before scaling AI use.
Read guideHow to Write AI Prompts for M&E
The 4Cs Framework for prompts that produce donor-ready outputs on the first try.
Read guide