La inteligencia artificial (IA) ya define vidas en América Latina y el Caribe (ALC): decisiones cruciales que impactan a millones en procesos de becas, subsidios, alertas sociales, identificación biométrica e incluso apoyo a víctimas de violencia.
¡Alerta! La IA crece en una región con desigualdades históricas, y los datos que la alimentan reflejan inevitablemente los sesgos sociales profundos.
Si los algoritmos aprenden de estas realidades, el sesgo de género en la IA: De un error técnico a un desafío urgente para el desarrollo. Puede excluir a quienes menos aparecen en los registros —como mujeres pobres, indígenas, migrantes o rurales— lo que erosionaría aún más la confianza institucional.
Pero la misma tecnología que puede agravar brechas también sirve para proteger, informar y crear oportunidades, en especial para grupos tradicionalmente marginados.
La clave: Reducir el sesgo de la IA y exigir controles rigurosos que garanticen la equidad para ampliar derechos, optimizar políticas públicas y fortalecer un crecimiento más inclusivo.
El poder de la inteligencia artificial se basa en identificar patrones en grandes volúmenes de datos para optimizar decisiones. Sin embargo, los modelos que “promedian” poblaciones diversas pueden discriminar a grupos vulnerables y reproducir patrones históricos de discriminación.
En programas de protección social, por ejemplo, varios países de ALC han incorporado modelos automatizados para clasificar personas y asignar beneficios, pero los sistemas de puntaje pueden mantener la exclusión si se alimentan de datos donde las mujeres u otros grupos no están equitativamente representados.
El sesgo de género de la IA te afecta en decisiones concretas y hay casos alarmantes en seguridad pública. La región ha adoptado rápidamente tecnologías biométricas y de reconocimiento facial, pero estudios muestran que los falsos positivos pesan más sobre las mujeres, y en particular sobre mujeres racializadas.
Estos errores de identificación comprometen libertades, pueden activar detenciones injustas y amplificar desigualdades.
Paralelamente, cuando los algoritmos de empleo con sesgos masculinos replican historiales laborales o cuando el crédito se otorga con modelos que discriminan trayectorias femeninas según los criterios de la banca tradicional, se reducen las oportunidades para las mujeres, se pierde productividad y se limita el emprendimiento. ¡La región no puede permitirse tecnologías que excluyan talento femenino de mercados ya segmentados!
Urgente: Invertir en datos representativos y fortalecer marcos legales sólidos del uso de la IA, incorporando métricas de equidad y mecanismos de rendición de cuentas, son pasos clave para usar esta tecnología de forma responsable e inclusiva.
Así, la inteligencia artificial puede convertirse en una oportunidad real no solo para mejorar la eficiencia en la toma de decisiones, sino también para beneficiar a más personas con la innovación, acelerar la adopción digital y promover la inclusión laboral y financiera.
El simbolismo importa: la feminización por defecto de asistentes virtuales o chatbots —a través de sus nombres, voces y avatares— perpetúa estereotipos.
Esto puede estar justificado en servicios específicos, pero como norma refuerza roles sobre el papel de las mujeres en la sociedad. El diseño de interfaces, cada vez más usado para mejorar la provisión de servicios públicos, también es un elemento de política pública.
Mujeres líderes: De «excluidas» a creadoras de IA
Los principios de no discriminación, transparencia y supervisión humana ya figuran entre las estrategias y marcos de varios países de la región.
El desafío: Convertir principios en controles verificables: documentar la composición demográfica de los datos; evaluar el desempeño por subgrupos (mujeres por edad, origen, condición migratoria o ruralidad); monitorear los resultados tras el despliegue de los sistemas; y exigir auditorías independientes obligatorias en sistemas de alto impacto (como aquellos usados para protección social, salud, justicia, y seguridad). Con estos controles la IA se vuelve auditable y gobernable.
Debido a exclusiones históricas y baja visibilidad en datos formales, la IA ve a las mujeres como “anomalías”, un término que en estadística define un valor atípico, es decir, una observación que es numéricamente distante del resto de los datos. Desde un enfoque estrictamente estadístico, los resultados de conjuntos de datos con valores atípicos pueden conducir a conclusiones erróneas, por lo que generalmente se evitan. Sin embargo, esto no siempre aplica en contextos más sutiles, como solicitudes de crédito, vacantes laborales o programas sociales, donde las características de las mujeres pueden diferir de las de los hombres, pero no deberían ser motivo de exclusión de los procesos de selección.
¡Las mujeres de la región no solo usan la IA, la están creando y transformando! Desarrollan marcos feministas de IA, herramientas abiertas para detectar estereotipos en modelos de lenguaje e iniciativas que incorporan perspectiva de género en el trabajo en plataformas. Mujeres al centro de la IA: Diseñadoras, auditoras, reguladoras y usuarias— mejora la calidad técnica de los sistemas y acelera su aceptación social. Esta es, además, una política de innovación estratégica.
En definitiva, reducir el sesgo de género multiplica beneficios: políticas sociales más precisas y legítimas; seguridad compatible con derechos; mercados laborales y financieros más inclusivos y productivos; y mayor confianza en instituciones capaces de gobernar tecnologías complejas. Esto se traduce en desarrollo humano: más capacidades reales —salud, educación, participación, trabajo digno— y más agencia para incidir en la propia vida y el entorno.
La IA no es neutra, ¡pero podemos hacerla justa! Para lograrlo, América Latina y el Caribe necesita abrazar un estándar mínimo ya al alcance: datos representativos y documentados, métricas de equidad por subgrupos, auditorías independientes y vías de reparación cuando hay daño. Reducir el sesgo de género no solo abre oportunidades a las mujeres, sino que impulsa un futuro más justo para toda la región.
Este artículo se basa en los hallazgos del Informe Regional sobre Desarrollo Humano 2025, titulado “Bajo presión: Recalibrando el futuro del desarrollo”, elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) en América Latina y el Caribe.
Gemma Galdon-Clavell
Fundadora y CEO de Eticas Consulting, una organización dedicada a identificar, medir y corregir vulnerabilidades, sesgos e ineficiencias en herramientas predictivas y modelos de lenguaje (LLM).
Ana Pirela-Rios
Analista de Investigación Económica del Programa de las Naciones Unidas para el Desarrollo (PNUD) para América Latina y el Caribe.























