Sin embargo, como advierten Gemma Galdon-Clavell, fundadora y CEO de Eticas Consulting, y Ana Pirela-Ríos, analista de investigación económica del Programa de las Naciones Unidas para el Desarrollo (PNUD) para América Latina y el Caribe, en un artículo publicado por el PNUD la IA se consolida en una región donde las desigualdades estructurales siguen siendo profundas. También puedes leer: LATAM Airlines Ecuador y Banco Guayaquil lanzan nueva tarjeta de crédito LATAM Pass En este contexto, explican las autoras, el sesgo de género deja de ser un fallo técnico y se convierte en un desafío de desarrollo. Los datos que alimentan los algoritmos reflejan las realidades sociales, por lo que los sistemas pueden terminar reproduciendo las mismas brechas que buscan corregir. Esto implica que mujeres pobres, indígenas, migrantes o rurales —quienes menos aparecen en los registros— corren el riesgo de ser excluidas de programas y servicios esenciales, debilitando aún más la confianza institucional. Cuando la tecnología discrimina Según Galdon-Clavell y Pirela-Ríos, el uso de IA para clasificar personas y asignar beneficios sociales promete eficiencia, pero también puede replicar patrones de exclusión si los datos no representan adecuadamente la diversidad de la población. En varios países de la región, los modelos automatizados de protección social utilizan sistemas de puntaje que pueden perpetuar desigualdades preexistentes. Un ejemplo particularmente sensible se da en el uso de tecnologías biométricas y de reconocimiento facial, que se han expandido rápidamente en América Latina y el Caribe. Las autoras advierten que los errores de identificación afectan de forma desproporcionada a las mujeres, especialmente a las mujeres racializadas, comprometiendo su seguridad y libertades. Asimismo, los algoritmos de selección laboral o de evaluación crediticia tienden a reflejar los sesgos históricos de los mercados. “Cuando los modelos replican historiales laborales masculinizados o penalizan trayectorias femeninas según los criterios de la banca tradicional, se pierden oportunidades, productividad y emprendimiento”, sostienen. En consecuencia, la región no puede permitirse tecnologías que refuercen la exclusión del talento femenino. Regular, auditar y diseñar con perspectiva de equidad Para revertir estas tendencias, Galdon-Clavell y Pirela-Ríos subrayan la necesidad de invertir en datos representativos, fortalecer los marcos regulatorios y exigir mecanismos de rendición de cuentas en el uso de IA. Proponen incorporar métricas de equidad por subgrupos —como mujeres según edad, origen étnico o condición migratoria—, monitorear los resultados tras el despliegue de los sistemas y realizar auditorías independientes en los modelos de alto impacto, especialmente en los ámbitos de protección social, salud, justicia y seguridad. También invitan a revisar el plano simbólico: la feminización por defecto de asistentes virtuales y chatbots —a través de nombres, voces o avatares— refuerza estereotipos sobre el rol de las mujeres en la sociedad. “El diseño de interfaces no es neutral; puede contribuir a reproducir o transformar imaginarios de género, y por eso también debe entenderse como una cuestión de política pública”, sostienen las autoras. Liderazgo femenino y oportunidad para el desarrollo Debido a exclusiones históricas, los sistemas tienden a clasificar a las mujeres como “outliers” o valores atípicos, un término estadístico que las margina de los patrones dominantes. Pero, como recuerdan Galdon-Clavell y Pirela-Ríos, las mujeres no son excepciones en los datos: son parte esencial de la sociedad y del desarrollo. En la región, muchas mujeres ya están liderando el cambio: impulsan marcos feministas para el desarrollo de IA, crean herramientas abiertas para detectar estereotipos en modelos de lenguaje y promueven iniciativas con enfoque de género en el trabajo en plataformas digitales. Colocar a las mujeres en el centro —como diseñadoras, auditoras, reguladoras y usuarias— mejora la calidad técnica de los sistemas y acelera su aceptación social. También te puede interesar: Aymesa entregó la primera “Camioneta del Ecuador”, al Proyecto Ana Las autoras concluyen que reducir el sesgo de género multiplica beneficios: políticas sociales más precisas y legítimas, seguridad compatible con los derechos humanos, mercados laborales y financieros más inclusivos y mayor confianza en las instituciones. “La IA no es neutra, pero puede ser justa”, afirman. Para lograrlo, América Latina y el Caribe deben adoptar estándares mínimos ya alcanzables: datos representativos y documentados, métricas de equidad, auditorías independientes y mecanismos de reparación. Reducir el sesgo de género, enfatizan Galdon-Clavell y Pirela-Ríos, no solo abre oportunidades para las mujeres, sino que impulsa el desarrollo humano y sostenible de toda la región. Este artículo se basa en los hallazgos del Informe Regional sobre Desarrollo Humano 2025, “Bajo presión: Recalibrando el futuro del desarrollo”, elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) en América Latina y el Caribe. Fuente: PNUD