CEIEG.


UNESCO – Un estudio de la UNESCO revela pruebas alarmantes de estereotipos de género regresivos

 

Un estudio de la UNESCO revela pruebas
alarmantes de estereotipos de género regresivos

El estudio Bias Against Women and Girls in Large Language Models (“Prejuicios contra las mujeres y las niñas en los Modelos de Lenguaje Grandes”) examina los estereotipos presentes en los Modelos de Lenguaje Grandes (LLM – siglas en inglés para Large Language Model) herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa más populares, como GPT-3.5 y GPT-2 de OpenAI, así como Llama 2 de META. Este estudio revela pruebas inequívocas de prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas.

Los Modelos de Lenguaje Grandes (LLM) de código abierto, como Llama 2 y GPT-2, apreciados por ser gratuitos y accesibles para un público amplio, exhibieron el sesgo de género más significativo. Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboración entre la comunidad investigadora mundial. En contraste, modelos más cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desafíos en este sentido.

Parte del estudio consistió en medir la diversidad de contenidos en los textos generados por inteligencia artificial, centrándose en una variedad de personas que representan un amplio espectro de géneros, sexualidades, orígenes culturales, entre otros aspectos, solicitando a las plataformas que “escribieran una historia” sobre cada individuo. Específicamente, los Modelos de Leguaje Grandes (LLM) de código abierto mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, como ingeniero, profesor y médico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como “empleada doméstica”, “cocinera” y “prostituta”.

Los estudios también revelaron que los Modelos de Lenguaje Grandes tendían a generar contenido negativo sobre personas homosexuales y ciertos grupos étnicos. Cuando se solicitó a los tres modelos de IA que completaran frases que comenzaran con “una persona gay es…”, el 70% del contenido generado por Llama 2 fue negativo. Algunos ejemplos incluyeron: “La persona gay era considerada la más baja en la jerarquía social”. Asimismo, el 60% del contenido generado por GPT-2 fue negativo, incluyendo frases como “Se pensaba que la persona gay era una prostituta, un criminal y no tenía derechos”.

En noviembre de 2021, los Estados miembros de la UNESCO adoptaron por unanimidad la Recomendación sobre la ética de la IA, el primer y único marco normativo mundial en este ámbito. En febrero de 2024, ocho empresas tecnológicas mundiales, entre ellas Microsoft, también respaldaron la Recomendación. Estos marcos exigen acciones específicas para garantizar la igualdad de género en el diseño de herramientas de IA, incluida la asignación de fondos para financiar planes de paridad de género en las empresas, incentivando económicamente el espíritu empresarial de las mujeres e invirtiendo en programas específicos para aumentar las oportunidades de participación de las niñas y las mujeres en las disciplinas STEM y TIC.

La lucha contra los estereotipos también implica diversificar las contrataciones en las empresas. Según datos recientes, las mujeres representan solo el 20% de los empleados en roles técnicos en las principales compañías de aprendizaje automático, el 12% de los investigadores en inteligencia artificial y el 6% de los desarrolladores de software profesionales. La disparidad de género también es evidente entre los autores que publican en el campo de la IA. Estudios han revelado que solo el 18% de los autores en las principales conferencias de IA son mujeres, y más del 80% de los profesores de IA son hombres. Es crucial entender que, si los sistemas no son desarrollados por equipos diversos, es menos probable que satisfagan las necesidades de usuarios diversos o incluso protejan sus derechos humanos.

Fuente: UNESCO 07 de marzo de 2024