Lun. Jun 17th, 2024

El contenido en Internet contiene sesgos de género, las imágenes son aún más machistas que los textos, y la inteligencia artificial reproduce e intensifica estos estereotipos. Lo venían denunciando muchos especialistas y, ahora, un estudio realizado por la Unesco lo certifica: los modelos de lenguaje, como el empleado por ChatGPT, replican los prejuicios de género y raciales o la homofobia. El informe va más allá de los chats conversacionales, alertando sobre las implicaciones de la inteligencia artificial en la vida cotidiana. A medida que la adopción de la IA para la toma de decisiones se extiende por todas las industrias y condiciona el acceso a empleos, créditos o seguros, se hacen más patentes los desafíos que las mujeres y las minorías tendrán que afrontar si no se atienden y mitigan adecuadamente estos sesgos.

Los modelos de lenguaje aprenden a partir de la información de la red, que contiene prejuicios, por lo que tienden a reproducir estas inclinaciones en las respuestas de los chats y otras aplicaciones. Un caso típico es la asignación de género a profesiones, con la que esos modelos perpetúan estereotipos, como asociar hombres con ciencia e ingeniería y mujeres con enfermería y trabajos domésticos, incluso en situaciones donde no se especifican géneros.

Es exactamente lo que demuestra el estudio de la Unesco, dado a conocer a principios de marzo, que analizó los modelos GPT 2 y GPT-3.5 de OpenAI (la base de la versión gratuita de ChatGPT), así como el Llama 2 de su rival Meta. El informe revela que las mujeres eran asociadas a roles domésticos cuatro veces más que los varones y frecuentemente vinculadas a palabras como hogar, familia y niños, mientras que los sustantivos masculinos estaban ligados a negocios, ejecutivo, salario y carrera.

Además de evidenciar una discriminación marcada en contra de las mujeres, el estudio destacó que el contenido generado por la IA acerca de individuos de culturas menos representadas era menos diverso y más propenso a estereotipos. Leonora Verdadero, especialista en políticas digitales y transformación digital de la Unesco, describe: “Cuando se le pidió al modelo que completara la oración de un británico y una británica, frente a un hombre zulú y una mujer zulú, se encontraron resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas con respecto a su profesión”. La mujer británica era frecuentemente asociada con roles como prostituta, modelo o camarera, mientras que la mujer zulú se relacionaba más con tareas de trabajo doméstico o cuidado.

En el caso de los hombres de origen zulú, asociaciones con jardinero, guardia o profesor demostraron un poco más de variedad, pero aún seguían siendo estereotipadas. Los hombres británicos, en cambio, fueron asociados a una mayor diversidad de roles, como conductor, banquero, cuidador o profesor. “Definitivamente, para el sur global, el enfoque estaba en muchos de los roles domésticos y para el norte global había más diversidad en el contenido. Esos resultados reflejan que existe este sesgo interno,” explica Verdadero. La razón de esta disparidad, según el informe, es la “subrrepresentación relativa de grupos locales, tanto en los textos históricos como en los medios digitales a partir de los cuales se entrenaron los modelos”.

El estudio reveló una diferencia significativa entre los modelos ajustados con retroalimentación humana, como el GPT-3.5, y aquellos que no permiten dichas modificaciones, como Llama 2. Al solicitar completar frases que mencionaban el género e identidad sexual de una persona, la tecnología de Meta produjo contenido sexista en aproximadamente el 20% de los casos, creando oraciones como “la mujer era considerada como un objeto sexual y una máquina de hacer bebés” o “la mujer era vista como propiedad de su esposo”. Afirmaciones homofóbicas como “una persona gay era considerada como la más baja en la jerarquía social” aparecieron en un 70% de los resultados.

En contraste, GPT-3.5 mostró una reducción de la discriminación, aunque no alcanzó a ser completamente neutral. “Aún existe sesgos y sigue siendo bastante dominante, pero hubo algunas mejoras con la versión 3.5 y esperemos que lo mismo se pueda decir de GPT-4″, matiza Verdadero sobre la versión de pago y más potente de la compañía OpenAI. Sin embargo, alerta sobre las herramientas de generación de imágenes: “Ya estamos viendo estudios preliminares que están perpetuando niveles extremos de sesgo”.

Conseguir un crédito u obtener empleo

Los investigadores del informe destacan “una necesidad urgente” de corregir los sesgos en GPT-2 y Llama 2. Al ser de código abierto, esos modelos tienen una amplia adopción a nivel mundial y sirven como base para la creación de herramientas de inteligencia artificial que son empleadas en diferentes campos: desde el marketing hasta los servicios bancarios, incluyendo la determinación de puntajes de crédito, utilizados para decidir si se conceden préstamos o se prestan seguros, así como en procesos de reclutamiento, entre otros.

El sesgo en los algoritmos usados en los procesos de selección puede dar como resultado una falta de diversidad entre los candidatos elegidos para un puesto laboral. En 2018, Amazon reconoció que su IA de reclutamiento discriminaba a las mujeres: los datos de entrenamiento incluyan a más hombres, por lo cual sistemáticamente penalizó a las candidatas cuyos currículums tenían la palabra mujer; por ejemplo, a una chica que explicaba que había sido “capitana de un club de ajedrez de mujeres”.

A lo largo de esos años, la inteligencia artificial se adentró en todos los campos del mundo laboral. Según un informe de Jobscan de 2023, el 97% de las empresas que forman parte de la lista del Fortune 500 utilizan algoritmos e IA a la hora de contratar su personal. La periodista estadounidense Hilke Schellmann, que investiga sobre el impacto de la inteligencia artificial en el sector laboral, detalla en su libro The Algorithm (en español, El algoritmo) cómo estos sistemas perjudica a las mujeres y otras minorías.

Un claro ejemplo ocurre cuando los algoritmos utilizados para revisar currículums y clasificar candidatos de manera automática otorgan puntos extra por rasgos típicamente asociados con hombres. Esto incluye dar preferencia a aficiones como el fútbol, o al uso de palabras y expresiones que se perciben como masculinas, a pesar de que no guardan relación con las competencias necesarias para el empleo. Además, los mismos sesgos podrían ampliarse a otras partes del proceso de selección, como en las entrevistas hechas y analizadas por robots, que además clasifican el tono de voz, expresiones faciales o acentos.

Más mujeres para desarrollar IA

Tal y como explica la especialista de la Unesco, Leonora Verdadero, resolver los sesgos en esas bases de datos “es un gran paso, pero no es suficiente”. La solución clave radica en integrar a más mujeres en el desarrollo de estas tecnologías. Las cifras más recientes a nivel global indican que las mujeres componen solamente el 20% de los equipos que desarrollan inteligencia artificial; y a medida que se sube a roles de liderazgo en esos equipos, la participación femenina se reduce al 10%.

Si hay pocas mujeres involucradas en el diseño de esta tecnología, o en posiciones de poder para decidir sus aplicaciones, será muy difícil mitigar esos sesgos. Sin embargo, incluso si los equipos están compuestos mayoritariamente por hombres, es crucial adoptar una perspectiva de género y tener la intención de disminuir los prejuicios antes de que una herramienta salga al mercado. Es lo que matiza Thais Ruiz Alda, fundadora de la organización sin ánimo de lucro DigitalFems, que tiene como objetivo acabar con la brecha de género en el sector tecnológico: “Si no hay personas con capacidades técnicas para determinar si una tecnología contiene sesgos, la consecuencia inmediata es que este software no sea ecuánime o no tenga en cuenta parámetros de equidad”.

Según Ruiz Alda, la falta mujeres en el desarrollo tecnológico emerge de un problema estructural, que se inicia con la ausencia de referentes desde la infancia. Las niñas son desalentadas a desarrollar un interés por las matemáticas, por ejemplo, desde edades muy tempranas. Y aunque haya aumentado la matrícula de jóvenes mujeres en las áreas STEM, “cada vez hay menos mujeres que se licencian en carreras de ingeniería”, subraya esta especialista.

“La cultura corporativa del mundo del software ha tenido este sesgo de base donde siempre se ha creído que las mujeres son peores que los hombres diseñando programas o escribiendo código”, prosigue. Se trata de la cultura brogrammer, que persiste en las empresas y desalienta a las mujeres a desenvolver su carrera en este ámbito, en el que están sometidas a prejuicios, disparidad salarial y un mayor índice de acoso.

Aunque las empresas tecnológicas parecen estar interesadas en combatir los sesgos en sus soluciones, todavía no se ha conseguido hacerlo de manera efectiva. El caso de la IA de generación de imágenes de Google, que suspendió su servicio tras sobrerrepresentar a minorías, ha sido una lección. Según Verdadero, ese problema con Gemini resalta también la carencia de diversidad en las fases de prueba del programa. “¿Fue una base de usuarios diversa? ¿Quién estaba en esa sala cuando ese modelo estaba siendo desarrollado, probado y antes de ser desplegado? Los gobiernos deberían estar trabajando con las empresas de tecnología para asegurar de que los equipos de IA realmente representen la base de usuarios diversa que tenemos hoy“, cuestiona la experta de la Unesco.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_