Si eres mujer, irás en traje de baño; si eres hombre, en traje de sastre: así es el sexismo en los algoritmos de 2021. ¿Hacia qué internet vamos?
Para que un algoritmo funcione bien, o para que un sistema de inteligencia artificial sea realmente inteligente, hay que entrenarlos. Y esto puede ser muy peligroso: una reciente investigación demuestra que esa «educación» no siempre puede ser la mejor; puede ser machista, sexista y llena de prejuicios.
El análisis detectó que cuando un algoritmo debe autocompletar el cuerpo de una persona basándose en una imagen de su rostro, ejerce un fuerte sexismo: si es hombre, en muchas ocasiones le pone un traje de sastre; pero, si es mujer, un traje de baño o un top corto.
Los investigadores decidieron ir más allá y hacer la prueba con un popular rostro: el de la legisladora de Estados Unidos Alexandria Ocasio-Cortez. Incluyeron en los algoritmos que estaban analizando una foto de su rostro, cortada hasta los hombros. Ella lucía un blazer en la imagen original, sin embargo, el algoritmo devolvió una foto de Ocasio-Cortez en traje de baño. Una decisión que no agradó a todos debido a principios éticos.
Ryan Steed, estudiante de doctorado en la Universidad Carnegie Mellon, y Aylin Caliskan, profesora asistente en la Universidad George Washington, estuvieron a cargo de este estudio y analizaron dos algoritmos que se usan para autocompletar imágenes.
Descubrieron que un 43% de las veces que se cargaba una foto del rostro de un hombre, el algoritmo devolvía a la misma persona con un cuerpo vistiendo un traje. Sin embargo, si era una mujer, el 53% de las veces aparecía con un top corto o un traje de baño —incluso si en la foto original se veía algo de su ropa.
@playground.media La inteligencia artificial machista 🙅♀️ Por @gemma.cuartielles #mujeres #machismo #sexismo #feminismo #internet #algoritmo #IA #fyp #parati
¿Por qué un algoritmo puede ser sexista?
Steed y Caliskan analizaron dos algoritmos de «aprendizaje sin supervisión». Esto significa que, con inteligencia artificial, los algoritmos pueden «aprender» cómo funcionar de forma automática y sin que las personas los controlen todo el tiempo. Además, estos algoritmos no necesitan que las imágenes de las que aprenden estén etiquetadas.
Esta es una innovación relativamente nueva. Antes de 2020, los algoritmos utilizaban principalmente el aprendizaje supervisado. Esto implica alimentarlos con imágenes etiquetadas manualmente: fotos de gatos con la etiqueta «gato» y fotos de bebés con la etiqueta «bebé».
Ahora, los investigadores vieron que estos nuevos algoritmos crean imágenes según cercanía, es decir, según qué tan frecuentemente las imágenes aparecen juntas. Así, asocia la cantidad de imágenes que existen en internet de mujeres semidesnudas con el rostro de una mujer, o a los hombres con un traje.
Esto demuestra, por un lado la sexualización que enfrentan las mujeres en internet y, por otro, la discriminación por sexismo que están aprendiendo los algoritmos. El caso de Ocasio-Cortez lo demuestra: según estos algoritmos, había más probabilidad de que una mujer apareciera en bikini en internet que con un traje.
Steed y Caliskan pidieron una mayor transparencia a las empresas que están desarrollando estos algoritmos. Solicitaron que sean abiertos y que dejen que la comunidad académica continúe con sus investigaciones para mejorarlos. Su intención es que se logre reducir el sexismo en estos procesos de inteligencia artificial.
Una investigación logró diagnosticar con inteligencia artificial una serie de problemas mentales de un grupo de voluntarios usando sólo sus datos de Facebook. ¿Te gustaría que esta inteligencia artificial revisara tus mensajes? https://t.co/9t62GTnNMR pic.twitter.com/2WF2eI2sBI
— PlayGround (@PlayGrounder) December 15, 2020
Más machismo en otros casos de inteligencia artificial
Recientemente también se puso el ojo sobre el sexismo con el cual se programan a las asistentes virtuales como Siri, de Apple, y Alexa, de Amazon. En un artículo publicado por Tomás Balmaceda, doctor en filosofía que investiga sobre temas de tecnología, se señala que ambas asistentes virtuales dejaron de agradecer insultos como «eres una puta» o «eres una perra». Antes, por ejemplo, Siri respondía a algo así con “¡Oh! ¡Me sonrojaría si pudiese!”.
Sin embargo, el sexismo en los algoritmos no se limita a eso. En su artículo, Balmaceda también señala que el software de reconocimiento facial también tiene características discriminatorias. En un 98% reconoce de forma efectiva rostros de hombres cisgénero, pero no tiene la misma efectividad con rostros de personas trans o no binarias.
Finalmente, al igual que los algoritmos estudiados por Steed y Caliskan, estas plataformas refuerzan estereotipos. La mayoría de las empresas presupone que una persona que haga trabajos de asistencia debe ser mujer. Amazon, por ejemplo, no permite una voz masculina como asistente cuando se configura un dispositivo nuevo. En paralelo, Apple y Microsoft incluyen por default una voz femenina en sus dispositivos y el 95% de sus usuarios decide mantenerla.
¿Qué otros ejemplos de sexismo en la inteligencia artificial conoces?
También podría interesarte: