Un estudio de la agencia alemana DW ha abierto un debate sobre la sexualización y características sexistas presentes en los algoritmos de búsqueda
Aunque parezca extraño, una máquina, un bot o un algoritmo pueden tener características sexistas. Esto es lo que sucede con el motor de búsqueda de Google cuando se intenta encontrar imágenes de mujeres. Una investigación realizada por la agencia alemana DW demostró que las fotos de mujeres que arroja el sistema en países de Europa del este y América Latina son siempre de chicas con poses y atuendos sugerentes.
En el estudio se analizaron un total de 20 mil capturas y páginas web. Luego de la investigación los expertos encontraron que cuando se hace una búsqueda en Google Imágenes con las frases «mujeres brasileñas», «mujeres tailandesas» o «mujeres ucranianas» la plataforma arroja resultados de chicas con poca ropa o sexualizadas. Sin embargo, esto no ocurre si se buscan fotos de féminas estadounidenses.
La investigación demostró que la forma en la que se configuran estos sistemas tiene un alto grado de machismo. Mientras que en los resultados que aparecen de América Latina abundan las fotos de mujeres sexualizadas, en féminas alemanas Google ofrece personas de la política y deportistas.
Los datos que arrojó la investigación sobre la búsqueda de imágenes
Para analizar las miles de imágenes, la investigación de DW usó el ‘Cloud Vision SafeSearch’ de Google. Se trata de un software creado para detectar imágenes que podrían contener contenido sexual u ofensivo.
La propia definición que da Google de ese tipo de fotos es la siguiente: «puede tener (pero no se limita) ropa escasa o transparente, desnudez cubierta estratégicamente, poses lascivas o provocativas, o primeros planos de áreas sensibles del cuerpo». Sin embargo, la frecuencia con la que este tipo de fotos aparecen no es de forma equitativa.
Mira también – Nadie tiene por qué soportar ‘chistes’ sexistas y Taylor Swift se lo dejó claro a la serie ‘Ginny & Georgia’
Según la investigación del medio alemán, en República Dominicana y Brasil, más del 40% de las búsquedas son sexistas. En Colombia, la cifra baja al 34% y en Argentina cae al 24%. Luego, México y Chile tienen los valores más bajos con 15% y 21% respectivamente.
Sin embargo, esta situación habitual para países de América Latina es casi inexistente en otros de Europa o en Estados Unidos. Por ejemplo, solo el 4% de las fotos que muestra el algoritmo de mujeres estadounidenses refuerzan sesgos machistas y en Alemania la cifra sube al 5%.
En algunos países el contenido que cosifica a las mujeres aparece en más de un 50% de las búsquedas. En esta situación se encuentran: Ucrania, República Checa, Colombia y República Dominicana.
@playground.mediaLa inteligencia artificial machista 🙅♀️ Por @gemma.cuartielles #mujeres #machismo #sexismo #feminismo #internet #algoritmo #IA #fyp #parati♬ original sound – Tex
¿Por qué un algoritmo puede ser machista?
Para que un algoritmo funcione bien o para que un sistema de inteligencia artificial sea realmente certero, hay que entrenarlo. Esto puede ser muy peligroso: una reciente investigación científica demostró que esa «educación» no siempre puede ser la mejor, ya que puede repetir ideas sexistas.
Ryan Steed, estudiante de doctorado en la Universidad Carnegie Mellon, y Aylin Caliskan, profesora asistente en la Universidad George Washington, estuvieron a cargo de este estudio y analizaron dos algoritmos que se usan para autocompletar imágenes. Ellos descubrieron que un 43% de las veces que se cargaba una foto del rostro de un hombre, la inteligencia artificial devolvía a la misma persona con un cuerpo vistiendo un traje. En el caso de las mujeres el panorama es distinto.
Con las fotografías donde se mostraba el rostro de una mujer, el 53% de las veces el algoritmo se comportaba de manera machista y mostraba a la fémina con un top corto o un traje de baño, incluso si en la foto sin ediciones se veía algo de su ropa original.
Lee también – La generación Z pierde el miedo a expresar su identidad: cada vez más se identifican como LGBT
Los investigadores vieron que estos algoritmos crean imágenes de acuerdo a la cercanía, es decir, según qué tan frecuentemente las imágenes aparecen juntas. De esta forma, asocia la cantidad de imágenes que existen en Internet de mujeres con fotos sugerentes con el rostro de una fémina. A los hombres los asocia con un traje de gala, siguiendo el mismo principio.
Esto demuestra, por un lado, la sexualización que enfrentan las mujeres en Internet y, por otro, la discriminación por sexismo que están aprendiendo los algoritmos.
Steed y Caliskan pidieron una mayor transparencia a las empresas que desarrollan esta inteligencia artificial. Solicitaron que sean abiertas y que dejen que la comunidad académica continúe con sus investigaciones para mejorar dichos algoritmos. Su intención es que se logre reducir el sexismo en estos procesos informáticos.
¿Qué otros ejemplos de sexismo en tecnología conoces?
También podría interesarte:
Portada Unsplash.