BAQUIA

El sexismo que impera en la Inteligencia Artificial

Hace unos días MIT Technology Review, la revista del prestigioso Massachusetts Institute of Technology, se hacía eco de un reciente estudio realizado por investigadores de la Universidad de Boston (Estados Unidos) que han analizado las relaciones de palabras contenidas en una selección de artículos publicados en Google News, su conclusión es clara: el lenguaje en Internet refleja los sesgos de género presentes en la sociedad.

Todo se remonta a 2013 cuando los de Mountain View implementaron una red neuronal sobre una base de tres millones de palabras extraídas de una selección de textos de Google News, con el objetivo de buscar patrones sobre cómo se relacionan palabras en los textos, es decir, cómo aparecen juntas.

Los resultados de estos patrones fueron cotejados como vectores en un espacio vectorial con unas 300 dimensiones. El análisis matemático aparece en un paper que puede resultar un tanto complejo de entender para el común de los mortales —puede seguirse en detalle aquí— pero lo relevante son las conclusiones de este equipo de investigadores liderado por Tolga Bolukbasi y en el que han participado compañeros de Microsoft Research: la base de datos con la que han trabajado es claramente sexista. Personalmente, no me sorprende.

El espacio online no es más que una extensión del mundo físico, y como tal, las formas de expresión en este medio son un claro reflejo del lenguaje sesgado habitual en nuestra sociedad.

A lo largo de la historia, el lenguaje siempre ha sido un canalizador invisible para transmitir posiciones de poder, ya sea por cuestión de sexo, raza o nivel social. Lo que sí me parece importante es que desde grandes instituciones de investigación se eleven estas preocupaciones. Y es que este conjunto de datos, denominado ‘Word2vec‘, que aúna relaciones de ‘incrustaciones de palabras’ o ‘palabras embebidas’, es utilizado por muchos desarrolladores en proyectos de traducción automática (como puede ser Google translate) o en búsquedas web inteligentes. Por lo que cualquier sesgo en estas parejas de palabras Word2vec son automáticamente transferidos a cualquier aplicación que explote ese conjunto de datos.

Un ejemplo lo podemos encontrar al buscar empleo en buscadores online. Como explica Bolukbasi, si el conjunto de palabras “programador informático” se asocia más estrechamente con hombres que con mujeres, una búsqueda web con las palabras clave “currículum vitae de programador informático” no sólo está repitiendo estos estereotipos sino que puede tener consecuencias perjudiciales, como cerrar oportunidades laborales a una persona por cuestión de sexo.

Los sistemas informáticos actuales dependen cada vez más de estas palabras embebidas; estos a su vez, están presentes en el cada vez más relevante “aprendizaje de las máquinas”.

¿Una industria sexista?

El estudio de este equipo de matemáticos es una alerta sobre lo que la industria tecnológica, mayoritariamente copada por hombres (aunque no entraré en la cuestión de la brecha de género en esta industria, viene haciendo en los últimos años de desarrollo del sector de la informática, la robótica y la inteligencia artificial.

robot-mujer-sex

Parémonos a pensar, por ejemplo, en los nombres con los que se ha bautizado a los primeros asistentes de voz —una de las aplicaciones de IA más extendidas—, corrección a las primeras asistentes de voz, porque no es casualidad que todas estas voces sean en femenino: Siri de Apple, Alexa de Amazon, Cortana de Microsoft,… Y como en ‘Her‘, los chat bots son mujeres. Mientras, el sistema avanzado de machine learning de IBM se llama Watson y el primer robot humanoide en ser contratado por una firma de abogados en Estados Unidos, basado en dicho sistema de IBM, es Ross.

Vayamos más allá de simples nombres. La industria parece obsesionada con lograr robots inteligentes lo más parecidos al ser humano, trasladando así los estereotipos físicos a los que estamos ya acostumbrados una futura sociedad en la que personas y humanoides están llamados a convivir. Ellos, con tabletas de chocolate como las que ya les gustaría a ellas encontrar en su playa más cercana, ellas, con rostros angelicales o pechos despampanantes y el trasero de J.Lo. ¿De verdad es necesario?

No conseguiremos un mundo ideal pero al menos podemos, y socialmente tenemos la responsabilidad, de no perpetuar indiscriminadamente hábitos que vienen alimentado brechas de igualdad desde hace siglos. 

El sexismo es una realidad que se vislumbra en el mundo de la IA. Y los algoritmos, definitivamente, una forma de lo más invisible de moldear comportamientos. Repitiendo estos patrones de expresión sesgados en los ámbitos de la inteligencia computacional y el machine learning, que cada vez conquistan más áreas de nuestras vidas, estamos perdiendo una gran oportunidad para crear un espacio más igualitario en un mundo que se está creando, como quien dice, desde cero. 


Compartir en :


Noticias relacionadas




Comentarios