El grave problema de sexismo en IA que Silicon Valley no puede ignorar

Sociología y Antropología

Por Sophimania Redacción
29 de Noviembre de 2016 a las 10:25
Compartir Twittear Compartir
El grave problema de sexismo en IA que Silicon Valley no puede ignorar
Foto: Science Blogs

La campaña presidencial puso de manifiesto que las actitudes discriminatorias hacia las mujeres permanecen fijadas en algunas partes de la sociedad. Ahora resulta que también estamos transmitiendo estos mensajes sexistas a los sistemas de inteligencia artificial.

Una nueva investigación publicada por la Universidad de Stanford  (que aún no ha sido revisada por pares) muestra que el sesgo de género está arraigado en los datos utilizados para enseñar habilidades de lenguaje a los programas de Inteligencia Artificial. A medida que estos sistemas se vuelven más capaces y más extendidos, su punto de vista sexista podría tener consecuencias negativas, por ejemplo, en las búsquedas de empleo.

El problema es resultado de la forma en que se les enseña a las máquinas a leer y hablar. Los informáticos los alimentan con enormes cantidades de lenguaje escrito y hablado, y les permiten establecer conexiones entre palabras y frases. Con este entrenamiento se desarrollan chatbots, sistemas de traducción y programas de subtitulación y algoritmos de recomendación.

Los datos permiten a las máquinas reconocer conexiones semánticas entre palabras y pronombres, pero los investigadores de la Universidad de Boston y Microsoft Research New England encontraron que los conjuntos de datos consideraban la palabra "programador" más cercana a la palabra "hombre" que "mujer", y que la palabra más parecida a "mujer" es "ama de casa".

James Zou, un profesor asistente en la Universidad de Stanford que llevó a cabo la investigación en Microsoft, dice que esto podría tener una serie de consecuencias no deseadas. Zou y sus colegas han realizado algunos experimentos sencillos que muestran cómo este sesgo de género podría manifestarse. Crearon un programa diseñado para leer páginas web y clasificar su relevancia, y encontraron que el sistema clasifica la información sobre programadoras femeninas como menos relevante que la de sus homólogos masculinos.

Pero los investigadores también desarrollaron una forma de eliminar este sesgo de género, ajustando la relación matemática entre palabras neutras como "programador" y palabras de género como "hombre" y "mujer". Pero no todo el mundo cree que el sesgo de género deben eliminarse. Arvind Narayanan, profesor asistente de ciencias de la computación en Princeton, también ha analizado la incorporación de palabras y ha encontrado prejuicios de género, raza y otros, pero argumenta que eliminar el sesgo podría limitar la representación del mundo real y hacerla menos adepta a hacer predicciones o analizar datos. "Deberíamos pensar en esto no como un error sino como una característica", dice Narayanan.

Sin embargo, los sistemas de IA sesgados podrían exacerbar la injusticia que ya existe, dice Barbara Grosz, profesora de la Universidad de Harvard. "Cuando usted está en una sociedad que está evolucionando de ciertas maneras, entonces tratas de cambiar el futuro para que no sea como el pasado", dice Grosz, que co-escribió un informe llamado AI 100, un proyecto de la Universidad de Stanford con el objetivo de comprender los peligros potenciales de la IA.

Grosz admite que puede haber situaciones en las que no tiene sentido eliminar los sesgos de un conjunto de datos. "No es que se pueda evitar todo este tipo de prejuicios, pero debemos estar atentos a nuestro diseño, y tenemos que

 

FUENTE: Techology Review


#inteligencia artificial #silicon valley #sexismo
Compartir Twittear Compartir