¿Por qué es tan difícil para las redes sociales filtrar mensajes de odio?

Redes Sociales

Por Sophimania Redacción
28 de Julio de 2016 a las 11:33
Compartir Twittear Compartir
¿Por qué es tan difícil para las redes sociales filtrar mensajes de odio?
Internet

Los trolls parecen estar al acecho en cada esquina de Internet, pero si las máquinas han logrado mantener nuestras bandejas de entrada del correo electrónico libres (casi) de spam, ¿por qué es tan difícil detectar mensajes maliciosos u ofensivos en twitter u otras redes sociales?

Hace poco, Twitter censuró a un periodista que orquestó una campaña de odio dirigido a una de las estrellas de la película Cazafantasmas (que tiene un electo protagónico femenino) y a la vez, el portavoz dijo que introduciría nuevas directrices y herramientas para reportar el abuso a través de su servicio. A pesar de esto, ciertamente, un sinnúmero de otros incidentes en Twitter y en otras redes sociales pasan desapercibidos todos los días.

Los investigadores están, de hecho, haciendo algunos progresos hacia una tecnología que pueda ayudar a detener el abuso por internet. Un equipo de Yahoo ha desarrollado recientemente un algoritmo capaz de detectar mensajes abusivos mejor que cualquier otro sistema automatizado hasta la fecha. Los investigadores crearon un conjunto de mensajes de odio recopilados de artículos de Yahoo que fueron marcados como ofensivos por los propios editores de comentario de la compañía.

El equipo de Yahoo utilizó una serie de técnicas convencionales, incluyendo la búsqueda de palabras clave abusivas, pero también aplicaron un enfoque más avanzado para la comprensión automática del lenguaje, utilizando una forma para representar el significado de palabras como vectores con muchas dimensiones. Este enfoque permite procesar la semántica ​​de una manera sofisticada. Incluso, si un comentario contiene una cadena de palabras que no han sido identificadas como agresivas, las representaciones de esa cadena en el espacio vectorial pueden ser suficientes para identificarlo como tal.

Cuando todo se combinó, el equipo fue capaz de identificar mensajes abusivos (de su propio conjunto de datos) con aproximadamente el 90 % de exactitud. Controlar el 10 % restante puede resultar difícil. La inteligencia artificial todavía tiene que dotar a las computadores de la capacidad intelectual necesaria para desenredar significados.

Muchas compañías de tecnología, incluyendo Twitter, tienen investigadores de Inteligencia Artificial dedicados al reconocimiento de imágenes y la comprensión de textos. Pero hasta ahora se ha logrado poco para comprender mensajes de violencia. El problema con el filtrado automatizado es que las palabras están llenas de sentido que solo puede ser desempaquetado con inteligencia real. Hasta que las máquinas tengan verdadera inteligencia, el filtrado de mensajes de odio será imposible.

 

FUENTE: Technology Review


#redes sociales #violencia
Compartir Twittear Compartir