Inteligencia Artificial de Google ha “aprendido” a ser muy competitiva y agresiva (VIDEO)

Robótica e Inteligencia Artificial

Por Sophimania Redacción
13 de Febrero de 2017 a las 11:42
Compartir Twittear Compartir
Inteligencia Artificial de Google ha “aprendido” a ser muy competitiva y agresiva (VIDEO)
La Inteligencia Artificial podría llegar a ser no tan pacífica. Foto: Internet

La inteligencia artificial (IA) está avanzando a una impresionante velocidad. El año pasado, DeepMind la IA de Google, le ganó por primera vez al campeón humano del juego Go y ahora, un grupo de investigadores ha encontrado que en determinadas ocasiones DeepMind puede cooperar o competir de manera salvaje para conseguir lo que quiere.

El equipo de Google corrió 40 millones de simulaciones de un juego de computadora bastante simple que consistía en “recolectar frutas", el cual le pedía a dos agentes de DeepMind que compitan entre sí para reunir tantas manzanas virtuales como pudieran.

Los investigadores encontraron que no había problemas, siempre y cuando hubiese suficientes manzanas que recolectar, pero tan pronto como comenzaron a escasear, los dos agentes se volvieron agresivos, usando rayos láser para golpearse mutuamente y robar todas las manzanas.

El video del juego, llamado Gathering, se puede ver aquí:

 

Los agentes de DeepMind están en azul y rojo, las manzanas virtuales son verdes y los rayos láser amarillos. Video:

 Un aspecto curioso del experimento es que, si uno de los agentes inhabilitaba a su oponente con un rayo láser, este no tenía una recompensa adicional. Simplemente sacaba al oponente fuera del juego por un período determinado, lo que le permitía recolectar más manzanas.

Si los agentes no usaban los rayos láser, en teoría podrían terminar con igual cantidad de manzanas, algo que había ocurrido con las iteraciones "menos inteligentes" de DeepMind. Fue sólo cuando el equipo de Google probó formas cada vez más complejas de DeepMind que ocurrieron el sabotaje, la codicia y la agresión.

Cuando los investigadores usaron redes de DeepMind más pequeñas como agentes, había una mayor probabilidad de coexistencia pacífica. Pero cuando usaron redes más grandes y complejas como agentes, la IA estaba mucho más dispuesta a sabotear a su oponente para obtener una mayor parte de manzanas.

Los investigadores sugieren que cuanto más inteligente sea el agente, más capaz será de aprender de su entorno, lo que le permite utilizar algunas tácticas muy agresivas para ganar.

"Este modelo... muestra que algunos aspectos del comportamiento humano emergen como un producto del ambiente y del aprendizaje", dijo Joel Z Leibo, un miembro del equipo, a Wired. "Las políticas menos agresivas emergen del aprendizaje en entornos relativamente abundantes con menos posibilidades de acción costosa, la motivación de la avaricia refleja la tentación de sacar a un rival y recoger todas las manzanas" añade.

Sin embargo no todo es tan negativo. DeepMind fue programado para jugar un segundo juego, llamado Wolfpack. Esta vez, había tres agentes: dos de ellos jugaban como lobos, y uno como la presa. A diferencia de Gathering, este juego alentó activamente la cooperación, porque si ambos lobos estaban cerca de la presa cuando era capturada, ambos recibían una recompensa, sin importar cuál de los dos la cazaba.

 

Video: DeepMind

 "La idea es que la presa es peligrosa: un lobo solitario puede ganar, pero corre el riesgo de perder el cadáver frente a los carroñeros", explica el equipo en su artículo. "Sin embargo, cuando los dos lobos atrapaban la presa juntos, podían proteger mejor el cadáver de los carroñeros, y por lo tanto recibir una recompensa más alta."

Así es como los agentes de DeepMind aprendieron de Gathering que la agresión y el egoísmo les proporcionaban el resultado más favorable en ese ambiente particular; y que en Wolfpack, la cooperación también puede ser la clave para un mayor éxito individual en ciertas situaciones.

Y aunque estos son solo pequeños juegos de computadora, el mensaje es claro: ponen diferentes sistemas de IA a cargo de intereses en competencia en situaciones de la vida real, y podría desatarse una guerra total si sus objetivos no se equilibran con el objetivo general de beneficiar a los seres humanos por encima de todo.

Este experimento da mucho que pensar

 

FUENTES: SCIENCEALERT, WIRED, GIZMODO


#ia #deepmind
Compartir Twittear Compartir