Robots aprenden a desobedecernos (VIDEO)

Robótica e Inteligencia Artificial

Por Victor Roman
30 de Noviembre de 2015 a las 09:48
Compartir Twittear Compartir
Robots aprenden a desobedecernos (VIDEO)

Cuando uno escucha que un grupo de investigadores le están enseñando a los robots a desobedecer a sus amos humanos, uno no puede evitar preocuparse un poco: ¿Debemos realmente permitir que los sistemas de inteligencia artificial del futuro nos diga “no”? Sin embargo, después de pensarlo bien, uno se da cuenta que esta característica en realidad podría llegar a salvar vidas.

 

Pongamos el ejemplo de un robot que realiza tareas peligrosas en una fábrica, y alguien decide ordenarle una acción potencialmente letal para otro ser humano. El robot deberá saber anular su programación predeterminada para poner al ser humano en menor riesgo. Es este tipo de funcionalidad, es la que un equipo del Laboratorio de Interacción Humano-Robot en la Universidad Tufts está tratando de introducir.

 

El trabajo del equipo se basa en las mismas “Condiciones Felicity” que nuestros cerebros humanos aplican cada vez que alguien nos pide hacer algo. En estas condiciones, nuestro cerebro explora subconscientemente una serie de consideraciones antes de ejecutar una acción: ¿Sé cómo hacer esto? ¿Puedo físicamente hacerlo, y hacerlo ahora mismo? ¿Estoy obligado basado en mi rol social para hacerlo? Y, por último, ¿Se viola ningún principio normativo para hacerlo?

 

Si los robots pueden ser programados a hacerse estas mismas preguntas, serán capaces de adaptarse a las circunstancias inesperadas que se produzcan.

 

Las últimas dos preguntas son los más importantes para el proceso. Un robot debe decidir si la persona que le da instrucciones tiene la autoridad para hacerlo, y tiene que averiguar si las acciones posteriores son peligrosas para sí mismo o para otros. No es un concepto fácil de poner en práctica.

 

Video: HRI Lab at Tufts University

Como muestra el video de arriba, los ingenieros están experimentando con diálogos usuario-robot que permiten una retroalimentación. Eso significa que el robot puede proporcionar razones de por qué no hacer algo (en este caso dice que se caerá de la mesa si camina hacia adelante), mientras que el operador puede ofrecer razones adicionales por las cuales si debe obedecer.

 

Los desarrolladores de coches de vehículos autónomos también están lidiando con un dilema moral similar: si un coche sin conductor está atrapado en una situación de emergencia que amenaza la vida de varias personas en la calle, ¿Debe estrellarse intencionalmente contra una pared de manera que mate a su único ocupante, o arremeter contra una multitud de peatones y potencialmente matar a muchos más?

 

Una investigación que explora esas ideas acaba de ser publicado en linea. Si bien es cierto que enseñarle a los robots a desobedecer a los seres humanos podría ser potencialmente peligroso, parece claro que hacer que nos obedezcan ciegamente, podría llevar a más de un riesgo.

 

"Los humanos rechazan ordenes por una amplia gama de razones: desde incapacidad hasta motivos morales", dice el documento. "Lo que todavía falta... es un conjunto general e integrado de mecanismos en arquitecturas robóticas cognitivas que son capaces de determinar si una directiva debe ser aceptada o rechazada".

 

 


#robot #inteligencia artificial #no
Compartir Twittear Compartir