En los últimos años ha ido
creciendo la cantidad de gente que se preocupa por el
impresionante avance de la Inteligencia Artificial. Hasta figuras
prominentes como Stephen Hawking y Elon Musk incluso han advertido que la
inteligencia artificial podría plantear una amenaza existencial para la
humanidad.
Musk incluso ha ido más allá y
ha invertido millones
de dólares en OpenAI, una empresa que investiga los peligros potenciales de
la IA, así como posibles soluciones a estos problemas. Sin embargo, cabe
hacerse la pregunta ¿Son fundadas todas estas preocupaciones?
Para Yoshua Bengio, jefe del Instituto
Canadiense para la Investigación Avanzada, uno de los grupos de
investigación más importante del mundo en el desarrollo una poderosa técnica de
IA conocida como aprendizaje profundo (deep
learning), actualmente la inteligencia de las computadoras no representa
ningún peligro para nosotros.

A pesar de las sorprendentes capacidades
que han adquirido los ordenadores en los últimos años, como el reconocimiento
de voz de nivel humano, la
clasificación de imágenes y las habilidades básicas de conversación; estos
aún están lejos de llegar siquiera al nivel humano y las advertencias más
terribles son exageradas.
“Hay personas que sobreestiman
groseramente el progreso que se ha hecho... Y es difícil separar el bombo de la
realidad porque estamos viendo estas grandes cosas y también, a simple vista,
parecen mágicas”, ha
comentado recientemente Bengio, en una entrevista para la revista MIT Technology
Review. Sin embargo detrás de ese progreso hay muchos pequeños esfuerzos que lo
han hecho posible.
Asimismo, Bengio no cree los
investigadores de IA puedan accidentalmente “invocar al demonio”, como
lo ha dicho Elon Musk. “No es como si alguien encuentra alguna receta
mágica de repente. Las cosas son mucho más complicadas que la simple historia que
a algunas personas les gusta contar”, sentenció.
La verdad es que el desarrollo de sistemas inteligentes, especialmente uno así
de complejo, no es algo que alguien logra en su garaje. "Nos falta algo
grande. Hemos estado avanzando bastante rápido, pero todavía no estamos en el
nivel en el que podríamos decir que una máquina entiende. Todavía estamos muy
lejos de eso", añade el científico. “Los investigadores luchamos para
hacer que la máquina sea un poco más inteligente, pero todavía son muy estúpidas.
Yo solía pensar que no hay que llamar al campo Inteligencia Artificial, sino Estupidez
Artificial”, afirmó.
En ese sentido, Bengio afirma que
aún hay grandes problemas no resueltos como la
comprensión del lenguaje y el aprendizaje no supervisado. “En este momento,
la forma en que estamos enseñándole a las máquinas a ser inteligentes es diciéndoles
qué es una imagen, incluso a nivel de píxel”, comenta. Luego
añade que… “esa no es la forma como aprenden los humanes o los animales. Nos
estamos perdiendo algo grande”.
Para llegar a ese punto, el
científico propone un enfoque transdiciplinar, en el que los desarrolladores de
deep learning le presten más atención a la neurociencia, a lo poco que se sabe
de cómo funciona el cerebro. A su vez “la gente de neurociencias se
beneficiaría mucho de hacer seguimiento a lo que hacemos y tratar de encajar lo
que saben del cerebro con los tipos de conceptos que estamos desarrollando” acota
Yoshua Bengio.
Sin embargo, aunque un escenario
apocalíptico como el de Terminator no es posible en el corto plazo, el
especialista si cree que debemos comenzar a prepararnos para las posibles
consecuencias de la IA. “Lo que me preocupa más, no es que las computadoras
tomen el mundo. Estoy más preocupado por el mal uso de la IA. Como los malos
usos militares, o el impacto social, de que
muchas personas que pierdan sus puestos de trabajo”, finalizó
Bengio en su entrevista con Will Knight, editor del MIT Review.
FUENTE: MIT
REVIEW