¿Qué fin del mundo es más probable de acuerdo a la ciencia?

Robótica e Inteligencia Artificial

Por Victor Roman
27 de Diciembre de 2015 a las 12:20
Compartir Twittear Compartir
¿Qué fin del mundo es más probable de acuerdo a la ciencia?

Cada cierto tiempo la cultura popular nos inunda con narrativas sobre cómo se terminará la vida en la Tierra, ya sea en libros, comics, películas o charlatanes. Y aunque, efectivamente, algún día en los próximos 6 mil millones de años el Sol se expandirá destruyendo a nuestro planeta en el proceso,  lo más probable es que la vida, y nosotros mismos, ya no existamos para ver ese momento.

 

Entonces ¿qué podría acabar con nosotros antes de ese momento? Esa es la misma pregunta que se hicieron unos investigadores de la Fundación sueca para Retos Global quienes en colaboraron con el Instituto para el Futuro de la Humanidad de la Universidad de Oxford trabajaron en un reporte sobre los 12 riesgos globales con el potencial de un “impacto infinito” o como lo define el autor “impactos que podrían significar el fin de la civilización o de la vida humana”.

 

Dentro de estos riesgos globales se mencionaron cosas como una pandemia global, el colapso ecológico, la guerra nuclear, el impacto de un asteroide, y el cambio climático. Los cálculos que intervienen en este tipo de investigaciones son difíciles, y dependen de tantas incógnitas que no se puede predecir con absoluta certeza cómo será el fin de la humanidad. Sin embargo, lo que sí es posible es estimar la probabilidad, que es lo que los investigadores hicieron mediante la compilación de datos sobre estimaciones ya disponibles para los próximos 100 años (o 200 años, en el caso del cambio climático).

 

Según el Informe sobre los desafíos globales, en los próximos 100 años hay una 1 en 10 posibilidades de que vayamos a desarrollar sistemas de Inteligencia Artificial (IA) que podrían deshacerse de la humanidad simplemente porque las IA’s no necesitan de los seres humanos para prosperar. Aunque este riesgo parezca fácil de eliminar porque depende netamente de nosotros, no es tan simple: en los últimos años los expertos en IA también han predicho que una computadora superinteligente podría resolver más problemas de los que crearía, si jugamos bien nuestras cartas.

 

"Esto hace que una IA extremadamente inteligente sea un riesgo único, en que una extinción es más probable que otros impactos menores ", afirma el informe. "En una nota más positiva, una inteligencia de tal poder puede combatir fácilmente la mayoría de los riesgos en el presente informe, por lo que una IA extremadamente inteligente es una herramienta de gran potencial."

 

Pero hay otros apocalipsis con un gran potencial. Según el informe, hay una probabilidad del 5% que en los próximos 100 años, los humanos seamos eliminados por una pandemia global o una guerra nuclear. Y, si no hacemos algo al respecto, en los próximos 200 años hay una probabilidad del 5% de que los impactos del cambio climático se encarguen de nosotros.

 

Por cierto, en el caso de los impactos de asteroides, la probabilidad es sólo 1 de cada 10.000. Es más probable que un supervirus mortal nos destruya antes que una roca espacial de 5 km tenga la oportunidad de hacer un bonito cráter en nuestro planeta.

 

Al final, como el astrónomo Phil Plait escribió en su libro “Death from the Skies”, no vale la pena preocuparse sobre las cosas que no se puede hacer nada al respecto:

 

"Parece como si todo el cosmos estaría tratando de librarse de nosotros. En cierto sentido, así es: hay peligro en abundancia en el Universo. Pero tenemos que tener una visión práctica. Tenemos que apreciar la inmensidad del espacio y el tiempo, y nuestra capacidad para manipular los acontecimientos que nos rodean".

 

Por eso el estudio ha dejado de lado aquellos escenarios en los que no podemos hacer nada como una explosión de rayos gamma, o incluso casos en los que ni siquiera se puede hacer un cálculo como una invasión alienígena.

 

FUENTE: SCIENCEALERT


#asteroide #apocalipsis #ia
Compartir Twittear Compartir