Cada cierto tiempo la cultura
popular nos inunda con narrativas sobre cómo se terminará la vida en la Tierra,
ya sea en libros, comics, películas o charlatanes.
Y aunque, efectivamente, algún día en los próximos 6 mil millones de años el
Sol se expandirá destruyendo a nuestro planeta en el proceso, lo más probable es que la vida, y nosotros
mismos, ya no existamos para ver ese momento.
Entonces ¿qué podría acabar
con nosotros antes de ese momento? Esa es la misma pregunta que se hicieron unos
investigadores de la Fundación sueca para
Retos Global quienes en colaboraron con el Instituto para el Futuro de la Humanidad de la
Universidad de Oxford trabajaron en un reporte
sobre los 12 riesgos globales con el potencial de un “impacto infinito” o
como lo define el autor “impactos que podrían significar el fin de la
civilización o de la vida humana”.
Dentro de estos riesgos
globales se mencionaron cosas como una pandemia global, el colapso ecológico,
la guerra nuclear, el impacto de un asteroide, y el
cambio climático. Los cálculos que intervienen en este tipo de
investigaciones son difíciles, y dependen de tantas incógnitas que no se puede
predecir con absoluta certeza cómo será el fin de la humanidad. Sin embargo, lo
que sí es posible es estimar la probabilidad, que es lo que los investigadores
hicieron mediante la compilación de datos sobre estimaciones ya disponibles
para los próximos 100 años (o 200 años, en el caso del cambio climático).
Según el Informe sobre los
desafíos globales, en los próximos 100 años hay una 1 en 10 posibilidades de
que vayamos a desarrollar sistemas de Inteligencia Artificial (IA) que
podrían deshacerse de la humanidad simplemente porque las IA’s no necesitan
de los seres humanos para prosperar. Aunque este riesgo parezca fácil de
eliminar porque depende netamente de nosotros, no es tan simple: en los últimos
años los expertos en IA también han predicho que una computadora
superinteligente podría resolver más problemas de los que crearía, si jugamos
bien nuestras cartas.
"Esto hace que una IA
extremadamente inteligente sea un riesgo único, en que una extinción es más
probable que otros impactos menores ", afirma
el informe. "En una nota más positiva, una inteligencia de tal poder
puede combatir fácilmente la mayoría de los riesgos en el presente informe, por
lo que una IA extremadamente inteligente es una herramienta de gran
potencial."
Pero hay otros apocalipsis con
un gran potencial. Según
el informe, hay una probabilidad del 5% que en los próximos 100 años, los
humanos seamos eliminados por una pandemia global o una guerra nuclear. Y, si
no hacemos algo al respecto, en los próximos 200 años hay una probabilidad del
5% de que los impactos del cambio climático se encarguen de nosotros.
Por cierto, en el caso de los impactos
de asteroides, la probabilidad es sólo 1 de cada 10.000. Es más probable que un
supervirus mortal nos destruya antes que una roca espacial de 5 km tenga la
oportunidad de hacer un bonito cráter en nuestro planeta.
Al final, como el astrónomo
Phil Plait escribió en
su libro “Death from the Skies”, no vale la pena preocuparse sobre las
cosas que no se puede hacer nada al respecto:
"Parece como si todo el
cosmos estaría tratando de librarse de nosotros. En cierto sentido, así es: hay
peligro en abundancia en el Universo. Pero tenemos que tener una visión
práctica. Tenemos que apreciar la inmensidad del espacio y el tiempo, y nuestra
capacidad para manipular los acontecimientos que nos rodean".
Por eso el estudio ha dejado
de lado aquellos escenarios en los que no podemos hacer nada como una explosión
de rayos gamma, o incluso casos en los que ni siquiera se puede hacer un
cálculo como una invasión alienígena.
FUENTE: SCIENCEALERT