Un filósofo de Oxford avisa: "Hay una posibilidad entre seis de que nos extingamos este siglo"
Toby Ord analiza los riesgos de "colapso de la civilización" mediante un modelo matemático
El investigador cree que "las cosas pueden ponerse mucho peor en términos de pandemias que con la COVID-19"
Teme las amenazas potenciales del diseño de armas biológicas y la inteligencia artificial
El filósofo de la Universidad de Oxford Toby Ord advierte de que "hay una posibilidad entre seis de que nos extingamos en este mismo siglo". El asesor de la Organización Mundial de la Salud (OMS) prefiere evitar el término "apocalipsis" y referirse más bien al "colapso de la civilización".
Según un estudio publicado en su libro 'The Precipice', la posibilidad de que colapse la civilización por causas naturales es mucho menor a los riesgos que supone la mano del hombre. Así, la amenaza de que un asteroide termine con la humanidad es de 1 en 1.000.000, y que lo haga la erupción de un volcán es de 1 en 10.000. Pero, cuando analiza a los riesgos provocados por el hombre, las probabilidades se vuelven más altas: 1 en 1.000 para una guerra nuclear o para el cambio climático; 1 en 30 para una pandemia provocada de forma intencionada; y 1 en 10 para el uso de la inteligencia artificial fuera de control. En su promedio final, afirma que el total de “riesgos existenciales es de 1 en 6”.
MÁS
“Eso también significa que hay cinco posibilidades entre seis de que sobrevivamos como especie”, afirma en una entrevista con 'El Confidencial'. Y sigue con su explicación: “Europa sobrevivió en la Edad Media perdiendo del 25 al 50% de su población en la Peste Negra, lo que podría significar que para desencadenar el colapso de la civilización requeriría más del 50% de mortalidad en todas las regiones del mundo”.
A su juicio, los humanos llevamos decenas de miles de años sobreviviendo a las pandemias, por lo que no cree que “sean una amenaza para la extinción, aunque puedan ser muy devastadoras”. Advierte también de que, “con el aumento de las comunicaciones globales y la superpoblación, las cosas pueden ponerse mucho peor en términos de pandemias que con la COVID-19”. Sin embargo, en su investigación no teme por un virus sino a las amenazas potenciales de grupos terroristas que diseñen armas biológicas, una tecnología que, a diferencia de las armas nucleares, cada vez es más accesible y difícil de rastrear.
“La inteligencia artificial es más peligrosa que las pandemias. Igual que las armas biológicas, la inteligencia artificial puede suponer en los próximos 50 años riesgos nuevos que aún desconocemos y en cuya prevención apenas estamos invirtiendo: la humanidad gasta más cada año en helado que en que prevenir que las nuevas tecnologías no nos destruyan”, afirma con ironía. Y sentencia: “La inteligencia artificial tiene una posibilidad entre 10 de acabar con la humanidad”, porque no hay todavía "una conciencia pública sobre sus riesgos".
La mano del hombre, más temible que la de la naturaleza
El investigador calcula que durante los 2.000 siglos anteriores hubo una posibilidad entre 10.000 de llegar a la catástrofe existencial. La mayoría de ellas relacionadas con riesgos naturales como el impacto de asteroides o la erupción supervolcánica. Ahora esa probabilidad se ha reducido a una entre seis debido a factores influenciados por el hombre. “Es exactamente la misma probabilidad de muerte que tiene la ruleta rusa”, compara.
En su investigación recuerda que solo tenemos unos 200.000 años de existencia, “eso nos convierte en adolescentes, peero los adolescentes no son buenos ordenando las prioridades. No ven más allá de dentro de un rato. Y en este momento la humanidad está actuando de forma tremendamente imprudente con el futuro, como un adolescente, pensando solo en nuestras próximas cinco horas de vida”. "Todos los años tenemos un poco de suerte de no tener una guerra nuclear, un poco de suerte de no tener una pandemia, o un poco de suerte de no tener un incidente de otro tipo. Pero eventualmente, esa suerte acabará”, añade.
En su teoría también hay espacio para buscar soluciones. “Si queremos tener cientos de miles de años de futuro, tenemos que repensar las prioridades. Eso precisa cooperar mejor entre países y reconocer que tenemos un problema y necesitamos más sabiduría”. “Hay que frenar el riesgo en primer lugar. Las amenazas son demasiado grandes y las soluciones individuales no van a evitar el problema, necesitamos invertir más en conocimiento para sobrevivir como especie”, propone. Lejos de ser fatalista, apela a una simple medida de prevención: “No elegir políticos que actúen como adolescentes sería un buen comienzo para garantizar el futuro de la humanidad”.