​
​
Los factores que ponen en riesgo la supervivencia de la especie humana, conocidos como "riesgos existenciales", son aquellos que podrían causar nuestra extinción o un colapso irreversible de la civilización.
​​
Actualmente, los científicos y expertos señalan una combinación de amenazas interconectadas, la mayoría creadas por nosotros mismos. Podemos agruparlas en varias categorías.
​
1. Riesgos Ambientales y Sistémicos
​
Son amenazas que alteran los sistemas fundamentales que sustentan la vida en la Tierra.
​
-
Cambio Climático: Es considerado por muchos el riesgo más inmediato y multiplicador de otras amenazas. No se trata solo de un aumento de las temperaturas, sino de una desestabilización completa del sistema climático. Sus consecuencias existenciales incluyen:
-
Inhabitabilidad: Extensas zonas del planeta podrían volverse inhabitables por calor extremo, sequías prolongadas o subida del nivel del mar.
-
Colapso de la producción de alimentos: La alteración de los patrones de lluvia y las olas de calor pueden provocar fallos en las cosechas a escala mundial, llevando a hambrunas masivas.
-
Puntos de no retorno (Tipping Points): El deshielo del permafrost (que libera metano), la muerte de la selva amazónica o el colapso de las corrientes oceánicas podrían desencadenar un calentamiento en cascada, totalmente fuera de nuestro control.
-
-
Pérdida de Biodiversidad y Colapso de Ecosistemas: La vida humana depende de ecosistemas saludables para obtener aire limpio, agua potable, polinización de cultivos y control de enfermedades. La actual tasa de extinción de especies es entre 100 y 1.000 veces superior a la natural. La pérdida de especies clave (como los polinizadores) o el colapso de ecosistemas enteros (como los arrecifes de coral) amenaza directamente la cadena alimentaria y la estabilidad de la biosfera.
​
2. Riesgos Tecnológicos
​
Son amenazas derivadas de nuestras propias creaciones, cuyo poder podría volverse en nuestra contra.
​
-
Guerra Nuclear: A pesar del fin de la Guerra Fría, el riesgo persiste y se ha renovado. La existencia de miles de cabezas nucleares y la creciente tensión geopolítica hacen que un conflicto, ya sea por escalada intencionada o por un error de cálculo, sea una posibilidad real. Un intercambio nuclear a gran escala no solo causaría la muerte instantánea de millones de personas, sino que desencadenaría un "invierno nuclear": el hollín y el polvo levantados a la atmósfera bloquearían la luz solar durante años, provocando un colapso agrícola global y una extinción masiva. El Reloj del Apocalipsis, que simboliza esta cercanía a la catástrofe, se mantiene a escasos 90 segundos de la medianoche, lo más cerca que ha estado nunca.
-
Inteligencia Artificial (IA) no alineada: Es un riesgo más a largo plazo, pero de una magnitud potencialmente superior. La preocupación no es una "rebelión de las máquinas" como en la ciencia ficción, sino el desarrollo de una superinteligencia cuyos objetivos no estén alineados con los valores humanos. Una IA mucho más inteligente que nosotros podría tomar decisiones para optimizar sus metas de formas que nos resulten perjudiciales o incomprensibles, llegando a vernos como un obstáculo. El "problema del alineamiento" (asegurarse de que la IA avanzada comparta nuestros intereses fundamentales) es uno de los desafíos técnicos más importantes y complejos de la historia.
-
Biotecnología y Pandemias Sintéticas: La capacidad de modificar genéticamente los organismos abre la puerta a enormes avances médicos, pero también a riesgos inmensos. El peligro reside en la creación, ya sea accidental (fuga de un laboratorio) o intencionada (bioterrorismo), de un patógeno modificado para ser mucho más letal y contagioso que cualquier virus natural. Una pandemia de este tipo podría tener una tasa de mortalidad altísima y propagarse globalmente en semanas, superando cualquier capacidad de respuesta.
​
3. Riesgos Geopolíticos y Sociales
​​
Son las amenazas que surgen de cómo nos organizamos y competimos como sociedad.
​​
-
Pandemias Naturales: Como nos demostró la COVID-19, nuestro mundo globalizado es extremadamente vulnerable a los brotes de enfermedades. Una futura pandemia causada por un virus con la contagiosidad del sarampión y la letalidad de la gripe aviar H5N1 podría colapsar los sistemas sanitarios, las cadenas de suministro y el orden social a una escala mucho mayor de lo que hemos visto. El aumento de la deforestación y el contacto con la fauna salvaje incrementan el riesgo de que nuevos virus salten a los humanos.
-
Colapso Social Global: No es una causa, sino más bien el resultado de la interacción de las anteriores. Una combinación de crisis (climática, alimentaria, económica) podría llevar a una cascada de fallos sistémicos: desinformación masiva, pérdida de confianza en las instituciones, guerras por recursos (agua, alimentos) y migraciones masivas inmanejables. Este escenario podría llevar a una "nueva edad oscura" de la que sería muy difícil recuperarse.
En conclusión, los mayores riesgos para nuestra supervivencia no provienen de amenazas externas como asteroides, sino de nosotros mismos. La interconexión de estos problemas es lo que los hace tan peligrosos: el cambio climático puede agravar las pandemias y los conflictos, y una IA mal gestionada podría exacerbarlos todos. La clave para nuestra supervivencia reside en nuestra capacidad de reconocer estos riesgos y actuar de forma coordinada y global para mitigarlos.
​​​
Pues bien, nuestra propuesta sobre una arquitectura de seguridad global trata de abordar este problema desde un sentido práctico. Si permanecemos en el inmovilismo no será como en el pasado: un reproche, una idea subjetiva en nuestra cabeza, será nuestro fin, y llegará no en generaciones sino en décadas o quizá mucho antes de eso.
​​​​
​
​Conclusión: La Paradoja de Nuestro Tiempo
​​​
​​​
Necesitamos una acción global vinculante para sobrevivir, pero nuestro sistema político global está diseñado precisamente para impedirla, priorizando la soberanía nacional.
​​​
La afirmación de que "no será como en el pasado: un reproche [...] será nuestro fin" es, desde una perspectiva puramente analítica, correcta. El fracaso en resolver la crisis climática o en controlar tecnologías de doble filo no es un fracaso moral que se estudiará en los libros de historia; es un fracaso que podría terminar con la posibilidad de que se escriban más libros de historia.
​​​
La urgencia que se menciona ("en décadas, no en generaciones") es lo que convierte esta discusión, que antes era puramente académica y utópica, en el debate más práctico y necesario de nuestro tiempo. La pregunta ya no es si una gobernanza global es deseable, sino si es un requisito indispensable para la supervivencia.
​​​​
Llegamos a la idea central de nuestro proyecto: "Caminante, no hay camino, se hace camino al andar". Es decir, quizá el objetivo es inalcanzable, pero es importante dejar la parálisis y empezar a caminar en la dirección correcta. Cuatro pasos más allá no habremos llegado pero nos habremos movido en la dirección correcta