El Reloj del Juicio Final marca 90 segundos para la medianoche, frente a riesgos nucleares y de la IA

El Reloj del Juicio Final marca 90 segundos para la medianoche, frente a riesgos nucleares y de la IA

La Junta de Ciencia y Seguridad determinó no mover las manecillas del reloj del Juicio Final para el 2024, pero advirtieron que esta decisión no debe ser interpretada como una avance, ya que durante el 2023 los riesgos nucleares aumentaron al punto de estar al borde de una carrera armamentista.

Además, el desarrollo de tecnologías a partir de la IA se encuentra difícilmente controlado de los Gobiernos, mientras que se abre la oportunidad de que sean utilizadas con fines nocivos.  

La Junta de Ciencia y Seguridad del Boletín de Científicos Atómicos mantuvo sin cambios el Reloj del Juicio Final para 2024 y continúa marcando 90 segundos para la medianoche, el mismo tiempo que marcó en 2023. Si bien, las manecillas no avanzaron, los científicos apuntan a que es lo más cercano que la humanidad ha estado de una catástrofe global.

La Junta de científicos atómicos advirtió que durante 2023 el riesgo a una tragedia nuclear aumentó conforme las potencias mundiales Estados Unidos, Rusia y China se dedicaron a incrementar sus arsenales. Entre más volumen de material atómico acumulen, mayor será el riesgo de un accidente o error de cálculo.

El cambio climático continúa encendiendo banderas rojas. De acuerdo con los científicos, 2023 fue el año más caluroso del que se tengan registros y se caracterizó por la presencia de desastres naturales como inundaciones, incendios forestales, huracanes y otros que causaron pérdidas humanas y materiales.

Los avances en ciencias biológicas y otras tecnologías disruptivas avanzaron drásticamente, mientras que los gobiernos a duras penas lograron mantenerlas bajo control.

Los científicos señalaron que la estaticidad de las manecillas no es un síntoma de mejoría, y pidieron a las autoridades que emprendan acciones como si estuviésemos frente al «momento más peligroso de la historia moderna».

«Hoy, una vez más fijamos el Reloj del Juicio Final a 90 segundos para la medianoche porque la humanidad continúa enfrentándose a un nivel de peligro sin precedentes. Nuestra decisión no debe tomarse como una señal de que la situación de seguridad internacional ha mejorado. En cambio, los líderes y ciudadanos de todo el mundo deberían tomar esta declaración como una cruda advertencia y responder con urgencia, como si hoy fuera el momento más peligroso de la historia moderna. Porque bien puede serlo», aseguraron.

AMENAZA NUCLEAR 

Los científicos de la junta calificaron el riesgo nuclear como una amenaza en múltiples dimensiones. La prolongación de la guerra en Ucrania multiplica el riesgo de que Rusia realice un ataque nuclear. Además, el presidente ruso, Vladimir Putin, ha expuesto la posibilidad de que su país suspenda el Nuevo Tratado de Reducción de Armas Estratégicas (Nuevo START).

En octubre, la Duma aprobó retirar la ratificación por parte de Rusia del Tratado de Prohibición Completa de los Ensayos Nucleares, mientras que el Senado estadounidense se ha negado a debatir la ratificación.

Los científicos estiman que podría desencadenarse una carrera armamentista nuclear entre las principales potencias. «Rusia y China están ampliando sus capacidades nucleares y aumenta la presión en Washington para que Estados Unidos responda de la misma manera». advirtieron.

TECNOLOGÍAS FUERA DE CONTROL

La tecnología también tuvo avances riesgosos. El desarrollo de la ingeniería genética evolucionó con el riesgo de que la convergencia de esta tecnología con la Inteligencia Artificial (IA) pueda empoderar a individuos que hagan mal uso de ella.

Los esfuerzos de los Gobiernos han sido muy débiles frente a los riesgos potenciales.  Los científicos destacaron el caso de la orden ejecutiva sobre la «IA Segura y Confiable» , impulsada por el presidente estadounidense, Joe Biden, que a pesar de su buena voluntad no es jurídicamente vinculante.

Los chatbots han implicado un aparente avance en el desarrollo de la IA y los expertos están preocupados por los avances rápidos en este campo, estas preocupaciones incluso distraen de riesgos mayores. Según los científicos, la IA puede llegar a corromper el entorno informativo del que depende la democracia.

Además de estos riesgos, la IA también puede ser utilizada en el desarrollo de armas militares. Los científicos advirtieron que esta tecnología ya es utilizada para ampliar los márgenes de vigilancia y armas autónomas que identifican objetivos sin la intervención humana.

«Las decisiones de poner a la IA en control de importantes sistemas físicos (en particular, las armas nucleares) podrían de hecho representar una amenaza existencial directa para la humanidad» , concluyó la junta.