lunes, 13 de mayo de 2024

Un nuevo algoritmo afectará radicalmente a las predicciones del cambio climático

El aumento del nivel del mar causado por el calentamiento global podría aumentar la probabilidad de tsunamis. (REUTERS)




Un nuevo algoritmo es capaz crear simulaciones del clima de la Tierra diez veces más rápido que los sistemas actuales. Su creador explica cómo funciona



Los modelos climáticos son algunos de los programas informáticos más complejos jamás escritos, capaces de simular una gran cantidad de partes diferentes de todo el sistema, como la atmósfera o el océano. Muchos han sido desarrollados por cientos de científicos durante décadas y constantemente se agregan nuevas cosas y se perfeccionan. Pueden ejecutar más de un millón de líneas de código informático: decenas de miles de páginas impresas.

No es de extrañar que estos modelos sean caros. Las simulaciones llevan tiempo, a menudo varios meses, y los superordenadores en los que se ejecutan los modelos consumen mucha energía. Pero un nuevo algoritmo que he desarrollado promete hacer muchas de estas simulaciones de modelos climáticos diez veces más rápido y, en última instancia, podría ser una herramienta importante en la lucha contra el cambio climático.
Una de las razones por las que el modelado climático lleva tanto tiempo es que algunos de los procesos que se simulan son intrínsecamente lentos. El océano es un buen ejemplo. Se necesitan unos cuantos miles de años para que el agua circule desde la superficie hasta las profundidades del océano y viceversa (por el contrario, la atmósfera tiene un ‘tiempo de mezcla’ de semanas).

Desde que se desarrollaron los primeros modelos climáticos en la década de 1970, los científicos se dieron cuenta de que esto iba a ser un problema. Para utilizar un modelo para simular el cambio climático, se debe partir de condiciones representativas de antes de que la industrialización condujera a la liberación de gases de efecto invernadero a la atmósfera.

Para producir tal equilibrio estable, los científicos aceleran [lo que en inglés denominan spin-up. N del T.) su modelo esencialmente dejándolo funcionar hasta que deje de cambiar (el sistema es tan complejo que, como en el mundo real, siempre estarán presentes algunas fluctuaciones).

Una condición inicial con una ‘deriva’ mínima es esencial para simular con precisión los efectos de los factores provocados por el hombre en el clima. Pero gracias al océano, y a otros componentes lentos, esto puede llevar varios meses, incluso en grandes supercomputadoras. No es de extrañar que los científicos del clima hayan llamado a este cuello de botella uno de los“grandes desafíos” de su campo.


No se puede simplemente dedicar más computadoras al problema

Quizás se pregunte: "¿por qué no utilizar una máquina aún más grande?" Desafortunadamente, no ayudaría. De manera simplista, las supercomputadoras son simplemente miles de chips de computadora individuales, cada uno con docenas de unidades de procesamiento (CPU o núcleos) conectados entre sí a través de una red de alta velocidad.

Una de las maquinas que uso tiene más de 300.000 núcleos y puede realizar casi 20 mil billones de operaciones aritméticas por segundo. (Obviamente, es compartido por cientos de usuarios y cualquier simulación solo utilizará una pequeña fracción de la máquina).

Un modelo climático aprovecha esto subdividiendo la superficie del planeta en regiones más pequeñas (subdominios), y los cálculos para cada región se realizan simultáneamente en una CPU diferente. En principio, cuantos más subdominios tenga, menos tiempo debería tardar en realizar los cálculos.

Eso es cierto hasta cierto punto. El problema es que los diferentes subdominios necesitan saber lo que sucede en los contiguos, lo que requiere transmitir información entre chips. Esto es mucho más lento que la velocidad con la que los chips modernos pueden realizar cálculos aritméticos, lo que los informáticos llaman “limitación de ancho de banda”. (Cualquiera que haya intentado transmitir un vídeo a través de una conexión lenta a internet sabrá lo que eso significa). Por lo tanto, hay rendimientos decrecientes al dedicar más potencia informática al problema. Los modelos oceánicos sufren especialmente de una escala tan deficiente.


Diez veces más rápido

Aquí es donde surge el nuevo algoritmo informático que he desarrollado y publicado en la revista Scientific Advances. Promete reducir drásticamente el spin-up del océano y otros componentes de los modelos del sistema terrestre. En pruebas con modelos climáticos típicos, el algoritmo fue de media unas diez veces más rápido que los enfoques actuales, reduciendo el tiempo de muchos meses a una semana.

El tiempo y la energía que esto podría ahorrar a los científicos del clima son valiosos en sí mismos. Pero poder acelerar modelos rápidamente también significa que los científicos pueden calibrarlos con respecto a lo que sabemos que realmente sucedió en el mundo real, mejorando su precisión o para definir mejor la incertidumbre en sus proyecciones climáticas. Las spin-ups consumen tanto tiempo que actualmente ninguna de ellas es factible.

El nuevo algoritmo también nos permitirá realizar simulaciones con más detalle espacial. Actualmente, los modelos oceánicos normalmente no nos dicen nada sobre características menores a 1º de ancho en longitud y latitud (aproximadamente 110 km en el ecuador). Pero muchos fenómenos críticos en el océano ocurren a escalas mucho más pequeñas (de decenas de metros a unos pocos kilómetros) y una mayor resolución espacial ciertamente conducirá a proyecciones climáticas más precisas, por ejemplo, del aumento del nivel del mar, las marejadas ciclónicas y la intensidad de los huracanes.


Cómo funciona

Como tantos descubrimientos ‘nuevos’, se basa en una vieja idea, en este caso una que se remonta a siglos atrás, hasta el matemático suizo Leonhard Euler. Llamada “aceleración de secuencia”, se puede considerar como el uso de información del pasado para extrapolarla a un futuro “mejor”.

Entre otras aplicaciones, es ampliamente utilizado por químicos y científicos de materiales para calcular la estructura de átomos y moléculas, un problema que ocupa más de la mitad de los recursos de supercomputación del mundo.

La aceleración de secuencia es útil cuando un problema es de naturaleza iterativa, exactamente lo que es spin-up del modelo climático: se alimenta la salida del modelo como entrada al modelo. Y se repite hasta que la salida sea igual a la entrada y haya encontrado su solución de equilibrio.

En la década de 1960, el matemático de Harvard D.G. Anderson se le ocurrió una manera inteligente de combinar múltiples resultados anteriores en una sola entrada para llegar a la solución final con muchas menos repeticiones del procedimiento. Aproximadamente diez veces menos que los que encontré cuando apliqué su esquema al problema del spin-up.

Desarrollar un nuevo algoritmo es la parte fácil. Conseguir que otros lo utilicen suele ser el mayor desafío. Por lo tanto, es prometedor que la Oficina Meteorológica del Reino Unido y otros centros de modelización climática lo estén probando.

El próximo informe del IPCC está previsto para 2029. Parece un largo camino por recorrer, pero dado el tiempo que lleva desarrollar modelos y realizar simulaciones, los preparativos ya están en marcha. Coordinado por una colaboración internacional conocida como Proyecto de intercomparación de modelos acoplados, son estas simulaciones las que formarán la base del informe. Es emocionante pensar que mi algoritmo y mi software podrían contribuir.



Este artículo fue publicado originalmente en The Conversation y traducido para su publicación en Novaceno. Puedes leer el original aquí.