La realidad del tiempo atmosférico a través de los modelos numéricos

Comparte con tus amigos

El avance de la tecnología ha sido acelerado en las últimas décadas y la meteorología no ha estado ajena a ello. Aplicaciones de celulares que te dicen el tiempo para los próximas horas, mejoras en el acierto de los pronósticos, predicción de eventos extremos y más. Todo ha sido posible gracias al enorme avance de la modelación numérica, el aliado número 1 de los meteorólogos alrededor del mundo.

En este artículo vamos a sumergirnos en el mundo de los modelos numéricos del tiempo. Un mundo lleno de matemáticas, computación y líneas y líneas de código. Lo hacemos porque los modelos son una parte muy importante dentro de los sistemas de pronóstico, para la investigación e incluso están en tu celular, en la típica aplicación del tiempo.

Para hablar de modelos y entender de qué se trata esta complicada disciplina dentro de la meteorología, conversamos con el Ingeniero  Civil Industrial mención en Informática, Rodrigo Delgado Urzúa, experto en modelación atmosférica de la Oficina de Modelos y Desarrollo de la Dirección Meteorológica de Chile.

¿De qué estamos hablando cuando decimos Modelos Meteorológicos?

Para comenzar a entender qué son los modelos meteorológicos, Rodrigo Delgado nos explica primero que “un modelo es una simulación de la realidad”, que emplea el conocimiento científico sobre los fenómenos que deseamos representar por medio de esa simulación. “En el caso de los modelos meteorológicos, éstos están pensados para simular el comportamiento de la atmósfera mediante el desarrollo de la matemática que rige la interacción entre el aire, el vapor, la tierra, los aerosoles y demás elementos que son parte de la delgada capa que es la atmósfera”, puntualiza.

Desarrollar modelos no es algo que se haga de la noche a la mañana, requiere mucho esfuerzo multidisciplinario. Al respecto, nuestro experto indica que “el desarrollo de un modelo atmosférico, como el modelo de mesoescala WRF (Weather Research and Forecasting Model), es una labor titánica y generalmente colaborativa. Para ajustar un modelo o proponer una manera de resolver un fenómeno dado, es necesario realizar mediciones y experimentos que permitan confirmar que el enfoque utilizado es el correcto y que permite una adecuada representación de lo que realmente está sucediendo en la atmósfera”.

Los modelos tienen como principal resultado la representación actual, de los próximos días o semanas de las diferentes variables atmosféricas que nos interesan a los meteorólogos. Por ejemplo, en la animación siguiente (figura 1), se aprecia lo que el modelo GFS (Global Forecast System, modelo global estadounidense) -uno de los más utilizados a nivel global-, pronostica para el viento en niveles altos de la tropósfera.

Figura 1. Vientos en altura según el Modelo GFS. Fuente: Earth Null School. Agradecimientos: Rodrigo Padilla.

El tiempo y el espacio en los modelos

Los modelos tienen que dividir y acotar el tiempo y el espacio para poder resolver las ecuaciones bajo ciertos límites, por eso se habla de resolución temporal y espacial. La resolución temporal es cada cuánto tiempo tenemos resultados de la simulación (cada 1 hora, cada 3 horas, etc.) y la resolución espacial es qué tan fina (o detallada) es la división del espacio en cubos de 3 dimensiones (ancho, largo y alto). Los modelos meteorológicos suelen usar grillas o divisiones en kilómetros (cada 3 km, cada 10 km, etc.). De esta forma, las ecuaciones se resuelven, en general, para cada arista de cada cubo tridimensional, en cada tiempo.

Qué tan fino se pueda hacer el modelo dependerá mucho de qué tanta capacidad computacional se tiene y cuáles son los fenómenos que se desean representar. Por ejemplo, si queremos observar torbellinos de polvo, no podemos hacer un modelo que tenga grillas de 5 kilómetros y resolución temporal de 1 hora, porque esos torbellinos son mucho más pequeños y duran sólo unos minutos. En ese caso, el modelo no sería capaz de notarlos.

Y… ¿qué hay de todos esos procesos que ocurren en una escala de tiempo y espacio muy muy pequeña? ¿qué hay de esos procesos físicos microscópicos que son muy importantes, como la formación de gotitas de nube o de lluvia?. Bueno, los modelos no son capaces de resolver esas ecuaciones, pero como son procesos importantes, deben ser representados de alguna manera. Es por ello, que se busca una solución más simple: las famosas parametrizaciones. Estas son aproximaciones de la realidad de todos estos procesos físicos que son demasiado pequeños para los modelos. Esta es una de las principales aproximaciones que tienen los modelos.

Los modelos meteorológicos, aunque han mejorado bastante, todavía no son perfectos.

Hay modelos para cada resolución espacial a representar, desde pocos metros, adecuados para pequeños demonios de polvo, hasta el planeta entero, los que son adecuados para los grandes sistemas y corrientes que regulan nuestra atmósfera como un todo. Asimismo, hay modelos pensados en cubrir desde horas hasta semanas, son los que entregan el pronóstico del tiempo en los teléfonos móviles, y otros que están pensados en cubrir la evolución del clima, es decir, cubren varias decenas de años (hasta centenas de años) y son los que se usan en la predicción del cambio climático.

A “correr” el modelo

Cuando un modelo ya está desarrollado completamente, el paso siguiente es utilizarlo. A eso se le denomina “correr” un modelo. Volvemos a preguntarle a Rodrigo qué implicancias tiene hacer corridas. En este punto, Rodrigo explica que “correr un modelo atmosférico significa obtener información para alimentar, configurar y ejecutar una serie de programas computacionales para obtener los resultados”.

Pero para correr un modelo, se requiere:

  • Definir un área geográfica de interés para poder modelarla, a esto se le llama Dominio. Es importante mencionar que los modelos proyectan la redondez de nuestro planeta en una malla cuadrada, tal como se hace con los mapas que uno ve en los atlas o en Google Maps.
  • Datos que no cambian con el tiempo, tales como: mapas de altura, mapas que incluyan lagos, mares y océanos, entre otros.
  • Datos que sí cambian con el tiempo: presión atmosférica, temperatura, humedad, cobertura de hielo o nieve, temperatura del mar, etc.
  • Configuraciones del modelo, tales como: métodos para simular la radiación solar, la interacción entre el suelo y la atmósfera, etc. (las parametrizaciones).
  • Herramientas para poder convertir los resultados del modelo en información gráfica para el análisis.

Para esto se necesitan grandes computadores. “En Estados Unidos por ejemplo,  corre su modelo global GFS en paralelo en dos gigantescas supercomputadoras ubicadas en Reston y Orlando, con más de 122.000 núcleos para procesamiento y 14.000 TB de almacenamiento. Como referencia, un notebook común tiene 2 ó 4 núcleos para procesamiento y 0,5 TB de almacenamiento”, comentó Rodrigo.

¿Y en Chile?

“La DMC usa actualmente un supercomputador, de nombre Mawen, que tiene 384 núcleos de procesamiento y 80 TB de almacenamiento. Este sistema se usa para poder hacer proyecciones de alta resolución (hasta 2 km.) de corto plazo (hasta 7 días) del tiempo para el país, incluyendo Antártica e Isla de Pascua, estudios de impacto de cambio climático, estudios de casos y simulaciones de calidad del aire, en colaboración con el Ministerio del Medio Ambiente. El sistema de cómputo más grande del país está en el Laboratorio Nacional de Computación de Alto Desempeño (www.NLHPC.cl) de la Universidad de Chile y tiene más de 2.600 núcleos de cómputo”, destacó el experto.

Pronósticos numéricos: Cada vez mejores

El presente de la modelación es prometedor. Por una parte, la revolución tecnológica ha masificado el acceso a recursos de computación a nivel mundial y ha incrementado la capacidad de procesamiento significativamente, “ahora, hay más capacidad que nunca para poder hacer innovación en modelamiento numérico”, resaltó Rodrigo.

Figura 2. Habilidad de los pronósticos del geopotencial en 500 hPa a nivel global con la anticipación de: 3 días (línea azul), 5 días (línea roja) y 7 días (línea amarilla). Mientras más alta la habilidad, más exacto es el pronóstico. Notar como desde la década del 2000, aparece también el pronóstico a 10 días, aunque todavía está bajo el umbral de 50%. Figura representativa del Hemisferio Sur (fuente: Nature).

Hay también más mediciones: las estaciones en superficie se han incrementado, lo que nos permite tener más datos para inicializar de buena manera los modelos, pero los satélites se han vuelto una de las herramientas más importantes, especialmente sobre regiones oceánicas y despobladas, en donde prácticamente no hay mediciones meteorológicas.

Como consecuencia de esto, la habilidad de los modelos ha mejorado con el tiempo de la mano con la mayor cantidad y calidad de las observaciones derivadas de satélites y del desarrollo de mejores técnicas para representar la atmósfera. En la figura 2 se puede ver cómo ha mejorado el acierto en el pronóstico con el correr de los años.

A pesar de todas las mejoras, hay un importante factor que continúa siendo un dolor de cabeza para los pronosticadores: la propagación del error. ¿Han escuchado la frase “el aleteo de una mariposa en Santiago puede provocar un tifón en Tokio”?. En los modelos, si se inician con datos que tienen errores, estos errores pueden crecer con el tiempo hasta generar una perturbación muchas veces mayor al error inicial.

“Este problema es particularmente importante en el pronóstico de corto plazo, puesto que depende en mayor medida de los datos iniciales para obtener un resultado preciso”, afirma Rodrigo.

Veamos un ejemplo. En la figura A, tenemos al lado izquierdo los vientos en niveles medios de la atmósfera sobre Australia y Nueva Zelanda. Si los datos están correctos, varios días después el modelo reproduce una depresión sobre Chile Central y Sur, con la consecuencia de abundantes lluvias en Santiago y Concepción.

Imaginemos ahora un caso hipotético. Los observadores meteorológicos de Nueva Zelanda enviaron – sin quererlo – un radiosonda fallido. Como el radiosonda es uno de los pocos instrumentos que mide datos en toda la troposfera, es un elemnto vital para la inicialización de los modelos meteorológicos. La consecuencia inmediata de este sutil error es que el campo de viento sobre Australia y Nueva Zelanda se vería alterado, tal como se ve en la figura B, en el área de fondo rojo. ¿Qué consecuencias puede traer en el pronóstico la incorporación de este error?

Varias semanas después, un error de medición en un lugar tan alejado como Nueva Zelanda, produce un cambio completo en el pronóstico para Chile. La depresión, que antes se desplazaba sobre la zona central de Chile, ahora se generaría más al sur, y al contrario, apreciamos condiciones anticiclónicas en casi todo el país: Cómo consecuencia, el pronóstico cambió radicalmente y nuestros modelos indican ahora cielos despejados en nuestras principales ciudades.

Por último Rodrigo, ¿en qué se ha estado trabajando en materia de modelos y qué podemos esperar en los próximos años?

“Se ha estado trabajando en que la malla computacional en que se resuelven las ecuaciones no sea una regular (cuadrada, equiespaciada) sino una malla adaptativa, que se vuelva más densa en los lugares donde es más complejo pronosticar, como lo es en la cordillera o en lugares de topografía compleja, como Chile, y menos densa en el océano”. El modelo GFS-FV3 es uno de los pioneros en esta materia.
Por último, “podemos esperar un aumento en las resoluciones de los modelos globales, lo que conllevará una mejora de los pronósticos. De la mano con esto, debido a múltiples campañas de medición y estudios científicos, tendremos mejor conocimiento de los fenómenos que los modelos buscan representar en distintas áreas, tales como los ríos atmosféricos. Cada avance que se produce en ciencias atmosféricas se traduce en mejoras en los modelos, cada avance en medición remota (satélites) permite una mejora en la representación de los fenómenos atmosféricos. Lo mismo sucede con la ampliación de la cobertura de estaciones meteorológicas a nivel mundial, puesto que esos datos van a dar a mejoras en los modelos globales y regionales”.
Los avances en modelación numérica del tiempo se desarrollan lejos de las luces o de las primeras planas, pero es una “revolución silenciosa”, como lo titulara la revista Nature, que ha permitido que la meteorología sea la ciencia que es hoy en día y que los pronósticos sean cada vez más certeros.

 

Escrito por: Diego Campos. Editor: José Vicencio. Periodista: Paz Galindo.

Agradecimientos especiales a Rodrigo Delgado Urzúa, de la Oficina de Modelos y Desarrollo de la Dirección Meteorológica de Chile

 

Información de esta publicación:

Review en revista Nature: “The quiet revolution of numerical weather prediction”, Peter Bauer, Alan Thorpe y Gilbert Bruner. 

Diego Campos

Meteorólogo, Oficina de Servicios Climatológicos

1 Response

  1. Ricardo Abarca Herrera dijo:

    Sin duda es una “revolución silenciosa”, y con mayor razón si lo dice Nature, una de las revistas científicas más prestigiosas del mundo.
    Muy buen artículo.
    Saludos.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *