Descrivere l’evoluzione dell’atmosfera è qualcosa di scientificamente davvero molto complesso e laborioso. Diversi possono essere i criteri di classificazione delle previsioni, di certo è possibile evidenziare metodologie diverse in base a quanto si possono protrarre nel futuro.
Possiamo individuare delle classi macroscopiche in cui raggruppare le previsioni in base alla loro durata. Abbiamo così le previsioni a brevissimo termine (il nowcasting), le previsioni a medio termine (3-5giorni), le previsioni a lungo termine (10-15 giorni) e le previsioni stagionali (oltre il mese, queste ultime sembrano essere una promessa per il futuro, ma sono ancora piuttosto inaffidabili per l’applicazione sul campo).
In questa sede vogliamo parlare delle previsioni a lungo termine, quelle che nella classificazione di prima esprimono l’evoluzione del tempo fino a 10-15 giorni dal momento dell’ elaborazione. Queste previsioni si ottengono con delle evoluzioni degli stessi modelli che realizzano le previsioni a medio termine. Negli ultimi decenni i modelli hanno conosciuto continui perfezionamenti. Vediamo quindi un breve excursus introduttivo legato al loro significato.
Prevedere il tempo significa “calcolare” il tempo, sviluppando un complesso modello matematico, formato da equazioni differenziali non lineari, che descrive come evolve nel futuro lo stato di parte dello spessore dell’atmosfera che circonda l’intero globo terrestre. Per fare questo si utilizza lo stesso metodo già sviluppato negli anni 20 e poi ripreso a metà del XX secolo con l’introduzione dei computer elettronici, che permettono una rapida soluzione dei numerosi calcoli necessari per arrivare al risultato previsionale.
Vediamo meglio cosa si intende per modello con un semplice esempio: nota la temperatura attuale (a t=0, dove t è il tempo) in un determinato luogo, è possibile conoscerne il valore futuro risolvendo un sistema di equazioni differenziali deterministiche che lega tale valore a quelli futuri per qualunque valore di t. Tali equazioni in realtà collegano tra loro le diverse variabili di stato che compongono la situazione meteorologica. Queste variabili sono ad esempio le componenti vettoriali del vento, la pressione, la temperatura, l’umidità; e non solo nel luogo oggetto di previsione, ma anche nei luoghi adiacenti, meglio se l’intero pianeta e a diverse altezze dal suolo.
La previsione può arrivare ad un tempo t a piacere, semplicemente risolvendo il sistema per tale valore. In base a questa deduzione sarebbe possibile fare previsioni per un tempo senza limite.
Nel 1963 Edwart Norton Lorenz giunge però alla conclusione che questo non è praticamente possibile, in quanto lo spazio delle soluzioni dipende in maniera non lineare dai valori iniziali.
I valori iniziali sono quelli misurati al tempo t=0, e vengono detti in matematica “condizioni iniziali” (se riferite al tempo t) oppure “al contorno” (se oltre al tempo vi sono altre variabili, come quelle spaziali). Poiché ogni misura è affetta da un errore non nullo si ottiene un’indeterminazione dei valori al tempo t=0.
Risolvendo il sistema per valori diversi all’interno dell’intervallo di indeterminazione si ottengono, oltre certi valori di t, dei risultati completamente diversi tra loro, ovvero poco significativi allo scopo previsionale, che deve individuare una sola soluzione.
È la teoria del caos. Per questo motivo le previsioni del tempo non possono protrarsi più in là di pochi giorni.
Oltre alla motivazione prettamente strumentale, ci sono altri motivi ad indurre un errore con cui sono note le condizioni iniziali. Infatti è necessario tradurre il modello continuo in uno discreto per compatibilità con l’ambiente dei computer; ovvero anziché un insieme continuo di valori, le variabili assumono solo dei passi campionati su tali valori. Senza computer non si possono elaborare i numerosi calcoli per risolvere le equazioni, ma i computer vedono solo valori discreti. Quindi il tempo t deve diventare una successione di valori t0,t1,t2 … tn.
Lo spazio viene discretizzato analogamente, per cui l’intero globo oggetto di modellizzazione è ridotto ad una griglia della quale ogni vertice è un punto del modello discreto.
È di ognuno di tali punti che occorre conoscere le condizioni iniziali, ma non è verosimile poter disporre degli strumenti posizionati proprio in tutti tali punti. Pertanto le condizioni iniziali sono affette da errori anche per le complesse operazioni di interpolazione che, a partire dai dati misurati in diverse posizioni del globo, ottengono i valori iniziali nei punti corrispondenti alla griglia del modello.
Così si sopperisce alla mancanza di uno strumento di misura in ogni vertice della griglia. Ma i problemi non sono finiti: gli strumenti sono tra loro eterogenei e possono fornire valori non direttamente confrontabili tra loro, come si vuole invece in un modello globale. Si pensi ad esempio alla temperatura misurata da un pallone sonda, sicuramente più precisa di quella ricavata indirettamente da una misura satellitare. È il complesso problema dell’assimilazione dati.
Tutto questo contribuisce all’errore di misura delle condizioni iniziali e quindi all’affidabilità del modello nel tempo. Negli ultimi anni le previsioni sono sensibilmente migliorate come precisione nel tempo. L’affidabilità che si aveva vent’anni fa per il giorno successivo si può dire di averla ora per il terzo giorno. Sono infatti migliorate le stabilità intrinseche dei modelli, la loro precisione nel simulare la realtà, la precisione stessa dell’assimilazione delle condizioni iniziali.
Ovviamente la transizione al caos è sempre presente, matematicamente ineliminabile. Ma “spostabile”. Ovvero è ancora possibile spostare la transizione al caos più avanti nel tempo, migliorando l’ambiente modellistico.
Occorre notare che tale transizione non è affatto stabile a parità di modello e precisione nelle condizioni iniziali: certe soluzioni sono particolarmente instabili già dopo pochi giorni, altre arrivano ad esempio fino a 15 giorni. Dipende dalla configurazione meteorologica. Se particolarmente stabile e semplice, probabilmente dà soluzioni più affidabili di quanto non possa fare una situazione molto evolutiva (si pensi alle configurazioni estive o invernali, tipicamente stabili anche per mesi, contrapposte alla variabilità delle stagioni di mezzo).
In linguaggio matematico si può dire che esistono degli “attrattori”, oggetti di promettente studio, particolari condizioni che assicurano lunga vita alla stabilità del modello.
Questo sintetico preambolo, che necessita senz’altro di approfondimenti per la comprensione dei modelli meteorologici, ha qui solo una funzione di premessa per parlare dei modelli Ensemble, che rispondono proprio al tentativo di aumentare la stabilità del modello anche per valori di t per cui comincia a essere evidente la dispersione dei risultati su valori molto diversi tra loro, anche di fronte a piccoli cambiamenti nelle condizioni iniziali. Non solo, con Ensemble è possibile ottenere una misura di quanto sia stabile una previsione: è possibile individuare quando nel tempo t una soluzione è ancora precisa e quando invece comincia ad essere soggetta alla dispersione teorizzata da Lorenz.
L’idea è la seguente. Prendiamo un modello globale che individua l’evoluzione del tempo a medio termine, ma consideriamone le soluzioni ad un tempo molto più elevato in cui è probabile la dispersione delle soluzioni, fino a 15 giorni ad esempio. Per saggiare la robustezza della previsione ne vengono calcolate altre, per lo stesso valore di t e nello stesso modo, ma con altre condizioni iniziali, tratte in modo intelligente dalla nuvola di indeterminazione con cui sono note. Se la nuova soluzione è simile alla prima siamo di fronte ad un modello ancora stabile.
Con la tecnica Ensemble è possibile saggiare la stabilità di un modello, ma anche amalgamare le uscite di diversi modelli e individuare un insieme di soluzioni globali basate su diversi sistemi.
Pubblicamente sono diffuse alcune soluzioni dei modelli Ensemble. Queste soluzioni vanno lette con particolare cautela, come di seguito indicato.
Già le soluzioni dei modelli globali poco si prestano a precise predizioni del tempo. Molto meglio a tal proposito i modelli locali (LAM), che lavorano a breve/medio termine su una parte limitata del pianeta utilizzando i modelli globali per la propria inizializzazione. I modelli Ensemble sono una ulteriore semplificazione dei modelli globali di origine, ciò per consentire in un tempo ragionevole i numerosi calcoli necessari per elaborare le diverse soluzioni. Quindi quella che si ottiene è una linea di tendenza ad ampia scala geografica, con scarso rispetto per le particolarità climatiche locali.
I modelli Ensemble sono significativi, al momento, solo per la stima della robustezza di una linea di tendenza a lungo termine, ed in questa chiave è bene leggerli. A tal proposito il CDC (Climate Diagnostic Center) mette a disposizione una completa serie di dati probabilistici sulla bontà delle soluzioni dei propri Ensemble.
Solo con queste considerazioni è possibile parlare di analisi dei risultati.
Negli appuntamenti della rubrica “Analisi Ensemble” possiamo tentare un esperimento di analisi a lungo termine e infine verificare i risultati. Per questo scopo utilizziamo il leggibile modello Ensemble della Wetterzentrale applicato ai GFS dell’NCEP. I risultati di questo modello evidenziano la previsione mediata più probabile, non mancando tuttavia di mostrare tutte le soluzioni, ovvero la robustezza previsionale. Il meteorologo, in base alla propria zona climatica di competenza e alla propria esperienza, può anche provare a dedurre il tempo che davvero può determinare quella linea di tendenza. Anche se saranno sempre i modelli locali a breve termine a quantificare con verosimiglianza gli effetti precisi delle condizioni meteorologiche.
– Fonti e approfondimenti –
Nimbus, numero 29-30 (n°2 – 2003), SMI – www.nimbus.it
CDC – www.cdc.noaa.gov
Wetterzentrale – www.wetterzentrale.de
www.westwind.ch