Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Esponi i tuoi dubbi, o semplici curiosità , riguardanti la meteorologia

Moderatore: Moderatore

Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Messaggioda Snowflake » mar 17 nov, 2009 20:37

Riprendo un bellissimo post di Daniele Campello ( da qui ):

I modelli non rappresentato (e non rappresenteranno mai) il valore reale dell’ atmosfera, ma solo una approssimazione. Questo fatto è il motivo principale perché i modelli deterministici sono definiti caotici visto che la loro dinamica è governata da uno strano attrattore. Una delle caratteristiche del sistema caotico è l’apparente impredicibilità delle traiettorie, dovute alla forte sensibilità rispetto alle condizioni iniziali: un piccolo errore di partenza può determinare una grande inesattezza nelle previsioni a lungo termine. Per cercare di calcolare le diverse variabili si utilizza il metodo degli spaghi.
Con la tecnica Ensembles (spaghetti) si prende il primo run elaborato, un cluster “puro”, chiamato anche run di controllo e visualizzato con lo spago blu. Si fa girare più volte il run di controllo (tot corse = tot cluster), variando volutamente un determinato set di condizioni iniziali, inserendo degli “errori”. Il risultato è un ventaglio statistico formato da altri run, che in teoria dovrebbe comprendere la previsione esatta. In poche parole vedendo gli spaghi, sappiamo che all’interno di essi è presente la previsione “giusta”, cosa che sarebbe impossibile determinare osservando un solo run. Tutti i cluster derivano da quello Blu.
Dove le variabili (cluster) sono più vicini, aumenta la possibilità di una buona previsione, mentre le soluzioni isolate invece hanno meno possibilità di riuscita.
La media degli spaghi è visualizzata con il cluster bianco, mentre lo spago rosso è la media trentennale delle temperature a 850hpa.
Il fatto che all’interno degli spaghi ci sia anche il run ufficiale (spago verde chiaro grosso), è un fattore pratico per agevolare il confronto, in realtà il run ufficiale è un modello indipendente, non centra nulla con gli spaghi (che si chiamano GEFS), sono due modelli.

GFS: T382/L64 (0-180 h) che equivale a ad una griglia orizzontale di circa 35 km e a 64 livelli verticali, T190/L64 (180-364 h)
Gli spaghi hanno una risoluzione minore di T126 (circa 80km) estesa oltre le 180h.


il run ufficiale è il migliore dal punto di vista “operazionale”, ha una griglia più dettagliata, ed è stato sviluppato per essere la “punta di diamante” del modello. Tutto ciò che gli gira attorno, altri run o cluster, sono variabili al run di controllo (spago blu).
Il fatto che il run ufficiale non mantenga la stessa visione e “balli” ad ogni uscita, dipende dalle caratteristiche del modello, l’orografia e altre cose, ma soprattutto è un problema di natura deterministica.
Una volta che si impostano i dati di partenza, cioè si compone la griglia (principalmente con dati di back-ground o di “first-guest” utilizzando il metodo dell’optmal interpolation) si procede allo sviluppo del run. A proposito, la differenza tra i vari run 00z, 06z, 12z, 18z in termini di affidabilità è minima, praticamente inesistente grazie al first-guest.
In seguito ottenuta la griglia, tramite le risoluzione delle equazioni di Navier-Stokes, della termodinamica, di continuità, di evoluzione del vapore acqueo, del stato dei gas, di idrostatica ecc… si crea una possibile interpretazione, cioè una visione probabile e non manipolata di quello che succederà.

Metodo first guest e ETBV (Ensemble Transform Bred Vectors)
I migliori GM (global model) in realtà non utilizzano ad ogni corsa come input le misurazioni sinottiche, ma dati di background (metodo first guest), che consiste nel prelevare i dati della corsa precedente, trasformandoli come iniziali. Questo metodo elimina, le differenze di affidabilità tra vari run.
Questi dati di background, vengono confrontati con la stima delle rilevazioni sinottiche, implementate da fattori statistici per comporre la griglia, metodo detto OI (optimal interpolation). Si fa questo per ovviare al problema di fondo, ciò quello dell’impossibilità di coincidere una rete sparsa di stazioni meteorologiche, con dei punti precisi (nodi della griglia della risoluzione modellistica).
Questo procedimento di assimilazione “standard”, tuttavia contiene degli errori di fondo, in quanto non tiene conto dell’instabilità del flusso, ma corregge i valori di first guest con dati statistici cioè costanti (sia nel tempo che nello spazio). Per ovviare a questo problema i maggiori modelli come GFS, utilizzano il Kalman Filter (KF), un procedimento che consente di ottenere un risultato atteso, in un determinato ordine. Tale metodo è adoperato per il filtraggio dei dati, costruito sulla base di una media ragionata tra il prossimo valore predetto e il prossimo valore stimato. In questo modo l’algoritmo offre la stima dello stato più probabile dell’atmosfera, quindi la matrice di covarianza del background non è più determinata statisticamente, ma è anch’essa il risultato del modello (sistema dinamico).
Per questi motivi, è possibile affermare che GFS non presenta run con diversa affidabilità, in quanto non esistono corse deterministiche più o meno ricche di dati sinottici, in base ad orari.
Nelle ENS GEFS si utilizza il metodo chiamato Ensemble Transform Bred Vectors, si adopera un algoritmo simile al filtro di Kalmar, il EnKF (ensemble kalman filter), dove la covarianza del background non viene stimata da un dato, ma da un numero finito di traiettorie non lineari. Tutto questo in modalità esclusivamente random. Quindi non vi è alcuna scelta a priori dei disturbi o errori extra-modellistici da inserire ai dati iniziali (run di controllo). Le stesse perturbazioni sono immesse dal modello in maniera autonoma, sempre con lo scopo di ottenere un ventaglio di possibili soluzioni. Teniamo presente che il run di controllo non è ne migliore ne peggiore rispetto agli altri clusters (lo è rispetto al run ufficiale GFS, che è un altro modello).
Altro metodo usato sui modelli ensemble a corto raggio è il “breeding cycle”… ma qui il discorso si complica…
Snowflake
Avatar utente
Snowflake
Socio sostenitore
 
Messaggi: 6065
Iscritto il: lun 17 mar, 2008 21:37
Località: Brescia loc. Fornaci

Re: Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Messaggioda StefanoBs » mar 17 nov, 2009 21:03

Veramente esaustive queste spiegazioni, chi conosce il filtro di kalman, capisce intuitivamente come viene costruito il modello matematico, veramente molto interessante!
La felicità non consiste nell'angoscioso raggiungimento di un obiettivo, ma nell'attimo in cui si percepisce la grandezza di ciò che già si possiede.
Avatar utente
StefanoBs
Socio fondatore
 
Messaggi: 41898
Iscritto il: ven 29 feb, 2008 19:56
Località: Roncadelle (Bs)

Re: Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Messaggioda Borgo » mar 17 nov, 2009 21:04

Molto interessante grazie per averlo postato!!! :ok:
Avatar utente
Borgo
Direttivo Meteopassione
 
Messaggi: 17602
Iscritto il: sab 17 gen, 2009 22:07
Località: Chiari

Re: Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Messaggioda reghe82 » mar 17 nov, 2009 21:38

Snowflake ha scritto: ...ma qui il discorso si complica…

Azz, mi sento super ignorante... Ho già fatto una fatica bestia a capire qualcosa fin qua, figuriamoci se il discorso si complica...
La prima parte mi è stata molto utile, dopo mi rileggo il resto...
Molto utili questi thread comunque!
:ok:
Avatar utente
reghe82
Socio sostenitore
 
Messaggi: 18254
Iscritto il: ven 13 giu, 2008 21:38
Località: Esine (BS)

Re: Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Messaggioda simone » gio 03 dic, 2009 18:20

Snowflake ha scritto:Riprendo un bellissimo post di Daniele Campello ( da qui ):

I modelli non rappresentato (e non rappresenteranno mai) il valore reale dell’ atmosfera, ma solo una approssimazione. Questo fatto è il motivo principale perché i modelli deterministici sono definiti caotici visto che la loro dinamica è governata da uno strano attrattore. Una delle caratteristiche del sistema caotico è l’apparente impredicibilità delle traiettorie, dovute alla forte sensibilità rispetto alle condizioni iniziali: un piccolo errore di partenza può determinare una grande inesattezza nelle previsioni a lungo termine. Per cercare di calcolare le diverse variabili si utilizza il metodo degli spaghi.
Con la tecnica Ensembles (spaghetti) si prende il primo run elaborato, un cluster “puro”, chiamato anche run di controllo e visualizzato con lo spago blu. Si fa girare più volte il run di controllo (tot corse = tot cluster), variando volutamente un determinato set di condizioni iniziali, inserendo degli “errori”. Il risultato è un ventaglio statistico formato da altri run, che in teoria dovrebbe comprendere la previsione esatta. In poche parole vedendo gli spaghi, sappiamo che all’interno di essi è presente la previsione “giusta”, cosa che sarebbe impossibile determinare osservando un solo run. Tutti i cluster derivano da quello Blu.
Dove le variabili (cluster) sono più vicini, aumenta la possibilità di una buona previsione, mentre le soluzioni isolate invece hanno meno possibilità di riuscita.
La media degli spaghi è visualizzata con il cluster bianco, mentre lo spago rosso è la media trentennale delle temperature a 850hpa.
Il fatto che all’interno degli spaghi ci sia anche il run ufficiale (spago verde chiaro grosso), è un fattore pratico per agevolare il confronto, in realtà il run ufficiale è un modello indipendente, non centra nulla con gli spaghi (che si chiamano GEFS), sono due modelli.

GFS: T382/L64 (0-180 h) che equivale a ad una griglia orizzontale di circa 35 km e a 64 livelli verticali, T190/L64 (180-364 h)
Gli spaghi hanno una risoluzione minore di T126 (circa 80km) estesa oltre le 180h.



il run ufficiale è il migliore dal punto di vista “operazionale”, ha una griglia più dettagliata, ed è stato sviluppato per essere la “punta di diamante” del modello. Tutto ciò che gli gira attorno, altri run o cluster, sono variabili al run di controllo (spago blu).
Il fatto che il run ufficiale non mantenga la stessa visione e “balli” ad ogni uscita, dipende dalle caratteristiche del modello, l’orografia e altre cose, ma soprattutto è un problema di natura deterministica.
Una volta che si impostano i dati di partenza, cioè si compone la griglia (principalmente con dati di back-ground o di “first-guest” utilizzando il metodo dell’optmal interpolation) si procede allo sviluppo del run. A proposito, la differenza tra i vari run 00z, 06z, 12z, 18z in termini di affidabilità è minima, praticamente inesistente grazie al first-guest.
In seguito ottenuta la griglia, tramite le risoluzione delle equazioni di Navier-Stokes, della termodinamica, di continuità, di evoluzione del vapore acqueo, del stato dei gas, di idrostatica ecc… si crea una possibile interpretazione, cioè una visione probabile e non manipolata di quello che succederà.

Metodo first guest e ETBV (Ensemble Transform Bred Vectors)
I migliori GM (global model) in realtà non utilizzano ad ogni corsa come input le misurazioni sinottiche, ma dati di background (metodo first guest), che consiste nel prelevare i dati della corsa precedente, trasformandoli come iniziali. Questo metodo elimina, le differenze di affidabilità tra vari run.
Questi dati di background, vengono confrontati con la stima delle rilevazioni sinottiche, implementate da fattori statistici per comporre la griglia, metodo detto OI (optimal interpolation). Si fa questo per ovviare al problema di fondo, ciò quello dell’impossibilità di coincidere una rete sparsa di stazioni meteorologiche, con dei punti precisi (nodi della griglia della risoluzione modellistica).
Questo procedimento di assimilazione “standard”, tuttavia contiene degli errori di fondo, in quanto non tiene conto dell’instabilità del flusso, ma corregge i valori di first guest con dati statistici cioè costanti (sia nel tempo che nello spazio). Per ovviare a questo problema i maggiori modelli come GFS, utilizzano il Kalman Filter (KF), un procedimento che consente di ottenere un risultato atteso, in un determinato ordine. Tale metodo è adoperato per il filtraggio dei dati, costruito sulla base di una media ragionata tra il prossimo valore predetto e il prossimo valore stimato. In questo modo l’algoritmo offre la stima dello stato più probabile dell’atmosfera, quindi la matrice di covarianza del background non è più determinata statisticamente, ma è anch’essa il risultato del modello (sistema dinamico).
Per questi motivi, è possibile affermare che GFS non presenta run con diversa affidabilità, in quanto non esistono corse deterministiche più o meno ricche di dati sinottici, in base ad orari.
Nelle ENS GEFS si utilizza il metodo chiamato Ensemble Transform Bred Vectors, si adopera un algoritmo simile al filtro di Kalmar, il EnKF (ensemble kalman filter), dove la covarianza del background non viene stimata da un dato, ma da un numero finito di traiettorie non lineari. Tutto questo in modalità esclusivamente random. Quindi non vi è alcuna scelta a priori dei disturbi o errori extra-modellistici da inserire ai dati iniziali (run di controllo). Le stesse perturbazioni sono immesse dal modello in maniera autonoma, sempre con lo scopo di ottenere un ventaglio di possibili soluzioni. Teniamo presente che il run di controllo non è ne migliore ne peggiore rispetto agli altri clusters (lo è rispetto al run ufficiale GFS, che è un altro modello).
Altro metodo usato sui modelli ensemble a corto raggio è il “breeding cycle”… ma qui il discorso si complica…


ho sottolineato 2 punti a cui vorrei aggiungere 2 postille.
il primo ci mostra la risoluzione, nella emissione GFS da 180 a 364 ore la risoluzione dovrebbe essere la medesima degli spaghi ens ossia scadente per quel che riguarda la nostra zona. per quello io non do troppo credito agli spaghi visti solamente nell'analisi delle temperature perchè sarebbero palesemente sbagliati spesso e volentieri a meno che non li guardiamo nel breve termine. la risoluzione 0-180 ore è inferiore a quella di reading anche se ho dubbi sulla predominanza Reading sulla potenza di calcolo(quindi reading miglior orografia forse non supportata da una miglior potenza di calcolo).

sulla seconda postilla che riguarda l'affidabilità, questa non è determinata dai RUN ma dalla variabilità del clima che a volte rende più problematica la previsione di un run rispetto ad un'altro. da quel che so io comunque nella fase di controllo dei dati per la nuova emissione, il run 00 e 06 gode di una maggior mole di dati effettivi da confronto. Ciò non comporta che nelle statistiche abbia un'affidabilità migliore anche se il modello che lavora in maniera identica in tutti i 4 run, ha + parametri di confronto dell'emissione 00 e 06(cosa decisamente curiosa :indeciso: ).
Appassionato di meteorologia
Avatar utente
simone
Socio ordinario
 
Messaggi: 12216
Iscritto il: sab 01 mar, 2008 10:18
Località: palazzolo sull'oglio

Re: Cosa Sta Dietro Le Emissioni GFS & GEFS (spaghetti).

Messaggioda pataste » dom 06 dic, 2009 17:38

molto ben descritto..però devo farne ancora di strada per poter capire il tutto... :boh:
Avatar utente
pataste
Uragano
Uragano
 
Messaggi: 14422
Iscritto il: mer 24 dic, 2008 13:38
Località: Losine (BS)


Torna a Meteoscuola

Chi c’è in linea

Visitano il forum: Nessuno e 2 ospiti