lunedì 8 agosto 2016

La previsione meteo a scala locale: limiti di predicibilità e gestione dell'incertezza, la connessione con il sistema di allertamento per la mitigazione del rischio idrogeologico e idraulico: analisi di un caso reale

Premessa.

I bravi meteorologi sanno bene che realizzare previsioni del tempo a scala locale è cosa parecchio complicata. E sanno anche, altrettanto bene, che non è possibile avventurarsi molto avanti con la scadenza quando si vuole dettagliare molto la previsione meteo nello spazio e nel tempo. Quanto più, poi, la previsione è, oltre che locale, anche quantitativa e si riferisce a grandezze meteorologiche come la ad esempio la precipitazione o il vento che hanno spiccata variabilità spazio-temporale, tanto più breve dovrà essere la scadenza. Così come se si opera d'estate o d'inverno. In estate la predicibilità è più bassa, spesso la fenomenologia meteo è caratterizzata da eventi temporaleschi e/o in genere da fenomeni a piccola scala (tipo le brezze di mare) che sono poco predicibili.  Nella stragrande maggioranza dei casi, almeno nelle estati abbastanza dinamiche tipo quella di quest'anno, si può pensare a un paio, massimo tre giorni come scadenza massima di previsione a cui si può tendere. Voglio sottolineare questo punto: se si vuole scendere alla scala locale, oltre questo orizzonte temporale la previsione  perde parecchio di qualità e anche di utilità. Questa è una considerazione che deve essere tenuta in conto, dai cittadini, quando ad esempio si accingono a visualizzare i tanti siti meteo disponibili sul web che "offrono" previsioni estremamente localizzate anche a venti giorni, sulle singole località e ora per ora o quasi. Bene, sappiano che quella "roba" li non ha alcun valore scientifico.
Se la previsione è invece molto meno dettagliata e copre aree abbastanza grandi, allora si può avere una maggiore predicibilità. Non sempre ma qualche volta si. Dipende...

Questa incapacità ad andare molto avanti nel tempo di previsione quando si va a scala locale, è collegata al livello di incertezza che cresce via via che si va avanti nel futuro, e diviene poi difficilmente usabile dagli utenti finali, i quali, a loro volta, usano le previsioni come input dei loro processi decisionali, nei diversi settori di attività che li vede coinvolti, dove la previsione meteorologica ha un forte peso. Certamente tra questi settori ha grande rilevanza il segmento "sicurezza" della protezione civile per la mitigazione del rischio idrogeologico e idraulico. Ma queste considerazioni vanno anche bene per gli operatori turistici, per quelli impegnati nella gestione del traffico stradale, aereo e marino, nel settore agricolo….ecc...

Sarebbe molto lungo, e comunque fuori dallo scopo di questa nota divulgativa, spiegare con maggior dettaglio le ragioni fisiche per cui la previsione meteo perde di valore dopo un po' di giorni. Mi ripropongo di trattare questo tema in un prossimo post. O, magari anche meglio, lasciare spazio in questo blog a qualche altro professionista che vorrà farlo. In questa nota vorrei, al contrario, solo mettere in evidenza cosa significhi dover "maneggiare" un sistema complesso come l’Atmosfera, allo scopo di prevedere il tempo a Bologna, o a Milano, o Napoli...e come si debba comunque fare molta attenzione a "gestire" l'incertezza. E' necessario operare con grande umiltà e saggezza, potrei dire, allo scopo di fornire dei prodotti di previsione utili agli utenti.

Per fare questa cosa userò un caso concreto di previsione e far chiarezza, a chi vorrà leggere questa nota, su quali sono le modalità con cui opera un previsore meteo, quali supporti usa, come fa a decidere, ad esempio, quando può emettere un'allerta meteo per tempo avverso in un'area molto ristretta ma con un margine di preavviso comunque utile, gestendo meglio che può tutte le incertezze che caratterizzano il complesso processo previsionale meteo, specie se si scende alla scala dei territori locali, dove vive la gente.

Il caso di studio è rappresentato da questi ultimi giorni di agosto, caratterizzati, in molte aree d'Italia, più o meno dal 4 fino a ieri 7 agosto almeno al Nord (ancora ora il maltempo è presente in certe aree del Sud), da diverse "strisciate" di temporali che hanno colpito parecchie località italiane, e che in certi casi hanno anche provocato allagamenti, cadute di alberi per i temporali, disagi al traffico stradale e marittimo ecc.

Abbiamo letto proprio stamattina della nuova tragedia causata dal maltempo accaduta in Macedonia proprio ieri 7 agosto, dove più di 20 persone sono rimaste uccise a causa degli allagamenti prodotti dall'occorrenza di violentissimi fenomeni temporaleschi, che hanno rilasciato grandi quantità di pioggia in poco tempo. Sono questi eventi che si ripropongono sempre più di frequente, a causa del riscaldamento globale che ha aumentato le condizioni di instabilità verticale dell'atmosfera favorendo quindi la convezione ed anche, in parallelo, a causa della vulnerabilità dei territori cresciuta a dismisura, per colpa di non idoneo uso dei suoli, resi sempre più impermeabili alle piogge, da cementificazioni scriteriate.

E' bene allora diffondere sempre di più conoscenza su queste materie, su come si gestisce questo "rischio", quali strumenti si usano, in questo caso nel "tempo reale". E quindi, in questo contesto, ci sta la previsione meteorologica a scala locale, che è il fondamento primo del sistema di allertamento.

Proprio per dare la massima concretezza alla discussione, farò riferimento esplicito a quanto abbiamo effettivamente svolto presso la sala meteo del Servizio IdroMeteoClima di Arpae dell'Emilia-Romagna (SIMC) in questi ultimi 5-6 giorni, usando una modalità di narrazione al "presente", tipo "diario", raccontando come abbiamo usato i prodotti previsionali che avevamo a disposizione giorno dopo giorno e quali decisioni abbiamo preso fino ad arrivare, il giorno 4 agosto, all'emissione di una allerta meteo per temporali per l' Emilia-Romagna, che ci ha permesso, come tante altre volte, di avvisare per tempo il sistema di protezione civile.


Il "racconto" di questi primi giorni di Agosto 2016. 

Il giorno 2 Agosto iniziamo a renderci conto che avremmo potuto vivere, 4-5 giorni dopo, un week end "movimentato", dal punto di vista meteo, anche nella nostra Regione Emilia-Romagna. Il SIMC è, come noto, Centro Funzionale Decentrato a supporto della Protezione Civile regionale, e ha la responsabilità di "svegliare" per tempo il sistema di allertamento, affinchè sia preparato a rispondere all'eventualità di gestire i rischi indotti da condizioni di forte maltempo.

Il 2 agosto, di mattina presto, abbiamo a disposizione le previsioni modellistiche emesse dai modelli meteorologici (globali e ad area limitata) alle ore 12 di "ieri" 1 agosto, così come quelle emesse alla mezzanotte di "oggi"...Nel corso poi del pomeriggio si rendono disponibili anche le previsioni emesse sempre "oggi" 2 agosto alle ore 12, che ci saranno utili anche domani, la mattina del 3, per una nuova valutazione. Avendo a disposizione tali prodotti modellistici, la prima cosa che facciamo è analizzare la mappa della previsione dell’altezza della superficie isobarica di 500 mbar, che nel seguito chiamerò per semplicità "Z500" (vedi Nota 1 in fondo per capire di che si tratta). In Figura 1 ho rappresentato  le mappe della Z500 previste dal modello del Centro Europeo per le previsioni a Medio Termine di Reading (ECMWF), valide  per il giorno 6 agosto (sabato) alle ore 12, ed  emesse alle ore 12 dei giorni 1 (figura di sinistra) e 2 (figura di destra) di agosto. 

Se si dà un’occhiata a queste mappe, anche chi “non se ne intende” (però si dovrebbe essere letto almeno la Nota 1), credo possa facilmente  rendersi conto che esse si somigliano abbastanza. Ad esempio prevedono sull’Italia una “saccatura” in quota, cioè  un’area di “bassa pressione”. A guardarci un po’ più in fino, però, ci si accorge che esse hanno anche delle differenze. Ad esempio, i “centri” di queste aree di bassa pressione sono spostati tra loro di qualche centinaia di chilometri. La mappa di sinistra (quella prodotta a partire dal 1 agosto) ha il centro del “minimo” di pressione posizionato sul Tirreno, poco ad est della Sardegna. Quella di destra ha il minimo posizionato, più o meno, sulle Marche. Sono appunto poche centinaia di chilometri, che però bastano per  far cambiare parecchi dettagli nella previsione del tempo al suolo…In aggiunta alle mappe di Z500 abbiamo a disposizione altri prodotti modellistici. Ad esempio anche le mappe di pioggia prevista da questo modello di ECMWF. Le possiamo vedere nella Figura 2, qui di seguito...
Beh, certo che con queste due mappe, la cosa "quasi certa" che si può dire è che, in generale, sabato 6 "non sarà un bel giorno". Avremo piogge in Italia, in molte aree...
Se andiamo a cercare di "dettagliare" un po' di più le previsioni, ecco però che, come si dice, casca l'asino...E si, perché con queste mappe a disposizione, il giorno 2 sera (o il 3 mattina presto) un bravo previsore può emettere due diverse previsioni del tempo per l'Italia, ed entrambe valide per il giorno 6 agosto, a seconda se decide di dare più credito alle mappe relative alle corse modellistiche del giorno 1  (quelle di sinistra delle figure 1 e 2) o quelle del giorno 2 (le mappe di destra).  Le chiameremo previsione "Blu"" o "Rossa""

Usando le mappe di sinistra probabilmente può scrivere una cosa del genere (previsione Blu): “per sabato 6 ci possiamo attendere tempo abbastanza perturbato su buona parte della Penisola, fatta eccezione del settore Nord Occidentale (Piemonte e Lombardia occidentale); tempo brutto con piogge diffuse e temporali su Emilia-Romagna (tutta), Veneto e Trentino, Marche, Abruzzo, sulla Sardegna, Toscana, Lazio, Campania, Sicilia e Calabria e, anche forti,  sul Tirreno meridionale…Se invece, lo stesso bravo meteorologo decide di dar credito alle mappe "di destra", può scrivere (previsione Rossa) una cosa un po' diversa: "per sabato 6 ci possiamo attendere tempo abbastanza perturbato sul Settore Centro Sud, il Nord sembra più libero. Forti piogge solo sulla Romagna, le Marche, Abruzzo e le regioni meridionali, ad eccezione della Sardegna, Sicilia e delle aree Tirreniche praticamente senza precipitazioni"

In sostanza, la perturbazione che produce il maltempo il giorno 6, viene per così dire "spostata" più a ovest nella "corsa" del giorno 1, e più a est in quella del 2. Tutto ciò è perfettamente consistente con la struttura del campo di Z500 che abbiamo mostrato. 

Se rileggiamo le previsioni Blu e Rossa  capiamo anche bene, però, che esse sono "poco dettagliate". Si parla di “settori” ampi della penisola, o al massimo di intere Regioni! Non si parla certo della provincia di Ravenna o di Torino o Bologna o Cagliari o Catania, o ancor più in dettaglio, di comuni interni a quelle province…o addirittura di singole località. 
Se proviamo a chiederci "come" sarà il tempo nel nostro territorio dell'Emilia-Romagna (così come se lo facessimo per altre aree...), a scala locale, siamo in difficoltà. C'è parecchia incertezza. Pioverà su tutta la regione, il giorno 6, o solo sulla Romagna? Fino a quando? E saranno intense quelle piogge? Gli scenari quantitativi di pioggia mostrano situazioni diverse...

La domanda che ci chiediamo, il giorno 2 (e anche la mattina del giorno 3) è se i prodotti modellistici ad "area limitata", che ci permettono di "scendere" di scala rispetto a quanto sappiano fare quelli globali, ci possono aiutare a sciogliere un po' di dubbi, da questo punto di vista. Proviamo a guardarli (prima però va data una letta alla Nota 2 che spiega un po' cosa usiamo al SIMC come modelli ad area limitata).

Nella Figura 3 sono rappresentate le mappe/tabelle previste di “probabilità di superamento di una data quantità di precipitazione”, riferite alle 8 aree (A, B, C, D, E, F, G e H) sulle quali noi emettiamo le allerte in Emilia-Romagna e ottenute usando i prodotti di COSMO-LEPS. Le mappe/tabelle sono sempre due: a sinistra quelle calcolate usando la corsa del giorno 1 alle 12 e a destra quella del giorno 2 alle 12, sempre con scadenza centrate su sabato 6 Agosto.

Cosa ci dicono queste mappe/tabelle? Beh, certamente ci sono delle informazioni "in più", rispetto a quelle che ci fornisce il modello globale di ECMWF,  molto rilevanti. Entrambe le "corse" del 1 e 2 agosto intanto ci danno una misura quantitativa importante relativamente alla probabilità di avere piogge elevate, superiori o meno ad una soglia prefissata. Vediamo anche che, più o meno, tutta la Regione sarà colpita. Se ci accontentassimo di questa "scala" spaziale, quella dell'intera Regione, beh allora potremmo anche decidere il 2 sera (o il 3 mattina) mattina di diffondere quanto meno una prima allerta, abbastanza generica, forse di scarsa utilità...
Se però pretendiamo, come per altro ci è richiesto e come è giusto che sia visto il "ruolo" di servizio regionale che abbiamo e con l'obbligo di allertare un territorio limitato cercando di differenziare ove e quando possibile, beh allora le cose sono un po' diverse...e non sembrano facili. Indagando infatti più "in fino", vediamo che le incertezze sulla localizzazione delle piogge intense permangono. Alla scala delle singole aree di allertamento, gli scenari di pioggia sono diversi...e questo certamente non fa calare il nostro livello di incertezza...anzi!

La corsa dell'1 Agosto (mappa di sinistra) per il 6 ci evidenzia che l’area H (la pianura piacentina) della regione è quella dove sembra sussistere una certa probabilità (tra il 10% e 30%) di avere piogge superiori alla soglia di interesse (la linea verticale rossa, pari a 45 mm/24 ore di pioggia areale). Qualcosa si vede anche per le altre aree occidentali (ad esempio l'area F), anche se non si supera la soglia di allerta…Per le aree orientali la probabilità di pioggia sopra quella soglia è assente. Questa evidenza ci autorizzerebbe ad "allertare" quanto meno i Comuni dell'Area H (e forse quelli della F)? Faremmo bene a farlo, con 4 giorni di anticipo?...

Vediamo invece adesso la mappa di destra della figura 3, quella prodotta dalla corsa del 2 agosto alle 12, sempre centrata al 6. Stavolta è l’area A  quella dove sembra esserci una probabilità di pioggia superiore alla soglia fissata, poi segue la B. Il segnale è stavolta molto più debole nelle aree occidentali. Addirittura nelle aree G e H la probabilità è proprio nulla anche per piogge bassissime o addirittura nulle…Che facciamo, allora, allertiamo l'area A, cioè i sindaci romagnoli?....

Ovviamente questa diversità di comportamento  è  perfettamente coerente con i due scenari della Z500 che si discutevano prima, cioè col fatto che la “depressione” che produce questa pioggia è spostata verso “est”, nella corsa del 2 agosto, rispetto a quella del giorno prima. 

Ci rimane il problema: se non ci accontentiamo di restare alla scala dell'intera regione, ma vogliamo scendere almeno a livello dell'area di allertamento (quindi comunque, ed in ogni caso, non certo della singola località!), il problema della decisione ci resta. In sostanza, se si scende a scala locale, la previsione oltre i due-tre giorni, almeno in questa situazione meteo caratterizzata da occorrenza di fenomeni temporaleschi, sembra molto problematica. E non ci  permette di esprimere, anche usando termini probabilistici come si è visto, una previsione quantitativa con il dettaglio spaziale che è “obbligatorio” raggiungere  per ottimizzare, ad esempio, le attività di "risposta al rischio" di un operatore locale, come potrebbe essere un Sindaco di un Comune, che è responsabile, per Legge (!) della sicurezza dei cittadini del suo paese o città.

E' probabile che, attendendo ancora un giorno, si possa dire qualcosa di meglio. Decidiamo, quindi, di attendere...

Arriva allora il giorno 4 agosto, siamo quindi due giorni prima del giorno "target" che ricordo è il 6 agosto. Andiamo a guardare le nuove corse dei modelli, ad esempio quella emessa il 3 agosto, alle 12, e su questa facciamo la riflessione. Possiamo sperare di poter  emettere una previsione di elevato dettaglio spaziale che abbia un margine di incertezza sufficientemente basso e tale da essere comunque utile per l'utente o decisore finale? Ad esempio per permettere alla Protezione Civile di pre-attivare i Volontari e decidere di presidiare più le aree del piacentino che quelle della romagna, o viceversa? E' necessario prendere queste decisioni prima dell'evento, bisogna sottolineare, perchè, se lo facciamo "dopo" che è successo l'evento meteo avverso, magari poi non fanno più a tempo ad intervenire per aiutare le popolazioni, se caso mai fossero colpite dagli effetti di quell'evento...
Bene, guardiamo allora le nuove mappe. Sono rappresentate nelle figure 4 e 5. Nella 4 c’è di nuovo la previsione di Z500 sempre per le ore 12 di sabato 6, emessa stavolta il giorno 3 alle ore 12, da ECMWF. Nella 5 ci sono le probabilità di pioggia sulle 8 aree, prodotte dal sistema COSMO-LEPS.


Beh, la Z500 si direbbe che si assomigli molto a quella emessa il giorno 2, che stava "a destra" nella figura 1, e molto meno a quella emessa il giorno 1. Il centro depressionario è di nuovo localizzato sulle regioni centrali adriatiche. In sostanza il previsore "bravo" potrebbe emettere, oggi, una previsione di scenario di pioggia simile parecchio alla previsione Rossa che poteva fare ieri, usando la corsa emessa il 2 Agosto, per l'Italia. 

E per la nostra regione Emilia-Romagna? Che ci dice COSMO-LEPS?

Se andiamo a guardare la figura 5 vediamo, di nuovo per sabato 6, più o meno le stesse caratteristiche mostrate nella mappa di destra della figura 2: di nuovo le aree “orientali” sono interessate da probabilità di pioggia che comunque stavolta non superano la soglia fissata. In questo caso è l’area B che mostra tra il 10% e il 30% di probabilità di piogge dell’ordine di 30 mm/24 ore, e l’area A che ne mostra un po’ meno (tra il 10% e il 30% di probabilità di piogge dell’ordine di 20mm/24ore). Il segnale in questa nuova “corsa” modellistica è invece assente del tutto nelle restanti aree.


Alla fine, sintetizzando, vediamo che c’è una buona conferma di quanto abbiamo visto ieri, con qualche differenza non banale, con la "corsa" del 2. Dal punto di vista "sinottico", si conferma lo spostamento dell’area di bassa pressione verso est. Siamo molto più confidenti che sabato 6 potrà piovere molto di più a oriente che a occidente. Addirittura ad occidente potrebbe proprio non piovere più, il giorno 6. Il segnale sembra più attenuato, ma le aree di allertamento che potranno essere colpite sono le stesse di quelle che apparivano il giorno 2. Probabilmente avremo precipitazioni solo a carattere temporalesco, rapide e non persistenti, che non produrranno accumuli "areali" importanti, dal momento che si sono abbassati i livelli di probabilità di pioggia per soglie elevate sulle Aree di allertamento. Però questo non impedirà, quasi certamente, l'occorrenza di fenomeni più brevi e limitati spazialmente che avverranno all'interno di quelle Aree, e che potranno produrre acquazzoni localizzati importanti o, addirittura, qualche nubifragio. 

Riteniamo adesso che il margine di incertezza sia comunque più gestibile, e quindi decidiamo di emettere “solo” oggi, 4 agosto, un bollettino di attenzione meteo per attività temporalesca, che avrà appunto le caratteristiche descritte poco fa. Lo rappresentiamo nella prossima Figura 6.


In sostanza prevediamo oggi 4, per domani, 5 Agosto, temporali in transito da ovest verso est e per domani, sabato 6, i temporali li lasciamo solo interessare le aree occidentali. Siamo molto più confidenti di ieri e l'altro ieri, nell'emettere questa previsione, quantitativa e ad area limitata. Allo stesso tempo una previsione così più dettagliata dà informazioni più utili al sistema di Protezione civile: ad esempio per domani, venerdi 5, si farà più attenzione alle aree occidentali della Regione, e sabato 6 a quelle orientali. Questo permette di ottimizzare i mezzi di "risposta", in termini di uomini e mezzi, che chiaramente non sono infiniti e quindi vanno utilizzati con saggezza. Già, la saggezza che si diceva all'inizio...Ma anche...l'umiltà, che è stata quella di non allertare il giorno prima, anche se forse qualcosa si sarebbe potuto dire. Ma sarebbe stata utile con un così basso livello di dettaglio per un operatore che, invece, deve operare localmente?.....La domanda la lascio volontariamente aperta, anche per avere dei feedback dai lettori, se vorranno dire la loro nei commenti...

Certo, non siamo in grado, anche oggi, di dire con certezza che “domani” il quadro non potrà subire qualche piccola ulteriore modifica, soprattutto nella localizzazione ancor più di dettaglio spazio-temporale dei fenomeni convettivi e quindi temporaleschi.

Abbiamo in realtà verificato anche il giorno successivo, il 5. Il quadro non è assolutamente mutato. Quindi la scelta di allertare, ieri 4, si conferma (e si confermerà)  corretta. In ogni caso, attendere poi il 5 agosto, con dei fenomeni già in corso, per allertare sarebbe stato troppo tardi. Non avrebbe avuto tempo, il sistema di protezione civile, per muoversi adeguatamente. Questo è un altro punto essenziale da tenere in conto...

Non è finita qui, ovviamente.

Arriva dunque la mattina del 5: ecco i primi eventi temporaleschi sulle province occidentali della Regione. La previsione è stata corretta....sembra (vedi figura 7). Adesso bisogna monitorare in tempo reale. Rimanere in sala operativa, giorno e notte, e lo faremo fino almeno a sabato pomeriggio-sera quando sembra tutto possa terminare, almeno da noi in Emilia-Romagna. Il monitoraggio lo faremo usando i Radar, le immagini da satellite e i dati al suolo. Questo è quello che si chiama "nowcasting" e si riesce a fare solo 1-2 ore prima del verificarsi dei fenomeni...

Cosa è accaduto, alla fine?

In Figura 7 vediamo la mappa radar nazionale gestita dal Dipartimento di Protezione Civile Nazionale (quadro 7a) che mostra per il 5 mattina, molto presto, l'ingresso delle prime celle temporalesche anche in Emilia-Romagna. I quadri 7b e 7c mostrano le linee temporalesche accadute la mattina del 5 e sabato 6 rispettivamente nei settori occidentali e orientali dell'Emilia-Romagna. Infine nel quadro 7d viene mostrata la pioggia caduta sabato 6 nella Regione, nelle 24 ore.  Si evidenziano massimi inferiori a 30 mm....effettivamente è stato "colpito" solo il settore centro orientale della regione, la previsione è stata dunque estremamente corretta, anche dal punto di vista quantitativo. Si parlava, nell'avviso per temporali emesso il giorno 4,  di occorrenza di temporali in movimento da ovest verso est nei giorni 5 e 6 agosto,  e così è stato.




In sostanza la scelta di allertare il sistema di protezione civile il giorno 4 è stata giusta, pur con i margini di incertezza che sono stati mostrati. L'avviso è stato emesso quando i margini di incertezza sono stati giudicati sufficientemente bassi per permettere l'esecuzione di azioni di mitigazione del rischio, che talvolta sono semplici (es: controllo della pulizia dei "tombini" delle reti fognarie, attenzione ai sottopassi), altre possono essere molto più laboriose (es: chiusura della scuole) e richiedono tempo.

Non va sempre bene così. Va detto e sottolineato, per non creare false certezze. Talvolta il processo decisionale risulta corretto, talvolta si può sbagliare. Ma è necessario che sia noto, come si fa. Affinchè i cittadini sappiano come stanno le cose, nel dettaglio. Magari non comprenderanno i tecnicismi, ma certamente si faranno l'idea che, "dietro" queste cose, ci sono studio e persone che pensano, e non "spingitasti" di computer e basta.

Stabilire "quando" emettere un'allerta meteo, e come, e per quali aree e con quali priorità, per l'occorrenza di fenomeni come i temporali, è una delle scelte più difficili che deve compiere un previsore meteo. Ci sono casi, come ad esempio in estate, in cui il livello di variabilità dell’atmosfera è così elevato che questa decisione si può prendere solo a ridosso dell’evento: solo un giorno prima in molti casi, o anche addirittura solo 6-12 ore prima. Questo accade ad esempio quando non è presente una forzatura meteorologica sinottica a scala grande, più predicibile,  che in qualche modo "alimenta" e guida i fenomeni temporaleschi a piccola scala. In questo caso siamo stati abbastanza facilitati. La forzatura di grande scala esisteva ed era rappresentata dalla presenza di una profonda saccatura nella Z500 che ha alimentato l'ingresso in quota di aria fredda, che è uno dei possibili "motori" che alimentano la formazione delle linee temporalesche.

Il bravo previsore sa quando ci si trova in una situazione di bassa o al contrario di elevata predicibilità….e quindi sa come prendere decisioni del genere. E' in grado di gestire tale incertezza. Si comprende allora bene come la figura del "previsore bravo" sia  pertanto essenziale, insostituibile. Non avrebbe alcun senso un sistema di allertamento "acceso" da procedure totalmente automatiche, guidate da switch interni a codici di calcolo.

E questo fa anche comprendere quanto elevata sia la “responsabilità” di quel previsore, quando decide che è il tempo giusto per emettere un avviso di tempo avverso, sapendo che tale decisione fa scatenare l'intero sistema di allertamento, che può andare in direzioni corrette o sbagliate anche in funzione delle sue scelte...


-----------------------------------------------------------------------------------------
Nota 1: La mappa della superficie isobarica di 500 mbar (la chiamerò Z500 per fare prima): rappresenta come varia nello spazio l’altezza (in metri) della superficie di ugual pressione appunto di 500 "ettoPascal" (hPa) (ricordiamo che 1 millibar = 100 Pascal e che un Pascal è l'unità di misura della pressione.... I meteorologi si ostinano a usare i millibar perché è un po' una tradizione, un po' è comodo...). La pressione atmosferica cala con la quota, come tutti più o meno sanno, e valori di pressione dell'ordine di 500mbar si trovano all’incirca a quote di 5000-5500 metri, nell'Atmosfera terrestre…Uno si può chiedere: ma perché si guarda subito proprio la previsione della Z500? Cosa ha di tanto interessante quella mappa isobarica? La risposta è che la “Zeta a 500-mbar”  rappresenta, per così dire, una specie di comportamento “medio” di tutta l’atmosfera e quindi è comoda perché una sola mappa sintetizza, a grandi linee,  il comportamento del'intera atmosfera tridimensionale.
Le mappe della Z500 presentano delle aree in cui la "pressione" cala e aree in cui invece cresce, e aree in cui è abbastanza livellata. Si dice in gergo che  la Z500, quando ha valori elevati, presenta “promontori” di alta pressione, mentre invece dove ci sono valori più bassi allora si dice che ci sono le “saccature” di bassa pressione. L’altra cosa importante da aggiungere è poi che, sempre per farla semplice, quando in quota c’è un “promontorio”, in corrispondenza “di sotto” (cioè vicino al suolo), in genere il tempo è bello e stabile. Quando invece in quota c’è una “saccatura”, “di sotto” in genere il tempo è al contrario abbastanza brutto, con piogge, magari forti venti ecc.

Nota 2: I modelli ad area limitata (LAM) sono del tutto ai modelli meteorologici globali (GCM), solo che vengono usati su porzioni limitate di territorio. A parità di risorse di calcolo disponibili è evidente che un LAM può essere usato a "risoluzioni orizzontali" molto elevate, e quindi è in grado di prevedere fenomeni meteo anche di scala minore e con più dettagli di quanto facciano i GCM. I GCM e i LAM possono essere usati in modalità "deterministica", facendo  con essi solo una previsione, a partire da una condizione iniziale assegnata, oppure "probabilistica", facendoli andare in parallelo e poi andando a valutare alcuni indici probabilistici deducibili da questi insiemi di previsione. 
Al SIMC usiamo operativamente la modellistica meteorologica "deterministica"  ad area limitata nota come COSMO-LAMI e anche quella "probabilistica" attraverso il modello COSMO-LEPS (I curiosi possono leggere qui e qui di che si tratta....). Questa valutazione  probabilistica  si ottiene elaborando un “insieme” (16 previsioni) di previsioni numeriche (ad esempio di pioggia) che partono tutte da un “insieme di condizioni iniziali equiprobabili”. Da questo insieme di sedici previsioni  possiamo poi dedurre delle “probabilità di occorrenza” di un certo evento meteo. Ad esempio il superamento di una soglia di pioggia, aggregata in un’area come appunto un'area di allertamento. Questo lo si fa dividendo il numero di "membri" dell'insieme delle 16 previsioni in cui si supera la quantità prescritta in una data area (10mm/24 ore, 20mm/24 ore e così via)  per il totale (16) delle previsioni emesse.


lunedì 10 novembre 2014

Vicino, sei online ?



Eppure c’è qualcosa che non mi torna. Qualcosa di non chiaro, non razionalizzato, una sensazione sgradevole che mi dice che le diverse velocità a cui stiamo funzionando non stanno più insieme, divergono.

Arrivo a casa dal lavoro e vedo una macchina funebre di fronte al mio palazzo. Persone vestite  di nero, in completo, segnale inconfondibile di personale che si occupa del “ritiro” delle persone decedute.

Salgo le scale. Una delle porte del primo piano del mio palazzo, sette piani, due scale e quattro appartamenti per piano, è completamente spalancata. Un signore è fuori dall’uscio, guarda in basso. Mentre salgo le scale a piedi, viene alla porta la signora di colore che ci abita: ho sempre pensato che sia una badante anche se l’ho sempre vista sola, ma non sono sicura di chi abita in quell’appartamento. Due anni fa mi sembra di ricordare che ogni tanto incontravo un signore anziano con il bastone. La donna viene alla porta appunto e mentre si avvicina, sento inconfondibile il rumore delle viti che sigillano per una bara. Le dico “mi spiace è morto il Sig. Rossi?”, lei risponde a monosillabi, ma mi fa capire che sì è morto. Le chiedo quando, risponde da due giorni, le faccio le mie condoglianze. Dice grazie. Continuo a salire le scale, con quella tristezza che ci accompagna ogni volta che sentiamo che un’altra persona ha lasciato questa terra..

Ma c’è di più... Questa morte è accompagnata da una triste solitudine, nessuno del palazzo è presente, nessun parente che piange. C’è solo la badante che si muove, come sempre, con un po’ di fatica dovuta alla robustezza...

Due giorni dopo vengo a sapere che a morire era stata la signora Rossi invece, a letto e in carrozzina ormai da qualche anno, mentre il Sig. Rossi era mancato già due anni fa. Il mio sconforto è totale.

Ecco perché non l’ho più visto, ogni tanto lo incontravo in garage... Tanti vicini invisibili, piccole comparse del mio quotidiano, che sommessamente scompaiono. Delle quali non so nulla.

Del resto non si sa più cosa voglia dire essere vicini..

Quattro anni fa, il vicino che abitava sotto il mio appartamento, Sig. Bianchi, anziano e reduce da un ictus di qualche anno prima, mi fa capire parlando che dopo due giorni sarà il suo compleanno.

Il Sig. Bianchi è uno dei pochi vicini con cui interagiamo: all’inizio i rapporti sono stati un po’ tormentati, perché il rumore di mio figlio, delle pulizie, o di qualche invito a pranzo di amici, erano per lui e sua moglie rumori troppo fastidiosi. Nel tempo ci siamo avvicinati. Ed ho apprezzato il fatto che ogni volta che uscivo di casa lo trovavo nel cortile antistante il portone di ingresso del mio palazzo a fare le sue camminate riabilitative. Ogni volta mi fermava, mi ricordava magari il mio rumore, ma chiedeva anche notizie dei miei e dei miei suoceri. Parlavamo dei suoi anni e di come li portava bene.

Per il giorno del suo compleanno io e mio marito decidiamo di fargli unpiccolo regalo, una piccola radio. Tutto sommato è un po’ il “portiere” del palazzo, a chiunque passa chiede chi è, non puoi passare inosservato e questo ci sembra importante. Ma c’è di più : quando sa che mio suocero è mancato gli vengono le lacrime agli occhi... Questa umanità ci sembra vicinanza e passa sopra alle tensioni pregresse.

Dunque andiamo a casa sua dove lo troviamo con la moglie che ci invita ad entrare, gli diamo il regalino, ci trattiene un po’, facendoci vedere una serie di ricordi che ha in casa, sente poco, alziamo il tono della voce e scambiamo qualche parola. Torniamo a casa. Il giorno dopo sentiamo suonare il campanello: il Sig. Bianchi, nonostante si muova molto male in quei giorni, è uscito di casa e ci ha voluto raggiungere. Rimane sull’uscio e ci guarda. Dice: “ io volevo capire, sono anziano e ho dei problemi, ma non sono rimbambito, ma perchè mi avete fatto un regalo? Perché?”

Ecco questo “perché” oggi forse non ha più risposta, oppure la risposta è troppo banale, e poco comprensibile. Perché è un nostro vicino... perché l’abbiamo sentita vicina....

Risposte pericolose... Cosa c’è dietro? Cosa vogliono da me queste persone? Giusta o quantomeno comprensibile diffidenza....

Questi due ricordi mi lasciano un po’ di amaro in bocca. Soprattutto li sento stridere dentro di me, ogni volta che leggo le parole che ci scriviamo in rete, tutti apparentemente connessi, collegati da una rete fatta da sms, mms, facebook, twitter, ecc. ecc. Amici, frasi, immagini e suoni che circolano fra noi, ci piace e non ci piace, condividiamo e pubblichiamo. Tutto on line.... E’ anche bello, ha anche senso, ma quello che mi chiedo è perché i nostri vicini non sono più “on line”?

Silvia.

domenica 12 ottobre 2014

Montessori 2.0


Spesso, quando ascolto mamme o studenti che mi raccontano eventi della nostra scuola penso che abbiamo perso una grande occasione tanti anni fa.

Quando nei primi decenni del 1900 la più grande pedagogista mondiale, Maria Montessori, nata nel 1870 in Italia nelle Marche, ha cercato di diffondere il suo nuovo metodo educativo e didattico nel nostro Paese.

All’inizio c’è anche riuscita. Nel 1907, a San Lorenzo, ha aperto la sua prima “Casa dei bambini”, scuola per bambini da 3 a 6 anni. 

Durante il Fascismo c’è stato almeno all’inizio un certo “sodalizio” tra lei e Mussolini interessato a risolvere il problema dell’analfabetismo con le Case dei Bambini, ma probabilmente anche a trarre vantaggi personale dal prestigio internazione della Montessori. Quest’ultima d’altro canto, sperava di diffondere il suo metodo nel Paese. In effetti nei primi anni del regime nessuno le ha impedito di aprire nuove scuole in tutta la penisola o di tenere i corsi all’estero quando veniva invitata, dato che il suo Metodo aveva riscosso in Europa e in America un grande successo. Nel 1924, ha anche avuto origine la scuola magistrale Montessori e l‘Opera Nazionale Montessori, eletta a Ente morale e volta alla conoscenza , diffusione, attuazione e alla tutela del suo metodo.

Ma forse proprio questa iniziale vicinanza al regime fascista dal quale ci fu poi un graduale allontanamento reciproco fino all’ordine di chiusura di tutte le scuole montessori nel 1934, ha segnato nella storia del nostro paese una parziale e minoritoria adesione al suo metodo. 

Alcuni critici a sinistra l’hanno giudicata di destra per le tante scuole private aperte a suo nome e per le sue amicizie altolocate. D’altra parte in casa idealista non piaceva l’importanza da lei data alla ricerca scientifica, né si apprezzavano le concrete indicazioni per garantire criteri di uguaglianza e non classi basate su giudizi elitari e competizione continua. (http://it.wikipedia.org/wiki/Maria_Montessori)

Così né da destra né da sinistra, nessuno si è appropriato delle sue idee ed in Italia la Montessori, il cui pensiero è riconosciuto e applicato in tutto il mondo, rappresenta una scelta ancora molto piccola e marginale nel panorama educativo e scolastico italiano (pensiamo tanto per intenderci, che in Olanda la metà delle scuole, dall’infanzia alle secondarie, applica il suo metodo).

Maria Montessori parte dallo studio dei bambini con disabilità per poi estendere il suo metodo all’educazione per tutti i bambini.

Qual è l’idea che rende diversa una scuola montessoriana da una scuola tradizionae ? 

E’ quella che il bambino è capace di autoregolarsi, di scegliere quale è la strada giusta per lui, anche un bambino molto piccolo. Un neonato posto da solo sul ventre della madre si muove per arrivare al seno, sa “già” che deve andare verso il seno e succhiare il latte, eppure è appena nato, una tabula rasa secondo alcuni.

Questa capacità autoregolativa deve trovare un contesto favorevole, accogliente, costruito a sua misura, con materiale pensato per soddisfare i suoi bisogni (di cura, movimento, esplorazione, scelta, mettersi alla prova, stabilità, protezione, esattezza, ordine ecc.), bisogni universali che ogni bambino manifesta ovviamente nella sua individualità.

L’ambiente parla al bambino, gli dice cosa può fare, quanti bambini ad esempio possono stare in un certo spazio. I materiali sono diversi, non di plastica, reali, pensati e realizzati per rispondere alle esigenze sensoriali, perché è attraverso i sensi che si apprende : dal concreto, dal mondo reale all’astratto.

Il bambino, come persona, deve poter scegliere quale materiale utilizzare e per quanto tempo. Non è l’adulto che dice tu hai bisogno di questo, adesso facciamo tutti un disegno, leggiamo un libro o giochiamo con i lego o ascoltiamo tutti la lezione di storia. L’adulto fornisce interenti indiretti, è a fianco del bambino e non si sostituisce a lui.

C’è uno studio costante di analisi dell’ambiente e dei materiali proposti, che cambiano quando si vedono nuovi bisogni che emergono, gesti dei bambini che non trovano soddisfazione dal materiale esistente.

I bambini apprendono a concentrarsi e aumentano i tempi di attenzione. La socializzazione non è forzata ma è una libera scelta di ogni bambino. Il lavoro del singolo è rispettato. I materiali vanno usati senza romperli e senza recare danno a sé e agli altri e questa è in fondo l’unica regola delle relazioni nel contesto scolastico. 

L’adulto fa delle presentazioni sull’uso del materiale, breve e individualizzata e poi lascia il bambino libero di usarlo.

Nasce così il piacere di agire e di imparare. Non ci sono voti, né giudizi, non si alza la voce, non si mettono in evidenza gli sbagli.

Secondo la Montessori la libertà non può essere concessa, né donata, va costruita a poco a poco fin dai primi anni con l’esercizio quotidiano della scelta indipendente e dell’auto-correzione.

Scegliere, agire e rimettere a posto fin dal secondo anno di vita, è il primo passo affinché il bambino costruisca indirettamente il senso di responsabilità verso gli altri e l’ambiente.

La motivazione parte dal bambino, è lui che guida: il percorso da fare è facile “segui il bambino”.

A volte qualcuno dice “penso che i bambini abbiano bisogno della competitività e delle frustrazione del mondo...”. Ma in realtà quello di cui hanno bisogno i bambini è la verità, che imparano a non temere se si trovano in un ambiente in cui non spendono le loro energie a difendersi di continuo, in cui possono osservare molto, allenarsi ad autocorreggersi e a non avere paura di giudizi, né di correzioni ingiuste e umilianti (vedi mariovalle.web).

Qualcuno sostiene che Montessori appartenga al passato e che non abbia senso risalire al pensiero di una persona nata alla fine del 1800. Inoltre, alcuni attaccano il metodo montessoriano dicendo che non favorisce la creatività.

Roberto Bonzio in un articolo a sessanta anni dalla morte di Maria Montessori, ripercorre il successo della pedagogista in America: racconta che quando Barbara Walters star della tv Usa chiese agli inventori di Google quanto fosse stato importante per loro aver frequentato la prestigiosa Università di Stanford. Ma Sergei Brin e Larry Page le risposero che più dell’università, per loro era stato determinante l’asilo. E cioè l’esperienza fatta da tutti e due da bambini con il metodo Montessori. Lì avrebbero imparato a “non seguire regole e ordini, essere automotivati, domandarsi che succede nel mondo, fare le cose in modo un po’ diverso.”

La lista degli alunni illustri del metodo è lunga e comprende altre star della New economy come Jeff Bezoz, fondatore di Amazon, Jimmy Walles ideatore di Wikipedia e Will Wright autore del videogame best seller “The Sims”.

Nel suo blog per Forbes, Steve Denning, autorità internazionale nel campo della formazione e della conoscenza ha contrapposto il metodo Montessori fucina di futuri leader, agli schemi tradizionali di insegnamento rigido e mnemonico. Secondo Denning per il futuro della scuola occorre puntare ad un obiettivo principale : stimolare l’apertura mentale che consenta il “Lifelong Learning,” continuare a imparare una volta lasciati i banchi per tutta la vita. (www.chefuturo.it/2012/05/60-anni-fa-moriva-maria-montessori-maestra-di-google-amazon-e-wikipedia)

Due chiavi di lettura importanti per orientare il vento del cambiamento : partire dalla primissima infanzia e cambiare il punto di vista sulla finalità dell’educazione.

Per fortuna ultimamente anche in varie parti d’Italia si sta cominciando a riparlare del pensiero di Maria Montessori: ma il vento del cambiamento in Italia è lento ad attecchire e qualcuno cerca di richiudere subito il “file” dicendo che si tratta solo di una moda, un vento passeggero. Siamo spesso superficiali nell’analisi dei fatti, ancora di più per ciò che attiene l’educazione e la scuola, perché è dominio di tutti e quindi tutti possono esprimere la loro opinione (un po’ come il calcio). Credo che questo sia naturale, ma penso anche che la comprensione della realtà richieda tempo, studio e pazienza affinché si riesca a coglierne i significati ed i nessi più profondi.

Spesso ci si accorge che avevamo liquidato un’idea troppo presto e con facili pregiudizi. Come quando si vede un film più volte, e si riescono a scoprire i significati nascosti ed i dettagli che a una prima occhiata superficiale non avevi neanche immaginato.

Del resto l’approccio dell’ insegnamento tramite le nuove tecnologie sembra ricalcare molti degli assunti di Maria Montessori, ma anche le recenti scoperte delle neuroscienze (come la scoperta dei neuroni specchio) sembrano dare conferma di molte delle intuizioni sul funzionamento del cervello, di quella che è forse la donna italiana più famosa all’estero.

Lanfranco Rosati proprio a proposito delle ultime recenti scoperte scrive che è evidente che “la possibilità di un apprendimento coordinato attraverso i sistemi cerebrali è maggiore durante gli stati emotivi e minore durante quelli non emotivi. È qui che sorge l’esigenza di una didattica non replicante, alternativa alla banalità della lezione di routine, che sia costitutiva, localmente definita a seconda dei bisogni formativi personali” (http://www.morlacchilibri.com/universitypress/).

Così non resta che sperare che il mondo e l’educazione torni sui propri passi a riscoprire pensieri che hanno un secolo ma che sono di una straordinaria modernità.

Silvia.

mercoledì 10 settembre 2014

Lo stato dell’Atmosfera e le previsioni del tempo a breve e lunga scadenza. Analogie e differenze, limiti e opportunità offerte dal mercato del meteo, rispettoso della complessità, non riducibile, della Natura

Se si vuole parlare di “previsione del tempo”, a qualsivoglia scadenza temporale, è necessario capire che questa è “figlia” della previsione dello Stato fisico dell’Atmosfera, sovrastante quantomeno l’area dove si vuole sapere che tempo farà. Ma cosa si intende per “Stato fisico dell’atmosfera”? L'atmosfera è fatta da un miscuglio di gas, e pertanto si "muove" e si modifica in accordo alle fisiche dei gas. Si tratta delle leggi della meccanica e della termodinamica, note da qualche centinaio di anni. Trattandosi di stato "fisico", allora l’atmosfera sarà descritta da grandezze per l’appunto fisiche, tipo la velocità e direzione dei venti, tipo la temperatura o la densita dell’aria o la pressione atmosferica. Quindi l'evoluzione dell’atmosfera, e quindi del tempo meteorologico che ne deriva, è determinata da come evolvono nel tempo e nello spazio queste grandezze, che in gergo si chiamano “variabili di stato”, a partire da specificate “condizioni iniziali”. Come dire che se conosco adesso la pressione atmosferica o la temperatura in un punto e alcune altre grandezze..., posso stimare cosa accadrà in futuro. 


Tali leggi sono scritte in linguaggio “matematico” sotto forma di equazioni differenziali a derivate parziali, non lineari e a coefficienti variabili (questo per essere proprio…precisi), e non sono assolutamente affrontabili e risolubili con “carta e matita”, perché troppo complesse. E’ necessario allora approssimarle e scriverle sotto forma di equazioni algebriche che possono essere “risolte” attraverso l’uso dei potenti computer.  La sostanza della previsione meteo numerica è semplice, in definitiva: se si conosce lo stato iniziale dell’atmosfera in una data area, e questo è possibile attraverso gli strumenti di misura esistenti e di varia tipologia (al suolo, i radar, i radiosondaggi, i dati da satellite, da areo ecc..)  è possibile conoscere, con una certa piccola o grande approssimazione, l’evoluzione futura di tale stato, risolvendo numericamente queste equazioni algebriche, che simulano, per quanto possibile, l’evoluzione dell’atmosfera reale, che è descritta appunto dalle variabili di stato di cui sopra. 


Figura 1: la divisione in “volumetti” dell’atmosfera in

un tipico grigliato tridimensionale usato in un modello globale 
Il problema principale è che prevedere l’evoluzione di un sistema complesso come l’atmosfera è una cosa molto difficile. Prima di tutto perché come è facilmente intuibile, sono tantissimi i “punti” che si devono considerare per capire l’evoluzione futura in un volume di aria che si considera. Sono quindi necessarie delle drastiche semplificazioni per ridurre ad un numero elevato ma finito il numero di variabili di stato, definite su un numero grandissimo ma comunque discreto e finito di punti dove si deve  conoscere l’evoluzione.  In pratica quello che si fa è dividere tale volume di aria in tante cellette o volumetti e risolvere le leggi della Fisica di cui sopra su ognuno di questi volumetti (vedi la figura 1): il volume potrebbe ricoprire tutta la terra, in tal caso di parla di previsioni globali e di modelli globali, o parte di essa, in tal caso si parla di previsioni locali e modelli ad area limitata). Se i volumetti sono di dieci chilometri di lato e uno di altezza, allora ne avremo, ad esempio, diecimila per ogni piano orizzontale (100*100)sovrastante un'area di interesse di un milione di chilometri quadrati (1000*1000). Se di piani orizzontali ne abbiamo dieci in dieci chilometri di altezza di atmosfera, allora ogni volumetto rappresenta un “volume” di aria di cento chilometri cubi (10*10*1) e in totale nel volume di aria complessivo ci sono centomila volumetti. Se lo stato di ogni volumetto è determinato da cinque variabili (le tre componenti della velocità del vento, la temperatura, la densità dell’aria), allora ci saranno ben cinquecentomila variabili da considerare per conoscere lo Stato (attuale e futuro) dell’atmosfera in quel volume totale di 1000x1000x10 chilometri cubi di atmosfera. Con i potenti computer di oggi, fare i “conti” in tempi stretti con questi numeri è un giochetto da ragazzi, solo 25-30 anni fa era invece un sogno che sembrava irraggiungibile (a meno che non si usassero dei “volumetti” di solo 200-300 Km di lato  però in quel caso il realismo della previsione numerica era molto peggiore di oggi. Potenza della scienza e della tecnologia informatica, si potrebbe dire!

Da un punto di vista teorico, per descrivere l’evoluzione dell’atmosfera sovrastante quell’aria serve conoscere l’evoluzione di cinquecentomila variabili di stato…Se volessimo "visualizzare" questa evoluzione in uno spazio cartesiano dovremmo usarne uno con cinquecentomila assi. E in questo spazio a cinquecentomila dimensioni un punto rappresenterebbe lo STATO dell'intero volume di 1000*1000*10 chilometri cubi di atmosfera...La curva che quel punto percorre in quello spazio nel tempo rappresenterà allora l'evoluzione nel tempo di quel volume d'aria, descritto da tutte quelle cinquecentomila variabili.. Difficile da capire? Magari no...
In ogni caso, per far capire meglio il concetto, proviamo a selezionare tra quelle cinquecentomila variabili solo due. In tal modo potremo dare una rappresentazione grafica reale a questa evoluzione....Le due  variabili, tra queste cinquecentomila, potrebbero essere due temperature in due "volumetti" di atmosfera posti abbastanza lontani tra loro all'interno del dominio di interesse. Oppure potremmo prendere due variabili diverse in uno stesso volumetto, che so la temperatura e la componente est-ovest della velocità del vento...Facendo così potremo rappresentare l’evoluzione dello stato "ridotto" attraverso solo queste due variabili in un piano cartesiano avente solo due assi, X1 e X2 (vedi Figura 2), che rappresentano appunto le due variabili di stato selezionato. In tal modo  possiamo rappresentare in modo visivo l’evoluzione dell’atmosfera come appunto una serie successiva di punti in uno spazio a due dimensioni che percorrono una curva che, a partire da un punto iniziale, evolve nel piano disponibile. Ogni “punto” rappresenta lo Stato in un dato giorno, ad esempio.  


Figura 2: La curva nera rappresenta l’evoluzione dello stato osservato dell’atmosfera (qui semplificato da solo due variabili di stato X1 e X2) che parte da uno stato iniziale e evolve nel tempo. Inizialmente lo stato rimane in un regime di anomalia negativa (evidenziata dal cerchio celeste), poi oscilla attorno ad uno stato di anomalia nulla (sta cioè attorno ai valori medi, o normali, cerchio verde) ed infine transita verso uno stato di anomalia positiva (cerchio rosso) per entrambe le variabili di stato.


La curva si sviluppa su un arco temporale di poco più di 100 giorni, in sostanza poco più di una stagione. Un altro piccolo dettaglio di scarso interesse ma che aiuta a capire. Operiamo anche una “normalizzazione” alle nostre due variabili di stato X1 e X2, per renderle prive di dimensione fisica. Per far questo si sottrae ad esse un valore di riferimento  e poi si divide per una grandezza che rappresenta la variabilità di quel valore attorno al suo valor medio, ad esempio la deviazione standard. Dividendo una cosa con dimensione con un’altra cosa con la stessa dimensione, il rapporto che si ottiene NON ha allora più dimensione, e si dice che è un numero “puro”.

In sostanza, in questo grafico, i valori di uno, due o -1 o -2 si devono interpretare come “anomalie normalizzate”. Ad esempio il valore zero significa che in un dato istante il valore rilevato è identico al valore di riferimento. Il valore 1 significa che l’anomalia, positiva, è uguale a 1 deviazione standard, il valore 2 a due deviazioni standard, -1 che è negativa e uguale ad una deviazione standard e così via…

Fatte queste premesse noiose ma necessarie, se adesso guardiamo la curva nera della figura 2, che rappresenta quella che potrebbe essere l’evoluzione “osservata” dell’atmosfera descritta dalle nostre  due variabili di stato (denominate X1 e X2), osserviamo che a partire da un punto iniziale in cui i valori di anomalia  normalizzata sono negativi per entrambe le variabili (siamo cioè in un regime di anomalia negativa, più “freddo” del valor medio se parlassimo di temperature), dopo un po’ di tempo (ogni tacchetta rappresenta un giorno), la variabile 1 si mantiene negativa mentre la 2 diviene positiva, poi entrambe si mettono a “spiraleggiare” attorno allo zero. In sostanza lo stato del sistema, descritto dalle nostre due variabili di stato per semplicità, si muove per un po’ di tempo (più o meno dal giorno 30 al giorno 50), attorno allo zero. Talvolta la variabile 1 è positiva e la due negativa, altre volte capita il contrario. Ma in ogni caso i “valori” sono prossimi allo zero. Chiameremo questo un “regime nella norma”. Successivamente, si verifica una nuova transizione e alla fine (più o meno dal giorno 70 fino alla fine della curva o pochi giorni prima), il sistema si posiziona su un regime di anomalia positiva, dove entrambe le variabili denotano un’anomalia maggiore di zero. Se interpretiamo le due variabili come, ad esempio, la temperatura osservata in due luoghi (o due dei famosi “volumetti” di cui sopra…), potremo intendere questa evoluzione nel modo seguente: si inizia con uno stato in cui in entrambi i luoghi (o volumetti) la temperatura è sotto la media del periodo, poi nel tempo i valori di temperatura crescono, oscillando attorno ai valori della norma per l’uno e l’altro punto, e poi alla fine si transita in un regime “caldo” dove in entrambi i luoghi (o volumetti) la temperatura supera la media.

 Spero che fino a qui sia tutto chiaro.

Adesso ci si poniamo la fatale domanda: come sarebbe in grado di riprodurre un modello di previsione questa evoluzione osservata, rappresentata in figura 2? Ho fatto due esempi: un caso fortunato e un caso  sfortunato, e sono rappresentati nelle figure 3 e 4, poste una sotto l'altra.


Figura 3: L’evoluzione del tempo osservata (la curva  nera della figura 1 riprodotta per comodità) e prevista da un modello di previsione “buono” (la curva rossa). Si vede come in tal caso la previsione inizialmente riproduce bene i valori osservati (nei primi 5-8 giorni), poi la curva della previsione si allontana da quella osservata pur rimanendo quasi sempre attorno allo stesso stato di anomalia dell’osservato. In tal caso, pur non essendo in grado, il modello usato, di riprodurre ovviamente l’evoluzione giornaliera (si noti che la distanza tra previsione e osservazione nei singoli giorni è molto spesso parecchio elevata, dopo il decimo giorno), tuttavia riproduce abbastanza bene le così dette “proprietà statistiche”. In sostanza lo stato previsto sta più o meno sempre nello stesso stato di quello osservato. Il modello è in grado di riprodurre, ovviamente non giorno per giorno, le anomalie osservate



Figura 4: Analoga alla Figura 2 a sinistra. E’ raffigurata l’evoluzione del tempo osservata (la curva nera) e stavolta quella prevista da un modello di previsione “cattivo” (la curva verde). Si vede molto bene come, in tal caso, di nuovo  la previsione inizialmente riproduce bene i valori osservati (nei primi 5-8 giorni), ma poi la curva della previsione si allontana da quella osservata  e non riesce mai a rappresentare i regimi di anomalia osservati, oltre ad essere chiaramente mai, come nel caso precedente, vicina giorno per giorno all’osservato. In tal caso  il modello usato non solo non è in grado, come nel caso precedente, di riprodurre l’evoluzione giornaliera, ma non è neppure in grado di riprodurre le “proprietà statistiche” menzionate prima. In sostanza lo stato previsto risiede sempre in stati diversi da quelli osservati, anche intesi come situazioni “medie”, o regimi. 

I dettagli sono descritti nelle didascalie delle figure, quello che mi preme sottolineare  sono solo alcuni aspetti: prima di tutto  che la previsione meteorologica, intesa come riproduzione deterministica giorno-per-giorno del tempo osservato, è di fatto possibile solo nei primi 5-10 giorni di previsione, successivi alla data da cui ha preso inizio la previsione. Successivamente a tale scadenza temporale, il comportamento essenzialmente caotico dell’atmosfera impedisce, per definizione, la riproduzione “esatta” dell’evoluzione nel tempo, se con il termine “esatto” si intende ad esempio la riproduzione della variabilità giornaliera, giorno-per-giorno. Si nota infatti come la “distanza” (che è una misura dell’errore della previsione) da giorno a giorno,  tra la curva nera (osservato) e rossa (previsto) aumenti al crescere dei giorni di previsione. Queste cose le ha dimostrate un grandissimo della meteorologia mondiale, Edward Lorenz, negli anni ’60, dimostrando appunto come l’atmosfera sia essenzialmente un sistema caotico e deterministicamente non predicibile, dopo un periodo di circa due settimane, in sostanza i nostri 10 giorni, giorno più giorno meno…

Non entrerò nei dettagli del ragionamento di Ed Lorenz, per chi fosse interessato rimando a questa fondamentale lettura  (vedi qui).
Da quanto detto sino ad ora,  non sembra sussistere via d’uscita: fare previsioni di lungo periodo significa solo perdere tempo. Non è così. Cerchiamo di capire meglio cosa voglio dire…

Se guardiamo bene la figura 3, si nota che, almeno in questo caso, la previsione di lungo periodo, pur non essendo certamente MAI in grado di riprodurre i dettagli della variabilità giorno-per-giorno, è tuttavia in grado di “catturare” abbastanza bene i “regimi” in cui l’atmosfera osservata si “posiziona” nel tempo, ed anche  le transizioni tra regime e regime. Ad esempio l’evoluzione da periodi ad anomalia negativa (freddi) a positiva (caldi), la permanenza all’interno di un dato regime (freddo o caldo, per mantenere l’esempio).

Cosa si può concludere, almeno per questo caso che ho chiamato “fortunato”? Si conclude che non sarà mai, sottolineo MAI, ad esempio possibile rappresentare il tempo futuro del giorno X dell’anno Y, partendo da condizioni iniziali di due mesi prima il giorno X, ma tuttavia può essere possibile conoscere con un certo livello di incertezza (diverso da zero ma neppure infinito), se nei due mesi successivi quel giorno X il tempo potrà essere “mediamente” un po’ più anomalo in un senso o nell’altro (più “caldo” o più “freddo”), o magari simile a quello osservato. E più o meno quando potrebbero verificarsi le transizioni da un regime all’altro. Niente più di questo, pero’! Questo sarà tanto più vero quanto più ampie si considereranno le aree geografiche dove si faranno le valutazioni dello stato dell’atmosfera.  Se l’area geografica è quella del singolo “volumetto” di atmosfera  di cui si parlava poco fa, allora sarà abbastanza difficile aver successo. Cioè quella curva prevista difficilmente si terrà tutto sommato abbastanza “vicina” a quella osservata. Mettendo assieme più volumetti e operando una media questo magari potrebbe essere più possibile. Cioè mediando su più “volumetti” il segnale corretto potrebbe anche saltar fuori.


Fosse così sempre, saremmo felici…Ahime, purtroppo questo non accade sempre.
Ci sono molte situazioni (i casi “sfortunati”) in cui questo NON accade. Nel caso (appunto sfortunato) raffigurato nella figura 4, la curva di previsione (curva verde) è sempre lontana da quella nera e non riproduce assolutamente mai non solo la variabilità giorno-per-giorno (come nel caso fortunato precedente) ma neppure i regimi medi osservati. 

Questa diversità di comportamento accade perché le situazioni NON sono tutte ugualmente predicibili, e questo dipende da tanti fattori: la posizione geografica (ad esempio nelle aree tropicali in genere c’è maggiore predicibilità di quelle extra-tropicali), la stagione dell’anno, la situazione meteorologica più o meno evolutiva (situazioni caratterizzate da passaggi continui di cicloni sono meno predicibili di situazioni di tempo bloccato.

Purtroppo è difficile stabilire “in anticipo” in quale di queste fortunate (o sfortunate) situazioni ci si potrà trovare. Talvolta il successo è maggiore in quanto sussistono grandi anomalie globali o emisferiche (tipo l’anomalia diEl Nino – qui i dettagli - che interessa le aree tropicali del Pacifico) o sussistono dei “pattern” di configurazione atmosferica (tipo la North Atlantic Oscillation  (qui: http://it.wikipedia.org/wiki/Oscillazione_Nord_Atlantica i dettagli) che in qualche maniera “forzano” il tempo meteorologico verso situazioni più facilmente predicibili anche nel lungo periodo, soprattutto grazie agli Oceani che hanno una variabilità molto più “lenta” dell’atmosfera, soprattutto in profondità, e quindi mantengono “memoria” anche per diversi mesi in avanti. Ma sarebbe troppo facile se fosse sempre così. Stabilire una regola semplice è molto difficile, addirittura fuorviante.

Non è possibile costruire cioè un modello che ci anticipi in maniera chiara se “saremo” fortunati o sfortunati. Ci possono essere degli indizi, e il meteorologo bravo li deve saper cogliere. E' essenziale quindi che ci sia l'uomo, in questo processo, che non potrà quindi mai essere completamente automatizzabile...Sappiamo ad esempio che se in Europa sussiste un regime di North Atlantic Oscillation (NAO) positiva c’è da attendersi un regime di precipitazioni più basse in tutta l’area del Mediterraneo e maggiore sul Nord Europa, diversamente dalle volte in cui il pattern della NAO è rovesciato. Ma anche in tali casi talvolta non è così.

In ogni caso, e di nuovo lo ri-sottolineo, sia nei casi fortunati che tanto più in quelli sfortunati, NON E’ mai possibile dare indicazioni di dettaglio nel futuro successivo a 10 giorni, tipo prevedere l’esatta configurazione di una struttura di pressione e, ancor di più impossibile, anticipare il tempo meteorologico in una specifica località. Al massimo si può dire qualcosa sul tempo medio, guardando aree abbastanza vaste, e anche così il margine di errore può essere grande. Talvolta molto grande.

Questa conclusione dovrebbe chiarire, spero una volta per tutte, il tema della attendibilità, e prima ancora di questo, della "lettura" che si debba dare alle previsioni di lungo periodo, che non sono "la stessa cosa" delle previsioni a due-tre giorni, come ho cercato di spiegare...E quindi se è perfettamente lecito quantificare in modo esplicito la previsione, ad esempio di temperatura in una località tra 3 giorni, non è assolutamente possibile farlo con previsioni a 15 giorni. Dire che tra quindici giorni, a Bologna o in qualunque altro posto, ci saranno X gradi di temperatura massima è pertanto una reale "bufala":

E’ però evidente che pur non essendo in grado di riprodurre MAI, dopo i famosi primi dieci giorni, l’evoluzione giorno per giorno, ma semmai  solo le transizioni tra regimi di anomalia diversa o magari la permanenza in uno stesso regime, ebbene anche questa limitata potenzialità può essere di grande rilevanza, sia teorica che pratica. Ad esempio, se si pensa a tutte le volte che è necessario pianificare azioni nei diversi settori di attività umane, il sapere anche solo che tra un mese sarà in una data area “un po’ più caldo della media” o “più freddo”, o “più piovoso” o “meno piovoso” del normale, può fare la differenza tra scegliere bene o male. E magari si tratta di azioni che costano grande fatica, soldi e responsabilità da dover prendere. Si pensi ad esempio alle aziende municipalizzate che devono programmare lo stoccaggio del “gas” da riscaldamento, oppure pianificare attività in agricoltura (es: quanta acqua per irrigazione sarà necessaria tra un mese), oppure la pianificazione delle azioni di difesa da alluvioni ecc….

L'obiettivo di questo post era di fare un po' di chiarezza in merito al tema, complesso, delle previsioni meteo. Abbiamo visto che previsioni a 2-3 giorni e previsioni a 3-4 mesi sono cose diverse assai, e quindi la lettura che se ne fa deve necessariamente essere diversa. 
Certamente stiamo trattando un tema complesso...

E allora chiudo questo post con la speranza di aver centrato l'obiettivo di raccontare una cosa complessa in modo da farmi capire. Spero che il lettore si sia fatto un'idea dei limiti delle previsioni che vengono emesse, di quanto complessa sia la Natura, in questo caso l'Atmosfera, che non è predicibile in senso "stretto" oltre i noti (oramai spero...) 10 giorni, ma allo stesso tempo non preclude la possibilità di dire qualcosa dopo questi mitici 10 giorni. Sono cose diverse, è necessario differenziarle, è necessario spiegarle. E alla fine, se si è capito, ebbene questo sarà un tassello in più nella conoscenza delle persone, che potrà solo far del bene.


domenica 4 maggio 2014

A lui crediamo ?


Il vice-presidente della BCE (Vitor Costàncio) ci spiega quali sono state le cause della crisi:


Cito solo un frammento del suo discorso:

<<
It is my contention that the main driver of the crisis was located in the financial sector, particularly banks which intermediated large capital flows towards the periphery, creating imbalances that became unsustainable when a sudden stop occurred following the international crisis and the abrupt revision of price of risk that it entailed.
>>

il resto potete leggerlo anche da soli, se volete.

E trarre le vostre conclusioni.

E decidere come considerare i nostri "politici" che continuano a dirvi che tutti i mali dell'Italia derivano dalla corruzione e dal debito pubblico (ovviamente).

Sandro.

giovedì 27 febbraio 2014

Discorso agli Ateniesi



Qui ad Atene noi facciamo così.

Qui il nostro governo favorisce i molti invece dei pochi: e per questo viene chiamato democrazia.

Qui ad Atene noi facciamo così.

Le leggi qui assicurano una giustizia eguale per tutti nelle loro dispute private, ma noi non ignoriamo mai i meriti dell’eccellenza.

Quando un cittadino si distingue, allora esso sarà, a preferenza di altri, chiamato a servire lo Stato, ma non come un atto di privilegio, come una ricompensa al merito, e la povertà non costituisce un impedimento.

Qui ad Atene noi facciamo così.

La libertà di cui godiamo si estende anche alla vita quotidiana; noi non siamo sospettosi l’uno dell’altro e non infastidiamo mai il nostro prossimo se al nostro prossimo piace vivere a modo suo.

Noi siamo liberi, liberi di vivere proprio come ci piace e tuttavia siamo sempre pronti a fronteggiare qualsiasi pericolo.

Un cittadino ateniese non trascura i pubblici affari quando attende alle proprie faccende private, ma soprattutto non si occupa dei pubblici affari per risolvere le sue questioni private.

Qui ad Atene noi facciamo così.

Ci è stato insegnato di rispettare i magistrati, e ci è stato insegnato anche di rispettare le leggi e di non dimenticare mai che dobbiamo proteggere coloro che ricevono offesa.

E ci è stato anche insegnato di rispettare quelle leggi non scritte che risiedono nell’universale sentimento di ciò che è giusto e di ciò che è buon senso.

Qui ad Atene noi facciamo così.

Un uomo che non si interessa allo Stato noi non lo consideriamo innocuo, ma inutile; e benchè in pochi siano in grado di dare vita ad una politica, beh tutti qui ad Atene siamo in grado di giudicarla.

Noi non consideriamo la discussione come un ostacolo sulla via della democrazia.

Noi crediamo che la felicità sia il frutto della libertà, ma la libertà sia solo il frutto del valore.

Insomma, io proclamo che Atene è la scuola dell’Ellade e che ogni ateniese cresce sviluppando in sé una felice versatilità, la fiducia in se stesso, la prontezza a fronteggiare qualsiasi situazione ed è per questo che la nostra città è aperta al mondo e noi non cacciamo mai uno straniero.
 
Qui ad Atene noi facciamo così.

Pericle, 461 a.C.

domenica 19 gennaio 2014

Cosa dice lo European Systemic Risk Board


Ecco come spiegano la genesi e le cause della crisi a Bruxelles gli alti burocrati dello European Systemic Risk Board (ESBR) cioè il tink-tank che è stato incaricato (quando la crisi era ormai scoppiata e aveva iniziato a provocare le prime vittime, cioè nel 2009) di individuare le cause del disastro e di suggerire tutte le azioni correttive di sistema che possono evitare l'insorgere di nuove crisi in futuro.

Qui trovate il report completo (in italiano):

Provate a leggerlo, è davvero illuminante. Soprattutto se si considera l'autorevolezza e l'ufficialità della fonte.


Riporto per esteso solo un brevissimo estratto dalla introduzione del report, per far capire il tono:

<<


La presente relazione viene pubblicata in un momento in cui il mondo deve far fronte ad una crisi economica e finanziaria di estrema gravità.

L’Unione europea è duramente colpita.

La recessione economica.

L’aumento della disoccupazione.

L’ingente spesa pubblica per stabilizzare il sistema bancario: un debito che graverà sulle generazioni future.

La regolamentazione e la vigilanza in materia finanziaria si sono rivelate troppo deboli o hanno dato gli incentivi sbagliati.

La globalizzazione dei mercati ha accelerato il contagio.

L’opacità e la complessità hanno peggiorato la situazione.

Bisogna correre urgentemente ai ripari.

Occorre intervenire a tutti i livelli, mondiale, europeo e nazionale, e in tutti i settori finanziari. 


>>

non notate una "leggerissima" discrasia con la narrazione della crisi che ci propinano - ogni santo giorno - gli organi ufficiali di propaganda ?

Cioè: 

a noi (popolo bue) dicono che la colpa di tutto è:

il "debito pubblicooooo !!, la corruzioneeee !!... la spesa pubblicaaaa !!......"

e - QUINDI - ci curano a colpi di austerity e fiscal-compact, con tagli alla spesa, espropri del patrimonio pubblico, privatizzazioni, liberalizzazioni, distruzione dello stato sociale...

... mentre pare che la causa della crisi sia un tantino diversa (e lo dice lo European Systemic Risk Board, mica il solito complottista di turno) e sta tutta nella folle deregolamentazione della gigantesca sovrastruttura finanziaria (privata) che governa le economie del mondo e che può fare (ed ha fatto) il bello e il cattivo tempo senza nessun controllo democratico.

Io non riesco davvero più a sopportare questo continuo e sistematico smantellamento della verità e questa totale e asfittica mancanza di dibattito e di consapevolezza.

Non so voi.

Sandro.