Aumento delle temperature ma inverni più rigidi

inverni-rigidiSembra un controsenso ma è proprio così: il surriscaldamento globale causa un aumento delle temperature in tutto il pianeta, incluse le zone più fredde, il che ha come conseguenza inevitabile lo scioglimento di ghiacci.

L’effetto di questo scioglimento potrebbe causare ondate di neve e di gelo in tutta l’Europa così come già successe l’inverno scorso dove anche in Italia, ad esempio, ci sono stati episodi di innevamento in zone per cui la neve è evento molto eccezionale.

Già come successe nel 2007 e nel 2011, anche quest’anno  il freddo si annuncia con temperature da record in tutta Europa.

Jennifer Francis, uno dei ricercatori della Rutger University, dichiarava già dopo l’estate caldissima che le previsioni per l’inverno prospettavano temperature estremamente rigide, proprio basandosi sul record nello scioglimento dei ghiacciai raggiunto questa estate.

Secondo Mark Serreze, il direttore del National Snow and Ice Data Centre che si trova in Colorado, lo scioglimento dei ghiacci di quest’anno ha superato il livello record che era stato raggiunto nel 2007: l’area interessata allo scioglimento ha una estensione paragonabile all’intera superficie del Texas.

Un nuovo record inaspettato anche per i ricercatori che si occupano dei ghiacci e delle nevi, che non si attendevano un ulteriore record a distanza di così pochi anni.

Le temperature invernali faranno di nuovo ghiacciare ed il calore dell’acqua sarà rilasciato nell’atmosfera, influenzando, assieme al vapore acqueo, le correnti che fungono da confine fra le zone del freddo artico e le zone temperate. Lo spostamento di  queste correnti  verso nord avvenuto negli ultimi anni, fa si che i fenomeni metereologici tendano a rallentare ed a durare di più, causando grandi sbalzi di temperatura ed un numero sempre maggiore di eventi estremi.

Morena Lolli
25 dicembre 2012

Il caldo record è conseguenza del riscaldamento globale

riscaldamento-globaleLe escursioni di temperatura sempre più ampie che si verificano nelle zone temperate del pianeta da un decennio a questa parte sono diretta conseguenza del riscaldamento globale dovuto alle immissioni di CO2 extra nell’atmosfera.

Il recente studio della Nasa effettuato dopo che la gravissima siccità del 2012 ha messo in ginocchio grande parte degli Sati Uniti e delle grosse aziende di produzione alimentare, in particolare la Corn Belt, che vende grano e mais in tutto il mondo, ha evidenziato che questo è solo uno degli eventi catastrofici che il riscaldamento globale sta causando in tutto il pianeta.

Stando allo studio della Nasa, le probabilità di avere temperature eccessive erano, tra il 1950 ed il 1980, una sola su 300, mentre oggi le ondate di calore hanno una probabilità su 10 di verificarsi.

Lo scienziato della Nasa James Hansen ha dichiarato in una intervista all’ Associated Press che non si tratta oramai più di una teoria scientifica: quello a cui stiamo assistendo è un dato scientifico, un fatto oramai comprovato.

Secondo lo studio del professor Hansen, ricercatore al Goddard Institute for Space Studies della Nasa, a New York, che è stato pubblicato online nei Proceedings della National Academy of Science, le tre grandi e disastrose ondate di calore che si sono verificate dal 2003 ad oggi sono direttamente imputabili proprio al riscaldamento globale.

Siccità ed incendi in America ed in Russia e caldo record in Europa gli eventi che lo studio di Hansen collegava strettamente ai cambiamenti climatici.

Non solo: il modello matematico messo a punto dal professore, prevedeva anche per il 2102 una grave ondata di caldo con conseguente grave siccità negli USA.

Siccità che si è puntualmente presentata e che, ancora adesso, continua ad affliggere il 60 % del territorio degli Stati Uniti.

Morena Lolli
23 dicembre 2012

Biomassa tracciabile, biomassa di qualità

biomasseIn previsione della nascita degli impianti funzionanti a biomassa, diventa di fondamentale importanza la tracciabilità della biomassa.

La sostenibilità o gli eventuali effetti sulla salute dell’uomo sono infatti strettamente collegati alla composizione della biomassa stessa. Il Cnr Ivalsa di San Michele all’Adige ha ideato un innovativo sistema di controllo per la tracciabilità di cui sta lavorando alla messa a punto con un progetto dal nome “BiQueen-Biomasse di qualità”.

L’innovativo metodo è basato sulla spettroscopia e sui raggi X  ed è il risultato di circa due anni di ricerche condotte dall’Istituto per la Valorizzazione del legno e delle specie arboree del CNR, in collaborazione con l’Istituto dei materiali per l’elettronica ed il magnetismo del CNR, la Fondazione Bruno Kessler, il Distretto Tecnologico Trentino (Habitech), l’Università di Poznan e l’Università di Trento.

Lo studio ha messo in luce che circa il 16% di tutti i materiali a base di legno risulta contaminato da elementi oltre la soglia dei livelli massimi accettabili. Gli elementi contaminanti sono il cadmio, il cloro, il cromo, il mercurio, il piombo ed il rame.

Il 16 % del materiale legnoso non risulta quindi idoneo ad essere utilizzato come biomassa in quanto non conforme alla direttiva CE 894 del 2009 che stabilisce le soglie massime degli elementi in questione, ma il monitoraggio delle ceneri eseguito dopo aver fatto combustioni sperimentali, eseguito utilizzando la  spettroscopia del medio infrarosso (Ft-Ir) e la fluorescenza a raggi X (Ed-Xfr) ha mostrato l’assenza dei materiali contaminanti.

L’utilizzo della spettroscopia a infrarosso permette quindi di controllare i flussi di biomassa boschiva senza ricorre alla chimica tradizionale, è veloce, non distruttiva e soprattutto si tratta di una metodologia che può essere utilizzata in larga scala ed è applicabile al mercato.

Morena Lolli
21 dicembre 2012

Biomassa tracciabile, biomassa di qualità

In previsione della nascita degli impianti funzionanti a biomassa, diventa di fondamentale importanza la tracciabilità della biomassa.

La sostenibilità o gli eventuali effetti sulla salute dell’uomo sono infatti strettamente collegati alla composizione della biomassa stessa. Il Cnr Ivalsa di San Michele all’Adige ha ideato un innovativo sistema di controllo per la tracciabilità di cui sta lavorando alla messa a punto con un progetto dal nome “BiQueen-Biomasse di qualità”.

L’innovativo metodo è basato sulla spettroscopia e sui raggi X  ed è il risultato di circa due anni di ricerche condotte dall’ Istituto per la Valorizzazione del legno e delle specie arboree del CNR, in collaborazione con l’ Istituto dei materiali per l’elettronica ed il magnetismo del CNR, la Fondazione Bruno Kessler, il Distretto Tecnologico Trentino (Habitech), l’Università di Poznan e l’Università di Trento.

Lo studio ha messo in luce che circa il 16 % di tutti i materiali a base di legno risulta contaminato da elementi oltre la soglia dei livelli massimi accettabili. Gli elementi contaminanti sono il cadmio, il cloro, il cromo, il mercurio, il piombo ed il rame.

Il 16 % del materiale legnoso non risulta quindi idoneo ad essere utilizzato come biomassa in quanto non conforme alla direttiva CE 894 del 2009 che stabilisce le soglie massime degli elementi in questione, ma il monitoraggio delle ceneri eseguito dopo aver fatto combustioni sperimentali, eseguito utilizzando la  spettroscopia del medio infrarosso (Ft-Ir) e la fluorescenza a raggi X (Ed-Xfr) ha mostrato l’assenza dei materiali contaminanti.

L’utilizzo della spettroscopia a infrarosso permette quindi di controllare i flussi di biomassa boschiva senza ricorre alla chimica tradizionale, è veloce, non distruttiva e soprattutto si tratta di una metodologia che può essere utilizzata in larga scala ed è applicabile al mercato.

Rischio incendi in Amazzonia

incendio-amazzioniaNon basta il traffico illecito di legname, non bastano le deforestazioni dolose, il polmone verde della terra deve fare i conti anche con la siccità ed un aumentato rischio di incendi dovuti anche ad attività umane non dolose.

Molte zone della foresta amazzonica sono state, in questi anni, forzatamente trasformate in aziende agricole con pascoli e foreste di seconda crescita.

Il movimento di persone negli ultimi decenni era andato verso l’interno della foresta che veniva spesso disboscata per fare posto a zone coltivabili. Sono aumentate, parallelamente, anche le strade, che hanno portato un ulteriore aumento del disboscamento.

Ora invece,  il movimento delle persone tende ad essere di allontanamento dalle zone agricole, uno spostamento dovuto alle migliori possibilità economiche offerte dalle città che sono in forte espansione.

E’ questo progressivo abbandono delle aree rurali, con conseguente aumento vertiginoso delle reti stradali, che unito alla siccità causa un aumento degli incendi che stanno devastando molte aree.

Uno studio, svolto con particolare attenzione alla parte di foresta amazzonica che si trova in Perù, non è che uno dei tanti a mettere di nuovo il dito sulla piaga: la deforestazione, anche dolosa, fatta per coltivare d il successivo sfruttamento del suolo  hanno lasciato queste zone impoverite anche dal punto di vista idrico il che, unito all’aumento della temperatura dovuto ai cambiamenti climatici, porta ora, a seguito dell’abbandono delle campagne, un aumentato rischio di incendi i cui focolai potrebbero appunto essere le campagne abbandonate, inaridite e ulteriormente dissestate dall’enorme numero di vie di trasporto che stanno crescendo, isolando le parti di foresta.

Dopo il disboscamento doloso fatto per creare zone coltivate, con l’abbandono delle campagne si pensava che il numero di incendi dovesse diminuire. In realtà non è affatto quello che sta succedendo: il terreno, impoverito dalle numerose bruciature dolose, non riesce a proteggersi adeguatamente e le campagne spopolate implicano anche un minor controllo degli incendi che, una volta partiti, si diffondono sugli appezzamenti incolti prendendo vigore e diventando così più pericolosi.

Morena Lolli
18 dicembre 2012

Entro il 2030 le energie rinnovabili potrebbero sopperire al 99,9% del fabbisogno di energia elettrica

eolicheIl nuovo studio effettuato dalla Università di Delaware e dal Delaware Technical Community College ha evidenziato che, se ben progettata, una combinazione di energie eolica ed energia solare potrebbe, con l’ausilio dello stoccaggio energetico in batterie a celle, soddisfare quasi completamente o addirittura superare il fabbisogno energetico senza comportare un aumento dei costi.

Il problema dei costi è infatti da tempo, il primo e più grave ostacolo alla diffusione ed utilizzo delle energie alternative.

La chiave sta, secondo il co-autore dello studio Willett Kempton, nel trovare il giusto equilibrio tra le diverse fonti di energia, lo stoccaggio ed i relativi costi, anche a fronte di nuove e meno costose tecnologie per la trasformazione e lo stoccaggio.

Lo studio si basa su un modello virtuale che ha permesso di simulare 28 miliardi di possibili combinazioni fra le diverse fonti energetiche ed i diversi meccanismi di stoccaggio possibili.  All’interno di questa simulazione, sono stati impostati parametri e limiti volti a favorire e verificare quali siano le possibili combinazioni che, al minor costo possibile, potrebbero essere in grado di sopperire ai reali fabbisogni energetici che, ovviamente, variano sia durante l’arco delle 24 ore, sia nei diversi giorni della settimana.

Per poter verificare la sostenibilità economica e tecnica delle combinazioni, la simulazione è stata infatti eseguita integrando i dati, reali, della rete regionale di distribuzione elettrica chiamata Interconnession PJM, che con i suoi 13 Stati, rappresenta circa un quinto della distribuzione di energia elettrica degli Stati Uniti.

I costi dello stoccaggio restano infatti il problema chiave per l’utilizzo delle rinnovabili e questo modello ha permesso di verificare che, ad esempio, è più conveniente avere una produrre di energia tale da risultare, per alcune fasce orarie, in eccesso, piuttosto che immagazzinare  energia in sovrabbondanza per sopperire, ad esempio, ad una scarsità di vento.

Meglio quindi avere, ad esempio, una quantità di pale eoliche tale da produrre energia in sovrabbondanza per grande parte del tempo, piuttosto che immagazzinare energia per sopperire alle fasce orarie con più richiesta in una giornata poco ventosa.

Morena Lolli
15 dicembre 2012

Stati Uniti: la siccità peggiora

Una siccità che rischia di passare alla storia per il Southwest ed il Midwest degli Stati Uniti. Gravissima la situazione già dall’estate, ancora non si vedono segni di miglioramento e la previsione è quella di un ulteriore peggioramento fino al febbraio dell’anno prossimo.

Al momento, questa siccità ha già causato spese, opere e manutenzioni oscillanti fra i 75 ed i 150 miliardi di Dollari: un gruppo di scienziati dell’Iowa ha osservato che questa siccità è perfettamente comprensibile e perfettamente in linea con i grandi cambiamenti climatici che investono tutto il pianeta e che il cambiamento climatico inevitabilmente costa, anche nel senso economico del termine. Il costo economico della siccità non si limita al solo danno diretto che l’ agricoltura subisce, ma ha costi che lievitano e si espandono come le onde che si formano sulla superficie dell’acqua quando cade una goccia.

Pur se in questo caso il paragone potrebbe sembrare poco adeguato, è però il modo esatto di valutare le ricadute economiche della siccità.

Non solo agricoltura in crisi, non solo scarsa disponibilità di acqua, ma anche scarsità dei prodotti primari come, ad esempio, il mais che viene consumato ed utilizzato in grandissime quantità ed il cui costo sta subendo grandissimi rialzi.

La siccità che colpisce il West degli Stati Uniti, grossi esportatori di mais e di derrate agro alimentari, rischia di diventare una spirale che mette in crisi l’intera economia mondiale.

La situazione, molto delicata, vede da un lato la necessità del risparmio idrico, le necessità alimentari della popolazione dall’altro.

Inevitabilmente il consumo, sia di risorse idriche che di derrate alimentari, dovrà essere sempre più un consumo responsabile e sempre di più la produzione del comparto agro alimentare dovrà far tesoro di una preziosa riserva naturale che scarseggia sempre di più: l’acqua.

Morena Lolli
13 dicembre 2012 

Lagunaggio e fitodepurazione

Con fitodepurazione ci si riferisce ad un modo sostenibile per la depurazione delle acque di sempre più rapida diffusione che, in questo caso, raggiunge anche l’Italia.

Uno degli esempi, ad oggi circa un centinaio, del cosiddetto “lagunaggio” è il Parco Pineta.

Nato nel 2008 con un primo bacino di fitodepurazione per sopperire alle esigenze del comune di Castelnuovo Bozzente, il Parco Pineta è stato ampliato e sono state aggiunte altre due vasche. Questa modalità di depurazione delle acque reflue, unisce sostenibilità economica e sostenibilità ambientale.

Tolta la costruzione delle vasche, infatti, l’unica manutenzione di un impianto di lagunaggio consiste nel periodico sfalcio della vegetazione e poco altro.

I bacini di fitodepurazione sono costituiti da vasche artificiali che vengono riempite sia dall’acqua piovana che dalle falde naturali. Il circolo delle acque all’interno di un bacino di fitodepurazione è in continuo cambiamento: l’erosione dell’acqua apre e richiude in continuazione rivoli e rivoletti di scolo.

All’interno delle vasche, la vegetazione spontanea filtra e depura le acque in modo del tutto naturale. La flora principale, nel caso del Parco Pineta, è costituita da lenticchie  d’acqua, tifa latifoglia e canna di palude, piante che, assieme al giacinto, si nutrono di fosforo ed azoto, elementi di cui le acque reflue di un agglomerato urbano sono ricchi, e letteralmente ripuliscono le acque.

Le piante, per un corretto impianto di fitodepurazione, vanno piantumate a distanze ben definite per dar modo alle radici di ospitare i batteri che scompongono le sostanze presenti nell’acqua e, lavorando in simbiosi con le piante, purificano l’acqua fornendo nutrimento alla vegetazione.

All’interno del Parco Pineta, è possibile percorre diversi itinerari di tipo naturalistico: effetto collaterale ben gradito degli impianti di lagunaggio, è infatti non solo la proliferazione della flora, ma anche il ritorno della fauna e quindi il ripopolamento delle aree del parco: anfibi, germani, libellule, aironi e, in numero sempre crescente, caprioli che scendono ad abbeverarsi.

Un depuratore naturale quindi, che non solo non produce cattivi odori, ma si trasforma in un vero e proprio parco naturale.

Morena Lolli
12 dicembre 2012