Riduzione delle emissioni da deforestazione nei Pvs

Tempo di lettura: < 1 minuto

Affermando la necessità urgente di un’ulteriore e significativa azione per ridurre le emissioni da deforestazione e degrado delle foreste nei Pvs, i delegati hanno deciso di intraprendere un programma di lavoro sugli aspetti metodologici legati, per esempio, alla stima delle emissioni da deforestazione, degradazione, conservazione e miglioramento delle foreste, e ad un insieme di approcci politici ed incentivi positivi per ridurre le emissioni da deforestazione e degrado delle foreste nei Pvs, e che include submission e un workshop, e raccolte di raccomandazioni.
I delegati incoraggiano inoltre le Parti a dare supporto per la capacity building, fornire assistenza tecnica e facilitare il trasferimento di tecnologie ai Pvs, ed a intraprendere nuove iniziative, incluse attività di dimostrazione, per ridurre le emissioni da deforestazione e degrado delle foreste.
(Decisione: unfccc.int/files/meetings/cop_13/application/pdf/cp_redd.pdf).

(Fonte Ipcc Focal Point Nazionale)

Pecoraro: nel 2007 calano gas serra, -2,8 milioni di tonnellate

Tempo di lettura: 2 minuti

Emissioni di gas serra diminuite di 2,8 milioni di tonnellate nel 2007 in Italia, la stessa quantità di emissioni prodotte da tutti i decolli e gli atterraggi di aerei sul territorio nazionale. Lo ha annunciato il ministro dell’Ambiente, Alfonso Pecoraro Scanio, alla presentazione del comitato «Parchi per Kyoto» e alla vigilia del terzo anniversario dell’entrata in vigore del Protocollo di Kyoto. «Per il secondo anno consecutivo – ha detto Pecoraro – abbiamo ridotto le emissioni di Co2 per la prima volta dopo 15 anni. Nel 2006 ha agito il fattore climatico ma nel 2007, senza un particolare surriscaldamento, siamo riusciti a confermare il trend positivo. Ma non basta. Serve un’accelerazione molto forte». In particolare, secondo i dati diffusi dal ministro, nel 2006 la diminuzione delle emissioni di gas serra è stata dell’1,2% rispetto al 2005 (6,5 milioni di tonnellate), aiutato anche dal clima mite. Nel 2007, con un clima non favorevole alle emissioni di gas serra, la diminuzione è stata dello 0,5% rispetto al 2006. Il totale è di una riduzione nel biennio di 1,7% rispetto al 2005 di gas serra pari a complessivamente nei due anni una riduzione di 9,3 milioni di tonnellate di CO2 sul 2005, una quantità paragonabile a quella prodotta ogni anno dai camini dell’industria chimica nazionale. Negli anni precedenti i gas serra avevano marcato una crescita costante: rispetto al 1990 (anno di riferimento) nel 2000 si registrava un aumento del 6,7%; nel 2003 le emissioni salivano a +10,8%; nel 2004 arrivavano all’11,8% in più, per crescere a +12,1% nel 2005. Nel 2006, ha riferito il ministro, l’inversione di rotta: le emissioni cominciano a diminuire segnando un +10,8% rispetto al 1990 e nel 2007 il calo continua fino ad arrivare a quota +10,3% rispetto al 1990. A marcare la migliore performance nell’anno appena trascorso e’ il settore abitativo, dove si registra un calo di emissioni del 6% rispetto all’anno precedente, ma fanno la loro parte anche il settore elettrico (emissioni sostanzialmente stabili a fronte di un aumento della produzione), la crescita delle rinnovabili (l’eolico è aumentato del 40% da un anno all’altro) e, per la prima volta, le emissioni pressoche’ costanti nel settore dei trasporti. «Alcune cose sono state sbloccate e faremo in modo che la prossima legislatura – ha sottolineato quindi Pecoraro Scanio – non possa cambiare rotta. Chiunque governerà dovrà ridurre le emissioni di gas serra». (Ansa)

L’idrometano: una proposta immediatamente praticabile

Tempo di lettura: < 1 minuto

Una proposta immediatamente praticabile che può rappresentare la «Via italiana all’idrogeno», in attesa della commercializzazione su larga scala delle automobili a «fuel cell», è l’utilizzo di una miscela di gas naturale più idrogeno, miscela denominata idrometano.

Essa è da subito praticabile perché utilizza tecnologie tutte già disponibili sul mercato a costi accettabili. Logicamente essendo presente l’utilizzo di gas metano (prevalentemente di origine fossile) non è una soluzione definitiva, ma rappresenta un’ottima strategia di transizione.

In Italia il gas naturale è disponibile su una rete di distribuzione diffusa e capillare, e sulle strade italiane è presente la più numerosa rete di punti di rifornimento per autovetture alimentate a metano d’Europa (una delle maggiori del mondo).

L’idrogeno, in questo progetto, verrà prodotto on-site mediante elettrolisi dell’acqua da fonti rinnovabili secondo le caratteristiche del posto, anche eventualmente da utilizzo della potenza elettrica venduta a basso costo dalla centrali elettriche che non possono essere spente di notte e nei festivi.

Questo consentirà di predisporre l’infrastruttura distributiva per la successiva introduzione di autoveicoli a fuel cell alimentati a solo idrogeno.

A Collesalvetti, vicino Livorno, è stato realizzato da due anni il primo distributore del tipo di quelli che verranno realizzati in Puglia.

Le autovetture omologate per essere alimentate a metano (almeno quelle omologate negli ultimi 2 anni) possono essere alimentate con una miscela di idrogeno fino al 30% senza modifiche sostanziali. Questa miscela consente una diminuzione della CO2 e una forte riduzione degli ossidi di azoto emessi.
Per l’utilizzo di questa miscela di idrometano non ci sono controindicazioni sul piano della sicurezza, come confermato da due relazioni tecniche, la prima redatta dall’ordinario della cattedra sulla sicurezza dell’Università di Pisa e la seconda dal Gruppo di lavoro «Problematiche idrogeno» dei Vigili del Fuoco (ministero dell’Interno).

(Fonte ministero dell’Ambiente)

Orti Botanici e Conservazione della biodiversità

Tempo di lettura: 3 minuti

Recentemente grande interesse è posto in programmi integrati di conservazione presso gli Orti Botanici, combinando coltivazione, conservazione del germoplasma, ricerca ed educazione pubblica sulle piante con attività rivolte ad assicurare la sopravvivenza della biodiversità vegetale negli habitat naturali.
La biodiversità o diversità biologica è la totalità di geni, specie ed ecosistemi della Terra, di una data regione, di un territorio. Si parla di diversità genetica quando si riferisce della variabilità genetica sia a livello d’individui appartenenti ad una stessa popolazione sia tra popolazioni appartenenti ad una stessa specie; di diversità di specie quando si riferisce alla varietà delle specie presenti in un determinato habitat; per diversità ecosistemica si vuole intendere sia le grandi differenze che ci sono tra i diversi tipi di ecosistemi, sia la varietà degli habitat naturali e delle comunità che interagiscono fra loro all’interno di uno stesso ecosistema.

Molti Orti Botanici nel Mondo hanno avviato programmi rivolti alla raccolta di piante minacciate d’estinzione, reintroduzione e restauro degli habitat supportando il lavoro di coloro che s’impegnano nella conservazione e gestione delle are protette. Negli ultimi due decenni molti Orti Botanici hanno attuato un profondo cambiamento per rispondere a nuove priorità adattando le loro attività alla nuova situazione scaturita dalla presa di coscienza della necessità di una conservazione globale della biodiversità a causa della sua rapida erosione sulla Terra.
Ciò può essere reso possibile attraverso il coordinamento internazionale degli Orti Botanici anche alla luce delle difficoltà economiche in cui versano queste istituzioni.
Si calcola che sui circa 1.600 Orti Botanici nel mondo, solo 800 abbiano attuato azioni di conservazione della biodiversità. Per assolvere a questo urgente compito gli Orti Botanici devono necessariamente attuare nuovi modelli di conduzione e d’impostazione. I nuovi Orti Botanici sono oggi organizzati per la conservazione e restauro della biodiversità della flora locale e molti vecchi Orti Botanici oggi hanno sospeso l’introduzione di specie esotiche ed hanno rivolto la loro attenzione alla coltivazione di specie locali, alla ricerca sistematica delle piante, alla conservazione del germoplasma ed all’educazione ambientale.

Gli Orti botanici assolvono oggi alla conservazione della flora locale mediante:

– la raccolta e diffusione dell’informazione sulla biodiversità;
– la redazione di programmi d’educazione rivolti alla conservazione;
– la collezione, la coltivazione di taxa locali e la conservazione di semi e propaguli della flora in banche di geni;
? l’organizzazione di centri per la presentazione e promozione dell’etnobotanica e dell’uso delle piante della propria regione e la diffusione delle conoscenze sulla flora regionale o di altri territori della Terra.

A questo scopo da alcuni decenni è stata sviluppata una rete internazionale degli Orti Botanici che hanno ritenuto urgente procedere ad azioni di conservazione della biodiversità. Nel 1970 l’Iucn (International Union for the Conservation of Nature and Natural Resources) ha creato al suo interno il Corpo di Coordinamento della Conservazione degli Orti Botanici (Bgccb) preposto al monitoraggio delle collezioni di piante rare o minacciate di estinzione presenti negli Orti Botanici. Esso ha sede presso l’Orto Botanico di Kew dove


ha sede l’Unità delle Piante Minacciate dell’Iucn.
La conferenza su «Botanic Gardens and the World Conservation Strategy è stata tenuta a Las Palmas de Gran Canaria (Spagna) nel 1985 in cui è stata discussa e definita la strategia di conservazione pubblicata con il titolo «The Botanic Gardens Conservation Strategy». La Convenzione sulla Diversità Biologica firmata a Rio de Janeiro nel 1992 ed entrata in vigore nel 1994 fornisce a tutti gli Orti Botanici nuove opportunità di assumere una posizione rilevante quali centri riconosciuti e sostenuti per la conservazione della biodiversità.
La Convenzione inoltre mette in luce il valore e l’importanza delle collezioni di germoplasma tenute in istituzioni come gli Orti Botanici. Il Bgci ha stimato che attualmente oltre quattro milioni di accessioni di piante viventi sono presenti negli Orti Botanici per un totale di 80.000 specie. L’Iucn ha dettato le linee guida e le categorie per stabilire lo status di conservazione delle specie della flora spontanea (lista rossa) a cui tutti gli Orti Botanici del Mondo dovrebbero attenersi per garantire la conservazione dell’attuale patrimonio di biodiversità ancora presente.Arum apulum (Carano) P.C. Boyce (a sinistra) e Cistus clusii Dunal due specie della flora pugliese gravemente minacciate d’estinzione (CR), conservate presso l’Orto Botanico dell’Università di Bari.

L’obesità e la dieta…

Tempo di lettura: < 1 minuto

L’uomo ha capito queste cose. La Convenzione di Rio de Janeiro, del 1992, vede nell’erosione della biodiversità il massimo rischio per la sopravvivenza della nostra specie. Siamo intelligenti, e abbiamo capito. Ora occorre trasferire il pensiero, basato sulla conoscenza, in azione. Abbiamo bisogno di una nuova scala di valori, che non veda come unico misuratore di progresso il prodotto interno lordo. Il capitale naturale vale più del capitale artificiale. E non abbiamo neppure fatto l’inventario del nostro capitale. Non abbiamo dato il nome a tutte le specie, ne abbiamo nominato due milioni, ne restano approssimativamente otto. L’incarico divino non è stato portato a termine. Anzi, invece di dare il nome agli animali li stiamo distruggendo, e con loro gli ambienti, gli habitat, e la diversità genetica. Tutto sovvertito dalla nostra insaziabile ingordigia di risorse.
Oggi siamo in una situazione paragonabile all’obesità di un individuo. Il peso e la quantità di cibo ingerita non sono l’unico valore. Lo sono in condizioni di disagio, quando il cibo è fonte di sopravvivenza, ma se il cibo è molto disponibile, esagerare può essere letale. Si può morire dal grande benessere. Gli obesi sono cresciuti troppo e devono mettersi a dieta. Noi, come specie, siamo cresciuti troppo. E dobbiamo metterci a dieta. La nostra ingordigia ci sta portando oltre il limite di tollerabilità della crescita. Mettersi a dieta significa decrescere. Il paradigma della crescita, valido quando eravamo sottodimensionati, oggi deve essere sostituito dal paradigma della decrescita.

Il messaggio del Presidente della Repubblica

Tempo di lettura: < 1 minuto

«Questi devastanti fenomeni costituiscono una minaccia per la stessa esistenza di milioni di persone, le cui condizioni di vita conoscono un deterioramento drammatico»

Il risveglio del nucleare

Tempo di lettura: 4 minuti

La passione per il nucleare è rimasta dormiente per tanti anni. «Finalmente» si è risvegliata «grazie» alla scoperta dell’effetto inquinante dell’anidride carbonica emessa dalle centrali termoelettriche a combustibili fossili e responsabile dei mutamenti climatici, e «grazie» all’aumento del prezzo del petrolio. Si arriva così alla svolta storica a cui facevo cenno all’inizio, con le stesse illusorie parole di allora: gruppo di centrali nucleari, promessa di grandi quantità di energia, promessa di basso costo dell’elettricità, rispetto dell’ambiente.

È il secondo atto della commedia del nucleare italiano. Di centrali cosiddette «di nuova generazione», cioè con maggiore sicurezza e minore inquinamento, ce ne sono varie disponibili in commercio: peraltro non se ne acquista una come si sceglierebbe una automobile. Immagino che il governo pensi alle centrali nucleari cosiddette «di terza generazione» (EPR3) della potenza di circa 1.600 megawatt. Ne esistono due, una finlandese ad Olkiluoto, a metà del suo cammino costruttivo, una in Francia a Flamanville, nel nord della Francia (in costruzione da qui al 2012 e oltre), con la partecipazione finanziaria del 12,5 % dell’Enel.

Si tratta di centrali ad acqua leggera funzionanti con acqua sotto pressione a ciclo uranio-plutonio, alimentate con uranio arricchito a circa il 5 % di uranio-235. Il calore che si libera dalla fissione dell’uranio-235 viene trasferito ad una massa di acqua sotto pressione a circa 150 atmosfere e circa 300 gradi che circola in un circuito «primario» di tubazioni, e viene poi trasferito ad altra acqua (circuito «secondario») che si trasforma a sua volta in vapore e fa girare le turbine del generatore di elettricità.

Un flusso di acqua di raffreddamento (circa 70 metri cubi al secondo, quasi un fiume, di acqua marina che ritorna, scaldata, nel mare, da cui si deve produrre anche acqua distillata per dissalazione per l’alimentazione delle caldaie) trasforma di nuovo il vapore in uscita dalle turbine in acqua liquida che torna nella caldaia del circuito secondario. In queste centrali l’acqua del circuito primario del reattore, radioattiva, non viene a contatto con l’acqua del circuito secondario. Secondo quanto è noto, il reattore utilizzerà circa 30 tonnellate all’anno di uranio arricchito; il combustibile irraggiato estratto ogni anno conterrà plutonio (circa 300 kg all’anno) e altri elementi di attivazione radioattivi e i prodotti di fissione, circa 1.000 kg all’anno, fra cui cesio, stronzio e altri, tutti radioattivi. La produzione di elettricità dovrebbe essere circa 10 milioni di megawattore all’anno (circa 10.000 GWh all’anno; la produzione italiana di elettricità è di circa 350.000 GWh/anno).

I reattori di nuova generazione scoppiano come quello di Chernobyl? Molto probabilmente no perché sono circondati da un doppio involucro di protezione di cemento armato e sono dotati di speciali accorgimenti di raccolta del fluido del reattore, nel caso si verificasse una frattura nella zona contenente la radioattività.

Non voglio discutere la promessa di elettricità a costi competitivi: chiunque ha pratica di analisi dei costi di produzione di una merce, nel nostro caso l’elettricità, sa bene come si possano avere risultati diversissimi a seconda


di come si calcolano i costi di impianto, la politica di ammortamento degli investimenti, i costi della materia prima; nel caso delle centrali il costo del minerale di uranio, dell’arricchimento, dell’energia utilizzata nella varie fasi, i costi dello smantellamento degli impianti, i fattori di utilizzazione, e questo per l’elettricità di origine nucleare rispetto a quella ottenuta da altre fonti, fossili o rinnovabili che siano. Con opportuni artifizi contabili il «costo» di una merce ottenuta con un processo può risultare inferiore o superiore al costo della stessa merce ottenuta con un altro processo.

Qui voglio considerare invece se la localizzazione, la costruzione e il funzionamento delle eventuali future centrali nucleari avverrà o no «nel rispetto dell’ambiente». Sono circolate notizie su possibili «siti» in cui le centrali potrebbero essere costruite, con nomi presto smentiti, anzi con la precisazione che le relative notizie vere saranno coperte dal segreto di Stato ai sensi del Decreto del Presidente del Consiglio dei Ministri dell’8 aprile 2008, entrato in vigore il 1° maggio.

La scelta di una località adatta per «ospitare» una centrale nucleare presuppone alcune conoscenze: prima di tutto occorre sapere quante centrali e di quale tipo si prevede la costruzione. Già le poche cose dette sulle centrali «di nuova generazione» indicano che il reattore, il circuito delle turbine, gli impianti di presa e di circolazione dell’acqua di raffreddamento, sono grosse strutture, del volume di circa un milione di metri cubi, che contengono una massa di cemento, acciaio e materiali vari di circa un milione di tonnellate, su una superficie di una ventina di ettari.

La centrale deve essere installata in una zona dove è disponibile molta acqua di raffreddamento (dato lo stato e la portata dei nostri fiumi, l’unica soluzione è data dall’uso dell’acqua di mare), su suolo geologicamente stabile e senza rischi di terremoti: i due reattori in costruzione, quello finlandese e quello francese, sono collocati in due promontori di rocce granitiche in riva al mare. Una eventuale centrale dovrebbe essere vicino ad un grande porto perché una parte dei macchinari deve essere importato via mare; il contenitore del reattore finlandese è stato costruito in Giappone.

Qui comincia il lavoro degli analisti del territorio; si tratta di percorrere le coste italiane e vedere se si trova una zona adatta per una o per «il gruppo» di centrali annunciate. Ci sono naturalmente molti altri fattori da considerare partendo dalla vecchia (1979) «carta dei siti» ritenuti idonei alla localizzazione delle centrali nucleari allora previste, che erano più piccole e con minori vincoli di localizzazione. Già allora, comunque, le norme internazionali indicavano la necessità di avere, intorno alle centrali nucleari, una zona di rispetto del raggio di circa 15 chilometri nella quale non dovevano trovarsi città o paesi, strade di grande comunicazione e ferrovie, impianti industriali, depositi di esplosivi, installazioni militari.

Anche se la, o le, localizzazioni delle nuove centrali saranno coperte dal segreto di Stato, ci sarà pure un giorno (il governo ha dichiarato che i «siti» per le future


centrali saranno individuati entro il 2008) in cui i cittadini di una qualche zona d’Italia vedranno arrivare sonde e geologi e ruspe e recinzioni e gli amministratori locali dovranno fare i conti con autorizzazioni e espropri. Sarà quello il tempo in cui gli abitanti delle zone interessate vorranno interrogarsi su quello che sta succedendo, sulla propria sicurezza futura, sul destino delle acque sotterranee e delle spiagge e coste. Non sarà il segreto o il controllo militare a impedire ai cittadini di informarsi, di leggere le carte geologiche e la frequenza dei terremoti, le norme internazionali di sicurezza delle centrali.

La stampante

Tempo di lettura: < 1 minuto

I consumi

Una stampante da ufficio può arrivare a consumare ben 63 kWh per anno di energia elettrica, corrispondenti alle emissioni di 48 Kg di CO2 (anidride carbonica) nell’ambiente.
Ottimizzando i tempi di stand-by e scollegando la stampante fuori dall’orario di ufficio, i consumi possono scendere a 48 kWh, con un risparmio di CO2 emessa di circa 12 Kg.
Solo l’8% del consumo energetico complessivo è dovuto alla fase di stampa, mentre il 49% è «speso» nella fase di stand-by e il 43% quando è spenta (con la spina inserita, naturalmente!).
Una tonnellata di carta riciclata rispetto alla carta da fibre vergini consente di risparmiare il taglio di 24 alberi, il consumo di 4.100 kWh di energia e di 26 m3 di acqua, e le emissioni di 27 kg di CO2.

Le buone pratiche

Ricordiamoci di spengere la stampante quando non si utilizza anche solo per brevi intervalli.
Ogni volta che è possibile usiamo la carta riciclata.
Stampiamo con l’opzione fronte/retro e/o inserendo più pagine nella stessa facciata.
Utilizziamo ogni volta che è possibile la modalità di stampa a bassa risoluzione («economy» o «draft»).
Prima di stampare un documento, usiamo l’opzione «Anteprima di stampa» per vedere se l’impaginazione e l’effetto visivo sono quelli desiderati.
Ove possibile, riduciamo i margini della pagina e la dimensione del carattere.
Molto spesso capita di dover commentare un documento condiviso: invece di stamparlo, lavoriamoci in formato elettronico, utilizzando la funzione «commento».
Prima di stampare un documento accertiamoci che sia veramente utile: un po’ di tempo dedicato a una lettura veloce «a video» farà risparmiare in termini di carta ed energia!

Sviluppo di progetti dimostrativi

Tempo di lettura: 2 minuti

Con alcuni progetti dimostrativi si intende sviluppare soluzioni ottimali per specifiche tipologie di distretto energetico (Power Parks)

Il dimostratore permette di fruire riscontri sull’efficacia tecnico-economica dell’innovazione in termini di prestazioni, costi, efficienza, competitività e certezza sui tempi di ritorno degli investimenti. Parallelamente, si dovrà prevedere un’attività di «Technology Push» per favorire il trasferimento tecnologico attraverso iniziative di partnership e spin-off, la creazione e diffusione di una vera e propria filiera e il sostegno verso l’accettabilità sociale dell’insediamento. La seconda fase punta a creare un volano per replicare l’esperienza in varie direzioni: diffusione presso i tavoli italiani ed europei per azioni mirate di governance; diffusione verso i decision makers della Pubblica amministrazione e degli enti locali; azioni di trasferimento ed industrializzazione delle tecnologie sviluppate; diffusione delle informazioni tecniche; azioni di sostegno verso le aziende; attività di formazione per la produzione di specifiche figure professionali.

In questa prospettiva Enea sta promuovendo ItalyParks, ampio programma per la realizzazione di progetti integrati basati su dimostratori territoriali. La selezione dei distretti energetici pilota, basata sulla capacità di favorire il risparmio energetico e la creazione di un indotto industriale rappresenta uno dei punti di forza del programma. I progetti integrati sono organizzati per segmenti di utenza tra cui figurano distretti ospedalieri, complessi di edilizia sociale, plessi scolastici, centri uffici, centri di ricerca ed università, paesi di media dimensione, quartieri urbani, centri storici e complessi monumentali, villaggi turistici, grandi alberghi, aeroporti, stazioni ferroviarie, centri sportivi, centri commerciali, condomini, distretti ed aree industriali.

Per ognuna di queste grandi utenze è previsto lo sviluppo di soluzioni e tecnologie ad hoc, sia dal punto di vista della progettazione che da quello del controllo, fino a costruire dei «pacchetti integrati» che identifichino non soltanto le soluzioni tecnologiche ma anche quelle finanziarie e gli standard per la replicazione. In questo modo sarà possibile, facilitare l’azione delle aziende nell’offerta competitiva dell’intero «pacchetto integrato» anche a livello internazionale.

Nella foto lo schema di un progetto mobilizzatore di dimostrazione di un distretto energetico ad alta efficienza.

Iter

Tempo di lettura: 7 minuti

Iter (fig. 4), dal latino «la via», è una macchina di tipo tokamak che costituisce, nell’ambito della strategia perseguita dalla comunità internazionale sull’energia da fusione, l’unico esperimento intermedio prima della costruzione del reattore dimostrativo Demo.
Il progetto di Iter, a cui l’Italia ha dato un contributo fondamentale, è stato sviluppato sulla base di un’intensa attività di Ricerca e Sviluppo che ha permesso di riempire in dieci anni il grande gap tecnologico esistente all’inizio della progettazione. Questa attività è stata condotta in stretto coordinamento da numerosi centri di ricerca, università e industrie di tutto il mondo con il coinvolgimento di migliaia tra ricercatori e tecnici.
Unione europea, Giappone, Federazione Russa, Stati uniti d’America, Cina e Corea del Sud e India hanno raggiunto l’accordo per l’attuazione del progetto. Il 24 Maggio 2006 è stato siglato ufficialmente. L’accordo tecnico tra i sei partner è stato ratificato a livello governativo nel 2007. Un grande successo per l’Europa nei negoziati è la scelta del sito: Iter verrà installato a Cadarache nel sud della Francia.
Iter è un programma trentennale che richiede 5 miliardi di investimenti in 10 anni per la costruzione, seguiti da 20 di sperimentazione.

Iter è la prima macchina avente per obiettivo la produzione di energia da fusione, in condizioni in cui predominerà il riscaldamento del plasma da parte dei nuclei di elio prodotti dalle reazioni di fusione rispetto a quello generato dai circuiti esterni. Iter è progettato per operare in regime di corrente indotta (corrente generata e mantenuta dal trasformatore) (400 secondi) ad alta potenza di fusione (500 MW). Con performance ridotte (Q ~ 5) (funzionamento non induttivo nella fase di mantenimento della corrente che viene sostenta mediante campi elettrici generati da radiofrequenza), Iter esplorerà anche cicli operativi lunghi fino, se possibile, all’operazione stazionaria, utilizzando i sistemi esterni di riscaldamento e di generazione della corrente per il riscaldamento del plasma e il suo controllo.
Iter è una macchina di dimensioni senza precedenti come si può apprezzare dalla dimensione della persona alla base della macchina nella figura: 24.000 tonnellate di alta tecnologia. La sua costruzione ha richiesto dieci anni di attività di R&S per sviluppare le tecnologie e l’ingegneria necessarie.
Iter, oltre a dimostrare la possibilità di portare e mantenere il plasma nelle condizioni fisiche necessarie per l’ottenimento dei guadagni su citati, dovrà:

? esplorare le condizioni di ignizione controllata;
? controllare le instabilità del plasma;
? dimostrare la possibilità di costruire e operare magneti superconduttori di dimensioni e prestazioni senza precedenti, per poter sostenere la reazione del plasma per tempi molto lunghi;
? smaltire gli elevati flussi termici che il plasma rilascia alle pareti (15-20 MW/m2);
? dimostrare la possibilità di effettuare le operazioni di manutenzione e di ispezione di un tokamak per mezzo di sistemi remotizzati.
? Testare i moduli di mantello fertile (triziogeno) di Demo

I componenti principali di Iter sono: la camera del plasma, nella quale prima di iniettare i gas reagenti viene fatto un vuoto


ultra spinto; il magnete «toroidale» costituito da bobine che circondano la camera del plasma; il sistema magnetico poloidale costituito da bobine ad anello disposte tutto intorno al toro.
All’interno della camera del plasma vi sono i componenti che sono destinati allo smaltimento dei carichi termici che il plasma scarica verso le pareti. Quello destinato a ricevere i carichi massimi è il cosiddetto Divertore che in Iter si trova nella parte inferiore della camera del plasma, mentre la parete principale della camera viene chiamata Prima Parete.
Accanto ai componenti principali vi sono una serie di componenti ausiliari che hanno varie funzioni: apportare al plasma la potenza necessaria al raggiungimento delle temperature necessarie; raffreddare la camera del plasma ed i componenti ad essa interni che operano a circa 140 °C; raffreddare i magneti che operano a circa -269 °C (quattro gradi sopra lo zero assoluto).
Iter dovrà anche provare varie configurazioni del componente fondamentale dei futuri reattori, il mantello fertile, destinato a produrre sia l’energia termica da trasformare in energia elettrica sia il Trizio che è un gas non presente in natura a causa del suo breve tempo di decadimento.

L’impianto è dimensionato per generare alcune migliaia di impulsi all’anno e verificare le soluzioni oggi ritenute idonee a sperimentare le tecnologie essenziali per una centrale a fusione, in particolare:
Dal punto di vista nucleare, la fluenza neutronica totale sarà di circa 0.1 MW a /m2 sulla prima parete dopo i primi 10 anni, corrispondenti a cica 1 dpa, displacement per atom, e circa 3 dpa dopo 20 anni.
Il flusso di neutroni da 14 MeV sulla prima parete, corrispondente a 0.2 ? 0.8 MW/m2, avrà valori significativi per la conduzione di prove su mantelli triziogeni: Iter servirà infatti come banco di prova per diversi concetti di mantelli triziogeni attualmente in via di sviluppo. Sulla base dei test condotti in Iter sarà possibile selezionare la soluzione (o le soluzioni) più efficace per produrre il trizio, necessario per compensare quello utilizzato dalle reazioni di fusione, e per dimostrare la possibilità di funzionamento stazionario.
Il progetto di Iter si è basato sull’impiego di tecnologie provate o di prototipi, in molti casi in scala reale, per i componenti con maggiore contenuto innovativo e/o critici. A questo riguardo, le sfide più importanti sono state:

? La realizzazione dei superconduttori in Ni3Sn per il magnete del campo toroidale e in NiTi per il solenoide centrale, di dimensioni e prestazioni senza precedenti. Durante la fase di R&D e proge ttazione di Iter, è stata sviluppata la tecnologia necessaria per la produzione dei filamenti, del cavo, del condotto, delle giunzioni, per gli avvolgimenti e per la realizzazione delle bobine. Sono stati realizzati prototipi in scala 1:3 del solenoide centrale e 1:5 della bobina del magnete del campo toroidale, e ne sono state provate le prestazioni nei regimi richiesti per Iter (40 kA a 13 T e 80 kA a 6 T, rispettivamente). La produzione di 29 tonnellate di Ni3Sn «Iter grade» in questa


fase, ha permesso di dimostrare e qualificare la capacità produttiva dell’industria in vista della costruzione della macchina.
? La messa a punto della tecnologia di fabbricazione della camera da vuoto (composta da 9 settori alti 15 m e larghi 9 m) con particolare riguardo alla precisione, alle saldature e alle fattibilità delle tolleranze richieste. Sono stati toroidale di Iter (scala 1:5) realizzati prototipi in scala reale che hanno permesso di dimostrare la precisione richiesta, la tenuta di vuoto e di pressione, la fattibilità delle tecniche di saldatura adottate e delle relative tecniche di controllo non distruttive.
? Lo smaltimento di un elevato flusso di calore sulle piastre del divertore, il componente in cui viene convogliato e smaltito il calore emesso dal plasma sotto forma di particelle. Tale smaltimento deve essere condotto senza inquinare o perturbare il plasma, e il calore depositato, dell’ordine di 10 MW/m2 in regime stazionario e fino a 20 MW/m2 in fasi transienti, deve essere efficientemente rimosso. Sono state sviluppate tecnologie ad hoc e sono stati realizzati prototipi in scala reale per le soluzioni adottate, basate sull’impiego di tubi in lega di rame (scambiatori di calore) protetti da piastre di tungsteno e Carbon Fiber Composites (materiali sacrificali resistente alle alte temperature) con un buon contatto termico con il tubo stesso. Parti delle piastre sono state provate per migliaia di cicli ai valori di carico termico massimo che si verificano in Iter.
? La dimostrazione della manipolazione remota dei componenti interni alla camera da vuoto, cioè i moduli di mantello e le cassette del divertore. Tali componenti devono essere rimpiazzati per usura. È, quindi, necessario intervenire rapidamente ed efficacemente con manipolazione a distanza, per via dell’attivazione della macchina. Per dimostrare la fattibilità di tali operazioni (tagli, rimozione, sostituzioni, saldature) in Iter, sono state realizzate facilities per la telemanipolazione sia del divertore sia dei moduli di mantello con l’utilizzo di prototipi.
? Lo sviluppo di sistemi di riscaldamento e di generazione di potenza con caratteristiche, imposte dai parametri di plasma di Iter, significativamente più avanzati rispetto a quelli già in uso nelle macchine esistenti. Su Iter, infatti, saranno installati due (forse tre) iniettori di fasci di atomi neutri, ciascuno con potenza pari a 16.5MW per 3600 s, con 40 A di corrente, ed energia del fascio pari a 1 MeV, per poter depositare energia fino al centro del plasma. Ciò ha richiesto una intensa attività di sviluppo per la sorgente di ioni negativi, per l’accelerazione e l’ottica del fascio, per il sistema di deflessione degli ioni residui e per l’isolamento elettrostatico a 1MV. Il sistema di riscaldamento e generazione di corrente basato su onde elettromagnetiche a radiofrequenza ha richiesto lo sviluppo di sorgenti ad alta potenza (2 MW ? cw) ed alta frequenza (170 GHz).
? Altri sistemi hanno richiesto un particolare sviluppo e/o la costruzione di prototipi, ad esempio l’iniettore di pellet per l’alimentazione del combustibile, le pompe criogeniche, il sistema per il ciclo del combustibile.

La definizione del progetto Iter ha


catalizzato negli ultimi 15 anni l’impegno di tutti i laboratori e gruppi di ricerca sulla fusione dei Paesi partner. La costruzione di Iter è iniziata a Cadarache (Francia) all’inizio del 2007. Il programma prevede la sua costruzione in 10 anni e lo sviluppo delle attività sperimentali in più fasi, in un arco di tempo di 20 anni. Al termine si provvederà alla messa in sicurezza e successivamente, in 6 anni, allo smantellamento e al trasporto delle scorie in un sito idoneo.
I costi di costruzione, come detto, sono stimati in 5 miliardi ? a valuta 2002. I partner contribuiranno in kind (forniranno cioè direttamente i vari componenti) per il 90% del costo totale, cioè con la fornitura di componenti realizzati direttamente dai partner stessi attraverso le rispettive Agenzie domestiche. Un ulteriore 10% sarà fornito in cash e sarà gestito direttamente da Iter.
L’Europa, che contribuirà per circa il 50% del costo totale di costruzione, ha stabilito a Barcellona (Spagna) la propria Agenzia domestica per Iter, «Fusion for Energy», che sarà responsabile delle forniture europee in-kind, promuoverà e metterà in atto un programma di ricerca sulla fisica e l’ingegneria del plasma e di sviluppo tecnologico orientati al successo di Iter e ad accelerarne il risultato (programma di accompagnamento). L’attività sperimentale sulle macchine operanti nell’Unione Europea, ivi incluso Jet, e la programmazione di aggiornamenti o costruzione di nuovi esperimenti sarà rivista ed allineata a questo obiettivo. Tra queste da segnalare una nuova macchina proposta dall’Italia denominata Fast che dovrà fornire supporto e anticipare sviluppi di fisica e tecnologia sia per Iter sia per Demo.
L’avvio della costruzione di Iter costituisce un punto di svolta per il programma a livello mondiale, da un lato per l’avvio della fase di realizzazione, dall’altro per la definizione del nuovo Next Step, cioè Demo.
L’Italia ha contribuito in modo sostanziale allo sviluppo di queste tecnologie specie nel campo dei magneti superconduttori, i componenti ad alto flusso termico, i controlli, la manutenzione remota e l’ispezione visiva tramite radar ottico, le tecnologie per il ciclo del combustibile e i dati nucleari. Un contributo essenziale è stato fornito anche per gli aspetti si sicurezza ed impatto ambientale Iter sarà, inoltre un test bed per i moduli di breeder blanket di Demo (il componente dove viene assorbita l’energia dei neutroni e prodotto il trizio) progettati dai vari partner.

Le novità della settima edizione

Tempo di lettura: < 1 minuto

Il Report viene pubblicato dal 1998 e, a partire dal 2000, ogni due anni (l’attuale è la settima edizione del Rapporto). Nell’edizione del 2008 viene resa nota, per la prima volta, la misurazione l’Impronta idrica, sia al livello nazionale sia globale che si aggiunge come indicatore aggregato agli altri due, ovvero, l’Impronta Ecologica, l’analisi della domanda di risorse naturali derivante dall’attività umana, e l’Indice del Pianeta Vivente, la misurazione dello stato di salute dei sistemi naturali.
L’Indice del Pianeta Vivente, compilato in particolare dalla Società Zoologica di Londra, mostra come dal 1970 si sia verificato il declino complessivo della biodiversità (della ricchezza della vita sul pianeta) di circa il 30% tenendo conto dell’analisi di circa 5000 popolazioni di 1.686 specie di animali vertebrati (mammiferi, uccelli, rettili, anfibi e pesci). Nelle aree tropicali la riduzione è più drammatica che altrove, essendo al 50%, e le cause principali sono costituite dalla deforestazione e dalle modificazioni dell’uso del suolo; per le specie di acqua dolce le cause principali sono l’impatto delle dighe, la deviazione dei corsi fluviali e i cambiamenti climatici (per un declino del 35%). Gli ambienti costieri e marini invece soffrono soprattutto di inquinamento e di pesca eccessiva o distruttiva.

La crescita rende dipendenti da tutto

Tempo di lettura: 3 minuti

In un sistema economico fondato sulla crescita, la produzione è un’attività finalizzata a trasformare le risorse in rifiuti attraverso un passaggio intermedio, sempre più breve, allo stato di merci. Le innovazioni di processo hanno la funzione di accelerare i tempi di trasformazione da risorsa a merce; le innovazioni di prodotto da merce a rifiuto. Quanto più breve è la durata del percorso, tanto maggiore è la crescita del Pil Il senso ultimo dello sviluppo scientifico e tecnologico finalizzato alla crescita del Pil è la produzione di quantità sempre maggiori di rifiuti in tempi sempre più brevi. In termini più generali è l’applicazione della razionalità a uno scopo irrazionale e ha come risultato finale la devastazione del mondo.

In un sistema economico e produttivo finalizzato alla decrescita le innovazioni tecnologiche sono finalizzate alla riduzione del consumo di risorse e di energia, della produzione di rifiuti e dell’impatto ambientale per unità di bene prodotto. La decrescita non richiede meno tecnologia della crescita, ma uno sviluppo tecnologico diversamente orientato.
Per costruire un edificio che non ha bisogno dell’impianto di riscaldamento per mantenere una temperatura interna di 20 gradi con una temperatura esterna di 20 gradi sotto zero ci vuole più tecnologia di quella che occorre a costruire una casa che consumi 20 litri di gasolio al metro quadrato all’anno, come fanno in media gli edifici costruiti nel dopoguerra in Italia. Ma un edificio che ha bisogno di una minore quantità di energia contribuisce a ridurre il Pil. Tutte le innovazioni tecnologiche che riducono l’impronta ecologica, ovvero la quantità di superficie terrestre necessaria a ogni individuo per ricavare le risorse di cui ha bisogno, comportano una decrescita economica che contribuisce a migliorare la qualità degli ambienti e la vita degli esseri umani. Una decrescita felice.

La crescita ha bisogno di esseri umani incapaci di tutto. Chi non sa fare nulla dipende dalle merci. Il paradigma culturale della crescita implica l’impoverimento culturale degli esseri umani. Il paradigma culturale della decrescita richiede lo sviluppo e la diffusione di un sapere finalizzato al saper fare che rende più autonomi e liberi, comporta la rivalutazione del lavoro manuale e artigianale, il superamento del lavoro parcellizzato, la ricomposizione unitaria del sapere contro la super-specializzazione che fa perdere la visione d’insieme di ciò che si fa, la riunificazione del sapere come si fanno le cose (cultura scientifica) con la ricerca del senso per cui si fanno (cultura umanistica).

Nelle città si deve comprare tutto ciò che serve per vivere, per cui tutte le attività lavorative sono finalizzate a ricavare denaro. Chi vive in città non può fare altro che produrre merci per poter comprare merci. Le città sono luoghi di mercificazione totale. La predominanza assoluta di rapporti commerciali e competitivi cancella ogni forma di solidarietà e collaborazione tra chi vi abita. Confusi nella folla gli individui sono soli. Oltre al cibo, agli oggetti e ai servizi, nelle città occorre comprare anche l’otium, che assume prevalentemente le forme degli svaghi e dei divertimenti massificati. Gli spostamenti


al loro interno tanto più costosi quanto più diventano faticosi e lenti, con tanto di fitta cappa di gas di scarico e ininterrotto rumore di fondo. Nell’anno 2006 i residenti nelle aree urbane hanno superato la metà della popolazione mondiale e continuano a crescere. Le città più grandi superano i 20 milioni di abitanti e si avviano verso i 30. Ma se questa crescita si arrestasse, non crescerebbe più il numero di coloro che devono comprare sotto forma di merci tutto ciò di cui hanno bisogno per vivere e si ridurrebbe la crescita del Pil. Le città sono escrescenze tumorali che devastano il corpo di Gaia. Solo la decrescita può riportare alla fisiologia questa patologia. La rivalutazione dell’autoproduzione e degli scambi non mercantili, della solidarietà e della dimensione comunitaria, implica un processo di de-urbanizzazione.

L’ecologia non è un lusso

Tempo di lettura: < 1 minuto

Probabilmente uno dei problemi nei quali ci troviamo immersi nasce proprio da lì: dall’idea che quelle due parole, pur unite per la testa, tendano comunque a scappare in direzioni diverse non appena qualcuno provi a renderle altrettanto vicine in coda.
Da ciò, l’idea che l’ecologia abbia degli altissimi costi, che le scelte ecologiche abbiano un prezzo salato, che la filosofia ecologista si porti appresso un bagaglio di ripercussioni economiche che non sono alla portata di tutti. Esse sembrano non essere un peso per ogni spalla e per ogni tempo.
Essere ecologisti si può (si potrebbe), ma a patto di saper aspettare il momento giusto, la congiuntura giusta, l’economia giusta. Perché altrimenti il passo diventa troppo lungo, la battaglia controproducente e l’economia (sempre lei, giacché le priorità sono priorità) va in sofferenza: figurarsi quando le sofferenze dell’economia ci sono a prescindere, senza nemmeno che sia il peso dell’ecologia a creare sudori ed affanni.

In realtà le cose non sembrano stare così. E di questo sarebbe bene che anche gli ecologisti si rendessero conto sino in fondo, altrimenti le conseguenze non possono che essere disastrose e le scelte sempre obbligate. L’ecologia o, meglio, lo sviluppo ecologicamente sostenibile del nostro mondo, non è necessariamente gravata da costi superiori a quelli che siamo abituati a conteggiare e sopportare, senza controllarli, discuterli, criticarli.

Il Trasporto pubblico

Tempo di lettura: 3 minuti

( Docente di contabilità pubblica e di diritto amministrativo nella Facoltà di Scienze Politiche dell’Università di Torino )

La convenzione di stima è un metodo per regolare l’attribuzione dei costi di un progetto ambientale nelle situazioni più complesse, avendo come obiettivo una soluzione concertata dall’insieme degli operatori economici. Essa ha quindi una validità di tipo contestuale. Un esempio è il problema di definire contabilmente la «componente ambientale» dei trasporti comunali. Una contabilità ambientale applicata ad un territorio urbano deve poter tener conto dei trasporti pubblici, in modo da prevedere le spese da inquinamento atmosferico e acustico. Tuttavia, sarebbe esagerato contabilizzare la totalità dei flussi finanziari tout court. Infatti, il servizio risponde prima di tutto ad una domanda di mobilità, quindi assolve un ruolo economico-sociale prima ancora che ambientale.
Il problema allora è quello di identificare e poi isolare la componente ambientale dei flussi finanziari generati dai trasporti pubblici. Un tentativo (prima proposta di convenzione) è stato quello di considerare utili, ai fini della contabilità ambientale, solo le spese direttamente collegate a scelte tecnicamente ambientali, in modo da computare solo gli investimenti relativi ai mezzi funzionanti a Gpl o a metano. Il risultato è di facile utilizzo nella pratica contabile; tuttavia questo metodo ha l’inconveniente di trascurare il fattore del «ricambio», cioè la sostituzione progressiva di mezzi di trasporto privato con mezzi pubblici.
Una sana politica ambientale non solo promuove, accresce proprio questo tipo di sostituzione. Se la contabilità ambientale rinunciasse a questo obiettivo, contribuirebbe a generare gravi distorsioni nel sistema, dimostrando una visione riduttiva dell’importanza strategica del ruolo dei trasporti.
Per superare i limiti del metodo precedente, è stata valutata l’ipotesi di assimilare al deficit di esercizio tutte le spese sostenute a favore dell’ambiente nell’ambito dei trasporti (seconda proposta di convenzione). Tuttavia anche questo metodo è rischioso. In particolare, esso non evidenzia la differenza tra investimenti ambientali e funzionalità del servizio, legittimando, o magari premiando, una cattiva gestione. Inoltre, la misura dello sforzo ambientale dipenderebbe esclusivamente dai crediti e dalle sovvenzioni accordate al servizio pubblico, mentre, a rigore, queste sovvenzioni hanno una ragione sociale prima che ambientale e andrebbero quindi contabilizzate come tali.
In ultima analisi, la via che sembra preferibile è quella di fondare la contabilità su un’analisi della composizione di coloro che usufruiscono dei trasporti pubblici (terza proposta di convenzione). In sostanza due gruppi, gli «utenti di necessità» (identificati come fruitori di tariffe preferenziali tra cui i giovani, gli anziani, i disoccupati ecc.) e gli utilizzatori cosiddetti «svincolati» (cioè gli utenti che dispongono di un mezzo di trasporto alternativo: automobile, motociclo, ecc., e che scelgono volontariamente il mezzo pubblico). Su questa base è stata fissata una convenzione di stima, secondo la quale la parte di spesa da attribuire all’ambiente dev’essere solo quella corrispondente al totale dei costi riferibili agli utilizzatori svincolati, poichè gli utenti di base sono esclusi dal calcolo, essendo considerati utilizzatori dei servizi di trasporto pubblico per motivi economico-sociali.
Anche questa soluzione non sembra ancora del tutto soddisfacente, soprattutto perché è di natura profondamente diversa da quella adottata, di norma, in altri ambiti. In compenso sembra essere una soluzione pertinente, che permette di


isolare il ruolo ambientale dei trasporti pubblici rispetto a un contesto complesso di priorità sovrapposte. Comunque, proprio per tener conto di queste imperfezioni, i trasporti pubblici vengono registrati come una componente separata delle altre voci contabili (aria, acqua, energia).
Ognuno dei metodi sopra considerati ha presentato, quindi, una serie di inconvenienti. Ne esistono altri, come il calcolo delle esternalità negative, che in alcuni casi potranno essere preferiti a quelli prima descritti. La maggioranza di coloro che hanno dimostrato sensibilità allo studio di questi aspetti, comunque pongono il problema non marginale della definizione e della accettabilità politica, economica e sociale delle convenzioni contabili utilizzate. Insomma, la scelta dei meccanismi contabili deve essere il risultato di una concertazione, nonché di una condivisione critica e progettuale dello strumento contabile, che assume un ruolo non trascurabile nell’importanza dei valori che vengono attribuiti ad un determinato territorio.

Il centro euro-mediterraneo per i cambiamenti climatici

Tempo di lettura: 3 minuti

Il Centro Euro-Mediterraneo per i Cambiamenti Climatici è una struttura di ricerca scientifica che si prefigge di approfondire le conoscenze nel campo della variabilità climatica, le sue cause e le sue conseguenze, attraverso lo sviluppo di simulazioni ad alta risoluzione con modelli globali del sistema terra e con modelli regionali, con particolare attenzione all’Area del Mediterraneo.

Il lavoro d ricerca del Cmcc è caratterizzato da un modello a rete, costituito dalla sede centrale di Lecce e 5 sedi periferiche a Bologna, Capua, Milano, Sassari e Venezia, in cui sono distribuite tutte le funzioni dell’intera filiera degli studi sui cambiamenti climatici. Questo tipo di organizzazione e di collaborazione tra centri diversi consente di mantenere scienziati e ricercatori che si occupano di discipline e temi affini il più possibile concentrati in un solo posto; così, attraverso la rete di tecnologie e conoscenze realizzata dal Cmcc, ciascuna Divisione opera sui propri progetti di ricerca avvalendosi delle competenze e delle conoscenze che provengono dagli altri nodi dove lavorano informatici (che si occupano delle complesse operazioni di calcolo e della condivisione dei dati grazie a supercomputer di ultima generazione), fisici (che disegnano gli scenari futuri), esperti che si occupano di valutare e analizzare gli impatti degli scenari realizzati sulle economie, sulla biosfera, sull’agricoltura, sulle coste e sui mari.

Le principali caratteristiche operative del Cmcc sono quindi l’interdisciplinarietà e un efficiente networking, caratteristiche che lo rendono unico nel panorama internazionale, dando un elevato valore aggiunto all’attività rispetto ai corrispondenti centri europei.

L’attività di ricerca è coordinata da 6 Divisioni scientifiche: Sco – Calcolo Scientifico e Operazioni, Ans – Applicazioni numeriche e scenari, Cip – Valutazione Economica degli Impatti e delle Politiche dei Cambiamenti climatici, Isc – Impatti al Suolo e sulle Coste, Iafent – Impatti sull’Agricoltura, Foreste ed Ecosistemi Naturali e Terrestri, Fdd – Formazione, Documentazione e Divulgazione.

Il coordinamento delle linee di ricerca è sotto la responsabilità del consorzio Cmcc. Il consorzio è inoltre responsabile per lo svolgimento di tutte le attività di ricerca, che vengono realizzate attraverso il coinvolgimento attivo degli enti partecipanti al progetto e la condivisione delle risorse interne di questi ultimi.

Il coordinamento delle attività scientifiche avviene periodicamente su due livelli: sui singoli progetti e sui programmi annuali di attività.

Come nasce il Cmcc

Il Cmcc nasce come un programma strategico promosso attraverso un bando del Mur (Ministero dell’Università e della Ricerca), approvato dalle seguenti istituzioni: Ministero delle Finanze (Mef), Ministero dell’Università e della Ricerca (Mur), Ministero dell’Ambiente e della Tutela del Territorio (Matt), Ministero delle Politiche Agricole e Forestali.
Il programma è stato finanziato a valere sui fondi Fisr (Fondo Integrativo Speciale della Ricerca).
L’obiettivo del programma è la creazione di un «Centro di respiro internazionale per la ricerca nel campo dei cambiamenti climatici».

I promotori: la Cmcc Scarl

Il Centro è stato promosso dai seguenti soggetti:
Ingv – Istituto Nazionale di Geofisica e Vulcanologia, proponente e capofila


del progetto;
Università del Salento,
Cira S.c.p.a. – Centro Italiano Ricerche Aerospaziali,
Cvr – Consorzio Venezia Ricerche,
Feem – Fondazione Enrico Mattei,
Università degli Studi del Sannio.

I soggetti promotori hanno costituito una società consortile a responsabilità limitata, la Cmcc S.c.a r.l., per la gestione del Centro.

La società ha siglato delle convenzioni con alcune organizzazioni già attive in ambito nazionale sulle simulazioni climatiche e sugli effetti dei cambiamenti climatici, per definire la loro partecipazione ai programmi di ricerca del Cmcc, in qualità di «Enti Associati».

Gli «Enti Associati» al Cmcc sono: Desa (Università di Sassari), Iamb (Istituto Agronomico Mediterraneo di Bari), Iafent (Università della Tuscia), Ictp (International Center for Theoretical Phisics), Cnr (Dipartimento Terra e Ambiente), Ogs (Istituto Nazionale di Oceanografia e di Geofisica Sperimentale), Oms (Organizzazione Mondiale della Sanità), Crmpa (Centro di Ricerca in Matematica Pura e Applicata), Spaci (Southern Partnership for Advanced Computational Infrastructures).

(Fonte Cmcc, Mauro Buonocore, mauro.buonocore@cmcc.it mob. 3337045214, Segreteria organizzativa Alessandra Lezzi, alessandra.lezzi@cmcc.it tel 0832 288650 ? 3478780451)

L’Italia in ritardo ma non sfigura

Tempo di lettura: 2 minuti

«Molte utilities in parte per far fronte ad obblighi previsti dalle normative nazionali e in parte per diversificare la propria produzione, considerano ormai di importanza strategica il comparto delle rinnovabili e stanno incrementando notevolmente gli investimenti nell’energia verde, aumentando la quota di rinnovabili nel proprio portafoglio». Lo ha dichiarato Gianni Silvestrini, Direttore Scientifico di Kyoto Club, al convegno «Kyoto, transizione energetica, rinnovabili. La grandi aziende energetiche verso Copenaghen e gli obiettivi 2020».
In questo senso i dati sono confortanti: nel 2008 in Europa l’eolico, in termini di nuova potenza istallata, è al primo posto con il 35%, medaglia d’argento al gas (29%) e di bronzo al fotovoltaico (19%). Ma quello che realmente stupisce è il dato complessivo del periodo 2000-2008, che, considerate le variazioni nette della potenza elettrica installata in Europa, vede l’eolico attestarsi al secondo posto (45%), dopo il gas (68%) e prima del fotovoltaico (7%). Mentre il nucleare, a carbone e a olio) ha registrato un saldo negativo.
Dal punto di vista internazionale «il recente World Energy Outlook 2008 ? ha dichiarato Paolo Frankl, responsabile dell’Unità Energia Rinnovabile della Iea (International Energy Agency) ? ha prodotto un risultato nuovo per l’agenzia che porta ad identificare un obiettivo che condurrà ad una vera e propria rivoluzione, orientata a ?decarbonizzare? il mix energetico del settore elettrico, con un 50% al 2050 rappresentato da fonti rinnovabili».
Il progetto, fortemente ambizioso, prevede in Europa investimenti diretti pari a 350 miliardi di euro per la produzione elettrica verde nei prossimi 12 anni e 150 miliardi di euro per il potenziamento delle rete elettrica, a cui andranno aggiunti quelli per le rinnovabili termiche e per il comparto dei biocombustibili. È evidente come, in queste considerazioni, debbano essere comprese anche le politiche energetica della Cina e degli Usa, che rispettivamente prevedono di arrivare al 2020 con la copertura del 15% dei consumi energetici da parte delle rinnovabili e di raddoppiare l’energia verde nell’arco di 3 anni.
Ma come si presenta la situazione per l’Italia?
Per «contraddistinguersi» l’Italia è partita in ritardo rispetto agli altri Paesi, ma sta rapidamente recuperando. «Con 1010 MW eolici, 200 MW fotovoltaici, 400.000 mq di solare termico installati nel solo 2008 ? ha spiegato Gianni Silvestrini ? il nostro Paese si posiziona ai primi posti d’Europa e del mondo, la cui realizzazione ha comportato rispettivamente investimenti pari a 1,8 miliardi di euro, 1,2 miliardi di euro e 0,4 miliardi di euro. A questi devono essere aggiunti quelli relativi alle biomasse, ai biocarburanti, alla geotermia a bassa ed alta entalpia e al mini idroelettrico. Cifre importanti queste, che vedono impegnate ormai migliaia di aziende». Per centrare gli obiettivi europei al 2020 (17% dei consumi finali di energia) all’Italia servirà una partecipazione attiva del comparto energetico, con una chiara identificazione dei ruoli ricoperti dai singoli attori e, ancora più, un’attenzione maggiore e mirata da parte delle istituzioni e delle imprese, con la conseguente definizione di una nuova politica energetica che faccia delle rinnovabili il motore per avviare questa rivoluzione, se lo


scopo ultimo è il contenimento del riscaldamento globale.

Uso efficiente delle risorse

Tempo di lettura: < 1 minuto

L’Unep pone particolare attenzione nella costruzione e gestione efficiente degli edifici consumano circa un terzo dell’energia e sono responsabili di circa un terzo delle emissioni globali di gas serra.
L’uso efficiente dell’energia riguarda non solo il riscaldamento/raffreddamento ma anche tutti gli elettrodomestici e le attrezzature commerciali. Uguale attenzione viene posta sul trasporto e la mobilità che sono responsabili del 20% delle emissioni di gas serra a livello globale con una forte impennata alla crescita di tali emissioni, a mano a mano che i paesi in via di sviluppo procedono verso la loro industrializzazione.
Questo significa che il problema già cruciale nei paesi industrializzati, lo sarà ancor di più nei prossimi 20 anni quando l’attuale parco dei mezzi di trasporto, stimato in 650 milioni di veicoli circolanti, si raddoppierà. Infine, l’Unep, considera l’uso della risorsa acqua, una risorsa che è indisponibile per 880 milioni di persone dei paesi più poveri e che è scarsamente disponibile per altri 2,5 miliardi di persone.
La disponibilità di acqua e l’uso corretto delle risorse idriche rappresentano una priorità mondiale ed un presupposto fondamentale per eradicare la povertà, le malattie ed il sottosviluppo.

La Carta europea dell’acqua

Tempo di lettura: < 1 minuto

A Strasburgo, il 6 maggio 1968, il Consiglio dei ministri della Comunità europea approvò un documento che suppone una dichiarazione di principi sull’acqua. Questi sono i principi basilari.

1) Non c’è vita senz’acqua. L’acqua è un bene prezioso, indispensabile a tutte le attività umane.
2) Le disponibilità d’acqua dolce non sono inesauribili. E’ indispensabile preservarle, controllarle e se possibile accrescerle.
3) Alterare le qualità dell’acqua significa nuocere alla vita dell’uomo e degli altri esseri viventi che da essa dipendono.
4) La qualità dell’acqua deve essere tale da soddisfare le esigenze della utilizzazioni previste; ma deve specialmente soddisfare le esigenze della salute pubblica.
5) Quando l’acqua, dopo essere stata utilizzata, viene restituita al suo ambiente naturale, non deve compromettere i possibili usi, tanto pubblici che privati, che di quest’ambiente potranno essere fatti.
6) La conservazione di un manto vegetale, di preferenza forestale, è essenziale per la salvaguardia delle risorse idriche.
7) Le risorse idriche devono formare oggetto di un inventario.
8) La buona gestione dell’acqua deve formare oggetto di un piano stabilito dalle autorità competenti.
9) La salvaguardia dell’acqua implica un notevole sforzo di ricerca scientifica, di formazione di specialisti e di formazione del pubblico.
10) L’acqua è un patrimonio comune il cui valore deve essere riconosciuto da tutti. Ciascuno ha il dovere di economizzarla e di utilizzarla con cura.
11) La gestione delle risorse idriche deve essere inquadrata nel bacino naturale, piuttosto che entro frontiere amministrative e politiche.
12) L’acqua non ha frontiere. Essa è una risorsa comune che necessita di una cooperazione internazionale.

Abbandonare la logica dell’emergenza

Tempo di lettura: 2 minuti

( Enea, Centro ricerche, Casaccia )

I terremoti continuano a provocare crolli di edifici e vittime; anzi, oggi il sisma può mettere in crisi l’assetto socio-economico di grandi aree. Occorre una gestione integrata del territorio, che sappia coniugare sviluppo e sicurezza ed è indispensabile abbandonare la logica delle emergenze successive per passare a una corretta politica di prevenzione. Inoltre, essendo il territorio italiano prevalentemente sismico, la mitigazione del rischio richiede un notevole impegno finanziario e l’impiego di personale specialistico altamente qualificato. A seguito degli eventi degli ultimi decenni dello scorso secolo, sono state fatte varie valutazioni dell’investimento necessario per un’adeguata riduzione del rischio su tutto il territorio nazionale. Le cifre, apparentemente esorbitanti, sono in realtà nettamente inferiori di quelle necessarie nella gestione dell’emergenza e della ricostruzione e, pertanto, tale investimento risulterebbe estremamente conveniente. Ovviamente, le somme necessarie non sono disponibili in tempi brevi: è necessaria allora un’oculata programmazione della spesa e degli interventi, stabilendo priorità, per quanto riguarda il patrimonio pubblico, e incentivi, per quanto riguarda il patrimonio privato. Per far ciò è necessaria un’attenta valutazione del rischio e delle sue componenti.

Il rischio sismico è la combinazione di tre fattori: la pericolosità sismica, la vulnerabilità delle strutture presenti sul territorio e l’esposizione.
La pericolosità sismica di un sito è la misura dell’entità del fenomeno atteso nel sito stesso in un determinato periodo di tempo: è una caratteristica del territorio, indipendente dalla presenza o meno di beni su di esso. La vulnerabilità sismica di una struttura è la sua suscettibilità a subire un danno di un certo grado, in presenza di un evento sismico di assegnata intensità: è una caratteristica del bene, indipendente dalla pericolosità del sito in cui si trova. L’esposizione è legata all’uso del territorio, ossia alla distribuzione e alla densità abitativa, alla presenza di infrastrutture, alle destinazioni d’uso dei beni. Nell’esposizione può intendersi incluso il valore della costruzione, del contenuto e delle vite umane.
Come si può ridurre il rischio? Ovviamente non possiamo agire sulla pericolosità: non è possibile modificare l’intensità e la frequenza dei terremoti, né è possibile attualmente prevederne l’accadimento. Come si è detto da più parti, i terremoti non sono prevedibili: gli studi sui cosiddetti precursori sismici, infatti, non hanno fornito ancora risultati attendibili o comunque utilizzabili a scopi di protezione civile. Al contrario, invece, gli studi sulla pericolosità sismica dei siti, sulla vulnerabilità delle strutture sono sufficientemente avanzati per poter sviluppare un’efficace politica di prevenzione sismica.
La conoscenza della distribuzione della pericolosità consente di evidenziare le zone sulle quali intervenire prioritariamente. È inoltre possibile ridurre il danno atteso alle costruzioni e agli impianti migliorandone le caratteristiche strutturali e non strutturali, ossia ridurne la vulnerabilità. È anche possibile progettare l’uso del territorio selezionando le aree più idonee per future costruzioni e infrastrutture, incidendo sulla distribuzione e densità abitativa, sulle destinazioni d’uso, ossia ridurre l’esposizione. Non vanno trascurati la cura della consapevolezza nei confronti del rischio sismico e dei comportamenti in caso di terremoto.