Il rapporto Iwc

Tempo di lettura: < 1 minuto

Il rapporto «Small Type Whaling ? Una falsa scelta per l’Iwc» si basa su una ricerca svolta dalla Wdcs (Whale and Dolphin Conservation Society) e dall’Ikan, Iruka (balena) e Kujira (delfino) Action Network che ha incluso l’analisi delle attività di caccia alle balene, attuali e passate, di ogni città, nonché interviste con una serie di persone la cui testimonianza era rilevante ai fini dell’indagine, tra cui balenieri, intermediari, grossisti, commercianti al dettaglio, consumatori e funzionari pubblici.
Le attività di Small Type Whaling sono caratterizzate dall’uso di imbarcazioni di dimensioni esigue (al di sotto di 50 tonnellate) che cacciano le piccole balene con gli arpioni, durante uscite di un giorno.
Attualmente, le specie prese di mira dalle attività di Small Type Whaling delle città di Taiji, Wada, Abashiri e Ayukawa sono il globicefalo di Gray, il grampo e il berardio boreale.

Il miglioramento genetico

Tempo di lettura: 2 minuti

Al momento, vige una moratoria che impedisce l’uso di prodotti Ogm in molti paesi europei, in attesa di una normativa condivisa che risolva le problematiche legate alla tracciabilità e all’etichettatura di questi prodotti.
A fronte dei problemi sopra citati, che un’attenta sperimentazione preliminare governata da una opportuna normativa può largamente minimizzare, si devono anche sottolineare gli innegabili vantaggi dei cibi biotecnologici. Uno dei più rilevanti è la possibilità di combattere con armi molto più efficaci il problema della fame nel mondo. Infatti, si potrebbero mettere a punto varietà in grado di produrre raccolti abbondanti con migliori caratteristiche nutrizionali, in condizioni climatiche difficili o con scarsità di irrigazione.
Un ulteriore elemento che va anche sottolineato è che i cibi che utilizziamo normalmente sono «naturali» fino ad un certo punto. Infatti, le piante che attualmente usiamo per la nostra alimentazione derivano da tutta una serie di incroci finalizzati al cosiddetto «miglioramento genetico», in modo da ottenere varietà con caratteristiche sempre migliori.
Questa tecnica viene utilizzata da oltre un secolo, da quando Mendel scoprì le regole dell’ereditarietà per mezzo degli esperimenti sui piselli. Anche in questo caso si ottiene una nuova varietà di pianta con un patrimonio genetico differente da quello di ambedue le specie incrociate.
Forse non tutti sanno che anche in questo caso si può incorrere negli stessi problemi prima citati per le piante transgeniche e quindi è richiesta la stessa cautela e un’attenta valutazione del prodotto.
Inoltre, a differenza della tecnica dell’incrocio che rimescola a caso i geni per poi vedere che cosa succede con le moderne biotecnologie è possibile un’azione molto più mirata per il fatto che viene solitamente aggiunto un solo carattere (gene) e in condizioni più controllate.
D’altro canto il fatto che un alimento sia «naturale» non vuol dire che non presenti rischi per la salute. Anche la tossina botulinica, spesso letale per l’uomo, si forma naturalmente in alcune conserve preparate senza usare alcune precauzioni.

Scelte personali non deroghe in bianco

Tempo di lettura: 2 minuti

Oltre le difficoltà specifiche del corretto dimensionamento di verità fondate su dati sperimentali, da una parte, e di traduzione in verità di corrispondenti principi teorici ispiratori, dall’altra, e ancora oltre le difficoltà procurate dal sopravanzare di particolari interessi sul senso e sulla spendibilità operativa di tali verità, vi sono altri insidiosi ostacoli che frenano la nostra, pur istintiva, propensione ad esplorare gli sfuggenti territori del vero e del falso. Sono gli ostacoli di una nostra insufficiente informazione, della carenza di «letture» autonome e critiche dei nostri intorni (più vicini e più lontani, nel tempo e nello spazio), delle nostre frequenti e volontarie disattenzioni. Sono ostacoli che, per esempio, ci portano a trascurare quanto, già solo, i due diversi approcci alla ricerca del vero, qui richiamati (quello induttivo e quello deduttivo), possano «fertilmente» contaminarsi. Nelle nostre «intelligenti» visioni di un mondo di fenomeni, sospesi fra immanenza e trascendenza, tutto è sempre da interpretare come espressione di equilibri dinamici di varia natura con cui interagire, con cui dialogare, con cui armonizzarsi…

Senza entrare nel merito della portata dei diversi metodi, per le indagini sul vero, possiamo comunque rilevare che già da questi due metodi paradigmatici di ricerca (induttivo e deduttivo) emerge un’identica intenzione degli esseri umani di «dimostrare il vero», al di là delle differenze di contenuto e di specificità dei contesti. Un’invariante mentale che mette in evidenza quella condivisa ricerca di punti di riferimento, fondamento del conoscere umano, e che (pur usando strumenti diversi e portando a esiti provvisori e anche opposti) caratterizza trasversalmente la totalità delle tradizioni culturali e dei modi di pensare umani.
Si tratta di una ricerca del vero, che si articola nel riconoscimento di punti di riferimento legittimi e utilmente ridondanti, per offrire necessarie direzioni alternative alle nostre scelte esistenziali. In questa impresa, però, siamo esposti, in mancanza di autonomia di giudizio, di consapevolezze e di senso di responsabilità, ai rischi delle manipolazioni da parte di quel «potere» che, sui meccanismi di una ricerca di legittimità eterodiretta, costruisce un proprio dominio e impone sottomissione di diritti e libertà umane.
Le questioni sociali del vero e del falso non sono dunque solo oggetto di argomentazioni accademiche, né sono fonti assolute di legittimità di una o di altre scelte, ma riguardano le responsabilità personali di ogni atto vitale e non possono, quindi, ammettere quelle astensioni o deleghe in bianco che pur trovano, ancora oggi, ampi spazi nelle prassi di governo di molte grandi comunità nazionali.

«Briciole» di storia da non perdere

Tempo di lettura: 2 minuti

È ormai passato un terzo di secolo da quella fine degli anni Sessanta del Novecento in cui è nata la «primavera dell’ecologia». In quel quinquennio, dal 1968 al 1973, è stato come se gli abitanti dei paesi industrializzati scoprissero i costi del «progresso» e della crescita economica: inquinamenti, incidenti industriali, congestione del traffico, frane e alluvioni (la grande alluvione di Firenze si ebbe nel 1966), mancanza di acqua, frodi alimentari, i pericoli delle bombe atomiche.

Sorsero allora i primi gruppi e movimenti di denuncia che riuscirono a mobilitare migliaia di persone, a richiamare l’attenzione dei grandi mezzi di comunicazione. La loro azione mostrò che se si vuole, si vince: «Protest and survive», protestate se volete sopravvivere alla violenza del potere economico, militare e tecnologico.

Vennero poi gli anni della crisi petrolifera, le proteste per il nucleare, a cui seguirono gli anni Ottanta e novanta del Novecento, con la ripresa dei commerci (e delle relative violenze e guerre), con il crollo dell’Unione Sovietica e la scomparsa del «comunismo», di quei fermenti di giustizia, uguaglianza, pace, rispetto dell’ambiente che avevano caratterizzato i più generosi gruppi ecologici.

In questi primi anni del Duemila molti cominciano a interrogarsi di nuovo sul mondo circostante: guerre, inquinamenti, incidenti industriali, sete e alluvioni, frodi alimentari riaffiorano fra l’ideologia del lusso e degli sprechi; lo svuotamento della capacità dello Stato come regolatore del «bene pubblico» (e la natura e l’ambiente sono beni comuni per eccellenza); lo strapotere del privato e del mercato fa sì che i meno abbienti comincino a sentirsi più poveri e insicuri in un ambiente sfruttato a alterato dalla prepotenza dei più abbienti.
Fortunatamente nuovi militanti e movimenti sorgono, per lo più ignari di quanto è successo in passato; eppure le lotte di trent’anni fa potrebbero dare tante utili indicazioni, motivi di speranza.
Purtroppo le testimonianze dell’età dell’oro dell’ecologia sono in gran parte scomparse. Molti dei protagonisti sono morti: si pensi solo alle figure carismatiche di Laura Conti, di Aurelio Peccei, di Antonio Cederna. Le stesse grandi associazioni non hanno conservato i loro archivi; molte persone hanno abbandonato la lotta e hanno svuotato le cantine dei libri, volantini, manifesti. Oggi che si cerca di creare un archivio storico delle lotte ambientali, si vede quanto poco sia rimasto.

Premio sapio per l’ambiente e lo sviluppo sostenibile

Tempo di lettura: 5 minuti

Dott. Pasquale Avino
Nato a Roma, ricercatore presso l’Istituto Superiore per la Prevenzione e la Sicurezza del Lavoro (Ispesl)

Titolo dei risultati di ricerca
Determinazione e distribuzione spazio-temporale del materiale carbonaceo nel particolato atmosferico come nuovo tracciante nella contaminazione ambientale.

Motivazione del Comitato Scientifico
Sia con il Premio Sapio Energia e Trasporti sia con il Premio Sapio Ambiente e Sviluppo Sostenibile si è voluto lanciare un segnale forte che sancisca la necessità di operare scelte verso uno sviluppo che sia effettivamente durevole, costruito in prospettiva, che tenga conto di ciò che lasceremo domani alle future generazioni.
Un riconoscimento quindi ai più giovani ai quali è affidato un compito arduo che richiede determinazione e dinamismo.
La ricerca presentata dal dott. Avino sia per i contenuti affrontati sia per i risultati ottenuti è pienamente in linea con questa impostazione e con la finalità scientifica del Premio che, anche nel suo lungo tour scientifico, ha focalizzato l’attenzione sulle problematiche e sulle soluzioni legate allo sviluppo di nuove fonti energetiche, condizione questa indispensabile per uno sviluppo di qualità.

Sintesi contenente una breve descrizione dei risultati di ricerca
Il materiale particellare carbonioso è un parametro di fondamentale importanza ai fini della valutazione della qualità dell’aria. Esso è costituito da una frazione organica, nota come carbonio organico (OC), e da una frazione resistente all’ossidazione ad una temperatura di 350°C denominata carbonio elementare (EC). L’OC è una miscela complessa di più classi di composti (idrocarburi, composti ossigenati, acidi organici, ecc.) e ha un’origine sia primaria sia secondaria. L’OC primario viene emesso principalmente come particelle submicroniche da processi antropogenici e/o biogenici e l’OC secondario può avere origine dalla condensazione gas-particella di composti organici volatili a bassa tensione di vapore o dall’adsorbimento chimico e/o fisico di specie gassose su particelle. L’EC ha una struttura grafitica ed è essenzialmente un inquinante primario emesso direttamente durante i processi di combustione.
Dal punto di vista della granulometria, le particelle al di sotto di 10 µm (soprattutto PM10 e PM2.5) sono quelle più dannose per la salute dell’uomo e allo stesso tempo sono quelle che maggiormente interessano i processi di assorbimento e di trasformazione di inquinanti gassosi e i fenomeni di trasporto a grande distanza.
Nella ricerca vengono studiati i livelli di concentrazione del materiale particellare (PM10), del carbonio elementare (EC) e del carbonio organico (OC) misurati in aree urbane e remote. Principale risalto è dato allo studio analitico della separazione tra le due frazioni. Viene inoltre studiata l’evoluzione spazio-temporale delle due frazioni e più generale investigata l’evoluzione temporale delle particelle carboniose in atmosfera in funzione delle sorgenti emissive di origine antropica e naturale e della dinamica diffusiva dei bassi strati dell’atmosfera

Breve descrizione dell’applicazione pratica dei risultati di ricerca
Sviluppo di metodologie per la determinazione del carbonio organico ed elementare del particolato nel particolato. Implementazione dei sistemi di misura di inquinanti sul particolato (nitrati e solfati).

Descrizione tecnica dei risultati di ricerca
Il materiale particolato (PM) in atmosfera è un inquinante complesso sia per la


sua origine naturale e/o antropogenica che per la sua granulometria: per questi motivi può essere considerato un parametro di fondamentale importanza ai fini della valutazione della qualità dell’aria sia in aree urbane che remote.
Le principali sorgenti naturali sono l’eruzione dei vulcani, l’erosione delle rocce, gli aerosol marini, le emissioni biogeniche, ecc., mentre le principali sorgenti antropogeniche sono i processi di combustione e specifiche attività industriali. Dal punto di vista granulometrico, le particelle al di sotto di 10 mm (frazione toracica e respirabile) sono quelle più dannose per la salute dell’uomo e nello stesso tempo sono quelle che maggiormente interessano i processi di adsorbimento e di trasformazione di inquinanti gassosi e fenomeni di trasporto a grande distanza. Infatti, aree lontane da sorgenti di emissioni, quali ad esempio aree marine o aree remote, possono subire la ricaduta di sostanze inquinanti dovuta a fenomeni di trasporto.
La componente carboniosa di cui è costituito il materiale particellare può essere utilizzata come un nuovo tracciante utile per la valutazione della contaminazione di un determinato ambiente. La frazione carboniosa è costituita da un complesso miscuglio di sostanze contenenti atomi di carbonio che vengono normalmente classificati in due principali componenti: carbonio elementare (EC) e carbonio organico (OC). OC è una miscela complessa di più classi di composti (idrocarburi, ossigenati, ecc.) e ha un’origine sia primaria che secondaria: l’OC primario è emesso principalmente come particelle sub-microniche mentre l’OC secondario può avere origine dalla condensazione gas-particella di composti organici volatili a bassa tensione di vapore o dall’adsorbimento chimico e/o fisico di specie gassose sulle particelle. EC ha invece una struttura grafitica ed è essenzialmente un inquinante primario emesso direttamente durante i processi di combustione. È da sottolineare che quando la differenza tra le due frazione non è dal punto di vista termico ma dal punto di vista ottico, la frazione elementare prende il nome di ?black carbon? (BC).
La determinazione del carbonio totale (TC) nel particolato e la separazione del carbonio elementare dal carbonio organico possono essere eseguite con differenti metodiche analitiche che sfruttano le differenti proprietà ottiche, termiche o chimiche delle particelle. Vi è una varietà di metodiche ottiche basate sul principio della misura della trasmittanza o della riflettanza di un raggio di luce incidente su particelle raccolte su filtro. Recentemente sono stati sviluppati vari procedimenti di misure termiche che consentono anche la separazione del carbonio elementare dal carbonio organico sia attraverso una pre-estrazione con solvente della componente organica o direttamente mediante due stadi di combustione/ossidazione a due diverse temperature.
Il metodo utilizzato in questa ricerca si basa sulla diversa composizione della sua frazione organica ed elementare: la frazione organica viene determinata dopo riscaldamento a 350°C e determinazione come CO2 mediante un rivelatore non dispersivo infrarosso mentre la frazione resistente alla temperatura di ossidazione di 350°C è il carbonio elementare. L’importanza del materiale carbonaceo nella valutazione della qualità dell’aria è evidenziata dalla correlazione tra OC ed EC. In quest’ambito infatti sono stati condotti studi che hanno individuato come il traffico nelle aree urbane sia la principale fonte


di emissioni di inquinanti di origine primaria mentre nelle aree verdi risulta importante il contributo di OC primario di origine biogenica (piante). A tal scopo è risultato molto utile il comportamento del rapporto TC(=EC+OC)/EC: infatti nelle aree verdi la presenza di emissioni primarie di origine biogenica dà come risultato un valore di TC/EC differente (maggiore) rispetto all’analogo in un’area urbana ad alto traffico.
La ricerca è stata condotta essenzialmente in due siti di Roma: una stazione è localizzata nel centro della città, in via Urbana (S. Maria Maggiore), interessata da una alta densità di traffico autoveicolare, mentre la seconda nel parco di Villa Ada, una zona non direttamente influenzata dai flussi di traffico cittadino. L’evoluzione spazio-temporale delle particelle carboniose è stata interpretata mediante la misura della radioattività naturale utilizzata come tracciante della diffusione verticale nei bassi strati dell’atmosfera. La separazione di EC da OC effettuata mediante un metodo termico con due stadi di ossidazione a due temperature (350°C e 750°C) ci ha consentito anche di identificare le fonti primarie di EC derivanti dal traffico autoveicolare, di differenziare quelle primarie biogeniche ed antropogeniche di OC e quelle secondarie di OC.
I risultati della ricerca, tutt’ora in corso, evidenziano che il monitoraggio della frazione carboniosa presente nel materiale particellare in sospensione è molto importante per avere una conoscenza più approfondita della qualità dell’aria specialmente nelle aree urbane in cui la sorgente emissiva più importante è il traffico autoveicolare.
Il metodo analitico adottato che sfrutta le proprietà termiche delle particelle consente una misura diretta del materiale carbonaceo e presenta un notevole vantaggio rispetto al metodo dei fumi neri previsto dalla normativa vigente che opera una misura indiretta del materiale carbonioso mediante assorbimento di luce.
In definitiva, l’utilizzo di tale metodologia d’indagine porta a esprimere le seguenti valutazioni:
· misura fondamentale per la valutazione dell’inquinamento atmosferico da processi di combustione;
· utilizzo di questa misura come indice specifico dell’inquinamento da traffico autoveicolare;
· misura molto significativa ai fini della tutela della salute dell’uomo per l’elevata permanenza delle particelle carboniose nell’atmosfera e per i numerosi processi di trasformazione chimico-fisici che esse possono subire nell’atmosfera;
· la buona correlazione tra i valori di OC ed EC mette in evidenza che nell’area del centro storico di Roma la sorgente più importante della frazione carboniosa nel particolato è il traffico autoveicolare;
· la separazione tra EC, di origine primaria, ed OC, di origine primaria e secondaria, è di fondamentale importanza per lo studio degli effetti pneumoconiogeni, e più in generale per gli effetti tossici, e per lo studio dei meccanismi di formazione degli inquinanti fotochimici.

The U.S. “CLIMATE CHANGE SCIENCE PROGRAM” Advances Understanding of Climate Variability, Potential Responses and Options

Tempo di lettura: 3 minuti

The Bush Administration announced unprecedented federal initiatives designed to organize the federal government’s climate change science research system along with funding for global climate observation.

The new, historic initiative brings together the resources and expertise of
13 federal agencies. The Climate Change Science Program (CCSP), a joint federal program of the President’s Committee on Climate Change Science and Technology Integration, has issued its strategic plan to address some of the most complex questions and problems dealing with long-term global climate variability and change.

It reflects an unprecedented outreach to interested parties, including some
1,200 scientists and stakeholders and representatives of over 35 countries. The document describes a strategy for developing knowledge of variability and change in climate and related environmental and human systems, and for encouraging the application of this knowledge.

The strategic plan: CCSP, will advance the state of knowledge of climate variability, the potential response of the climate system (and related human and environmental systems) to human-induced changes in the atmosphere and land surface, and the implications of these potential changes and management options for natural environments. The plan will also support scientific discovery and excellence, and encourage partnerships that facilitate the use of knowledge to protect the Earth’s environment and ensure a safer, healthier planet for future generations.

Main outlines

CCSP PRIORITIES:

1) Near term research: (a) atmospheric distributions and effects of aerosols; (b) climate feedbacks and sensitivity, initially focusing on polar feedbacks; and (c) carbon sources and sinks, focusing particularly on North America.

2) Climate observing systems, including efforts to: (a) document historical records; (b) improve observations for model development and applications;
(c) enhance biological and ecological observing systems; and (d) improve data archiving and information system architectures.

3) Climate modeling that will improve understanding of the causes and impacts of climate change. These models will be key assets in helping policymakers, planners, and resource managers address climate change issues.

CCSP GOALS:

Five principal goals have been adopted to guide the CCSP.

1) Goal 1: Improve knowledge of the Earth’s past and present climate and environment, including its natural variability, and improve understanding of the causes of observed variability and change.

2) Goal 2: Improve quantification of the forces bringing about changes in the Earth’s climate and related systems.

3) Goal 3: Reduce uncertainty in projections of how the Earth’s climate and related systems may change in the future.

4) Goal 4: Understand the sensitivity and adaptability of different natural and managed ecosystems and human systems to climate and related global changes.

5) Goal 5: Explore the uses and identify the limits of evolving knowledge to manage risks and opportunities related to climate variability and change.

By developing information with the aim of achieving these goals, the program will ensure that it addresses the most important climate-related issues. For each of


the goals, the CCSP will prepare science-based information resources that support policy discussions and decisionmaking.

CCSP CORE APPROACHES

1) Scientific Research: Plan, Sponsor, and Conduct Research on Changes in Climate and Related Systems in the following seven sectors: a) Atmospheric Composition, b) Climate Variability and Change, c) Global Water Cycle, d) Land-Use/Land-Cover Change, e) Global Carbon Cycle, f) Ecosystems, g) Human Contributions and Responses.

2) Observations: Enhance Observations and Data Management Systems to Generate a Comprehensive Set of Variables Needed for Climate-Related Research.

3. Decision Support: Develop Improved Science-Based Resources to Aid Decisionmaking.

4. Communications: Communicate Results to Domestic and International Scientific and Stakeholder Communities, Stressing Openness and Transparency

CCSP INTERNATIONAL COOPERATION

International Geosphere-Biosphere Programme (IGBP) World Climate Research Programme (WCRP) International Human Dimensions Programme (IHDP) Jointly IGBP/WCRP/IHDP Sponsored Projects Intergovernmental Organizations (WMO, UNESCO, NEESPI, IOC/SCOR) Intergovernmental and Similar Organizations and Activities (EU, IRI, IAI, APN, ILTER)

MORE INFORMATION:

CCSP and the strategic plan: www.climatescience.gov

Come è nato Clean-up the World

Tempo di lettura: < 1 minuto

La storia di Clean up the World comincia nel lontano 1989, da un’idea del velista australiano Ian Kiernan. In breve, grazie anche al sostegno dell’Unep (il Programma ambientale delle Nazioni Unite) l’iniziativa assume una portata mondiale, tanto che l’anno scorso hanno partecipato 40 milioni di persone in più di 120 stati.
In Italia i risultati positivi di questi anni sono stati possibili grazie all’impegno dei circoli locali di Legambiente, di quello di migliaia di comuni, di gruppi di cittadini e di imprese che puntano sulle produzioni più pulite.

Il programma della giornata

Tempo di lettura: < 1 minuto

Ore 9. Saluti delle autorità

Ore 9,15. Intervento di Vanda Bonardo, Legambiente Piemonte

ore 9,30 ? 13. Le Alpi oggi – Dati, visioni, contrasti

Werner Bätzing, Università di Erlangen,

Luigi Zanzi, Università di Pavia,

Bernard Débarbieux, Università di Ginerva,

Gian Paolo Torricelli, Cantone Ticino,

Daniela Jalla, Città di Torino,

Roberto Gambino, Politecnico di Torino,

ore 15 – 18. Le Alpi italiane tra modernità e spopolamento – Le risposte della politica

Enrico Borghi, UNCEM,

Luciano Caveri, Regione Valle d’Aosta,

Damiano Di Simine, CIPRA Italia,

Valter Giuliano, Provincia di Torino,

Fabio Renzi, Legambiente,

Roberto Vaglio, Regione Piemonte

Ecco il programma

Tempo di lettura: 2 minuti

9 Registrazione dei partecipanti
9,20 ? 11:Il Programma Energetico Provinciale e le linee guida del Piano Energetico Regionale
9,20 Mercedes Bresso Presidente della Provincia di Torino Introduzione
9,30 Luciano Albertin Saluto del Presidente del Consiglio provinciale
9,40 Roberto Quaglia Dirigente della Programmazione e Risparmio in Materia Energetica della Regione Piemonte La proposta di Piano Energetico Regionale
10 Giuseppe Gamba Assessore allo Sviluppo Sostenibile e Pianifi cazione Ambientale La politica energetica della Provincia di Torino:il Programma Energetico Provinciale Franco Tecchiati Dirigente Progetto per il Risparmio Energetico della Provincia di Torino
10,20 Giuseppe Onufrio Direttore Istituto Sviluppo Sostenibile Italia Verso Kyoto e oltre: barriere e potenzialità per le politiche energetiche
10,40 Paolo Cuccia Referente per l’analisi della rete della sede di Torino del GRTN
L’attività del GRTN: la rete dell’area Nord Ovest e gli impianti a fonti rinnovabili
11 ?11,30 Coffe Break
11,30 ? 13,30 Tavola rotonda: ?Le politiche di promozione per le fonti rinnovabili di energia e per il risparmio energetico nel contesto della liberalizzazione del mercato dell’energia. Quale il ruolo degli attori in Provincia di Torino??
Moderatore:Claudia Apostolo -giornalista RAI
Donato Leo Servizio energia e ambiente,Unione Industriale di Torino Levio Bottazzi Presidente Commissione Ambiente del Consiglio Provinciale Lorenzo Maina Responsabile programmi risparmio energetico negli usi finali,Italgas Ugo Cavallera Assessore all’Ambiente, Qualità e Agricoltura della Regione Piemonte Vanna Lorenzoni Segretario generale CGIL Torino Roberto Tricarico Assessore alle Politiche per la Casa e allo Sviluppo delle Periferie del Comune di Torino e rappresentante ANCI ?Piemonte Giuliano Martignetti Presidente Kyotodalbasso Umberto D’Ottavio Sindaco della Città di Collegno e rappresentante della Lega delle Autonomie Locali
Pausa pranzo
14,30 ? 17: Buone pratiche in Provincia di Torino
Coordina: Mariella Depaoli -Vice Presidente Commissione Ambiente del Consiglio Provinciale
14,30 Marco Codognola Direttore Business Development e Grandi Progetti -AEM
Torino Il sistema del teleriscaldamento nell’area metropolitana
14,45 Roberto Mora Dirigente del settore Pianificazione e Controllo
Partecipazioni Aziendali -Comune Torino Enti pubblici come clienti idonei: l’esperienza del Comune di Torino
15 Carlo Avataneo Assessore agricoltura e valorizzazione ambiente – Comune di Carmagnola Il progetto di Enerkanma 2000 per la riqualifi cazione di un’area industriale dismessa
15,15 Monika Schulz Ricercatrice – Istituto di Ricerche Ambiente Italia Gli impianti solari di grande dimensione in provincia di Torino
15,30 Andrea Zorer Consulente – ASA L’impianto di teleriscaldamento a biomassa di Vico Canavese
14,45 Franco Molteni Ricercatore -Fondazione Ambiente Progetto Replan:indicazioni per uno sviluppo programmato delle rinnovabili in sede locale -Il caso delle biomasse legnose 16:00 Nicola Brizzo Responsabile progettazione idraulica ? AEM Torino L’uso plurimo delle acque in montagna:le centraline idroelettriche a Chiomonte
16,15 Marco Massara Tecnico -Agenzia Energia e Ambiente della Città di Torino Regolamenti edilizi comunali e promozione dell’uso razionale dell’energia.
Alcuni esempi di buona pratica
16,30 Antonio Coschignano Tecnico -Provincia di Torino Linee guida sull’inquinamento luminoso
16,45 Bernardo Ruggeri Presidente-Environment Park HYSY_LAB:laboratorio di eccellenza sulle tecnologie dell’idrogeno
Domande e conclusioni

Climate Change: Think Out Of The Box

Tempo di lettura: 4 minuti

For too long, the debate on climate change has been deadlocked. It’s time to move beyond that. The US takes the issue of climate change very seriously, remains committed to the UN Framework Convention on Climate Change, and is resolved to move forward aggressively on this issue. The Climate Change Technology Bazaar being held in Delhi this week is an opportunity to think of innovative ways to address this issue.
The US recognises the importance of near-term actions while maintaining economic growth. It also emphasises that any solution will require the development and deployment of “transformational” technologies to produce and use energy with little or no net atmospheric greenhouse gas (GHG) emissions and technologies that will allow the use of abundant fossil fuels.
Emission management and technological innovation are the bases for the Administration’s long-term climate change strategy. That commitment includes cutting GHG in-tensity by 18% over the next 10 years and will prevent more than 500 million metric tonnes of carbon-equivalent emissions through 2012 – the equivalent of taking 70 million cars off the road. It is based on the common sense idea that economic growth is key to environmental progress be-cause such growth provides resources for investment in clean technologies and in-creased energy efficiency. In support of these alternatives, President Bush’s 2003 budget provides a record $4.5 billion for climate-related progra-mmes, an increase of $700 million from the previous year. This commitment of resources is greater than that of any other nation in the world. The US recognises that we must first understand the issue better if we are to address it effectively. Contrary to the claims of some, we lack the necessary data re-quired to understand the Earth system. To address this deficiency, the US hosted the Earth Observation Summit in Wash-ington this summer, attended by over 40 nations and international organisations, inclu-ding India. The summit’s goal was to design and implement over the next 10 years a new global, integrated, sustained, and comprehensive Earth observation system that will greatly advance our understanding of climate change.
It is becoming increasingly clear that existing energy technologies cannot meet the growing global demand for energy while delivering the emissions reductions necessary to stabilise atmospheric GHG concentrations. We must develop and deploy transformational technologies in energy production, distribution, storage, conversion, and use. Carbon sequestration and hydrogen technologies are two excellent examples. The former involves removing carbon dioxide from fossil fuel combustion emissions streams and permanently storing it in deep underground formations, such as depleted oil and gas reservoirs, unmineable coal seams, and deep saline aquifers. It is a top priority for the US because of our large coal reserves and the fact that fossil fuels will continue for the foreseeable future to be the world’s most reliable and lowest-cost ener-gy resources. It could have similar applications in India.
The Carbon Sequestration Leadership Forum is a multilateral effort to advance technologies that capture and store carbon emissions. It was inaugurated formally in June 2003 when 13 coal-producing


and consuming nations, including India, and the European Commission signed an international charter establishing a framework for cooperative re-search and develop- ment. The Forum’s partners will be invited to participate in our $1 bn FutureGen project – an initiative to design and construct the first emission-free coal-fired power plant. FutureGen will be a living prototype, testing the latest technologies to generate electricity, produce hydrogen, and sequester GHG emissions and will help lead to the development of clean fossil fuel power plants worldwide.
Earlier this year, the US announced a plan to change our nation’s energy future to one that utilises the most abundant element in the universe – hydrogen. It has a high-energy content, is non- polluting when used to create energy in fuel cells, and can be produced from different sour-ces. Over the next five years, the US has pledged $1.7 bn to fund the ambitious Freedom-CAR and Hydrogen Fuel Initiative to develop emission-free automotive operating systems that run on hydrogen.
The US has called for the establishment of an International Partnership for the Hydrogen Economy (IPHE). The public-private collaborations envisioned under it will address the technological, financial, and institutional barriers to hydrogen and develop globally-recognised technology standards to speed market penetration of new hydrogen-based technologies. India will be one of 14 countries and the EC at a ministerial in Washington to discuss the IPHE.
Finally, there is economic sense in reducing emissions. Eliminating GHG emissions before they enter the atmosphere costs less than addressing the consequences later. Add to this the potential economic benefits from tackling global warming. Two major corporations have found tackling global warming to be cost-effective: Dupont decided to reduce its emissions to 65% below its 1990 level and British Petroleum committed to reducing its emissions to 10% below its 1990 level. Both companies have reported cost savings as a result of their actions, with Dupont reaping $1.5 billion and BP $650 million. Other industries also stand to benefit. Farmers would be able to profit by adopting pro-environment practices, such as increasing carbon levels in their land, and selling emission credits to polluters. Such market-based incentives encourage the private sector to make and sell more efficient, cleaner energy technologies.
Through greater co-operation, sustained funding, and data-sharing, we can enhance our understanding of the environmental challenges we face and the quality of our decision-making in responding to these challenges. Together we must challenge conventional wisdom, think outside the box, and use our imaginations to make lasting improvements in the quality of our environment.
The writer is Charge d’Affaires of the US Mission
(Indian Express Newspapers)

Un piccolo successo di nome Leontocebo

Tempo di lettura: < 1 minuto

Il leontocebo dorato, una piccola scimmia endemica del Brasile, è la storia di successo dell’edizione 2003 della Lista Rossa Iucn. E’ l’unico primate che «scende» di categoria, da «minacciato in modo critico» a «minacciato».
E’ il risultato di trent’anni di sforzi di conservazione fatti dal governo brasiliano e dal Wwf. Nel 1971, quando il Wwf ha avviato il programma di conservazione di questa specie, c’erano circa 200 animali che sopravvivevano allo stato selvatico. Nel 2001 sono nati ben 1.000 esemplari, grazie anche a programmi di riproduzione in cattività negli zoo e reintroduzione in natura. Con circa 2.000 esemplari viventi allo stato selvatico, il piccolo primate rimane comunque nella categoria degli animali a rischio.
«E’ necessario – dice il Wwf – incrementare l’areale a disposizione di questo animale, dagli attuali 17.000 ettari ai 25.000». Altro obiettivo al quale si lavora è la creazione di corridoi ecologici per mettere in comunicazione aree frammentate tra loro dove vive questa piccola scimmietta dorata. Nel 2002 è stata creata anche un’area protetta nel principale habitat del leontocebo, nella foresta atlantica brasiliana lungo il bacino del fiume São João.

L’incredibile pasticcio nucleare

Tempo di lettura: 4 minuti
Un lettore (Paolo Fornaciari) ci invia questa «sintesi/parere» sul caso delle scorie nucleari. Ve la proponiamo, può essere utile per sollecitare altri interventi o pareri nel nostro forum.

Dopo venti anni che se ne parla, improvvisamente il problema della individuazione del sito per la sistemazione delle scorie radioattive diventa urgente e indifferibile. Perché? Bisogna risalire al 14 dicembre 1999, quando l’allora ministro all’Industria on. Pierluigi Bersani, annuncia in una conferenza stampa che l’Italia, dopo aver intrapreso negli anni passati un impegnativo programma nucleare, ha deciso di interromperlo (decisione che non risulta presa), e non più continuarlo; che l’obiettivo da perseguire è quello della disattivazione accelerata di tutti gli impianti nucleari dismessi, saltando la fase di messa in custodia protettiva passiva, in base al principio etico di non trasferire sulle future generazioni gli effetti onerosi delle scelte effettuate; che per reperire i fondi necessari (indicati in 7.000 miliardi in 20anni), si attingerà a «due salvadanai», lo specifico fondo accantonato dall’Enel (1.300 miliardi) e il sovrapprezzo sul kWh a carico degli utenti dell’Enel.
Una iniziativa prematura (non essendo stato individuato il sito per la sistemazione dei rifiuti radioattivi), inutilmente costosa, con maggiori rischi di radioprotezione (per le più elevate dosi attuali), contraria alla prassi internazionale (generalmente si attendono 60 o più anni) e soprattutto «illegittima», essendo priva di preventiva autorizzazione formale.
La formalizzazione della decisione avverrà solo con il decreto Letta del 7 maggio 2001 che affida l’incarico di provvedere alla disattivazione accelerata di tutti gli impianti elettronucleari dimessi entro venti anni, alla Sogin, ma intanto e per 18 mesi l’azione di smantellamento delle centrali nucleari di Caorso e Trino Vercellese era continuata senza autorizzazione alcuna.
La questione dello smantellamento della centrale nucleare di Caorso, è stata proprio gestita male.
Cinquanta anni fa Enrico Mattei, incaricato dal Governo di allora di liquidare l’Agip, disubbidì e costruì un impero. Il Presidente della Sogin, generale Carlo Jean, da buon militare ha detto invece ubbidisco ed ha iniziato l’opera di smantellamento della centrale nucleare di Caorso. Subito è emerso il problema della sistemazione delle scorie radioattive. Il Sindaco di Caorso, Daniele Nastrucci non le vuole nel suo Comune. Interviene allora il Governo che con decreto del Consiglio dei Ministri del 13 novembre 2003, individua in una miniera di salgemma a Scanzano Jonico in Basilicata il sito più idoneo sulla base della conformazione geologica e delle caratteristiche sismo-tettoniche. Immediata la protesta del Sindaco di Scanzano Jonico, Mario Altieri e della popolazione locale che organizza blocchi stradali e ferroviari, sia perché altre Regioni in precedenza interpellate (Puglia e Sardegna?) si erano rifiutate, sia per la mancata consultazione che per le forti perplessità espresse dal Presidente Enea e premio Nobel, Prof. Carlo Rubbia «Non esiste oggi la certezza ? afferma Rubbia ? che il sito di Scanzano Jonico sia adeguato alla sistemazione definitiva, specialmente nei residui di alta attività e a vita medio lunga». Parere diverso da quello espresso dal geologo prof. Enzo Boschi: «Se si scarta Scanzano allora il deposito geologico non si


farà più da nessuna parte».
In soccorso al suo Presidente, interviene il Direttore Generale Enea ing.Giovanni Lelli, che propone una sistemazione, in via temporanea, dei rifiuti radioattivi nel Centro di Ricerca Enea della Casaccia a Bracciano. Apriti cielo: questa volta è il Sindaco di Roma, Walter Veltroni, a protestare: «Mi sembra del tutto ovvio ? afferma Veltroni ? che un posto così vicino a una città di due milioni e mezzo di abitanti, è il sito meno adatto per stoccare scorie nucleari» e il Presidente della Regione Lazio, Francesco Storace definisce la proposta una provocazione e aggiunge: «Quel dirigente dell’Enea deve andarsene».
Ma come si fa a pensare che un Sindaco e la popolazione locale possano accettare la realizzazione del sito nucleare a casa loro, quando i massimi responsabili del progetto ? ci riferiamo al generale Carlo Jean, Presidente Sogin nonché Commissario straordinario per la scelta del sito e al ministro dell’Ambiente, on. Altero Matteoli, parlano di «pattumiera nucleare» a Scanzano il primo e di «bomba innescata» a Caorso il secondo, che per giunta si appresta a richiedere a Bruxelles il permesso di inviare le scorie all’estero. E non in Svizzera o in Slovenia, ma addirittura in Canada, forse perché il Canada è più lontano, ricevendo applausi e consensi da Ermete Realacci, Presidente onorario di Legambiente!
La maldestra gestione della individuazione del sito nazionale, i differenti pareri degli esperti, i titoli dei giornali ? cimitero nucleare e spazzatura radioattiva ? la mancata consultazione e la conseguente rivolta popolare, inducono il Governo ad un ripensamento. Il testo dell’emendamento al decreto legge elimina il riferimento diretto al Comune di Scanzano Jonico, affidando ad una Commissione tecnico-scientifica composta da sedici membri, esperti di «elevata e comprovata autorevolezza», la individuazione del sito a far data da un anno dall’entrata in vigore della legge di conversione. Ma non sarà certo facile trovare un’altra Regione disponibile, né risolvere il problema in tempi stretti.
Laconico e caustico il generale Jean, sentendosi scavalcato dalla prevista Commissione: «Per esperienza – ha dichiarato intervenendo ad un Convegno di Greenpeace ? quando si vuole affossare un problema si crea una commissione». C’è solo da augurarsi che gli esperti della annunciata Commissione, siano veramente di «elevata e comprovata autorevolezza».
Eppure tutto questo pasticcio si sarebbe potuto evitare. Come? Semplicemente interrompendo immediatamente l’opera vandalica dello smantellamento accelerato delle centrali nucleari di Caorso e Trino Vercellese e procedendo invece ad un rapido riavvio. Non ci sarebbero, e per molti decenni, scorie radioattive da sistemare, i tre Sindaci sarebbero più tranquilli, la spesa sarebbe il 5% di quanto costerebbe al Paese lo «smantellamento accelerato»e l’energia elettrica sarebbe prodotta a 40/50 lire/kWh, quando alll’Enel costa almeno tre volte tanto produrla. Proprio in questo senso si appresta a deliberare una mozione urgente, il Consiglio Comunale di Milano, invitando il Governo: «A tornare al più presto sull’infausta decisione di rinunciare all’energia nucleare, presa sotto una forte spinta emotiva e in maniera non razionale, e pertanto di riavviare le centrali dismesse ancora agibili e di cominciare


lo studio per nuovi impianti con le tecnologie più moderne e sicure oggi disponibili». Un messaggio importante da Milano al Governo e al Paese: da Milano, perché fu proprio il capoluogo lombardo cinquanta anni fa, con il Presidente Edison, Giorgio Valerio a impostare il progetto della prima centrale nucleare di Trino Vercellese (superata sul filo di lana dalla centrale Eni di Enrico Mattei a Latina) e a lanciare con il Cise di Mario Silvestri, la ricerca nucleare applicata nel nostro Paese.

Climate of 2003 Preliminary Annual Review

Tempo di lettura: 6 minuti

National Climatic Data Center Edited: December 16, 2003 Published: Wednesday, 17-Dec-2003 04:43:55 EST

GLOBAL TEMPERATURES

Global temperatures in 2003 will likely be 0.55°C (1.00°F)* above the long-term (1880-2002) average**, which will make 2003 the third warmest year on record. The warmest and second warmest years on record are 1998 and 2002, respectively. Land temperatures are on track to be 0.81°C (1.46°F)* above average, ranking third in the period of record while ocean temperatures will likely rank as second warmest with 0.44°C (0.79°F)* above the 1880-2002 mean. The Northern Hemisphere temperature averaged near record levels in 2003 at 0.63°C (1.13°F)* above the long-term average. The Southern Hemisphere temperature also reflected the globally warmer conditions, with a positive anomaly near 0.45°C (0.81°F)*.

In 2003, warmer temperatures and shifts in atmospheric circulation patterns contributed to a second straight year of extremely low Arctic sea ice extent in September. Northern Hemisphere sea ice extent was almost as low as that observed in September 2002, the lowest since satellite monitoring began in 1978.

TEMPERATURE TRENDS

During the past century, global surface temperatures have increased at a rate near 0.6°C/century (1.1°F/century) but this trend has increased to a rate approaching 2°C/century (3.6°F/century) during the past 25 to 30 years. There have been two sustained periods of warming, one beginning around 1910 and ending around 1945, and the most recent beginning about 1976. Temperatures during the latter period of warming have increased at a rate comparable to the rates of warming projected to occur during the next century with continued increases of anthropogenic greenhouse gases.

Data collected by NOAA’s polar orbiting satellites and analyzed for NOAA by the University of Alabama in Huntsville (UAH) and Remote Sensing Systems (RSS, Santa Rosa, California) indicate that temperatures in the lower troposphere from the surface to an altitude of five miles are on track to make 2003 the third warmest year for the globe. The average middle troposphere temperature for 2003 (the layer which is centered in the mid-troposphere at an altitude of 2 to 6 miles, but which includes the lower stratosphere) is also on track as the third warmest year on record.

Analysis of the satellite record that began in 1979 shows that the global average temperature in the middle troposphere has increased, but differing analysis techniques have yielded different trends. While trends are positive in both cases, the increase in the UAH time series is
0.04°C/decade (0.08°F/decade), while the trend in the RSS series is larger;
0.12°C/decade (0.22°F/decade). Trends in both cases are less than the trend in global surface temperatures, which increased at a rate near
0.17°C/decade (0.30°F/decade) during the same 25 year period. Research toward reconciling differences in trends between surface and troposphere temperatures has been undertaken by the National Academy of Sciences.

While lower tropospheric temperatures as measured by the MSU indicate increasing temperatures over the last 2 decades, stratospheric (14 to 22 km /


9 to 14 miles) temperatures have been decreasing. This is consistent with the depletion of ozone in the lower stratosphere. The large increase in 1982 was caused by the volcanic eruption of El Chichon, and the increase in 1991 was caused by the eruption of Mt. Pinatubo in the Philippines.

REGIONAL TEMPERATURES

Annual temperatures through the first 11 months of the year were above average across most land areas. Temperatures in regions of the contiguous United States and Alaska, as well as most of Europe and Asia, were 2-5°C (3.6-9.0°F)* above the 1961-1990 average. The global analysis was performed using data from the Global Historical Climatology Network, a network of more than 7,000 land surface observing stations. The only widespread areas of negative anomalies were across parts of the eastern U.S., coastal areas of Australia and far western Asia where temperatures were between 1 and 3°C (1.8-5.4°F)* cooler than average. Notable temperature extremes during 2003 included a severe heatwave during summer of 2003 across Europe. Daily maximum temperatures ranged from 30-37°C (90-99°F) across France, Switzerland and the Mediterranean region, killing approximately 25,000 people. France had its warmest summer on record, and according to news reports, more than 14,000 people died of heat-related causes during the peak of the heat wave in late July and August. In North America, extreme cold winter temperatures resulted in an unusually high ice concentration across the Great Lakes. More than 90 percent of lakes Superior, Erie and Huron were frozen by March 10th, the most ice cover since February 1994. Unseasonably cold weather affected Bangladesh, India and much of Asia in January, leading to the deaths of more than 1,000 people. Average minimum temperatures were as low as 2-4°C (36-39°F), in a region where minimum temperatures are usually 12-14°C (54-57°F). In the Peruvian highlands, temperatures dropped below -20°C (-5°F) during the Southern Hemisphere winter month of July, which led to the reported deaths of more than 200 people.

GLOBAL SNOW COVER EXTENT

As shown in the time series, mean Northern Hemisphere snow cover extent during the winter season (December-February) was the second highest since records began in 1967. Mean Northern Hemisphere winter snow cover extent for the 1967-2003 period of record is 4.6 million square kilometers. Colder than normal conditions contributed to greater than average snow cover across large parts of western and southern Asia as well as Eastern Europe. Measurements from the Special Sensor Microwave Imager (SSM/I) indicate the presence of higher than average snow cover in these regions during December, January, and February. However, higher than average temperatures in northern and western regions of North America, and below average precipitation in some regions led to below average winter season snow cover extent for the continent. This is seen in the time series of winter snow cover extent anomalies for North America. Mean North America winter snow cover extent for the 1967-2003 period of record is 1.7 million square kilometers. Northern Hemisphere snow cover extent was


also above average during the March-May spring season, but only marginally so. Spring snow cover extent in the Northern Hemisphere has been below average in 14 of the past 16 years as a trend to warmer spring temperatures has led to more rapid loss of snow cover during the transition season between winter and summer. Mean Northern Hemisphere spring snow cover extent is 3.1 million square kilometers for the 1967-2003 period of record. Spring snow cover extent has also been below average across North America in much of the past two decades. Snow cover extent was below average for the spring 2003 season, the 14th below average year since 1985. Mean North America spring snow cover extent is 1.3 million square kilometers for the 1967-2003 period of record.

GLOBAL PRECIPITATION

Global precipitation was below the 1961-1990 average in 2003 for the third year in a row. Drought was widespread across much of eastern Australia during the first half of the year. India monsoon rainfall was 102 percent above normal, bringing relief to areas that were plagued with drought for much of 2002. Western Asia’s rainfall was 80 percent above than average, alleviating long-term drought conditions. In Zimbabwe, severe drought affected 900,000 people, one of Zimbabwe’s worst droughts in 50 years. Other drought-affected areas included the western United States where the multi-year drought continued to ravage the region. In contrast to drought conditions, Denver, CO had it’s second biggest snowstorm on record when 31.80 inches of snow fell in March. In February, a snowstorm hit the northeastern U.S., breaking numerous 24-hour snowfall records. Heavy rainfall in mountainous regions of southwest Asia’s mountain region ameliorated long-term drought conditions but caused a landslide in the village of Kara-Taryk, Kyrgyzstan killing 38 people. In Sante Fe, Argentina the reported worst flooding to occur since 1573 occurred in April of 2003. Several days of heavy rainfall caused local rivers to rise as much as 20 inches in one hour, killing 23 people and forcing the evacuation of
45,000. By early May, flooding was so severe, Sante Fe was characterized as an island.

ENSO CONDITIONS

The year began with the equatorial Pacific Ocean in an El Niño/Southern Oscillation (ENSO) warm event. This El Niño warming began in mid-2002, and reached its maturity in November 2002 when the sea-surface temperature (SST) anomalies in the Niño region reached their warmest condition with a +1.54°C (+2.77°F) SST anomaly.

Beginning in January of 2003, the anomalously warm waters in the oceanic mixed-layer in the eastern equatorial Pacific began to slowly cool. Between December 2002 and January 2003, the SST anomaly in the Niño region decreased from +1.42°C (+2.55°F) to +0.66°C (+1.18°F). This cooling spread westward, and had affected the ocean conditions basin-wide in the February monthly mean ocean temperatures. The trend in SST anomalies was also evident in the western Pacific Ocean. The observed cooling trend in basin-wide SSTs continued through March. The dissipation of the warm event and


the transition to near-neutral ENSO conditions occurred in April, when the SST anomalies cooled to near-normal across the equatorial Pacific basin. After the El Niño event had dissipated in April, ocean surface and sub-surface temperatures began to rapidly cool. This cooling suggested the development of a La Niña cold event in the eastern and central equatorial Pacific. By the end of May, SST anomalies in the eastern and central equatorial Pacific had cooled to below -1.5 °C adjacent to the South American coast. The cold anomaly in the Niño region was -0.63°C (-1.13°F) in May. The rapid cooling was generated by the return of easterly trade winds across the near-equatorial region, which increased equatorial upwelling in the eastern Pacific in April and May. The colder than normal SST anomalies extended into the middle of June, but were abruptly halted when a strong westerly wind event propagated across the equatorial Pacific basin. Since the cessation of the cold SST anomalies in June, the equatorial Pacific region has slowly warmed. This observed warming has not yet developed into an El Niño (as of the end of November), but the SST anomalies have been consistently warm since July in both Niño regions (map of Niño regions). The warm oceanic conditions were also present in the sub-surface measurements from NOAA’s array of moored buoys. Warmer than normal conditions were evident in the mixed-layer during November across the entire Pacific basin, although the observed ocean temperatures were well below the peak warmth observed during the 2002-2003 El Niño event.

Manifestazioni 2004

Tempo di lettura: < 1 minuto

Organizzate dall’Associazione Pro Loco di Soncino (Cremona)

Il progetto di «Terra Futura»

Tempo di lettura: 3 minuti

Abitare, produrre, coltivare, agire, governare:
pratiche di vita, di governo, d’impresa e di relazioni
verso un futuro equo e sostenibile

Gulf Stream probed for early warnings of system failure

Tempo di lettura: 2 minuti

Climate researchers set sail from the Canary Islands today to begin an ambitious, four-year programme that will assess the behaviour of currents, such as the Gulf Stream, in the north Atlantic Ocean. The US$20-million programme is part of a wider investigation into rapid climate change, known as Rapid. It will take the most detailed look yet at the strength, structure and variability of the currents that carry warmth northwards in the Atlantic.

Climatologists worry that global warming could disrupt these currents, which make Western Europe’s climate far warmer than other parts of the world at the same latitude. Without the Gulf Stream, for example, the south of England would be as cold as Iceland.

Researchers think the currents are caused by a combination of wind, differences in water density, and the special geometry of Atlantic Ocean basins and the surrounding continents. They think the system may have broken down before, driving large, abrupt changes in climate.

Given the extent of global climate change at the moment, some suspect this could happen again. Models suggest that currents are already affected by increased freshwater flow from precipitation, river runoff and ice-sheet melting.

The Rapid team on board the British research vessel RRS Discovery will try to establish if this is really happening. “Complete collapse of the north Atlantic circulation is a worst-case scenario,” says Stefan Rahmstorf, a climate modeller at the Potsdam Institute of Climate Impact Research in Germany. “But no one really has any firm idea of what is going on out there, and that is why this project is so important.”

The team will use 22 moorings across the subtropical Atlantic: near the Canary Islands, on the Mid-Atlantic Ridge and off the Bahamas. Sensors will travel up and down wires from buoys to the moorings on the sea floor. Differences in water density will be calculated from the temperature and salinity measured throughout these water columns. With US measurements from the Florida Strait and satellite observation of wind-driven surface currents, these will help researchers understand water flow in the north Atlantic.

“It is unlikely that we will detect dramatic changes within the next four years,” says Jochem Marotzke, an oceanographer at the Max Planck Institute of Meteorology in Hamburg, and one of the principal investigators in Rapid. “But we will learn lots of exciting things about ocean circulation, and work out how to design a stable monitoring system for the next few decades.” Rapid is being jointly sponsored by Britain’s Natural Environment Research Council and the US National Science Foundation.

One long-term goal, says Marotzke, is an early-warning programme that would raise the alarm if the present system was close to failure. Even if nothing could be done, society could prepare for the results, he says. A German-Norwegian project called Integration is already assessing the impact of a failure on climate, fisheries and agriculture.

Informazioni sull’Aea

Tempo di lettura: < 1 minuto

L’Agenzia europea dell’ambiente è la fonte principale delle informazioni utilizzate dall’Unione europea e dai suoi Stati membri per lo sviluppo di politiche in materia di ambiente. L’Agenzia intende promuovere lo sviluppo sostenibile e contribuire ad un miglioramento significativo e misurabile dell’ambiente europeo mediante la fornitura di informazioni tempestive, mirate, pertinenti e affidabili ai responsabili decisionali e all’opinione pubblica. Istituita dall’Unione europea nel 1990 e operante a Copenaghen dal 1994, l’Aea è il fulcro della rete europea di informazione e osservazione ambientale (Eionet), una rete composta da circa 300 organismi in tutta Europa attraverso i quali essa raccoglie e divulga informazioni e dati in materia di ambiente.
L’Agenzia, che è aperta a tutte le nazioni che ne condividono gli obiettivi, conta attualmente 31 paesi membri, ossia i 15 Stati membri dell’UE, l’Islanda, la Norvegia e il Liechtenstein, che fanno parte dello Spazio economico europeo, e i 13 paesi aderenti e candidati all’adesione all’UE, ovvero Bulgaria, Cipro, Repubblica ceca, Estonia, Ungheria, Lettonia, Lituania, Malta, Polonia, Romania, Slovenia, Repubblica slovacca e Turchia. L’Aea è il primo organismo che accoglie i paesi aderenti e candidati all’adesione all’UE. Sono anche in corso negoziati di adesione con la Svizzera.

La California dice no al riso gm per uso farmaceutico

Tempo di lettura: < 1 minuto

Il dipartimento californiano per l’alimentazione e l’agricoltura ha bocciato il progetto della società Ventria Bioscience di coltivare in pieno campo riso modificato geneticamente per produrre due proteine da utilizzare a scopo medico. Le ragioni del divieto, hanno spiegato le autorità, sono che il prodotto non è stato ancora autorizzato a livello federale e che c’è bisogno di più tempi per consentire al pubblico di esprimere il suo parere sul progetto. La Ventria, che già produce il riso gm su piccoli campi sperimentali, dovrà quindi attendere almeno fino all’anno prossimo per espandere la produzione, come aveva previsto.
(AgraPress)

Agenda 21, un decreto disastroso

Tempo di lettura: 2 minuti

Le regioni che hanno avuto i maggiori finanziamenti sono state la Lombardia e la Calabria, per le altre sono numeri ad una cifra. A mo’ di esempio consideriamo la Puglia, dove sono stati finanziati solo 5 progetti su 64 presentati e ammissibili, e la Basilicata solo 5 su 28. Ma il pasticcio è nelle graduatorie

Duplice indagine

Tempo di lettura: 2 minuti

Nel giugno 2003 la britannica Fsa (Food Standards Agency) ha commissionato ad esperti indipendenti uno studio sul rapporto rischi/benefici derivante dal cibarsi di pesci «Oleosi» e si è avvalsa della sinergia tra la Sacn (Scientific Advisory Committee on Nutrition) e la Cot (Committee on Toxicity).
Nel giugno di quest’anno sono stati pubblicati i risultati, dando particolare risalto ai livelli massimi consigliati che paiono più mirati rispetto al passato.
John Krebs, responsabile della Fsa, ricorda come già da tempo si raccomandassero almeno due porzioni di pesce alla settimana, di cui una della varietà «Oleosa», ricca in acidi grassi utili per ridurre la mortalità da cause cardiovascolari.
Tuttavia, sempre nell’ambito della salute pubblica, cresceva l’attenzione per il loro contenuto di Metilmercurio, Diossine e Pcbs, in quanto potenzialmente cancerogeni e dannosi per lo sviluppo del feto.
Gli studi effettuati hanno confermato che tali sostanze sono presenti in percentuali diverse a seconda delle varietà: ad esempio, nel caso del mercurio risultano particolarmente a rischio i grandi predatori marini che si trovano tra gli ultimi anelli della catena alimentare, come lo squalo ed il pesce spada.
Invece l’aringa è al primo posto, seguita dal salmone e con la trota al livello più basso, per quanto concerne la concentrazione di Diossine e Pcbs; tra l’altro, nell’ultimo decennio tali sostanze sono diminuite di circa il 70% in seguito a monitoraggi e legislazioni più severe.
La Fsa ha divulgato l’esito delle ricerche nel giugno di quest’anno, consigliando un consumo di pesce «Oleoso» sino a quattro porzioni la settimana, da ridursi a due per bambini e donne in gravidanza, allattamento o che intendano avere figli a breve termine.
Si tratta di una misura precauzionale, in quanto al di sopra di questa soglia non sono emerse evidenze tali da consentire un bilancio matematico tra rischi e benefici.
Tra l’altro, la Fsa lamenta che nel Regno Unito si mangia tuttora poco pesce (anziché troppo) e, addirittura, sette persone su dieci non se ne cibano mai.
Ritiene quindi auspicabile che la popolazione ne aumenti il consumo, includendo le varietà «Oleose» la cui attuale media procapite è di una sola porzione ogni tre settimane.