Visualizzazione post con etichetta energia. Mostra tutti i post
Visualizzazione post con etichetta energia. Mostra tutti i post

martedì 5 aprile 2022

Basta parole: ora contano i Watt!

 

Un ottimo post di Luca Mercalli. Basta chiacchiere, ora contano i Watt!! 


https://www.facebook.com/LucaMercalli.Nimbus/posts/517506429735237


Luca Mercalli

RISPOSTE ALLE DOMANDE SUI PANNELLI FOTOVOLTAICI DA BALCONE
1) in genere un impianto integrato su tetto ha un'inclinazione fissa attorno ai 20-25 gradi che fornisce una produzione un po' inferiore all'ottimale (a 45 gradi di latitudine sarebbe attorno a 40 gradi), con massimo estivo.
2) un pannello esposto a Sud con inclinazione più verticale su ringhiera di balcone, in genere attorno ai 65 gradi, perde poco in termini di producibilità totale annua rispetto al tetto (meno del 5%) ma presenta il vantaggio di una produzione distribuita in modo omogeneo in tutti i mesi, quindi con maggior produzione invernale - quando l'energia serve di più.
3) il pannello su balcone permette una produzione FV anche a chi sta in appartamento e non ha disponibilità di tetto.
4) il pannello che ho installato, in silicio monocristallino, ha potenza di picco di 340 W ed eroga a mezzogiorno di una giornata soleggiata 300 W. Ciò che conta è peraltro la producibilità giornaliera che per il giorno 10 marzo a 45 gradi di latitudine è stata di 2 kWh. La stima di produzione annua è di circa 400 kWh.
5) si possono installare su balcone fino a 3 pannelli per una potenza totale di circa 1 kWp, e una producibilità annua di 1200 kWh che rappresenta quasi metà del consumo di una famiglia media italiana (2700 kWh/anno).
6) i pannelli da balcone rappresentano un'alternativa che amplia la superficie utile di fotovoltaico nei centri urbani e bilancia la produzione invernale. Non è una bacchetta magica ma una soluzione che va applicata secondo il contesto. Nei centri storici non avrebbe senso per ragioni estetiche (anche se qualche bravo architetto sono certo troverebbe un design creativo più che accettabile...), ma abbiamo in Italia immense periferie urbane post 1950 che non ne soffrirebbero per nulla. Ovviamente non ha senso installarlo se il balcone è in ombra, ma se è soleggiato non ha controindicazioni. Non avendo batterie di accumulo accoppiate bisogna consumare l'energia nel momento in cui è prodotta, cioè accendere gli elettrodomestici a mezzogiorno e non di sera...
7) noto moltissima confusione su unità di misura e funzionamento tecnologico del sistema, che portano spesso a errate aspettative o molta aggressività che come sempre non produce conoscenza. Il mio suggerimento è di affidarsi a consulenti del settore.
8 ) noto ancora far le pulci su costi, convenienza in bolletta e così via. Ma quando i prezzi dell'energia raddoppiano in poche settimane e si rischia il blackout, ha ancora senso fare i conti solo economici o non c'è un valore intrinseco più importante nella scelta di essere un po' più autosufficienti? E poi c'è anche il risparmio di CO2 che salverà i vostri figli dalla crisi climatica, il che non ha prezzo...
9) nel 2011 ho scritto il libro Prepariamoci (Chiarelettere): chi si è preparato oggi è meno in ansia per la crisi energetica. Di parole se ne fanno sempre troppe, ciò che contano ora sono i Watt!

sabato 10 luglio 2021

Il fotovoltaico: un’occasione che il Paese non dovrebbe assolutamente perdere

 Dal Blog di Ugo Bardi sul Fatto Quotidiano, 24 Giugno 2021

Affitto di impianto fotovoltaico.

Immaginatevi un conto in banca che vi rende il 100% di interessi. Ovvero, dopo che ci avete depositato 1000 euro, a fine anno ve ne da altri mille, e così via ogni anno. Lo vorreste un conto in banca così!

Ovviamente, non esiste un conto in banca che renda così tanto, ma esistono delle tecnologie che rendono a livelli del genere, sia pure non in termini monetari ma energetici. C’è un articolo pubblicato questo mese da Fthenakis e Leccisi che fa il punto della situazione e trova una resa veramente eccellente della tecnologia fotovoltaica dovuta ai miglioramenti tecnologici degli ultimi 5-7 anni. In pratica, per una buona insolazione, come potremmo avere nell’Europa del sud, un impianto fotovoltaico restituisce l’energia necessaria per costruirlo in un anno, circa! Siamo ormai ai livelli del petrolio ai tempi d’oro, quando era abbondante e costava poco, e forse neanche il petrolio faceva così bene.

Eolico-fotovoltaico, cosa prevede il Recovery italiano? “Il piano snellisce la burocrazia, ma non indica la strategia per centrare gli obiettivi” – Schede tecniche

Quello di Fthenakis e Leccisi non è il solo articolo che arriva a questa conclusione, tutti gli studi recenti sull’argomento arrivano a conclusioni simili. Gli ultimi dati sui costi ve li potete leggere, per esempio, su un articolo recentissimo su “EDP Science”. In sostanza, l’energia elettrica prodotta per via fotovoltaica è spesso la meno cara in assoluto, la crescita delle installazioni continua a eccedere le previsioni, e si parla ormai di “rivoluzione fotovoltaica.” Siamo di fronte alla possibilità reale di eliminare i combustibili fossili una volta per tutte dal sistema energetico globale.

Ora, lo so che siete già con le dita sulla tastiera a scrivere nei commenti “ma la variabilità?” “Ma io i pannelli non li voglio vedere di fronte a casa mia!” “e lo smaltimento?” e cose del genere. Lo so. Queste cose le sanno tutti. Però, ragionateci anche un po’ sopra.

Abbiamo una tecnologia che costa meno delle altre, che è particolarmente adatta all’Italia, “il Paese del Sole,” e che ci permette di produrre energia in casa nostra senza doverla importare a caro prezzo. Abbiamo anche l’ulteriore vantaggio di avere montagne che possiamo usare per lo stoccaggio dell’energia in forma di bacini idroelettrici. Ci sono molti altri modi per gestire la variabilità: non è un problema irrisolvibile. Poi, per lo smaltimento dovremo investirci sopra, certo. Ma tenete conto che gli impianti fotovoltaici non usano materiali rari o inquinanti. Si possono riciclare senza grandi problemi e sicuramente lo faremo nel futuro. Al momento, è un problema marginale.


Insomma, il fotovoltaico è un’occasione che non dovremmo assolutamente perdere per rilanciare il “sistema paese” in Italia. E, in effetti, le cose stanno andando benino. In Italia siamo arrivati al 10% di produzione di energia elettrica da fotovoltaico ed è un bel risultato dal quale si può partire per decarbonizzare per davvero il sistema energetico. Sembra che a livello nazionale certe cose siano state capite. Lo potete leggere nel Pniec, Piano Nazionale Integrato per l’Energia e il Clima, che prevede un ruolo fondamentale per le tecnologie rinnovabili, e in particolare per il fotovoltaico.

Rimane però una resistenza di retroguardia formata da una coalizione piuttosto male assortita che include le aziende petrolifere, i nuclearisti ad oltranza, i miracolisti della fusione fredda, quelli che stanno ancora pagando le cambiali per la macchina diesel e, in generale, tutta una sezione del movimento ambientalista che rifiuta ogni cambiamento in nome di una decrescita che secondo loro dovrebbe essere “felice.”

A ognuno le sue opinioni ma, in pratica, a questo punto la sola cosa che può bloccare la rivoluzione fotovoltaica è la burocrazia, forse l’unica entità veramente “inesauribile” nell’universo. Anche su questo, il governo sembra intenzionato a fare qualcosa per snellire le procedure e rendere più rapidi i processi di installazione. Non sarà facile, ma con un po’ di pazienza ci arriveremo.


lunedì 6 luglio 2020

Energia e infrastrutture: chi ha diritto di parlare?

L'impianto eolico di Montemigniaio, sull'appennino toscano


In questo testo, il professor Andrea Pase dell'università di Padova ha magistralmente identificato un elemento chiave di un dibattito in corso sull'opportunità di costruire un impianto eolico sull'Appennino. E' una questione che vale per tante altre infrastrutture di utilità pubblica. Chi ha diritto di parlare in proposito? Succede spesso che gli abitanti dei territori interessati si impegnano in una difesa a oltranza di quello che vedono come il "loro" territorio. Ma questo vuol dire che gli altri cittadin italiani, impegnati nella difesa della società che ritengono "civile" non devono avere voce in capitolo? Qui, Pase allarga la sua visione a includere anche quelli che non sono ancora nati, come pure gli orsi polari, i rapaci, e le salamandre, minacciati dal riscaldamento globale che li spazzerà via, come spazzerà via tutti noi se non troviamo il modo di smettere di bruciare i combustibili fossili. Un bellissimo intervento, buona lettura! (UB)




Buonasera Presidente, buonasera a tutte e a tutti.

MI chiamo Andrea Pase. Sono un geografo dell’università di Padova. Mi occupo soprattutto di Africa subsahariana, faccio ricerca nel Sahel: dal Senegal al Sudan, passando per il Mali, il Burkina Faso, il Niger, la Nigeria, il Ciad.

Vi chiederete giustamente perché partecipo a questa inchiesta pubblica, cosa c’entro io con il monte Giogo.

Sono qui per provare a spiegarvelo.

Inizio esprimendo un parere discorde rispetto a quanto affermato nella scorsa seduta, sempre se ho ben capito, dalla collega politologa, professore Donatella Della Porta, quando ha detto che la modalità telematica inficia questa inchiesta pubblica perché permette a tanti, forse a troppi, che non sono abitanti dell’area, di dire la loro. Questo fatto costituirebbe una distorsione profonda del dibattito. Il vero problema è stato così messo sul tavolo: chi veramente ha diritto di esprimersi su questo progetto?

Concordo pienamente invece su un’altra cosa che la collega ha detto: il crinale è un bene comune. Ma che confine ha quel “comune”? Fin dove si estende la comunità di cui stiamo parlando? Riguarda solo chi abita il Mugello, o i due comuni di Vicchio e Dicomano, o addirittura si identifica con gli abitanti di Villore e Corella?

Di chi è il vento che passa sul crinale? A chi appartiene l’acqua che cade sui versanti appenninici?

C’è un problema e il problema è quello della scala: un classico tema geografico.

La scala in realtà crea i fenomeni: la scelta della scala, prima di tutto quella spaziale, è fondamentale nel poter individuare aspetti diversi di una questione, nell’includere o nell’escludere dal computo costi e benefici. Un conto è se si pensa alla scala locale, un altro a quella nazionale e un altro ancora a quella globale.

Le comunità convocate cambiano a seconda della scala scelta. E si tratta di una scelta politica ed etica, oltre che cognitiva.

Poi c’è anche la scala temporale da prendere in considerazione: a chi ci rivolgiamo? Solo a chi vive oggi o anche a chi vivrà domani?

Un capo nigeriano interrogato nel 1912 affermò che la terra appartiene ad una comunità della quale molti membri sono morti, pochi sono vivi e infiniti devono ancora nascere.

Io vorrei convocare in questa inchiesta molte voci che non sono state ancora ascoltate, a scale spaziali e temporali diverse.

Vorrei convocare gli abitanti delle piccole isole oceaniche che l’innalzamento del mare dovuto al riscaldamento climatico rischia di far sparire. Poche persone, mi direte. Bene, allora convoco gli abitanti dei grandi delta fluviali del mondo: del Nilo, del Gange, del Mississippi, dello Yangtse, centinaia di milioni di persone, anch’esse esposte ad inondazioni sempre più frequenti. Poi chiamo a testimoniare le genti del Sahel, i cui volti ho incontrato tante volte. Il cambiamento climatico moltiplica gli eventi atmosferici estremi, le piogge violente e gli intervalli di siccità, complicando la loro già non semplice vita.

Ma poi convoco anche i non umani, e non solo i rapaci e le salamandre degli appennini, convoco gli orsi polari, convoco le centinaia di specie animali e vegetali a rischio di estinzione, per l’impatto del cambiamento climatico. Chiamo a testimoniare anche il mondo inanimato, i ghiacciai che stanno sparendo.

Vorrei, ancora, convocare i nostri nipoti, chi è piccolo e chi non è ancora nato, per chiedergli cosa si aspettano da noi.

Tutto è correlato, non possiamo ritagliare un singolo luogo dal mondo in cui è inserito, dal tempo che attraversa: dobbiamo assumere consapevolezza e responsabilità che ogni scelta, per quanto piccola, ha ripercussioni ad altre scale. Anche la scelta di cui stiamo parlando oggi: vi prego di tenere presente tutti coloro che abbiamo chiamato a testimoniare stasera. Di tener presente le diverse scale spaziali e temporali implicate.

I “conflitti di scala”, come afferma l’antropologo Eriksen, sono inevitabili in un mondo globalizzato: ogni soluzione ha esiti diversi a scale diverse. Non è semplice, ma è indispensabile provare a far dialogare le diverse scale: le emergenze globali e le situazioni locali, i diritti dei viventi e di coloro che ancora devono arrivare su questa nostra terra.

Chiudo dicendovi da dove parlo, ovvero spiegandovi che a un chilometro e mezzo dalla mia abitazione c’è uno dei più grandi impianti di trattamento della parte umida dei rifiuti di tutta la pianura padana. Vi assicuro che, soprattutto d’estate, non è piacevole. Ma gestire i rifiuti è un’altra delle grandi sfide ambientali. Non è comodo avere questo impianto a portata di naso. Devo dirvi che preferirei avere un impianto eolico. Ognuno, però, non può che fare la sua parte.

Sono disponibile ad ogni approfondimento, volentieri venendo di persona a Vicchio e Dicomano, o ancor meglio a Villore e Corella, magari ospite di qualcuno degli abitanti. Come geografo, amo il territorio.

Grazie, buon proseguimento dei lavori.






venerdì 3 aprile 2020

Ugo Bardi parla del petrolio dopo il coronavirus






Una brevissima riflessione sulle conseguenze del crollo dei prezzi del petrolio connessi all'epidemia del coronavirus. Preparata per il programma di disseminazione di conoscenza dell'università di Firenze 




sabato 23 marzo 2019

Perché le società collassano? Uno studio di dinamica dei sistemi


Home / Economia / Perché le società collassano ?

Perché le società collassano ?

 

Tradotto da "Rosanna" con qualche piccolo ritocco da parte di UB:

DI UGO BARDI

cassandralegacy.blogspot.com

Secondo un nuovo studio, i rendimenti decrescenti sono un fattore chiave.

Nel 1988, Joseph Tainter pubblicò uno studio fondamentale sul collasso delle società, proponendo l’esistenza di un fattore comune, i rendimenti decrescenti, dato che tutti gli imperi e le civiltà del passato alla fine erano collassati. Recentemente con i miei colleghi Sara Falsini e Ilaria Perissi, abbiamo realizzato uno studio sulla dinamica dei sistemi che conferma le idee di Tainter e approfondisce le origini dei rendimenti decrescenti delle civiltà. È stato pubblicato da poco su “Biophysical Economics and Resource Quality “.



Perché crollano le civiltà è una questione che tormenta l’entità nebulosa che noi chiamiamo “Occidente” fin dal tempo in cui Edward Gibbon pubblicò nel 1776 il suo “Declino e caduta dell’Impero Romano”. La questione sottintesa nello studio gigantesco di Gibbon era: “Stiamo per fare la fine dei romani?” Una domanda alla quale generazioni di storici hanno cercato di rispondere, fino ad ora senza pervenire ad una risposta sulla quale possano essere d’accordo tutti. Ci sono letteralmente centinaia di spiegazioni sul declino e la caduta degli imperi, e la stessa confusione regna a proposito della caduta delle civiltà passate che hanno toccato vertici di gloria e poi morso la polvere, diventando poco più che macerie e note a piè di pagina nei libri di storia. C’è una causa unica a questi collassi? Oppure il collasso è il risultato di numerosi piccoli eventi che in un modo o nell’altro si uniscono per spingere la grande bestia verso il precipizio della “Scogliera di Seneca”?.

Una delle interpretazioni più affascinanti riguardante il collasso della civiltà è l’idea di Joseph Tainter che sia dovuta a dei “rendimenti decrescenti”. È questo un concetto ben conosciuto in economia che Tainter adatta al ciclo storico delle civiltà, concentrandosi sulle strutture di controllo ideate per mantenere in funzione tutto il sistema, per esempio la burocrazia. Tainter attribuisce a questi rendimenti decrescenti una proprietà intrinseca delle strutture di controllo che diventano meno efficaci via via che diventano più grandi. Qui sotto potete vedere un grafico molto noto ricavato dal libro di Tainter, “Il collasso delle società complesse” edito nel 1988.



L’idea di Tainter è affascinante per molte ragioni, una è che genera un certo ordine nell’incredibile confusione di ipotesi e di contro ipotesi che si fanno nella discussione circa il collasso sociale. Se Tainter ha ragione, allora i numerosi fenomeni che noi osserviamo durante il collasso non sono che il riflesso di una malattia interiore di cui è affetta la società. Le invasioni barbariche, per esempio, non sono la ragione per la quale è caduto l’Impero Romano, i barbari hanno semplicemente sfruttato l’opportunità che vedevano di invadere un impero indebolito.

Un problema con l’idea di Tainter è che è qualitativa: è basata sui dati storici disponibili come per esempio la perdita di valore della moneta romana, ma la curva dei rendimenti decrescenti è disegnata manualmente. Una domanda che potreste porre è la seguente: d’accordo i “rendimenti decrescenti” esistono, ma dov’è che questa curva precipita? Un’altra domanda potrebbe essere la seguente: se il sistema subisce dei “rendimenti decrescenti”, perché la curva non traccia semplicemente una traiettoria per tornare là dove era all’inizio?

Queste domande e altre sono esaminate nello studio della dinamica dei sistemi che io e le mie colleghe Ilaria Perissi e Sara Falsini abbiamo realizzato utilizzando la dinamica dei sistemi. L’idea è che se una civiltà è un sistema complesso, dovrebbe essere possibile descriverla con un modello che utilizzi la dinamica dei sistemi, un metodo espressamente concepito per questo scopo. Dunque ci abbiamo lavorato sopra costruendo una serie di modelli ispirati dal concetto dei modelli a “dimensione di mente” ovvero dei modelli che non pretendono di essere una descrizione dettagliata del sistema, ma che tentano di interpretare i meccanismi di base che lo fanno muovere e che a volte passano in condizioni di squilibrio e collassano. Abbiamo constatato che, sulla base di una ipotesi semplice, è possibile produrre una curva che assomiglia qualitativamente a quella di Tainter .



Nella figura 6  si confrontano i risultati del modello “two stocks” (2) riportato qui e quelli del modello di Tainter, come descritto nel suo libro del 1988. Le due curve non sono uguali ma la somiglianza è evidente.

Il modello della dinamica del sistema ci dice che l’origine della diminuzione dei rendimenti si trova nell’esaurimento graduale delle risorse che circolano nel sistema stesso. Non è tanto l’effetto di una complessità crescente in sé, il problema è assicurare il buon funzionamento di questa complessità.
Inoltre il modello ci dice anche quello che succede dall’altra parte della curva. Ovvero quello che succede se il sistema continua la sua traiettoria al di là del punto dove si ferma la curva di Tainter. La curva fa vedere chiaramente un’isteresi, ovvero non segue la traiettoria precedente, ma resta sempre su una traiettoria a scarso profitto. Questo significa che ridurre la burocrazia non rende più efficace il sistema.


Questi risultati non sono l’ultima parola sul problema del collasso della società. Ma io penso che forniscano un punto di vista fondamentale. Il fatto è che il sistema è “vivo” finché le sue risorse danno dei buoni rendimenti – in termini di risorse energetiche, questo significa che esse hanno un buon tasso di ritorno energetico. Se cade questo tasso, il sistema cade dallo “scoglio di Seneca”.
Certamente dato che la nostra società dipende dai combustibili fossili, siamo obbligati ad andare in questa direzione perché l’esaurimento delle risorse migliori fa diminuire progressivamente il tasso di ritorno energetico del sistema. Se vogliamo mantenere in vita una società complessa, non possiamo farlo grattando il fondo del barile, cercando disperatamente di bruciare tutto quello che possiamo ancora bruciare. Sfortunatamente, è esattamente questo che la maggior parte dei governanti del mondo cerca di fare. È un buon mezzo per accelerare il cammino verso il baratro.

Ciò che noi dovremmo fare piuttosto sarebbe passare il più rapidamente possibile ad una società fondata sulle energie rinnovabili. Abbiamo la fortuna di avere delle tecnologie energetiche sufficientemente efficaci in termini di ritorno energetico per sostenere una transizione verso un mondo migliore, più pulito e più prospero. Purtroppo sembra che non interessi a nessuno.
Deve esserci qualcosa nel concetto di mantenere lo status quo (“Business As Usual”) che fa sì che sia una delle attrattive più potenti che si possa introdurre in un modello della dinamica di sistema. Ci stiamo dirigendo quindi verso un avvenire incerto ma c’è una cosa di cui possiamo essere sicuri ed è che i combustibili fossili non ci accompagneranno fino a laggiù.

Ugo Bardi

Fontehttps://cassandralegacy.blogspot.com/
Linkhttps://cassandralegacy.blogspot.com/2019/01/why-do-societies-collapse-diminishing.html
21.01.2019

Scelto e tradotto dal francese per www.comedonchisciotte.org  da Giakki49

Nota del Saker Francophone l’analisi fatta dai tre autori, che conferma il lavoro di Tainter, spiega da sé l’interesse di seguire questo autore che lavora alacremente con i suoi metodi per spiegare il passato in base ai fatti reali. Potete leggere il libro di Tainter tradotto in francese nelle edizioni “Le retour aux sources”. Gli ultimi due paragrafi sono anch’essi molto interessanti soprattutto se seguite la serie di articoli di Ben Hunt su Epsilon Theory. Le fonti rinnovabili tanto sospirate da Ugo Bardi sono la sua risposta? Tuttavia ha senza dubbio ragione quando parla di un avvenire incerto, il quarto Cavaliere dell’Apocalisse

Note del Traduttore:

(1) Seneca – Lettere a Lucilio. n°91
Basta un solo giorno a disperdere e distruggere quello che è stato costruito a prezzo di dure fatiche col favore degli dèi in una lunga serie di anni. Dire un giorno è dare una scadenza troppo lunga ai mali che ci incalzano: basta un’ora, anzi, un istante per distruggere un impero. Sarebbe una consolazione per la nostra debolezza e per i nostri beni se tutto andasse in rovina con la stessa lentezza con cui si produce e, invece, l’incremento è graduale, la rovina precipitosa.
(2) – Two stocks model – Modello a due masse (di risorse)
Sebbene molto semplice, il modello a due masse fornisce una panoramica molto importante adatta alla comprensione di come una economia mondiale basata su risorse non rinnovabili (ad es. petrolio) possa funzionare. È, o dovrebbe essere, chiaro per chiunque che lo sfruttamento di una risorsa finita non può durare per sempre, ma non è chiara l’evoluzione che avrà il suo sfruttamento. Il modello fornisce una risposta ipotizzando che ciò avverrà attraverso una fase di “vacche grasse” e di “vacche magre” e che la fase delle vacche magre comincerà ben prima che siano state sfruttate tutte le risorse teoricamente disponibili – (Da un articolo di Ugo Bardi – Dipartimento di Scienze della Terra, Università di Firenze. C/o Dipartimento di Chimica, Polo Scientifico di Sesto Fiorentino, 50019, Sesto Fiorentino (Fi), Italy su Sustainability 2013)

domenica 3 giugno 2018

Fusione nucleare: vale ancora la pena investirci in un’era di energia rinnovabile a buon mercato?


Da “Cassandra’s Legacy”. Traduzione di MR

Una panoramica di Giuseppe Cima della situazione della fusione nucleare. L’argomento è complesso, ma Cima identifica il punto cruciale: anche ipotizzando che la fusione nucleare dovesse funzionare come ci si aspetta, sarebbe più costosa delle tecnologie rinnovabili attualmente disponibili. Considerate anche che ci vorrà almeno mezzo secolo prima che possiamo avere reattori a fusioni in grado di produrre energia commercialmente disponibile (forse). Quanto saranno migliori e più a buon mercato le rinnovabili per allora? Considerando che la fusione non è una tecnologia “pulita”, come a volte si dice, né ora né in futuro. Quindi, perché spendiamo ancora soldi e risorse per questa tecnologia? Un esempio ulteriore della fede cieca umana nella tecnologia e nei suoi miracoli (U.B.)



ITER TOKAMAK. Guardando attentamente, in fondo a destra, in un cerchietto rosso, c’è un uomo con un giacchetto giallo. La probabile dimensione del confinamento magnetico del reattore a fusione è enorme ed è il cuore della maggior parte dei problemi.  

Il mio punto di vista sulla fusione nucleare, in poche parole
 Di Giuseppe Cima
Oggigiorno, poche imprese investirebbero in centrali nucleari convenzionali. Negli Stati uniti, anche sussidi del 100% non riescono ad attrarre investimenti privati per una centrale nucleare a fissione, la forma classica di energia nucleare. Per cui le prospettive per una ripresa del nucleare non sono rosee.

Ma c’è un’altra forma di energia nucleare, la fusione termonucleare, quella che alimenta le stelle. La fusione, il fenomeno dei nuclei leggeri che si attaccano, è una reazione nucleare distinta dalla fissione, dove gli atomi pesanti, come l’uranio, si spezzano. La ricerca sull’energia di fusione è stata perseguita sin dagli anni della Seconda Guerra Mondiale in laboratori nazionali e in università in tutto il mondo. Nonostante gli sforzi, però, finora questa non ha fornito un’indicazione chiara del fatto che sia fattibile. Quali sono le attuali prospettive di questa forma di energia?


Tecnologie di fusione

Ci sono due modi di bruciare combustibile per la fusione nucleare calda: farlo reagire molto rapidamente prima che il gas che brucia voli via, che è come funziona la bomba H, o usare un campo magnetico per isolare il plasma dalla pareti del reattore. Il metodo della bomba può essere replicato in una serie di micro esplosioni in laboratorio, ma la frequenza deve essere sufficientemente alta da produrre una corrente elettrica rilevante e questo pone enormi problemi ancora irrisolti. Un gigantesco esperimento di fusione negli Stati uniti, il National Ignition Facility, ha dimostrato quanto sia difficile e costoso produrre una micro esplosione una volta al giorno. Immaginate di farlo centinaia di volte al secondo per anni. Anche con un budget fornito dai militari per lo sviluppo di armi, la fusione a laser è lontanissima dal puntare ad un reattore commerciale credibile.

Pertanto, dall’inizio della ricerca sull’energia di fusione, gran parte degli sforzi sono stati dedicati al confinamento magnetico del plasma caldo a stato stazionario. Dopo 70 anni di tentativi, quasi tutti nel campo si sono concentrati su un progetto che viene chiamato TOKAMAK, un’invenzione russa. I test fatti finora indicano che la dimensione minima del nucleo di un potenziale reattore sarà grande, della dimensione di un grande edificio. ITER è un tokamak attualmente in costruzione in Francia per dimostrare la fattibilità della fusione, è di questa dimensione ma, a parte la dimensione, è così costoso che la sua costruzione sta richiedendo il contributo finanziario di tutta le nazioni sviluppate della terra. 

Il nucleo del reattore a forma di ciambella ITER ha 30 metri di diametro e 20 metri di altezza. Si tratta di un dispositivo estremamente complesso, molto più sofisticato di una centrale nucleare a fissione di potenza equivalente e circa 10 volte il suo volume. Il suo nucleo pesa più di 30.000 tonnellate, solo la base di ITEr utilizza 200.000 metri cubi di cemento.

La dimensione è l’inconveniente più ovvio della fusione: la grande dimensione rende impossibile produrre in massa questi reattori. Questo fattore dà un vantaggio considerevole alla competizione a favore di generatori comparativamente piccoli: le turbine a gas da 50-100 MW, pale eoliche efficienti di pochi MW, pannelli solati FV di meno di un kW. Questi generatori possono essere trasportati da camion e la velocità del loro sviluppo industriale è stata inversamente proporzionale alla potenza di un singolo modulo. Il costo dell’elettricità del fotovoltaico e dell’eolico ha origine principalmente dal costo del capitale investito nel generatore e nella sua attrezzatura ausiliaria, proprio come succede per la fusione deuterio-deuterio in cui il combustibile è quasi gratis. Le centrali a gas naturale bruciano combustibile economico ed hanno il costo del generatore più basso di tutti, ma sono degli inquinatori di CO2, oggigiorno un grave inconveniente. 

Dobbiamo specificare che il combustibile per la fusione è quasi gratis solo nel caso della fusione deuterio-deuterio. L’idea attuale, invece, è quella di usare la reazione più semplice del deuterio col trizio, essendo il secondo un altro isotopo dell’idrogeno. Si tratta di un isotopo molto raro che può essere prodotto nello stesso TOKAMAK che lo brucia, ma non in quantità sufficiente da mantenere attive queste reazioni. Questo è un altro problema dei reattori di tipo ITER, per il momento nascosto sotto al tappeto.

A causa della sua grande dimensione e complessità, è molto difficile immaginare che un reattore a fusione TOKAMAK possa essere meno costoso di un reattore a fissione convenzionale e le stime odierne dettagliate pongono il costo del kWh a più di 12 centesimi (di dollaro), solo per il costo del capitale e prima di conoscere tutti i dettagli di un reattore funzionante.

Invece, l’elettricità commercializzata da FV ed eolico non incentivati è attualmente venduta a prezzi fra i 2 e i 7 centesimi, a seconda del posizionamento, e c’è spazio per ulteriori risparmi. Queste fonti sono intermittenti, la fusione non lo è, ma per una produzione elettrica dominata dalle rinnovabili, il costo aggiuntivo dello stoccaggio dell’energia comporterebbe una frazione del costo della produzione di energia. Si tratta di una considerazione puramente economica: le rinnovabili sono già meno costose della fusione. 

C’è un secondo inconveniente molo rilevante collegato alle grandi dimensione del reattore a fusione: il suo tempo di sviluppo. ITER sperimenterà con vero combustibile di fusione non prima del 2035 e porterà avanti realisticamente gli esperimenti per i 10 anni seguenti. Ciò comporta che questa fase sperimentale, non un prototipo dato che ITER sarà incapace di produrre energia, sarà durata circa 50 anni. 

Per incidere nella produzione mondiale di elettricità si dovrebbero implementare migliaia di reattori della dimensione di 1 GW. Quanto tempo di fase di sperimentazione si dovrebbe considerare per raggiungere l’obbiettivo da quando ITER avrà risposto all’inziale giro di domande? Forse 100 anni, cioè un paio di fasi sperimentali.

Per riassumere, Oltre alla pletora di problemi di progettazione irrisolti, persino sconosciuti, di natura tecnica, la fusione magnetica pone problemi collegati alle enormi dimensioni del nucleo del reattore TOKAMAK: un grande costo del kWh e un tempo di sviluppo molto lungo. Per coloro che sono sensibili alla “pulizia” della fusione devo anche accennare che ITER alla fine del suo ciclo di vita presenterà un conto di circa 30.000 tonnellate di rifiuti fortemente radioattivi senza aver prodotto un singolo kWh. La fusione magnetica non è pulita: i prodotti delle reazioni potrebbero essere poco radioattivi, ma il macchinario no.

Perché il reattore dev’essere grande

Perché un reattore magnetico a fusione dev’essere grande, fisicamente molto ampio? E’ stato dimostrato che il combustibile termonucleare brucia nella bomba H, ma può anche bruciare in modo non esplosivo; pensate al sole. Perché qualsiasi combustibile bruci in stato stazionario, l’energia rilasciata nel volume della materia che brucia è uguale all’energia che ne esce, il calore prodotto equivale al calore perso, l’equazione del bilancio energetico. Il tasso al quale l’energia viene prodotta cresce in proporzione alla densità del combustibile, il numero dei nuclei atomici per unità di volume. La densità di potenza del reattore aumenta con la densità della particelle che reagiscono.

Il plasma in un reattore è un gas di costituenti atomici quasi in equilibrio termico, il suo contenuto di energia cinetica è caratterizzata da una pressione. Se il plasma del TOKAMAK deve essere contenuto in un campo magnetico, la pressione del campo prodotto dai magneti superconduttori esterni sulla posizione del plasma al momento è limitata a meno di 200 atmosfere dalla forza meccanica dei magneti. Sono prevedibili miglioramenti del fronte dei magneti, e sarebbero d’aiuto, ma i materiali magnetici sono essi stessi soggetti alle leggi della natura dei solidi: questi miglioramenti saranno marginali.

Come in un normale gas, la pressione del plasma è proporzionale alla temperatura e alla densità delle particelle. La temperatura di fusione dev’essere nella gamma delle centinaia di milioni di gradi Celsius, quindi, a causa del limite della pressione magnetica, la densità delle particelle risulta essere molto bassa, un milione di volte meno della densità molecolare dell’aria che respiriamo. Il risultato è una densità a bassa potenza. 

Dall’altra parte dell’equazione dell’equilibrio di potenza del reattore, l’energia persa dal plasma è dettata dai movimenti turbolenti del plasma stesso e della dimensione del dispositivo. E stato sperimentalmente dimostrato che la turbolenza è presente ad un livello significativo in tutti i plasma di interesse termonucleare confinati magneticamente, proprio come l’acqua in un canale.

L’analogia è vicina a quella del flusso d’acqua in un canale. Questo flusso è limitato da una irriducibile coda di turbolenza, con una dipendenza trascurabile dai dettagli costruttivi del canale. E’ la stessa cosa per il confinamento dell’energia nel plasma termonucleare, è dominato da inevitabili movimenti turbolenti del fluido. Ma esiste sempre un nucleo in reazione abbastanza grande da raggiungere la parità di energia perché il suo volume (produzione di energia) rispetto alla superficie (perdite) aumenta con la sua dimensione, una considerazione meramente geometrica. Il sole, anche senza un campo magnetico, è certamente grande abbastanza per il pareggio.

Sono queste le ragioni per cui il reattore TOKAMAK dev’essere molto grande. La dimensione necessaria per mantenere l’alta temperatura del nucleo perché il plasma fonda. E’ questo il fattore principale che rende la fusione nucleare costosa e molto difficile.


Il concetto di fondo
 

Per come stanno le cose, le tecnologie rinnovabili di oggi sono considerevolmente meno costose di un potenziale reattore a fusione – anche ipotizzando che funzionasse come ci si aspetta. Il mio lavoro nella fusione ha coinciso con la deregolamentazione di Reagan del settore elettrico quando qualcosa di simile è accaduto fra centrali a gas e a carbone. Lo sviluppo di grandi motori a reazione per l’aviazione ha reso possibile generatori elettrici efficienti, poco costosi e prodotti in serie che si sono dimostrati impossibili da battere e gli investitori in centrali a carbone hanno fallito per permettere all’industria americana di approfittare della tecnologia più nuova e meno costosa. Allora era troppo presto per la rivoluzione dell’eolico e del FV, ma ora sono qui per rendere la fusione nucleare obsoleta prima che si dimostri che funziona.


L’autore

Giuseppe Cimaè stato impiegato in diversi impianti da parte di laboratori di fusione e università in Europa e negli Stati Uniti per gran parte della sua carriera: Euratom Culham nel Regno Unito, ENEA di Frascati e CNR di Milano, the Fusion Research Center dell’Università del Texas ad Austin. Ha pubblicato circa 50 articoli peer-review in questo campo, in gran parte sulle onde EM per la diagnostica del plasma e il riscaldamento, le configurazioni magnetiche, la misurazione delle turbolenze. Dopo aver perso fiducia in un approccio decostruzionista alla fusione, ha dato vita ad un’industria di automazione industriale in Texas. Attualmente è in pensione a Venezia, dove lotta per la proteggere l’ambiente, conservare l’energia ed insegnare tecnologia e scienza.

venerdì 1 dicembre 2017

La Svizzera a 2000 Watt.

di Jacopo Simonetta

Il 4 ottobre scorso il Movimento Decrescita Felice e l’Associazione Italiana Economisti dell’Energia hanno organizzato a Roma, in Campidoglio, un’interessante convegno dal titolo: “ Modelli per la valutazione dell'impatto ambientale e macroeconomico delle strategie energetiche” (qui il link al sito per consultare tutte le relazioni).
In una serie di articoli cercherò di riassumere le presentazioni, tutte molto interessanti sia per le cose che sono state dette, sia per le cose che sono state taciute. Per prima vorrei qui trattare quella che il 4 ottobre è stata esposta per ultima, dal dr. Marco Morosini, perché, pur non avendo un contenuto tecnico rilevante, ha un contenuto politico potenzialmente rivoluzionario.

Di che si tratta?

Società a 2000 Watt” è un’idea elaborata nel 1998 da due politecnici federali: quello di Zurigo (ETH) e quello di Losanna (EPFL). Adottata nel 2002 come linea-guida dal governo federale e diventata legge locale nel 2008 a Zurigo, sempre tramite referendum (78% di si). Nel 2016 è stata approvata dal parlamento federale e nel 2017 resa attuativa con referendum nazionale (58% di si). In sintesi si tratta di porsi un obbiettivo vincolante: entro il 2050, ridurre i consumi pro-capite di energia di circa 2/3 rispetto ad oggi, portando le emissioni di CO2 a una tonnellata a cranio all'anno.

Perché è importante?

“Ridurre i consumi e le emissioni” è un mantra che oramai abbiamo sentito tante volte da dare la nausea, perché questa volta potrebbe essere diverso? Per svariate ragioni che si possono così riassumere:
1 - Non si tratta di una generica indicazione o di una dichiarazione di buoni propositi, bensì di una legge dello stato che stabilisce un obbiettivo preciso entro un tempo dato.
2 – Non si usano concetti vaghi ed elastici come “sostenibilità”, mentre si usano termini precisi: “Società” - significa che coinvolge tutti i cittadini in cambiamenti sostanziali - e “2000 Watt” - una quantità precisa espressa mediante un’unità di misura conosciuta.
3 – Si specifica che gli interventi dovranno svilupparsi secondo un ordine preciso di priorità: Primo ridurre i consumi di energia; secondo aumentare l’efficienza; terzo incrementare il ricorso alle rinnovabili; quarto uscire dal nucleare.

Il punto qualificante ed innovativo dell’intera faccenda è proprio che, per la prima volta in un documento governativo, si ha il coraggio di dire chiaro e tondo che gli obbiettivi non saranno centrati senza, per prima cosa, una diffusa adozione di stili di vita nettamente più sobri dell’attuale. Un fatto condensato con lo slogan “Fare meno con meno”, in contrasto con il “Fare di più con meno” di cui solitamente si parla. Insomma, dare finalmente la priorità alla Sufficienza sull'efficienza.
Naturalmente,  ben venga l’efficienza, ma solo in un quadro di riduzione programmata dei consumi finali; altrimenti non si farebbe che reiterare il perverso meccanismo che ha moltiplicato per 20 (circa) i consumi pro-capite dai tempi in cui Mr. Watt progettava le sue caldaie a vapore. E che ha finora vanificato qualunque tentativo di ridurre davvero le emissioni climalteranti.

Cambiare rotta

Finora, i tentativi di pianificare una reale riduzione dei consumi si sono puntualmente arenati su tre secche ideologiche principali:

Secca 1 – “La riduzione della prosperità materiale non necessaria perché l’aumento di efficienza ridurrà il consumo energetico”. Solo in teoria, perché durante tutta la storia dello sviluppo industriale lo smisurato aumento nell’efficienza delle tecnologie ha comportato un aumento e non una diminuzione dei consumi finali. Può sembrare strano, ma è così.

Secca 2 – “La riduzione del consumo energetico non è necessaria se si userà il 100% di energie rinnovabili.” Falso per due ordini di motivi: il primo è che anche le energie rinnovabili hanno impatti ambientali spesso considerevoli, mentre richiedono materiali rari e processi industriali energivori. Il secondo è che ad oggi le energie rinnovabili coprono poco più del 10% del consumo globale (principalmente con l’idroelettrico che è la tecnologia più efficiente, ma anche più impattante). Non è realistico pensare di poter rendere maggioritaria questa percentuale senza ridurre di almeno 2/3 i consumi finali.

Secca 3 –“La riduzione del consumo energetico e della prosperità materiale non sono possibili perché sono inaccettabili per la popolazione e per l’economia”. E’ stato vero finora, ma se gli svizzeri riusciranno a portare avanti il loro progetto, avremo l’esempio di un’intera nazione che accetta una contrazione economica pur di ridurre il proprio impatto sul pianeta!

Se gli svizzeri riusciranno a centrare gli obbiettivi è presto per saperlo, ma questa volta sono partiti col piede giusto e davvero è già tanto.

venerdì 3 febbraio 2017

Una Vigna per le Case Automobilistiche: Il Disastro delle Rottamazioni

In questo articolo, Leonardo Libero mette il dito sulla piaga di un classico esempio di "greenwashing"; la rottamazione di vecchie auto ancora perfettamente in grado di funzionar. Il tutto fatto in nome dell'ecologia ma, in realtà, per fare un piacere alle case automobilistiche. Avrebbe avuto senso fare provvedimenti seri per passare a veicoli veramente a emissioni zero, come quelli elettrici ma si è preferito fare una politica che, in preatica, ha perpetuato la dipendenza del nostro sistema di trasporto stradale dai combustibili fossili. Ma gli errori si pagano, come si è visto nei recenti scandali che hanno riguardato la Volkswagen e la Fiat. E ora si tratta di passare ai veicoli elettrici partendo quasi da zero, una cosa che si sarebbe potuto e dovuto fare vent'anni fa. (UB)


Di Leonardo Libero




Nel 1966 il signor Irvin Gordon di Anchorage, Alaska, aveva acquistato un’auto da 1.770 cc di cilindrata, quindi piccola per un cittadino USA, e guidandola ogni giorno per 47 anni, al settembre 2013 le ha fatto percorrere quasi cinque milioni di chilometri - per la precisione,4.890.980 – che sono 12,7 volte la distanza dalla Terra alla Luna (http://thecarguys.my/2013/09/3-million-miles-volvo-1800s-120-laps-around-the-world/ ) .

Quell’auto, sia onore al merito, è una Volvo, ma è noto che Mercedes prevede per i suoi clienti una scala di premi al raggiungimento di 250.000, 500.000, 750.000, 1.000.000 e 1.610.000 chilometri ( https://en.wikipedia.org/wiki/Car_longevity), e che tutte le auto di tutte le Case sono progettate e prodotte per raggiungere una percorrenza di almeno 250.000 chilometri (http://business.time.com/2012/03/20/what-you-only-have-100k-miles-on-your-car-thats-nothing/ .

Nonostante tali attestati sulla possibile durata di un’auto, molti automobilisti europei sono costretti a sostituire ogni pochi anni la loro, anche se con pochi chilometri e in buono stato, con un’altra nuova, che dovranno sostituire anch’essa dopo pochi anni, anche se in buono stato e con pochi chilometri. Ciò accade dal 1992, con l’entrata in vigore della prima direttiva CEE sulle emissioni dei veicoli a motore, nei Paesi che, come l’Italia, hanno scelto di dare esecuzione a quella direttiva, e alle successive (*), non soltanto obbligando le Case a produrre o importare, da una certa data, solo veicoli meno inquinanti di quelli prodotti o importati in precedenza, ma anche forzando i cittadini ad acquistarli, se per qualunque motivo essi devono poter circolare sempre, con limitazioni “ambientali” del traffico dalle quali esentano solo le più recenti.

Una “scelta” che si fa sospettare frutto di lobbying, o peggio, in un Paese come il nostro, che anche nella classifica per corruzione percepita 2016 è 61mo, dietro ad alcuni del Terzo Mondo, però ha nelle sue carceri solo 228 condannati in via definitiva per reati economico-finanziari, mentre nelle carceri della Germania - 10ma in quella classifica - ce ne sono oltre 6.000 ( http://www.ilfattoquotidiano.it/2016/04/24/corruzione-miracolo-italiano-siamo-primi-per-le-tangenti-ultimi-per-i-colletti-bianchi-in-carcere/2667976/ )

Una scelta oltretutto controproducente. Perché non ha ridotto l’inquinamento, che è anzi aumentato, e perché la grossa “vigna” che ci hanno potuto piantare le Case, oltre a pesare sui bilanci delle famiglie ed a sottrarre entrate agli altri settori economici, causa un enorme spreco di ENERGIA nuocendo così proprio a quell’Ambiente che le Direttive UE vorrebbero proteggere.

Il 66% dell’elettricità mondiale, infatti, è ancora tratta da fonti fossili, e per il 39% dall’inquinantissimo carbone (http://www.tsp-data-portal.org/Breakdown-of-Electricity-Generation-by-Energy-Source#tspQvChart). La sua produzione fa perciò emettere molta CO2, che è il principale responsabile dei cambiamenti climatici, nonchè particolato, CO, SOx, NOx, cioè gli stessi inquinanti per i quali si criminalizzano i motori diesel ( http://www.eea.europa.eu/data-and-maps/indicators/en09-emissions-co2-so2-and/emissions-co2-so2-and-nox )

Come accennato, la percorrenza minima programmata per tutte le auto è di 250.000 chilometri. Ed è quindi al raggiungimento di almeno quel traguardo che il loro “costo energetico” può dirsi ammortizzato. Ma la percorrenza media annua delle auto per esempio italiane è stata nel 2015 di soli 11.000 km ( http://www.earthday.it/Citta-e-trasporti/Gli-italiani-in-automobile-11mila-km-l-anno ) e di 12.000-13.000 nel decennio precedente. Per cui la maggioranza di quelle rottamate per “ragioni ambientali” ha impiegato (o avrebbe impiegato ) circa 10 anni per ammortizzare appena la metà di quel costo.

La rottamazione-sostitutiva di un'auto con meno di 250.000 chilometri comporta quindi: a)- lo spreco della quota del suo costo energetico non ancora ammortizzata; b)- l'anticipata "spesa" del costo energetico della rottamazione, non grande, ma nemmeno trascurabile; c)- l'anticipata "spesa" dell’ingente costo energetico dell'auto sostitutiva.

La misura del danno climatico così prodotto deve quindi partire dal costo energetico medio di una auto; che secondo Wikipedia è di circa 30.000 kWh ( pari 10 anni di consumi elettrici di una famiglia media ) (https://de.wikipedia.org/wiki/Graue_Energie#cite_note-.C3.96BUJF-2).

Perciò, poiché in Europa si vendono auto prodotte in tutto il mondo e poiché la media mondiale di CO2 emessa per ogni kWh prodotto è stata, per esempio nel 2014, di 518 grammi ( https://en.wikipedia.org/wiki/List_of_countries_by_carbon_dioxide_emissions ) si può affermare che produrne una in quell’anno ha causato l’emissione di 30.000 x 518 = 15.540.000 grammi = 15,54 tonnellate di CO2 , che le 13.006.451 vendute nel 2014 in Europa, spesso per sostituirne altre rottamate, ne ha fatto emettere 13.006.451x15,54 = 202.120.248,54 tonnellate ed osservare che è stato anche per quel non trascurabile contributo se nel 2015 il tasso atmosferico di CO2, che negli 800.000 anni precedenti non era mai andato oltre le 300 parti per milione, e raramente oltre le 250, ha raggiunto e superato le 400:


L’idea che quella scelta avrebbe fatto diminuire l’inquinamento urbano poteva essere plausibile, ma solo fino al 1999, anno in cui il prof. Hans Peter Lenz, dell’Università di Vienna, pubblicò i risultati di accurate ricerche, fatte da lui e dal suo staff in Germania ed in Austria, nel libro “Emissions and air quality” (https://www.abebooks.com/Emissions-Air-Quality-Hans-Peter-Lenz/12686586853/bd ). Essi avevano infatti rivelato che i veicoli a motore termico NON SONO la principale fonte di inquinamento e che della quota minoritaria con la quale vi concorrono la maggior parte NON E’ quella prodotta dai motori bensi quella sollevata da terra dalle ruote.

Peccato che quel libro ed il suo illustre autore siano stati ignorati dalla “grande informazione” cartacea e non, ed anche da quella del settore motoristico, con la sola eccezione, in Italia, del mensile “Auto” che nel 2006 ha pubblicato questo articolo dell’ing. Enrico De Vita, relativo a quel libro http://www.automoto.it/eco/polveri-sottili-tutto-quello-che-non-vi-dicono.html. Articolo nel quale si potevano vedere questi due diagrammi a torta sulle fonti generali e locali degli inquinanti:






e si poteva leggere: "Due cose sono chiarissime: primo, il 9% del 26%, attribuito ai gas di scarico delle auto nel traffico locale, equivale al 2,5% del totale; come dire che quando in certe aree si proibisce la circolazione di tutte le auto (a benzina, a gasolio, Euro 0 o Euro 5), si riducono le polveri emesse della stessa percentuale; secondo, quando si introducono norme più severe per gli scarichi delle nuove vetture, si interviene su una frazione infinitesimale di quel 2,5%, ma non si modifica in alcun modo quella ben più grande prodotta e sollevata dai pneumatici (che nel traffico locale vale 3 volte di più)".


Il fatto che i picchi di inquinamento urbano si verifichino sempre e solo d’inverno avrebbe dovuto suggerire fin da principio, ai decisori dei rimedi da adottare, di tenere particolarmente d’occhio i riscaldamenti, che d’estate non ci sono mentre di auto ne circolano forse anche di più.


Ci ha pensato l’ing. Dario Faccini con tre lunghi articoli, scritti in base a dati ufficiali, pubblicati nel 2015-2016 sul sito web di ASPO Italia, associazione di sicura fede ambientalista, e che l’autore raccomandava di leggere “bevendo molta, molta camomilla” (https://aspoitalia.wordpress.com/2015/12/30/inquinamento-il-colpevole-nascosto/ ).


Vi risulta infatti, in breve, che le diminuzioni di potere inquinante dei veicoli termici, ottenute dal 1992 in poi anche grazie alle Direttive UE, sono state largamente vanificate ………dai riscaldamenti a biomasse (legna e pellets); i quali, a partire dal 2003, sono dilagati a valanga in sostituzione di quelli ad altri combustibili, ma si sono rivelati 100 volte più inquinanti di Gasolio e GPL e 2000 volte più del metano.


Il lato comico della cosa - se si potesse riderne – è che lo Stato italiano ha incentivato, anche con soldi pubblici, la rottamazione sostitutiva delle auto considerate “sporche” ed ha incentivato anche i riscaldamenti a biomasse perchè tale fonte è rinnovabile (ma non per questo “pulita” ).


Quegli articoli hanno avuto oltre 50.000 accessi da internauti, ma dalla “grande informazione” e da quella specializzata hanno avuto lo stesso rilievo dato, quattro anni prima, al libro di Hans Peter Lenz (non c’è peggior cieco di chi non vuol vedere). Nella migliore delle ipotesi, il motivo potrebbe stare nel timore di perdere la forsennata quanto succulenta pubblicità alle auto, arrivata ormai a superare per intensità e frequenza quella ai più comuni prodotti di uso quotidiano.


Quanto poi al motivo di tale campagna pubblicitaria, scatenata anche dalle Case più illustri , lo credo connesso ai piazzali dei concessionari, strapieni di auto malgrado tutto invendute, che si possono vedere nei dintorni delle città (programmi produttivi troppo presuntuosi ?).


Leonardo Libero


31 gennaio 2017


(*) La direttiva è uno degli strumenti giuridici che le istituzioni europee possono utilizzare per attuare le politiche dell’Unione europea (UE). Si tratta di uno strumento flessibile usato principalmente per armonizzare le leggi nazionali. Essa richiede ai paesi dell’UE di raggiungere determinati risultati, ma li lascia liberi di scegliere le modalità . (http://eur-lex.europa.eu/legal-content/IT/TXT/?uri=URISERV:l14527 )





sabato 31 dicembre 2016

Cosa ci possiamo aspettare dal 2017? La nuova politica energetica di Trump promette di essere un disastro per tutti

Da “Cassandra's Legacy”. Traduzione di MR



Michael Klare ha pubblicato un lungo commento su “Tomgram” riguardo a quello che sembrano essere le attuali scelte politiche di Donald Trump sull'energia e correttamente osserva quanto siano contraddittorie. Fondamentalmente,

La spinta principale del suo approccio non poteva essere più chiara: abolire tutte le regole e le direttive presidenziali che si frappongono ad un'estrazione fossili senza limiti, compresi gli impegni presi dal presidente Obama nel dicembre 2015 sull'Accordo sul Clima di Parigi. 

In altre parole, Trump sembra essere bloccato in una visione di solo mercato del problema, pensando che le realtà fisiche non abbiano alcun ruolo nell'estrazione delle risorse fossili. In questo non è certo solo, ma il problema è che la deregolamentazione non è così importante quanto sembri pensare Trump. Non è stato perché il mercato aveva troppe regole che i prezzi del petrolio sono schizzati a 150 dollari al barile nel 2008 e si sono mantenuti intorno ai 100 dollari al barile dal 2011 alla fine del 2014. E non è stato perché la produzione di petrolio è stata improvvisamente deregolamentata che i prezzi sono collassati al di sotto dei 40 dollari al barile nel 2015. Il mercato petrolifero, come tutti i mercati, soffre le instabilità che, a volte, potrebbero essere curate dalle regole. Eliminare tutte le regole potrebbe invece causare ulteriori altalene dei prezzi ed oscillazioni forti, piuttosto che un aumento di produzione.

Se le società petrolifere sono nei guai, in questo momento, è perché i prezzi del petrolio sono troppo bassi, non perché l'estrazione del petrolio è troppo regolamentata e le politiche di Trump – se dovessero funzionare – potrebbero danneggiare l'industria dei combustibili fossili ancora di più. Questo, in sé stessa, non è una brutta cosa – specialmente in termini di effetti sul clima. Il problema è che le idee di Trump di rivitalizzare l'industria dei combustibili fossili potrebbe non essere limitata alla deregolamentazione, ma potrebbe comportare uno scoraggiamento attivo dell'energia rinnovabile, una politica che, per esempio, il governo italiano ha applicato con successo negli ultimi anni.

Quindi perché Trump vuol fare una cosa del genere? Possiamo solo immaginare cosa passi per la testa di un anziano ricco di 70 anni che non è famoso per essere particolarmente esperto in qualcosa. Klare ipotizza una possibile spiegazione in questi termini:

In un certo senso, non c'è dubbio, si tratta, perlomeno in parte, della nostalgia persistente del presidente eletto per l'America che cresceva in fretta (e in gran parte priva di regole) degli anni 50. Quando Trump stava crescendo, gli Stati Uniti erano un motore di espansione straordinario e la sua produzione di beni fondamentali, compresi petrolio, carbone e acciaio, si gonfiavano quotidianamente. Le più grandi industrie del paese sono state fortemente sindacalizzate; i sobborghi stavano esplodendo; gli edifici per appartamenti crescevano in tutto il quartire di Queens, a New York City, dove ha iniziato Trump; le auto uscivano dalle linee di montaggio in quello che era tutto fuorché la “Rust Belt” (la cintura degli stati industrializzati ora in declino, ndt) e le raffinerie e le centrali a carbone producevano l'enorme quantità di energia necessaria perché tutto questo accadesse.  
E non dimenticate un altro fattore: la vendicatività di Trump – in questo caso, non solo verso i suoi oppositori democratici nella recente campagna elettorale, ma verso coloro che hanno votato contro di lui. Il Donald è ben consapevole che la maggior parte degli americani che si preoccupano del cambiamento climatico e che sono a favore di una rapida trasformazione ad un'America ad energia verde non ha votato per lui.  
Data il suo noto debole di attaccare chiunque frustri le sue ambizioni o parli negativamente di lui e il suo impulso a punire i verdi tramite, fra le altre cose, la cancellazione di ogni misura adottata dal presidente Obama per accelerare l'utilizzo dell'energia rinnovabile, aspettatevi che faccia a pezzi l'EPA e che faccia del suo meglio per fare a brandelli ogni ostacolo allo sfruttamento dei combustibili fossili. Se questo significa precipitare l'incenerimento del pianeta, così sia. A Trump o non importa (visto che ha 70 anni e non vivrà per vederlo accadere), o non crede davvero nella scienza, o non pensa che questo porterà danno agli interessi degli affari della sua azienda nei prossimi decenni. 

Questa interpretazione di Michael Klare potrebbe essere corretta o non corretta, ma sottolinea un problema fondamentale: le elezioni danno il potere alle persone sulla base delle loro promesse, ma nessuno sa veramente come si comporteranno una volta che hanno il potere nelle loro mani. La storia del mondo è piena di capi che avevano problemi mentali di ogni genere o avevano anche solo una visione del mondo che era completamente al di fuori della realtà. Il risultato di solito sono stati disastri assoluti in quanto i capi, nella maggior parte dei casi, si rifiutano di apprendere dai loro errori. E non solo questo, essi tendono a raddoppiare, peggiorando le cose.

Riguardo a Donald Trump, come ho discusso in un post precedente, nessuno può sapere cosa succede nella sua testa. Tutto quello che posso dire è che l'America potrebbe avere un bisogno disperato della benedizione di Dio nel prossimo futuro.