venerdì 16 marzo 2012

Il picco del diesel

Originale di Antonio Turiel su The Oil Crash. Traduzione di Massimiliano Rupalti




Immagine da StreetsBlog.org


Di ANTONIO TURIEL

Cari lettori,

"Continua la mancanza di combustibile in quasi tutta la provincia di Salta (Argentina)", "I lavoratori del settore del trasporto merci contestano il profilo basso che il governo argentino dà alla scarsità di combustibili", "La scarsità di diesel può durare per settimane nel Canada occidenatale", "Una scarsità della produzione di diesel nel Regno Unito metterebbe a rischio la sua sicurezza energetica", "Si profila una crisi della benzina in Russia mentre i prezzi internazionali crescono", "La scarsità di diesel accende lo scontento in Cina", "La Cina fa importazioni straordinarie di diesel per far fronte alla scarsità interna", "La scarsità di combustibile può portare a tagli di corrente, secondo i residenti degli Emirati Arabi Uniti", "Gli yemeniti devono far fronte ad una crisi del combustibile nel bel mezzo della protesta"...

Sono solo alcuni dei titoli apparsi sulla stampa internazionale negli ultimi mesi. Dietro ai problemi di scarsità ci sono una moltitudine di cause, reali o presunte, ma hanno un curioso tratto in comune: in tutto il mondo sono sempre più frequenti le notizie sulla scarsità di combustibili, principalmente del diesel (potete vedere altro su Energy Shortage, da dove provengono quelle che ho riportato sopra).
 
Lo abbiamo già commentato alla fine dello scorso anno: c'è un fantasma che minaccia il mondo, quello della scarsità del diesel. Non scarsità di petrolio (che anche è una minaccia ma a più lungo termine), non la scarsità di altri combustibili (anche questa finirà con l'arrivare), ma una minaccia già presente. Non c'è sufficiente diesel per coprire la domanda mondiale ed il problema ha tutta l'aria di aggravarsi. Ma, perché si sta verificando questo problema? Come succede di solito, ci sono vari fattori che influiscono, non tutti allo stesso modo e non tutti si sviluppano alla stessa velocità. Questo rende la previsione piuttosto difficile. Tuttavia dà l'impressione che, per quanto riguarda il diesel, stiamo giungendo ad un collo di bottiglia abbastanza definitivo.

Il grafico seguente è stato costruito sui dati della
Joint Oil Data Initiative. E' un'iniziativa per dar maggior trasparenza al mercato del petrolio e quello che tenta di fare è omogeneizzare i dati sparpagliati del mercato del petrolio e renderli più affidabili. Per questo, a parte le compilazioni statistiche delle agenzie che vi partecipano (fra queste le più importanti agenzie pubbliche e private d'occidente), producono questionari trimestrali che permettono di individuare le anomalie e correggerle – con molti limiti, ovviamente. Non tutti i paesi vengono revisionati dalla JODI (anche se la maggioranza sì) per cui i loro dati non hanno una scala realmente globale. Anche così, l'analisi dell'evoluzione della produzione di diesel su scala globale che ci offre la JODI è abbastanza rivelatrice:




La figura corrisponde alla produzione sganciata dalle stazioni (per compensare i diversi schemi di consumo a seconda della stazione) facendo una media in ogni punto sui quattro trimestri precedenti (questo implica, pertanto, che il riferimento temporale di ogni punto dovrebbe essere spostato di due trimestri verso sinistra, ma in ogni caso questo dettaglio non ha importanza per l'esposizione che segue). Il grafico è diverso da quelli ai quali siamo abituati per la produzione di petrolio (vedete, per esempio, quella che avevo preparato per il post sullo sfasamento fra offerta e domanda), poiché la produzione di diesel (gasolio per autotrazione) non ha raggiunto il tetto fino al 2008, nonostante la stagnazione della produzione di petrolio. Poi, il calo per la crisi, un nuovo tetto nel 2011 e da lì una tendenza, anche se leggera, a calare, senza che che si possa giustificare con una grande recessione (poiché ha avuto inizio nei primi mesi del 2011). Cosa sta succedendo?

Sta succedendo che il mondo sta rimanendo senza capacità di produrre più diesel e questo è un fenomeno nuovo con una dinamica propria, non completamente coincidente con quella del petrolio. Ovviamente la scarsità di petrolio porterà inevitabilmente ad una scarsità di diesel, ma ci può essere scarsità di diesel prima che arrivi la scarsità di petrolio. Di fatto, è esattamente quello che sta succedendo e le ragioni di questa diversa dinamica sono fondamentalmente due.

Sapete già che da un decennio la IEA sì è inventata un termine che definisce “tutti i liquidi del petrolio” e che equivale a tutte le sostanze, estratte e sintetizzate, che più o meno possono fare le veci del petrolio. Questo utile concetto è stato introdotto per dissimulare il fatto che la produzione di petrolio greggio (quello che realmente si estrae dal sottosuolo) stava giungendo al suo picco di produzione, al suo zenit, e nella categoria “tutti i liquidi” entrano tutte le sostanze che si possono sintetizzare e processare come succedanei del petrolio (per questo si parla di “produzione di petrolio” invece di “estrazione di petrolio”, perché il petrolio in parte si fabbrica, in realtà). Quello che succede è che questi petroli, petroli non convenzionali, di alcuni dei quali abbiamo già parlato in altre occasioni, non sono esattamente spendibili o buoni sostituti del petrolio greggio. In particolare, non tutti sono adatti a produrre diesel. Ed ecco la prima causa di scarsità del diesel: di tutti i tipi di petrolio che entrano nella lista “tutti i liquidi” quelli che sono aumentati di più sono i cosiddetti “liquidi del gas naturale” (NGL, il loro acronimo inglese). Questi NGL sono idrocarburi di catena corta che sono il risultato della “pulizia” del gas che esce dai pozzi, e anche se si possono usare per sintetizzare diesel, risulta molto costoso (ricordate che fattibile e redditizio non sono la stessa cosa) tanto energeticamente quanto economicamente. Di fatto, il petrolio soggetto ad essere convertito in diesel è già sicuramente in leggero declino.

Questa mancanza di diesel è abbastanza grave, perché la maggior parte delle macchine di questo mondo sono diesel, così come tutto il trasporto su gomma di merci e una parte sempre più grande di automobili (a causa del miglior rendimento del motore diesel rispetto a quello a benzina). Di fatto, la domanda di diesel nel periodo in questione non ha fatto altro che aumentare, a causa, fra le altre cose, del disastro di Fukushima, che ha fatto sì che il Giappone aumentasse le sue importazioni (
le centrali nucleari del Giappone che vengono fermate per manutenzione non vengono riattivate, secondo un piano del Governo per denuclearizzare il paese e il fabbisogno di elettricità viene affidato ai generatori diesel ed alle centrali termiche alimentate col diesel). Questo spiega la scarsità di diesel in tutto il mondo e rende molto complicata la vita a chi sostiene la teoria del “peak demand”, il picco della domanda (che abbiamo già commentato in questo blog) e che sostengono che la riduzione della produzione in realtà una diminuzione cercata e pilotata del consumo per via, essenzialmente, dei miglioramenti nell'efficienza, e non di quello che sembra stia accadendo, che è la distruzione della domanda.

C'è, tuttavia, un secondo effetto che si sente sempre di più: la diminuzione dei
margini di raffinazione nelle raffinerie. Questi “margini di raffinazione” si riferiscono al differenziale del prezzo dei prodotti raffinati rispetto a quello del petrolio dal quale si estraggono. Le raffinerie hanno un controllo abbastanza puntuale sui loro costi operativi, ma non tanto sul prezzo al quale viene loro venduto il petrolio ed a quello che pagano loro per la benzina e gli altri distillati.
Come in tutto il mercato dei prodotti petroliferi, è norma comune siglare contratti differiti nel tempo, per esempio, a un mese, tre mesi o sei mesi. I problemi arrivano quando ti tocca pagare per il petrolio la stessa cifra che ricavi dalla vendita della benzina, gasolio, ecc, soprattutto quando gli orizzonti temporali di quello che compri e vendi non collimano (per esempio, petrolio a un mese e vendita della benzina a tre mesi). Le raffinerie tendono a fissare un margine di raffinazione di alcuni dollari al barile, normalmente intorno ai 10 dollari, ma non è la stessa cosa guadagnare 10 dollari quando il prezzo medio di un barile è 40 dollari, rispetto a quando è 140 dollari; Piccole fluttuazioni del prezzo del petrolio, quando questo è alto, possono far crollare facilmente il margine di raffinazione fino a renderlo negativo, come è successo nel 2009 o è successo ad alcune industrie petrolifere nel 2010. Nel caso delle raffinerie che appartengono ad un'industria petrolifera questo non è un problema, ma durante gli ultimi decenni le industrie hanno esternalizzato questa parte degli affari, che hanno sempre avuto margini più scarsi, migliorando così le proprie rendite, ma rendendo ancora più fragile il mercato del petrolio. Per peggiorare le cose, le raffinerie si confrontano col problema di avere un eccesso di benzina. Infatti, raffinando il petrolio si può leggermente variare la quantità delle due grandi categorie di prodotti di raffinazione (benzina e distillati), ma non quanto si vorrebbe, poiché la quantità di petrolio che finisce convertito in benzine oscilla fra la metà ed i due terzi, nei lavorati più comuni. Tuttavia, salvo negli Stati Uniti, in tutto il mondo c'è stata una tendenza a convertire la mobilità privata al diesel, diminuendo così il consumo di benzina. Dall'altra parte, la benzina è usata praticamente solo per la mobilità privata, il settore che ha ridotto di più i consumi durante la crisi. Così allora, le raffinerie devono equilibrare la vendita di un prodotto che ha un calo di domanda, la benzina – che è la metà o più della produzione – con quella di un insieme di prodotti, fra i quali anche il diesel, che hanno un aumento della domanda. Non possono alzare molto il margine perché affogherebbero nella benzina invenduta, né abbassarlo troppo perché si rovinerebbero. Conseguenza: le raffinerie non trovano la loro posizione di redditività e cominciano a fallire o a chiudere sine die. Negli Stati Uniti notano preoccupati che, nonostante la crisi e la caduta della domanda di benzina, il suo prezzo non smette di salire per colpa della chiusura delle raffinerie. Almeno cinque raffinerie della costa est degli Stati uniti hanno chiuso nelle ultime settimane, il che da l'idea di come si stia aggravando il problema. Il problema sta diventando sistemico anche in Europa: settanta (sì, 70!) raffinerie in tutta Europa hanno chiuso o stanno per chiudere; nella notizia che linko dicono che è “per l'embargo all'Iran”, sapete già, che questo non entrerà in vigore fino a giugno prossimo e per il quale, come dice il nostro ministro, potremo trovare petrolio da altri fornitori. Segno sempre più evidente della difficoltà di accettare una realtà più complessa e sgradevole. E non pensate che chiudano solo piccole raffinerie: Petroplus, la più grande d'Europa, che forniva il 4,4% di tutti i prodotti consumati nel vecchio continente e le cui difficoltà sono state recentemente commentate su Crisis Energética, alla fine ha fallito.

Senza dubbio stiamo vivendo un momento storico. Sembra sempre più probabile che si realizzi la previsione che aveva fatto
il rapporto dei Lloyd's nel 2010, cioè che ci potrebbero essere dei problemi di fornitura nel 2013. Il resto del mondo, come accertano le notizie linkate all'inizio del post, è già lì. Manchiamo solo noi. Come verranno interpretate mediaticamente queste difficoltà? Quante guerre per le risorse si potranno giustificare a seconda della lunghezza delle code alle stazioni di servizio?


Nota finale: in Italia c'è stato un blocco di diversi giorni da parte dei camionisti, degli agricoltori e dei pescatori che protestavano per gli alti prezzi del carburante. E' stato molto esteso al sud, dove è durato quasi due settimane e causando problemi gravi, compresa la mancata fornitura di alimenti. Un nuovo promemoria della fragilità del nostro sistema e del fatto che i problemi gravi sono più vicini di quanto pensiamo. Però Voi non avete sentito niente di tutto questo, perché questa notizia conviene metterla a tacere, non sia mai che la gente se ne faccia un'idea. E' il picco dell'informazione.


Saluti,
AMT

Originale di Antonio Turiel su The Oil Crash. Traduzione di Massimiliano Rupalti

lunedì 12 marzo 2012

Cambiamento climatico: il sole non c'entra!





Un recente articolo di Pasini, Attanasio e Triacca ha portato nuova evidenza al fatto che il fattore principale che causa i cambiamenti climatici è l'aumento della concentrazione dei gas serra nell'atmosfera.


Come facciamo a sapere che sono proprio i gas serra, e non, per esempio, il sole a causare i cambiamenti climatici? Beh, c'è più di un modo, ma quello migliore è partire dalla fisica. Sappiamo come funziona il meccanismo di riscaldamento dei gas serra e possiamo misurare quanta energia questi gas trattengono nell'atmosfera e come questa energia varia con l'aumento della loro concentrazione (questo si chiama "forzante"). Il valore della forzante dovuto ai gas serra lo possiamo confrontare con quello dovuto ai cambiamenti dell'irradiazione solare, che è anche questa una cosa che possiamo misurare. Viene fuori che la forzante dovuta ai gas serra è molto superiore a quella delle variazioni solari. I risultati si possono riassumere in questo diagramma dell'IPCC del 2007 (che, fra le altre cose, sbufala la leggenda che la scienza del clima prenda in considerazione "soltanto" il biossido di carbonio).



Questi dati sono l'evidenza principale sul fatto che i cambiamenti climatici che osserviamo sono dovuti principalmente ai gas serra. Questo risultato, però, deve essere verificato. Se sono veramente i gas serra a causare l'aumento della temperatura, dovremmo vedere una correlazione fra le due cose. Ovvero, un aumento della concentrazione di gas serra deve corrispondere a un aumento di temperature. Se non vedessimo una correlazione, evidentemente il modello fisico sarebbe falsificato. Ma la correlazione la vediamo benissimo: l'aumento della concentrazione di CO2 è stato accompagnato nell'ultimo secolo da un aumento delle temperature planetarie. La correlazione non è perfetta, dato che è influenzata da altri fattori come la presenza di aerosol e altre cose. Ma funziona abbastanza bene e conferma il modello. (Immagine da skeptical science)





Ci potremmo però domandare se non potremmo invece seguire la logica opposta? Ovvero, potremmo cercare una correlazione fra le temperature e altre grandezze per vedere se da li' possiamo trovare qual'è la causa dei cambiamenti. Questa è un'idea che va per la maggiore in certi ambienti ed è stata utilizzata per cercare di dimostrare che è il sole, e non i gas serra, a causare i cambiamenti. Per esempio, gira parecchio su internet questa figura:



Viene da un vecchio articolo di Lassen che risale al 1991 (lo si vede anche dalla scala, dove i dati si fermano al 1990). Lassen aveva trovato una correlazione apparentemente molto buona fra un parametro che è la lunghezza del ciclo solare e la temperatura. Si, ma c'è un grosso problema: dove sta la fisica? Qual'è il meccanismo della correlazione? Lassen non è mai stato in grado di dirlo e questo era un grosso problema nella sua idea. In effetti, con il ciclo successivo la correlazione è andata perduta, (vedi la figura più sotto). Era solo una coincidenza, come ammesso da Lassen stesso, che si è dimostrato così un vero scienziato.

Figura da Skeptical Science che mostra come la correlazione fra cicli solari e temperatura osservata da Lassen nel 1991 sia andata perduta negli anni successivi.

C'è chi ancora cerca questo tipo di correlazioni e, con molta pazienza e massaggiando bene i dati, si riesce sempre a trovare qualcosa. Ma, di solito,  queste correlazioni fanno la fine di quella trovata da Lassen e vanno perdute poco dopo, come vi potete rendere conto da un recente dibattito con Stefano Caserini e Nicola Scafetta.

Tuttavia, con la statistica si può fare di meglio che semplicemente cercare correlazioni. Recentemente, Antonello Pasini, Alessandro Attanasio e Umberto Triacca hanno fatto uno studio di cui possiamo leggere un riassunto su "Le Scienze" del 5 Febbraio 2012. Pasini e gli altri hanno utilizzato un'approccio comparativo dei dati storici con il metodo detto di Granger.  Il principio di base del metodo è riassunto da Triacca in un commento su "ClimateMonitor"

..... nel 1969 Clive Granger, riprendendo una idea di Norbert Wiener del 1956, ha formulato la seguente definizione di causalità. Siano x ed y due variabili (due serie storiche). Diremo che la y causa la x, nel senso di Granger, se la previsione di x_t+1 ottenuta utilizzando sia il passato della x stessa che quello della y è migliore della previsione di x_t+1 ottenuta utilizzando soltanto il passato della x. Ciò significa che se la y causa la x, allora nel passato della y è contenuta una informazione unica (nel senso che non è contenuta nel passato della x) utile per prevedere la x.


Vedete che questo metodo è più evoluto di uno che cerca semplicemente una correlazione fra due serie storiche, come aveva fatto Lassen ai suoi tempi. Con questo metodo, Pasini e gli altri hanno trovato che, tenendo conto dell'evoluzione della concentrazione dei gas serra, la capacità predittiva del modello migliora nettamente. Il contrario succede se si utilizzano dati sui cicli solari (o anche sui flussi di raggi cosmici).

Bisogna stare attenti con queste cose, perché nessun modello statistico può provare una casualità intesa come effetto fisico. Ma lo studio basato sul metodo di Granger è importante perché è un altro tassello del puzzle che ci conferma che l'immagine che si sta formando è quella giusta. Sono i gas serra i principali (anche se non gli unici) fattori che causano il cambiamento climatico.

Sfortunatamente, tuttavia, non ci sono dati o analisi che tengano per chi ancora aspetta con fede incrollabile l'arrivo della nuova era glaciale: troverà le conferme che cerca in ogni nevicata invernale. Nel frattempo, il riscaldamento globale avanza.

Qui di seguito, un commento sul lavoro di Pasini e gli altri su "Le Scienze"
______________________________________

Cambiamento climatico: una conferma indipendente del ruolo umano


Uno studio italiano ha ottenuto una chiara conferma delle cause antropiche del riscaldamento globale degli ultimi 60 anni ricorrendo a una metodologia statistica originale, mutuata dall'econometria e indipendente da quelle utilizzate nei classici modelli climatici criticati dagli scettici


Una chiara conferma dell'importanza determinante dei gas serra di origine antropica agli effetti del riscaldamento globale è arrivata da una ricerca condotta con una metodica originale, completamente differente da quelle utilizzate nei modelli climatici classici. Ed è proprio nel fatto che il risultato sia stato ottenuto con metodi indipendenti che risiede la rilevanza dello studio, che fornisce così una conferma che supera le critiche rivolte ai metodi solitamente impiegati dai climatologi.


Nello studio, pubblicato su "Atmospheric Science Letters", Antonello Pasini dell'Istituto sull'inquinamento atmosferico (Iia) del Cnr di Roma, e Alessandro Attanasio e Umberto Triacca dell'Università de L'Aquila, hanno infatti applicato al clima un metodo statistico ideato da Clive Granger, premio Nobel per l'economia del 2003. La tecnica è oggi ampiamente utilizzata dagli economisti per identificare, nell'ambito di un sistema complesso quale quello che essi studiano, i fattori che possono essere considerati le "cause" rilevanti di un fenomeno, andando al di là della constatazione dell'esistenza di una semplice correlazione.


"La matematica sottostante ai sistemi complessi sembra essere universale, e quindi si possono prendere modelli creati in economia e applicarli in altri campi come, per esempio, la climatologia", spiega Pasini.


Nello studio i ricercatori sono partiti costruendo un modello basato soltanto sui dati di temperatura, prendendo quelli relativi alle temperature dal 1850 al 1940, per "addestrare" il modello e usarlo quindi per prevedere le temperature dal 1941 al 2006. "In questo modo abbiamo ottenuto una determinata previsione di temperatura. Granger dice sostanzialmente che si può provare la causalità di una variabile su un fenomeno quando si vede che con il suo inserimento nel modello si ottiene un incremento positivo nella capacità di previsione. A questo punto abbiamo considerato tutti i dati relativi alle diverse variabili, o forzanti, sia naturali che antropogeniche, introducendole una per una nel modello, per poi tornare a fare la previsione dal 1941 al 2007."


Risultato: "Abbiamo così visto che, mentre le forzanti naturali non portavano ad alcun miglioramento della previsione, quando introducevamo i gas serra, ecco che la previsione di temperatura era molto, molto migliore." In questo modo, conclude Pasini, "abbiamo provato, con un 99 per cento di confidenza statistica, che sono proprio i gas serra a provocare un aumento della temperatura negli ultimi 60 anni."


In particolare, sottolinea Pasini, fra i possibili fattori naturali rilevanti, oltre alla variabilità dell'attività del Sole e alle emissioni dei vulcani, è stato preso in esame anche quello che è un cavallo di battaglia del fronte degli "scettici", ossia i raggi cosmici, che secondo molti avrebbero una notevole influenza sulla formazione delle nubi e quindi anche sulle temperature del pianeta. Ma anche questa variabile ha mostrato di non migliorare le capacità previsionali del modello basato sule sole temperature.


"Spesso - conclude Pasini - con metodologie diverse si vedono aspetti complementari di un problema. Con questo nuovo metodo avremmo potuto ricavare informazioni diverse e invece, guarda caso, abbiamo trovato risultati assolutamente concordanti con quanto detto dai metodi climatici classici. E questo corrobora fortemente l'idea che il riscaldamento globale degli ultimi 60 anni sia dovuto davvero a cause antropogeniche."

venerdì 9 marzo 2012

Difendere la scienza: Michael Mann si fa sentire!



Michael Mann è l'autore della ricostruzione della “mazza da hockey” che mostra come i decenni passati siano stati caldi in modo anomalo come conseguenza del riscaldamento globale. In questo video ci racconta la sua esperienza, del calvario che ha attraversato e che sta ancora vivendo.


Per il suo lavoro scientifico, Michael Mann è stato attaccato da professionisti delle pubbliche relazioni che hanno scatenato una campagna propagandistica contro di lui. E' stato molestato e denigrato in ogni modo possibile, anche con minacce di morte a lui ed alla sua famiglia. Eppure Mann resiste.

Abbiamo bisogno di resistere alle forze che stanno cercando di distruggere la scienza del clima e la scienza in generale. Michael Mann, definito “indurito dalle battaglie” in questo clip, lo sta facendo e ci sta riuscendo, ma ha bisogno di tutto l'aiuto ed il sostegno che possiamo dargli. Abbiamo tutti bisogno di esprimerci liberamente contro le forze dell'anti-scienza!

(Vedi anche un mio post precedente: "long live the hockey stick!")


Traduzione da "Cassandra's Legacy" e sottotitoli a cura di Massimiliano Rupalti

mercoledì 7 marzo 2012

E' il momento della geoingegneria?



La situazione climatica sembra ormai completamente fuori controllo e non si riesce a ottenere una sufficiente attenzione dai politici e dai decisori per ridurre le emission. Quindi, potremmo essere in una situazione nella quale non ci rimangono più che soluzioni drastiche: la geoingegneria. Ma siamo in grado di intervenire sul clima senza fare danni peggiori? Ne discute questo articolo recente sul "New Scientist" (traduzione di Massimiliano Rupalti)

Appello per mettere a punto una geoingegneria artica il più presto possibile

The New Scientist - 12 Dicembre 2011

di Peter Aldhous

E' l'appello più urgente mai fatto nel campo della geoingegneria.: cominciare a raffreddare l'Artico oppure far fronte all'accelerazione dei cambiamenti climatici. Ma l'avvertimento – da ambienti scientifici – potrebbe essere prematura, secondo gli esperti contattati dal New Scientist. John Nissen, ex ingegnere informatico che si è allarmato di fronte alla possibilità di raggiungere un “punto di non ritorno (tipping point)” climatico, ha sostenuto la necessità di una geoingegneria artica il più presto possibile in un manifesto di presentazione all'incontro dell' American Geophysical Union la scorsa settimana a San Francisco.

“Dobbiamo eliminare tutti gli ostacoli per prevenire una situazione fuori controllo”, dice Nissen. Egli suggerisce di usare l'areosol stratosferico per raffreddare la superficie e la parte sottostante oppure aumentare le riflettenza delle nuvole degli strati bassi pompandoci dentro uno spray sottile o acqua salata.

Sebbene l'opinione di Nissen non sia presente nel mainstrem scientifico, ha l'appoggio di un esperto del ghiaccio marino, Peter Wadhams dell'Università di Cambridge, che ha recentemente suggerito che l'oceano Artico potrebbe essere libero da ghiaccio alla fine di ogni estate dal 2015 in poi. Wadhams dice che l'accelerazione del cambiamento climatico nell'Artico lo ha costretto ad abbandonare il suo scetticismo riguardo la geoingegneria. “Bisogna pensare di fare qualcosa”, dice.

Fuoriuscita di Gas

Quando l'Artico perde il suo schermo di ghiaccio nei mesi estivi, le acque poco profonde della piattaforma artica della Siberia orientale continentale si riscaldano fino a parecchi gradi sopra lo zero. Questa è la piattaforma continentale più grande del pianeta, che ricopre 2,1 milioni di chilometri quadrati, ed il mare sottostante è profondo mediamente soltanto 50 metri. Il fondo marino consiste in gran parte in Permafrost ricco di metano, che cominciò ad essere sommerso circa 8.000 anni fa, quando il livello del mare aumentò dopo l'ultima era glaciale. Senza una cappa protettiva di ghiaccio marino sull'acqua poco profonda, il permafrost si riscalderà rapidamente e rilascerà quantità enormi di metano. Questo è il timore di Niessen.
Il timore di Niessen circa i catastrofici rilasci di metano deriva in parte dalle scoperte di un team condotto da Natalia Shakhova del Centro Internazionale di Ricerca dell'Artico all'Università di Fairbanks, Alaska. Lo scorso anno ha riportato grandi quantità di metano che fuoriuscivano dalla piattaforma artica della Siberia orientale.


Quando rimarremo senza ghiaccio?

Tuttavia, sia sulle proiezioni sul ghiaccio marino, sia sulle paure circa catastrofici rilasci di metano, regna l'incertezza. Wieslaw Maslowski della Scuola Navale Postlaurea di Monterey, in California, ha sviluppato un modello regionale che suggerisce un Oceano Artico libero da ghiaccio dalla fine dell'estate 2016 in poi. Ma i modelli del clima globale suggeriscono che questo non accadrà fino al 2030 come minimo.

Un collaboratore del blog Artic Sea Ice, nel frattempo, ha adattato curve esponenziali ai dati sul volume del ghiaccio e li ha proiettati in avanti ottenendo la data del 2015 come possibile per una perdita completa del ghiaccio a fine estate. Il problema è che altre curve adattano i dati in modo simile, ma producono date molto più lontane se estrapolate per il futuro. “Perché scegliere una curva piuttosto che un'altra? Mi piacerebbe veddere un buon motivo per farlo”, dice Axel Schweiger dell'Università di Washington a Seattle.


Incertezza delle analisi

Non è nemmeno chiaro quanto metano, in totale, stia fuoriuscendo dalla piattaforma Artica della Siberia orientale – e se il rilascio di metano osservato dalla Shakhov ed i suoi colleghi sia dovuto al riscaldamento attuale o sia il risultato del lento sciogliersi del Permafrost dall'epoca in cui fu inondato iniziata otto millenni fa. "Ci sono ancora più domande che risposte”, dice Igor Semiletov, un membro del team.

Per di più, dice Euan Nisbet del Royal Holloway, Università di Londra, sembra che il più grande rilascio di metano attualmente provenga dai tropici dell'emisfero meridionale, piuttosto che dall'Artico. Date le incertezze, sembra improbabile che la proposta di Niessen possa aver successo. Tuttavia, essa aumenta la necessità dei governi di sviluppare linee guide per una futura geoingegneria, che potrebbe diventare necessaria. “C'è un bisogno urgente di indirizzare la gestione dei problemi”, dice Tim Kruger dell'Università di Oxford, membro di un team che ha sviluppato un "codice di condotta" per le ricerche di geoingegneria.


lunedì 5 marzo 2012

L'Heartland Institute a nudo: documenti interni smascherano il cuore della macchina del negazionismo climatico






C'è stata pochissima risonanza sulla stampa e sui blog in Italia a proposito della storia del "denialgate" o "fakegate" in cui sono stati diffusi documenti interni dell'istituto Heartland che mettono in luce le strategie e i finanziamenti usati per negare i risultati della scienza del clima. Pubblichiamo qui, grazie alla traduzione di Massimiliano Rupalti, l'annuncio e la prima discussione di questi documenti del 14 Febbraio 2012 sul blog "DeSmogBlog"


da DeSmogBlog. 

Testo di Brendan Demelle

La strategia interna dell'Heartland Institute e i documenti di finanziamento di cui DeSmogBlog è venuto in possesso mostrano il cuore della macchina del nagazionismo climatico – i suoi piani attuali, molti dei suoi finanziatori e dettagli che confermano quello che DeSmogBlog ed altri hanno scritto per anni. Il cuore della macchina del negazionismo climatico sta nel gigantesco finanziamento da parte di imprese multinazionali e fondazioni degli Stati Uniti, comprese Microsoft, Koch Industries, Altria (che controlla la Philip Morris) RJR Tobacco ed altre.
Stiamo pubblicando l'intero malloppo di documenti per favorire l'accesso al materiale. Qui ci sono pochi brevi spunti, rimanete sintonizzati per il resto.
-Conferma che la Charles G. Koch Foundation sta ancora finanziando la campagna di disinformazione dell'Heartland Institute. Il rapporto Koch di Greenpeace mostra che l'ultima volta che Heartland ha ricevuto fondi da Koch è stato nel 1999.

Il rapporto confidenziale del gennaio 2012: la strategia climatica di Heartland nel 2012 dichiara:

“Potremo anche perseguire un sostegno ulteriore dalla fondazione Charles G. Koch. Sono tornati ad essere donatori della Heartland nel 2011 con un contributo di 200.000 dollari. Ci aspettiamo di aumentare il loro livello di sostegno nel 2012 e di guadagnarci l'accesso al loro network di filantropi , se il nostro intento continua d essere allineato ai loro interessi. Altri contributi saranno perseguiti per questo lavoro, specialmente da multinazionali i cui interessi sono minacciati dalle politiche del clima.”

-La macchina del negazionismo climatico dell'Heartland Institute è principalmente – e forse per intero – finanziata da un donatore anonimo:

Il nostro lavoro sul clima è attraente per i finanziatori, specialmente per il nostro Finanziatore Anonimo chiave (il cui contributo è diminuito da 1.664.150 dollari nel 2010. a 979.000 nel 2011 – circa il 20% dei nostri introiti totali del 2011). Ha promesso un aumento nel 2012...”

-Conferma delle quantità esatte che fluiscono a certi negazionisti climatici.

“finanziare soggetti di alto profilo che regolarmente e pubblicamente contrastano il messaggio del riscaldamento globale antropico. Al momento, questi finanziamenti vanno principalmente a Craig Idso (11.600 dollari al mese), a Fred Singer (5.000 dollari al mese, più le spese), Robert Carter (1.667 al mese) e ad alcuni altri soggetti, ma considereremo di estenderli, se riusciamo a trovare i fondi.”

-Come ha scritto oggi Brad Johnson su ThinkProgress, la conferma che Heartland lavora con David Wojick, un lavoratore a contratto della U.S. Energy Department e consulente per l'industria del carbone per sviluppare un “piano di studi sul Global Warming per le scuole primarie e secondarie”.
-Forbes ed altre imprese editoriali sono gli sbocchi favoriti per la disseminazione dei messaggi negazionisti sul clima di Hearthland e il gruppo è preoccupato riguardo al mantenimento di questo spazio esclusivo. Essi notano in particolare il lavoro del Dr. Peter Gleick:

“Gli sforzi riguardo a spazi come Forbes sono particolarmente importanti ora che hanno iniziato a consentire a scienziati di alto profilo (tipo Gleick) di pubblicare saggi di scienza del riscaldamento che contrastano i nostri. Questo pubblico influente è stato solitamente anti-clima ed è importante mantenere voci in opposizione” (grassetto aggiunto).


Notate l'ironia del fatto che l'Heartland Institute – uno dei più importanti portavoce dietro al caso smontato del furto di email noto come ‘Climategate’, che se la menavano sulla soppressione delle voci negazioniste nella letteratura delle revisioni alla pari, ora difendono il loro orticello nel regno delle riviste economiche antiscientifiche.

- Interessanti citazioni di Andrew Revkin come potenziale degno alleato da “coltivare”, insieme a Judith Curry.
“Gli sforzi dovrebbero anche comprendere la coltura di voci neutrali con un pubblico esteso (come Revkin del DotEarth/NYTimes, che ha una ben nota antipatia per alcuni dei comunicatori più estremi del riscaldamento globale antropico come Romm, Tenberth e Hansen) o Curry, che è diventata popolare presso i nostri sostenitori”.

-Conferma che il blogger scettico Anthony Watts fa parte del network di disinformatori finanziato da Heartland.

“Ci siamo anche impegnati a raccogliere circa 90.000 dollari nel 2012 per Anthony Watts, per aiutarlo a creare un nuovo sito Web e per tracciare le stazioni di rilevamento delle temperature”.

Rimanete sintonizzati per ulteriori dettagli mentre DeSmogBlog ed altri scavano in questa miniera di documenti dell'Heartland Institute. Il lascito di frode dell'Heartland Institute a questo livello di trasparenza e responsabilità è ormai stato distrutto.


Leggi i documenti[tutti PDF]:


Restate sintonizzati… vedete anche su DeSmogBlog la copertura di Richard Littlemore.
Profili collegati:




Allegati
Dimensione
2012 Climate Strategy.pdf 96.54 KB
Minutes of January 17 meeting.doc 50.84 KB
Board Meeting Package January 17.pdf 7.47 KB
Board Directory 01-18-12.pdf 12.51 KB
Agenda for January 17 Meeting.pdf 8.49 KB
Binder1.pdf 67.68 KB
(1-15-2012) 2012 Heartland Budget.pdf 126.68 KB
(1-15-2012) 2012 Fundraising Plan.pdf 91.32 KB
2010_IRS_Form_990.pdf 2.7 MB


Traduzione a cura di Massimiliano Rupalti da DeSmogBlog.
Lo stesso blog ha in seguito pubblicato altro materiale sul caso.

venerdì 2 marzo 2012

La Terra Svuotata a Urbania

Dal Blog "Urbania in Transizione"

La Terra Svuotata – Ugo Bardi torna ad Urbania

Salve a tutte/i,

sabato 3 marzo, alle ore 15:30, torna il Prof. Ugo Bardi, stavolta per parlarci di minerali.

Presenterà il suo ultimo libro, per i tipi degli Editori Riuniti, “La Terra Svuotata – il futuro dell’uomo dopo l’esaurimento dei minerali”

Se con Nicole Foss abbiamo affrontato le emergenze che ci pongono i problemi legati alla crisi finanziaria, con Ugo Bardi parleremo dei problemi che seguiranno, problemi legati all’esaurimento delle risorse (rinnovabili e non rinnovabili).

Come sempre, al termine della conferenza non mancherà l’occasione di confrontarsi su quali possano essere le cose da fare per accrescere la nostra resilienza e prosperare, anche a fronte di cambiamenti molto profondi. Per questo la conferenza sarà seguita da un laboratorio condiviso in modalità World Cafè.



martedì 28 febbraio 2012

Cosa ci fa una specie così intelligente come la nostra in un dilemma come questo?

Traduzione da "Cassandra's Legacy" di Massimiliano Rupalti


Questo post di George Mobus, pubblicato su " Question Everything", va al cuore del problema; correttamente definito come “dilemma irrisolvibile" ("predicament" in inglese). Semplicemente non siamo attrezzati per affrontare la complessità che abbiamo creato. Ora, sembra che non possiamo fare altro che guardare il banchetto delle conseguenze

Troppo intelligente per il nostro bene;
di Craig Dilworth

Recensione di George Mobus

Un paradosso

Molti anni fa credevo, come la maggior parte della gente oggi, che l'intelligenza fosse la chiave per risolvere tutti i problemi dell'umanità (leggi innovazione, che supererà ogni problema, come danno per scontato i "tecnocornucopiani"). Ho passato un parte non breve della mia vita cercando di capire cosa sia l'intelligenza e come il cervello produca le capacità di risolvere i problemi complessi. Ho passato la mia infanzia guardando l'esplosione della scienza che si dispiegava e che è culminata, per esempio, nel portare degli uomini sulla Luna. Sono cresciuto sapendo che c'erano questi cervelli elettronici chiamati computer. Più tardi, ad un'età in cui si è ancora impressionabili, una volta che i prezzi e le dimensioni dei computer sono diminuiti, ho avuto la mia opportunità di giocarci. Mi sono immediatamente innamorato di una macchina che potevo programmare per risolvere rapidamente problemi per risolvere i quali avrei impiegato giorni. E mi sono imbattuto nei lavori di Alan Turing sull'idea che un dispositivo computazionale potesse essere capace di emulare l'intelligenza umana, soprannominata “Intelligenza Artificiale” (AI). Il “Test Turing” ha postulato che dovremmo attribuire intelligenza alle macchine se in una conversazione alla cieca con un vero umano, il secondo possa non accorgersi che sta parlando ad una macchina. Ho cominciato a vedere come una tale meraviglia possa essere realizzata.

Molti anni più tardi sono riuscito ad ottenere un dottorato in scienza del computer programmando un computer non ad emulare l'intelligenza umana, ma l'intelligenza di un neurone con le sue connessione sinaptiche adattative. Queste le ho assemblate in un modello computazionale di un cervello di lumaca, certamente poco evoluto, ed ho mostrato come tali cervelli possano controllare il comportamento e, più importante, emulare l'apprendimento (biochimico) di tipo animale attraverso un condizionamento in stile Pavlov. Mettendo questo cervello in un computer che controlla un piccolo robot Braitenberg ho potuto mostrare come il cervello abbia imparato caratteristiche dal suo ambiente sperimentato e come abbia adattato il proprio comportamento per conformarlo agli stimoli di quell'ambiente (gestito da stimoli causanti dolore e da stimoli di approccio gradevoli). Questo esercizio accademico mi ha fatto cominciare a scavare più a fondo su come funzionino le reti neurali biologiche nei cervelli reali. Ho letto ogni libro che ho potuto trovare e molti articoli di riviste sui vari aspetti delle neuroscienze cercando di capire come funzionavano. L'obbiettivo ovvio di AI era quello di riprodurre un'intelligenza di tipo umano in una macchina. La versione forte di questo programma contemplava anche la produzione di una macchina conscia (per esempio HAL 9000 di "Odissea nello Spazio")

Il campo di AI si è evoluto dai primi giorni ed ha prodotto alcuni prodotti computazionali utili. Ed anche se un programma come Deep Blue (IBM) ha battuto il maestro di scacchi Garry Kasporov e Watson (pure IBM) ha battuto i campioni d'azzardo di tutti i tempi a quel gioco, il fatto è che i computer ancora stimolano solo alcuni aspetti dell'intelligenza e quindi in settori di competenza limitati.


Attraverso l'evoluzione del campo, l'idea di un'intelligenza delle macchine ha generato un interesse considerevole da parte di psicologi, neurobiologi e filosofi. Innanzitutto, i dibattiti su cosa fosse l'intelligenza venivano generati ogni volta che AI sembrava far progressi. Forse uno dei più importanti contributi a questo campo è stato il mostrare come i cervelli reali fossero diversi da come i computer processano i dati. E con ogni nuova realizzazione dei computer, cercando di padroneggiare compiti che in precedenza erano stati pensati per richiedere intelligenza, diventava sempre più chiaro che il tipo di intelligenza umana era molto più complessa e sfumata dei nostri primi modelli. La mia stessa affermazione che il mio robot emulasse una “stupida” lumaca avrebbe potuto essere valida per un livello molto basso di intelligenza, ma è servita solo a sottolineare come i nostri approcci computazionali siano lontani dalla realtà del livello di intelligenza umano.

In ogni caso, le mie incursioni iniziali in AI attraverso fenomeni di apprendimento simulati in strutture simili ai neuroni, mi hanno tenuto agganciato all'idea di capire la realtà. Psicologia e neurobiologia hanno fatto passi così importanti per afferrare la natura dell'intelligenza e della consapevolezza umana che ho essenzialmente smesso di preoccuparmi di AI ed ho rivolto la mia attenzione più pienamente alla ricerca della vera intelligenza umana come oggetto di studio.

Per quanto è stato chiarito, specialmente negli ultimi decenni, sull'intelligenza umana, gran parte del mondo ritiene ancora che l'intelligenza sia la nostra più grande realizzazione mentale. In coppia con la capacità mentale gemella della creatività, l'intelligenza è vista come la quintessenza della cognizione; un genio è uno che ha grandi porzioni di entrambe in confronto agli umani ordinari. Il cervello umano è ritenuto fornire abilità nel risolvere problemi complessi. Noi identifichiamo spesso l'intelligenza con il pensiero razionale (per esempio la logica deduttiva) e portiamo i talenti matematici o scientifici come prova che siamo veramente una specie intelligente. Il solo fatto dell'esistenza della nostra abilità, prova che siamo più intelligenti di una qualsiasi scimmia.

Ma c'è un inconveniente in questo pensiero palliativo. Se provate a spiegare oggettivamente lo stato del mondo oggi come il risultato del nostro essere così intelligenti vi dovete porre una domanda molto importante: se siamo così intelligenti, perché noi umani ci troviamo in una situazione così terribile oggi? La nostra specie sta affrontando una costellazione di problemi straordinari e complessi per le quali nessuno può consigliare soluzioni fattibili (vedete sotto). Ironicamente, questi problemi esistono perché la nostra abilità, la nostra intelligenza, li ha creati. Le nostre attività, intelligenti come abbiamo pensato che fossero, sono le cause dei problemi che, collettivamente, minacciano l'esistenza stessa dell'umanità! Questo sembra un paradosso. Siamo intelligenti abbastanza da creare i problemi, ma non siamo intelligenti abbastanza per risolverli. La mia conclusione è che forse l'intelligenza non è abbastanza. Forse qualcosa di più importante della cognizione è andata perduta permettendo lo sviluppo di questa situazione difficile. Questo è stato il pensiero che ha motivato la mia ricerca di una risposta.

Craig Dilworth, docente di Filosofia Teoretica all'Univerisità di Uppsala in Svezia, si è fatto la stessa domanda da una prospettiva leggermente diversa, ma è arrivato ad una conclusione simile riguardo il ruolo dell'intelligenza nel creare la situazione difficile. In  Troppo intelligenti per il nostro bene Dilworth ricostruisce magistralmente la storia di come gli umani, essendo cosi abili ma ancora motivati dai propri istinti e meccanismi animali, abbiano fatto un vero casino. Detto semplicemente, conclude che l'esperimento evolutivo chiamato Homo Sapiens è intrinsecamente insostenibile. Egli costruisce le prove con cura e sapientemente, anche se ho qualche preoccupazione per quanto riguarda alcuni particolari di poca importanza (che esporrò in seguito). E non lesina le frecciate, quando necessario.


Il dilemma e le cause più probabili.


Buona parte del libro di Dilworth tratta dell'evoluzione dell'attuale specie umana e, in particolare, delle componenti residuali di comportamento umano ereditate dai nostri predecessori animali. In breve, chiarisce i vari meccanismi che stanno sotto a tutte le attività umane e questo dimostra solo quanto gli esseri umani siano realmente delle creature biologiche. Egli trae accuratamente un gruppo di principi dalla fisica, chimica e biologia che spiegano la traiettoria evolutiva che porta molto naturalmente alle scimmie abili. E quindi dichiara che è stata superata una soglia. Lungo le linee dei generi Australopithecus e Homo le loro abilità mentali hanno prodotto comportamenti che nessun altro animale precedente è stato capace di adottare, almeno all'estensione alla quale queste scimmie abili sono state in grado di portarli. In particolare i primi umani (il termine copre diverse specie) hanno imparato a controllare il fuoco, a diventare cacciatori e raccoglitori più efficienti con strumenti fatti da loro stessi e a proteggere sé stessi dalle bizze del clima costruendosi dei ripari e dei vestiti. Questa capacità di inventare e costruire li ha posti in una nuova relazione biologica con il resto del mondo biofisico. Li ha posti sulla strada di quello che Dilworth descrive come il “circolo vizioso”. Gli esseri umani possono estrarre risorse, non rinnovabili e rinnovabili, dall'ambiente ad un tasso crescente, sia pro capite quando cresce la popolazione, sia in termini assoluti. Consumiamo anche queste risorse dopo averle trasformate in forme utilizzabili, come i vestiti. Il nostro consumo, oltre alle devastazioni dell'entropia, significa che stiamo producendo uno spreco di prodotti a tassi crescenti nello stesso quadro dinamico dei tassi di estrazione. E non in grado di aiutarci da soli. Siamo guidati da mandati biologici a consumare come individui ed a procreare.

La parte sul fatto che non siamo in grado di aiutarci da soli è realmente il dilemma, la causa alla radice di tutti i nostri misfatti e dei seguenti problemi. Più prossimo al nostro attuale rompicapo, è un insieme di cause e delle loro conseguenze.

Le minacce su scala globale sono tantissime. Ecco una lista parziale di alcuni dei problemi più minacciosi, il ruolo umano nel causarli e le loro possibili conseguenze. Ognuno di questi potrebbe essere incredibilmente preoccupante per l'umanità, ma presi insieme, perché sono tutti in relazione fra loro e si nutrono l'un l'altro, sono convinto che significhino disastro certo, come crede anche un numero crescente di scienziati.

Sovrappopolazione

A parte in poche culture, che generalmente sono società di cacciatori-raccoglitori, e certamente fra le cosiddette civiltà della storia, il sentimento generale di “siate fecondi e moltiplicatevi” sembra aver prevalso. Gli umani, come gli animali, hanno alcuni, sebbene deboli, meccanismi interni per verificare la dimensione della popolazione relativa alla capacità di carico dell'ambiente. Molte culture hanno praticato varie forme di controllo della popolazione ed alcune lo fanno ancora oggi con diversi gradi di successo. Queste pratiche posso essere generalmente viste come parte delle cultura e sono state solo di recente viste come meccanismi biologici sottostanti. Alcune di queste pratiche sono considerate barbare ed immorali per i sentimenti civilizzati. Ma quando funzionano sembrano funzionare bene.

Dilworth argomenta, tuttavia, che questi controlli interni vengono facilmente sovvertiti dai più ampi istinti biologici di guida quando la popolazione percepisce che 1) l'ambiente può sopportare più persone e 2) servono più persone per fare il lavoro necessario all'estrazione delle risorse. Il punto di svolta nella preistoria umana è stato probabilmente l'invenzione dell'agricoltura. Quest'ultimo, ironicamente, non ha in realtà incrementato l'energia netta pro capite guadagnata rispetto alla caccia e alla raccolta, almeno quando quest'ultima è fatta in ambienti che forniscono una abbondanza rinnovabile di piante alimentari. Piuttosto, tende a diminuire l'incertezza della disponibilità di risorse alimentari, che sembra che noi umani apprezziamo. Anche, ironicamente, l'agricoltura necessita di più lavoro per unità di tempo per ottenere risultati affidabili, quindi una effettiva riduzione nel guadagno netto di energia per unità di tempo pro capite, spesa nella produzione di cibo.

In altre parole, Dilworth sembra argomentare che l'aumento della popolazione che è stato attribuito all'agricoltura non è avvenuto a causa di una maggiore di disponibilità di cibo, di per sé, ma dalla diminuzione della forza del segnale che avrebbe dovuto attivare i naturali controlli interni sull'espansione della popolazione permesso dalle tecnologie di produzione del cibo. Alle classi lavoratrici era meramente consentito di sussistere e procreare sufficientemente per assicurare una costante, o addirittura crescente, classe operaia per sostenere le classi più alte. E, più alta era la gerarchia di classe, più ampia era la base di classe operaia di cui aveva bisogno. Ma una tale espansione significava portare più terra a coltivazione in modo da sostenere la popolazione crescente e continuare a fornire un flusso costante di beni alle più alte sfere della gerarchia. La crescita della popolazione e l'attività “economica” - in origine l'agricoltura – sono così diventate una necessità e non solo una conseguenza.

Diminuzione dell'energia netta pro capite

Naturalmente, il problema è che c'è solo una certa quantità di terra che può essere coltivata. Viviamo in un mondo finito. Le risorse, terra compresa, sono finite. Mentre la crescita consuma sempre di più l'area intorno ai centri delle gerarchie della civiltà, si scontra o con altre gerarchie o con terreni marginali che alla fine non potranno sostenere la quantità di produzione necessaria. C'è un ulteriore ed interessante fenomeno che accade mentre l'espansione continua, anche se la terra è produttiva. Nelle condizioni in cui si viaggiava con carri a trazione animale, c'era una distanza naturale dal centro oltre la quale il ritorno netto di energia cominciava a diminuire geometricamente con l'aumento lineare (aritmetico) della distanza. Cavalli e buoi hanno bisogno di essere nutriti e possono portare solo un certo peso. La strategia della crescita come modo per mantenere l'impresa attiva dev'essere sembrata una buona idea ai supervisori, ma di fatto è arrivato un momento in cui ogni unità di crescita ha prodotto benefici decrescenti e alla fine negativi. Questo ha a che fare con l'idea avanzata per la prima volta da Joseph Tainter riguardo al collasso delle civiltà dovuto all'aumento della complessità. [1]

Il fenomeno di una popolazione che eccede le capacità di carico del proprio ambiente, definita come la capacità dell'ambiente di ricostituire i livelli di risorse richieste ad un tasso che possa sostenere un numero medio di individui (o più correttamente la quantità di biomassa rappresentata in una determinata specie) e di assorbire i prodotti di scarto di quella popolazione senza un sovraccarico tossico, è stato più volte documentato negli studi ecologici. Il mondo funziona principalmente su uno stabile ma limitato flusso di energia dal Sole. Alla fine, quel flusso determina il tasso di ricostituzione delle risorse biologiche (a parità di tutti gli altri fattori). Tutti gli altri animali sono costretti a capacità di carico relativamente fisse, almeno nei tempi di un normale ciclo di vita. Ma gli umani, con loro capacità di sfruttare fonti exosomatiche (al di fuori del proprio corpo) di energia e la loro capacità di inventare, hanno trovato una soluzione a questo limite di fondo. Hanno sviluppato modi per appropriarsi di risorse per sé stessi, lasciando alle specie non umane di meno per i loro bisogni. L'agricoltura, dopotutto, richiede di impiegare grandi appezzamenti di terreno con lo scopo di seminare poche colture di interesse per gli umani, generalmente in monocoltura. Troppo spesso questo finisce per essere una perdita di habitat per altre specie.

Una volta che gli umani hanno scoperto e cominciato ad attingere al conto bancario della luce solare fossile conosciuto come combustibili fossili, l'esplosione della popolazione era inevitabile. Negli ultimi due secoli, grazie all'alto contenuto energetico degli idrocarburi combustibili, l'energia netta pro capite usata per estrarre le altre risorse naturali e sostenere un maggior consumo sono andate crescendo. L'energia ottenuta dall'energia investita (EROEI) estraendo combustibili fossili era così alta all'inizio che l'inventiva umana nel trovare modi per consumare di più è stata apparentemente liberata da qualsiasi impedimento. La moderna società tecnologica è emersa come risultato.

Sfortunatamente i combustibili fossili sono esattamente il tipo di risorsa non rinnovabile che costituisce un limite superiore sull'estensione della popolazione. No, veramente è peggio di così. Perché noi abbiamo raggiunto un punto in cui quei combustibili stanno diminuendo in toto e quello che stiamo estraendo ora richiede più energia per farlo. Abbiamo l'equivalente di ciò che le prime civiltà hanno affrontato quando hanno raggiunto il limite geografico per il guadagno netto di energia. Ci stiamo avvicinando al punto di guadagno zero (se non lo abbiamo già superato) e da adesso in poi ogni essere umano sul pianeta affronterà un declino nell'energia netta disponibile per sopravvivere. Le disuguaglianze di reddito fanno sì che le variazioni causino un aumento della fame fra le classi più povere, mentre le classi più alte cercano di appropriarsi della ricchezza per sé.

La specie umana, come altre specie in condizioni simili, ha superato i limiti. La conseguenza tipica di tale condizione, principalmente perché le dinamiche non sono lineari, è un collasso, una cancellazione della maggior parte della popolazione [2]. Dilworth, nella sua conclusione, concorda con un crescente numero di ricercatori che questa è la conseguenza più probabile per l'umanità. Siamo animali, dopotutto.

Problemi derivati

La sovrappopolazione , cioè il superamento e la diminuzione dell'energia netta pro capite portano ad un gran numero di problemi secondari che anche giocheranno un ruolo in un futuro insostenibile per l'umanità. Stiamo esaurendo l'acqua potabile in molte regioni. Questo in parte a causa del superamento ma anche in parte a causa dei cambiamenti climatici che, a loro volta, sono aggravati, se non direttamente causati, dalla combustione dei combustibili fossili che aggiungono anidride carbonica, un gas serra, in atmosfera e negli oceani a tassi senza precedenti. Il globo si sta scaldando e questo porta al caos climatico di cui cominciamo ad essere testimoni. Ciò porta anche l'innalzamento dei livelli degli oceani che inonderanno molte regioni abitate del globo in un futuro non troppo lontano.

Dai tempi della prima agricoltura e della riorganizzazione della società, gli umani hanno avuto bisogno di qualche metodo conveniente per rappresentare astrattamente la ricchezza. All'inizio avevano bisogno di un modo per contare i cereali immagazzinati ed altri beni che sarebbero stati scambiati. In seguito hanno avuto bisogno di un modo conveniente di trasportare le rappresentazioni della ricchezza che controllavano e scambiare queste rappresentazioni piuttosto che trasportare la ricchezza stessa. I soldi sono stati inventati per svolgere questo compito. Non molto tempo dopo è stata inventata una forma di prestito per fungere da investimento in nuove imprese. Derivato probabilmente dalla distribuzione delle granaglie da utilizzare come sementi dai nuovi giovani agricoltori per iniziare, l'idea di prestare la ricchezza per generare più ricchezza in futuro ha preso piede. Oggi abbiamo il debito che finanzia tutto, dalle case alle scommesse (Wall Street). Quest'idea di usare soldi basati sul debito per investire su un futuro aumento della produzione di ricchezza era praticabile, anche se abusata, come è divenuto chiaro in anni recenti. Finché la fornitura di energia netta era in aumento, c'era sempre un'aspettativa che l'economia si sarebbe allargata e questo avrebbe permesso di saldare i debiti. Questo è stato il caso della rivoluzione industriale ed anche nel 1950 dell'espansione del petrolio e di altre forniture di combustibili fossili, che stavano sostenendo la capacità di fare più lavoro fisico nel futuro. Ciò significava che ci poteva essere più ricchezza prodotta nel futuro, abbastanza per ripagare sia il debito sia l'interesse (il costo del noleggio dei soldi per il rischio corso) e anche per ottenere un profitto. Ma ora che la fornitura di energia netta comincia a diminuire, la strategia della crescita e della finanza basata sul debito sta fallendo (al contrario di quella basata sul risparmio, come era il caso del prestito dell'eccesso di cereali ad un agricoltore sotto forma di seme). E siccome la società si è spinta molto lontano nella costruzione del debito, nell'aspettativa che la crescita continuasse per sempre, il conseguente scoppio della bolla che ne è seguita (e che è ancora in corso) ha avuto effetti devastanti sulle economie globali. E andrà solo peggio. Noi umani siamo stati incredibilmente intelligenti ad elaborare macchine, metodologie ed astrazioni che hanno sfruttato la disponibilità di risorse naturali, specialmente le risorse energetiche esosomatiche. Troppo intelligenti.

Ma non intelligenti abbastanza, pare, di pensare in anticipo alle conseguenze del consumo di risorse finite. Siamo stati e siamo molto abili. Ma non siamo saggi.


Cosa significa essere intelligenti?


Tutti i problemi di cui sopra potrebbero avere una soluzione se solo inventassimo le giuste tecnologie e le applicassimo in tempo per evitare dolore e sofferenza. Dovremmo essere in grado di farlo, visto che siamo scimmie intelligenti, giusto?

Questo è precisamente il punto di svolta dell'argomento. Siamo intelligenti. Intelligenti abbastanza da creare tecnologie come l'agricoltura e le macchine che sembrano risolvere certi problemi immediati. Cerchiamo una maggiore sicurezza nella nostra fornitura di cibo, quindi piantiamo e ci prendiamo cura delle nostre colture. Ci dobbiamo stabilire in un luogo per farlo, ma questo, all'inizio, sembra un effetto secondario benefico. Vogliamo avere spazi velocemente e lavoriamo duramente e più velocemente, così inventiamo strumenti basati sulle macchine che richiedono delle fonti di energia esterna per funzionare. Risolviamo un problema, il problema dell'aumento della domanda di prodotti, producendoli più rapidamente. Ad ogni svolta, la scimmia intelligente ha risolto un problema immediato e lo ha fatto con risultati straordinari. Ciò che questa scimmia ha anche fatto è ignorare il meta-problema. Ogni soluzione di un problema porta con sé i semi di un altro problema di più grande portata. Dilworth vede lo schema chiaramente. Risulta che la versione entropica della Seconda Legge della Termodinamica spiega la situazione [3].

Nel processo umano di invenzione di modi quello che per loro è lavoro utile (a risolvere problemi), essi hanno effettivamente ridotto l'entropia locale nelle loro vicinanze. Cioè, hanno aumentato l'ordine (per esempio costruendo attrezzature e strutture funzionali) per sé stessi. Ma la Seconda Legge ci dice che ogni guadagno in ordine in un sistema può venire solo a spese di un più grande aumento di disordine (entropia) del sistema più grande che lo contiene – l'ambiente. Quindi anche quando gli umani hanno aumentato il “valore” del proprio mondo costruito, lo hanno fatto a scapito maggiore dell'ambiente. Ordine ed organizzazione sulla Terra sono diminuiti complessivamente (pensate, ad esempio, alla biodiversità – una delle misure dell'organizzazione/complessità), come richiede la Seconda Legge, ma ad un tasso accelerato dalle attività umane. Il sistema Terra ha operato vicino ad un equilibrio dinamico (il primo capitolo di Dilworth fornisce intuizioni sul significato di ciò) precedentemente all'evoluzione degli umani. Questo perché il flusso di energia in arrivo dal Sole sì è stabilizzato ed anche se la Terra ha vissuto dei cicli (per esempio le ere glaciali) di alti e bassi, nel complesso la biosfera è stata adattativamente capace di mantenere le sue attività precisamente perché il tasso di fluttuazione ha corrisposto al tasso di cambiamenti evolutivi fra le specie. Dopo che gli esseri umani hanno cominciato, questo stato dinamico è stato interrotto per sempre, con grande dissipazione di energia e riaggiustamenti di molti dei cicli geochimici di lungo corso e di larga scala come i cicli del carbonio e quello idrologico. Tutto questo ora è testimoniato su scala globale. E questa è molto probabilmente la causa più immediata di tutti gli altri nostri problemi.

Così questa è la parte cruciale della questione. Siamo abbastanza intelligenti da aver creato questa situazione in virtù della nostra capacità di aumentare l'entropia nell'intero sistema Terra. Ma non siamo così intelligenti da rimetterlo a posto. Questo è a causa di un semplice fatto. L'intelligenza è per l'invenzione e la soluzione di problemi locali. L'intelligenza e la creatività sono grandi per trovare nuovi modi di aumentare l'entropia. In una spirale perversa, questo è esattamente ciò che è stata l'evoluzione biologica! E noi, umani intelligenti, abbiamo semplicemente adempiuto a questo mandato biologico. Sfortunatamente, dal mio punto di vista, questo significa che neanche il più grande dei controlli naturali, un controllo di retroazione negativa per cui gli umani distruggono gli stessi sistemi di supporto di cui hanno bisogno per esistere, correggerà la situazione. Ogni volta che un qualsiasi sistema va fuori controllo, si rompe. Perché il sistema costruito dagli umani dovrebbe essere diverso?



Il principio del circolo vizioso


Così arriviamo al principio del circolo vizioso di Dilworth (VCP – Vicious Circle Principle). L'uomo diventa abbastanza intelligente da diventare inventivo. Inventa cose che gli permettono di sopravvivere e, per via di una forma fisica migliorata, produce più prole. Ma spesso crea qualcosa di simile ad un surplus e la natura aborrisce sia il vuoto che la concentrazione, così l'uomo genera più uomini per sistemare il surplus. Oppure inventa una qualche variazione su uno strumento utile che produca qualcosa che l'uomo possa desiderare, anche se non in stretta relazione con la sopravvivenza. Dopo un po', soddisfatti quei desideri, l'uomo si abitua ad avere un qualcosa che poi diventa effettivamente un nuovo bisogno. Ma poi il superamento dei limiti della popolazione riduce la disponibilità di qualsiasi cosa ed ecco un nuovo problema. Quindi si torna al tavolo da disegno per inventare qualcos'altro che soddisfi il nuovo bisogno. E risiamo d'accapo. Non ho reso giustizia alla spiegazione di Dilworth, qui. Ho solo voluto dare al lettore un senso della direzione che prende l'autore. Naturalmente potreste leggere il suo lavoro per entrare nei dettagli. E ci sono molti più dettagli che egli analizza in modo superbo.

Questo VCP, secondo le tesi di Dilworth, è la penultima causa alla radice di tutti i problemi che stiamo vivendo. E' il processo dove sarebbe necessario un intervento per fermare e invertire la situazione difficile. Ma in questo sta il problema più grande. Il VCP esiste a causa della nostra natura umana e non c'è nessun cambiamento a breve termine che consenta un intervento che possa fermare la dinamica del circolo vizioso.

Penso che Dilworth abbia veramente puntato il dito sul problema centrale per l'umanità. Siamo presi in un circolo di attività che è “vizioso” nel senso che crea e peggiora tutti i problemi che affrontiamo. Ma ho delle riserve su questo modo di presentarlo.

“Vizioso” è un termine intriso di significato. Questo cerchio, che aumenta l'entropia generale della Terra, sembra vizioso precisamente perché siamo vittime e non ci aiuta avere una prospettiva antropocentrica. Ma, visto dalla prospettiva dell'evoluzione, non c'è proprio nulla di vizioso. Infatti il termine vizioso non ha affatto senso nell'evoluzione. Avremmo pensato alla cometa che si è schiantata sulla Terra 65 milioni di anni fa e che sembra essere stata determinante nell'uccisione dei dinosauri come viziosa? I cambiamenti climatici associati alle antiche glaciazioni, che sembrano essere state determinanti nell'evoluzione del genere Homo, sono da considerarsi viziosi perché hanno creato le condizioni per cui le specie primitive di umani si sono estinte?

Ho preferito pensare al fenomeno dell'abilità umana come all'emergenza di un nuovo fenomeno esattamente allo stesso modo in cui ora pensiamo all'emergenza della vita dalla chimica pre-biologica. Naturalmente, abbracciare questa prospettiva significa che la distruzione della civiltà ed il potenziale evento a collo di bottiglia per l'umanità [4] sono fondamentalmente necessari. E questa è la parte difficile da buttare giù. Come esseri umani nessuno potrebbe “volere” la morte della nostra specie, è certo. D'altra parte, se siamo davvero così intelligenti come da capire tutte le implicazioni dell'evoluzione in sé, forse potremmo arrivare ad accettare l'inevitabilità delle sue conseguenze.

Conclusione


Complessivamente, penso che il libro di Dilworth abbia aggiunto una prospettiva importante alla comprensione delle difficile situazione dell'umanità. Questo per dire che, una volta riconosciuto che l'umanità sta fronteggiando una situazione difficile che potrebbe non avere una soluzione ma un collasso e una morte, almeno Dilworth fornisce una spiegazione per come questo sia accaduto.

Ho solo un problema tecnico con il lavoro ed una differenza filosofica. Il problema tecnico ha a che fare con la forte fiducia dell'autore nel concetto di cariotipologia per spiegare la speciazione. Lui usa il cariotipo come se lo equiparasse al marcatore di speciazione, cioè, due specie diverse all'interno di un singolo gene avrebbero diversi cariotipi. Gli evoluzionisti ed i genetisti ai quali ho parlato di questo, hanno espresso perplessità a questo uso. I cariotipi si riferiscono alla forma strutturale dei cromosomi, specialmente per come appaiono nella metafase della divisione cellulare mitotica. E' il caso che diverse specie all'interno di un dato genere possano avere numeri e forme diverse di cromosomi che si pensa interferiscano con l'ibridazione (almeno praticabile), ma non è sempre così. Si pensa che la differenziazione delle specie sia più generalmente su base genetica. Alcune diversità genetiche, naturalmente, potrebbero essere la cause delle differenze dei cariotipi, ma questo è un effetto collaterale della speciazione, non la causa. Anche con questa possibile interpretazione errata di causa ed effetto nella speciazione, la narrazione complessiva di Dilworth è funzionalmente corretta, quindi l'affidamento alla cariotipologia non toglie materialmente nulla alla storia.


Sono d'accordo con l'autore per quanto riguarda il percorso attraverso il quale abbiamo raggiunto questo punto di incontro. Sono d'accordo sul fatto che siamo troppo intelligenti per il nostro bene. Ma il mio punto di vista è che questo non è un'accusa all'intelligenza ed alla creatività, quanto un riconoscimento di un'inadeguatezza, ad oggi, per l'evoluzione di una mentalità che potrebbe essere più adatta a gestire la nostra intelligenza. Siamo intelligenti, ma non adeguatamente saggi. E non siamo adeguatamente saggi perché la struttura cerebrale che gestisce il nostro giudizio di ordine superiore non si è ancora evoluto a sufficienza per gestire la nostra intelligenza. Avrete sentito il vecchio detto: “Solo perché possiamo fare una cosa non significa dovremmo farla”. Solo perché abbiamo capito come dividere l'atomo per generare energie inimmaginabili non vuol dire necessariamente che dovremmo costruire bombe atomiche o reattori nucleari. Lo abbiamo fatto perché potevamo e non c'era alcuno giudizio di ordine superiore che ci ha fornito le intuizioni sui pericoli del progresso in quella direzione.

La base del cervello per un giudizio di ordine superiore ed intuitivo, guida imparziale per prendere decisioni, è quello che ho chiamato saggezza. E' la capacità del cervello più nuova in termini evolutivi ed è profondamente connessa alla capacità degli umani di formare rappresentazioni astratte, specialmente il linguaggio. Si è evoluta insieme con l'intelligenza ma ha iniziato “più tardi” nella storia evolutiva, così non è in fase con la prima. Deve recuperare. La mia storia finisce in modo un po' diverso da quella di Dilworth. Vedo lo stallo incombente come l'opportunità evolutiva perché questo accada. In altre parole, piuttosto che scrivere semplicemente che il genere Homo ha fallito perché era troppo intelligente, preferisco immaginare che il collo di bottiglia sia un'opportunità per la saggezza di espandersi ed arrivare a fornire un'adeguata capacità mentale di gestione della nostra abilità. Ho sviluppato uno scenario per l'ulteriore evoluzione delle strutture del cervello coinvolte nella saggezza che richiedono un'aggiunta di materia cerebrale sorprendentemente piccola – è più un problema di leggera riorganizzazione e connessione. Naturalmente ciò è altamente speculativo. Ma ha basi nella neuroscienza e nella teoria dell'evoluzione. Non è una vana speculazione. E il valore del partecipare alle conseguenze sta in ogni cosa che possiamo scongiurare per diminuire il dolore e la sofferenza – essere avvisati è essere preparati. Il vero valore del lavoro di Dilworth è di trovare almeno qualche soddisfacente spiegazione intellettuale (anche se inquietante) sul perché siamo dove siamo.



Note bibliografiche

[1] Tainter, J. (1988). The Collapse of Complex Societies, Cambridge University Press.
[2] Catton, William (1982). Overshoot: The Ecological Basis of Revolutionary Change, University of Illinois Press.
[3] See: Schneider, E. D. & Sagan, D. (2006). Into the Cool: Energy Flow, Thermodynamics, and Life, University of Chicago Press.
[4] See: Catton, William (2009). Bottleneck: Humanity's Impending Impasse, Xlibris.

Vedi anche il review del libro: Question Everything: Humanity's Impending Impasse.