Un paio di settimane fa, mi sono provato a sollevare la questione della geoingegneria sul "Fatto Quotidiano" e credo sia stata forse la prima volta che se ne è parlato su un quotidiano al di fuori delle rubriche scientifiche sul clima.
Il risultato: un flop clamoroso. Pochi l'hanno letto, quasi nessuno l'ha capito, i commenti sono stati di una banalità devastante. Immaginatevi di provare a spiegare al vostro gatto come sta che i croccantini arrivano nelle loro scatole. Al massimo vi guarderà con i suoi grandi occhi di gatto e vi dirà "miao". Più o meno, siamo a questo livello in tutto il dibattito sul cambiamento climatico.
Non che le cose vadano molto meglio nel resto del mondo, ma in Italia la divisione è fra quelli che hanno concluso con ferrea logica che "siccome ci hanno imbrogliato con il covid, ne consegue che ci stanno imbrogliando anche sul clima" e quelli dall'altra parte che invece si sono attestati sul discorso che "siccome la maggioranza degli scienziati ci crede, allora ne consegue che il cambiamento climatico è una cosa vera". Fra le due posizioni, c'è un numero incredibile di svirgolati che non sa dire altro che "ma guardate in cielo, non vedete cosa sta succedendo?" Ma gli sciachimisti non si sono fatti vivi a commentare il mio articolo che era probabilmente incomprensibile per loro
Purtroppo, qui mentre tutti si aspettano che gli arrivino i croccantini tutti i giorni, la situazione climatica si sta deteriorando in modo drammatico. Vediamo cosa succede la prossima estate. Se la tendenza alla crescita delle temperature rimane quella che si è vista questa estate, allora siamo tutti del gatto: siamo croccantini da sgranocchiare.
Contro la crisi climatica si valuta il ricorso alla geoingegneria: cos’è e cosa prevede
Non lo avete ancora letto sui giornali italiani, ma la notizia sta venendo fuori nel mondo: a livello globale, questo settembre si piazza come il mese più caldo rispetto alla media mai misurato nella storia. Con il 2024 che si prospetta ancora più caldo con l’arrivo dell’oscillazione oceanica chiamata “El Niño”, ci stiamo accorgendo che non stiamo più parlando di un problema dei nostri nipoti, e nemmeno dei nostri figli. L’emergenza climatica è qui, adesso.
E allora, cosa fare? Certe strategie che una volta sembravano percorribili ci appaiono oggi come inutili perdite di tempo. Per esempio, il tentativo di ottenere un accordo globale su una riduzione significativa delle emissioni si sta rivelando un fallimento epocale, forse ancora peggiore di quello di instaurare il paradiso dei lavoratori in Unione Sovietica. Allo stesso modo, non sembra molto pratico pensare di poter rimediare stando al buio e al freddo e mangiando solo patate coltivate nell’orto (ed essendo anche felici di farlo).
Una strada molto più promettente è quella dell’energia rinnovabile che, in effetti, sta crescendo in tutto il mondo con una rapidità inaspettata. Ma, anche con molto ottimismo, non ce la potremo fare a eliminare i combustibili fossili prima del 2040-2050. E anche se ci riuscissimo, potrebbe essere troppo tardi. Quindi ci vogliono strade nuove e l’attenzione di quelli che si occupano di queste cose si sta rivolgendo rapidamente verso il concetto di “geoingegneria”. Non ne sentite ancora parlare in tv o sui giornali ma, per esempio, Scientific American ha pubblicato un articolo in proposito nel suo ultimo numero. E’ probabile che fra breve troverete la geoingegneria al centro del dibattito sul clima.
Ma cos’è questa geoingegneria (a volte chiamata “ingegneria climatica”)? Per prima cosa, sgombriamo il campo dalle tante fesserie che girano sul web in proposito. La principale è quella delle cosiddette “scie chimiche”, ovvero che le innocue scie di condensazione di vapore acqueo degli aerei siano in realtà un tentativo di avvelenarci sparpagliando composti venefici. Purtroppo, a furia di diffondere sciocchezze come questa, il concetto stesso di “geoingegneria” sembra diventato una specie di babau che spaventa un po’ tutti.
L’ingegneria, di per sé, non è né buona né cattiva. Per esempio, costruire un ponte è normalmente una cosa buona, ma può anche essere un inutile e pericoloso spreco di soldi (e qui viene in mente il ponte sullo Stretto, ma non entriamo nell’argomento). E’ la stessa cosa per l’ingegneria climatica che prevede di intervenire sui parametri dell’ecosistema terrestre per rimediare ai danni fatti dalle azioni umane. Anche qui si possono fare danni se non si fa molta attenzione, ma nella situazione in cui siamo può darsi che non ci sia altra scelta.
In ogni caso, la geoingegneria non è una novità: da migliaia di anni gli esseri umani modificano il clima con le loro azioni, perlomeno da quando hanno imparato ad accendere il fuoco e a impegnarsi nell’agricoltura. Oggi, si ragiona su molti possibili interventi per gestire l’emergenza climatica. Uno è quello di schermare la radiazione solare (si chiama “Solar Radiation Management”, SRM). Ce ne sono varie versioni, alcune promettono di essere soluzioni rapide e relativamente poco costose per raffrescare la Terra. Ma è anche una strategia incerta e con possibili conseguenze negative su cose come, per esempio, il regime delle piogge.
Ci sono altre possibilità decisamente più “soft”. Una è la cattura e il sequestro del carbonio atmosferico. Si chiama “direct atmospheric capture” (DAC). L’idea potrebbe funzionare, ma è costosa, e se non la si accoppia a una riduzione rapida dell’uso dei combustibili fossili rischia di diventare qualcosa di simile alla storiella di quell’economista che aveva proposto di abolire la disoccupazione mettendo metà della popolazione a scavare buche e l’altra metà a riempirle.
Infine, c’è anche una “geoingegneria naturale” che è molto promettente. Si tratta di gestire gli ecosistemi in modo tale che possano influire sulla temperatura dell’atmosfera come hanno fatto egregiamente negli ultimi milioni di anni. Fra le tante cose, si comincia oggi a capire che l’effetto delle foreste sul clima è ben più complesso del semplice accumulo di carbonio. Quindi, riforestare si presenta come una buona strategia per raffrescare la terra in modo naturale e a basso costo. Lo stesso vale per gli ecosistemi marini, che possono assorbire grandi quantità di carbonio atmosferico se gestiti nel modo giusto.
Ce la possiamo ancora fare? Certo la storia recente non ci dà molte ragioni di essere ottimisti a proposito della capacità del genere umano di gestire emergenze globali. Ma non tutto è perduto; c’è ancora speranza.
Questo testo è basato su un capitolo di un libro intitolato “L'era degli stermini” che sto pian piano mettendo insieme ma per il quale non ho ancora trovato un editore (si accettano suggerimenti). Il succo del libro, ma anche del presente post, è che gli stermini, e in particolare gli stermini “ideologici”, non sono stati comuni nel corso della storia. Sono un fenomeno moderno legato alla struttura della società moderna.
L'Iliade di Omero è stata la narrazione che ha fornito la visione del mondo per i popoli che chiamiamo "occidentali". influente e ampiamente letto fino ai tempi recenti. Il fascino dell'Iliade deriva da diversi fattori: uno è che, anche se la storia è raccontata dal punto di vista degli Achei, i Troiani non vengono mai demonizzati, insultati o descritti come subumani. Si potrebbe dire che la guerra di Troia sia stata causata da un atto di terrorismo da parte di un Ttroiano che rapì la moglie di un re Acheo. Tuttavia, nella storia non c'è alcun senso di superiorità morale attribuito ai guerrieri Achei. Troiani e Achei si comportano più o meno allo stesso modo, combattendo per il proprio onore personale, per la gloria e talvolta per la vendetta. Dopo la caduta di Troia, i Troiani sopravvissuti non furono uccisi, e nessuno pensò che fosse abominevole che alcuni di loro riuscissero a fuggire in un'altra terra e a ricostruire lì una città.
Questo atteggiamento sembra essere stato mantenuto a lungo nella galassia delle regioni che costituiscono il patrimonio culturale dei moderni occidentali. Naturalmente, gli esseri umani si sono sempre uccisi a vicenda con rabbia, ma gli stermini su larga scala sono rari nella documentazione storica fino a tempi relativamente recenti. Ciò è particolarmente vero per gli “stermini ideologici”, quegli eventi che vedono gli sterminati meritevoli del loro destino in quanto "subumani", “razze inferiori” o “animali umani”.
In epoca classica i nemici sconfitti non venivano quasi mai sterminati ma piuttosto trasformati in schiavi o assimilati. Secoli di agiografia cristiana hanno visto la storia dal punto di vista degli sterminati, celebrando le virtù dei martiri, ma non hanno mai suggerito che la vendetta fosse una risposta adeguata. Persino le crociate (1095-1291), la paradigmatica guerra di religione, non miravano a sterminare i musulmani (anche se a volte è successo), ma piuttosto a convertirli al cristianesimo.
E poi le cose sono cambiate. Nel secolo scorso, abbiamo visto ogni guerra diventare una lotta metafisica del bene contro il male, con la parte perdente che meritava pienamente di essere sradicata ed eliminata. Le guerre non vengono più dichiarate, i trattati di pace sono sostituiti dalla resa incondizionata, le popolazioni sconfitte vengono cacciate dalle loro terre, i loro leader vengono spesso giustiziati con o senza una parvenza di giusto processo. Il 20° secolo è stata una vera e propria fiera dello sterminio, con alcune delle uccisioni di civili più sanguinose ed estese mai registrate nella storia.
La crescente brutalità delle guerre moderne non ha cambiato l’atteggiamento degli occidentali, che continuano a considerarsi sempre superiori in termini morali. Tra coloro che hanno studiato gli stermini del XX secolo, Rudolph Rummel (1932 – 2014) ha fornito dati estesi e un termine da lui coniato, quello di “ democidio ”, per descrivere questi eventi. Ma le sue conclusioni si limitavano all’idea semplicistica che i democidi sono qualcosa a cui si dedicano solo le dittature; le democrazie occidentali non lo fanno mai. Un’interpretazione sostenibile solo attraverso una definizione molto flessibile dei termini “democidio” e “democrazia”. Altri, come Steven Pinker, hanno esaminato un arco di tempo molto limitato e hanno sostenuto che gli stermini sono una cosa del passato e rimarranno tali per sempre. Si certo. Proprio come la storia doveva essere finita per sempre, secondo Francis Fukuyama.
Proviamo ad avere una visione a lungo termine. Abbiamo visto che nell'antichità gli stermini erano rari e sicuramente non dovevano essere un segno di virtù per gli sterminatori. Allora, quando sono apparse le visualizzazioni attuali? Penso che il punto di svolta possa essere identificato con l’inizio delle campagne di caccia alle streghe in Europa durante il XVI secolo. (grafico di Leeson e Ross, 2018).
Il punto cruciale della caccia alle streghe è che le streghe venivano giustiziate non per quello che facevano ma per quello erano. In altre parole, non era necessario che una strega avesse effettivamente commesso un delitto per essere punita; era sufficiente essere dichiarata strega da un tribunale. Se ci pensiamo, si tratta di una profonda perversione del concetto stesso di “giustizia”, ma è alla base di tutti gli stermini, delle pulizie etniche e simili. "Sei uno di loro, quindi meriti di morire."
In effetti, l’epoca della caccia alle streghe sembra essere stata il punto di partenza di un’esplosione di violenza e brutalità. Il “Catalogo dei conflitti” di Peter Brecke contiene informazioni sul numero delle vittime di 3.708 conflitti a partire dall'inizio del XV secolo. Non è specifico riguardo agli stermini. Ma gli stermini sono solitamente il risultato di guerre, quindi possiamo prendere questi numeri come un indicatore del livello di violenza.
Insieme ai colleghi Martelloni e Di Patti abbiamo esaminato in dettaglio i dati di Brecke. Ma qui, mi limito a mostrarvi il progresso della letalità nel tempo. Ecco il grafico dei dati di Brecke, dimensionato al più grande sterminio della storia, quello della Seconda Guerra Mondiale.
Per avere una migliore idea di quale sia la tendenza a lungo termine, possiamo normalizzare i dati sulla popolazione mondiale. Ecco i risultati.
Il grafico non presenta alcuna periodicità, ma possiamo interpretarlo come formato da due fasi, una prima del 1600, l'altra dopo il 1600. La prima fase è relativamente tranquilla (relativamente!); l’altra mostra che le grandi guerre sono molto più letali. Tutto questo deve essere preso con una certa cautela, poiché il database di Brecke non è completo e salta molte guerre antiche per le quali non sono disponibili dati affidabili. Ma è chiaro che le guerre antiche erano molto meno letali di quelle moderne, anche se dimensionate alla popolazione dell’epoca.
I dati mostrano che la “guerra dei trent’anni” (dal 1618 al 1648) è una delle prime guerre su larga scala. Sappiamo anche che si tratta di una delle prime guerre di sterminio ideologico. Ha visto protestanti e cattolici uccidersi felicemente a vicenda in Europa: due visioni del mondo incompatibili, in cui ciascuna parte bollava l’altra come malvagia. Da lì in poi è stato tutto in discesa. Una parvenza di “onore” nei combattimenti è stata mantenuta fino all’inizio del XX secolo, e poi le guerre sono state completamente trasformate in imprese di derattizzazione, tranne per il fatto che nel ruolo dei ratti ci sono esseri umani.
Cosa è successo che ha causato questa trasformazione? Posso proporre tre spiegazioni.
Sovrappopolazione. La frenesia omicida degli ultimi secoli coincide con il rapido aumento della popolazione umana, con gli europei che si spostano in altri continenti e spostano o sradicano le popolazioni native alla ricerca di nuove terre. Questa idea fu successivamente descritta come la necessità di lebensraum (spazio vitale), spesso unita a una visione pseudo-scientifica che vedeva le “razze superiori” avere il diritto di sostituire quelle inferiori. Questo fenomeno è talvolta collegato agli esperimenti di John B. Calhoun (1917-1995) sui topi in condizioni sovrappopolate, che hanno dimostrato che portava a un crollo delle funzioni sociali e a lotte intestine tra le diverse fazioni.
Armi da fuoco. L’inizio dell’Era degli stermini coincide con la diffusione delle armi da fuoco. L’effetto potrebbe non essere tanto una questione di maggiore letalità ma di portata. Konrad Lorenz sosteneva nel suo libro “ Sull’aggressione ” (1963) che le armi che uccidono a distanza disattivano la capacità della parte sconfitta di inviare segnali di sottomissione ai vincitori. Con ciò scompaiono i meccanismi innati che impediscono agli esseri umani di uccidere un nemico sconfitto (almeno qualche volta).
La tipografia. In Europa gli stermini andarono parallelamente allo sviluppo della stampa e alla diffusione dei libri e, più tardi, dei giornali. Con questi strumenti, lo Stato poteva raggiungere un livello di controllo sui suoi sudditi prima impensabile. Poi, si è presto scoperto che il modo migliore per concentrare le risorse dello stato sulla guerra era quello di scatenare nella popolazione un delirio di odio contro gli stati esterni o i sottogruppi interni presentati come malvagi. Quello fu l’inizio della propaganda moderna, una tecnologia sviluppata per fare proprio questo su larga scala.
Se queste interpretazioni sono corrette, e potrebbero esserlo tutte e tre, allora ci troviamo in una situazione difficile. Tutte e tre le tendenze non solo sono ancora valide ma stanno diventando sempre più importanti. La popolazione umana continua ad aumentare. La capacità di uccidere a distanza è aumentata dalle armi da fuoco individuali ai bombardamenti aerei e ora ai droni assassini. La propaganda sta diventando sempre più radicata nella visione occidentale del mondo, in particolare con l’idea che i leader possano “creare la propria realtà”, ora possibile con l’intelligenza artificiale che crea immagini “deep fake”.
Andiamo quindi verso un ulteriore aumento della tendenza allo sterminio? Ciò che vediamo in questo momento nel mondo sembra indicare esattamente questo. Significa che siamo condannati? Può darsi, ma è anche vero che tutto ciò che cresce rapidamente porta dentro di sé i semi della propria rovina: è l’essenza di quello che io chiamo “ Effetto Seneca”. L'idea di “creare la propria realtà” potrebbe già essere autodistruttiva, con un numero crescente di persone che semplicemente si rifiutano di credere a qualsiasi cosa il loro governo dica loro. (anche se chi assume questo atteggiamento rischia di diventare bersaglio del prossimo round di sterminio).
Allora, gli stessi strumenti necessari per condurre le guerre potrebbero scomparire. Con l’aumento del costo delle risorse energetiche e minerarie e con i danni prodotti dal cambiamento climatico e dall’inquinamento, c’è sempre meno surplus da investire nelle guerre. Inoltre, la popolazione umana mostra segni di essere prossima all’inizio di un trend di rapido declino (un altro possibile risultato dell’“ Effetto Seneca.”). Ciò rende più difficile intraprendere guerre, un fenomeno a cui forse stiamo già assistendo.
Stiamo passando dall’altra parte del grande ciclo di quella che chiamiamo (impropriamente) la “civiltà occidentale” che ha attraversato diversi secoli. Se da un lato guerre e stermini sono stati una caratteristica comune della fase di crescita del ciclo, saranno importanti anche nella fase di declino? Non possiamo dirlo. Ciò che possiamo dire è che c’è sempre un po’ di spazio affinché la natura umana sopravviva e si affermi, anche in mezzo all’apparente trionfo del male.
“Ogni nuovo inizio deriva dalla fine di un altro inizio.”
Se sei un amante dei dinosauri (o forse sei un dinosauro), questa scena del primo film "Jurassic Park" deve essere stato un momento speciale della tua vita. Siamo tutti affascinati dai dinosauri: basta guardare i volti dei protagonisti del film quando vedono il brachiosauro brucare le foglie degli alberi. Deve essere perché conserviamo un ricordo dei nostri antenati cacciatori e comprendiamo che un cacciatore in grado di uccidere una simile bestia diventerebbe molto popolare tra le giovani donne della tribù. Ma perché esattamente queste bestie erano così grandi? Qui, abbozzo una possibile interpretazione che va all'essenza stessa di come funziona il grande olobionte della Terra.
I sauropodi: i più grandi animali terrestri mai esistiti
Non tutti i dinosauri erano grandi, ma i sauropodi sì, erano molto grandi. Quelle bestie dal collo lungo che includono il diplodocus, il brontosauro, il brachiosauro e molti altri, erano più grandi di qualsiasi mammifero mai vissuto sulla Terra. La figura qui sotto, tratta da un recente articolo di Michael D'Emic, ci fa vedere esattamente quanto erano grandi.
Ma perché i sauropodi erano così grandi? Dopotutto, si suppone che i mammiferi li abbiano sostituiti perché erano più efficienti, no? E allora, perché non abbiamo mammiferi così enormi al giorno d'oggi? Gli elefanti arrivano a circa cinque tonnellate; alcuni antichi mammiferi potrebbero essere arrivati a 20-25 tonnellate. Non male, ma comunque molto più piccolo delle 70 tonnellate dell'Argentinosaurus, forse il più grande sauropode mai vissuto. Alcuni studi stimano che la dimensione massima possibile di una creatura terrestre sulla Terra sia di circa 100 tonnellate. I sauropodi arrivarono vicino a quel limite.
Se volete imparare qualcosa sulla biologia dei sauropodi, vi suggerisco un articolo di Paul Sander (2011). Non è recentissimo ma fornisce 38 pagine dense di spunti di riflessione. Ma, riguardo alle ragioni delle grandi dimensioni di queste creature, beh, riporta 24 spiegazioni diverse! Un discreto casino.
Queste sono quasi tante spiegazioni per le grandi dimensioni dei dinosauri quante ce ne sono per la loro estinzione, che, fino a non molto tempo fa, se ne contavano centinaia (vedi questa straordinaria recensione di Benton). Ma è così che funziona la scienza (almeno, la versione buona). Utilizza il principio che Alex Osborn chiamò “divergenza/convergenza” nel 1953. L’idea è che prima si propone un’ampia gamma di ipotesi, e poi si affinino quelle buone.
Per quanto riguarda l’estinzione dei dinosauri, gli scienziati stanno ora convergendo su quella che sembra essere la buona spiegazione: l’anossia causata da una grande provincia magmatica (LIP), una gigantesca eruzione vulcanica che ha causato la diminuzione del contenuto di ossigeno nell’atmosfera (l’idea che i dinosauri il colpevole era un asteroide ancora popolare, ma in fase di graduale abbandono). Per le grandi dimensioni dei sauropodi stiamo ancora “sfoltendo” quelle ipotesi evidentemente insostenibili. Non entrerò nei dettagli, ma lasciatemi menzionare almeno uno di quelli che si contraddicevano a vicenda, ad esempio i sauropodi erano così grandi perché avevano un metabolismo veloce , ma no, erano grandi e avevano un tasso metabolico lento . E forse ricorderete come i sauropodi venivano spesso mostrati nelle illustrazioni semisommersi nelle paludi. Questo perché si credeva che avrebbero sostenuto il loro peso in questo modo.
Questa visione è rimasta così popolare che anche in “Jurassic Park” del 1996 c’è una scena che mostra i sauropodi che guadano in una palude (vedi il clip sopra). Notate anche come nella figura i bestioni vengono mostrati mentre mangiano erba, il che è sbagliato per due ragioni. La prima è che erano brucatori, non brucatori: non c’è bisogno di un collo lungo per mangiare l’erba sul terreno. La seconda, più importante, è che durante il Giurassico l'erba non esisteva. Apparve solo nel tardo Cretaceo.
Ma è tempo di convergere verso una spiegazione sensata. Proprio come i grandi dinosauri furono uccisi dalla mancanza di ossigeno (anossia), potrebbero essere stati creati da un’elevata concentrazione di ossigeno nell’atmosfera. Questa ipotesi è stata proposta molto tempo fa (anche se è difficile individuare chi l’ha proposta per primo), e ora sta diventando quella preferita.
Il ruolo dell'ossigeno
L'energia che muove tutti gli esseri viventi sulla terra è fornita dall'ossidazione dei prodotti della digestione degli alimenti per creare il “carburante” chiamato molecole di ATP (adenosina trifosfato). Dinosauri o mammiferi, il meccanismo è lo stesso. Con l’ossigeno, è disponibile molto carburante per creare muscoli forti, e muscoli forti possono sostenere un corpo pesante. Quindi, è possibile che i dinosauri fossero così grandi perché al loro tempo la concentrazione di ossigeno nell’atmosfera era maggiore.
Ciò ha senso, ma comporta anche problemi. Innanzitutto, è vero? Cominciamo con alcuni dati sulla concentrazione di ossigeno durante l'Eone Fanerozoico, da 540 milioni di anni (My) fa ad oggi. Questi dati provengono da un recente review sull'argomento .
I sauropodi vissero durante il periodo Giurassico e Cretaceo, da circa 200 a 66 My fa. Il grafico ci dice che sì, a quel tempo c’era più ossigeno di adesso, circa il 25%, contro il livello attuale di quasi il 21%. Ma i dati sollevano anche domande sconcertanti: da notare il grande picco alla fine del Permiano. Con più del 35% di ossigeno nell'atmosfera, gli animali terrestri dell'epoca dovevano essere dotati di turbocompressore. Quindi, avrebbero dovuto sviluppare corpi enormi, forse anche più grandi di quelli dei dinosauri molto più tardivi. Ma la fauna del Permiano non è così impressionante. Era dominato dai terapsidi, un gruppo che fa parte del clade più ampio dei sinapsidi, creature che alla fine generarono i mammiferi.
Si dice che alcune di queste creature del Permiano pesavano più di una tonnellata, ma non è niente di paragonabile ai sauropodi. Non erano nemmeno molto più grandi di un essere umano, come si vede nella foto. Notate anche come le loro zampe sporgono lateralmente, come quelle dei rettili. Non è un buon modo per sostenere un corpo pesante (chiedete a qualsiasi elefante che avete a portata di mano perché non ha gambe come quelle dei coccodrilli!). Se era necessario che le creature del Permiano evolvessero gambe colonnari simili a quelle di un elefante, avevano tutto il tempo per farlo: il Permiano durò circa 50 milioni di anni.
Allora perché l’ossigeno ha generato i giganti durante il Giurassico ma non durante il Permiano? Inoltre, cosa governa la concentrazione di ossigeno nell’atmosfera? Perché viviamo in un’era con una concentrazione di ossigeno relativamente bassa? E perché un altro tipo di gigantismo, quello del cervello umano, si evolve solo ora e non nel Giurassico?
Misurazione delle paleoconcentrazioni di ossigeno
Dobbiamo approfondire la storia dell’ossigeno nell’atmosfera. Innanzitutto, quanto possiamo fidarci dei dati? Vediamo un altro set di dati; questo mostra l'incertezza coinvolta nelle varie stime ( da Wade et al. )
Francamente, è un disastro. Secondo questi dati la concentrazione di ossigeno al tempo dei dinosauri (fino a 66 milioni di anni fa) potrebbe essere stata molto più alta di quella attuale, ma anche molto più bassa. E anche il picco del Permiano, quando ebbe luogo, esattamente? Questi dati ci dicono solo che la concentrazione di ossigeno è aumentata all'inzio del fanerozoico e, successivamente, tende a diminuire. Ma i dettagli sono incerti.
In precedenza ho menzionato il modello divergenza/convergenza di acquisizione della conoscenza di Osborne. Questo grafico della concentrazione di O2 è un chiaro esempio della fase di “divergenza”: tanti dati e ipotesi in contrasto tra loro. Ma ciò non dovrebbe scoraggiarci dal cercare la convergenza. E credo che la scienza stia convergendo sui dati giusti. Tra i vari modelli che stimano la concentrazione di ossigeno nell’antichità, il modello “COPSE” (Carbon, Oxygen, Phosphorus, Sulphur, Evolution) di Tim Lenton et al. è forse quello più completo e aggiornato. Ha il vantaggio di considerare diversi elementi della complessità dell'evoluzione dell'ecosistema lungo il Fanerozoico, compresi quelli biologici ed evolutivi.
Ora le cose hanno molto più senso. Il picco dell’ossigeno nel Cretaceo è più importante, ed è sicuramente molto più alto della concentrazione attuale. Potrebbe spiegare le grandi dimensioni dei sauropodi. Il picco del Permiano, quindi, non domina più il Fanerozoico. Tuttavia, rimane grande e rimane la questione del perché la fauna del Permiano fosse così insignificante. Dobbiamo esaminare in che modo esattamente l’ossigeno può favorire tassi metabolici più elevati e creature più grandi.
Metabolismo e rapporto O2/CO2
A questo punto si potrebbe ragionevolmente dire: “Bene, ma di cosa stiamo discutendo? Che differenza fa se la concentrazione di O2 è del 20% o del 25%? Se è un po’ più bassa, respira semplicemente un po’ più velocemente e avrai tutto l’ossigeno di cui hai bisogno!”
Ehm, no. Non funziona in questo modo. Il punto è che un animale non ha solo bisogno di fornire ossigeno alle sue cellule; ha anche bisogno di eliminare dalle cellule l'anidride carbonica prodotta dalle reazioni metaboliche. Sia l'ossigeno che l'anidride carbonica viaggiano nel sangue. La chimica coinvolta è complicata, ma il punto è che lo scambio avviene nella barriera sangue-aria degli alveoli, sacche microscopiche all’interno dei polmoni. Presso la barriera, l’ossigeno deve muoversi all’interno del corpo mentre l’anidride carbonica esce. Questo trasferimento dipende dai gradienti di concentrazione: se vogliamo che l'ossigeno si muova all'interno, deve esserci un'elevata concentrazione nell'aria in corrispondenza della barriera. Il contrario vale per l’anidride carbonica; la sua concentrazione nell'aria deve essere bassa se deve uscire dal sangue.
Respirare più velocemente può aiutare a far entrare più ossigeno nel sangue perché aumenta il flusso verso la barriera aria-sangue. Ma solo entro certi limiti perché aumenterà anche il flusso di anidride carbonica nella stessa direzione, rendendo più difficile la rimozione della CO2 dal sangue. In condizioni di ipossia (ad esempio, minatori bloccati in un tunnel di miniera), le persone muoiono non tanto per la mancanza di ossigeno, ma per l'eccesso di CO2. Sviluppano una condizione chiamata ipercapnia (alta concentrazione di CO2 nel sangue), accompagnata da acidificazione del sangue. Muoiono ben prima che l'ossigeno si esaurisca completamente. Inutile dire che, in queste condizioni, respirare più velocemente non li aiuterebbe molto.
Un modo migliore per garantire un elevato flusso di ossigeno nel corpo è aumentare la superficie degli alveoli; cioè, rendere i polmoni più grandi. A differenza della respirazione più veloce, ciò aumenterebbe sia l’afflusso di O2 che il deflusso di CO2. Ma, ovviamente, ci sono dei limiti a ciò che si può fare in questo modo. In termini di volume, i polmoni sono già l’organo più grande del corpo umano. Polmoni molto più grandi avrebbero un costo metabolico considerevole e creerebbero evidenti problemi pratici. La situazione era probabilmente la stessa per i dinosauri, anche se avevano un sistema respiratorio aviario, probabilmente più efficiente di quello dei mammiferi. Se potevano contare su un grande apporto di ossigeno al loro corpo, molto probabilmente era perché c’era più ossigeno nell’atmosfera; ma non solo. Inoltre, la concentrazione di CO2 doveva essere bassa.
Queste considerazioni suggeriscono che il rapporto tra ossigeno e anidride carbonica è un fattore importante nell'influenzare il metabolismo di un animale, forse più importante della concentrazione assoluta di ossigeno. Quindi, diamo nuovamente un'occhiata ai dati dell'articolo di Lenton: come è variato il rapporto O2/CO2 durante il Fanerozoico? Ecco il grafico, ottenuto digitalizzando i dati di Lenton. (PAL sta per Present Atmospheric Levels. Le concentrazioni sono normalizzate ai valori attuali).
Non ho visto questo grafico da nessuna parte nella letteratura scientifica. Ciò non significa che nessuno l'abbia notato prima, quindi se siete a conoscenza di uno studio in cui è già stato mostrato, fatemelo sapere. In ogni caso, penso che siamo in qualcosa di interessante. In realtà, molto interessante.
Vedete che il primo picco nel rapporto O2/CO2 arriva circa 50 milioni di anni prima del picco della concentrazione assoluta di O2. Quindi, il picco della disponibilità di ossigeno arriva durante la grande espansione della vita durante il Devoniano e l'Ordoviciano, non durante il Permiano. Le creature del Permiano respiravano aria che conteneva molta CO2, e questo potrebbe essere stato il motivo per cui non sono mai diventate grandi e spettacolari come i sauropodi. Quindi, vediamo che i sauropodi respiravano un'atmosfera con un elevato rapporto O2/CO2 mentre, ai nostri tempi, abbiamo un rapporto O2/CO2 ancora più elevato. Ciò spiega la spettacolare encefalizzazione di un gruppo di primati nudi che oggigiorno esistono in gran numero nell'ecosistema? Probabilmente non è stato l’unico fattore, ma potrebbe anche essere importante.
Perché le cose sono quello che sono?
Abbiamo un ultimo punto da approfondire in questa disamina che è partita parte dal film “Jurassic Park” e ci ha portato alla storia della composizione chimica dell'atmosfera terrestre. Perché l'ossigeno aumenta e poi diminuisce? E perché il rapporto O2/CO2 continua ad aumentare?
Il nocciolo della storia è che le concentrazioni di CO2 e O2 non sono indipendenti l’una dall’altra. La fonte di ossigeno libero nell'atmosfera è l'acqua, scomposta in idrogeno e ossigeno dalla reazione di fotosintesi nelle piante. Ma questa reazione non avviene senza coinvolgere la CO2, che viene consumata nel processo, creando molecole organiche. Il risultato complessivo è che la CO2 viene trasformata in carbonio organico e l'ossigeno viene liberato nell'atmosfera. Quindi, possiamo dire che la CO2 è la principale fonte di ossigeno.
Il carbonio organico risultante dalla reazione fotosintetica viene gradualmente sepolto sottoterra come “carbonio fossile”. È questo meccanismo che consente alla concentrazione di ossigeno nell'atmosfera di aumentare nel corso del tempo geologico mentre la massa dell'ecosistema rimane approssimativamente costante. L'effetto inverso, la rimozione di ossigeno dall'atmosfera, si verifica a seguito di quelle enormi eruzioni vulcaniche chiamate “LIP” (grandi province ignee). Queste eruzioni bruciano grandi quantità di carbonio fossile, restituendo una frazione significativa di ossigeno alla CO2.
Fu uno di questi LIP, 66 milioni di anni fa, a uccidere i dinosauri non aviari creando un livello di ipossia in cui non potevano sopravvivere. In precedenza, 250 milioni di anni fa, un altro grande LIP spazzò via la maggior parte dei terapsidi prima che potessero evolversi in creature più grandi. La stessa cosa, la combustione di grandi quantità di carbonio fossile con l’ipossia associata, potrebbe accadere proprio adesso, tranne per il fatto che il carbonio fossile viene bruciato da quelle fastidiose scimmie nude. Dal punto di vista della chimica dell'atmosfera non ha molta importanza. Il risultato è comunque l’estinzione di massa in corso.
E le temperature?
L’interazione tra la crescita dell’ecosistema che pompa O2 nell’atmosfera e dei LIP che lo rimuovono ha guidato le oscillazioni nella concentrazione di CO2 e O2 negli ultimi 500 milioni di anni circa. Ma c’è un’ulteriore complicazione che ha a che fare con il fatto che la CO2 è un gas serra, quindi influenza la temperatura della Terra. La creazione di un’elevata concentrazione di ossigeno a scapito della concentrazione di CO2 potrebbe portare la Terra a congelarsi in un’era glaciale, o addirittura trasformarla in una palla di neve. È già successo.
C'è poi un ulteriore fattore: la luminosità del sole è andata gradualmente aumentando ad un ritmo di circa l'1% ogni 110 milioni di anni. Per mantenere la temperatura della superficie terrestre entro i limiti necessari per la sopravvivenza dell'ecosistema, la concentrazione di CO2 deve diminuire. Ciò avviene principalmente a causa di un meccanismo chimico chiamato “erosione dei silicati” che rimuove la CO2 dall’atmosfera più velocemente a temperature più elevate. È un'altra storia complicata; diciamo solo che durante il Fanerozoico la luminosità del sole è aumentata di circa il 6% e la concentrazione di CO2 è scesa da diverse migliaia di ppm (parti per milione) di inizio eone al valore attuale di circa 400 ppm. Il risultato complessivo è stato un aumento medio del rapporto O2/CO2. Tuttavia, poiché la CO2 è la fonte di O2, una concentrazione molto bassa di CO2 può portare a concentrazioni di O2 più basse. E questo è ciò che stiamo vedendo, con l’ossigeno sceso a circa il 21% dal picco del 35% di 300 milioni di anni fa. Abbiamo ancora abbastanza ossigeno nell'atmosfera per mantenere in vita quelle strane scimmie nude e per mantenere in funzione (più o meno) i loro enormi cervelli. Ma per quanto riguarda il futuro?
Tutto nell'universo segue cicli. Questo vale anche per l'ecosistema. Stiamo assistendo al conflitto di diversi fattori che cercano di mantenere l’omeostasi del sistema: l’ecosistema continua a produrre O2, ma la necessità di mantenere temperature costanti contro l’irradiazione solare crescente sta abbassando la concentrazione di CO2 a livelli così bassi che la fotosintesi potrebbe iniziare a essere influenzata negativamente. Il risultato potrebbe essere un’inversione delle tendenze in gioco durante il primo Fanerozoico (vedi questo articolo di Ozaki et al. ). Cioè, la Terra vedrà una concentrazione di ossigeno nell’atmosfera gradualmente inferiore nel corso delle prossime decine di milioni di anni, o forse anche molto più velocemente poiché le scimmie nude sono impegnate ad accelerare il processo bruciando carbonio fossile. La figura seguente è tratta da un articolo di Franck, Bounama e Von Bloh .
Tra qualche centinaio di milioni di anni, le concentrazioni di CO2 e O2 diventeranno così basse che le creature multicellulari non saranno in grado di sopravvivere. Sarà il contrario dell'antica esplosione del Cambriano che irradiò creature multicellulari su tutta la Terra. Quindi, il pianeta tornerà silenziosamente alla sua condizione originale di un brodo di creature unicellulari negli oceani. In tempi molto più lunghi, gli oceani ribolliranno e la vita scomparirà. Tra qualche miliardo di anni, la Terra sarà inghiottita dal sole in espansione e di essa non rimarrà nulla.
Conclusione: la morte di Gaia?
È una caratteristica tipica dei sistemi complessi che puoi solo osservarli, non farci esperimenti sopra. Quindi, questa grande immagine del passato e del futuro della Terra è solo un assaggio di ciò che possiamo vedere del nostro passato e immaginare il nostro futuro. Molte cose potrebbero cambiare nella nostra visione man mano che impariamo di più, ma alcune cose nell’universo sembrano seguire schemi che possiamo comprendere. Non sorprende che la grande esplosione della vita che chiamiamo “Fanerozoico” (l’era della vita visibile) alla fine svanirà e scomparirà. Quella sarà la morte di Gaia, il grande olobionte che chiamiamo “ecosistema”.
Ma chi lo sa? Forse, quelle strane scimmie encefalizzate potrebbero inventare qualche trucco per proteggere la Terra dal soffio infuocato del sole e mantenerla a temperature sufficientemente basse da consentire sia all'ossigeno che all'anidride carbonica di continuare ad esistere in una concentrazione abbastanza grande da mantenere vivo l'ecosistema (aka Gaia). ancora per qualche miliardo di anni. Potrebbe essere, in effetti, proprio la loro funzione. In ogni caso, l’unica cosa di cui possiamo essere sicuri è che Gaia ne sa più di noi.
Gaia. la Dea della Terra interpretata dal programma di intelligenza artificiale di Dezgo.com
L’estate meteorologica è terminata il 1° settembre e adesso possiamo fare un po’ di conti su come è andata in termini di clima. Sono da poco disponibili i dati per le temperature a 2 metri di altezza dal NOAA e dal gruppo indipendente “Berkeley Earth”. Sono arrivati anche i dati dell’università dell’Alabama (UAH) per misure della bassa troposfera.
I risultati per i tre set di misure sono molto simili: fino a inizio giugno le temperature del 2023 sono state alte, ma non le più alte misurate. Invece, da giugno ad agosto sono schizzate in su battendo tutti i record. Per avere una valutazione di tutto l’anno dovremo aspettare un po’, ma le estrapolazioni del NOAA danno il 93% di probabilità che il 2023 sarà il più caldo in assoluto mai misurato.
Ovviamente, sarebbe sciocco tirare conclusioni soltanto da questa estate, ma i dati che abbiamo sono importanti perché confermano la tendenza all’aumento progressivo delle temperature della Terra. Questo non vuol dire che ogni luogo del pianeta si stia riscaldando nello stesso modo. Infatti, per quanto riguarda l’Italia, secondo gli ultimi dati forniti dal CNR, finora il 2023 non è stato così caldo come il 2022. Questa è probabilmente la ragione per cui c’è chi ha reagito con un certo scetticismo alle notizie di questa estate sulla base di ragionamenti tipo “a Voghera faceva freschino i primi di agosto”. Ma non è che in Italia ne siamo usciti senza danni: i dati sono ancora parziali ma parlano di qualche migliaio di decessi addizionali correlati alle ondate di calore specialmente al Sud e fra le persone anziane. Non sono così tanti come nel 2022 quando ne abbiamo avuti 18.000, ma non sono nemmeno un numero trascurabile.
Così, comunque la vogliamo vedere, la situazione è preoccupante. Ovunque nel mondo ci sono segni di una grave crisi climatica in atto e non è solo una questione di temperature. Vediamo fusione dei ghiacci, ondate di calore, incendi, alluvioni e cose del genere. I dati dell’Artico sono particolarmente preoccupanti. Per farvi un’idea di quanto sia grave la situazione da quelle parti potete dare un’occhiata al blog “Arctic-News” di Sam Carana. In più, per l’anno prossimo ci aspettano ondate di calore globali ancora più intense con l’arrivo del ciclo di correnti marine chiamato El Niño nell’Oceano Pacifico.
Ce la possiamo ancora fare a invertire la tendenza? In linea di principio sì, se ci mettiamo tutti d’accordo e accettiamo di fare qualche sacrificio per ridurre le emissioni e prenderci cura dell’ecosistema che ci fa vivere. Ma per fare dei sacrifici bisogna aver fiducia verso chi ti chiede di farli. E qui sta il nocciolo del problema. In tutto il mondo, l’opinione pubblica è spaccata in due: da una parte la preoccupazione si sta trasformando in panico con visioni apocalittiche del futuro. Dall’altra parte c’è il rifiuto totale di tutto quanto arrivi dall’entità chiamata “scienza”, considerata meno affidabile di una cartomante di provincia. Nel mezzo, c’è un gran numero di persone perplesse che non sa più cosa pensare.
Purtroppo, in queste condizioni possiamo fare poco più che scambiarsi insulti tipo “allarmista” da una parte e “negazionista” dall’altra. Per agire seriamente contro il riscaldamento dovremmo ricreare un po’ di fiducia nella scienza, specialmente dopo gli ultimi tre anni in cui quelli che avrebbero dovuto difenderla sembrano aver fatto del loro meglio per maltrattarla. Ma come fare? Sembrerebbe una cosa ancora più difficile che invertire la tendenza al riscaldamento globale per il quale, perlomeno, sappiamo cosa dovremmo fare. E allora? Beh, qualunque cosa succeda alla fine avremo quello che ci meritiamo
Un'immagine dalla presentazione della tesi di Louis Delannoy all'INRIA di Grenoble il 15 settembre 2023. Louis (lo vedete in basso a sinistra nell'immagine) ha lavorato sulla transizione energetica utilizzando modelli che prendevano esplicitamente l'EROEI (rendimento energetico dell'energia investita) in considerazione. I risultati sono in linea con quanto già sappiamo: la transizione è possibile ma non facile. Tuttavia, l'approccio di Delannoys ai calcoli ha portato a diversi spunti interessanti. Il primo riguarda il modo in cui il tight oil ha rivoluzionato il mercato petrolifero negli anni 2010. Si scopre che lo shale oil è stato un piccolo miracolo tecnologico. Può essere ripetuto? Una questione cruciale per il futuro dell’umanità. Il testo che segue si ispira alla tesi di Delannoy, pur riportando mie riflessioni personali.
“Game Changer” è un termine abusato, ma si applica perfettamente all’impatto del fracking sul mercato petrolifero negli anni 2010. Mentre gli esperti erano in gran parte concordi nel ritenere definitivo il calo della produzione petrolifera statunitense, inaspettatamente il mercato è stato inondato dal nuovo “tight oil” o “shale oil” prodotto dal “fracking”, che ormai supera la produzione di petrolio convenzionale negli Stati Uniti con un rapporto superiore al 60%/40%. La produzione USA di tight oil è ancora in aumento, e potrebbe continuare ad aumentare almeno per qualche anno, anche se a costi di estrazione in aumento. (fonte immagine)
Il successo dell’operazione tight oil solleva diverse domande: perché ha avuto tanto successo? Perché non è arrivato prima? Perchè non è stato previsto? Quanto durerà? Può essere replicato al di fuori degli Stati Uniti?
La visione biofisica dell’estrazione petrolifera presuppone che le risorse “facili” (cioè quelle a basso costo) vengano estratte per prime. Queste sono le risorse che forniscono il più alto EROI (rendimento energetico per l'energia investita) e quelle che forniscono il ritorno economico più elevato. Man mano che queste risorse si esauriscono, lo sforzo di estrazione si sposta verso un EROI inferiore e quindi risorse più costose. I prezzi devono essere aumentati per mantenere il profitto e ciò influisce negativamente sulla domanda. Il risultato è la familiare "curva di Hubbert" a forma di campana. (qui visto in un'illustrazione dell'articolo originale del 1956 di Marion King Hubbert).
È stato a causa di questa visione che, negli anni 2000, molti esperti tendevano a liquidare il petrolio di scisto come una moda passeggera. Quando l’industria ha iniziato a estrarlo, la reazione è stata che, dal momento che il petrolio di scisto è arrivato molto dopo l’inizio del declino del petrolio convenzionale, doveva trattarsi di un tentativo disperato di estrarre da risorse a basso EROI. In effetti, la complessità e la sofisticazione dei macchinari necessari per le varie operazioni di trivellazione dello shale oil sono impressionanti. Si potrebbe pensare che l'intero macchinario sia inefficiente e costoso, un'impressione rafforzata dalle molteplici dichiarazioni nei media finanziari secondo cui gli investitori per la maggior parte non hanno guadagnato nulla con il fracking.
Ma non sembra essere così. Diamo un'occhiata alla tabella all'inizio di questo post. Mentre il greggio convenzionale negli Stati Uniti ha ora un EROI di circa 10 alla bocca del pozzo, la stima riportata da Delannoy da un articolo di Brandt et al. è intorno a 30 per lo shale oil, sempre alla bocca del pozzo. Non c'è da riporre troppa fiducia in questi numeri; sono affetti da grandi incertezze. Ma sono in contrasto al modello biofisico semplificato che vede l’estrazione muoversi gradualmente da risorse con EROI elevato a risorse con EROI basso.
Allora, cosa è successo? Ebbene, è una delle regole dell'universo che " Dio sceglie le cose stolte per confondere i saggi ( 1 Corinzi 1:27 ). I saggi, ovvero gli "esperti", tendono a concentrarsi su ciò che sanno e a respingere ciò che sanno. Non funziona così. Il record degli esperti nella comprensione delle rivoluzioni tecnologiche è estremamente scarso. In campo energetico, tendono a riporre molta fiducia nelle "nuove tecnologie", ma quasi sempre scommettono su quelle sbagliate, ad esempio l'idrogeno. Parallelamente, si perdono le vere rivoluzioni, come quella dello shale oil.
Anche di recente, gli esperti sono totalmente incapaci di credere o comprendere il nuovo punto di svolta, l’energia fotovoltaica, che ora ha un EROI abbastanza grande da distruggere tutte le alternative fossili. La maggior parte degli esperti non ha familiarità con la tecnologia fotovoltaica. Non riescono proprio a capire come una lastra grigia apparentemente semplice possa competere e superare le gigantesche turbine a vapore azionate da un enorme impianto nucleare. Fortunatamente, le tecnologie efficienti tendono ad affermarsi per la pura forza della loro efficienza. È successo per lo shale oil; sta accadendo per il fotovoltaico. Osserviamo i cambiamenti che avvengono anche se spesso non li comprendiamo. Come al solito, il futuro decide per noi.
______________________________________________
Alcuni altri punti da considerare
1. L’ascesa del tight oil viene talvolta usata per denigrare i modelli biofisici e la curva di Hubbert. Questo è un grave errore. Il modello biofisico descrive perfettamente ciò che è accaduto negli Stati Uniti negli ultimi 20 anni se si tiene conto dell’elevato EROI dello shale oil. La tecnologia è uno dei fattori che possono cambiare la partita: gli aerei non invalidano la legge di gravitazione universale di Newton.
2. Il tight oil è stato un successo, ma ciò non significa che sia una buona cosa, né che durerà per sempre. Ci mantiene dipendenti dai combustibili liquidi e rinvia la transizione tanto necessaria alle energie rinnovabili. Fortunatamente, anche questa risorsa ad alto EROI non può durare per sempre. Nonostante alcune affermazioni ottimistiche su “secoli di prosperità”, è probabile che raggiunga il suo picco nei prossimi anni, per poi iniziare a diminuire in modo irreversibile.
3. La storia secondo cui gli investitori non hanno guadagnato nulla con lo shale oil è un po’ più difficile da comprendere. Se lo shale oil ha un EROI così buono, come è possibile che le persone non ne abbiano tratto profitto? In via provvisoria, ciò può essere spiegato assumendo che i profitti siano stati quasi completamente reinvestiti in nuove trivellazioni. Si noti, infatti, quanto è ripida la curva di crescita della produzione di shale oil. A quanto pare, gli investitori hanno aspettato che il petrolio di scisto guadagnasse un posto stabile nel mercato prima di iniziare a pensare ai profitti. Leggiamo sui giornali finanziari che la maggior parte degli investitori hanno dichiarato che ora smetteranno di buttare denaro in nuovi pozzi di shale, concentrandosi ora sulla massimizzazione dei profitti. Potrebbe essere uno dei motivi del recente aumento dei prezzi. Il che vuol dire, ovviamente, che la produzione si avvia verso il declino.
3. È una cosa buona che l'EROI delle tecnologie di produzione di liquidi alternative allo shale oil, come Coal to Liquids (CTL) e Gas to Liquids (GTL), abbiano un EROI così basso (guardate l'immagine della tesi di Delannoy sopra ). Ciò significa che quando il tight oil inizierà a diminuire, non vedremo una corsa ai combustibili sintetici (grazie a Dio!). Potremmo assistere a un tentativo di spostarsi verso le sabbie bituminose, ma anche in quel caso l’EROI è probabilmente troppo basso per ripetere il miracolo dello shale oil.
4. Resta una questione aperta in un contesto geopolitico. Perché il tight oil viene estratto solo (o quasi solo) negli Stati Uniti? Chiaramente, l’industria statunitense ha sviluppato tecnologie efficienti per la perforazione orizzontale e la fratturazione idraulica. Ma questi non sono così complessi da non poter essere replicati altrove, e la stessa industria statunitense potrebbe essere interessata ad applicarli in altri paesi. Allora perché, ad esempio, la Russia non sta sviluppando il petrolio di scisto della Formazione Bazhenov, situata nella Siberia occidentale ? Lo afferma l' Energy Information Administration statunitense, l'intera area potenziale dello shale di Bazhenov dispone di risorse di tight oil pari a più di mille miliardi di barili. Forse è un'esagerazione (spesso queste stime lo sono), ma è una cifra enorme che corrisponde a circa 30 anni di consumo ai ritmi attuali. Esistono molte altre potenziali risorse di tight oil nel mondo, ma nessuna viene sfruttata a un ritmo significativo. Questa partita geopolitica è destinata a rimanere per ora un mistero, e possiamo solo sperare che la rivoluzione fotovoltaica renda presto obsoleti i combustibili liquidi.
Louis Delannoy durante la discussione della sua tesi il 15 settembre 2023 a Grenoble. Indossa una maglietta "Limiti alla Crescita" (potete comprarne una su Zazzle ).
Quando parlo di clima sul "Fatto Quotidiano" mi appaiono spesso commenti di persone che si stupiscono del mio scarso spirito critico. Questo mio grave difetto non mi mette in grado di notare che il cambiamento climatico è soltanto una riedizione del caso del COVID. Ovvero è un modo di terrorizzarci sulla base di un pericolo inesistente con il doppio scopo per i terrorizzanti di renderci schiavi e guadagnarci sopra.
Ora, qui c'è da notare per prima cosa che la strada per l'inferno è lastricata di generalizzazioni. Il fatto che una certa cosa somigli a un altra cosa non vuol dire affatto che siano la stessa cosa. Visto da lontano, un elefante potrebbe somigliare a un topo, ma sarebbe rischioso assumere che lo sia. C'è come minimo, un fattore di scala da considerare, ma anche dei fattori fisici fondamentali che rendono un'epidemia una cosa completamente diversa dalla perturbazione del sistema climatico in corso. Se è vero che io sono stato molto critico su come la "scienza" sia stata sfruttata orrendamente da una banda di incompetenti psicopatici per maltrattare intere popolazioni, questo non vuol dire che il concetto si possa trasferire tal quale ad altri campi della scienza.
Vediamo di ragionarci un po' sopra. Per prima cosa, diamo un'occhiata a uno dei modelli tipici mostrati in un recente rapporto dell'IPCC .
Superficialmente, ci vediamo certe somiglianze con le curve epidemiologiche che il governo ci propinava giornalmente al tempo della pandemia. Vediamo qualcosa che cresce esponenzialmente (o quasi) a meno che non si faccia qualcosa per "appiattire la curva" che andava di moda dire al tempo del Covid. E si potrebbe pensare che cose tipo i lockdown potrebbero essere usate contro il riscaldamento e potrebbero portare a un disastro simile. Ma è solo una somiglianza superficiale.
In primo luogo, con il clima, abbiamo delle misure di una grandezza fisica, la temperatura. E' una cosa ben diversa dai test PCR del coronavirus, i quali sono una meraviglia della tecnologia moderna, ma sono molto delicati e quello che misurano è molto incerto. Ne abbiamo parlato fino alla nausea nel periodo della pandemia, ma nessuno dei grandi sapienti che apparivano in TV si è mai preoccupato di discutere l'incertezza nelle misure PCR, cosa che si impara al primo anno di università in qualsiasi corso di studi in materie scientifiche. Questo non vuol dire che le misure PCR fossero sbagliate, solo che non avrebbero dovuto essere prese come oracoli divini. Notate invece come le curve dei modelli climatici sono sempre rappresentate insieme a una stima dell'incertezza. I climatologi sono (di solito) persone serie. Non hanno niente a che vedere con la banda di tronfi incompetenti che hanno imperversato in TV al tempo della pandemia.
Ciò non significa che i modelli climatici debbano necessariamente essere giusti. Il problema qui è che la discussione sul cambiamento climatico è stata spesso dirottata in un dibattito sulla possibilità che i modelli possano fare previsioni accurate. Questo è solo uno degli elementi del problema e non il più importante. I modelli multiparametrici di sistemi complessi sono principalmente strumenti per interpretare i dati: hanno lo scopo di dirti cosa sta causando cosa e come. Nel caso del cambiamento climatico, i modelli ci dicono che la correlazione tra temperatura e concentrazione di gas serra è coerente con una relazione causale secondo quanto sappiamo della fisica atmosferica. In altre parole, forniscono la prova che i gas serra stanno forzando il sistema climatico a riscaldarsi.
Ma si potrebbe arrivare a questa conclusione anche senza modelli: solo sulla base della fisica e delle osservazioni conosciute. Del resto Svante Arrhenius era già arrivato a una stima ragionevolmente corretta dei parametri del sistema nel 1896, senza ricorrere a modelli sofisticati. Supponiamo quindi che la concentrazione di gas serra continui ad aumentare (o anche solo rimanere la stessa). In tal caso, possiamo aspettarci che anche le temperature continuino ad aumentare e questo non è sicuramente una buona cosa per noi. I modelli climatici, per inciso, tendono ad essere ottimisti nel senso che normalmente non sono in grado di descrivere il tipo di bruschi cambiamenti climatici che si verificano sotto forma di "Seneca Cliffs" che sono stati osservati in un passato remoto. Nella scienza del clima, sono spesso chiamati "punti critici climatici", attraversarne uno sarebbe sicuramente estremamente negativo per noi. Fra le altre cose, questi "punti critici" non esistono in epidemiologia, che studia sistemi sostanzialmente più semplici del clima terrestre.
Detto questo, rimane il problema tipico dei modelli multiparametrici: quello di separare i ruoli dei parametri che hanno effetti simili sul sistema. I modelli climatici potrebbero sovrastimare il ruolo dei gas serra e sottovalutare gli effetti di raffreddamento dei processi metabolici dell'ecosistema, come sostenuto, ad esempio, in questo articolo da Makarieva et al. In tal caso, rischiamo di trascurare il ruolo di un fattore importante in ciò che stiamo vedendo.
Ma corriamo veramente il rischio di commettere gli stessi errori con la mitigazione del cambiamento climatico che sono stati fatti con il tentativo di appiattire la curva durante l'epidemia di Covid-19? Ossia, rischiamo di sconvolgere il tessuto sociale per un rischio sopravvalutato o per l'errata attribuzione delle cause del problema? Improbabile, e, in ogni caso, il lockdown da Covid non ha avuto praticamente nessun effetto climatico -- proprio come non ne ha avuti sulla diffusione del virus. Insistere con una misura che è stata dimostrata doppiamente inefficace vorrebbe dire raggiungere un grado di pubblica imbecillità anche superiore a quello della media degli esperti televisivi degli ultimi tempi.
Ma comunque vada bisogna mantenere un atteggiamento aperto e accettare che, con i nuovi dati, i modelli debbano cambiare (che è esattamente quello che non è stato fatto con l'epidemia di Covid). L'unica cosa certa è che i disastri sono inevitabili se i sistemi complessi sono lasciati ai politici da gestire.
Un contributo di Saverio Aiolfi. Come personale commento, mi trovo in queste settimane intento a traslocare in una casa costruita nel '700. Con dei muri in pietra spessi 30 centimetri, questa vecchia magione ha una inerzia termica gigantesca, è un po' l'antitesi di quella di legno che descrive Aiolfi. Entrambe richiedono un certo adattamento alle condizioni climatiche esterne. entrambe hanno una loro logica che è il risultato di secoli di evoluzione. Sono molto diverse dalle case di oggi, pensate più come astronavi che isolano gli abitanti dai cambiamenti esterni. E spesso isolano troppo. Sono delle trappole mortali che trattengono tutti i veleni prodotti all'interno, come pure l'umidità. Insomma, più andiamo avanti, più facciamo errori. Ma leggetevi questa storia raccontata da Aiolfi. Certe volte si riesce anche a rimediare.
Mi chiamo Saverio Aiolfi e abito nella bassa
parmense, precisamente a Carzeto di Soragna.
Nell'ormai lontano 2006 ho deciso di dare vita
al mio sogno di trasferirmi in campagna e costruire una casa che fosse il più
possibile ecologica ma anche più economica di una casa in muratura (è sempre
stata una mia convinzione, e lo è tutt'ora, che l'ecologia non deve essere una
cosa per ricchi).
Ho quindi comprato un vecchio rustico da
abbattere con un po' di terra intorno e ho iniziato a studiare il mondo delle
case in bioedilizia.
Fin dall'inizio mi sono reso conto di quanto
fosse una giungla quel mondo, tra metodi diversi di costruzione, materiali
diversi utilizzati, prezzi molto più alti di quelli che mi aspettassi, e
tantissimo marketing che fa leva sulla forma cercando di nascondere la
sostanza.
Mi sono concentrato sulle case in legno, che
ritengo essere la risorsa rinnovabile per eccellenza per realizzare edifici
abitativi, e dopo quasi due anni di studi e più di venti preventivi chiesti
sono riuscito a trovare una soluzione con un rapporto qualità/prezzo tra i
migliori sul mercato e soprattutto con un costo inferiore ad una casa
tradizionale (considerando i prezzi di costruzione della mia zona).
Purtroppo anche in questo settore come in
praticamente tutti gli altri il marketing la fa da padrone, e questo porta
troppo spesso a fare scelte che poi si rivelano sbagliate o non ottimali.
L'unico modo per non farsi fregare dal marketing è metterci il tempo e
l'impegno necessario per acquisire le competenze che servono a fare le scelte
giuste, o quantomeno a ridurre gli errori il più possibile. Purtroppo la
maggior parte delle persone non ha né il tempo né la voglia (e a volte nemmeno
la capacità) di approfondire un determinato argomento ad un livello tale da
diventare un piccolo esperto in materia, ma in seguito questa superficialità si
paga in maniera spesso irreparabile.
Come metodo di costruzione ho scelto la
blockhaus, in modo tale da avere tutte le pareti perimetrali portanti fatte da
travi di legno bilamellare (dieci centimetri di spessore, e il fatto che sia
bilamellare conferisce maggiore resistenza e stabilità alla casa rispetto al
“vecchio” tronco singolo), poi chiaramente c'è anche la coibentazione (fibra di
legno, altri dieci centimetri di spessore) e il rivestimento interno in
perlinato. Il legno è padrone assoluto.
Questo tipo di parete, assieme al tetto
coibentato allo stesso modo e ventilato, permette di ottenere un edificio in
classe energetica A1.
Le pareti fatte in questo modo sono inoltre
naturalmente traspiranti, il che non solo garantisce un ottimo comfort
abitativo, ma impedisce anche la formazione di ristagni di umidità e quindi di
muffe.
In pratica viene coniugato un metodo di
fabbricazione antico con i progressi della tecnologia per ottenere dal legno il
meglio come materiale da costruzione.
A volte mi capita di parlare con persone che mi
dicono di aver fatto anche loro una casa ecologica e ad alta prestazione
energetica, poi quando chiedo informazioni sulla tipologia scelta c'è quasi
sempre da mettersi le mani nei capelli.
Sono quasi tutte case “all'americana”, con una
sottile intelaiatura in legno che fa da struttura portante e poi tutto il resto
sono materiali isolanti (la maggior parte delle volte di bassa qualità e non
certo ecologici come polistirene, lana di vetro, lana di roccia) e rivestimenti
in cartongesso o intonaci sigillanti che rendono la casa una scatola che non
respira.
Io le chiamo “le case di cartapesta”.
Gli unici reali vantaggi sono i bassi consumi e
l'elevata classificazione energetica (da B in su). Purtroppo i mass media
parlano solo di questi ultimi aspetti dato che sono quelli a più alto impatto
emotivo e di maggiore facilità comunicativa tralasciando totalmente gli aspetti
più tecnici; la gente si ferma alla superficie e il marketing ha gioco facile
nel vendere delle case che sono destinate a durare pochi decenni e poi devono
essere demolite.
Io ho preferito pensare al futuro, non solo mio
ma anche di chi verrà dopo di me.
Tornando a noi, nell'estate del 2009 è iniziata
la costruzione, e pochi mesi dopo ero già nella mia nuova casa, quindi i tempi
di costruzione sono stati brevissimi.
Oltre ad essere al 100% ecologica è anche al
100% elettrica, alimentata da pannelli fotovoltaici e con impianto di
riscaldamento / raffrescamento / acqua calda sanitaria a pompa di calore.
In quegli anni praticamente nessuno progettava
case unendo tutti questi elementi, e le persone con cui ne parlavo facevano
facce molto perplesse mentre ascoltavano il mio racconto. Alcuni hanno anche
cercato di dissuadermi sottolineando i rischi di andare incontro all'ignoto
facendo cose che quasi nessuno faceva, però le idee in testa erano chiare e
soprattutto supportate da una conoscenza approfondita della materia. E poi
nella mia vita ho sempre fatto scelte controcorrente.
I vantaggi si sono visti fin da subito, e vanno
ben oltre la soddisfazione di aver costruito qualcosa di totalmente ecologico e
alimentato solo con energia rinnovabile.
La spesa annua per l'energia ammonta in media a
200 euro, quindi praticamente niente. Il conteggio è fatto considerando sia
quello che spendo per prelevare dalla rete elettrica nazionale l'energia che mi
serve quando i pannelli non producono, sia quello che ricavo immettendo nella
rete l'energia che non uso quando i pannelli producono più di quello che mi
serve.
Considerando che produco in media sette
megawatt all'anno e ne consumo in media circa 5 e mezzo, dovrei in realtà
essere in guadagno, ma purtroppo lo scambio sul posto non è un reale scambio:
ciò che immetto in rete mi viene pagato in base al PUN (prezzo unico
nazionale), vale a dire che mi viene pagata solo l'energia, mentre io in
bolletta pago anche tutti i costi accessori, da qui la differenza.
Negli ultimi anni si stanno diffondendo le
batterie di accumulo per immagazzinare l'energia prodotta dai pannelli e non
usata in tempo reale. Personalmente credo che al momento (anno 2023) siano
troppo costose e poco performanti e che quindi nonostante tutto sia ancora più
conveniente rimanere allacciati alla rete elettrica nazionale, ma sono
fiducioso che nei prossimi anni la tecnologia renderà conveniente anche la
totale indipendenza energetica, se non altro per singole abitazioni o piccoli
gruppi di esse.
Il comfort abitativo è nettamente migliore
rispetto alle case in muratura, sia perché la parete traspirante fa in modo che
l'umidità dentro casa si senta molto meno (grande vantaggio in pianura padana),
sia perché viene trasmessa l'impressione di vivere dentro alla natura e non in
un involucro artificiale.
La casa è inoltre naturalmente antisismica, per
come è costruita. Questo aspetto non viene mai considerato perché si pensa che
i terremoti tanto in pianura non ci sono, oltre al fatto che costruire
antisismico costa tantissimo e quindi si scarta a prescindere; qui invece è
tutto compreso nel prezzo.
In definitiva devo dire che fare una casa di
questo tipo è stata una delle decisioni migliori che ho preso nella mia vita.
Per ulteriori approfondimenti si può leggere il
blog https://laveracasadilegno.wordpress.com/
nel quale ho caricato tantissime foto e raccontato molti più dettagli in vari
articoli.
Negli anni ho inoltre continuato a tenermi
aggiornato sulla materia e di conseguenza esperienza e competenze sono
aumentate e migliorate, tanto che oggi potrei realizzare qualcosa di ancora
migliore.