Visualizzazione dei post in ordine di pertinenza per la query effetto seneca. Ordina per data Mostra tutti i post
Visualizzazione dei post in ordine di pertinenza per la query effetto seneca. Ordina per data Mostra tutti i post

venerdì 1 gennaio 2016

2015: l'anno che ha cambiato tutto?

Da “Cassandra's Legacy”. Traduzione di MR


Recenti incendi in California, foto da the Independent 

Certo che nel 2015 non sono mancati i disastri. Alcuni possono essere classificati come “naturali”, altri come causati dall'uomo. In tutti i casi, comunque, sono un'indicazione dello stress percepito dall'ecosistema e dal sistema economico allo stesso tempo. Stiamo raggiungendo, infine, i nostri limiti, come sapevamo che avremmo dovuto dal momento in cui siamo stati avvertiti, nel 1972, dallo studio intitolato “I Limiti della Crescita”.

giovedì 10 novembre 2011

La barriera di Hubbert: ripensare al paradosso di Fermi


Traduzione da Cassandra's Legacy a cura di Massimiliano Rupalti

L'astronave "Orion" è spinta in avanti dalla detonazione di bombe nucleari. E' un concetto proposto negli anni '50 come un modo per raggiungere i pianeti del sistema solare in pochi giorni ed altre stelle in pochi anni. Astonavi del genere sono teoricamente possibili ma, con la quantità di energia di cui disponiamo oggi, è dura pensare che possiamo assemblare abbastanza risorse per costruire una flotta di astronavi interstellari. Al contrario, potremmo star scivolando giù dall'altra parte della curva di Hubbert e potremmo dover abbandonare ogni sogno di esplorazione spaziale. Potrebbero civiltà extraterrestri far meglio di noi? Forse no. E' possibile che ogni civiltà industriale basata su risorse non rinnovabili affronterebbe lo stesso problema che stiamo affrontando noi: il collasso generato dall'esaurimento. Possiamo chiamarlo “la barriera di Hubbert”.

Quando ho cominciato a leggere libri di astronomia, negli anni 60, nessuno sapeva se esistessero pianeti intorno ad altre stelle e la visione comune era che fossero molto rari. Naturalmente, questo contrastava con il tema principale della fantascienza del tempo, di cui ero pure un avido lettore. L'idea che i sistemi planetari fossero comuni nella galassia era molto più affascinante di quella “ufficiale” ma , a quel tempo, sembrava essere pura fantasia. Ma ora viene fuori che la fantascienza aveva assolutamente ragione, almeno su un punto. Stiamo scoprendo centinaia di pianeti in orbita intorno a stelle e le ultime notizie sono che una stella di classe analoga al sole su tre potrebbe avere un pianeta simile alla Terra in orbita abitabile. Fantastico!

Le misurazioni che ci riportano di pianeti extra-solari non possono dirci nulla di civiltà aliene, un altro tema tipico della fantascienza. Ma se i pianeti simili alla Terra sono comuni nella galassia, di conseguenza forma di vita a base carbonio, organiche, potrebbe essere altrettanto comuni. E se la vita è comune, la vita intelligente non può essere tanto rara. E se la vita intelligente non è rara, allora devono esserci civiltà aliene là fuori. Con 100 miliardi di stelle nella nostra galassia, potremmo pensare che anche su questo punto la fantascienza potrebbe aver avuto ragione. Potrebbe la galassia essere popolata da civiltà aliene?

Qui, tuttavia, abbiamo un problema ben noto chiamato “il Paradosso di Fermi”. Se tutte quelle civiltà esistono, potrebbero aver sviluppato il viaggio interstellare? E, in questo caso, se ce ne sono così tante, perché non sono qui? Naturalmente, per tutto ciò che sappiamo la velocità della luce rimane un barriera insormontabile. Ma, anche a velocità inferiori a quella della luce, niente di fisico impedisce ad una nave spaziale di attraversare da parte a parte la galassia in un milione di anni o anche meno. Siccome la nostra galassia ha più di 10 miliardi di anni, alieni intelligenti avrebbero avuto un sacco di tempo per esplorare e colonizzare ogni stella della galassia, saltando da una all'altra. Ma non vediamo alieni qua intorno e questo è il paradosso. La conseguenza sembra essere che siamo gli unici esseri senzienti della galassia, forse nell'intero Universo. Così, sembriamo tornare a certi vecchi modelli del sistema solare che ci dicono che siamo eccezionali. Una volta, ci dicevano che siamo eccezionali perché i pianeti sono rari, ora potrebbero dircelo perché le civiltà sono rare. Ma perché?

Su questo punto dovremmo rivedere alcuni presupposti stanno dietro al paradosso di Fermi. Quello di base è che esistono civiltà intelligenti, naturalmente, ma ce n'è un altro che dice che le civiltà si muovono su un sentiero di espansione progressiva che porta verso il controllo di livelli di energia sempre più alti. Se ci pensate, questo è un tipico risultato del modo di pensare degli anni 50, quando “l'era atomica” era appena iniziata e la gente vedeva come ovvio che saremmo saltati da una fonte energetica all'altra. Avremmo lasciato presto i combustibili fossili per la fissione nucleare. Da lì ci saremmo spostati alla fusione nucleare e poi chissà verso quale altra fonte. Questa progressione è cruciale perché il paradosso di Fermi abbia senso: naturalmente serve un'enorme quantità di energia per imbarcarsi in una gigantesca impresa come quella di esplorare lo spazio e le civiltà interstellari.

Una stima della quantità minima di potenza è di circa 1000 Terawatts (TW) come ordine di grandezza. E' solo una supposizione, ma ha una qualche logica. La potenza complessiva installata oggi sul nostro pianeta è sull'ordine dei 15 TW ed il massimo che potremmo fare sarebbe esplorare i pianeti del nostro sistema solare ed anche quello piuttosto sporadicamente.  Così, il paradosso di Fermi richiede che le civiltà aliene seguano più o meno la stessa strada tracciata per noi negli anni 50. Sarebbero partite dai combustibili fossili, poi sarebbero passati a varie forme di energia nucleare.

Fino a un certo punto, non è male come modello. E' probabile che pianeti “simili alla Terra” o “superterre” avessero una tettonica a placche attiva e, se si fosse sviluppata la vita, questo avrebbe portato alla formazione di combustibili fossili come risultato della sedimentazione ed il seppellimento di materia organica. Quindi, potremmo presumere che gli alieni intelligenti operino secondo principi economici simili a quelli che governano il nostro comportamento, vale a dire che tenderebbero ad usare le risorse col più alto rendimento energetico e quindi userebbero combustibili fossili come inizio della loro civiltà industriale.

I combustibili fossili, tuttavia, sono una fonte energetica debole e troppo inquinante per essere usata per il viaggio interstellare. Un pianeta extrasolare potrebbe ben esserne maggiormente dotato dei nostri, ma ciò non aiuterebbe. I limiti per i nostri alieni sarebbero gli stessi che abbiamo noi: che sia l'esaurimento o la saturazione dell'atmosfera di gas serra (forse entrambi). Ma il limite dei combustibili fossili è più sottile di questo ed è in relazione al modello di Hubbert che dice che il modello della produzione di energia di una risorsa non rinnovabile è assolutamente non lineare e segue una curva “a campana”.



Il modello è basato sul concetto che lacrescita della produzione di energia dipende dal rendimento energetico della risorsa (EROEI, energy returned on energy invested). Più l'EROEI è alto, più rapidamente la risorsa è sfruttata. Siccome le migliori risorse (con l'EROEI più alto) sono sfruttate per prime, l'EROEI declinano ed alla fine condizionano la capacità di estrarre ulteriori risorse. La produzione raggiunge un picco e poi declina. Il risultato è la tipica curva a campana di Hubbert. Se, in aggiunta, la risorsa sfruttata produce un inquinamento significativo, il declino sarà solitamente più rapido della crescita, ovvero la curva sarà asimmetrica ed inclinata in avanti (ciò che ho chiamato “effetto Seneca”). La curva è valida per tutte le risorse non rinnovabili, anche se è più spesso applicata ai combustibili fossili.

Tim O'Reilly potrebbe essere stato il primo a notare, nel 2008, che la curva di Hubbert potrebbe essere rilevante per il paradosso di Fermi. A causa della non linearità della curva, non importa quali risorse vengano usate, una civiltà letteralmente “divampa” e poi scompare, essendo capace di mantenere il massimo livello di produzione di energia per un periodo molto breve. Questo fenomeno, che possiamo chiamare “la Barriera di Hubbert”, potrebbe essere generalizzato e far sì che le civiltà industriali nella galassia abbiano vita molto breve. Il declino associato con l'esaurimento e con l'inquinamento, potrebbero rapidamente riportare una civiltà all'età della pietra, da cui non sarebbe più in grado di sviluppare ancora una tecnologia sofisticata. Questo è una barriera particolarmente ostica se si attiva l'effetto Seneca (forse potemmo chiamarla “la barriera di Seneca”). In ogni caso, questo effetto limita fortemente la durata di una civiltà.

Notate come questo modello sia differente dalla visione degli anni 50. Negli anni 50, credevamo in una espansione continua della produzione di energia; “saltellare” da una fonte all'altra era visto come un processo graduale. Ma il modello di Hubbert dice che saltare ad una nuova fonte energetica è invece un drammatico ostacolo ed il successo non è in alcun modo garantito. Potremmo aver fallito nel nostro tentativo di saltare al “livello successivo”, visto come fissione nucleare. Con il declino dei combustibili fossili, potrebbe essere troppo tardi per raccogliere sufficienti risorse da investire nell'energia nucleare. Alieni intelligenti potrebbero far meglio di noi nel raccogliere le risorse, ma la barriera di Hubbert rimane un grosso problema. Un problema con l'energia nucleare è che questa produce una forma particolarmente disastrosa di inquinamento: la guerra nucleare. La possibilità che civiltà aliene si autodistruggano regolarmente quando approdino all'era atomica è qualcosa che Asimov stesso propose nel suo breve racconto “Gli avvoltoi gentili”. Ma, supponiamo che non accada. Può la fissione nucleare fornire sufficiente energia per il viaggio interstellare? Molto probabilmente no.

L'uranio ed il torio, elementi fissili, sono estremamente rari nell'Universo. Da quello che sappiamo, si sono accumulati a livelli tali da fornire un buon EROEI solo nei pianeti simili alla Terra che hanno un'attività tettonica a placche. In corpi celesti come la Luna e gli asteroidi, l'uranio esiste in quantità estremamente piccole, dell'ordine di parti per miliardo e questo rende l'estrazione un'impresa impossibile. E' improbabile che un pianeta roccioso alieno possa avere molto più uranio del nostro. Così, facciamo un rapido calcolo. Oggi, la fissione nucleare genera una potenza di circa 0,3 TW sul nostro pianeta. Abbiamo detto che per espanderci nella galassia abbiamo bisogno di qualcosa nell'ordine dei 1000 TW. Questo è un obbiettivo lontano per noi, considerando che con le limitate risorse di uranio disponibili non siamo nemmeno sicuri che saremo in grado di mantenere attiva l'attuale flotta di reattori nucleari nei prossimi anni. Ma, assumendo miglioramenti tecnologici, una stima ottimistica ci dice che, con reattori autofertilizzanti, le risorse di uranio minerale potrebbero durare "30,000 anni" al tasso di consumo attuale. Forse, ma se dovessimo raggiungere i 1000 TW, finiremmo l'uranio in 10 anni. Questo numero ci dà una stima grezza del lasso di tempo che una civiltà può sostenere con una potenza abbastanza grande da premettere il viaggio nello spazio interstellare: decine o forse centinaia di anni ma non di più. Civiltà del genere, all'inizio, generano un grande picco di produzione di energia ma poi ci dovrebbe essere un rapido declino fino allo zero per mancanza di risorse combustibili. E' ancora la barriera di Hubbert in azione.

Eccoci quindi alla fusione nucleare, la bandiera dell'Era Atomica. La fusione può usare isotopi di idrogeno e l'idrogeno è l'elemento più abbondante dell'Universo. L'idea comune negli anni 50, era che con la fusione avremmo avuto energia “troppo a buon mercato da essere misurata”, così abbondante da poter passare fine settimana sulla Luna con l'intera famiglia. Be', le cose sono risultate essere molto più difficili di quanto sembrassero. In più di mezzo secolo di tentativi, non siamo stati capaci di ottenere più energia dalla fusione di quanta non ne avessimo impiegata per attivarla. Anche le “bombe a fusione” sono in realtà bombe a fissione migliorate da una fusione. Forse c'è qualche trucco che ora non riusciamo a vedere per far funzionare la fusione; forse siamo solo più stupidi della media delle civiltà della galassia. Potremmo anche affermare, tuttavia, che non si può ottenere dalla fusione un guadagno energetico, fatta eccezione per le stelle. Naturalmente, non possiamo esserne certi, ma il paradosso di Fermi potrebbe in realtà dirci, “guardate, la fusione nucleare controllata NON è possibile”:

Naturalmente, ci sono altre possibilità per una civiltà di sviluppare potenti fonti energetiche. Pensate ai buchi neri, per esempio. Se potete controllare un piccolo buco nero, gettarci dentro qualsiasi cosa genererà molta energia che potrebbe essere usata per il viaggio interstellare. I buchi neri sono molto difficili da controllare ed una civiltà che usi questa tecnologia potrebbe trovarsi di fronte al problema di inquinamento definitivo: la creazione di un buco nero grande abbastanza da risucchiare qualsiasi cosa intorno a lui, compresa la civiltà che l'ha creato. In ogni caso, anche i buchi neri sono soggetti alla Barriera di Hubbert, se continui a buttarci dentro materia, pian piano la esaurirai. Una civiltà basata sui buchi neri potrebbe divampare molto rapidamente per poi scomparire, lasciando solo un po' di buchi neri orbitanti.

Chiaramente, stiamo entrando in un reame di speculazioni, ma il punto che volevo rilevare con questo post è che il meccanismo di Hubbert genera un tempo di vita breve per le civiltà basate su risorse non rinnovabili. Genera anche problemi drammatici nel passaggio da una risorsa all'altra. Se questo è un comportamento generale per le civiltà, potrebbe spiegare il paradosso di Fermi. Gli esseri senzienti potrebbero essere comuni nella nostra galassia, ma la loro esistenza come civiltà industriale potrebbe essere estremamente breve. Così, non dovremmo essere sorpresi di non vedere astronavi aliene che girano intorno a noi. Forse avremo la fortuna di captare un segnale radio da una di queste civiltà, ma sarà come avvistare un'altra nave attraversando l'oceano. Ci sono tantissime navi che attraversano l'oceano, ma prendete un momento preciso ed un luogo specifico ed è molto improbabile che una sia visibile da lì.

Alla fine dei conti, la fonte energetica disponibile per una civiltà planetaria è limitata da ciò che può essere ottenuto dal sole del pianeta. Potrebbe essere molto: sulla Terra la quantità totale che vi arriva è di circa 100.000 TW che potrebbe essere aumentata con installazioni spaziali. Con questa risorsa, sarebbe perfettamente possibile arrivare a quei 1000 TW che abbiamo detto essere necessari per il viaggio interstellare. Ma siamo arrivati ad un concetto completamente diverso da quello che sta alla base del paradosso di Fermi: l'idea, tipica degli anni 50, che una civiltà continui ad espandersi sempre. Una civiltà basata su una fonte fissa di energia, una stella, potrebbe ragionare e comportarsi in termini completamente diversi. Si potrebbe concentrare sullo sfruttamento della stella (questo è il concetto della sfera di Dyson) piuttosto che sul viaggio interstellare.

Appena ci allontaniamo dalle cose che ci sono familiari, ci ritroviamo in un territorio sconosciuto. Come si manifesterebbe una civiltà con un simile potere? Qual è l'Universo che possiamo definire “naturale” in opposizione ad uno “artificiale”. L'unica cosa che possiamo dire è che le stelle sono dei motori meravigliosi: stabili, potenti, affidabili e di lunga durata. Se non fossero naturali, qualcuno avrebbe dovuto inventarle.... ma, naturalmente, sono naturali....sì...credo che lo siano..... .


Nota aggiunta dopo la pubblicazione: ho scoperto che John Greer ha esaminato questo argomento in termini analoghi nel 2007, (h/t Leanan)

venerdì 2 dicembre 2022

Il grafico più impressionante del ventunesimo secolo: L'impero colpisce ancora!

 Domenica 27 novembre 2022


Nel 1956, Marion King Hubbert aveva previsto che la produzione di petrolio degli Stati Uniti avrebbe seguito una curva "a campana", iniziando un declino irreversibile intorno al 1970. Aveva sostanzialmente ragione ma, intorno al 2010, la curva di produzione ha ripreso a crescere. Questo brusco rimbalzo è stato un evento sorprendente che ha riportato gli Stati Uniti al ruolo di maggior produttore mondiale di greggio e a diventare sensibilmente più aggressivi in termini geopolitici. Sostenuto dalla sua grande produzione di petrolio, l'Impero sta tornando a colpire, ma per quanto tempo? (immagine di Paul Kedrosky)


Anni fa, James Schlesinger ha osservato che gli esseri umani hanno solo due modalità operative: la compiacenza e il panico. È un'osservazione che suona vera e che possiamo generalizzare in termini di gruppi: alcuni esseri umani sono catastrofisti e altri cornucopiani. Io tendo a schierarmi con i catastrofisti, al punto che ho creato il termine"effetto Seneca" o "precipizio di Seneca" per definire il rapido declino che si verifica dopo l'arresto della crescita. In effetti, le catastrofi sono un evento comune nella storia umana, ma è anche vero che a volte (raramente) un declino catastrofico può essere invertito: ho chiamato questo effetto il "Rimbalzo di Seneca".


Un esempio impressionante di rimbalzo è rappresentato dalla storia della produzione petrolifera statunitense. Probabilmente sapete che nel 1956 Marion King Hubbert propose la sua idea della curva "a campana". La sua previsione si rivelò approssimativamente corretta: la produzione petrolifera statunitense iniziò a diminuire dopo il picco del 1970, seguendo una traiettoria che sembrava irreversibile. All'inizio degli anni 2000, dopo quasi 40 anni di declino, nessun geologo sano di mente avrebbe detto che il declino poteva essere fermato, per non dire invertito. Non si trattava di essere catastrofisti o cornucopiani: i membri di entrambe le categorie erano normalmente d'accordo sul fatto che estrarre grandi quantità di petrolio da fonti "non convenzionali" era semplicemente impensabile in termini economici.

Poi è successo qualcosa che ha cambiato tutto. Ci sono voluti alcuni anni prima che la nuova tendenza fosse chiara ma, a metà degli anni 2010, non poteva più essere ignorata. Nel 2018, la produzione statunitense era tornata ai livelli del picco del 1970. Nel 2019 lo ha superato e ha continuato a crescere. La produzione di gas naturale ha seguito la stessa tendenza, salendo rapidamente a livelli mai visti prima. Nel 2020, la crisi del Covid ha causato un nuovo calo della produzione, attualmente solo parzialmente recuperato. Ma lasciamo perdere il Covid, per il momento. Cosa è successo per cambiare così tanto le cose nell'industria petrolifera statunitense?

Probabilmente sapete che la causa ha un nome e una storia: si chiama "tight oil" o"shale oil", ("petrolio di scisto") estratto tramite "fracking". Di per sé, non è nulla di particolarmente nuovo, il concetto era già noto negli anni 1930. L'idea è quella di utilizzare l'alta pressione per fratturare la roccia che contiene il petrolio. In questo modo il liquido può fluire in superficie. Il problema del fracking è che è costoso. Tanto che si dice comunemente che fino ad oggi nessuno ci abbia guadagnato. Nel 2017, un'analisi del Wall Street Journal è arrivata alla conclusione che, dal 2007, "le compagnie energetiche hanno speso 280 miliardi di dollari in più di quanto hanno generato dalle operazioni sugli investimenti nello scisto". Altri analisti hanno espresso gli stessi concetti: si può estrarre petrolio dagli scisti, ma non aspettatevi di farci soldi sopra. Allora, perché si insiste a buttare denaro buono dentro pozzi cattivi?

Ci sono buone ragioni. Quelli che hanno scartato la possibilità di estrarre il tight oil erano perfettamente in grado di valutare la convenienza economica del processo, ma non hanno considerato che il "mercato" è un'astrazione che non funziona sempre, anzi, non funziona quasi mai. Quindi, le entità finanziarie che forniscono denaro per l'esplorazione petrolifera fanno parte di un mix di interessi che comprende l'industria petrolifera, l'industria aerospaziale, l'industria militare e altri. Questo mix è ciò che tiene in vita l'economia statunitense. Ma non ci sarebbero industrie aerospaziali o militari se l'industria petrolifera non fosse in grado di produrre petrolio in abbondanza.

È impossibile dire come sia stata presa la decisione di riversare immense quantità di denaro nel tight oil. Forse è stata una decisione strategica presa dalla lobby militare del governo statunitense (si può anche notare una curiosità: perché gli Stati Uniti sono stati l'unico Paese a investire nell'estrazione di shale oil? Dopo tutto, ci sono giacimenti di petrolio di scisto in molti altri Paesi. Mi viene in mente una spiegazione, ma lascio ai commentatori il compito di tirar fuori teorie cospirazioniste). O forse, la lobby finanziaria si è resa conto di poter sopravvivere alle perdite dei propri investimenti nel petrolio se questi investimenti mantenevano altri settori dell'economia in grado di generare profitti. O, forse anche, è stata una decisione collettiva nata dal grande panico del 2008, quando il prezzo del petrolio è schizzato a 150 dollari al barile. Quell'evento ha spaventato tutti a sufficienza da convincere alcuni dei protagonisti che investire nel petrolio era una buona idea. In ogni caso, con il secondo decennio del XXI secolo, il mondo è cambiato.




L'immagine qui sopra è di Michael Roscoe. Non è aggiornata agli ultimi livelli di produzione di petrolio, ma mostra come gli Stati Uniti abbiano dominato il mercato petrolifero (e il mondo) fino agli anni Sessanta. Per un certo periodo sono stati sfidati dalla Russia e dall'Arabia Saudita, ma ora gli Stati Uniti stanno tornando al comando. Come tutti i sistemi complessi, l'impero americano dipende dall'afflusso di energia dall'esterno. Non sorprende quindi che l'impero stia ritornando a colpire!


Una delle conseguenze visibili del ritorno dell'Impero è l'abbandono dell'Afghanistan, che aveva invaso 20 anni fa alla ricerca di nuove risorse petrolifere in Asia centrale. Queste risorse si sono rivelate evanescenti, forse inesistenti, ma gli Stati Uniti hanno insistito ostinatamente per rimanere nell'area. Poi, con il tight oil, i poteri forti si sono resi conto che gli Stati Uniti non avevano più bisogno di quelle risorse. E che potevano concentrarsi su obiettivi più succosi, muovendosi in modo aggressivo per spingere il suo principale concorrente, la Russia, fuori dal mercato europeo del gas. Gli Stati Uniti si stanno comportando in modo aggressivo anche nei confronti della Cina, che considerano giustamente il loro principale concorrente a lungo termine. Se questo porterà a una guerra ancora peggiore di quella che è in corso è tutto da vedere. Ma è l'energia che rende possibili le guerre.

Ma quanto durerà l'abbondanza creata dagli scisti? Come sempre, il futuro è oscuro, ma non del tutto. Il petrolio di scisto rimane una risorsa limitata, per quanto spesso si senta dire che ci regalerà secoli di prosperità o addirittura che la tecnologia lo ha reso illimitato. Dopo lo tsunami del Covid, la produzione di shale oil ha ripreso a crescere, ma non ha ancora raggiunto il livello del 2019. Inoltre, la sua crescita sta chiaramente rallentando, mentre l'Impero sta affrontando nuovi vincoli in termini di risorse sovrasfruttate: terra, acqua, cibo, suolo fertile e altro ancora.


Il tight oil raggiungerà di nuovo un picco e, questa volta, per sempre? Non possiamo dirlo. Possiamo solo dire che l'impero americano sta seguendo il flusso e il riflusso delle risorse che lo fanno esistere. Questo è il potere dell'energia, e gli imperi non sono che schiavi delle forze che governano l'universo!


 

mercoledì 21 gennaio 2015

Un dirupo di Seneca in divenire: gli elefanti africani sull'orlo dell'estinzione

Da “Resource Crisis”. Traduzione di MR

Di Ugo Bardi





Il grafico sopra è riferito agli effetti della caccia di frodo agli elefanti africani. Proviene da un saggio recente di Wittemyer et al.  

Una volta che si è dato un nome ad un fenomeno e comprese le sue cause, lo si può usare come guida alla comprensione di molte altre cose. Così, il concetto di “dirupo di Seneca” ci racconta che l'eccessivo sfruttamento di risorse naturali porta spesso ad un declino improvviso che, spesso, prende le persone di sorpresa. Nel caso delle risorse biologiche, come la pesca, il declino potrebbe essere così rapido ed incontrollabile da portare all'estinzione o alla quasi estinzione delle specie sfruttate. E' successo, per esempio, con le balene nel XIX secolo e con il merluzzo dell'Atlantico.

Se si tengono in mente questi esempi storici, si possono esaminare altri casi e identificare possibili dirupi di Seneca in corso. Un caso del genere è il commercio d'avorio dalla caccia agli elefanti africani. Se si guardano i grafici sopra (da un articolo recente), si vede che la massa d'avorio sequestrata ha mostrato un aumento considerevole a partire circa dal 2008. Ha raggiunto il picco nel 2011, poi ha declinato. Probabilmente possiamo prendere questi numeri come “proxy” del numero di elefanti africani uccisi – che è visibile anche come linea rossa nel box superiore.

Ciò è molto preoccupante, perché se le uccisioni declinano potrebbe essere proprio perché ci sono meno elefanti ancora da uccidere – proprio come le catture dell'industria ittica tendono a declinare quando le riserve di pesce sono esaurite. Considerando quanto improvvisamente accadano le cose (“Effetto Seneca”), allora potremmo assistere ad una tendenza analoga per gli elefanti africani: cioè, il preludio di un collasso improvviso del loro numero. Considerando che gli elefanti sono grossi e si riproducono lentamente, questo potrebbe davvero portare alla loro estinzione.

Su questo tema, gli autori dell'articolo sembrano a loro volta essere molto preoccupati. Il titolo, di per sé, dice tutto: “La caccia illegale per l'avorio porta un declino globale degli elefanti africani”. Nel testo possiamo leggere, fra le altre cose, che:

La popolazione [di elefanti africani] è stata soggetta a tassi insostenibili di uccisioni illegali fra il 2009 e il 2012, salendo da una media dello 0,6%; (SF = 0.4%) fra il 1998 e il 2008 ad un massimo del 8% nel 2011 (Fig. 1). Le uccisioni illegali annuali di elefanti fra la popolazione Sambury (1988-2008) con una stima aggregata del 20,8% degli elefanti conosciuti uccisi illegalmente durante un periodo di 4 anni...  tassi di uccisioni illegali  sono state fortemente correlate ai prezzi dell'avorio al mercato nero nell'ecosistema di Sambury... In conseguenza di queste uccisioni illegali, la popolazione soffre attualmente della presenza di pochi maschi in giovane età, rrapporti sessuali fortemente diminuiti  e distruzione sociale sotto forma di alcune famiglie collassate e di aumento del numero di orfani (elefanti immaturi senza un genitore).

Perderemo per sempre gli elefanti? Ora non possiamo dirlo con certezza, ma quando sarà chiaro che sta avvenendo, probabilmente sarà troppo tardi per farci qualcosa. Non suona familiare?

venerdì 13 aprile 2018

Qualche Osservazione su "L'Effetto Seneca" - di Roberto Peccei. Parte II


Seconda parte della presentazione di Roberto Peccei sul libro di Ugo Bardi, "The Seneca Effect" a Firenze il 5 Aprile 2018 (prima parte)


Come molti di voi sapete, il Club di Roma, che fu fondato 50 anni fa da mio padre Aurelio Peccei e da Alexander King, ha come missione quella di capire meglio le sfide a lungo termine che l’umanita deve affrontare e di cercare delle soluzioni olistiche per il mondo. Il libro di Bardi, con la sua analisi di sistemi dinamici sociali, soddisfa mirabilmente questi obbiettivi. Per questo, nel resto del mio intervento mi soffermero sul Club di Roma e specialmente l’importanza di esaminare le caratteristiche dei sistemi dinamici nel mondo seguendo le grandi linee che Bardi traccia nel suo libro.

Il Club di Roma pubblica i suoi risultati in Rapporti al Club di Roma e, dalla sua fondazione, ha pubblicato circa 40 rapporti riguardanti il futuro dell’umanita. Forse il piu’ famoso di questi rapporti e’ il primo rapporto al Club di Roma, lo studio del 1972 di Donella Meadows, Dennis Meadows, Jorgen Randers e William Behrens fatto al MIT che porto’ al libro The Limits to Growth. Questo rapporto mostrava, usando metodi dei sistemi dinamici e simolazioni al computer, che la continua crescita economica e quella della popolazione mondiale, se continuano cosi alla fine porteranno a un overshoot e all’eventuale collasso del sistema. Tutti i rapporti al Club di Roma negli ultimi 50 anni hanno contribuito a chiarire e amplificare il messaggio di The Limits to Growth e quello del Club di Roma. Il rapporto di Ugo Bardi, con il suo focus sui sistemi dinamici e l’ubiquita’ del collasso in questi sistemi, e un aggiunta particolarmente importante.

Il modello utilizzato dagli autori di The Limits to Growth nel loro studio è un'elaborazione del modello originale sviluppato da Jay Forrester, chiamato abbastanza naturalmente World 1). Il modello esamina il comportamento del sistema mondiale derivante dall'interazione tra lo sviluppo economico, la popolazione in crescita e l'ambiente del pianeta. Come spiega Bardi nel suo libro, il modello di Forrester assume cinque elementi dinamici principali per descrivere il sistema mondiale.

Questi 5 parametri sono:

  1. popolazione;
  2. cibo;
  3. produzione industriale;
  4. risorse
  5. inquinamento.

Questi parametri sono tutti correlati tra loro e ci sono numerosi meccanismi di feedback. Ad esempio, più cresce la produzione industriale, più le risorse vengono consumate e più inquinamento si produce. Più la popolazione cresce, maggiore è la necessità di cibo e di produzione industriale. Tuttavia, l'inquinamento colpisce l'approvvigionamento alimentare e la popolazione in modo negativo. Ad un certo punto questa crescita dinamica concatenata non può continuare, perché le risorse si esauriscono o l'inquinamento travolge l'ambiente. Il sistema mondiale va in overshoot e collassa. A seconda di come il modello è effettivamente costruito, la crescita e il collasso del sistema possono essere simmetrici nel tempo o mostrare una caratteristica di Seneca in cui la crescita è lenta, ma il collasso è rapido.




Il messaggio di The Limits to Growth che la crescita perenne non è possibile non fu ben accolto quando il libro apparse nei primi anni '70. Il libro e il Club di Roma furono attaccati rabbiosamente da destra e da sinistra e il loro messaggio fu respinto. Tuttavia, con il tempo molti hanno iniziato a vedere la verità di base di questi risultati. Non e` possibile sostenere per sempre la crescita in un sistema finito. I sistemi dinamici a un certo punto spinti da una crescita costante arrivano a un tipping point e poi collassano. Questa conclusione è rafforzata dal libro di Bardi che mostra, come accennato in precedenza, che, in realtà,

"il collasso non è un difetto, ma una caratteristica dei sistemi dinamici".

C’e da chiedere se il collasso del nostro mondo globalizzato - l'equivalente attuale dell'Impero Romano - è inevitabile? Secondo Bardi, la risposta è sì. Tuttavia, come discute in The Seneca Effect, il crollo di qualsiasi sistema dinamico può essere ammorbidito aumentando la resilienza nel sistema. In pratica ciò significa introdurre nel sistema qualità che aumentano la sua capacità di assorbire i cambiamenti, senza alterare fondamentalmente la natura del sistema. I sistemi rigidi, con pochi nodi nella loro rete non sono resilienti. Le reti flessibili e deformabili aiutano il sistema dinamico a diventare più resiliente. In termini matematici un sistema dinamico raggiunge la stabilità se riesce a mantenere i suoi parametri vicino a un punto fisso "attrattore", come quello che abbiamo visto esisteva nel modello predatore-preda di Lotka e Volterra.


sabato 22 febbraio 2020

La Peste Nera: Qual è la Cosa Peggiore che ci può Capitare con il Coronavirus?

I quattro cavalieri dell'apocalisse di Albrecht Durer (1498): carestia, peste, guerra e la morte stessa. Di certo, gli antichi avevano capito che i collassi derivano da una combinazione di diversi fattori. È l'essenza di quello che chiamo "Effetto Seneca". Oggi, se il coronavirus rimane isolato come una minaccia per la vita umana, non causerà un declino della popolazione. Ma se gli altri cavalieri intervengono, allora le cose potrebbero cambiare in peggio.


Tradotto dall'inglese e leggermente adattato da "Cassandra's Legacy"


I dati sull'epidemia di coronavirus cominicano a sembrare veramente preoccupanti. E' vero che la diffusione dell'infezione in Cina sta rallentando e quindi si può sperare che l'epidemia si possa contenere. Ma, come tutti sappiamo, il mondo reale ha sempre dei modi per sorprenderci. Quindi, lasciamo cadere per un po 'l'aggettivo "probabile" e facciamo la domanda scomoda: qual è la cosa peggiore che può accadere? Potremmo assistere a un grave collasso della popolazione mondiale?

Come al solito, se vogliamo capire il futuro, dobbiamo prima capire il passato. Quindi, diamo un'occhiata ad alcuni dati per le più grandi pandemie della storia, quelle che hanno colpito l'Europa durante il Medioevo e in seguito:




European Population in history (from Langer, W. L. The Black Death. Sci. Am. 210, 114–121 (1964))


Questi dati sono alquanto incerti, ma esiste un accordo generale sul fatto che la grande peste del 14 ° secolo (correttamente definita "Peste Nera") abbia spazzato via circa il 40% della popolazione europea, alcuni dicono di più. Se questo non è il caso peggiore, quale sennò? Una nuova epidemia potrebbe causare qualcosa di simile?

In linea di principio, se una cosa è successa nel passato, potrebbe succedere di nuovo. Ma, naturalmente, può succedere solo se si verificano condizioni simili. Se esaminiamo in dettaglio il caso delle pandemie europee, vediamo che non hanno mai colpito in momenti casuali, hanno colpito popolazioni già in difficoltà. Virus e batteri sono creature opportunistiche che tendono ad espandersi quando trovano un bersaglio debole. Nel caso della peste nera del XIV secolo, colpì l'Europa dopo il fallimento del tentativo di espandersi ad est con le crociate. L'Europa si era trovata sovrappopolata, nel mezzo di una crisi sociale e culturale, e senza via d'uscita. Il risultato fu una serie di carestie, guerre interne e turbolenze sociali e politiche che aprirono la porta alla pestilenza. Qualcosa di simile è accaduto con la seconda esplosione principale della peste del 17 ° secolo. È arrivata dopo la guerra dei 30 anni che aveva distrutto il tessuto stesso della società europea, creando povertà, carestie e lo sfollamento di intere popolazioni.

La regola secondo cui le pandemie arrivano con le carestie vale anche per l'ultima (finora) grande pandemia mondiale: l'influenza spagnola del 1918-1920. Era associata alle carestie generate dalla prima guerra mondiale. A differenza del caso della Morte Nera, tuttavia, la spagnola è arrivata in un contesto di espansione economica e crescita della popolazione. Certo, è stato un disastro: potrebbe aver ucciso circa l'1-2% della popolazione mondiale dell'epoca (ovvero 20-50 milioni di vittime su una popolazione di circa 2 miliardi). Ma è a malapena visibile nelle curve di crescita della popolazione del 20 ° secolo. Altre moderne epidemie, AIDS, Ebola, SARS, ecc., si stanno espendendo solo in paesi dove ci sono carenze alimentari, di assistenza sanitaria, e di altro tipo. In occidente o non esistono oppure, come l'AIDS, sono in netta remissione (di nuovo, finora).

Al contrario, le carestie possono causare uno spopolamento esteso anche quando non sono associate a pestilenze. Un buon esempio è la carestia irlandese del 1848. In pochi anni ha spazzato via circa la metà della popolazione irlandese, ma non era associata a una specifica malattia umana. A volte, non c'è nemmeno bisogno delle carestie per causare lo spopolamento: lo stress sociale ed economico è sufficiente. Un buon esempio nei tempi moderni è quello dell'Ucraina, dove la popolazione ha iniziato a diminuire all'inizio degli anni '90 e continua a diminuire dopo la perdita di circa il 20% del totale. Non ci sono state epidemie né carestie in Ucraina: gli ucraini morivano -- e stanno tuttora morendo -- a causa di una combinazione di cibo di scarsa qualità, mancanza di strutture sanitarie, governo pessimo, depressione, droghe pesanti, alcol e altro.





C'è una regola generale, qui: i disastri non arrivano mai da soli. È perché quando un sistema complesso è in condizion di overshoot, è fragile: è sensibile anche a piccole perturbazioni dall'esterno. Queste perturbazioni tendono a generare una cascata di reazioni che fa crollare l'intero sistema. È l'essenza di quello che chiamo "Effetto Seneca" ovvero che la crescita è lenta, ma il declino è rapido.

Tornando al coronavirus di oggi, possiamo concludere che non causerà grandi disastri fintanto che rimarrà da solo ad attaccare l'umanità. Il mondo non sta vedendo grandi guerre e non soffre delle grandi carestie del passato. Quindi, anche se il virus si diffondesse fuori dalla Cina, forse potrebbe uccidere l'1% dell'attuale popolazione. Sarebbe un terribile disastro, ovviamente, ma non cambierebbe la traiettoria di crescita della popolazione mondiale, proprio come non lo ha fatto l'influenza spagnola.

Sì, ma, come ho detto all'inizio, la realtà ha molti modi per sorprenderci. Forse non c'è bisogno di grandi carestie o guerre perché una popolazione sia sufficientemente indebolita da essere un buon bersaglio per un attacco virale. Pensiamo all'inquinamento: in gran parte, è un fenomeno moderno. Al tempo dell'influenza spagnola, la gente aveva fame, ma non trasportava nei loro corpi le quantità di metalli pesanti, pesticidi, sostanze chimiche, microplastiche e altre robacce che tutti noi abbiamo al giorno d'oggi. E non vivevano in un mondo surriscaldato con 410 ppm di anidride carbonica nell'atmosfera, come noi. Per non parlare del rapido declino dei servizi sanitari, della scarsa qualità della dieta media, della diffusione di alcol e droghe pesanti, degli effetti sulla salute della depressione, dei danni arrecati da cattivi governi e non dimenticare il rischio di essere ammazzati. Di conseguenza, la popolazione di molti paesi occidentali sembra aver iniziato a muoversi lungo la stessa traiettoria che la popolazione ucraina ha iniziato a seguire 30 anni fa. L'aspettativa di vita non è più aumentata in Occidente a partire dal 2014 e sembra che stia leggermente diminuendo.




Life expectancy in selected Western countries. Data from World Bank


Oltre alla popolazione indebolita, esiste un altro fattore che può favorire il cavaliere della peste: la crisi economica creata dalla paura del virus. Non dimentichiamoci che se oggi quasi 8 miliardi di persone possono sopravvivere è perché possono acquistare cibo e riceverlo tramite quell'immenso sistema commerciale che chiamiamo "globalizzazione" e le sue navi portacontainer che attraversano gli oceani. Ma se le merci smettono di essere trasportate, il cibo smetterà di essere spedito nei luoghi in cui è necessario. Di conseguenza, uno dei quattro cavalieri in più, la carestia, inizierà a galoppare. E anche il terzo cavaliere, la guerra, potrebbe decidere di iniziare a galoppare, anche lui, portando con sé l'ultimo, la morte. Quindi, sì, in linea di principio non è impossibile vedere un collasso di popolaione equivalente a quello dell'antica peste nera.

Ma non dimentichiamoci che questo è uno scenario: una storia che ci stiamo raccontando. Sta a noi assicurarci che rimanga una storia e non diventi realtà. Il futuro non è mai prevedibile, possiamo solo essere preparati per quello che verrà.



Un commento del troll personale di Ugo Bardi, il sig. Kunning-Druger 

"Ed eccoti qui, caro Bardi. Sapevo che saresti arrivato a questo: immagino che tu e i tuoi amici del Club di Roma siate molto felici, ora. Il coronavirus non è esattamente quello che avete sempre desiderato? Fin dall'inizio, il Club di Roma ha lavorato per pianificare lo sterminio della maggior parte dell'umanità. E ora la bandiera dei nemici dell'umanità è stata presa dal piccolo mostro chiamato Greta Thunberg. Ma sappiamo chi sei e sappiamo cosa lo stai facendo. Se il tuo piano diventerà realtà, sapremo chi sono i criminali che ci sono dietro."








venerdì 20 ottobre 2023

L’unico Troiano buono è un Troiano morto. Quando è iniziata l’era degli stermini?

Dal blog "The Seneca Effect"



Questo testo è basato su un capitolo di un libro intitolato “L'era degli stermini” che sto pian piano mettendo insieme ma per il quale non ho ancora trovato un editore (si accettano suggerimenti). Il succo del libro, ma anche del presente post, è che gli stermini, e in particolare gli stermini “ideologici”, non sono stati comuni nel corso della storia. Sono un fenomeno moderno legato alla struttura della società moderna.



L'Iliade di Omero è stata la narrazione che ha fornito la visione del mondo per i popoli che chiamiamo "occidentali". influente e ampiamente letto fino ai tempi recenti. Il fascino dell'Iliade deriva da diversi fattori: uno è che, anche se la storia è raccontata dal punto di vista degli Achei, i Troiani non vengono mai demonizzati, insultati o descritti come subumani. Si potrebbe dire che la guerra di Troia sia stata causata da un atto di terrorismo da parte di un Ttroiano che rapì la moglie di un re Acheo. Tuttavia, nella storia non c'è alcun senso di superiorità morale attribuito ai guerrieri Achei. Troiani e Achei si comportano più o meno allo stesso modo, combattendo per il proprio onore personale, per la gloria e talvolta per la vendetta. Dopo la caduta di Troia, i Troiani sopravvissuti non furono uccisi, e nessuno pensò che fosse abominevole che alcuni di loro riuscissero a fuggire in un'altra terra e a ricostruire lì una città.

Questo atteggiamento sembra essere stato mantenuto a lungo nella galassia delle regioni che costituiscono il patrimonio culturale dei moderni occidentali. Naturalmente, gli esseri umani si sono sempre uccisi a vicenda con rabbia, ma gli stermini su larga scala sono rari nella documentazione storica fino a tempi relativamente recenti. Ciò è particolarmente vero per gli “stermini ideologici”, quegli eventi che vedono gli sterminati meritevoli del loro destino in quanto "subumani", “razze inferiori” o “animali umani”.

In epoca classica i nemici sconfitti non venivano quasi mai sterminati ma piuttosto trasformati in schiavi o assimilati. Secoli di agiografia cristiana hanno visto la storia dal punto di vista degli sterminati, celebrando le virtù dei martiri, ma non hanno mai suggerito che la vendetta fosse una risposta adeguata. Persino le crociate (1095-1291), la paradigmatica guerra di religione, non miravano a sterminare i musulmani (anche se a volte è successo), ma piuttosto a convertirli al cristianesimo.

E poi le cose sono cambiate. Nel secolo scorso, abbiamo visto ogni guerra diventare una lotta metafisica del bene contro il male, con la parte perdente che meritava pienamente di essere sradicata ed eliminata. Le guerre non vengono più dichiarate, i trattati di pace sono sostituiti dalla resa incondizionata, le popolazioni sconfitte vengono cacciate dalle loro terre, i loro leader vengono spesso giustiziati con o senza una parvenza di giusto processo. Il 20° secolo è stata una vera e propria fiera dello sterminio, con alcune delle uccisioni di civili più sanguinose ed estese mai registrate nella storia.

La crescente brutalità delle guerre moderne non ha cambiato l’atteggiamento degli occidentali, che continuano a considerarsi sempre superiori in termini morali. Tra coloro che hanno studiato gli stermini del XX secolo, Rudolph Rummel (1932 – 2014) ha fornito dati estesi e un termine da lui coniato, quello di “ democidio ”, per descrivere questi eventi. Ma le sue conclusioni si limitavano all’idea semplicistica che i democidi sono qualcosa a cui si dedicano solo le dittature; le democrazie occidentali non lo fanno mai. Un’interpretazione sostenibile solo attraverso una definizione molto flessibile dei termini “democidio” e “democrazia”. Altri, come Steven Pinker, hanno esaminato un arco di tempo molto limitato e hanno sostenuto che gli stermini sono una cosa del passato e rimarranno tali per sempre. Si certo. Proprio come la storia doveva essere finita per sempre, secondo Francis Fukuyama.

Proviamo ad avere una visione a lungo termine. Abbiamo visto che nell'antichità gli stermini erano rari e sicuramente non dovevano essere un segno di virtù per gli sterminatori. Allora, quando sono apparse le visualizzazioni attuali? Penso che il punto di svolta possa essere identificato con l’inizio delle campagne di caccia alle streghe in Europa durante il XVI secolo. (grafico di Leeson e Ross, 2018).



Il punto cruciale della caccia alle streghe è che le streghe venivano giustiziate non per quello che facevano ma per quello erano. In altre parole, non era necessario che una strega avesse effettivamente commesso un delitto per essere punita; era sufficiente essere dichiarata strega da un tribunale. Se ci pensiamo, si tratta di una profonda perversione del concetto stesso di “giustizia”, ma è alla base di tutti gli stermini, delle pulizie etniche e simili. "Sei uno di loro, quindi meriti di morire."

In effetti, l’epoca della caccia alle streghe sembra essere stata il punto di partenza di un’esplosione di violenza e brutalità. Il “Catalogo dei conflitti” di Peter Brecke contiene informazioni sul numero delle vittime di 3.708 conflitti a partire dall'inizio del XV secolo. Non è specifico riguardo agli stermini. Ma gli stermini sono solitamente il risultato di guerre, quindi possiamo prendere questi numeri come un indicatore del livello di violenza.

Insieme ai colleghi Martelloni e Di Patti abbiamo esaminato in dettaglio i dati di Brecke. Ma qui, mi limito a mostrarvi il progresso della letalità nel tempo. Ecco il grafico dei dati di Brecke, dimensionato al più grande sterminio della storia, quello della Seconda Guerra Mondiale.


Per avere una migliore idea di quale sia la tendenza a lungo termine, possiamo normalizzare i dati sulla popolazione mondiale. Ecco i risultati.



Il grafico non presenta alcuna periodicità, ma possiamo interpretarlo come formato da due fasi, una prima del 1600, l'altra dopo il 1600. La prima fase è relativamente tranquilla (relativamente!); l’altra mostra che le grandi guerre sono molto più letali. Tutto questo deve essere preso con una certa cautela, poiché il database di Brecke non è completo e salta molte guerre antiche per le quali non sono disponibili dati affidabili. Ma è chiaro che le guerre antiche erano molto meno letali di quelle moderne, anche se dimensionate alla popolazione dell’epoca.

I dati mostrano che la “guerra dei trent’anni” (dal 1618 al 1648) è una delle prime guerre su larga scala. Sappiamo anche che si tratta di una delle prime guerre di sterminio ideologico. Ha visto protestanti e cattolici uccidersi felicemente a vicenda in Europa: due visioni del mondo incompatibili, in cui ciascuna parte bollava l’altra come malvagia. Da lì in poi è stato tutto in discesa. Una parvenza di “onore” nei combattimenti è stata mantenuta fino all’inizio del XX secolo, e poi le guerre sono state completamente trasformate in imprese di derattizzazione, tranne per il fatto che nel ruolo dei ratti ci sono esseri umani.

Cosa è successo che ha causato questa trasformazione? Posso proporre tre spiegazioni.

Sovrappopolazione. La frenesia omicida degli ultimi secoli coincide con il rapido aumento della popolazione umana, con gli europei che si spostano in altri continenti e spostano o sradicano le popolazioni native alla ricerca di nuove terre. Questa idea fu successivamente descritta come la necessità di lebensraum (spazio vitale), spesso unita a una visione pseudo-scientifica che vedeva le “razze superiori” avere il diritto di sostituire quelle inferiori. Questo fenomeno è talvolta collegato agli esperimenti di John B. Calhoun (1917-1995) sui topi in condizioni sovrappopolate, che hanno dimostrato che portava a un crollo delle funzioni sociali e a lotte intestine tra le diverse fazioni.

Armi da fuoco. L’inizio dell’Era degli stermini coincide con la diffusione delle armi da fuoco. L’effetto potrebbe non essere tanto una questione di maggiore letalità ma di portata. Konrad Lorenz sosteneva nel suo libro “ Sull’aggressione ” (1963) che le armi che uccidono a distanza disattivano la capacità della parte sconfitta di inviare segnali di sottomissione ai vincitori. Con ciò scompaiono i meccanismi innati che impediscono agli esseri umani di uccidere un nemico sconfitto (almeno qualche volta).

La tipografia. In Europa gli stermini andarono parallelamente allo sviluppo della stampa e alla diffusione dei libri e, più tardi, dei giornali. Con questi strumenti, lo Stato poteva raggiungere un livello di controllo sui suoi sudditi prima impensabile. Poi, si è presto scoperto che il modo migliore per concentrare le risorse dello stato sulla guerra era quello di scatenare nella popolazione un delirio di odio contro gli stati esterni o i sottogruppi interni presentati come malvagi. Quello fu l’inizio della propaganda moderna, una tecnologia sviluppata per fare proprio questo su larga scala.


Se queste interpretazioni sono corrette, e potrebbero esserlo tutte e tre, allora ci troviamo in una situazione difficile. Tutte e tre le tendenze non solo sono ancora valide ma stanno diventando sempre più importanti. La popolazione umana continua ad aumentare. La capacità di uccidere a distanza è aumentata dalle armi da fuoco individuali ai bombardamenti aerei e ora ai droni assassini. La propaganda sta diventando sempre più radicata nella visione occidentale del mondo, in particolare con l’idea che i leader possano “creare la propria realtà”, ora possibile con l’intelligenza artificiale che crea immagini “deep fake”.

Andiamo quindi verso un ulteriore aumento della tendenza allo sterminio? Ciò che vediamo in questo momento nel mondo sembra indicare esattamente questo. Significa che siamo condannati? Può darsi, ma è anche vero che tutto ciò che cresce rapidamente porta dentro di sé i semi della propria rovina: è l’essenza di quello che io chiamo “ Effetto Seneca”. L'idea di “creare la propria realtà” potrebbe già essere autodistruttiva, con un numero crescente di persone che semplicemente si rifiutano di credere a qualsiasi cosa il loro governo dica loro. (anche se chi assume questo atteggiamento rischia di diventare bersaglio del prossimo round di sterminio).

Allora, gli stessi strumenti necessari per condurre le guerre potrebbero scomparire. Con l’aumento del costo delle risorse energetiche e minerarie e con i danni prodotti dal cambiamento climatico e dall’inquinamento, c’è sempre meno surplus da investire nelle guerre. Inoltre, la popolazione umana mostra segni di essere prossima all’inizio di un trend di rapido declino (un altro possibile risultato dell’“ Effetto Seneca.”). Ciò rende più difficile intraprendere guerre, un fenomeno a cui forse stiamo già assistendo.

Stiamo passando dall’altra parte del grande ciclo di quella che chiamiamo (impropriamente) la “civiltà occidentale” che ha attraversato diversi secoli. Se da un lato guerre e stermini sono stati una caratteristica comune della fase di crescita del ciclo, saranno importanti anche nella fase di declino? Non possiamo dirlo. Ciò che possiamo dire è che c’è sempre un po’ di spazio affinché la natura umana sopravviva e si affermi, anche in mezzo all’apparente trionfo del male.

“Ogni nuovo inizio deriva dalla fine di un altro inizio.”
– Lucio Annaeo Seneca


martedì 27 marzo 2018

Spiegazione del Dirupo di Seneca: un modello complessivo tridimensionale del collasso

Il dirupo di Seneca continua a colpire!!

Da “Cassandra's Legacy”. Traduzione di Mr

Un modello complessivo tridimensionale del collasso



In questo post Geoffrey Chia illustra una delle caratteristiche fondamentali del “Effetto Seneca”, conosciuto anche come “collasso”, cioè il fatto che questo si verifichi in sistemi interconnessi dominati da interazioni di retroazione. Questa è un'interpretazione qualitativa del collasso che completa i modelli più quantitativi di cui ho parlato nel mio libro “L'Effetto Seneca”.  (U.B.)


Post di Geoffrey Chia

I limiti dello sviluppo (LtG) è stato pubblicato nel 1972 da un gruppo di scienziati di livello mondiale, usando la modellazione matematica computerizzata migliore disponibile all'epoca. Lo studio proiettava il collasso futuro della civilta globale industrializzata nel XXI secolo, se l'umanità non avesse frenato la sua popolazione, il consumo e l'inquinamento. E' stato messo alla berlina da molti economisti “crescita infinita in un pianeta finito”, nei decenni.

Tuttavia, i dati aggiornati e la modellazione computerizzata moderna degli ultimi anni (in particolare da parte del Dottor Graham Turner dello CSIRO nel 2008 e 2014) ha mostrato che in realtà siamo seguendo da vicino le tracce del modello standard di LtG, con collasso industriale e moria di massa previsti prima, piuttosto che dopo. Il futuro è adesso.

LtG ha preso in considerazione solo 5 parametri, il riscaldamento globale era solo un sottoinsieme dell'inquinamento. L'accelerazione drastica della fusione del ghiaccio e gli eventi meteo senza precedenti e sempre più frequenti degli ultimi due decenni dimostrano chiaramente che il riscaldamento globale procede di gran lunga più velocemente e in modo più grave di quanto chiunque potesse aver immaginato negli anni 70. Il riscaldamento globale merita certamente una categoria separata da considerare di per sé stessa, a prescindere dalle altre manifestazioni dell'inquinamento.

LtG non includeva una categoria specifica che considerasse le dinamiche umane della finanza, dell'economia e delle manovre politiche. Il che era giusto, perché è impossibile modellare matematicamente una tale irrazionalità capricciosa. Gli economisti potrebbero non essere d'accordo, sebbene non sia mai stato mostrato alcun modello economico matematico che riflettesse accuratamente il mondo reale, né che prevedesse coerentemente qualcosa di utile (a differenza di LtG ed altri modelli dimostrati basati sulla scienza), non ultimo a causa delle loro ipotesi economiche irrimediabilmente incomplete e profondamente errate. Entra spazzatura, esce spazzatura. Nel 2013, il premio “tipo-Nobel” per l'economia (denominato opportunamente il Premio della Banca di Svezia) è stato assegnato congiuntamente a diversi economisti che hanno modellato matematicamente idee diametralmente opposte. E' stato come conferire il premio per la fisica a due scienziati che “mostravano” l'uno che l'universo si sta espandendo e l'altro che si sta contraendo.

Nonostante ciò, sostengo che dovremmo includere la finanza, l'economia e la politica nei nostri quadri concettuali delle meccaniche del collasso, perché i guai finanziari ed economici fungono da inneschi per sconvolgimenti politici che possono portare al conflitto e al collasso di stati nazionali. La Siria né è un esempio. Questa categoria inqualificabile, nonostante sia soggettiva ed imprevedibile, contribuirà comunque in modo significativo alla moria della popolazione, proprio come ogni altra categoria quantificabile come il riscaldamento globale, l'esaurimento delle risorse o la distruzione dell'ecosistema può causare, e causerà, moria di esseri umani. Il collasso economico può portare alla perdita di assistenza sanitaria, mancanza di alloggi e fame. La follia politica può innescare una guerra termonucleare globale in qualsiasi momento, causando la nostra estinzione.

Tutte le categorie che contribuiscono al collasso sono profondamente interrelate ed intrecciate. E' la base del pensiero sistemico, che è essenziale per esprimere giudizi realistici sul futuro e mitigare i guai che abbiamo di fronte. Come possiamo passare idee così complesse all'opinione pubblica in modo chiaro e comprensibile e che però non comprometta l'accuratezza o il dettaglio?

Ho fatto per la prima volta allusione al modello complessivo tridimensionale del collasso durante la mia presentazione all'Ecocentro della Griffith University nel marzo del 2017.

Si tratta di un perfezionamento del mio vecchio modello bidimensionale, meno completo “i tre cavalieri e un enorme elefante dell'apocalisse”, concepito originariamente per scherzo, un gioco sulla trita frase biblica, anche se con un intento serio.



Quando diversi esperti cercano di analizzare materie inerenti la sostenibilità, la loro più grande mancanza spesso è la visione col paraocchi o a tunnel. Si concentrano solo su un problema ignorando gli altri. Gran parte delle “soluzioni” al riscaldamento globale sostenute dagli attivisti del clima coincidono con questa descrizione. Ipotizzano una disponibilità di energia senza limiti per realizzare infrastrutture di energia rinnovabile enormi e fantasie su un massiccio sequestro di carbonio per permettere ad una parvenza di business as usual di sostenere 10 miliardi di persone per metà secolo.

In realtà siamo destinati a cadere dal dirupo della disponibilità netta di energia molto presto (1,2) e nemmeno le fantasie di sequestro del carbonio più ottimistiche (che richiedono tutte input energetici colossali e delle quali nessuna è stata provata) saranno in grado di farci tornare ad un clima stabile, a meno che l'impronta totale umana non venga a sua volta ridotta drasticamente ed immediatamente (3) (cosa che non accadrà salvo per una guerra nucleare globale – che però a sua volta rilascerà esponenzialmente gas serra, devasterà gli ecosistemi rimasti e distruggerà la civiltà industriale e quindi la nostra capacità di sequestrare tecnologicamente i gas serra).

I punti di vista col paraocchi producono pseudo soluzioni sbagliate, che se vengono tentate spesso peggiorano altri problemi o, nel caso limite, sono un totale spreco di tempo ed energia.

Ecco un video di 10 secondi, il mio primo tentativo di fare un modello tridimensionale nella vita reale, "La condanna spiegata con l'abuso di dolciumi"

Nel mio modello tridimensionale ho mantenuto la posizione centrale dell'impronta totale umana come “l'enorme elefante”, per enfatizzare che se questo non viene affrontato, niente viene affrontato. Pochi commentatori sostengono una decrescita energetica volontaria, la riduzione del consumo o la semplificazione degli stili di vita, tuttavia si tratta di strategie essenziali per ridurre la nostra impronta. Sono ancora meno quelli che parlano di riduzione della popolazione. Questo modello tridimensionale è un modo di gran lunga superiore di visualizzare il dilemma che abbiamo di fronte, in confronto a punti di vista sparpagliati e sconnessi monodimensionali o in confronto a semplici titoli mnemonici. Per esempio, le tre “E” di energia, economia e ambiente (Environment) rappresentano un elenco semplicistico ed incompleto, senza nessuna dimostrazione grafica dei collegamenti fra ogni “E”.

E' probabile che cercare di suddividere, perfezionare o complicare  ulteriormente questo modello sia controproduttivo. Così com'è, questo modello tridimensionale, una doppia piramide con sei lati con un tumore che prolifera al suo centro, probabilmente rappresenta il limite di complessità che può facilmente essere immagazzinato nella mente media come visione istantanea. Si tratta di un'immagine facilmente ricordata che può essere evocata a cena scarabocchiando su un tovagliolo o costruendo il vero modello con pezzetti di carne e spiedini, sia per intrattenere sia per terrificare i vostri ospiti.

Separare i vari problemi globali intrecciati è ovviamente un approccio artificiale, ma è necessario per aiutarci a capire le dinamiche altamente complesse coinvolte. E' necessario allo stesso modo in cui separare lo studio della Medicina in cardiologia, gastroenterologia, neurologia, nefrologia, ecc. un approccio artificiale ma di provata efficacia per comprendere i meccanismi molto complessi all'interno del corpo umano. Proprio come i diversi sistemi del corpo (cuore, intestino, cervello, reni, ecc.) interagiscono direttamente ed influenza ogni altro sistema, ogni componente del mio modello tridimensionale a sua volta interagisce direttamente ed influenza ogni altro componente.

Esempi:

R condiziona F: Ogni grande crisi petrolifera (1973, 1979) ha sempre portato ad una recessione economica. Un altro esempio di R che condizione F: le diminuite  risorse pro capite portano a disagi economici, aspettative deluse e rabbia fra la popolazione, il che porta all'ascesa di demagoghi fascisti megalomani, moltiplicando il rischio di conflitto globale.

R condiziona F, che condiziona R, che condiziona E e P: il declino della produzione convenzionale di petrolio da quando ha raggiunto il picco nel 2005 ha portato alla disperata raccolta di petroli non convenzionali spinti tramite l'inganno politico, mistificazioni fraudolente di mercato e distorsioni finanziarie ed economiche. Questo schema Ponzi porterà ad un inevitabile crollo del mercato che farà sembrare insignificante la truffa dei mutui sub-prime. Ha anche portato a gravi peggioramenti di E e P.

R causa C: è ovvio.

C condiziona R che condiziona C: man mano che le ondate di calore peggiorano, l'uso di aria condizionata e quindi di combustibili fossili aumenta, liberando più gas serra e peggiorando il riscaldamento globale.

Sfortunatamente con lo stato avanzato di malessere planetario di oggi, gran parte delle retroazioni sono retroazioni autoalimentate "positive", o dannose. Poche sono retroazioni di autocorrezione "negative", o buone. Il lettore sarà senza dubbio in grado di pensare a molti altri esempi di retroazioni bidirezionali fra componenti, sia positive che negative.

Io sostengo che ogni articolo che parli di sostenibilità (o della sua mancanza) dovrebbe essere inserito nella parte, o nelle parti, di questo modello tridimensionale a cui appartiene, per apprezzare quanto questo articolo possa essere globale o incompleto e per permettere che altri discorsi collegati siano inseriti nelle posizioni adiacenti, in modo da costituire un quadro più olistico.

In quanto animali visivi, credo che questo sia uno strumento per educarci. Può essere usato anche nelle scuole primarie come parte del loro curriculum scientifico di studio (ma verrebbe senza dubbio proibito fra i gruppi negazionisti del riscaldamento globale o dalle madrasse dell'economia neoclassica/neoliberale. I bambini possono fare questi semplici modelli tridimensionali con kit di coi kit di costruzione giocattolo o con la plastilina e degli stecchini. Probabilmente dovrebbero essere scoraggiati dal giocare col loro cibo, a differenza di noi adulti, che siamo comunque degli ipocriti terribili.



Geoffrey Chia MBBS, MRCP, FRACP, Novembre 2017


Geoffrey Chia è un cardiologo di Brisbane, Australia, che ha studiato e scritto di problemi che riguardano la (in)sostenibilità) per più di 15 anni.

mercoledì 18 settembre 2013

Picco del Petrolio, un concetto fecondo

Da “Cassandra's Legacy”. Traduzione di MR

Questo articolo è una riflessione originata dalla recente chiusura del sito web “The Oil Drum”. Alcuni hanno preso questo avvenimento come la dimostrazione che il concetto di picco del petrolio sia morto e sepolto. Ma la situazione è molto più complessa: il picco del petrolio è un concetto fecondo, esso fornisce una visione del mondo che getta molta luce su quello che sta avvenendo nel mondo. Coloro che non capiscono la curva a campana sono condannati a seguirla. 


Viviamo in un mondo dove le prove scientifiche vengono ignorate a favore dell'opinione ideologica, dove la gente che impara dall'esperienza viene accusata di essere voltagabbana, dove cambiare idea sulla base di nuovi dati viene visto come ammettere la propria mancanza di fibra morale. Il dibattito sul picco del petrolio non fa eccezione e la recente chiusura del sito “The Oil Drum” è stato spesso visto come un'ammissione che tutta l'idea del picco del petrolio fosse sbagliata dall'inizio.

Ma cosa sta sta succedendo esattamente col picco del petrolio e perché tutto questo trambusto intorno ad esso? Il problema potrebbe essere semplicemente che l'idea ha avuto troppo successo. Torniamo indietro al 1998, quando Colin Campbell e Jean Laherrere hanno risollevato il problema notato per la prima volta da Marion King Hubbert, nel 1956. L'esaurimento del petrolio, hanno ipotizzato Campbell e Laherrere, sarà graduale: la produzione passerà attraverso una curva simmetrica “a campana” che mostrerà un picco quando, approssimativamente, metà delle risorse disponibili saranno state usate. Secondo questo questo studio, il picco, che Campbell ha in seguito soprannominato “picco del petrolio”, sarebbe avvenuto nel 2005.

Il lavoro pionieristico di Campbell e Laherrere ha fatto emergere un intero campo scientifico che usava metodi analoghi per studiare l'esaurimento del petrolio. Gran parte di questi studi sono arrivati alla conclusione che i problemi col petrolio sarebbero iniziati entro il primo decennio del 21° secolo, o forse un po' più tardi. Era una visione del futuro in netto contrasto con l'atteggiamento generalmente ottimistico dell'industria petrolifera fino a tempi recenti. Solo come esempio, nel 1999 "The Economist" aveva pubblicato un articolo dal titolo “Drowning in Oil” (annegare nel petrolio), prevedendo il petrolio a meno di 10 dollari al barile.

Ma le previsioni basate sul concetto del picco del petrolio sono risultate azzeccate in maniera spettacolare, almeno nel contesto delle inevitabili incertezze coinvolte. La produzione di petrolio ha interrotto la propria crescita nel 2004 e i prezzi del petrolio si sono impennati fino a 150 dollari al barile nel 2008; un fattore di circa 5 volte più alto di quello che era considerato normale nei primi anni del decennio (e più di 15 volte più alto di quello delle previsioni dell'Economist del 1999). Oggi, i prezzi del petrolio rimangono alti, intorno ai 100 dollari al barile. Non stiamo osservando un declino della produzione, ma sicuramente abbiamo prove dei seri problemi che l'industria petrolifera ha per mantenere la produzione ad un livello costante. Per come stanno le cose, sembra impossibile che possiamo tornare alle tendenze di crescita costante ed ai prezzi relativamente bassi che erano la norma fino a circa 10 anni fa.

Quindi i “picchisti” hanno vinto la loro scommessa con i cornucopiani. I problemi previsti si sono materializzati e i picchisti sono stati anche in grado di identificare approssimativamente i tempi della crisi. Ma non va tutto bene nel mondo del picco del petrolio. L'elegante e simmetrica curva “a campana” alla base di gran parte dei modelli sul picco del petrolio non è apparsa nei dati della produzione globale. Ciò che vediamo invece è un plateau o, al massimo, un lento aumento, in gran parte generato dall'uso delle cosiddette “risorse non convenzionali”, dai biocombustibili al petrolio di scisto. L'atteso declino non sta comparendo, almeno al momento.

Cos'è successo? Per prima cosa, i modelli non sono mai universali e quello del picco del petrolio non fa eccezione. La curva di produzione simmetrica è stata osservata in molti casi storici dove una risorsa in declino è stata lentamente rimpiazzata da un'altra, diversa e più abbondante, come nel caso dal passaggio dall'olio di balena al petrolio greggio come combustibile per le lampade nel 19° secolo. Hubbert ha previsto qualcosa di simile nel 1956 per la produzione globale di petrolio ipotizzando che l'energia nucleare avrebbe lentamente sostituito il petrolio greggio come energia principale nel mondo. In quel caso, la curva di produzione del petrolio sarebbe stata probabilmente simmetrica ma, ovviamente, non è successo.; di fatto è stata fortemente osteggiata in tutti i settori della società. Ciò che è successo, invece, è stato che grandi quantità di risorse finanziarie sono state investite nello sfruttamento di tutto ciò che poteva essere perforato, fratturato, spaccato, strizzato, bollito o elaborato in altro modo per ottenere qualche goccia di prezioso combustibile liquido ed è questo che ha evitato il declino, fino a questo momento.

Ma questo risultato è venuto ad un prezzo alto, più alto di quanto chiunque avrebbe potuto immaginare. Un problema è che questo sforzo tremendo sta semplicemente posticipando l'inevitabile. Quando comincerà il declino, potrebbe essere ben più rapido del suo tasso “naturale” lungo la curva a campana. Questo declino più rapido può essere definito “Effetto Seneca”, dal nome del filosofo Romano che ha notato che tutte le cose tendono a crescere lentamente, ma a declinare con rapidità.

L'effetto Seneca è lungi dall'essere il problema principale generato dall'esaurimento del petrolio. Il vero disastro sta rapidamente emergendo in termini di accelerazione del cambiamento climatico, con tutti i costi e i pericoli implicati. Oggi stiamo assistendo alla conclusione di un dibattito cominciato con l'inizio del movimento del picco del petrolio. Il picco del petrolio è più importante del cambiamento climatico? E, il picco del petrolio ci salverà dal cambiamento climatico catastrofico costringendoci a bruciare meno combustibili? All'inizio era quella la speranza, sì, il picco del petrolio ci avrebbe salvato, volenti o nolenti, dal distruggere il nostro stesso pianeta. Sfortunatamente, tuttavia, sta cominciando ad apparire chiaro che questa speranza era mal riposta. L'imminente picco sta in realtà peggiorando il problema climatico perché ha portato l'industria a sfruttare risorse meno efficienti e quindi più inquinanti.

Data la situazione, il picco del petrolio sta cominciando a sembrare sempre più solo un 'bip' sulla strada della catastrofe climatica. Non c'è da stupirsi che la gente stia perdendo interesse per il concetto! Curiosamente, sembra che i picchisti non fossero abbastanza catastrofisti nelle loro visioni del futuro!

Il picco del petrolio è quindi morto? Be', no. Per prima cosa, il picco del petrolio non è mai stato una lotteria catastrofista dove i giocatori cercavano di indovinare il giorno esatto della fine del mondo. No, era – ed è ancora – un concetto fecondo, un modo di vedere il mondo. Ci ha insegnato molto e ci insegna ancora molto.

Il picco dello sfruttamento delle risorse non rinnovabili (o lentamente rinnovabili) è una conseguenza necessaria del modo in cui l'economia umana funziona nel mondo reale. Avviene con tutti i tipi di risorse minerali ed anche con quelle biologiche, come la pesca. E' anche la caratteristica essenziale della “tragedia dei beni comuni”, proposta da Garrett Hardin nel 1966. E' parte integrante dei modelli dinamici del mondo che hanno generato lo studio sui “I Limiti dello Sviluppo” che, nel 1972, ha cambiato il modo in cui vediamo il mondo.

Infine, risulta che il nostro pianeta non è uno scrigno abbandonato dal quale possiamo saccheggiare tesori a nostro piacere. Le risorse minerali che abbiamo trovato in esso dovrebbero essere viste piuttosto come un dono che avremmo dovuto gestire con molta più attenzione. Ora affrontiamo una situazione difficile, schiacciati fra l'esaurimento delle risorse ed il cambiamento climatico catastrofico. Ma il concetto di “picco” ci può ancora aiutare ad essere preparati per il futuro. Ricordate che coloro che non capiscono la curva a campana sono condannati a seguirla.

Immagine: copertina de “I Limiti dello Sviluppo”, edizione del 2004

mercoledì 23 marzo 2022

La transizione verso l'energia pulita: una guida




La curva "Anti Seneca" -- un collasso visto dalla direzione opposta è una rapida crescita


Vi propongo qui nel seguito la traduzione di una parte di recente articolo di Tsung Xu, che ha gentilmente acconsentito a vederla pubblicata in Italiano. E' una discussione a tutto campo che ha il grande pregio di fare da contraltare al diffuso pessimismo che gira nel dibattito.

Non è che quello che dicono i pessimisti sia sbagliato. Assolutamente no: è vero che i fossili sono in esaurimento, che il clima sta andando a quel paese, che il pianeta è sovrappolato e, in aggiunta, che invece di cercare di fare qualcosa in proposito, ci divertiamo a giocare alla guerra. Siamo messi molto male, davanti al "Collasso di Seneca". Homo sapiens, col piffero! 

Però è anche vero che siamo di fronte a un'opportunità unica nella storia dell'umanità. L'energia rinnovabile nella forma di solare, eolico, e qualche altra tecnologia, è una di quelle transizioni dirompenti che sta partendo e che potrebbe non fermarsi più.

La cosa bella dell'articolo di Xu è la visione dinamica. E' una caratteristica di chi riesce a vedere come si comportano i sistemi complessi -- detti anche "non lineari." In questi sistemi, i feedback negativi portano al collasso . Ma esiste anche l'effetto opposto, guidato dai feedback positivi (chiamiamolo effetto "Anti-Seneca" se volete). Quando questi effetti prendono il sopravvento, il sistema parte verso l'alto come un missile Zircon. Il gioco dei feedback porta alle oscillazioni tipo la curva di Hubbert e cose del genere. 

Allora, se enfatizzate i feedback negativi, allora vedete il collasso imminente -- che in effetti è inevitabile per tutte le tecnologie basate sui combustibili fossili (incluso quella meta-tecnologia che chiamiamo "economia industriale"). Se invece enfatizzate i feedback positivi, vedete come le energie rinnovabili sono sul punto di spazzar via tutte le vecchie tecnologie energetiche, generando tutta una nuova serie di tecnologie (incluso una nuova meta-tecnologia che forse continueremo a chiamare "economia" ma che sarà completamente diversa dall'attuale). 

Le due possibilità sono interdipendenti. Potremmo collassare talmente alla svelta che non ci sarà tempo per l'energia rinnovabile di svilupparsi al punto da stare in piedi da sola. Oppure, potremmo rimanere così tenacemente attaccati ai fossili da rendere impossibile la transizione alle rinnovabili, usando per esempio ostacoli burocratici, legali, eccetera. 

Ma nel complesso, ci sono buone ragioni per essere ottimisti. Quantomeno abbiamo una possibilità di non ritornerare all'età della pietra! Però ci dovremo lavorare sopra. 

L'articolo di Xu enfatizza i feedback positivi in una visione molto dinamica della transizione. E' quasi sempre corretto e condivisibile. Non proprio su tutto, però. Diciamo che Xu non approfondisce il discorso della necessità di materie prime per le rinnovabili, limitandosi a dire che non c'è evidenza che questa sia una limitazione grave nel breve e medio termine. Corretto, ma su tempi un po' più lunghi, la questione si pone. Anche sulla questione del riciclo, l'articolo è piuttosto limitato. Ma non è pensato come un'enciclopedia. 

Diciamo piuttosto che Xu si fa prendere forse un po' troppo dall'entusiasmo per tutto quello che è nuovo, nonostante che non sia provato. Così, si lancia in una serie di lodi per il grafene, l'ultimo "materiale miracolo" fra quelli che appaiono sull'orizzonte delle meraviglie della scienza. 

Si, il grafene ha proprietà particolari come materiale, ma non possiamo trascurare il fatto che non sappiamo esattamente come smaltirlo è che una cosa che non esiste normalmente nell'ecosistema e quindi non sappiamo che effetto potrebbe fare se prodotto in grandi quantità. Insomma, come con tante altre cose proposte come toccasana (tipo i "nanomateriali", oggi per fortuna in gran parte passati di moda) bisogna andarci con prudenza.

A parte questo, l'articolo è corretto e ben documentato, con una bibliografia assolutamente spettacolare. E' troppo lungo per tradurlo tutto, ve ne passo la parte iniziale. Il resto è accessibile in inglese sul sito di Xu

___________________________________________________________________

La transizione verso l'energia pulita: una guida


Di Tsung Xu: 1 Marzo 2022 – traduzione parziale di Ugo Bardi
Per l'articolo completo, vedere.

https://www.tsungxu.com/clean-energy-transition-guide/


Alimentata dal solare, dal vento e dalle batterie agli ioni di litio, la transizione dell'energia pulita sta rimodellando il mondo. Poco più di un anno fa, non avrei creduto a questa affermazione.

All'epoca, non mi rendevo conto di quanto velocemente si stessero moltiplicando questi cambiamenti. Da allora ho imparato un sacco di cose sulle transizioni energetiche e sulla tecnologia del clima, ho analizzato i dati e ho triangolato le intuizioni.

Oggi, non ho dubbi sulla transizione dell'energia pulita e sull'impatto che avrà sulle nostre vite e società. La frase “transizione energetica” è anche un eufemismo e poche persone al mondo ne hanno vissuta una prima di sapere diversamente. Guardando la storia si supera la nostra amnesia collettiva per vedere quanto siano state importanti le transizioni energetiche, e si accenna al percorso che stiamo facendo ora.




Una visione molto semplificata del passaggio alle tecnologie energetiche pulite.

Questo post spiega cosa sta guidando la transizione ed esplora le opportunità emergenti. Siete nuovi sull'argomento? Questa potrebbe essere una panoramica che vi aiuta a orientarvi mentre imparate di più. State già giocando il vostro ruolo nella transizione? Potreste trovare una nuova prospettiva che sfida il vostro pensiero o vi sorprende. Potreste anche essere spinto a costruire o unirvi a un'azienda per sfruttare le enormi opportunità della transizione energetica.

Andiamo!

Introduzione


Le seguenti intuizioni sono brevi riassunti. Nella sezione "Approfondimenti" qui sotto, rivisiteremo ogni intuizione in modo più dettagliato. Nelle sezioni principali, discutiamo poi ogni punto in modo più approfondito.

Approfondimento 1: il crollo dei costi del solare e delle batterie sono ora al punto di svolta

I costi delle batterie solari e agli ioni di litio continuano a scendere, e sono ora a punti di svolta di crescita sostenuta e rapida, come mostrato in questi grafici.



Nella generazione di elettricità, il solare e l'eolico si stanno rapidamente muovendo verso la sostituzione dei combustibili fossili. Nella mobilità, i prezzi delle batterie agli ioni di litio hanno permesso che i costi dei veicoli elettrici (EV) siano diventati paragonabili a quelli delle auto a benzina o gasolio.

Questi punti critici sono acceleratori che ci spingono verso un futuro di energia pulita.

Approfondimento 2: man mano che la produzione aumenta, il solare, l'eolico e le batterie diventano più economici e migliori

Possiamo produrre pannelli solari e turbine eoliche per generare energia, e batterie per immagazzinarla. Questo permette di impiegare un maggior numero di queste risorse mentre i costi diminuiscono e le prestazioni migliorano, come mostrato qui sotto.





Nelle precedenti transizioni energetiche, questo ciclo auto-rinforzante non è mai stato sostenuto per più di qualche decennio. Di conseguenza, le previsioni sulla diffusione e sui costi dell'energia pulita sono state costantemente insoddisfacenti.


Approfondimento 3: l'elettricità economica e pulita permette nuove industrie

Già storicamente a buon mercato, il prezzo dell'elettricità dal solare e dall'eolico continuerà a scendere. Il solare probabilmente guiderà la maggior parte delle riduzioni dei costi.




I prezzi dell'elettricità stanno diventando abbastanza economici da permettere alle nuove industrie elettrochimiche di prosperare, come mostrato sopra. Le opportunità emergenti includono la cattura diretta dell'aria guidata dall'elettricità e la produzione di nuovi materiali. Vedremo in seguito che gli imprenditori che vedono la velocità della transizione energetica sono quelli che ne costruiscono il futuro.

Approfondimento 4: le fonti di energia emergenti si sviluppano attraverso fasi simili

Le transizioni del carbone, del petrolio e dell'elettricità sono passate attraverso fasi simili, che potete vedere nel grafico qui sotto. Oggi anche il solare, l'eolico e le batterie stanno scalando attraverso queste fasi.




Le fonti di energia hanno cicli di feedback che si rafforzano reciprocamente con altre tecnologie, che aiutano a guidare un'ulteriore adozione. Per esempio, il motore a combustione interna e i prodotti petrolchimici hanno spinto una maggiore domanda di petrolio, permettendogli di guadagnare una quota crescente dell'uso globale di energia all'inizio e alla metà del XX secolo.

Questi cicli e fasi di feedback possono aiutare a guidare quanto siamo avanti nella transizione e quali opportunità stanno emergendo.




Crescita non lineare contro crescita lineare. 


Motivazioni

L'energia (e il clima) sono problemi incredibilmente eccitanti e d'impatto su cui lavorare. Questo spazio affronta due cose nella mia mente. Uno è il rischio del cambiamento climatico, dove tutti dovremmo cercare di evitare gli esiti peggiori. Due è il continuo progresso della tecnologia energetica, senza il quale il progresso umano potrebbe ristagnare.

Per oltre un anno, ho studiato la transizione dell'energia pulita. Ho parlato con decine di fondatori di tecnologie pulite e ingegneri e ho assorbito libri, rapporti di ricerca, documenti, podcast e innumerevoli articoli.

Due cose sono diventate chiare.

In primo luogo, le tecnologie solari e delle batterie agli ioni di litio sono state il cuore della transizione energetica. Il loro rapido ritmo di adozione e la drastica riduzione dei costi sono stati senza precedenti per le tecnologie energetiche.

In secondo luogo, pochissimi addetti ai lavori con cui ho parlato o da cui ho imparato sembravano pensare che il solare e le batterie avrebbero avuto l'impatto che stavo iniziando a pensare.

Ho sbagliato? Ho capito che c'è una pletora di problemi tecnologici, di implementazione, politici e di altro tipo. Questi potrebbero frenare il cammino verso un futuro energetico pulito ed economico?

Continuando la mia ricerca, ho raccolto più dati e la convinzione che le energie pulite avrebbero avuto un impatto incredibile.

Durante le mie ricerche, non mi sono imbattuto in un articolo come questo che ho scritto, ma mi avrebbe davvero aiutato ad orientarmi. Spero che questo pezzo possa aiutare come guida per almeno alcune persone che sono curiose di conoscere la transizione e dove potrebbe andare.

Scrivendo questo testo, mi propongo di trovare colleghi che amano discutere e costruire, e che vedono le opportunità per sperimentare insieme.

Perché la transizione all'energia pulita è sottovalutata

È difficile per noi comprendere ciò che non abbiamo mai vissuto. Poche persone vive oggi hanno assistito alle precedenti transizioni energetiche. Questo rende facile sottovalutare l'impatto che hanno avuto, e quanto velocemente tendono ad accadere una volta in movimento. Dopo tutto, l'ascesa del carbone, del petrolio e dell'elettricità è avvenuta più di cento anni fa nei paesi sviluppati. Poiché quasi nessuno in vita aveva vissuto l'influenza spagnola cento anni fa, il COVID ci ha mostrato quanto breve sia di solito la nostra memoria collettiva per eventi rari di scala planetaria.

È facile pensare che la rapida scalata della tecnologia solare, eolica e delle batterie non possa essere sostenuta. Ogni transizione passa attraverso dolori di crescita. Ma quando c'è una domanda insaziabile, le industrie trovano il modo di soddisfarla. Questo è stato il caso del carbone, del petrolio e dell'elettricità, come vedremo, ed è il caso oggi delle energie pulite a basso costo. C'è la preoccupazione correlata che le riduzioni decennali dei costi per il solare e le batterie appiattiscano la loro curva di crescita. Come vedremo, questo è molto improbabile. La tecnologia e i processi esistenti continueranno a migliorare e nuove tecnologie saranno commercializzate.

È difficile pensare alle tecnologie e al cambiamento come se fossero non lineari. Mostriamolo con un esempio. Supponiamo di iniziare con un granello di sabbia. Diciamo che questo granello si duplica ogni anno. Quanti anni ci vorrebbero perché questo granello si replichi nel numero totale di granelli di sabbia sulla Terra? Supponiamo che ci siano 7,5 miliardi di miliardi (7,5 x 10^18) di granelli di sabbia nel mondo. Qual è la risposta? 10.000 anni? 1,000? In realtà, ci vorrebbero meno di 63 anni o raddoppi. Se il granello di sabbia solitario si duplica ogni due anni (cioè cresce al 41,4% all'anno), ci vuole solo il doppio del tempo per raggiungere quel traguardo. Questi esempi sembrano estremamente controintuitivi, ma è difficile per le persone pensare in questo modo. Chi ha esperienza di startup tende a capire meglio il pensiero non lineare, perché la trazione iniziale e la crescita sono tutto. Il solare, l'eolico e le batterie sono cresciuti e continueranno a crescere per qualche tempo in questo modo. Il problema è che su un orizzonte temporale di pochi anni, la crescita accelerata sembra ingannevolmente lineare, come mostrato qui.



Il solare è cresciuto ad una media di quasi il 40% ogni anno dal 1976, quando abbiamo cominciato ad avere dei dati affidabili. Dall'esempio dei granelli di sabbia, si potrebbe riconoscere che si tratta di un quasi raddoppio ogni due anni. Quanto pensate che la capacità solare installata sia cresciuta da allora? Di oltre due milioni di volte. Naturalmente, questi tassi di crescita rallenteranno man mano che ci muoviamo lungo la curva a S. Ma abbiamo già installato abbastanza solare per essere solo ad un fattore 15 di distanza da diventare la fonte primaria di generazione di elettricità a livello globale.

Nel nostro tempo, c'è la percezione che non possiamo scalare velocemente i prodotti fatti di atomi come quelli di bit. La saggezza convenzionale sostiene che il software scala meglio dell'hard tech. Come vedremo, questa percezione non è vera, dato che alcuni prodotti fisici nelle industrie clean tech stanno scalando molto, molto velocemente. Questo punto di vista probabilmente blocca molte persone brillanti e motivate nei paesi sviluppati che lavorano su tecnologie complesse e difficili. Tuttavia, ci sono segni promettenti che più persone stanno cercando di lavorare nell'energia pulita e nel clima.




Costi in calo per il solare e le batterie. Vedere le cifre qui sotto.


I punti chiave da prendere in considerazione


Diamo un'occhiata più da vicino alle quattro intuizioni principali dell'introduzione.


1) I costi del solare e delle batterie stanno crollando a picco


Il solare è già diventato la fonte di energia più economica della storia, insieme al vento. Dal 1976, i costi solari (in dollari per watt) sono scesi in media di oltre il 12% all'anno. Dalla prima commercializzazione nel 1991, i costi delle batterie agli ioni di litio (in dollari per kWh) sono scesi in media del 12,9% all'anno. Questi prezzi in calo del solare, dell'eolico e delle batterie hanno recentemente raggiunto dei punti critici che guideranno una crescita continua.




Il costo degli elettroni solari o eolici è ora più economico del funzionamento delle centrali fossili esistenti in molte parti del mondo. Questo è un punto di svolta che fa crescere sostanzialmente la dimensione del mercato dell'energia solare ed eolica.



Fatto usando i dati di IRENA.


Come mostrato sopra, questo ha portato il solare e l'eolico a superare il 75% della nuova capacità globale di generare elettricità nel 2020, rispetto alle basse percentuali a una cifra nei primi anni 2000. Mentre i costi continuano a scendere, il solare e l'eolico continueranno a superare i combustibili fossili in più regioni.



Le batterie agli ioni di litio stanno raggiungendo soglie di costo tali da poter alimentare il boom dei veicoli elettrici e dello stoccaggio stazionario.


La Tesla Model 3 è economica quanto i modelli a benzina concorrenti di Audi, Mercedes e BMW, ma li ha superati tutti in termini di vendite nel 2020. Nei prossimi anni, un numero crescente di modelli elettrici puri in più paesi diventerà economico come i concorrenti a benzina. Le batterie a basso costo e ad alte prestazioni stanno rendendo i veicoli elettrificati sempre più competitivi dal punto di vista dei costi, dalle due ruote alle barche e ai camion elettrici.

Immagazzinare l'elettricità in grandi batterie sta facendo scendere il costo dell’energia pulita. Le distribuzioni di batterie nelle reti negli Stati Uniti, in Cina e in altre aree stanno aumentando vertiginosamente, e sono sempre più spesso abbinate a impianti solari su scala industriale. Quando sono accoppiati, il solare e le batterie sono reciprocamente vantaggiosi, essendo più preziosi delle batterie da sole.

2) Con l'aumento della produzione, il solare, l'eolico e le batterie diventano più economici e migliori

Stiamo assistendo a una crescita sostenuta e incredibile di queste tecnologie di energia pulita. Il solare è la fonte di energia in più rapida crescita nella storia.

L'elettricità generata dal solare è cresciuta a quasi il 40% di tasso annuo composto (CAGR)1 negli ultimi venti anni. Anche il vento non è da meno, avendo generato quasi il 22% in più di elettricità ogni anno, in media, durante lo stesso periodo.

Nel frattempo, i veicoli elettrici (EV) e lo stoccaggio su larga scala stanno guidando la domanda di batterie agli ioni di litio in piena espansione. Le vendite di veicoli elettrici sono cresciute a circa il 57% CAGR negli ultimi nove anni, come mostrato in questo grafico. Lo stoccaggio per la rete sta tenendo il passo, con una crescita globale delle batterie del 58% CAGR negli ultimi otto anni.


Realizzato utilizzando i dati di EV Volumes.


Questo boom emergente nella domanda di batterie agli ioni di litio ha creato alcune delle aziende che crescono più velocemente al mondo come Tesla, CATL e altre.

Il solare, l'eolico e le batterie sono tecnologie energetiche prodotte, non estratte dalle miniere. Di conseguenza, la rapida crescita della loro diffusione permette diminuzioni di costo e migliori prestazioni più simili ai chip dei computer o all'elettronica che ai combustibili fossili. Il carbone e il gas semplicemente non possono continuare a rimanere competitivi. Mentre le centrali a carbone e a gas naturale sono diventate più economiche da costruire man mano che se ne sono sviluppate di più (capex), il costo dei combustibili stessi è effettivamente salito nel corso di decenni di sviluppo, facendo aumentare i costi operativi.

Una cosa interessante è che la produzione di solare, eolico e batterie richiede l'estrazione e la lavorazione di minerali. Ma una volta prodotti, a differenza dei combustibili fossili, non sono necessarie ulteriori estrazioni. Questo ciclo di feedback auto-rinforzante è mostrato nel diagramma qui sotto.





Mentre i costi sono crollati, le caratteristiche del solare e delle batterie continuano a migliorare. La tecnologia solare fotovoltaica (PV) si è sviluppata con molti miglioramenti in tutta la catena di fornitura. Anche le caratteristiche delle batterie come la densità di energia, il numero di cicli e la sicurezza sono migliorate rapidamente.

3) L'elettricità economica e pulita permette nuove industrie

Il solare e l'eolico ora generano gli elettroni più economici della storia, e stanno continuando a diventare più economici. Questo continuerà a far abbassare i costi dell'elettricità, specialmente per gli usi commerciali e industriali.




LCOE significa costo livellato dell'elettricità. Vedere la versione in inglese per le fonti di dati e l'approccio all'aggiustamento dei prezzi per l'inflazione.


Come mostrato nel grafico qui sopra, i grandi consumatori di energia elettrica degli Stati Uniti hanno forti incentivi ad acquistare direttamente l'elettricità dalle centrali solari ed eoliche.

Anche il ritmo delle riduzioni dei costi per gli elettroni generati dal solare è un record storico. La caduta dei costi dell'elettricità creerà industrie che stanno emergendo ora, così come quelle che devono ancora emergere.




Per esempio, le startup stanno scommettendo su elettroni economici per alimentare la cattura e/o la conversione della CO2. La cattura diretta rimuove la CO2 dall'aria. La CO2 può poi essere convertita elettrochimicamente in materiali a base di carbonio, carburanti e altri prodotti. Anche altre industrie sono destinate a trarre vantaggio dal costo inferiore dell'elettrificazione.

Il grafene e i materiali monostrato erano stati isolati e inventati vent'anni fa. Oggi, questi materiali sono sempre più utilizzati in un numero crescente di mercati di nicchia. Gli elettroni puliti ed economici potrebbero giocare un ruolo chiave nell'accelerare l'adozione di materiali emergenti come il grafene.

4) Le fonti di energia emergenti si sviluppano attraverso fasi simili

Prima di tuffarci nella transizione dell'energia pulita, è molto utile acquisire un modello mentale di come si sono svolti momenti analoghi nella storia. Mentre ci sono molte differenze, ci sono anche paralleli tra le transizioni energetiche del passato e questa.

Esploreremo per prima cosa l'ascesa del carbone, del petrolio e dell'elettricità e dove si trovano oggi. È facile pensare che il progresso avvenga molto più velocemente oggi che in passato. Questo è vero per certi versi, ma vedremo che alcune tecnologie alimentate dall'energia si sviluppano in modo sorprendentemente rapido, anche per gli standard odierni.





Andamento approssimato della quota di carbone, petrolio ed elettricità nell'uso globale di energia nel tempo. Vedere il grafico più avanti nella sezione. Le statistiche e i riferimenti in questa sezione sono tratti da Energy, A Human History di Richard Rhode.

1 Modelli delle precedenti transizioni energetiche

Quando ho esaminato per la prima volta la crescita del carbone, del petrolio e dell'elettricità, sono rimasto sorpreso di trovare modelli simili per tutte. Queste transizioni energetiche chiave nella storia passano tutte attraverso fasi simili, come mostrato nella figura qui sotto. Dopo essere stata scoperta, la fonte di energia (o il vettore nel caso dell'elettricità) trova un punto d'appoggio in mercati di nicchia dove supera gli operatori storici. Col tempo, quando la tecnologia matura, può entrare in mercati più grandi. Poi, nella fase più trasformativa, emergono nuove infrastrutture per la fonte di energia, vengono abilitati nuovi materiali ed emergono nuove industrie.




Fasi iniziali di una transizione energetica. Man mano che la fonte di energia si espande in mercati più grandi, guadagna in uso rispetto ad altre fonti di energia.


All'inizio di una transizione energetica, c'è spesso più attenzione su quanto bene possano fare le cose esistenti. Gli esempi includono quanto bene il carbone possa riscaldare e il petrolio e l'elettricità possano illuminare. Ma l'impatto maggiore per qualsiasi transizione energetica, come per altre nuove tecnologie, è quello di permetterci di fare cose nuove.

Prendete un addetto ai motori a vapore in Gran Bretagna nel 1800, quando i motori a vapore erano per lo più limitati al pompaggio dell’acqua nelle miniere di carbone e all'industrializzazione del ferro. Avrebbero potuto concepire che entro cinquant'anni, queste macchine alimentate a carbone avrebbero guidato persone e rifornimenti attraverso i binari posati in tutto il paese? O che cinquant'anni dopo, i grattacieli fatti di acciaio (usando forni a coke - carbone riscaldato -) avrebbero cominciato a spuntare nelle grandi città?

O prendete un appassionato di auto a New York, nel 1900, quando c'erano solo una manciata di auto a benzina su strade dominate dai cavalli. Avrebbero mai creduto che solo 13 anni dopo, le strade di Manhattan sarebbero state piene di automobili e si sarebbero trovati pochi cavalli? O che trent'anni dopo il petrolio avrebbe cominciato ad essere raffinato in polimeri e plastica?

Infine, prendete un innovatore dell'elettricità negli Stati Uniti nel 1890, quando le prime reti elettriche in tutta la città erano state installate da meno di dieci anni, per lo più utilizzate per alimentare le luci. Avrebbero mai pensato che l'alluminio, che non molto tempo prima era più costoso dell'oro, sarebbe stato presto prodotto commercialmente usando l'elettricità? O che entro la fine dei ruggenti anni 20, più di due case americane su tre avrebbero avuto accesso all'elettricità?





Le transizioni si rafforzano a vicenda. Migliori tecnologie di distribuzione e materiali guidano un'ulteriore adozione e investimenti nella fonte di energia.


Ho trovato qualcos'altro di sorprendente nelle precedenti transizioni energetiche. Ognuna di esse ha successivamente abilitato nuove modalità di trasporto e nuovi materiali che erano molto difficili da concepire durante le sue prime fasi. In ognuna delle transizioni passate, la fonte di energia ha sbloccato nuove tecnologie di distribuzione e materiali che hanno aiutato a guidare l'adozione della fonte di energia stessa. Come vedremo più avanti, lo stesso vale per il solare, l'eolico e le batterie.

Diamo un'occhiata più da vicino a ciascuna di queste transizioni passate come guida a ciò che potrebbe essere in serbo per la porta della transizione dell'energia pulita.

1.1 Carbone: vapore, locomotive e ferro

Nicchia iniziale

Nel 17° secolo, la legna scarseggiava in Inghilterra. I prezzi salivano vertiginosamente, dato che la popolazione di Londra era aumentata di 8 volte tra il 1500 e il 1650, determinando una maggiore domanda di legna da ardere. Man mano che le foreste venivano abbattute, la legna doveva essere trasportata su strade fangose sempre più lontane dai centri abitati. Questo creò l'opportunità di un'alternativa per servire il paese in piena espansione.

Nonostante il suo fumo un po' tossico, il carbone era più economico e più facile da commercializzare del legno. Nel XVII secolo, le miniere di carbone erano situate vicino ai fiumi. In questo modo, il combustibile poteva essere spedito su barche a Londra e in altri luoghi per fondere il ferro o costruire navi. Con il boom di Londra, le spedizioni di carbone verso la città aumentarono di più di un ordine di grandezza durante il secolo.

Ma le prime miniere di carbone erano pericolose, spesso si allagavano e uccidevano i minatori. Le prime macchine a vapore alimentate a carbone, inventate da Thomas Newcomen nel 1712, meccanizzavano il pompaggio dell'acqua fuori dalle miniere. Erano stazionarie e grandi come una piccola casa, ma sufficienti per evitare le inondazioni. Il loro uso salvò la vita di molti minatori e permise la prima scalata industriale dell'estrazione del carbone.

Il commercio della ghisa: l’espansione del mercato

Negli anni 1740 il carbone era già utile non solo per il riscaldamento degli ambienti. La Coalbrookdale Company fu la prima ditta a usare il carbon coke per fondere il ferro, permettendo la produzione di massa di ghisa per la prima volta nella storia. L'azienda usò anche i motori a vapore di Newcomen per sostituire le pompe azionate dai cavalli, riducendo i costi nel processo. Meno di 60 anni dopo, il ferro aveva sostituito il legno nella maggior parte degli usi di produzione e costruzione in Gran Bretagna.

Prima del XIX secolo, le miniere di carbone si limitavano ad essere vicine ai corsi d'acqua. Le strade e i cavalli non erano adatti, e così il carbone veniva caricato sulle barche. Questo significava che il carbone doveva ancora essere trasportato dalla miniera all'acqua, usando all'inizio binari di legno.



Tecnologie che si rafforzano reciprocamente mentre il carbone diventa la fonte di energia primaria a livello globale entro il 1910.

Locomotive: distribuzione

Le ferrovie furono sviluppate per risolvere questo problema. Verso la fine del XVIII secolo vennero sviluppati motori a vapore a pressione più alta, e all'inizio del XIX secolo vennero utilizzati progetti migliori per alimentare le locomotive a vapore. I binari ferroviari passarono dall'essere fatti di legno alla ghisa e poi al ferro battuto in questo periodo, permettendo alle ferrovie di iniziare a trasportare carbone, carichi di altro genere e persone. Le miniere di carbone potevano essere costruite sempre più lontano dai fiumi.

In altre parole, la produzione industriale di ferro e le macchine a vapore, entrambe basate sul carbone, aiutarono a liberarsi dalle limitazioni iniziali di approvvigionamento del combustibile. Queste tecnologie si rafforzarono a vicenda e il loro impatto sarebbe stato difficile da comprendere nel XVII secolo. Permisero di fare cose completamente nuove.

Una volta che l'offerta di carbone fu libera, la produzione crebbe rapidamente nel XIX secolo e si diffuse dall'Inghilterra all'Europa e agli Stati Uniti. Ha permesso alla produzione di ferro di raddoppiare ogni 10 anni dal 1788 per decenni. Se invece del carbone fosse stato usato il carbone di legna per fare i binari di ferro, semplicemente non ci sarebbe stata abbastanza legna in Inghilterra.

Commercializzazione della produzione di acciaio


Una svolta nella produzione dell'acciaio alla fine degli anni 1850, il processo Bessemer, avrebbe aiutato gli Stati Uniti a catapultare la produzione di acciaio oltre 400 volte dal 1867 al 1900. A quel punto, gli Stati Uniti producevano un terzo della produzione mondiale. Proprio come allora, ancora oggi, la produzione di acciaio utilizza in gran parte coke ricavato dal carbone. 

La transizione dal legno al carbone per i paesi in via di industrializzazione è stato il cambiamento energetico più veloce e drammatico fino a quel momento nella storia dell'umanità. Fino ad allora, avevamo usato la biomassa a base di legno per il calore e le materie prime per milioni di anni.




Realizzato utilizzando i dati di Our World In Data. Dati precedenti al 1800 stimati in base al consumo di carbone nel periodo che sale dal ~0% nel 1700.


Nel 1900, il carbone era dominante, come mostrato in questo grafico. Forniva oltre il 90% dell'energia del Regno Unito e il 70% di quella degli Stati Uniti.

Ma solo dieci anni dopo, l'uso del carbone avrebbe raggiunto il picco, in gran parte perché il petrolio era in rapida ascesa.

1.2 Petrolio, motori a combustione interna e polimeri


Nicchia iniziale


Il prodotto-mercato iniziale adatto al petrolio era l'illuminazione. La ricerca del petrolio fu guidata dalla ricerca di una materia prima più economica per il cherosene, un olio per l'illuminazione che era stato precedentemente raffinato dal carbone. Il primo pozzo negli Stati Uniti, scavato con un motore a vapore, iniziò a produrre nel 1859. Il petrolio poteva essere raffinato in cherosene e solo 6 anni dopo il mercato del petrolio per l'illuminazione aveva già decuplicato la produzione.

La corsa al petrolio era iniziata, inizialmente negli Stati Uniti a Titusville, in Pennsylvania. Ma, come per il carbone, c'erano problemi di trasporto e stoccaggio da superare. Ci vollero 3 anni per un collegamento ferroviario per la città, e un altro anno per il primo oleodotto da ferrovia a pozzo.

La Standard Oil di John D. Rockefeller era l'emergente raffinatore di petrolio dominante. Consolidò l'offerta e fece accordi per ridurre i costi del cherosene del 55% dal 1865 al 1870. La Standard Oil spinse l'efficienza nella raffinazione, incluso l'uso della benzina per aiutare le raffinerie. Prima che la benzina trovasse un mercato nei motori a combustione interna, altri raffinatori la scaricavano, spesso nei fiumi. Sembra incredibile oggi, ma allora volevano solo fare cherosene.

Nel 1870, il cherosene, più economico e raffinato, aveva conquistato il mercato dell'illuminazione negli Stati Uniti. Ma nonostante la fornitura di quasi 5 milioni di barili prodotti in Pennsylvania quell'anno, l'illuminazione era ancora solo un primo passo verso mercati più grandi. Non ci sarebbe stato un mercato più grande per il petrolio, e forse per qualsiasi altra fonte di energia fino ai nostri tempi, che il motore a combustione interna.

Motori e automobili: distribuzione


Il successo del motore a combustione interna (ICE) sarebbe diventato il motore principale della domanda di petrolio per il XX secolo.

Intorno al 1900, le auto con motore a vapore e persino le auto elettriche a batteria erano più popolari delle auto ICE negli Stati Uniti. In Europa, la Porsche P1 (che sta per Porsche numero 1), fu costruita nel 1898 con una batteria al piombo. Tuttavia, il vantaggio iniziale dell'adozione delle auto a vapore ed elettriche sarebbe stato di breve durata. Pur essendo una tecnologia matura, i motori a vapore erano complicati da far funzionare e piacevano soprattutto ai primi hobbisti. I veicoli elettrici mancavano di infrastrutture di ricarica al di fuori delle città, in un periodo in cui molte più persone vivevano in zone rurali.

Nel 1900, i veicoli ICE non avevano la maturità tecnologica dei motori a vapore, né la semplicità delle auto elettriche. Ma grazie al boom del petrolio, le auto ICE avevano infrastrutture di rifornimento distribuite in tutti gli Stati Uniti. Nei decenni precedenti, la benzina derivata dal petrolio aveva trovato molti usi al di fuori delle città, usata come detergente e solvente. Gli agricoltori avevano adottato motori a benzina stazionari per "tutto, dalle lavatrici ai mulini per il grano".5 Questo significava che i negozi generali nelle aree rurali e urbane erano riforniti di benzina.




Nella foto del 1900, l'auto è quasi al centro. Nel 1913, diversi cavalli sul lato destro della foto. Fonti per le foto del 1900 e del 1913.


La benzina aveva una distribuzione superiore e le automobili erano sempre più convenienti. Nel 1914, c'erano quasi 1,7 milioni di veicoli a motore registrati negli Stati Uniti, un mercato che è cresciuto con un CAGR del 46% in 14 anni. Vedi la foto scattata nel 1913 sulla 5th Avenue qui sopra. Solo 13 anni prima, nel 1900, non c'erano quasi auto sulla strada. Questa è stata una transizione straordinariamente rapida, che, come discuteremo più avanti, è di buon auspicio per i veicoli elettrici nel 2020.

Quasi tutti i veicoli venduti a quel tempo erano alimentati a ICE. La Ford Model T aveva aiutato a scalare rapidamente l'adozione dei veicoli ICE abbassando i costi in modo drammatico. Henry Ford progettò l'auto per avere meno parti (meno di 100) che erano intercambiabili tra le auto, aumentando notevolmente l'efficienza degli operai e semplificando il processo di produzione.





Tecnologie che si rafforzano reciprocamente con il petrolo che cresce fino a diventare la principale fonte di energia a livello globale alla fine del 20° secolo.


Polimeri: una nuova classe di materiali


I polimeri derivati dal petrolio sarebbero diventati una classe completamente nuova di materiali. La bachelite, inventata nel 1907, fu il primo polimero sintetico e fu effettivamente ricavato dal carbone. Fu usata come isolante elettrico per gli Stati Uniti in rapida elettrificazione e in tutto, dalle radio, ai ferri da stiro, ai pettini, come lodò la rivista Time in una copertina del 1924. Il successo della bachelite diede il via a una corsa tra le aziende chimiche per scoprire nuovi polimeri sintetici, anche se all'inizio non avevano usi.

L'investimento di R&S nei polimeri sintetici da parte di molte aziende chimiche ha iniziato a dare i suoi frutti negli anni '30. Il nylon fu inventato e usato nella seconda guerra mondiale (e ancora oggi) per paracaduti, corde e calze. Il plexiglass fu usato nei finestrini degli aerei e il polietilene 6 fu usato per gli imballaggi.



Realizzato utilizzando i dati di Our World in Data. ICE = motore a combustione interna


Proprio come per il carbone, l'uso diffuso e la distribuzione del petrolio permisero lo sviluppo e l'uso in scala di nuovi materiali, come mostrato qui. Furono create intere nuove industrie.

Per quanto importante, un punto chiave ha limitato l'ascesa del petrolio è stato il costo. Il petrolio non è mai stato abbastanza economico per produrre elettricità, a differenza del carbone, o più tardi del gas naturale e ora del solare e dell'eolico.

Parallelamente all'ascesa del petrolio, anche l'elettricità stava guadagnando terreno. Nonostante il suo impatto già enorme nel 20° secolo, l'elettrificazione è appena iniziata.

1.3 Elettricità, alluminio e linee di trasmissione


Nicchie iniziali


Dopo più di un secolo di progressi nella ricerca, l'elettricità doveva ancora essere commercializzata a metà del XIX secolo. Alcuni primi usi come il telegrafo e il telefono si erano già dimostrati utili. Tuttavia, a quel tempo, non c'erano casi d'uso che richiedevano fonti più abbondanti di elettroni.

La commercializzazione della lampadina a incandescenza da parte di Thomas Edison nel 1879 fu la prima killer app. Le lampadine erano più luminose e duravano molto di più delle lampade a cherosene. Ironicamente, il petrolio aveva iniziato a sostituire il carbone nella fornitura di cherosene solo venti anni prima dell'invenzione di Edison.

La prima adozione della luce elettrica fu rapida. Nel 1882, solo tre anni dopo, Edison aveva installato la prima centrale elettrica commerciale degli Stati Uniti nella bassa Manhattan, inizialmente per 82 clienti in pochi isolati. Due anni dopo, Edison riforniva oltre 500 persone con più di 10.000 luci elettriche.

Le prime guerre per la distribuzione


L'elettricità poteva essere trasmessa solo a distanze molto limitate e utilizzava un'infrastruttura a corrente continua (DC) all'epoca. Edison sosteneva la corrente continua, ma i fili di rame si fondevano se trasmessi su lunghe distanze. Inoltre, c'era un limite al numero delle centrali a carbone inquinanti che la gente poteva tollerare vicino alle città.

C'è voluto un passaggio dalla corrente continua alla corrente alternata (AC) per distribuire l'elettricità molto più ampiamente di alcuni isolati di città. Una volta sviluppata e testata negli anni 1880-90, poteva trasmettere elettroni a decine di miglia inizialmente, con una gamma di trasmissione che aumentava con tensioni più alte.





Tecnologie che si rafforzano a vicenda nell'ascesa dell'elettricità nel XX secolo.


La commercializzazione dell'alluminio

L'elettricità generata era anche abbastanza economica da permettere la produzione di materiali come l'alluminio per la prima volta in modo economico.

Quando fu aperta nel 1895, l'energia idroelettrica delle cascate del Niagara fu usata per alimentare il terzo impianto di fusione di Alcoa. Prima che l'elettrolisi del suo ossido fosse possibile con elettroni più economici, il metallo era difficile e costoso da raffinare dal minerale. Era più costoso dell'oro e, di conseguenza, raro.

La produzione globale di alluminio sarebbe aumentata di 15 volte dal 1900 al 1916, quando i costi di elettrolisi scesero e il metallo trovò più usi. I fratelli Wright usarono un motore d'aereo in lega di alluminio nel 1903, e l'alluminio cominciò ad essere ampiamente utilizzato negli aerei della seconda guerra mondiale e nei satelliti durante la corsa allo spazio.

L'alluminio ha anche sostituito il rame nelle linee di trasmissione, permettendo alle linee a lunga distanza di essere economicamente più fattibili. Era più economico, più leggero e permetteva di costruire torri di trasmissione più leggere (e anche più economiche), nonostante non fosse conduttivo come il rame.

Dispositivi elettrificati: mercati in crescita


Le case e gli edifici divennero sempre più elettrificati, con circa cinque famiglie su sei collegate alla rete entro la fine degli anni '20. L'uso dell'elettricità per famiglia continuò a crescere man mano che si diffondevano gli elettrodomestici, specialmente dopo la seconda guerra mondiale. Lavatrici, frigoriferi, televisori, condizionatori d'aria, lavastoviglie si fecero strada nelle case dei paesi sviluppati entro gli anni '70.




Fatto usando i dati della BP Statistical Review of World Energy e di Vaclav Smil. *Vedi la versione in inglese su come l'elettricità viene convertita usando il metodo della sostituzione.


La crescente elettrificazione dell'uso dell'energia significava che una quota maggiore di combustibili fossili (carbone e gas in particolare) produceva elettricità, e non per altri usi finali. Come mostrato sopra, nel 1900, meno del 2% della produzione mondiale di combustibili fossili era convertita in elettroni, ma entro il 2020, quasi il 40% lo sarebbe stato. I combustibili fossili stanno diventando meno competitivi con il solare, il vento e le batterie, i nuovi nati del blocco energetico. Ora, c'è un'altra transizione ben avviata.

1.4 L'energia pulita è in aumento

Nonostante tutti i loro vizi e limiti, il carbone e il petrolio hanno alimentato il rapido progresso tecnologico e migliorato il tenore di vita di miliardi di persone. Ma l'era dell'uso di piante morte preistoriche per alimentare le nostre economie sta per finire. Guardiamo le transizioni energetiche attraverso la lente dei cicli di innovazione, ripensando a quanto sia difficile capire la crescita non lineare.



Le nuove tecnologie sostituiscono la quota di mercato degli incumbent prima lentamente, poi rapidamente. Questo è anche vero per le aziende dirompenti che prendono quote di mercato nelle industrie esistenti.

All'inizio della figura qui sopra, l'incumbent ha un'alta quota relativa di mercato e sembra mantenere bene la quota. Tuttavia, la nuova tecnologia è in aumento. Sta crescendo ad un tasso non lineare per prendere quote di mercato ogni anno dall'incumbent. Prima che l'incumbent possa reagire, il nuovo lo ha già superato nella quota di mercato.

Questo è successo più e più volte nel corso della storia. I cavalli sono scomparsi dalle strade quando le auto ICE hanno preso il sopravvento; la quota offline dei dollari della pubblicità è stata sostituita dagli annunci online; Nokia non ha risposto all'ascesa degli smartphone; i taxi sono stati per lo più usurpati dal ridesharing. L'incumbent disruption si applica anche all'industria energetica e alle transizioni energetiche. Poche persone in vita hanno vissuto abbastanza a lungo per essere parte di una di esse, a differenza di molti degli esempi che ho appena dato.


Come si svolgono le transizioni

Nel grafico qui sotto, vediamo una visione generale di come si sono svolte le transizioni energetiche dal carbone al petrolio e all'elettrificazione. Ho incluso solo queste tre perché sono le fonti di energia (vettore energetico nel caso dell'elettricità) più importanti e dominanti a livello globale.




Realizzato utilizzando i dati di Our World in Data, BP Statistical Review e Vaclav Smil. *Vedi 9 su come l'elettricità viene convertita usando il metodo della sostituzione.


La quota del carbone nel consumo globale di energia aveva già raggiunto il suo massimo intorno al 1910, quando la crescente adozione di veicoli a combustione interna (ICE) ha permesso al petrolio di iniziare rapidamente a rosicchiare quote al carbone. Negli anni '70, il petrolio era la fonte di energia più importante, con un picco di oltre il 40% del consumo globale di energia durante le crisi petrolifere degli anni '70. L'uso del gas naturale è aumentato solo un po' dal 14% nel 1985 al 24% nel 2019, nonostante la produzione statunitense sia aumentata drasticamente dal 2005.

L'elettrificazione dell'energia ha avuto un ruolo crescente negli ultimi 120 anni. Circa il 40% dell'uso globale dell'energia è elettrificato, usando il metodo della sostituzione. Un'altra lente sull'aumento dell'elettricità è che oltre il 30% del carbone e del gas (soprattutto) viene convertito in elettricità a livello globale, perché questo è un uso molto produttivo di quei combustibili fossili oggi.

L'energia pulita è in crescita accelerata

Negli ultimi 10 anni, il solare e l'eolico hanno guadagnato sul carbone nella generazione di elettricità. Hanno generato l'1% dell'elettricità globale nel 2007 e si stavano avvicinando al 10% nel 2020.




Realizzato utilizzando i dati della BP Statistical Review. Questa è l'elettricità e non tutta la generazione di energia, quindi esclude le fonti non elettrificate - petrolio per il trasporto, combustibili fossili per l'industria e il riscaldamento, ecc.


I combustibili fossili sono sempre meno competitivi rispetto al solare e all'eolico nella produzione di elettricità. Le nuove centrali solari ed eoliche sono più economiche da costruire rispetto alle centrali a carbone e a gas esistenti in quasi metà del mondo. Questo ha molto a che fare con il motivo per cui oltre l'80% della nuova capacità elettrica nel 2020 proveniva da fonti rinnovabili, e la stragrande maggioranza di queste proveniva dal solare e dall'eolico. È solo una questione di anni, non di decenni, prima che il mondo costruisca quasi esclusivamente centrali elettriche pulite a basse emissioni di carbonio. Presto, ci saranno più smantellamenti di centrali a carbone e gas che nuovi impianti solari ed eolici aggiunti.



Fatto usando i dati di IRENA.


Questa tendenza è chiaramente visibile nel grafico qui sopra. La quota di nuova capacità elettrica dal solare e dall'eolico ha superato il 75% nel 2020, essendo aumentata da meno del 6% circa nella metà degli anni 2000. In quel periodo, i combustibili fossili si sono ridotti dal contribuire a più dell'80% della nuova capacità a meno del 20%.

Questa è un'inversione notevole in venti anni.

Nonostante i rapidi progressi, il solare e l'eolico devono affrontare i dolori della crescita. Tornerò alle grandi sfide come l'intermittenza, cioè l'energia solo quando il sole splende o il vento soffia, e la mancanza e la lentezza della costruzione di più trasmissioni.

Chiaramente, la transizione dell'energia pulita sta rosicchiando quote ai combustibili fossili e ad un ritmo crescente.

Una breve nota sulla diffusione delle centrali a fissione nucleare, che hanno avuto un boom negli anni '60 e '70. Gli incidenti di Three Mile Island, Chernobyl e Fukushima hanno spinto il sentimento antinucleare, nonostante l'energia da fissione fosse molto più sicura che bruciare combustibili fossili. Questo ha portato a ritardi normativi nell'approvazione delle centrali a fissione, con molti progetti che sono stati cancellati e hanno dovuto affrontare massicci superamenti dei costi.

Immergiamoci poi nel cuore della transizione dell'energia pulita per vedere come gli elettroni puliti (specialmente il solare) stanno crescendo così rapidamente, perché la maggior parte degli esperti e degli addetti ai lavori hanno sottovalutato la crescita e il loro ruolo fondamentale nella transizione dell'energia pulita.



2 Generazione di elettricità: Solare ed eolico


Non abbiamo mai visto tecnologie energetiche come il solare e l'eolico.

Per la prima volta nella storia, possiamo costruire industrialmente la generazione di energia. Una volta costruiti, gli impianti solari ed eolici costano molto poco per funzionare. In altre parole, sono fondamentalmente fonti di elettroni a costo marginale zero.

Il loro combustibile, la luce del sole o il vento, è gratuito e rinnovabile. Il solare in particolare è modulare e frazionabile, il che significa che un pannello può essere installato su un tetto o letteralmente milioni di pannelli in un sito.

Hanno anche guadagnato trazione velocemente, una velocità mai vista prima nella storia, come mostra il seguente grafico. Naturalmente, poiché la diffusione continua ad aumentare, il ritmo probabilmente rallenterà un po' nei prossimi anni.




Realizzato utilizzando i dati di Our World in Data, BP Statistical Review e Vaclav Smil.10 L'elettricità è un vettore di energia, non una fonte.


Il solare e l'eolico mostrano curve di apprendimento ripide e consistenti (note anche come curve di esperienza). Cioè, diventano più economici da costruire man mano che più unità vengono costruite e utilizzate. Questa caratteristica delle tecnologie a rapida scalabilità non si è mai applicata alle fonti di energia a combustibile fossile.

Queste energie pulite non mostrano segni di rallentamento. Il 2010 è stato uno dei migliori decenni del solare, come mostra il grafico qui sotto. La crescita è forte, le riduzioni dei costi drastiche, e l'industria sta innovando e imparando a ridurre ulteriormente i costi a velocità.




Realizzato utilizzando i dati del Our World in Data. Il tasso di apprendimento (learning rate) è il % di riduzione dei costi durante ogni raddoppio di capacità.


La capacità installata è cresciuta di oltre il 33% CAGR durante il decennio. Questo è un ritmo vertiginoso considerando che centinaia di milioni di moduli vengono prodotti ogni anno su questa scala. Anche la riduzione dei costi è stata forte, con un calo annuale del costo per watt di oltre il 16% durante gli anni 2010 contro il 12% degli ultimi 44 anni.

Infine, il tasso di apprendimento, che è il tasso di riduzione dei costi per ogni raddoppio della capacità, è stato anche molto meglio che nel periodo precedente. Il tasso di apprendimento a lungo termine del solare è di circa il 23,6% dal 1976, ma questo è salito a quasi il 35% negli anni 2010.

Come discuteremo, anche per gli addetti ai lavori più ottimisti questa crescita era inaspettata.

Ci sono cicli di feedback positivi dalla combinazione delle tecnologie, come abbiamo visto nelle transizioni passate. Stiamo iniziando a vedere più impianti solari accoppiati con lo stoccaggio agli ioni di litio, aiutando a risolvere molte delle limitazioni delle rinnovabili variabili. Queste due tecnologie sono reciprocamente vantaggiose e si aiutano a vicenda a guadagnare dai fattori di scala. Ci sono stati dei fenomeni analoghi nel passato: carbone, ferro e motore a vapore; petrolio, acciaio e motore a combustione interna; elettricità, alluminio e linee di trasmissione.

Diamo prima un'occhiata a come il solare in particolare è decollato per poi approfondire la discussione della transizione verso l'energia pulita.

2.1 Adozione solare: Lento, poi tutto in una volta

Se non diversamente specificato, le statistiche e i riferimenti in questa sezione sono tratti da How Solar Energy Became So Cheap di Greg Nemet. I moduli solari fotovoltaici (PV) hanno iniziato a risolvere problemi in piccole nicchie di mercato. Con l'aumento della produzione, i costi sono scesi e le prestazioni dei moduli hanno continuato a migliorare. Il solare ha continuato ad entrare in mercati più grandi, come il tetto e più tardi l'energia su scala industriale, che ha continuato a guidare una forte crescita.




Visualizzare 40 anni di crescita non lineare

Un punto importante da ribadire è quanto sia difficile cogliere le tendenze non lineari. Prendiamo il solare dal 1976. In media, la capacità distribuita dei moduli è cresciuta di quasi il 40% all'anno, mentre i costi sono scesi di oltre il 12% all'anno.

Che aspetto ha questo fenomeno?




Realizzato utilizzando i dati di Our World in Data.


La crescita del solare è un'eccellente dimostrazione del ciclo di feedback positivo che abbiamo discusso per le tecnologie basate sulla manifattura di prodotti. Poiché i combustibili fossili non sono tecnologie di questo tipo, i costi non scendono costantemente per un lungo periodo di tempo. Gli impianti a carbone e a gas naturale mostrano tassi di apprendimento, ma il costo dei combustibili stessi è aumentato nel corso dei decenni perché le risorse facili da estrarre si sono esaurite, facendo salire i costi operativi.

Ora, se qualcuno avesse dato solo un'occhiata a questo grafico, avrebbe potuto supporre che la capacità del solare installato fosse fondamentalmente zero fino al 2000. Potrebbe anche pensare che i prezzi dei moduli solari sono stati vicini allo zero dai primi anni 2010.

Avrebbero torto su entrambi i fronti. La crescita composta e la riduzione dei costi guidano enormi cambiamenti di scala che sono difficili da leggere su assi lineari.

C'è un modo inizialmente più difficile da leggere, ma molto più utile per esprimere questi grandi cambiamenti, come mostrato in questo grafico. Usa assi logaritmici, rendi l'asse x di capacità cumulativa e segna il tempo sulla serie di dati stessa.




Adattato da Our World in Data. Ogni linea verticale segna un aumento di dieci volte della capacità installata.


Come possiamo vedere, la crescita del solare e le riduzioni dei costi sono state molto consistenti nel corso di diversi decenni, con alcuni sbalzi (della durata di qualche anno) lungo la strada. Gli ultimi dieci anni hanno visto la più grande riduzione relativa dei costi di sempre. Come discuteremo più avanti, non sembra che la crescita del solare stia rallentando.
Una breve storia della crescita del solare

Nel 1954, i Bell Labs svilupparono le prime celle solari al silicio. Alla fine degli anni '50, i primi moduli solari fotovoltaici erano usati per alimentare i trasmettitori radio sui satelliti della marina statunitense.

Durante gli anni '60, il governo degli Stati Uniti ha acquistato 150 milioni di dollari per 10 milioni di celle solari, così come vetro e componenti solari fotovoltaici. Avrebbero anche investito nella R&S solare durante gli anni 70 come risposta alle crisi petrolifere.  Questo ha contribuito a far scendere i costi del solare di ben 5 volte dal 1974 al 1981, nonostante fosse ancora un piccolo mercato nascente con vendite dell'industria statunitense di soli 100 milioni di dollari nel 1982.

Negli anni '70 e '80, aziende giapponesi come la Sharp hanno continuato a trovare mercati più di nicchia per il solare, come i fari e l'elettronica di consumo - ricordate le calcolatrici a energia solare? Hanno superato i produttori statunitensi all'inizio degli anni '80, ma hanno ristagnato negli anni '90, quando non c'erano mercati più grandi in cui vendere.

Nel frattempo la California si stava preparando a giocare un ruolo di catalizzatore nello sviluppo del solare e dell'eolico. C'era una nuova legislazione sull'energia pulita appena introdotta e le aspettative di continui aumenti dei prezzi del petrolio dopo la crisi energetica del 1979. Ciò ha permesso di finanziare e costruire circa un miliardo di dollari di progetti eolici e solari termici prima che i prezzi del petrolio tornassero indietro.

Negli anni '90 e 2000, la Germania sarebbe cresciuta fino a diventare di gran lunga il più grande mercato per il solare fotovoltaico dell'epoca. La politica ha giocato un ruolo enorme, sovvenzionando più di 200 miliardi di euro di solare sui tetti e rappresentando più della metà delle installazioni globali di fotovoltaico dal 2004 al 2010. I produttori tedeschi come Q-Cells si sono ingranditi per servire il mercato, ma dalla metà degli anni 2000, le startup cinesi stavano rapidamente prendendo la quota di mercato.

Nei primi anni 2000, le startup solari emergenti della Cina hanno lavorato più velocemente e hanno beneficiato della tempistica per espandersi nel mercato tedesco. La cosa più importante è che si concentravano incessantemente sulla qualità e sul basso costo, cosa che i loro concorrenti tedeschi non facevano. I produttori tedeschi hanno anche dovuto sviluppare più attrezzature di produzione su misura (spesso adattate dall'industria dei semiconduttori). Ma quando poi sono stati acquistati dalle aziende cinesi, le attrezzature erano diventate più standardizzate e costavano meno.

I cinesi sono più bravi di chiunque altro a costruire [il solare fotovoltaico]. Gli Stati Uniti, il Giappone e la Germania non sono stati semplicemente abbastanza veloci da riconoscere l'opportunità del mercato, e tanto meno da soddisfarla... [Le aziende cinesi stavano] assumendo rapidamente, producendo rapidamente e migliorando rapidamente. - Prof. Greg Nemet, Come l'energia solare è diventata economica, pag. 135


Dal 2000 al 2007, nei primi 7 anni di lancio di alcune delle prime startup, sono stati installati più impianti solari fotovoltaici a livello globale da aziende cinesi che da qualsiasi altro paese. Hanno raccolto 7 miliardi di dollari in IPO tra il 2005 e il 2007. A partire dal 2009, il governo cinese è diventato molto favorevole all'industria, dando decine di miliardi in crediti d'imposta ai produttori solari per accelerare lo scale-up.

Altre regioni con abbondante luce solare hanno iniziato a offrire incentivi politici. L'Australia e la California hanno offerto tariffe di scambio favorevoli introdotte alla fine degli anni 2000, contribuendo ad accelerare l'adozione globale.

Nel 2008, una carenza e un'impennata dei prezzi del silicio, il materiale principale per i PV, ha mandato in bancarotta molti produttori solari. Ha anche motivato la costruzione di nuova capacità nella catena di approvvigionamento solare che ha poi contribuito ad alimentare il boom del 2010.

Dal 2005, la capacità di installazione globale è cresciuta ad un vertiginoso 44% CAGR. Oltre il 60% dei moduli solari sono prodotti in Cina, un punto che i politici e i produttori negli Stati Uniti e nell'UE stanno cercando di cambiare.


2.2 Il calo dei costi ha aperto mercati più grandi


L'elettricità da energia solare ed eolica è oggi molto economica.

Il costo durante la vita di un bene che genera elettricità è calcolato con il costo livellato dell'elettricità o LCOE. Ricordate che all'inizio del post ho parlato di punti di ribaltamento per il costo dell'elettricità dal solare e dall'eolico.

Possiamo mostrare questo nuovo punto di svolta nel grafico qui sotto. Il LCOE dei nuovi progetti è più economico del gas naturale di nuova costruzione, ed è competitivo con le centrali a gas esistenti negli Stati Uniti. Queste energie pulite sono state più economiche delle nuove centrali a gas per anni - un punto di svolta precedente.




Sulla base dei dati Lazard per gli LCOE statunitensi.


Nel grafico sopra, gli LCOE solari ed eolici non sono sovvenzionati. Sono ancora più competitivi con gli impianti a gas esistenti quando si tiene conto degli attuali incentivi statunitensi. Con gli incentivi, il solare è di cinque centesimi per chilowattora più economico nel 2021, a 0,023 dollari/kWh. L'eolico è incredibilmente economico, scendendo di quindici centesimi per kWh a 0,009 dollari/kWh.

I LCOE dei nuovi impianti solari e/o eolici sono competitivi con, o addirittura più economici di quelli di impianti a carbone o a gas esistenti in molti altri paesi. Per esempio, l'Australia, la maggior parte dell'Europa occidentale, la Cina, l'India e altri. L'impianto a combustibile fossile più economico dipende dal luogo, e può essere sia a carbone che a gas.

Il raggiungimento di questo punto critico di costo ha iniziato a scoraggiare pesantemente la costruzione di nuove centrali a carbone o a gas. Nel 2020, a livello globale, l'82% della nuova capacità elettrica proveniva da fonti rinnovabili.

Negli Stati Uniti, nessuna centrale a carbone è stata aggiunta dal 2014, come mostra il grafico qui sotto. Gli impianti a gas hanno aggiunto solo il 10% della nuova capacità elettrica nei primi tre trimestri del 2021, rispetto al 57% di soli tre anni fa.




Dati della SEIA. Tendenza simile al grafico delle nuove aggiunte globali nella sezione 1.4.


Le curve di apprendimento per il solare e l'eolico sono globali, così che un maggior numero di installazioni nei primi paesi adottanti aiuta a ridurre i costi per gli altri. Questa è una grande notizia anche per i paesi in via di sviluppo: anche lì, la crescita del solare sta accelerando.

L'India ha aumentato la sua capacità solare di 600 volte tra il 2010 e il 2020, e attualmente ha davanti solo la Cina, gli Stati Uniti e il Giappone nella capacità totale installata. Il Vietnam ha aggiunto più capacità solare nel 2020 di tutti i paesi tranne gli Stati Uniti e la Cina, poiché le banche straniere evitano il carbone (come hanno fatto in molti paesi).

2.3 La crescita del solare continua ad essere sottovalutata


Il solare fotovoltaico ha sostenuto alti tassi di apprendimento. Dal 1976, ogni raddoppio della capacità solare ha portato a una riduzione del 20% del costo, guidando una caduta dei prezzi di 300x con una capacità scalata di 2 milioni di volte.

Questo è un esempio della legge di Wright che descrive un calo costante dei costi per ogni raddoppio della produzione. È stata osservata per la produzione di tutto, dagli aeroplani, alla Ford Model T, alla RAM dei semiconduttori e alle batterie agli ioni di litio. La legge di Wright potrebbe anche essere più adatta per prevedere la produzione di semiconduttori rispetto alla legge di Moore. (n.d.t. che descrive il numero di componenti in un microprocessore in funzione del tempo)

Quasi nessuno è stato abbastanza ottimista sulla velocità di crescita del solare e sulla riduzione dei costi. Questo nonostante la legge di Wright abbia tenuto bene per il solare per più di quattro decenni.

Un team di Oxford ha recentemente analizzato le previsioni storiche per il solare fotovoltaico, l'eolico e altre tecnologie di transizione energetica. Non sorprende che i modelli abbiano costantemente sottostimato la crescita del solare e la velocità delle continue riduzioni dei costi. Nel loro documento, hanno scritto:

"Tali modelli hanno costantemente fallito nel produrre risultati in linea con le tendenze del passato".

Hanno concluso, non sorprendentemente dato il tasso di apprendimento piuttosto consistente del solare, che:

"Al contrario, le previsioni basate sull'estrapolazione delle tendenze hanno costantemente ottenuto risultati molto migliori".


E le previsioni dei fondatori del settore, degli addetti ai lavori e degli esperti?

Gregory Nemet, autore di How Solar Energy Became Cheap, voleva capirlo. Tra il 2008 e il 2011, ha chiesto a 65 pionieri del business solare, politici e accademici di prevedere il costo del solare nel 2030.

Nel 2018, la realtà aveva già superato le previsioni degli esperti con dodici anni di anticipo. Il costo dell'elettricità a energia solare era già inferiore alle previsioni mediane per il 2030. Ricordate, questi non erano opinionisti, ma persone che avevano costruito l'industria.

L'AIE, il principale ente energetico mondiale, e i principali esperti di energia hanno costantemente sottovalutato la crescita del solare negli ultimi 20 anni. Quello che è successo al costo del solare negli ultimi 10 anni è arrivato più di un decennio prima delle previsioni degli esperti.

Perché i modelli e gli esperti si sono sbagliati così tanto?

In breve, penso che il solare si sia espanso in mercati più grandi più velocemente di quanto chiunque pensasse possibile. Accanto a questo, ha continuato a guidare la riduzione dei costi nel processo, accelerando anche nell'ultimo decennio.




I modelli hanno sottovalutato questo ciclo di feedback nell'ascesa (ancora) precoce del solare e nell'espansione in mercati più grandi.

Come il team di Oxford ha discusso, le previsioni hanno usato limiti arbitrari ai tassi di crescita non coerenti con i modelli storici, e altrettanto arbitrari "costi di base" che sono stati inseriti nei modelli.

I tassi di apprendimento per il solare sono stati più veloci dal 2010 che nei decenni precedenti. Come discusso in precedenza, i tassi di apprendimento nell'ultimo decennio sono stati quasi del 35%, al di sopra della media a lungo termine del 24% dal 1976.

Ci sono diverse ragioni per cui il LCOE del solare è sceso ancora più velocemente della media storica. La tecnologia del solare fotovoltaico continua a migliorare man mano che la produzione aumenta.

Un gruppo che chiaramente non ha dato retta alle previsioni di crescita lenta sono stati i produttori di energia solare. Essi beneficiano sempre più delle economie di scala e della standardizzazione nella produzione. I progetti solari sono sempre più costruiti su scala di grandi impianti, che ora sono fino a più gigawatt di dimensioni. Questo ha permesso di ridurre ancora di più i costi degli elementi degli impianti che non sono moduli per i progetti solari su scala industriale. Infine, i pannelli solari stanno diventando più durevoli con garanzie più lunghe offerte nel tempo, con un grande produttore che ora offre 40 anni di garanzia!

2.4 Intermittenza


L'intermittenza è il problema del sole che non sempre splende e del vento che non sempre soffia.

Dato che è stato aggiunto più solare nelle reti elettriche, come il CAISO della California e l'Australia del Sud, ci possono essere giorni di sole con troppo solare per la rete da gestire (il fenomeno della curva a collo d'anatra). Nelle reti con un'alta penetrazione solare come le due citate, si crea la necessità di risolvere l'intermittenza giornaliera.

C'è anche il problema dell'intermittenza di più lunga durata, che può essere di diversi giorni, o degli squilibri stagionali. In una zona dove un inverno è particolarmente nuvoloso, la capacità solare può diminuire della metà o più in un mese rispetto alla media annuale.

Le soluzioni sono però a portata di mano. Per le durate più brevi, i grandi progetti di stoccaggio agli ioni di litio forniscono fino a quattro ore di stoccaggio praticabile per le energie rinnovabili con l'attuale economia dell'unità. Stanno iniziando ad apparire progetti di stoccaggio di otto ore. La prima implementazione su scala di rete è stata fatta da Tesla in Sud Australia nel 2017, con lo stato che non ha subito un blackout né ha avuto bisogno di "liberarsi" di energia pulita da allora.




Stoccaggio di quattro ore abbinato al solare a Kuai'i, Hawaii, 2017.


Lo stoccaggio accoppiato al solare può aggiungere più valore alle reti ad alto contenuto di rinnovabili rispetto allo stoccaggio da solo, specialmente durante le ore di punta serali. Inoltre, dato che i prezzi delle batterie continuano a scendere, sarà possibile uno stoccaggio di durata maggiore, forse 12 ore. Parleremo di più delle batterie e del mercato dello stoccaggio nella prossima sezione.

Lo stoccaggio di più lunga durata ha molte soluzioni di energia pulita come l'idroelettrico a pompaggio, immagazzinamento meccanico e varie soluzioni elettrochimiche come le batterie ferro-aria. Non mancano i finanziamenti per queste tecnologie emergenti. È ancora troppo presto per dire quali tecnologie beneficieranno di più dei fattori di scala, ma probabilmente quelle che usano materiali a basso costo e hanno alti tassi di apprendimento.

Infine, la rete potrebbe non aver bisogno di così tanto stoccaggio come si pensa, anche se certamente ne avremo molto bisogno.

Un recente articolo pubblicato su Nature ha usato dei modelli trovando che se si arriva a far produre al solare e il vento forniscono 1,5x di tutta la capacità elettrica, solo 3 ore di stoccaggio di batterie accoppiate funzionerebbero bene. Ne risulterebbe una carenza di elettricità per meno di 200 ore all'anno. Probabilmente anche meno carenze sarebbero venute fuori dai modelli  se le batterie distribuite (diciamo nei veicoli elettrici) fossero state incluse nell'analisi.


2.5 Aggiornamenti della trasmissione


Trasmettere energia pulita su scala industriale da aree solari o ricche di vento richiede la costruzione di più linee di trasmissione ad alta tensione. Queste linee sono spesso costose, e si impantanano nella burocrazia dei permessi che può richiedere 10 anni per l'approvazione e la installazione.

Naturalmente, abbiamo bisogno di linee di trasmissione solo nei casi in cui gli elettroni puliti sono generati lontano da dove vengono utilizzati, come i centri urbani e gli hub di produzione.




Per muoversi più velocemente e avere accesso a elettroni economici e puliti direttamente, le industrie affamate di elettricità si stanno sempre più collocando accanto agli impianti solari ed eolici. In questo modo, gli sviluppatori di energie rinnovabili evitano di pagare le tasse di interconnessione, mentre le nuove industrie alimentate da elettroni ultra-economici possono ottenere l’elettricità più economica possibile senza un'azienda che faccia da intermediario. Parleremo di questo più tardi.

L'altro lato di questo argomento è naturalmente l'installazione di progetti solari su piccola scala in aree dove l'energia è già utilizzata. Il solare sui tetti, le microreti e lo stoccaggio di energia per le case e l'industria sono in crescita. Queste risorse energetiche distribuite (DERs in gergo energetico) possono mantenere le luci accese durante eventi meteorologici estremi, anche se tutte le linee elettriche di una città vengono meno.

In molti scenari, è necessario costruire più trasmissione. Per permettere un maggior numero di impianti solari ed eolici su scala industriale, sono necessarie riforme e aggiornamenti delle infrastrutture. Questo spazio ha visto un'attività promettente da parte dei regolatori statunitensi di recente e disegni di legge che permettono di costruire più velocemente le linee di trasmissione lungo le strade e le ferrovie. Ci sono anche startup che lavorano per aumentare la capacità delle linee esistenti e ottimizzarle.

In realtà, la maggior parte dei paesi sta scalando sia l'energia pulita distribuita che quella su scala industriale, dato che entrambi i tipi offrono valore oltre ad essere a bassa emissione di carbonio.


2.6 È probabile una forte crescita in futuro


L'energia solare ed eolica sono probabilmente ancora in una fase iniziale della loro adozione e continueranno a vedere una forte crescita. I seguenti punti rendono l'idea.
Il solare e l'eolico continuano a far scendere i costi con l'aumento della diffusione

Il costo dell'elettricità a energia solare è diminuito del 35% per raddoppio industriale nell'ultimo decennio. Il tasso di apprendimento attuale è più veloce del 24% del 1976, ma ha senso data la rapida crescita e la concorrenza dei produttori cinesi dalla metà degli anni 2000 discussa in precedenza.

Nessun vincolo di costo fisico per almeno il prossimo decennio

C'è abbondanza di terreni e di materiali come il silicio per aumentare la produzione del solare fotovoltaico. I pannelli più nuovi sono costruiti per durare più a lungo. Le tecnologie del solare fotovoltaico stanno ancora maturando, con spazio per ridurre ulteriormente i costi. Gli esempi includono una produzione sempre più standardizzata, materiali migliori che migliorano l'efficienza delle celle e design come il bifacciale o il doppio strato con efficienze più elevate, e anche l'ancoraggio dei pannelli direttamente al suolo per risparmiare sui costi di sistema e di manodopera.


Guardando all'ultimo decennio, il CAGR dell'elettricità generata dal solare è stato quasi del 40%, che ha superato la crescita delle aggiunte annuali di capacità di poco più del 33%. Questo probabilmente è stato aiutato dal miglioramento del fattore di capacità solare da un numero crescente di progetti utility-scale che utilizzano inseguitori solari, così come celle solari più efficienti e processi di produzione altrimenti migliorati.

Il solare e l'eolico superano i combustibili fossili in molti luoghi

I nuovi progetti solari o eolici su scala industriale sono già più economici che gestire le centrali a carbone e a gas naturale esistenti nei paesi che costituiscono il 46% della popolazione mondiale. Come mostrato nel grafico qui sotto, il solare è più economico per la Cina, l'India e la maggior parte dell'Europa occidentale; l'eolico in Danimarca, Brasile, Regno Unito, Marocco e altri. Negli Stati Uniti, il 61% delle centrali a carbone esistenti sono più costose delle rinnovabili. Il solare e l'eolico sono competitivi con le centrali a gas naturale esistenti.




Fonte. Questa mappa mostra la tecnologia con il più basso costo livellato dell'energia (costo dell'elettricità spalmato sulla durata del bene) per i nuovi impianti solari ed eolici rispetto ai costi marginali (operativi e di combustibile) per le centrali esistenti a carbone e a gas.

Come accennato prima, l'82% della nuova generazione di elettricità a livello globale è stata prodotta da fonti rinnovabili nel 2020. Il carbone è in declino quasi terminale, con impianti proposti che vengono cancellati a un ritmo storico. L'uso del gas naturale per tutti gli usi, compresi elettricità, carburante e calore, potrebbe aver raggiunto il picco negli Stati Uniti nel 2019. Il declino del gas per la produzione di elettricità sarà probabilmente accelerato dal picco globale dei prezzi alla fine del 2021. Man mano che il solare e l'eolico diventano la fonte più economica di elettroni in un numero sempre maggiore di paesi, aspettatevi una quantità crescente di attrezzature per i fossili esistenti non recuperabili.

Il caso di chiudere e sostituire le centrali fossili esistenti diventa ogni anno più convincente.
Il solare distribuito e l'eolico offshore riducono la necessità di linee di trasmissione

Come menzionato in 2.4, i miglioramenti della trasmissione sono costosi e richiedono molti anni anche per approvare nuovi impianti solari su scala industriale.

Il solare distribuito può integrare le energie rinnovabili su scala industriale. I tipi includono tetti residenziali, commerciali e industriali, microgrids e installazioni solari fuori sede.

Il solare distribuito, le batterie e altre risorse possono effettivamente ridurre i costi dell'elettricità della rete e persino permettere la costruzione di più fonti rinnovabili su scala industriale.

I FV solari, per progettazione, sono abbastanza piccoli e modulari da essere distribuiti vicino o dove viene utilizzato. Il solare su tetto ha avuto un boom nei paesi dove le risorse solari sono grandi, i costi del sistema sono economici, le politiche di misurazione netta significano un alto ROI, e i processi di autorizzazione sono veloci. Per esempio, il 30% delle case australiane ha già installato il solare sul tetto, ed entro il 2025, il solare fornirà tutti gli elettroni necessari, perlomeno in certi momenti.

Gli Stati Uniti sono un paese in cui il solare su tetto è inutilmente costoso. Una combinazione di costi di autorizzazione e di burocrazia a livello cittadino, di restrizioni di codici arcani e di costi di acquisizione dei clienti molto alti hanno reso il solare su tetto negli Stati Uniti molto meno accessibile. Il che significa, ovviamente, meno adozione. Al contrario, l'Australia ha snellito i permessi, semplificato i codici e abbassato i costi di acquisizione dei clienti e di installazione del lavoro. Il risultato? Il solare su tetto è quasi tre volte più costoso negli Stati Uniti. Gli Stati Uniti sembrano solo ora decidersi a fare passi avanti per ridurre i costi e i rallentamenti con l'iniziativa pubblica/privata SolarAPP per automatizzare i permessi, e la California che sta cercando di approvare la propria legge per costruire su SolarAPP.

Ci sono più tetti che vengono aggiunti solo per permettere più elettroni generati dal sole. Le stazioni di ricarica EV stanno iniziando ad aggiungere carport coperti con tetti fotovoltaici e batterie fisse. Questo rende i siti di ricarica dei veicoli elettrici più economici, consentendo alle aziende di evitare gli oneri di domanda, che possono costituire la metà della bolletta di un'azienda ad alta intensità energetica. Permette anche ai ristoranti e ad altri spazi commerciali di adottare microreti, risparmiando sui costi dell'elettricità e avendo energia di riserva durante le interruzioni.





Fonte. Le aziende vedono sempre di più un miglioramento economico e i clienti ottengono la ricarica dei veicoli elettrici integrando l'energia solare e lo stoccaggio nei loro locali esistenti.


Il solare comunitario è un altro tipo promettente di energia distribuita. Copre un ampio ombrello di installazioni solari che permettono ai benefici finanziari di essere distribuiti tra molte persone. Questi progetti potrebbero permettere a due terzi degli americani e a miliardi di persone nel mondo che non possono installare il solare sul tetto di accedere all'energia pulita locale. Un enorme vantaggio è che il solare comunitario di solito non richiede aggiornamenti della trasmissione. La capacità solare della comunità statunitense è cresciuta al 130% CAGR durante il 2010-2020, superando di gran lunga anche l'aumento stellare generale del solare.

Le turbine eoliche offshore possono anche aiutare ad alleviare le sfide di trasmissione, essendo situate vicino ai centri di popolazione costiera affamati di energia. La capacità dei parchi eolici offshore globali è aumentata di 11 volte dal 2010-2020 (27% CAGR). Una crescita ancora maggiore è in vista, con nove volte la quantità di capacità attuale in cantiere, come mostrato qui sotto. Le velocità del vento in mare sono più alte, più costanti e spesso raggiungono il picco quando è più necessario, durante il pomeriggio e la sera.




Dati da Energy Monitor. Include i dieci paesi con la maggiore capacità pianificata. Classificati dal più pianificato al meno: Regno Unito, Brasile, Cina, Giappone, Stati Uniti, Irlanda, Corea del Sud, Taiwan, Svezia, Germania.


L'energia eolica continuerà a diventare più economica. I costi dell'elettricità dall'eolico offshore a livello globale sono diminuiti di quasi la metà in 10 anni, con un calo del 9% solo nel 2020 e i risultati delle aste suggeriscono un'altra diminuzione del 40% entro il 2023. Negli Stati Uniti, le code di progetti eolici offshore in piena espansione sono molto promettenti, ma richiedono alcuni problemi di trasmissione da risolvere. Infine, le risorse eoliche offshore sono particolarmente abbondanti vicino ai poli terrestri, il che le rende molto complementari all'energia solare che favorisce l'equatore.

Per non essere da meno, le turbine eoliche onshore a fine vita possono essere ripotenziate. Questo significa che gran parte della struttura può essere riutilizzata e nuove turbine possono essere installate, risparmiando sui costi ed eliminando lunghi ritardi e costi di interconnessione. Questo è già successo in Danimarca, per esempio.

Si continueranno a trovare nuovi usi per il solare fotovoltaico. Tendiamo a pensare che il solare fotovoltaico sarà usato solo per produrre elettricità. Ma è probabile che vedremo altri nuovi usi e integrazioni man mano che il solare continuerà a diventare più economico.

Un esempio è il crescente slancio per i sistemi fotovoltaici integrati negli edifici (BIPV). Questi sistemi possono sostituire le facciate esistenti, come per l'edificio svizzero nella foto qui sotto, o sostituire le tegole/tegole del tetto (si pensi al tetto solare di Tesla).




Questa facciata solare copre più di 1142 m2 dell'edificio. Poiché la superficie è verticale, produce più energia in inverno.


Un altro esempio è il solare fotovoltaico che può produrre acqua. Source Global distribuisce "idropannelli" che producono acqua potabile pulita usando il fotovoltaico solare per condensare il vapore acqueo. Viene usato per comunità remote e per la conservazione dell'acqua in aree colpite dalla siccità come la Central Valley della California.




Il sistema solare ad acqua della Source Global produce acqua potabile dalla luce del sole e dal vapore acqueo, anche nei climi aridi.

_________________________________________________________________________

Da qui in poi, Xu va vanti per oltre 100 pagine con un analisi del funzionamento delle batterie, della fusione e fissione nucleare, di nuovi materiali ottenibili con energia a basso costo, e altre prospettive per il futuro. 

Potete accedere a questa parte del documento a questo link: https://www.tsungxu.com/clean-energy-transition-guide/