lunedì 17 aprile 2017

CONFINI – 2 – La scomparsa dei confini

Abbiamo visto che qualunque sistema, di qualunque taglia e natura, necessita di una delimitazione che serve a controllare gli scambi fra ciò che è “dentro” e ciò che è”fuori”.  La dimensione e il grado di permeabilità di questa barriera devono necessariamente cambiare nel tempo, per adattarsi al divenire dalla situazione sia interna, che esterna al sistema in esame.  Pena la disintegrazione.

Nascita degli stati e degli imperi.


Passando ad osservare le società umane, vediamo che, fin dall’inizio, ogni clan o piccola tribù ha costituito un sistema (perlopiù formato da sotto-sistemi familiari), facenti parte di sistemi più grandi (popoli ed umanità).  A loro volta parte della Biosfera e così via.

I limiti erano costituiti da barriere genetiche (grado di parentela), ma più spesso da limiti immateriali come quelli culturali (lingua, religione, faide, ecc.).  A questi si associavano spesso (ma non sempre) anche limiti materiali, ad esempio geografici.

Abbiamo però visto che i sistemi più grandi e complessi sono più efficienti nell’estrazione delle risorse e nella dissipazione dell’ energia.  Ad esempio, sempre parlando di società primitive, una tribù più numerosa si può permettere persone specializzate come artigiani, guerrieri e sciamani.  E questo le può consentire di prevalere sui vicini, raziandoli; oppure eliminandoli per estendere il proprio territorio.

Vi è quindi un vantaggio notevole nella collaborazione ed integrazione fra sistemi diversi.  Una progressiva integrazione che, man mano che cresce, rende progressivamente più permeabili i confini dei sotto sistemi, rafforzando di conserva il confine comune che si va formando.

Ricordate la foglia?  Le cellule perdono buona parte della loro individualità, costituendo tessuti ed organi.   In questo modo, ogni cellula perde qualcosa in termini di “sovranità”, ma guadagna parecchio in termini di una maggiore e più regolare disponibilità di energia ed alimenti.   Un’alga monocellulare può sfruttare una frazione di millimetro cubo di acqua.   Un albero può sfruttare migliaia di metri cubi sia sopra che sotto terra.   Può anche usare la porpria ombra per uccidere altre piante concorrenti e, viceversa, favorire organismi che gli sono utili.

Analogamente, un clan familiare di contadini autosufficienti può sfruttare un paio di ettari di terra, usando attrezzi di legno e di pietra.  I grandi imperi della storia hanno costellato il Pianeta di meraviglie.

Vantaggi e svantaggi dell'integrazione


Dunque, il punto qui è che un sistema più ampio permette una maggiore abbondanza e regolarità nei flussi di materia e di energia sia in entrata che in uscita.

Per esempio, nelle economie locali semi-autosufficienti bastano due-tre cattivi raccolti di seguito, oppure una calamità importante, e la gente comincia a morire di fame.   Mentre lo sviluppo dei commerci e dei trasporti su grande scala e distanza, così come la nascita di grandi stati e potenti organizzazioni sovra-nazionali,  rendono possibile far affluire nelle zone di crisi il surplus di altre.

Il rovescio della medaglia è però che, in questo modo, ogni sotto-sistema dipende da altri.   Trattando di società umane, la perdita di sovranità è il prezzo da pagare per aumentare le proprie potenzialità di difesa, di crescita e di contenimento delle crisi.

Sempre parlando di società umane, aumentare la complessità significa anche la nascita e lo sviluppo della specializzazione professionale e, di conseguenza, delle classi sociali.  Man mano che i confini interni si erodono, aumenta infatti la produzione complessiva di beni e servizi, ma questi non sono mai ugualmente distribuiti, in nessuna società complessa.   Ed il livello di ineguaglianza tende a crescere con le dimensioni del sistema ed il suo grado di integrazione.   L’Impero Romano di Traiano, fortemente integrato e centralizzato, era molto meno egalitario dell’Impero Carolingio, basato su una miriade di capi locali legati fra loro da un giuramento. Ovviamente, non è questo l’unico fattore, ma è una tendenza.

In pratica, le sperequazioni presenti fra i sistemi separati che si integrano tendono a sparire, mentre ne sorgono altre, diversamente distribuite.  Per questo, la creazione degli stati nazionali ha richiesto l’eliminazione, spesso violenta, delle società precedenti.  Per fare un esempio, la formazione della Francia, fra Luigi XIII e XIV, ha comportato la sostituzione di gran parte della classe dirigente di tradizione feudale con un’altra formata da burocrati e proto-capitalisti.  Mentre la formazione della Francia moderna è passata attraverso il Terrore e le guerre napoleoniche.

Un esempio di natura diversa, ma analogo, è lo sviluppo del capitalismo industriale che eliminò ogni traccia delle tradizioni che davano identità e resilienza alle classi popolari.  Queste si adattarono, creando un nuovo confine culturale: l’identità della classe operaia.  Il capitalismo finanziario ha eliminato anche questa.   Il primo passaggio era stato ampiamente previsto da Marx ed Engels, il secondo assolutamente no.

In sintesi, l’integrazione di sotto-sistemi in sistemi maggiori comporta un vantaggio complessivo, ma necessariamente questo avviene a danno di alcuni elementi, per il maggior vantaggio di altri.   Un “effetto collaterale” che può essere fortemente mitigato scaricando i danni ad altri soggetti esterni.  Finché questi soggetti sono altre società umane, la cosa è crudele, ma sostenibile.  Quando il “soggetto esterno” è invece la Biosfera (come di norma, almeno in parte) è più problematico.  Infatti, anche se siamo abituati a considerare la Biefera come esterna al nostro sistema socio-economico, è invece il nostro sistema umano ad essere interno all’ecosistema globale.  In altre parole, danneggiando la Biosfera necessariamente danneggiamo noi stessi.

Il pericolo più insidioso è quindi che la maggiore crescita economica e demografica che accompagna la complessità metta sotto crescente stress il sistema maggiore di cui le società umane fanno parte (ecosistema e financo la Biosfera).   Ci torneremo.

Internazionalizzazione


Nel XVIII secolo, i principali stati europei avevano raggiunto un notevole grado di integrazione interna, ma il commercio internazionale era assai limitato.  Lo sviluppo di questo fu indicato da David Ricardo e dagli altri padri dell’economia liberale come una delle chiavi di volta per la crescita economica ed il progresso.   In estrema sintesi, si sostenevano due punti fondamentali.

Il primo è quello già citato della possibilità di sopperire con il surplus di alcuni alle carenze di altri.

Il secondo era che i diversi paesi e le diverse regioni hanno vocazioni produttive diverse.   Per esempio, in Sicilia si fa del vino migliore che nello Shropshire, mentre le pecore inglesi producono una lana migliore di quella siciliana.   Parimenti, i giacimenti di minerali e le fonti energetiche (all’epoca soprattutto il carbone) non sono uniformemente distribuiti.  Rendere i confini statali più permeabili alle merci  poteva quindi consentire ad ogni paese di specializzarsi nelle produzioni per le quali era più vocato, aumentando l’efficienza e quindi la ricchezza complessiva delle popolazioni.  Inoltre,  aumentando il grado di interdipendenza, diminuiva il rischio di conflitto.

Una teoria coerente con quello che oggi sappiamo sulla dinamica dei sistemi e, difatti, ha sostanzialmente funzionato, anche se non sempre così bene come Ricardo sperava.


Europeizzazione

La formazione di una struttura sovrastatale europea ha seguito una schema analogo, ma con alcune importanti novità.  Tanto per cominciare, l’integrazione è avvenuta in modo volontario, sulla base di trattati approvati dai parlamenti nazionali e non, come di solito avviene, tramite un’invasione militare e/o l’imposizione di una nuova classe dirigente.

Un secondo punto importante è che, fino al 1995, l’integrazione è avvenuta in modo molto graduale.

Il terzo è che non ha riguardato solo accordi commerciali, ma che politici.  Di conseguenza, la permeabilità dei confini è cresciuta non solo nei confronti delle merci, ma anche delle persone e dei capitali.

Come in tutti i processi di trasformazione, anche questo ha avuto i suoi perdenti, ma nel complesso, l’Europa occidentale è diventata la società di gran lunga più prospera e pacifica dell’intera storia dell’umanità.  Un dato di fatto che è di moda dimenticare.

Con l’integrazione dei paesi dell’ex-impero sovietico (nel 2004 e nel 2007) furono invece commessi diversi errori.   I due principali penso che siano stati la scelta sbagliata dei valori fondanti e la fretta.   I valori fondanti di Coudenhove-Kalergi e, successivamente, di Shuman, de Gasperi e gli altri “padri fondatori”  erano soprattutto la fine delle guerre in Europa e lo sviluppo di una società liberale.   Viceversa, negli anni '90 e 2000, fu in nome del benessere materiale che società ed economie furono sconvolte nel giro di pochi anni.   Ovviamente, il contraccolpo generò una serie di squilibri che siamo lontanissimi dall’aver recuperato.

Globalizzazione


Ma in quegli anni, tutto questo era invisibile per una classe dirigente completamente ebbra di vittoria (in occidente). Oppure completamente sedotta dalla prospettiva di una facile ricchezza (in tutti gli altri paesi).

Sorse così l’idea di estrapolare un processo simile a quello europeo a livello mondiale. Era nata la globalizzazione.   Nei sogni dei suoi promotori, avrebbe dovuto integrare tutti i paesi della Terra in un unico mercato, governato da organismi internazionali indipendenti e sovraordinati agli stati.  Col tempo, si diceva, ciò avrebbe portato anche ad un’unica società, con un’unica lingua, un'unica cultura, un unico governo, eccetera.  L’intera umanità finalmente affratellata in una sorta di villaggio globale grazie al commercio ed alle nuove tecnologie.

Sappiamo che è andata diversamente per una lunga serie di fattori. Limitandoci qui al punto di vista sistemico, si può però dire che è accaduto esattamente quello che ci si poteva aspettare.

Nell’internazionalizzazione, capitali e persone rimangono ancorati al loro luogo d’origine. Ciò significa che chi si arricchisce con il commercio internazionale è costretto a investire nel proprio paese e questo, almeno in linea di principio, crea lavoro per la popolazione locale che è anch’essa vincolata al proprio territorio.  Non solo; i capitalisti si posso arricchire a dismisura, ma non possono lasciare il proprio paese, pena perdere tutto.  Inoltre, se si rendono sufficientemente odiosi, potrebbero anche subire delle conseguenze molto sgradevoli, come molte volte è effettivamente accaduto nella storia.

Nell'europeizzazione, i confini dei singoli stati veniìvano progressivamente erosi, ma contemporaneamente si formava e rafforzava un confine esterno comune. In pratica, anche se il processo di europeizzazione e quello di globalizzazione vengono spesso confusi, sono intrinsecamente antitetici.

Gli accordi di globalizzazione permettono lo spostamento ovunque sia dei capitali finanziari, sia del capitale culturale (in particolare know-how e tecnologie). Permettono altresì ai capitalisti di spostarsi quasi liberamente da un luogo all’altro in quello che, per loro, è effettivamente un villaggio globale.   E permettono anche lo spostamento di masse di manodopera, creando un mercato globale del lavoro che, in pratica, diventa un sistema di crumiraggio mondiale.

Paradossale ed istruttivo è il fatto che la UE e gli USA furono fra i principali promotori di questa follia planetaria.   Senza rendersi conto che  i loro stessi confini ed i loro stessi sistemi socio-economici sarebbero stati  fra quelli che avrebbero subito il contraccolpo maggiore.   In un processo di integrazione rapida a tutti i livelli, ci sono infatti necessariamente sotto-sistemi (regioni, gruppi di persone, imprese, o altro) che avranno il più dei vantaggi, se non tutti.  Mentre altri soggetti avranno gli svantaggi corrispondenti.  In altre parole, si crea un mondo di vincenti e perdenti assoluti.  E dovremmo sapere tutti da un pezzo che la civiltà industriale è un "gioco" in cui chi ha le manifatture vince, chi ha le cave, le miniere e le discariche perde.  Esattamente quello che, guarda caso, è accaduto.   Nessuna sorpresa.

Il seguito, al prossimo post.

giovedì 13 aprile 2017

Perché non riusciamo a fare la Transizione? Il problema dell'economia (seconda parte)

 (Pubblicato anche su Appello per la Resilienza: https://appelloperlaresilienza.wordpress.com/)

 Post di Michele Migliorino

 

DISEGUAGLIANZE ECONOMICHE

Vi sono molti aspetti connessi con la nostra difficoltà di trovare soluzioni ai cambiamenti climatici e al problema delle risorse. Come cerco di dimostrare in questa serie di articoli, ciò sembrerebbe essere causato dal fatto che il sistema economico impedisce uno sviluppo etico e sociale autentico.

In questi ultimi anni si è fatto sempre più evidente il crescente divario dei redditi. Si tratta di una situazione generata dal funzionamento del sistema o è temporanea e risolvibile? In che modo va ad incidere questo sulla nostra capacità di trovare risposte pratiche ai problemi globali?

Non può esistere economia senza crescita. Ciò significa che la quantità di denaro nel mondo deve continuamente aumentare. Ma come si distribuisce la ricchezza?

Risultati immagini per piramide disuguaglianze

fonte: www.lteconomy.it

Il tema della disuguaglianza è anche emerso nel corso degli incontri al World Economic Forum a Davos (19 gennaio 2015), quando, Winnie Byanyima, direttore esecutivo di Oxfam International, ha presentato i risultati di una delle ultime pubblicazioni di Oxfam sulla disuguaglianza, ‘Wealth: Having It All and Wanting More,’ evidenziando che la ricchezza aggregata dell’ 1 per cento più ricco della popolazione mondiale supererà quella del restante 99 per cento entro il 2016. 

Nella prima parte avevo argomentato che il sistema economico si basa sulla crescita del capitale. Tutto ciò è noto sotto il nome di Capitalismo. Vediamo un paio di grafici la cui idea è mettere in relazione la grandezza del continente, la % di popolazione e la % di ricchezza. Qui sotto la situazione nel 1990.

fonte: www.wordmapper.org

Vediamo di seguito invece come sia cambiata nell'arco di quasi 30 anni. Il Sud del mondo si assottiglia ancora di più a favore del Nord, ma dopo 30 anni è l'Asia che sta crescendo, non l'Occidente.

fonte: www.wordmapper.org. La situazione odierna, nel 2015.

Ma sappiamo bene che è all'interno dei singoli paesi che si manifestano la diseguaglianze. Non v'è una distribuzione egualitaria della ricchezza e questo, secondo Thomas Piketty (Il Capitale nel XXI secolo; Income inequality in the US, 1913-1998) e Gail Tverberg (Why we have a wage inequality problem - Our finite world) è una componente fondamentale - se non primaria - dell'attuale crisi economica.

Risultati immagini per corporation bank politics

fonte: google immagini.

L'Occidente e il mondo intero è travagliato dal problema delle diseguaglianze. Lo hanno dimostrato le lotte degli ultimi due secoli fra ricchi/poveri, capitalisti/comunisti. Sembra che il sistema sociale debba scindersi, per via delle condizioni necessarie alla creazione di capitale: chi stipendia e chi è stipendiato; chi possiede i mezzi per poter produrre e chi lavora; produttori e consumatori (è evidente che anche i "produttori" sono consumatori. Qui si allude a quella divisione dei redditi che avviene a monte del semplice atto di acquisto. Come produttori si intendono gli "imprenditori". Ogni imprenditore è anche consumatore, in quanto vivente, e ogni consumatore contribuisce a produrre dei beni. Ciò non toglie che i capitali si spostino - come si vede qui di seguito - dalla parte di chi possiede i "mezzi di produzione"). 

E' questa spaccatura la matrice di tutte le disuguaglianze sociali in quanto i profitti si spostano necessariamente dalla parte di chi possiede i "mezzi di produzione". Da chi viene prodotta la ricchezza e in quali tasche finisce? Ai lavoratori o agli imprenditori? Questo spostamento graduale dei redditi è ben documentato.

Risultati immagini per oxfam disuguaglianza

Al consumatore, ironicamente, viene lasciato il "potere d'acquisto" e l'illusione di poter partecipare attivamente alla vita economica mentre è del tutto eterodiretto dalle logiche commerciali globali (cosa può il piccolo agricoltore contro la FAO?). Ma come avviene questo spostamento? Un illustre sociologo italiano, Luciano Gallino, ha ben chiarito la questione nel libro Il colpo di stato di banche e governi (Einaudi, 2015) (e in Il denaro, il debito e la doppia crisi spiegata ai miei nipoti - Einaudi, 2015). Dopo aver parlato delle origini strutturali della crisi attuale (2007-2008) - che hanno avuto origine negli anni '80 quando è cominciato un predominio della finanza sull'economia reale come risposta alla crisi del regime di accumulazione - egli spiega che l'accumulazione è la:

crescita del capitale esistente mediante nuove dosi di altro capitale derivante da eccedenza del valore realizzato della produzione sul consumo in un determinato periodo. 

E continua dicendo:

L'accumulazione accresce costantemente la frazione di capitale investita in mezzi di produzione mentre diminuisce proporzionalmente la frazione investita in forza lavoro. 

Queste due citazioni difficili ci dicono che il capitale si accresce solo perché una parte sempre maggiore di profitto resta in mano all'imprenditore, mentre una sempre minore in mano al dipendente. E' questo il processo che ha generato la grande disoccupazione di questi anni e la tendenza alla meccanizzazione/robotizzazione delle aziende: ridurre i costi di sussistenza dei lavoratori. I robot non hanno bisogno di stipendio! Qui di seguito Gail Tverberg mostra il trend di discesa dei redditi dal 2000.

  

Fonte: Gail Tverberg - Our Finite World. Rapporto fra i redditi (wage) e il PIL (GDP).

La maggior parte dei profitti generati dalla forza-lavoro finiscono all'imprenditore. Si alimenta sempre più il divario fra una popolazione disoccupata e con sempre minor salario e degli imprenditori ultra-ricchi. Si è visto sopra come questa situazione sia omogenea su tutto il pianeta per via del mercato "unico", la globalizzazione. Una sola è la legge che unifica il Nord ricco e il Sud povero. Ma è una situazione che può durare? Il capitalismo può continuare ad esistere in eterno?

(La divisione che abbiamo creato fra i membri della nostra specie (infraspecifica, in termini ecologici), comporta un surplus di distruttività che si aggiunge a quella "naturale" relazione interspecifica che già da sola creava molti guai. Si veda per esempio la storia della diffusione nel pianeta dell'uomo cacciatore-raccoglitore come descritta da Jared Daimond nei primi capitoli di Armi, acciaio e malattie).

Marx credeva che il capitalismo portasse in sé i germi del suo superamento e che ciò sarebbe avvenuto già a fine XIX secolo attraverso una socializzazione della produzione ad opera delle masse dei lavoratori. Ciò non è avvenuto e un secolo di lotte comuniste si è risolta infine in una netta vittoria del neo-liberismo. Oggi del comunismo resta solo uno spettro. Perché ha perso? In definitiva il marxismo-comunismo restava solidale con quella "colossale visione del mondo" del suo acerrimo nemico capitalista. Non viene mai meno l'esigenza produttiva - e il capitalismo si è dimostrato più potente nel portare avanti questa logica.

Come hanno mostrato - fra gli altri - Jean Baudrillard e Naomi Klein, esso utilizza ogni mezzo per fortificarsi, persino la critica che gli viene rivolta - le lotte rivoluzionarie; il pensiero critico - viene ri-prodotta dal sistema per autoalimentarsi.

Voi potete redistribuire tutti i redditi che volete; potete regolare l'economia in maniera da facilitare le classi più povere e potete persino (forse) allungarne la vita in maniera che possa sembrare un sistema sempiterno, ma ciò non toglie che un sistema che vuole crescere indefinitamente dovrà prima o poi crollare. E' l'effetto Seneca, una semplice legge di natura.

(continua...)

venerdì 7 aprile 2017

CONFINI – 1. Confini dei sistemi

di Jacopo Simonetta

I confini politici sono qualcosa di particolarmente complicato.   La loro posizione e le loro caratteristiche cambiano infatti rapidamente (rispetto ai tempi storici) e dipendono da un insieme molto vasto di fattori fisici e geografici, ma anche storici, culturali, economici ecc.

La dinamica dei sistemi è solo uno dei molteplici approcci possibili alla questione, ma può essere utile per mettere in luce degli aspetti spesso trascurati.  Tenterò di chiarire questo punto in una serie di post di cui questo è il primo.

Confini dei sistemi.


Secondo la definizione di Ludwig von Bertalanffy, padre della teoria dei sistemi, "Un sistema è un complesso di elementi che interagiscono fra loro" (1968).   Una definizione successivamente integrata da numerosi altri autori, fra cui James Grier Miller, che per primo focalizzò il punto essenziale in questa sede: “Un sistema è una regione delimitata nello spazio-tempo" (1971).   Concetto ripreso ed ampliato da J. Gougen e F. Varela: “Un sistema origina attraverso una distinzione che divide il mondo in due parti, come quello e questo, oppure ambiente e sistema" (1979).

In altre parole, possiamo analizzare come un “sistema” qualunque cosa sia composto da vari elementi che interagiscono fra loro all’interno di un confine, anche immateriale, che permette di distinguere un “dentro” da un “fuori”.

Matrioske


Ovviamente, il “dentro” sarà spesso suddiviso in sotto-sistemi, ognuno dei quali delimitato in qualche modo.  

 Ed il “fuori” altro non è che il meta-sistema di cui il sistema che stiamo osservando è parte.

Se vogliamo essere pignoli, in realtà esiste infatti un unico sistema: l’universo (o, per essere ancora più pignoli: almeno un universo) e non sappiamo se ha dei limiti.  Non lo sappiamo e non lo sapremo mai perché dei limiti li ha invece l’universo conoscibile.   Per la felicità di S. Tommaso, questo è una sfera geocentrica, avente per raggio la distanza percorsa da un fotone in circa 13,7 miliardi di anni.   Quello è infatti il limite, in espansione costante,  da cui in via del tutto teorica ci possono giungere delle informazioni.

All’interno di questo sistema, entro certi limiti oggettivo, ci sono miliardi di sottosistemi rappresentati da galassie, nebulose e molto altro, ognuno dei quali contiene miliardi di stelle, molte delle quali con i loro sistemi di pianeti e così via, a scendere di scala fino ad arrivare alle cellule che compongono gli organismi.   Ci sono altri livelli organizzativi più piccoli, ovviamente, ma il loro grado di complessità diminuisce e non è detto che siano definibili come “sistemi”.   Men che meno come “sistemi complessi”.

Il sistema minimo


Per fare un ragionamento su come sono fatti e come funzionano i sistemi, forse conviene partire proprio dall’estremo minimo della gamma, dalla matriosca più piccola e cioè dalla cellula.   Non solo per omaggio a von Bertalanffy (che era un biologo), ma anche perché è più facile.

Una cellula è composta da diversi organuli che svolgono varie funzioni, immersi in un citoplasma delimitato da una membrana.   Perlopiù contengono un sotto-sistema, il nucleo, ma non sempre e qui lo ignoreremo.

Dunque torniamo alla membrana cellulare: come è fatta e a che serve?   La cellula, per restare funzionale, deve mantenere sotto il proprio controllo una serie di parametri interni, ad esempio la pressione osmotica.   Se ci sono troppi ioni, la cellula si risecchisce e muore, se c’è troppa acqua la cellula scoppia.   A questo serve la membrana: regolare gli scambi con il meta-sistema di cui la cellula fa parte secondo le necessità vitali di questa.   Per questo la membrana è semipermeabile.  Cioè consente il passaggio di alcune cose (ad esempio l’acqua), ma non altre (ad esempio ioni e virus).   Ma per controllare l’ambiente interno e nutrire la cellula non basta.   La membrana contiene dunque delle strutture specializzate che, dissipando energia, sono in grado di “mangiare”, oppure di espellere singoli ioni, acqua, molecole ed altro in modo da mantenere l’omeostasi necessaria.  In altre parole, la membrana è una struttura funzionale che, dissipando energia, protegge la cellula, assicurandone l’integrità e la funzionalità.

Salendo di scala


Saliamo di scala.   In una foglia, ad esempio, troviamo che le cellule non sono tutte uguali.   Quelle esterne sono blindate e svolgono la funzione specializzata di proteggere il tessuto interno che, al contrario, è assai più tenero e biologicamente attivo.   Anche a questo livello, abbiamo un confine che delimita il sistema foglia, costituito dall'epidermide (più eventuali elementi esterni) la cui funzione è quella di proteggere l’interno dall’esterno.   Ma abbiamo visto che nessun sistema vivente può esistere se isolato. Dunque l'epidermide ha dei fori, gli stomi, controllati da strutture apposite che lasciano passare la quantità di aria necessaria per la fotosintesi.  Nel frattempo, i pigmenti dell'epidermide fanno passare la quantità giusta di luce.  Né tanta da bruciare le cellule, né poca da farle morire di fame.  Cioè, la foglia è avvolta da qualcosa che, sempre dissipando energia, la mantiene funzionale.

Mutatis mutandis, lo stesso, identico schema si ripropone ai livelli crescenti di complessità a cui si organizzano la Vita ed il Pianeta nel suo insieme.   La più esterna delle barriere protettive terrestri è la ionosfera, che ci protegge dai raggi gamma, ma lascia passare la luce ultravioletta, visibile ed infrarossa.


A cosa servono i confini


Un punto fondamentale è dunque questo: qualunque sistema, per esistere, necessita di una barriera che lo delimita e deve quindi dissipare energia per costruire e far funzionare tale barriera.   Questo perché è necessario che le condizioni interne siano controllate.   D’altronde, Carnot ci ha insegnato che un sistema isolato vedrebbe la sua entropia crescere fino ad un massimo, mirabilmente definito da Nietzsche “morte termica”.

Dunque, se nessun sistema può esistere se non delimitato, nessun sistema può esistere se isolato.   In altre parole, ogni confine, dalla membrana di una singola cellula alla ionosfera ed oltre, ha la funzione non di isolare il sistema, bensì quello di controllarne gli interscambi con il sistema più ampio di cui fa parte, il quale a sua volta avrà i suoi propri confini e così via.

Questo è il secondo punto fondamentale: ad ogni livello di organizzazione corrisponde una diversa delimitazione, con differenti funzioni.    Se ogni cellula avesse la permeabilità di quelle dell'epidermide foliare, la pianta morirebbe, anzi non esisterebbe neppure.   Dunque è necessario che le cellule si differenzino per svolgere funzioni specializzate.  In altre parole, per aumentare la propria efficienza, un sistema deve dissipare energia per aumentare la propria complessità.   Cioè diventare un più ampio insieme funzionale di elementi e di relazioni.

Livelli superiori di complessità consentono di assorbire e dissipare maggiore energia.  Dunque di prevalere nella competizione con altri sistemi e sotto-sistemi, ma richiede più risorse.  Per questo su di una roccia nuda nascono dei licheni. Non appena si forma un po’ di suolo, le erbe sostituiscono i licheni e quando c’è abbastanza terra, gli alberi prevalgono sull’erba.

Si badi bene che tutto questo non ha niente a che fare con questioni etiche e scelte umane, ma solo con quello che Tommaso Campanella chiamava il “senso delle cose” e che noi chiamiamo “gradiente termodinamico”. (Ai fisici non piace sentirselo dire, ma buona parte del loro lavoro consiste nel mettere a punto e chiarire le intuizioni dei migliori maghi del rinascimento).

Ma se livelli superiori di organizzazione hanno maggiori potenzialità,  necessitano anche di maggiori risorse e, di conseguenza, scaricano maggiore entropia nel meta-sistema di cui fanno parte.   Vale a dire che erodono più rapidamente le riserve di energia ed informazione del loro ambiente.  Riserve che possono essere reintegrate a scapito dei meta-sistemi via via sovraordinati, fino alla matrioska più grande: l’universo conoscibile.
Molto si discute del se e come, entro o fuori di questo, vi siano “fabbriche” di entropia negativa.   Oppure se tutto esista ed evolva solo grazie alle scorte di bassa entropia che abbiamo ereditato dal “big bang”.   Ma tutto questo, per quanto affascinante, ci riguarda molto poco.   A noi basta sapere che sulla Terra abbiamo una sola “macchina” che pompa l’entropia al contrario: la vegetazione.   Tutto il resto, compresi noi, dipende da lei.  Ovviamente, ciò avviene a spese del Sole e fra un paio di miliardi di anni saranno guai.

Ma non credo siano in molti a preoccuparsene. Piuttosto, nei prossimi post vedremo invece di utilizzare questi concetti per capire come ha funzionato la globalizzazione e come, in grandissime linee, probabilmente funzionerà la de-globalizzazione.

lunedì 3 aprile 2017

Perché non riusciamo a fare la Transizione? Il problema dell'economia (prima parte)

Guest Post di Michele Migliorino. 


Introduzione

Forse non abbiamo ancora compreso fin dove arriva il "problema umano" dietro a tutta questa faccenda delle risorse e del picco del petrolio.

In accordo con la nostra epoca scientifica, siamo convinti che per poter dare risposte alla "crisi" siano sufficienti i mezzi tecnici, mentre dovrebbe apparire evidente - dopo secoli di guerre e distruzione ambientale - che la tecnologia nelle mani dell'uomo può portare più danni dei benefici che crea.
E' importante ricordare l'avvertimento di quel grande pensatore che ha dato inizio allo studio del Sistema-Terra in maniera così innovativa, Dennis Meadows:

"Ci comportiamo come se il cambiamento tecnologico possa sostituire il cambiamento sociale". (fonte: http://ugobardi.blogspot.it/2014/06/dennis-meadows-e-troppo-tardi-per-lo.html)

Bisognerebbe chiedersi dunque, che cosa blocca lo sviluppo sociale? Il che equivarrebbe a domandare: perché i nostri tentativi di operare dei cambiamenti concreti (la transizione alle rinnovabili) non riescono ad arrivare a buon fine? Perché la società è così lenta nel cercare di salvare se stessa?

E qui troviamo un aspetto ancora del tutto incompreso che cercherò di chiarire, infatti: il problema è l'Economia. Non perché non abbiamo abbastanza denaro da mettere in campo - ora che siamo al termine della partita? - ma perché pretendiamo di risolvere il problema esattamente nel modo in cui l'abbiamo creato. Ricordiamo le parole di Einstein:

"Non puoi risolvere un problema con lo stesso tipo di pensiero che hai usato per crearlo"

Infatti il problema non è il petrolio di per sé (o qualsiasi altra fonte energetica), bensì il fatto che ne abbiamo subordinato l'estrazione e l'utilizzo alle dinamiche economiche, le quali sviluppano un sistema e una logica che non dipende più dagli attori che vi partecipano, ma che li trascende (in un sistema il tutto è "maggiore" della somma delle parti).

Sebbene abbia generato una enorme "complessità" in termini di sviluppo scientifico e sociale, l'Economia è quella cosa che ci impedirà di giungere all'obiettivo di una "società solare" basata su energie rinnovabili (nel senso indicato per esempio da Ugo Bardi nel libro La Terra svuotata) - obiettivo che sarebbe degno di una specie umana compiuta.

In questi cinque articoli cercherò di mostrare che Economia non è una così bella parola e non può aiutarci nel viaggio verso un futuro sostenibile - un futuro che sembra drammaticamente vicino in realtà, perché come ci ricorda sempre Dennis Meadows:

"è tardi per lo sviluppo sostenibile, dobbiamo mettere più enfasi sulla resilienza del sistema" (fonte: articolo sopra citato)

La domanda che si pone è dunque a) se è possibile può fare la transizione energetica all'interno del sistema economico, e b) se non lo è, che soluzioni ci rimangono? Perché ci è così difficile pensare in termini diversi da quello che Serge Latouche chiamava "immaginario economico"?

Il cambio di paradigma che ci serve non riguarda il tipo di energia che dobbiamo utilizzare o quali tecnologie mettere in campo, bensì la necessità di uscire dalla "legge del valore". La nostra cultura erige lo scambio monetario a valore imprescindibile, ma questo è basato su di un meccanismo che lo porta ad una accumulazione senza via d'uscita (la ben nota "crescita"). Ovviamente, non si tratta di qualcosa di così semplice nè da comprendere nè da accettare, perché coinvolge l'intera cultura sopra la quale "prosperiamo".


Crescita e sistema monetario

"Dal 1820 al 2003 l'economia è cresciuta con un tasso medio del 2.25% l'anno" (fonte: David Korowicz, Trade-off. Financial System Supply-chain Cross Contagion - a Study in Global Systemic Collapse, www.davidkorowicz.com).

Lo scopo primario di un'economia oltre alla produzione di merci, lo sappiamo tutti, è ottenere denaro. Ora, non c'è crescita senza aumento di denaro. La produzione di merci è contrassegnata nel nostro sistema da un simbolo, la moneta, che utilizziamo per valutare (dar-valore) le merci. Siamo abituati a considerare in termini monetari quasi ogni attività che facciamo. Per questo il PIL (in inglese GDP) è considerato l'indicatore principale delle economie.

Ma al di là di questo vi sono questioni decisive connesse all'uso del denaro come mediatore delle attività economiche. Esser parte del sistema economico significa condividerne implicitamente alcuni assunti. Qualunque attività commerciale o azienda, pubblica o privata, per sussistere dovrà adeguarsi ad una regola fondamentale: il capitale finale deve essere più grande del capitale iniziale.

E' evidente: se dalla mia attività non ho ricavato un surplus, o sono in pareggio o sono in rosso, entrambi risultati negativi. L'unico risultato possibile in economia è il profitto. Ogni azienda, ogni attività che produce reddito ha questa esigenza. Tutti devono "crescere", ciò implica che: la quantità di denaro pro capite deve aumentare progressivamente




Anche una persona povera dovrà avere alla fine di più di quanto aveva all'inizio (in intervalli di tempo), altrimenti dovrà affidarsi ad altri o perirà. Il passo successivo è comprendere le implicazioni di questo meccanismo a livello macroeconomico, infatti: la quantità totale di denaro nel mondo deve aumentare progressivamente 

https://www.blia.it/debitopubblico/grafico2012.png

fonte:www.blia.it. A sinistra la percentuale debito/PIL in % visualizzata dalle colonne in blu. L'andamento del grafico illustra la serie storica per l'ITALIA dal 1861 al 2012.

Il grafico mostra la tendenza alla crescita, macroscopica soprattutto nella parte destra in corrispondenza della fine della Seconda guerra mondiale e del boom economico. Condizione della crescita oltre alla disponibilità di risorse naturali, è il "debito". Per far si che il denaro nel mondo possa aumentare continuamente vi deve essere un meccanismo che ne permette l'espansione. (Su questo Gail Tverberg: https://ourfiniteworld.com/2016/05/02/debt-the-key-factor-connecting-energy-and-the-economy/ la quale cita Kenneth Rogoff: http://voxeu.org/article/debt-supercycle-not-secular-stagnation ).

Come "produrre" denaro se tutti devono ottenere un aumento relativo del loro capitale? Ciò è possibile solamente tramite lo scambio del denaro stesso. Il denaro è debito di per se stesso! Come si vede dal grafico, vi è una netta correlazione fra la crescita della moneta e la crescita del debito. Ciò non è un effetto casuale prodotto dal sistema ma è il funzionamento stesso della moneta, in quanto è necessario che lo scambio di denaro-con-merce produca un surplus del denaro iniziale, altrimenti non si potrebbe creare alcuna "circolazione" e non vi sarebbe crescita.

Tale meccanismo è possibile grazie all'ammontare di una quantità di denaro "fantasma" - il debito appunto - che funge da "pompa" (leva finanziaria) per la crescita. Ebbene, i debiti non possono venire ripagati perché è il debito che fornisce al sistema la possibilità stessa dello scambio di denaro e dunque gli permette di crescere.

Scopriamo così che la struttura stessa della nostra economia si regge su di un meccanismo paradossale. In quanto fornitrici di credito, gli istituti bancari sono i principali strumenti di leveraggio della nostra economia (nonchè dello Stato, che così si trova in posizione scomoda di sudditanza). E' noto quale è stato il loro ruolo in numerose crisi finanziarie (fenomeni di "bank run"). Per ulteriori spiegazioni: Luciano Gallino, Il colpo di stato di banche e governi; anche Il denaro, il debito e la doppia crisi, oppure Chris Martenson, Crash course visibile su https://www.youtube.com/watch?v=Ec85sWSn7iQ&list=PLB048101DAAD68046&index=10
(continua)

venerdì 31 marzo 2017

Vita su Marte? Ma a noi cosa ce ne importa?


Vi segnalo un articolo di Pietro Cambi che va contro tutte le regole del Web che dicono di non pubblicare niente sopra le 1000 parole sui blog. Questa invece è una discussione approfondita sulla possibilità che sia esistita vita su Marte in tempi remoti. Sostiene Cambi che un'analisi dettagliata della storia geologica di Marte implica quasi certamente l'esistenza di vita sul pianeta - e anche vita abbondante - in tempi remoti. 

Direte voi, elfetti del bosco, cosa ce ne frega a noi della vita su Marte? L'importante non è piuttosto uscire dall'Euro e cacciare via gli immigrati? 
Certo, certo.... ma c'è un problemetto che si chiama il "Gaian Bottleneck" che ha a che vedere con la resilienza dell'ecosistema. Dategli una perturbazione sufficientemente forte, è il sistema esce dalla zona abitabile e viene sterilizzato. Questo è male per gli sterilizzati. 
Il bello della faccenda è che non sappiamo bene quanto sia resiliente il sistema Terra e se la perturbazione che stiamo creando con le emissioni di gas serra è sufficiente per buttarlo fuori dalla zona abitabile. Per quanto ne sappiamo, potrebbe esserlo. E' una domandina molto interessante che ha a che vedere con l'evoluzione dei pianeti rocciosi, i feedback abiotici, e molte altre cosette. Ha anche a che fare, e parecchio, con la nostra comprensione della vita su Marte in tempi remoti.  Tutta la faccenda viene discussa in dettaglio in un articolo interessantissimo di Aditya Chopra e Charles Lineweaver pubblicato su Astrobiology, 16, 2016, 7 (è dietro un paywall, se volete una copia, scrivetemi)

Quindi, elfetti cari, se certe interpretazioni sono vere, la faccenda del riscaldamento globale potrebbe rivelarsi un tantinello più drammatica di quanto non sembrebbe. Ma non vi preoccupate: ci sono tanti pianeti nella galassia e sicuramente ce ne sono di abitati oltre al nostro. Uno più, uno meno.... 






giovedì 30 marzo 2017

CNR: ricercatori e ricercati



Finanziamento di progetti inesistenti, acquisti di tappeti di antiquariato come strumentazione per la ricerca, pranzi e cene varie, soldi che spariscono nel nulla, firme che non si sa chi le abbia messe, consulenze sospette e via dicendo.

Insomma, il normale degrado di tutte le strutture di una certa dimensione con l'aggravante, qui, che i ricercatori del CNR si arrabattano per fare il possibile con fondi sempre più limitati mentre la burocrazia si accanisce su di loro invece di controllare chi ruba.

Dura 22 minuti, da vedere. 
Report: Il Consiglio Nazionale delle Ricerche gestisce un budget di circa un miliardo e duecento milioni di euro. Ma come lo fa? Una parte dei soldi della ricerca sono stati spesi in gonfiabili, ortaggi, vino, tappeti orientali. Dalle...

domenica 26 marzo 2017

Il motore a scoppio: ormai obsoleto come la locomotiva a carbone





L'articolo che segue, di Enrico De Vita, è stato pubblicato su "Automotive Dealer Report" di Febbraio 2017. Il suo limite è che non riporta riferimenti che che ci consentano di verificare le affermazioni dell'autore, alcune delle quali sembrano piuttosto discutibili. Ma, nel complesso, l'articolo sembra corretto nel descrivere una situazione disastrosa, soprattutto in Europa, per la gestione di un gigantesco parco veicoli per i quali tutti i trucchi possibili sono stati applicati per far sembrare che le emissioni fossero più basse di quello che sono. (E c'è anche di peggio di quello che trovate in questo articolo). 

La conclusione di De Vita è anche quella interessante: molto del disastro in corso è dovuto a una legislazione che vedeva nella cilindrata il parametro principale da tassare nei veicoli. Questo ha portato a costruire dei motori di piccola cilindrata "pompati" in vari modi per migliorare le prestazioni, anche a costo di peggiorare le emissioni. Un ulteriore esempio, se ce ne fosse stato bisogno, della miopia legislativa che spesso ottiene l'esatto contrario di quello che si propone di ottenere. La conclusione di De Vita è che bisognerebbe tornare a motori di più grande cilindrata. Questo migliorerebbe un po' le cose, ma ormai è troppo tardi. Il motore a combustione interna ("a scoppio") è altrettanto obsoleto delle locomotive a carbone. E' tempo di passare alla trazione elettrica. 

(ringrazio Leonardo Libero per la segnalazione)


La Faccia Nascosta del Dieselgate

di ENRICO DE VITA

Da 40 anni si misurano al banco consumi ed emissioni secondo metodi unificati. Da 15 anni si sa che i consumi sono “addomesticati”, sia perché rilevati a velocità limitate, a basso numero di giri e con potenze ridicole, sia perché l’esemplare messo al banco è oggetto di “delicatezze” particolari. Ma nessuno aveva mai messo in dubbio le emissioni. Nel 2015, allo scoppio del caso VW, avevamo detto chiaramente che uno aveva confessato, ma molte altre Case europee baravano sull’inquinamento sfruttando le maglie dei regolamenti. E da qualche mese l’elenco degli indagati si è allungato. Tuttavia, c’è ancora una faccia che non è stata portata alla luce. E che ribalta completamente i termini del problema: eccola.

La storia dell’antinquinamento nasce in California, attorno al 1967, non tanto per un problema di salute quanto di pulizia dell’aria. Era lo smog fotochimico, la cappa rugginosa che incombeva su Los Angeles, ben nota a chi scrive che in quel tempo lavorava per la Moto Guzzi a vendere le “V7” alla polizia californiana. A provocare lo smog nell’atmosfera era la combinazione di vapori di benzina e di ossidi di azoto (NOx), sotto l’azione dei raggi del sole. La benzina evaporava generosamente dai grossi carburatori delle auto, gli ossidi di azoto provenivano da tutto ciò che brucia in presenza di aria, quindi riscaldamento, industrie, cucine e motori. Il primo dispositivo introdotto fu un filtro a carboni attivi per raccogliere tutti i vapori che uscivano dal serbatoio e dal carburatore. Ma non bastava perché allo scarico c’era sempre benzina non combusta e altri idrocarburi non ossidati (HC).

E c’era soprattutto l’ossido di carbonio (CO), il gas che uccide se respirato per pochi minuti. Onde, i rimedi – pensati solo per i motori a benzina e resi obbligatori in California nel 1970 - furono: iniezione (sigillata) al posto dei carburatori, marmitta catalitica ossidante. Di auto diesel, negli Usa, a quei tempi, non c’era traccia. E anche oggi siamo sotto l’1% del parco.

Aria per diluire

A quei tempi, in Europa non si parlava di inquinamento atmosferico, ma si individuava nell’ossido di carbonio, CO, il gas pericoloso, che poteva diventare letale. Per rimediare si posero limiti alla emissione di CO al minimo. Ricordate il bollino blu?

Per le vetture esportate negli Usa si adottò invece una pompa che soffiava aria direttamente nel tubo di scarico in modo da diluire la concentrazione di CO nei gas (MG, Triumpf, Austin Healey, Jaguar). In tal modo la percentuale di CO allo scarico risultava inferiore. Non, ovviamente, la quantità totale. Ma per i regolamenti andava bene così.

In alcuni modelli, particolarmente ricchi di benzina, c’era anche un postcombustore nel tubo di scarico, alimentato con aria esterna.

Tuttavia negli Usa si volle andare oltre e nel 1973 si rese obbligatorio il catalizzatore trivalente, ovvero la marmitta dotata di un sensore chiamato sonda Lambda, in grado di mantenere sempre perfetta la miscela aria-benzina. In termine tecnico si dice: “in rapporto stechiometrico”, cioè senza una goccia di benzina in più di quella che può bruciare completamente. Questa è in pratica la favola che ci è stata raccontata per anni. La favola lasciava intendere che il catalizzatore trivalente riduceva a zero sia CO, sia HC, sia infine gli ossidi di azoto.

Il diesel non è benvenuto

Dal 1973 in avanti i dispositivi antinquinamento per le auto a benzina sono rimasti sostanzialmente gli stessi, mentre sono cambiati notevolmente i limiti per le emissioni e le norme di misura. In particolare sono diventati sempre più stringenti i limiti per gli NOx, anche se negli Usa le auto diesel non sono benvenute. O, forse, non lo devono essere.

E in Europa? Si cominciò a parlare di inquinamento dovuto al traffico (sempre addebitato alle auto e non al trasporto delle merci) solo nel 1987. Fu la Ford Europa la prima a farlo, ma per i quotidiani l’auto non inquinava, era un tabù. E così il catalizzatore venne osteggiato per molti anni, perché troppo costoso e perché le Case che non esportavano negli Usa sostenevano di poterne fare a meno.

Tuttavia dopo 5 anni di gestazione della benzina senza piombo, la cosiddetta “verde” che verde non lo era affatto, anzi, la soluzione del catalizzatore venne infine adottata nel 1992 (qualche anno prima per le cilindrate maggiori). In pratica l’Europa si mosse in ritardo di 20 anni rispetto agli Stati Uniti, ma recuperò in una notte il gap. Infatti i limiti adottati furono quelli – più severi - in vigore negli Usa nel 1992.
                                                                                        
Il viziaccio di fumare

Per i diesel, invece, l’Europa si era mossa in anticipo. Non per limitare CO ed HC, visto che il motore a gasolio lavora sempre in eccesso d’aria e brucia completamente il combustibile, ma per ridurre il vizio del fumo (nero) che alcune Case avevano ereditato allegramente: troppo facile spremere cavalli lavorando sulla mandata di gasolio. Complice anche la sua scarsa qualità e le elevate percentuali di zolfo, si impose un esame ottico della trasparenza allo scarico: molti ricorderanno i famosi opacimetri. Ma la vera spada di Damocle per il motore a gasolio fu l’accusa di essere il principale produttore di particolato, ovvero il PM10. In realtà, le polveri sottili misurate dalle centraline sono per l’80% un prodotto secondario, ovvero qualcosa che si forma nell’atmosfera dalla combinazione di sostanze già presenti, in particolare: un nucleo acido (al quale contribuiscono sia gli NOx prodotti da tutte le combustioni, sia l’anidride solforosa), tutti i composti organici contenenti H e C (combustioni incomplete, vapori di benzina e solventi, terpeni e oli emessi dalle piante). Morale il diesel automobilistico venne caricato di tutte le responsabilità in merito al particolato.

Pertanto, dal 1992, il motore a benzina ebbe vita facile e limiti abbordabili a basso prezzo, mentre per il diesel la vita divenne ogni giorno più dura. Con l’obbligo di adottare:
•    EGR, per ridurre la temperatura di combustione al minimo e limitare la formazione di NOx;
•    Marmitta catalitica ossidante, per bruciare le particelle di carbone e ridurre il particolato;
•    Filtro antiparticolato, per abbattere totalmente la presenza di PM 10 e di PM 2,5.

Errore madornale

Siamo giunti al 2008, la questione ambientale viene combattuta esclusivamente contro il diesel, nonostante sia il motore che garantisce “gratuitamente” un risparmio attorno al 30% di CO2 (che è un gas serra, non un veleno come troppi amministratori e politici hanno creduto). Ambientalisti poco informati, memori del fumo nero, trovano nel diesel il mulino a vento contro cui lanciare strali, ma anche la competizione industriale fa la sua parte. Perché Usa e Giappone limitano così tanto gli NOx pur non avendo un parco auto a gasolio di una certa consistenza? Notoriamente il diesel automobilistico è un’eccellenza europea e, neppure a farlo apposta, i cicli di misura al banco (sia quelli europei, sia quelli Usa) prevedono molte fasi col motore al minimo, proprio quando gli NOx (che sono un segnale di combustione perfetta) sono al massimo. Volete sapere ciò che pensa il legislatore americano degli NOX? Ecco:

“Gli ossidi di azoto sono una famiglia di gas molto reattivi che giocano un ruolo importante nella combinazione con composti organici volatili (VOC) che produce ozono (smog) nelle calde giornate estive. Respirare ozono può condurre a svariati problemi di salute, quali dolori al petto, tosse, irritazione di gola e congestioni. Respirare ozono può peggiorare le condizioni precedenti di bronchiti, enfisema e asma”.

Come si vede, nulla di estremamente pericoloso, anche perché tutte le combustioni producono NOx, perfino un litro di latte quando bolle sul gas. Ma, invece di sindacare sulla inopportunità dal punto di vista ambientale di abbattere ulteriormente gli NOx, nel 2008, prima Toyota e poi Mercedes presentano i loro costosi dispositivi per portare a zero gli ossidi di azoto: il catalizzatore DeNox e il catalizzatore selettivo a urea. Entrambi inventati per mostrare agli Usa che col diesel si poteva fare tutto. Entrambi tanto costosi da escluderne a priori l’impiego sulle piccole cilindrate. Entrambi così delicati e incerti da portare i tecnici dei laboratori a veri salti mortali per soddisfare le norme. E a cadere dal trapezio.

La zappa sui piedi

E fu così che Rudolf Diesel perse la guerra. O meglio l’hanno persa tutti i diesel, complici anche i media europei che hanno fatto a gara a stroncarlo. Come dire, darsi la zappa sui piedi. Chiamatela dieselgate, addebitatela alla Volkswagen, ma come facilmente si intuiva nel settembre 2015, molte altre Case (FCA, Renault, PSA) sarebbero finite nel calderone, al punto da rinfacciarsi oggi errori e complicità.

Qual è la verità? Tutti sapevano che annullare gli NOx era come scalare una parete di ghiaccio, ma avevano scommesso di riuscirci, accettando supinamente limiti Usa tre volte più severi di quelli europei. E avevano sottoscritto queste poche – importantissime - righe che compaiono quasi identiche sia nelle norme Usa (40 CFR del 1986), sia nella direttiva europea 715 del 2007:

La funzionalità dei dispositivi di controllo delle emissioni allo scarico e le emissioni per evaporazione deve essere confermata per tutta la normale durata di vita del veicolo, in condizioni di normale utilizzazione.

I controlli possono venire effettuati per un periodo di 5 anni o un chilometraggio fino a 100.000 km, a seconda della condizione che si verifica prima.

L’uso di sistemi di manipolazione che riducono l’efficacia di sistemi di controllo delle emissioni è vietato, a meno che:

•     non si giustifichi con la necessità di proteggere il motore da danni irreparabili o incidenti;
•    l’impianto (che manipola le emissioni, ndr) funzioni solo nella fase di avviamento;
•    non sia dettato da casi di emergenza.

I trucchi delle sale prova

Il dieselgate – e quel che ne consegue - sta tutto qui, nel non aver rispettato queste frasi. O meglio, nell’aver ritenuto sufficiente rispettarle (solo) nella prova al banco. Onde due abitudini note a chi ha frequentato sale prove e laboratori di emissioni:

•    l’esemplare sottoposto ad esame può essere scelto, preparato, alleggerito, dotato di oli speciali, con pneumatici a basso rotolamento, con accessori elettrici staccati. Perfino la pompa dell’acqua o la ventola vengono addomesticate ad hoc, tanto i controlli sul circolante non si sono (non si erano) mai fatti;
•    la centralina può essere addestrata a riconoscere se sta eseguendo la prova al banco e a modificare di conseguenza il suo comportamento. I trucchi sono tanti, quasi ogni Casa ne ha inventato uno, si va dal conoscere a memoria i punti (velocità e potenza) nei quali viene eseguito il ciclo di prova, alla apertura di un apposito interruttore sulla battuta del cofano (le prove al banco si eseguono a cofano aperto); dalla posizione del volante (se rimane in posizione fissa per qualche secondo), al conteggio dei minuti dopo la messa in moto (il ciclo di prova UE dura 11 minuti).

Nessuno aveva mai eseguito verifiche per le emissioni sul circolante, men che meno in Europa, ove ai costruttori si richiede soltanto di dichiarare i consumi di carburante misurati secondo i cicli, ma che poi nessuno controlla. Ci ha pensato l’EPA, l’agenzia Usa per la Protezione dell’Ambiente, nel 2014, quando ha scoperto che i sistemi VW per abbattere gli NOx diventavano un po’ meno efficaci una volta giù dal banco prova. Forse per farli durare più a lungo, o forse per risparmiare platino e rabbocchi di urea, fatto sta che la VW ha insegnato alla centralina come comportarsi al banco prova.

Non mantenendo così l’impegno sottoscritto, ovvero che i dispositivi presenti nell’esemplare testato sarebbero rimasti tali e quali anche nella marcia su strada.

Altre Case, più furbamente, avevano dotato le vetture di tasti “Eco” o simili, mediante i quali il rispetto delle emissioni veniva ottenuto solo in quella condizione. Che, ovviamente, non poteva rivelarsi molto brillante nelle prestazioni, ma sufficiente a passare l’esame.

La rivelazione della Bosch

Infine, qualche mese fa una rivelazione della Bosch ha fatto luce sul rovescio della medaglia, cioè l’altra faccia della guerra al diesel. Infatti, per lanciare una sua invenzione il costruttore tedesco ha affermato:

“Lo sapevate che anche i motori a benzina più avanzati sprecano circa un quinto del carburante? Soprattutto ad alti regimi, parte della benzina viene utilizzata per il raffreddamento anziché per la propulsione… in particolare quando si guida in autostrada.  E prosegue: “Al motore non deve essere consentito di surriscaldarsi. Per impedire che ciò accada, in quasi tutti i motori di oggi viene iniettato carburante in più, che evapora raffreddando le parti calde.”

Ecco che la favola del rapporto stechiometrico comincia a vacillare. Come fa l’impianto d’iniezione a non rispettare i comandi della sonda Lambda? Semplice, basta spegnerla ogni volta che la miscela va arricchita. Quando? Lo dice la Bosch, che di iniezioni se ne intende: agli alti regimi, in autostrada e – aggiungiamo noi – ogni volta che si affonda il piede. Lo avevamo scoperto nel 1992 con una nostra inchiesta, pubblicata su Quattroruote e mai smentita. Su 15 modelli a benzina provati, tutti spegnevano la sonda Lambda, istantaneamente, quando si premeva l’acceleratore e lo stesso facevano a velocità superiori a 125 km/h, cioè al di sopra di quella massima prevista nel ciclo.

Perché le Case hanno potuto immettere nei gas di scarico fino al 20% di benzina incombusta, molto più pericolosa di qualunque ossido di azoto? E perché questa notevole quantità di HC è sempre sfuggita ai cicli di omologazione?

Le valvole sono sacre

La ragione sta nella frase: “Ai motori non deve essere consentito surriscaldarsi”. Che tradotto significa: Da sempre abbiamo convenuto con i burocrati di Bruxelles che per raffreddare le valvole ed evitare danni al motore bisognava irrorare benzina liquida, che evaporando abbassava la temperatura delle valvole. Soluzione diventata normale, ma mai confessata apertamente. Il che significa che al di sopra delle blande prestazioni richieste nella prova al banco, dal tubo di scarico può uscire fino a un quinto di benzina incombusta.

Né serve a molto la marmitta catalitica, perché se non c’è ossigeno (compito assicurato dalla sonda Lambda, quando è in funzione) la combustione è incompleta, anzi si formano idrocarburi HC particolarmente stabili e resistenti alla ossidazione, che non godono proprio fama di medicine contro il cancro. Sono il benzene, il toluene e lo xilene, cioè idrocarburi aromatici, che oggi sono cresciuti in percentuale nelle benzine, per sostituire gli effetti antidetonanti che una volta svolgeva il piombo. Proprio la loro elevata stabilità li rende pericolosi per l’uomo, giacché il corpo umano non li trasforma, ma li accumula. Basti pensare che il benzene da solo può indurre 18 tipi diversi di tumore.

Ancor più pericolosi – anche se emessi in quantità mille volte inferiore – sono i derivati degli aromatici: benzopirene, crisene, fenantrene, fenantracene e altri polinucleari aromatici (in sigla (IPA). 10 GRAMMI DI VELENI AL km

Bosch afferma quindi che i motori a benzina “anche i più avanzati” possono emettere dal tubo di scarico un quinto (il 20%) di benzina non bruciata, e rivela un inquinamento nascosto del quale la stampa non aveva mai parlato. Con semplici calcoli ne deriva che una vettura che consuma 10 litri per 100 km, spreca 2 litri di benzina ogni 100 km, cioè 2,0 centilitri al km, che corretti con la densità del carburante danno 17 grammi al chilometro.

Se consideriamo che:

-    nei cicli di misura i limiti alle emissioni sono da sempre al di sotto di un grammo al km, per tutte le sostanze;
-    la norma Euro 6 prevede un massimo degli idrocarburi totali HC pari a 0,1 grammo, cioè 100 milligrammi al km;
-    17 grammi di benzina incombusta sono per oltre la metà formati da composti notoriamente cancerogeni;

si scopre che ai motori a benzina è stata concessa – e lo è tuttora – ampia libertà d’inquinare in nome della salute delle valvole.

Non così per il diesel, anzi. Infatti, la quantità di NOx, misurata su strada, in condizioni reali, nelle vetture diesel sottoposte a indagine a seguito del caso Volkswagen, è risultata compresa fra 0,08 e 0,5 grammi al km. Cioè quantità inferiori al grammo, per giunta di un gas (gli ossidi di azoto) che non è cancerogeno, che non contiene particolato e che può diventare un precursore del particolato solo se incontra proprio idrocarburi HC incombusti o volatili.  In altre parole, senza HC nell’aria, gli NOx non producono neppure lo smog fotochimico.

E anche se dimezziamo i valori del nostro calcolo (non tutte le auto a benzina consumano così tanto e non sempre si viaggia ad alta velocità o con acceleratore premuto) la benzina incombusta scende a 8 grammi/km. Morale, non c’è par conditio fra i due motori.

 Strada logica

E pensare che c’era una strada, logica, per evitare di immettere nell’atmosfera tanti idrocarburi incombusti: rinunciare ad aumenti eccessivi di potenza tali da provocare surriscaldamenti. Strada che avrebbe condotto a motori di grande cilindrata e di poca potenza, come ha scelto l’industria americana. Ma in Europa, il fisco ha sempre considerato la cilindrata un parametro per ricchi e lo ha tassato e tartassato. Così la concorrenza fra le Case non ha neppure preso in considerazione questa ipotesi. Una volta ottenuto da Bruxelles il nulla osta a salvaguardare i motori, il problema (di limitare le potenze) non si è più posto. E nessuno ha indagato sull’attentato alla salute pubblica conseguente all’impiego di miscele molto ricche in HC. Anzi, nell’alternativa salute pubblica o salute dei motori, ha prevalso quest’ultima.

Perché la Bosch ha parlato solo oggi, rivelando il problema di ieri? Semplice, perché ha inventato un dispositivo che può rimediare allo spreco di benzina iniettando acqua nebulizzata ad alta pressione nel condotto di aspirazione. E per rendere appetibile l’invenzione ha svelato – in verità senza molti dettagli – come e perché, dai tempi della prima marmitta catalitica, si curavano i bollenti spiriti dei motori con dosi di benzina liquida.

Enrico De Vita
Febbraio 2017