Biochar, il carbone amico
Quando pensiamo al carbone, andiamo subito col pensiero all’inquinamento, a colonne di fumo nero e denso e alle città coperte di fuliggine di non tanti decenni orsono. E, nonostante i progressi tecnologici che hanno reso progressivamente meno inquinanti i sistemi di combustione del carbone, questa visione è ancora attuale, perché il carbone è ancora largamente usato in tutto il mondo nelle centrali per la produzione di energia elettrica (circa il 30% dell’energia elettrica mondiale è prodotta da centrali a carbone, fonte IEA - International Energy Agency).
Ma in questo articolo parliamo di un altro tipo di carbone che - al contrario - ha delle proprietà che lo pongono agli antipodi del carbone fossile e dei suoi utilizzi: questo prodotto si chiama biochar e la sua scoperta è relativamente recente, i primi studi scientifici si devono al professor Johannes Lehmann della Cornell University negli anni 80.
Il biochar è il residuo carbonioso ottenuto dalla combustione in assenza di ossigeno di biomassa (materia organica). Qualsiasi tipo di biomassa di origine vegetale o animale, sottoposta al processo di combustione in assenza di ossigeno – pirolisi – produce biochar. Evidentemente la materia di partenza (feedstock), influisce sulle caratteristiche chimiche del prodotto finale.
Proviamo, qui, a dare una breve panoramica globale delle qualità di questo composto e a focalizzare un aspetto di particolare interesse, ovvero la sua capacità di stoccare CO2, diventando, quindi, anche un elemento per contrastare l’immissione di gas a effetto serra in atmosfera.
COME SI FA IL BIOCHAR
Il carbone vegetale si fa dalla notte dei tempi; in tutta l’Europa mediterranea c’erano le carbonaie dove si bruciavano residui legnosi per produrre carbone, il biochar è l’evoluzione scientifica di questo sapere antico.
Oggi esistono sofisticate apparecchiature che per produrre il biochar attivano un processo di combustione lenta a temperature di circa 500-600 gradi Celsius in assenza di ossigeno.
A partire dal feedstock introdotto, si realizzano essenzialmente tre prodotti:
- il biochar, ovvero la frazione solida del processo di pirolisi
- il syngas, i residui gassosi del processo
- il bio-olio, residuo liquido del processo
In realtà la questione è più complessa e se il processo di combustione prevede la presenza di limitate quantità di ossigeno, parliamo di “gassificazione” e l’output del processo è diverso.
Tuttavia, concentrandoci sul solo biochar, esso viene prodotto essenzialmente a partire da biomassa vegetale, residui legnosi di qualsiasi origine.
Si comprende facilmente che questo tipo di processo permette l’utilizzo e la valorizzazione circolare di materiale che altrimenti andrebbe disperso o bruciato senza alcun vantaggio. Parliamo dei residui di potature, sfalci, rami degli alberi che diventano tronchi puliti destinati alle segherie per usi industriali.
E su questo punto va aperta una parentesi: i boschi vanno gestiti e i piani di tagli programmati non solo non arrecano alcun danno ma, al contrario, fanno bene alla salute dei boschi.
Il problema è il disboscamento selvaggio e illegale (che non esiste in Europa), non certo la gestione forestale sostenibile che prevede dei tagli programmati mirati a rinforzare lo stato di salute del bosco o della foresta.
Nel processo di pirolisi, fatto cento in quantità il feedstock, la resa è del 25 – 30% circa, ovvero si ottiene, dalla combustione della massa vegetale, il 30% di biochar.
Ne risulta un prodotto simile alla carbonella che si usa per i barbecue, ma più fine, le cui caratteristiche principali sono la porosità, la capacità di trattenere l’acqua, il potere alcalinizzante dei terreni.
APPLICAZIONI IN AGRICOLTURA
Il biochar può essere utilizzato in agricoltura, come filtro nella depurazione di acque inquinate, nell’edilizia come materiale per l’isolamento, nella produzione di biocarburanti.
Ma il suo utilizzo attualmente più diffuso e importante è quello agricolo.
Distribuito sui terreni è un potente ammendante[1], quindi migliora la qualità chimiche, fisiche e biologiche dei terreni, rendendoli molto più produttivi e contrastando gli effetti della siccità perché trattiene l’acqua nei terreni.
Immesso nel terreno, il biochar aumenta il ph, quindi rende la terra più alcalina, aumenta la disponibilità di acqua, migliora le condizioni di sviluppo delle radici, migliora l’apporto e l’assorbimento di nutrienti per le piante, aumenta la resistenza alle malattie e ai fattori di stress ambientale.
In pratica, è una specie di potentissimo ricostituente dei terreni.
In funzione del tipo di terreno di cui si vogliono migliorare le caratteristiche chimico – fisiche, si potranno produrre diversi tipi di biochar (variando la composizione del feedstock e le condizioni di pirolisi) che daranno risposte mirate per obiettivi specifici. Risultati eccellenti si stanno raggiungendo con i terreni aridi, sabbiosi, sovrasfruttati.
BIOCHAR E ATMOSFERA
Ma c’è un’altra caratteristica di grande interesse di questo prodotto, esso è efficace per il sequestro di CO2 dall’atmosfera.
Infatti, al termine del processo di produzione, la CO2 presente nel materiale vegetale viene mineralizzata e quindi “intrappolata” nel biochar. Circa il 90% di questa CO2 resta inglobato nella struttura molecolare del prodotto che rimane stabile per centinaia di anni.
È bene precisare che è giusto parlare di sequestro e non di stoccaggio della CO2 in quanto si tratta di carbonio di origine vegetale fotosintetizzato a partire da CO2 atmosferica.
In questo modo il biochar diventa anche uno strumento di lotta all’effetto serra, e infatti la sua produzione permette anche di emettere crediti di carbonio (al termine di un processo di certificazione) da vendere sul mercato volontario (quindi non per le aziende obbligate a compensare le proprie emissioni).
Che i boschi bruciati rinascano velocemente e con grande forza è un fenomeno conosciuto da sempre; una delle ragioni che determinano questa situazione è la modifica delle caratteristiche del suolo dovuta alle ceneri. È esattamente ciò che fa il biochar.
A volte la scienza va avanti guardando al passato.
PER APPROFONDIRE
Ichar, Associazione Italiana Biochar
International Biochar Initiative
Unibo, Biochar, presente e futuro
NOTE
[1] La differenza tra una sostanza ammendante e un fertilizzante è che la prima interviene sulla struttura del suolo e apporta migliorie stabili nel tempo, i fertilizzanti sono solo l’immissione nel terreno di sostanze nutritive che vengono utilizzate e consumate dalle piante.
L’arte di fare attenzione nel tempo delle catastrofi - Il pensiero di Isabelle Stengers
Nel suo libro Nel tempo delle catastrofi (2021, Rosemberg & Sellier), Isabelle Stengers, una delle più importanti filosofe della scienza contemporanee, propone in maniera divulgativa una serie di riflessioni che tentano di delineare una connessione tra il pensiero ecologista e quello femminista. Ciò che emerge dalla lettura, è che entrambi gli approcci non sono solo intimamente connessi, fino a rappresentare due facce della stessa medaglia, riguardo ai problemi che sollevano e agli scopi che si prefiggono, ma nella loro più profonda essenza sono accomunati perché esprimono anche una radicale rivalutazione – e archiviazione – della narrazione del progresso, nella sua duplice veste di obbiettivo delle scienze (incluse quelle sociali, e sì, anche delle humanities) e indiscusso fine economico.
Più precisamente quindi, è attraverso la mobilitazione di diverse prospettive – epistemologica, di genere e di ecologia politica – e mostrando esplicitamente l’impossibilità di scindere l’una dalle altre, che l’autrice elabora la propria proposta per riformare le scienze secondo una concezione del sapere fortemente democratica e anticlassista. Questo allo scopo precipuo di «imparare l’arte di fare attenzione», come lei dice, nel nuovo regime climatico in cui Gaia ha fatto irruzione, costringendoci a pensare e a convivere con le minacce ecologiche che mettono in crisi il nostro modello di civiltà[1].
Stengers, infatti, argomenta che per potersi dire davvero «obiettori della crescita», occorre mettere in discussione proprio «quali idee usiamo per pensare altre idee», come direbbe l’antropologa Marilyn Strathern, perché queste inficiano la possibilità di affermare una forma di organizzazione sociale veramente plurale e sostenibile, oltre che un controllo orizzontale e diffuso del sapere e della tecnica.
Per farlo quindi, la storica della scienza esamina la genealogia del pensiero moderno, a partire dalla scoperta dei «fatti sperimentali», come delle entità che acquisiscono la capacità di prefigurare il modo in cui essi stessi devono essere interpretati. Acquisendo dunque una certa autonomia nel far pensare e dirigere gli esseri umani che li hanno fabbricati. Un’autonomia che però, come illustra appunto l’autrice, è andata sempre più trasformandosi in indipendenza:
«Tuttavia, chi ha scoperto che una simile riuscita era possibile, Galileo, si è affrettato a generalizzarla, vale a dire a trasformare la riuscita (riuscire a produrre un tipo di fatto che “provi”) in metodo (inchinarsi davanti ai fatti). Gli diventava così possibile contrapporre la nuova ragione scientifica, che riconosce autorità ai soli fatti, all’attitudine di chiunque prenda posizione riguardo questioni indecidibili, che conferiscono potere alle sue convinzioni o ai suoi pregiudizi. Questa messa in scena è senza dubbio una delle operazioni di propaganda meglio riuscite nella storia umana, se è vero che essa è stata ripresa e ratificata anche da parte dei filosofi – sebbene essi stessi ne risultassero spogliati della loro pretesa all’autorità. Certi vanno ancora oggi ripetendo il giudizio lapidario di Gaston Bachelard: ‘In linea di principio, l’opinione ha sempre torto. L’opinione pensa male; anzi, non pensa; traduce dei bisogni in conoscenze’. Che questo giudizio sia stato emesso in un libro intitolato La formazione dello spirito scientifico è una circostanza capace di testimoniare di una logica profonda. Un tale “spirito scientifico” è definibile solo in contrapposizione a qualcosa che sarebbe “non scientifico” – e ciò vale anche quando qualcuno si crede intelligente a invertire specularmente il significato di questa opposizione, attribuendo alla “gente” una ricchezza soggettiva o emozionale di cui sarebbe invece privo lo spirito scientifico, freddo, calcolatore e razionale» (Cit. p. 88).
Si sviluppa così una prima contrapposizione fra i gruppi di esperti (conoscitori di prima mano dei fatti naturali) e i profani, cioè tutti gli altri che vivrebbero nell’ignoranza rispetto a questi fatti, o peggio ancora nel disorientamento in base a bias culturali da correggere – che quindi corrisponde a una distinzione di ceto, stabilito in base alla scolarizzazione e professionalizzazione del sapere. A questa antitesi si aggiunge la naturalizzazione di questi fatti, che porta anche a oscurare le domande (cioè l’opportunità o meno di una scoperta o un’invenzione, in base al gruppo che la richiede e le sue esigenze), gli strumenti, il lavoro, le numerose prove ed errori, e il finanziamento che li hanno generati e le conseguenze che ne derivano. E si perviene quindi alla etero-direzione della società da parte di «fatti che parlano da soli», capaci di imporre valori e fini alla collettività senza che la formazione del loro determinismo possa essere messa in discussione.
L’invenzione della natura e dei fatti come entità esterne alla società e al regno della cultura, o più precisamente dell’oggettività, in quanto referenza indipendente dalla sua opinabile realizzazione a partire da soggetti incarnati che la generano, si propone come termine ultimo e insindacabile per la risoluzione di tutte le controversie, scientifiche, economiche e politiche; da essa discende la predisposizione di acritiche “parole d’ordine” che favoriscono e allo stesso tempo deresponsabilizzano coloro che le pronunciano.
Dal determinismo scientifico e tecnologico a quello economico il passo è breve; dove la realizzazione del valore di un bene e la sua commercializzazione è conseguentemente effettuata prescindendo – o circoscrivendo – da tutta la sfera di elementi possibili che contribuiscono a realizzarlo. Come l’estrazione e trasformazione di “risorse” non-umane da un lato, ma anche e soprattutto dal lavoro negletto di cura e riproduzione della vita necessaria alla creazione dei beni, che è stato storicamente svolto dalle donne.
Prendiamo ad esempio la diffusione dell’etichetta «l’era dell’Intelligenza Artificiale», che sentiamo ripetere costantemente come un mantra da entusiasti tecnofili, per forzarci ad accettare come un fatto compiuto un programma simil-totalitario di politiche sociali e culturali, basato sul preteso successo di un prodotto che in realtà è ancora indefinito e limitato proprio perché basato su un software chiuso, quale appannaggio esclusivo delle poche imprese che lo sviluppano: si tratta di un piano che parte dal bisogno di giustificare la gestione accentrata delle enormi quantità di dati che queste raccolgono, mentre rimane sottaciuto l’importante impatto ecologico dei loro servizi e prodotti[2]. Tuttavia, il successo del software è notevolmente ridimensionato – e ridicolizzato – non solo perché non rappresenta un fatto compiuto dalle vesti immateriali, ma anche da quanto riportato da Oxfam, cioè che il lavoro di cura non retribuito svolto dalle donne di tutto il mondo, varrebbe almeno tre volte il valore dell’industria delle stesse big tech, così da aver provocatoriamente nominato il suo rapporto “l’era della cura”[3].
In questo senso, si vede come la natura come entità disponibile e appropriabile – perché considerata esterna ai condizionamenti della società, che infatti dovrebbe semplicemente limitarsi ad “allocare al meglio le risorse scarse” – si rifletta nell’oggettivazione della donna come “risorsa” gratuita, remissiva e liberamente sfruttabile. Così, la figura dello scienziato ricalca quella del capitalista nella loro estrazione di ricchezza che rimane irresponsabile nei confronti delle loro sorgenti di valore. Ovvero, gli attaccamenti ecologici generativi necessari per la vita.
La scienza maschile si basa così su una soggettività virtuale del ricercatore che, quasi non avesse avuto bisogno di nascere ed essere nutrito, esprime uno «sguardo da nessun luogo» su un universo concepito come res extensa da conquistare progressivamente e da cui estrarre profitto[4]. In maniera profondamente differente, i saperi situati femminili non hanno invece direzione prestabilita, ma sentono il bisogno di radicarsi nel rizoma dei legami terrestri da cui dipendono, e di favorire la loro prosperità.
In effetti, al contrario dei quei barbari che tentano di lasciare il pianeta, per andare a conquistarne altri, o degli altri che con atteggiamento disfattista si sentono inermi rispetto all’apocalisse, questi tipi di conoscenze tentano precisamente di «avere luogo» e di «riferirsi a qualcuno», coltivando l’arte di fare attenzione alle entità neglette che compartecipano alla nostra sfera di esistenza particolare e di cui ignoriamo l’importanza favorendo le condizioni per l’abitabilità. Basti pensare alle catastrofi ambientali che si fanno sempre più tragiche e impellenti, mostrando tutta la nostra incomprensione e incuranza delle connessioni ecologiche da cui dipendiamo che ne sono all’origine.
Riprendendo quindi per concludere un altro passaggio dell’autrice, che si tratti di saperi «altri» o non-umani, che definisce «pratici», a partire dal riferimento pragmatico a ciò che li rende tali, ovvero il lavoro attorno ad una causa che impegna a pensare e ad agire in comune,
«ciò che ho tentato di fare nel caso particolare della ricerca scientifica e della valutazione dei ricercatori, è di pensare a partire da ciò che manca, da ciò di cui la mancanza ci rende malati, così critici e lucidi quanto vogliamo, ma crucialmente incapaci di resistere a ciò che ci distrugge. Sapersi malati, è creare un senso del possibile – non sappiamo ciò che avrebbe potuto essere, ciò che potrà essere la strana avventura delle scienze moderne, ma sappiamo che «fare di più» di quello che abbiamo l’abitudine di fare non sarà sufficiente a permetterci di comprenderla. Si tratta di disimparare la rassegnazione più o meno cinica (realista) e di ridivenire sensibili a ciò che forse sappiamo, ma in modo anestetizzato. È qui che la parola lentezza, così come è utilizzata dai movimenti slow, risulta adeguata: la rapidità domanda e crea l’insensibilità a tutto ciò che potrebbe rallentare, alle frizioni, ai contrasti, alle esitazioni che fanno sentire che non siamo soli al mondo; rallentare è ridivenire capaci di apprendere, di fare conoscenza con, di riconoscere ciò che ci sostiene e ci fa prosperare, di pensare e di immaginare, e, nello stesso processo, di creare insieme ad altri dei rapporti che non siano di cattura; si tratta quindi di creare fra noi e insieme ad altri il tipo di rapporto che si conviene fra malati, che hanno bisogno gli uni degli altri al fine di riapprendere gli uni con gli altri, tramite gli altri, grazie agli altri, che domandano una vita degna di essere vissuta, dei saperi degni di essere coltivati» (Stengers I. (2013), Une autre science est possible! Manifeste pour un ralentissement des sciences, La Découverte, Paris, p. 82).
NOTE
[1] Cfr. La politica dopo l’emergere di Gaia, il migliore dei mondi possibili, Controversie, 12/03/2024
[2] Scrive così Francesco Cara su Altreconomia in un articolo del 28 maggio 2024: «esiste una percezione diffusa secondo la quale il digitale è virtuale e immateriale e quindi non produce impatti ambientali significativi in termini di sfruttamento delle risorse, inquinamento, emissioni climalteranti e rifiuti. Nel libro “Ecologia digitale” abbiamo mostrato come il digitale, inteso come sistema costituito da centri di calcolo, reti di trasmissione e dispositivi, sia in realtà altamente energivoro, emissivo e idrovoro; grande consumatore di metalli rari e allo stesso tempo grande produttore di rifiuti. Immersi nel mondo delle rappresentazioni digitali, si tende infatti a dimenticare che il livello simbolico del settore, dove qualunque testo, immagine, video, brano musicale viene tradotto in sequenze di stati binari: Off (0) e On (1), poggi su segnali elettrici che scorrono su circuiti elettronici. Per ricevere l’informazione, archiviarla, trattarla e trasmetterla, il sistema digitale necessita quindi di materiali con caratteristiche conduttive ed elettromagnetiche particolari, di microprocessori molto impattanti, e di una fornitura ininterrotta di elettricità. Inoltre, il flusso elettrico disperde calore che, nei centri di calcolo, viene gestito con l’ausilio di sistemi di raffreddamento che, a loro volta, richiedono materiali, lavorazioni, elettricità e acqua. E lo stesso discorso vale per le reti di trasmissione dati». Disponibile al link: https://altreconomia.it/lecologia-digitale-alla-prova-dellintelligenza-artificiale-generativa/
[3] Cfr. Oxfam (2020), Time to Care: Unpaid and underpaid care work and the global inequality crisis. Disponibile al link: https://oxfam.dk/documents/analyser/davos/rapport_time-to-care-inequality-200120-embargo-en.pdf
[4] Cfr. Clarke A., Haraway D. (2022), Making Kin. Fare parentele, non popolazioni, DeriveApprodi, Roma
Cicli glaciali e attività antropica. La concentrazione dei gas serra in atmosfera - Seconda parte
Nel precedente post[1] abbiamo mostrato che, anche se è stata dimostrata la correlazione tra l’aumento spontaneo della concentrazione di gas serra in atmosfera e il comportamento dei moti millenari del pianeta Terra, rimanevano comunque da comprendere alcune incongruenze riguardo a:
- la grande e anomala quantità di gas serra attualmente presente in atmosfera e
- la sua non riconducibilità alla sola attività dell’era industriale.
Quando si parla di emissioni di metano e di cambiamento climatico, il primo e spontaneo pensiero è di puntare il dito verso gli allevamenti di ruminanti. Complice di questo automatismo è la contingenza storica di crescente avversione nei confronti degli allevamenti intensivi per l'approvvigionamento alimentare.
Meno frequentato è, invece, un altro concorrente a questo genere di emissioni che, anche se meno celebre, è non meno importante. Anzi, è forse storicamente ben più influente nell’emissione di questo specifico gas serra: si tratta della coltivazione sommersa del riso[2].
Come promesso, riporterò qui, per brevissimi tratti, l’interessante teoria che William F. Ruddiman, paleoclimatologo della Virginia University, pubblicò nel 2001 assieme all’allora suo studente Jonathan S. Thomson, e che mette in relazione l'invenzione e la diffusione di questa tecnica di coltivazione con l’aumento anomalo di metano immesso registrato a partire da cinque millenni fa.
Mi soffermerò maggiormente sugli aspetti storici e logici che hanno permesso la validazione di questo studio[3].
L’IMPATTO ANTROPOGENICO IN GENERALE
Nei termini di adozione tecnologica, di qualità del processo produttivo e di quantità produttiva, è oggi un’evidenza apprezzabile e scientificamente dimostrata quella dell’impatto che le attività umane hanno sull’alterazione di un equilibrio climatico “naturale”. La schiera di convinti negazionisti è ormai ridotta ad una esigua cerchia che conta più che altro provocatori con altri fini o fenomeni da studio sociologico, che si autoescludono dalle discussioni serie su questo tema.
Tra la fine XIII e la metà del XIX secolo vi è stato un aumento progressivo dell’attività di disboscamento col fine di alimentare gli stabilimenti produttivi e le attività di tipo estrattivo, mentre oggi prosegue principalmente per ampliare la superficie coltivabile del pianeta.
La scoperta dei combustibili fossili avvenuta nel XIX secolo e il loro progressivo impiego in ambito industriale hanno portato all’aumento spropositato delle emissioni di anidride carbonica.
L’aumento delle emissioni di metano è, invece, per lo più imputabile: alla sua fuga accidentale durante l’estrazione e il trasporto delle risorse fossili; all’aumento della popolazione mondiale, combinato al miglioramento delle relative condizioni di vita[4], all’aumento della produzione di rifiuti e alla conseguente dell’estensione delle relative discariche a cielo aperto.
A questi fenomeni si aggiunge anche il necessario aumento delle aree agricole irrigate e di allevamento, che portano a legittimare quel “dito contro” a cui abbiamo inizialmente accennato, rivolto contro le emissioni fisiologiche dei ruminanti, ossia dalle deiezioni e dalla fermentazione enterica, ovvero dalla digestione del cibo.
Alla fine del XX secolo queste emissioni saranno tali da aver raggiunto livelli che equivalgono ai record paleoclimatici di molti milioni di anni fa, in particolari fasi dei processi di intensa formazione delle terre oggi emerse.
Abbiamo, dunque, un sospetto più che fondato: l’impatto antropogenico è la principale causa di questo aumento anomalo degli ultimi tre secoli.
Siamo ora pronti a tornare alla proposta di Ruddiman e Thomson.
LA NASCITA DELL’AGRICOLTURA E LA SCOPERTA DELL’IRRIGAZIONE SOMMERSA: L’ALTRA METÀ MANCANTE DELLE EMISSIONI DI METANO
Intrapresa la strada della ricerca sulla via del sospetto ruolo antropogenico precedente all’era industriale, i due iniziarono a valutare anche i dati archeologici provenienti proprio dall’epoca di quella prima anomalia: la naturale diminuzione di concentrazione di metano in atmosfera si arrestò e iniziò invece a risalire, contrariamente a quanto sarebbe dovuto accadere per migliaia di anni da allora fino alla prossima glaciazione.
Secondo Ruddiman e Thomson la più probabile spiegazione di questa inversione è da attribuirsi all’invenzione dell’irrigazione del riso, la cui domesticazione della pianta risalirebbe ad almeno 9000 anni fa in Cina, nel bacino dello Yangtze.
La tecnica della coltivazione sommersa, lo dimostrano i ritrovamenti archeologici, era già in uso nelle pianure Sud-Est Asiatiche 5000 anni fa[5], e si estese, 2000 anni dopo, fin nelle pianure dell’India del Nord e Centro-Orientale. Alla sua diffusione si aggiunse poi la progressiva evoluzione dell’ingegneria agricola con la creazione di sistemi di canali sempre più complessi, che portavano l’acqua dai punti più depressi delle pianure fino anche ai fianchi delle colline.
Per comprendere la portata del fenomeno studiato da Ruddiman e Thomson è, tuttavia, opportuno allontanare dalla mente la tecnica di coltivazione odierna di questa pianta erbacea, che ci porterebbe fuori strada
Diversamente dai rifiuti e dall’allevamento, la coltivazione del riso richiede per la propria produzione un’estensione non direttamente proporzionale al numero degli esseri umani che ne dipendono. Questo diviene evidente se pensiamo alla certa inefficienza della coltura del riso a partire dalle sue origini in termini di:
- varietà meno produttive che, a parità di raccolto, imponevano la necessità di inondare aree più estese del suolo;
- maggiore presenza di varietà di erbe infestanti e di biodiversità connesse all’ambiente palustre, ossia alla loro relativa decomposizione nelle stesse risaie.
Come abbiamo visto nello studio del meteorologo J. Kutzbach[6], in tutte le aree palustri, la decomposizione della materia organica in clima anaerobico è a carico dei microrganismi metanogeni, incluse in questa categoria ambientale vi sono le coltivazioni sommerse del riso.
Aree sommerse più estese, in termini pragmatici, significano una maggiore produzione di metano prodotta da questo genere di coltura.
Si può parlare di efficienza tangibile di questa tecnica agricola solo a partire dalla metà del XX secolo, con l’invenzione dei pesticidi e dei diserbanti, i quali non erano prima d’allora nel dominio d’azione tecnologica dell’agricoltore, e anche con l'evoluzione della selezione genetica delle varietà seminate. Efficienza anch’essa con i suoi costi notevoli in termini di impatto ambientale, ma che esulano dal tema che stiamo qui trattando.
Se pensiamo dunque all’insieme di elementi di estensione delle risaie collegata alla loro bassa efficienza, alla loro progressiva diffusione crescente, per millenni, sull’intero pianeta abitato e agli effetti spontanei dovuti all’habitat anaerobico palustre, comprendiamo meglio perché Ruddiman e Thomson avessero ben intuito che dietro alla spiegazione di questa anomalia e delle sue crescenti dimensioni ci fosse sempre una matrice antropogenica: l’invenzione dell’irrigazione agricola, soprattutto quella sommersa del riso.
NOTE
[1] “John Kutzbach e le correlazioni naturali tra i cicli glaciali e la concentrazione dei gas serra in atmosfera.” è il post in questione. Consigliamo al lettore anche la lettura di “Stiamo ritardando la prossima glaciazione? Si.” per aver una visione più chiara e solida del terreno d’indagine in cui si inserisce il presente post.
[2] Faccio presente al lettore che anche il metano (CH₄), per quanto sia un gas più dannoso, è anche meno “famoso” del suo concorrente l’anidride carbonica (CO2). In termini di inquinamento atmosferico il primo è infatti di 25-30 volte più dannoso della seconda.
[3] Il clima globale del Pianeta è un sistema altamente complesso, l’invito che faccio al lettore è di approfondire dunque gli aspetti specifici di questa teoria nel testo di riferimento principale utilizzato per presentargliela: “L’aratro, la peste, il petrolio - L’impatto umano sul clima” di William F. Ruddiman.
[4] Si tenga presente che secondo le stime attuali, l'aumento della popolazione è raddoppiata circa ogni 1000-1500 anni, da 5000 a questa parte. È solo con l'avvento della rivoluzione industriale che la crescita demografica prende ritmi mai visti. Si è stimato il raggiungimento di circa mezzo miliardo di esemplari della specie umana verso la fine 1500, mentre a inizio 1800 era 1 miliardo: oggi circa 8 miliardi in più rispetto a inizio 1500. La stima, su base archeologica, proiettata a 5000 anni fa ammonta a circa 40 milioni.
[5] Curiosità: nello Xinjiang di quasi 4000 anni fa, nell’attuale Cina, si estraeva e si faceva uso domestico del carbone fossile.
[6] Si veda la Nota #1.
FONTI
Willian F. Ruddiman, Jonathan S. Thomson, “The case for human causes of increased atmospheric CH4 over the last 5000 years”, Quaternary Science Reviews, vol. 20, Issue 18, December 2001, pp. 1769-1777, 2001
Ruddiman, “L’aratro, la peste, il petrolio - L’impatto umano sul clima”, UBE Paperback, 2015
Alice Fornasiero, Rod A. Wing, Pamela Ronald, “Rice domestication”, Current Biology, vol. 32, 1º gennaio 2022, pp. R20–R24
Istituto Superiore per la Protezione e la Ricerca Ambientale RAPPORTI 374/2022 Il metano nell’inventario nazionale delle emissioni di gas serra. L’Italia e il Global Methane Pledge, 2022
NASA, “Atmospheric Methane Concentrations”, ONLINE https://climate.nasa.gov/vital-signs/methane?intent=121
IMEO, “Methane Data”, ONLINE, https://methanedata.unep.org/plumemap
Cicli glaciali e attività antropica - La concentrazione dei gas serra in atmosfera
Come abbiamo accennato in un precedente post[1],dallo studio sui cicli glaciali emerge una relazione diretta tra il variare della radiazione solare e la concentrazione naturale dell’anidride carbonica e del metano presenti in atmosfera.
La prima spiegazione valida a questo fenomeno arrivò nel 1981, quando il meteorologo John Kutzbach pubblicò uno studio in cui ipotizzava che, alle latitudini tropicali e in corrispondenza coi moti ciclici millenari terrestri, all’aumento della radiazione solare corrispondesse un aumento di intensità del fenomeno dei monsoni estivi che coinvolgono il Nord Africa [2], con relativa crescita di umidità ed espansione delle aree verdi in regioni attualmente desertiche.
Una delle conferme più incisive di questa teoria arrivò dagli studi effettuati sui carotaggi della calotta glaciale antartica estratti dalla stazione russa di Vostock (arrivata a circa 3.300 metri di profondità), al cui interno si trovavano imprigionate bolle d’aria risalenti fino a circa 400.000 anni fa. Oltre a confermare la maggiore umidità globale nell’epoca interessata dallo studio di Kutzbach, questi risultati rivelarono anche una maggiore presenza di metano nell’atmosfera nei periodi di più intenso irraggiamento solare [3], ossia in coincidenza con la maggiore presenza di vegetazione alle latitudini tropicali.
IL COMPORTAMENTO NATURALE DEL METANO NEI MILLENNI
Da quanto emerge dai carotaggi glaciali e da quelli oceanici, il ciclo di concentrazione atmosferica di CH₄ ha sempre mantenuto un’oscillazione costante nelle decine e centinaia di millenni passati, in correlazione coi moti millenari del pianeta [4].
Come risulta dalle verifiche effettuate in seguito sullo studio di Kutzbach, la variazione della concentrazione di metano in atmosfera è dovuta al fatto che in queste vastissime aree tropicali si trovavano grandi aree verdi che, nei momenti di maggiore intensità monsonica, venivano sommerse: la teoria aveva trovato le sue conferme.
In sostanza, il ristagno di queste acque innescava su scala macroscopica fenomeni di decomposizione organica anaerobica a carico dei microrganismi metanogeni, del tutto analoga a quella degli ambienti palustri.
Questa attività monsonica e i suoi effetti scatenanti le emissioni naturali di metano vanno estesi, oltre che alla regione del Sahel nordafricano studiato da Kutzbach, anche a tutte le vastissime aree tropicali che attraversano l’Arabia meridionale, l’India, il Sudest asiatico, fino ad arrivare alla Cina meridionale [5].
PERCHÉ AUMENTO ANOMALO “RECENTE” DELLE EMISSIONI DI CH₄?
Il ciclo di precessione coi suoi relativi effetti studiati da Kutzbach si compie in circa 25.000 anni, con intensità variabili dovute al concorso degli altri moti millenari compiuti dalla Terra.
Al giorno d’oggi ci troviamo nel minimo storico della radiazione solare estiva, a circa 10.000 anni di distanza dal massimo, e la concentrazione atmosferica di metano, anziché diminuire come era stato previsto, è aumentata.
Come risulta dalle diverse attività di studio elencate in precedenza, l’arresto del decremento e questo trend di anomalo aumento sono cominciati ben 5000 anni fa, ossia molto prima della rivoluzione industriale, a cui fino ad allora si attribuiva l’unica variazione anomala, e il cui inizio oscilla tra 250 e 200 anni fa.
Rimaneva ancora inspiegato e dunque attribuito a fattori "naturali" e “non-industriali” l’incremento precedente a quest’ultima era della produzione umana, a vantaggio anche dei negazionisti di un anomalo cambiamento climatico in atto e di chi faceva dunque risalire le cause a questi non ben precisati fenomeni naturali.
Se la spiegazione determinante di questi cambiamenti fosse risieduta nella sola “Natura”, allora il clima terrestre sarebbe dovuto andare incontro a un raffreddamento globale. Invece non è stato così.
Non solo le temperature medie sono aumentate, ma anche le emissioni di gas serra prodotte negli ultimi 250-200 anni non erano spiegabili, in quanto rappresentavano la sola metà del totale presente in atmosfera registrato all’epoca dei suoi studi.
La metà mancante andava cercata altrove e, escluse di per certo le cause naturali, il sospetto rimaneva in ambito antropico.
---------------------
La risposta a questo comportamento anomalo pre-industriale arrivò quando William Ruddiman ebbe un'intuizione, che verrà descritta in un prossimo post.
NOTE
[1] Il post è “Stiamo ritardando la prossima glaciazione? Si.” e ne consigliamo la lettura in quanto propedeutico alla comprensione di questo presente.
[2] Questa teoria nacque dall’obiettivo primario di comprendere perché nella zona desertica del Sahel vi siano testimonianze di una precedente esistenza di fiumi e vegetazione.
[3]Vedi nota #1
[4] Fatta ovviamente esclusione per le emissioni straordinarie di metano dovute alle naturali attività vulcaniche, riconoscibili perché corrispondono ad aumenti di proporzione in un lasso brevissimo di tempo.
[5] Il lettore sarà agevolato nella comprensione di questo fenomeno di desertificazione progressiva se riporterà la sua mente agli studi scolastici sulle popolazioni della “Mezzaluna Fertile”, nonché ai monumenti e alle città ritrovate, ora in pieno deserto.
Internet non è una “nuvola” - Seconda parte
Nella prima parte di questo articolo, sulla scorta del recente volumetto di Giovanna Sissa Le emissioni segrete (Sissa G., Le emissioni segrete. L’impatto ambientale dell’universo digitale, Bologna, Il Mulino, 2024), abbiamo visto come il processo di produzione dei dispositivi elettronici e anche il funzionamento della rete siano fonti di consumi energetici ormai colossali e in via di costante incremento, a misura che procede la… “digitalizzazione della vita”. Ragionando in termini di emissioni di gas a effetto serra dovute a tali consumi, si parla, nel primo caso, di emissioni incorporate e nel secondo di emissioni operative. Delle prime fanno parte non solo quelle dovute al processo produttivo, ma anche quelle necessarie allo smantellamento e al riciclo dei prodotti, giunti a fine-vita. E di quest’ultimo aspetto ci occupiamo ora: dell’e-waste, ovvero della “spazzatura elettronica”.
E-WASTE, OVVERO: RITORNO ALLA TERRA
Non c’è prodotto, non c’è merce, che prima o dopo, in un modo o nell’altro, non torni alla terra sotto forma di rifiuto. E a questa legge, che ci hanno spiegato i grandi maestri del pensiero ecologico come lo statunitense Nicholas Georgescu-Roegen o qui in Italia Laura Conti e Giorgio Nebbia,[1] non fa eccezione il mondo digitale, con tutta la sua multiforme schiera di dispositivi personali, sottoposti peraltro a un ritmo sempre più rapido di obsolescenza-sostituzione (e non ci si faccia ingannare dalle rassicurazioni di aziende e istituzioni, come la Commissione europea, sull’impegno a superare le pratiche della obsolescenza programmata e a modificare il design dei propri prodotti in funzione del riciclo, riparazione ecc.! Nel caso migliore, si tratta di… pannicelli caldi).
Anche i processi di riciclo e trattamento comportano consumo di risorse e dunque emissioni (sono anch’esse da considerare “emissioni incorporate”). In questo caso a determinare le emissioni sono appunto procedimenti industriali molto complessi che devono estrarre da ogni dispositivo i materiali riutilizzabili.
Ebbene, quel che si scopre, in questo caso, è che dal punto di vista delle emissioni questa fase del ciclo di vita dei dispositivi elettronici sembra comportare un peso molto minore, ma questa – nota l’autrice – non è una buona notizia: significa molto semplicemente che gran parte di questa mole di materiali non vengono trattati adeguatamente. Anzi, diciamola meglio: non vengono trattati del tutto. Le ragioni – spiega Sissa – sono insieme tecniche ed economiche: i processi industriali di recupero dei materiali (anche di valore) contenuti in un pc o in uno smartphone sono talmente complessi (data la quantità minima di materiali da recuperare) da rendere in definitiva del tutto diseconomica l’operazione.
Le (poche) ricerche esistenti parlano di una percentuale non superiore al 20% di materiale riciclato; tutto il resto, molto semplicemente, viene… spedito in Africa o in un qualunque altro paese disperato, post (post?) coloniale o semplicemente intenzionato a garantirsi un po’ di rendita a costo di chiudere tutti e due gli occhi sugli effetti ecologici di questo “servizio”.[2]
È fuori dubbio che, in questo caso, il tipo di impatto ecologico è di carattere diverso: infiltrazione di sostanze tossiche nelle falde sottostanti le grandi discariche (in particolare piombo, cadmio, diossine…), avvelenamento di animali e verdure, dell’aria, intossicazione delle popolazioni che spesso finiscono per costruire intorno a questi gironi infernali hi-tech vere e proprie economie informali che consentono, in contesti sociali poverissimi, occasioni di sopravvivenza per vaste masse e perfino di arricchimento per piccoli strati di una umanità tutta egualmente avvelenata. Se si vuole avere un’idea di queste realtà, si può guardare alla colossale discarica di Agbogbloshie (Accra), in Ghana, dove migliaia di persone vivono e lavorano attorno a questo terribile... business.[3]
CONTROVERSIE ECO-DIGITALI
Giovanna Sissa dedica alcune pagine piuttosto accurate a un tema che, soprattutto in questa sede, appare di grande interesse: quello delle controversie che attraversano il mondo dei ricercatori e degli studiosi che hanno deciso si avventurarsi in questo campo. La valutazione/quantificazione dell’ammontare delle emissioni di gas a effetto serra determinate dalla complessiva attività del mondo digitale è, certamente, un’opera assai difficile e sdrucciolevole, in particolare per quanto riguarda le attività di produzione (e dunque le emissioni incorporate), data anche la lunghezza e la diffusione spaziale delle filiere industriali implicate, la scarsa chiarezza dei dati forniti dalle aziende sui consumi, il fatto che c’è in effetti un peso crescente delle energie rinnovabili nella produzione di energia elettrica spesso tuttavia difficile da stimare, per non parlare poi di tutta la selva di strategie, alcune del tutto truffaldine, che permettono a molte aziende delle ICT di considerarsi a “impatto zero” (non scendiamo qui nei dettagli, che il lettore potrà trovare nel libro).[4] Quel che però va rimarcato è che, a fronte di queste difficoltà oggettive, l’impegno della ricerca appare assai blando.
È interessante scoprire, per esempio, che solo tre sono le ricerche significative in questo campo nell’ultimo decennio: una nel 2015 e due nel 2018: due di queste sono peraltro realizzate da ricercatori di aziende delle ICT (Huawei 2015 e Ericcson 2018), e dunque potenzialmente viziate da conflitto d’interessi, e solo una di ambito accademico (2018). Non stupisce, dunque, che, quando si cerca di determinare la misura di queste emissioni ci si trovi di fronte a un notevole grado di incertezza.
E ora la domanda delle cento pistole: non sarà che questa incertezza deriva, oltre che dalla complessità oggettiva della materia che è fuor di dubbio, dalla precisa scelta, per esempio delle istituzioni universitarie, di non impegnarsi (i.e. di non investire risorse) in questa direzione? E che si preferisce lasciare questo ambito quale terra (volutamente) incognita, così da non disturbare troppo il “Manovratore Digitale”? È la stessa autrice a suggerirlo, quando invita a non «pensare che siamo in presenza di fenomeni inconoscibili: le quantificazioni possono essere migliorate, rese più attuali, più precise e più trasparenti. Dipende solo dalla volontà di farlo e dalle risorse che si dedicano a questo».[5]
-------------
Questo mondo “digitalizzato” che stiamo edificando attorno a noi (e sempre più dentro di noi), insomma, non è per niente “immateriale”, come pure un’ampia letteratura sociologica e filosofica ha teso e tende a farci credere e un irriflesso uso linguistico continua a suggerirci;[6] esso è parte non secondaria di quella colossale “tecnosfera” che da sempre gli uomini hanno bisogno di costruire attorno a sé ma che dalla Rivoluzione industriale in poi, e in particolare a partire dal XX secolo, ha assunto una dimensione tale da influenzare la stessa vita sulla terra e da costituire ormai un pericolo per la sopravvivenza dell’uomo.
Le apparentemente eteree tecnologie di rete, che secondo una filosofia corriva sarebbero ormai consustanziali alla nostra stessa vita, per così dire disciolte in noi, nella nostra carne e nel nostro spirito (mi riferisco all’immagine dell’onlife, proposta da Luciano Floridi), sono in realtà parte non secondaria di questa materialissima e inquinantissima (e sempre più pesante) tecnosfera.[7] Come le ferrovie o le autostrade.
Quando "accendiamo" internet e facciamo qualcosa in rete, sempre più spesso ormai, stiamo inquinando, anche se non sentiamo motori scoppiettanti, o non vediamo nuvole di fumo uscire da qualche parte.
E tanto meno stiamo diventando green e sostenibili, come pure ci fanno credere.
Siamo ancora parte del problema e non della soluzione.
(2 / fine)
NOTE
[1] Scriveva Nebbia, per esempio, con la consueta chiarezza, che «ogni “bene materiale” non scompare dopo l’uso. Ogni bene materiale – dal pane alla benzina, dal marmo alla plastica – ha una sua “storia naturale” che comincia nella natura, passa attraverso i processi di produzione e di consumo e riporta i materiali, modificati, in forma gassosa, liquida o solida, di nuovo nell’aria, sul suolo, nei fiumi e mari. Peraltro, la capacità ricettiva di questi corpi naturali sta diminuendo, a mano a mano che aumenta la quantità di scorie che vi vengono immesse e che i “progressi tecnici” rendono tali scorie sempre più estranee ai corpi riceventi stessi, e da essi difficilmente assimilabili» (Giorgio Nebbia, Bisogni e risorse: alla ricerca di un equilibrio, in NOVA. L’enciclopedia UTET. Scenari del XXI secolo, Torino, Utet, 2005, p. 36).
[2] È quel che ha fatto per molti anni la Cina, come parte del proprio percorso di integrazione nel mercato globale, fino a quando, sia in ragione della crescita del proprio mercato interno e dei propri consumi sia per la rilevanza degli effetti ambientali e delle proteste collegate, ha sostanzialmente bloccato (con una serie di provvedimenti tra 2018 e 2021) l’importazione di «rifiuti stranieri», gettando letteralmente nel panico le società industriali occidentali. Guardate con quale candore si esprimeva, all’epoca, questo articolo del “Sole 24 Ore”: Jacopo Giliberto, La Cina blocca l’import di rifiuti, caos riciclo in Europa, “Il Sole 24 Ore”, 13 gennaio 2018, https://www.ilsole24ore.com/art/la-cina-blocca-l-import-rifiuti-caos-riciclo-europa-AELQpUhD?refresh_ce=1
In questo specifico ambito – sia detto per inciso – si può vedere in forma concentrata il generale comportamento economico del grande paese asiatico che, dopo aver accettato di subordinarsi per un certo periodo alle “regole” della globalizzazione neoliberale a guida Usa (ai fini del proprio sviluppo nazionale), ha ripreso le redini della propria sovranità. Ragione per cui ora il cosiddetto Occidente gli ha dichiarato guerra (per ora, per fortuna, solo sul piano commerciale).
[3] Per avere una idea della realtà della periferia-discarica di Agbogbloshie (Accra, Ghana), si possono vedere alcuni documentari presenti in rete, per esempio quello prodotto da “InsideOver”: Agbogbloshie, le vittime del nostro benessere, https://www.youtube.com/watch?v=Ew1Jv6KoAJU
[4] Cfr. Giovanna Sissa, Le emissioni segrete, cit., p. 105 e ss.
[5] Ivi, p. 113.
[6] Mi sono soffermato su questo “immaterialismo” dell’ideologia contemporanea in: Toni Muzzioli, Il corpo della Rete. Sulla illusoria “immaterialità” della società digitale, “Ideeinformazione”, 10 settembre 2023, https://www.ideeinformazione.org/2023/09/10/il-corpo-della-rete/
[7] In un articolo pubblicato su “Nature”, un gruppo di ricercatori del Weizman Institute of Science (Israele) ha calcolato che il 2020 è l’anno in cui la massa dei manufatti umani («massa antropogenica») ha superato, in termini di peso, quella della biomassa, cioè dell’insieme degli esseri viventi del nostro pianeta. Ovvero: 110 miliardi di tonnellate contro cento miliardi (cfr. Sofia Belardinelli, Il pianeta delle cose, “Il Bo live. Il giornale dell’Università di Padova”, 28 dicembre 2020, https://ilbolive.unipd.it/it/news/pianeta-cose ).
Stiamo ritardando la prossima glaciazione? Sì.
Sia il lettore più attento che quello più frettoloso avranno notato che nel titolo è già contenuta la risposta. Per quanto sinteticamente perfetta, ad entrambi, anche al più frettoloso, risulterà una risposta troppo breve ed interesserà perciò comprendere il perché di questo “Si”.
Questa evidenza emerse da una serie di studi che iniziarono negli ultimi anni del XX secolo e che si svilupparono lungo il primo decennio del XXI.
Il primo riscontro della disattesa partenza di una nuova era glaciale fu uno studio diretto dal paleoclimatologo William Ruddiman che coinvolse i meteorologi John Kutzbach e Steve Vavrus.
Essi cercarono, e trovarono – grazie a un modello di simulazione matematica che il climatologo Larry Williams creò negli anni ’70 - la conferma di quanto negli anni ‘80 aveva scoperto il geologo John Imbre: l’ultima fase interglaciale doveva essere terminata tra i 6.000 e i 5.000 anni fa.
Questo modello sul comportamento climatico venne impostato escludendo, tra i fenomeni che influenzano l’alternanza tra ere glaciali e interglaciali, le emissioni anomale di gas serra, iniziate quasi esattamente nello stesso periodo di fine dell’ultima fase interglaciale.
Secondo i risultati del modello, da allora i ghiacciai avrebbero dovuto iniziare ad accrescersi progressivamente, per via di un raffreddamento medio globale di 2°C (tantissimo in soli 6-5.000 anni) e il punto di massimo raffreddamento avrebbe dovuto presentarsi a Nord della Baia di Hudson, toccando un calo medio invernale di 5-7°C.
Però, ciò non è avvenuto.
Ancor più precisamente, lo studio rivelò che nell’Isola di Baffin (Canada) si sarebbe dovuto instaurare uno stato di glaciazione incipiente, ossia la presenza di un manto nevoso perenne, contro la sua attuale assenza per 1-2 mesi ogni estate.
In più, ai giorni nostri, avremmo dovuto assistere a qualcosa di analogo nell’altopiano del Labrador, il penultimo luogo in cui si sciolsero i ghiacciai dell’ultima glaciazione; il primo era per l’appunto l’isola di Baffin.
Lo studio generò sia plausi che critiche, e da queste ultime Ruddiman fu stimolato a fare ulteriori approfondimenti che lo portarono a studiare una glaciazione intercorsa ben 400.000 anni fa, che presentava variazioni della radiazione solare e delle emissioni naturali di gas serra analoghe a quelle della fase odierna.
L’approfondimento confermò quanto previsto dallo studio precedente e mai avvenuto perché interrotto cinque millenni fa: si sarebbe dovuto registrare un progressivo decremento fino ai valori minimi della concentrazione in atmosfera di metano (CH₄) e anidride carbonica (CO2).
Questi ulteriori studi, in sostanza, riconfermavano quanto ipotizzato: siamo oggettivamente all’interno di una fase glaciale, ma climaticamente ritardata. La causa del ritardo è da ricondursi prevalentemente a questa anomala alta concentrazione di gas serra.
PERCHÉ “OGGETTIVAMENTE” ALL’INIZIO DI UNA NUOVA FASE GLACIALE?
Se nel brevissimo periodo, anche di poche ore, è difficile prevedere localmente quale sarà il comportamento meteorologico, questo può essere, invece, fatto per il comportamento climatico globale nei tempi più lunghi delle decine e centinaia di migliaia di anni.
I paleoclimatologi hanno infatti già da tempo scoperto l’esistenza di veri e propri cicli climatici. Lo hanno potuto fare incrociando i dati geologici e paleontologici (soprattutto dai carotaggi oceanici) con quelli chimici (presenza di molecole e atomi con isotopi specifici presenti nei ghiacci e nei sedimenti fossili dei fondali marini) assieme alle leggi astronomiche ormai note dei moti terrestri detti “millenari”.
Su questi ultimi possiamo basare la “oggettività” che cercavamo.
I MOTI MILLENARI DEL PIANETA TERRA.
Se il moto orbitale della Terra attorno al Sole causa l’avvicendamento delle stagioni in circa 365 giorni, le cosiddette “ere” glaciali e i periodi interglaciali, fenomeni molto più lunghi nel tempo, sono invece principalmente conseguenza della variazione della quantità di radiazione solare ricevuta dal Pianeta, dovuta a tre movimenti che la Terra compie in decine di migliaia di anni.
1. Il primo è quello dell’oscillazione dell’asse di rotazione terrestre: scoperta dal matematico e astronomo francese Urbain Jean Joseph Le Verrier nel XIX secolo, è una lenta variazione dell’angolo di inclinazione dell’asse, che compie il proprio ciclo oscillatorio tra 22° 20’ e 24° 50’ in 41.000 anni circa.
Essa influisce direttamente sulla quantità di radiazione solare che raggiunge le latitudini più elevate del Pianeta (dai 45° N in su).
In termini più semplici: minore è il grado d’inclinazione dell’asse terrestre, minore sarà la quantità di radiazione che ricevono i poli terrestri, minori dunque saranno le temperature del clima globale e viceversa.
Attualmente l’inclinazione è di 23° 50’ circa, in fase di risalita verso la gradazione minima.
I restanti due moti influiscono invece sulla variazione della distanza della Terra dal Sole, che in termini empirici equivale alla sensazione che possiamo esperire d’inverno nel variare di pochi centimetri la nostra distanza dal tanto amato calorifero (i più freddolosi sanno bene quanto pochi centimetri facciano la differenza tra felicità e sofferenza).
2. L’eccentricità dell’orbita del Pianeta attorno al Sole: varia in un ciclo di circa 100.000 anni ed è quel fenomeno per cui l’orbita della Terra tende ad essere ellittica e solo ad avvicinarsi a un’orbita circolare (il cerchio ha eccentricità pari a 0).
Sempre scoperta da Le Verrier, questa variazione influisce sulla distanza media che il Pianeta mantiene rispetto al Sole (ripensate alla vostra distanza dal calorifero nelle giornate invernali e all’invidia che avete provato verso i compagni di classe o i colleghi che gli stavano più vicino durante l’intera giornata).
Le sue oscillazioni periodiche sono molto più irregolari rispetto a quelle dell’asse terrestre e attualmente si attesta a 0,0167, in un raggio di variazione totale tra il valore minimo di 0,0033 e quello massimo di 0,0671. In termini pratici parliamo di variazioni nell’ordine dei milioni di chilometri di differenza di distanza dalla fonte di calore che è il Sole.
3. Per ultimo abbiamo il moto di precessione, dal ciclo più breve di 25.000 anni, ossia il moto conico dell’asse di rotazione della Terra dovuto all’attrazione reciproca con la Luna e gli altri pianeti.
Scoperto nel XVIII secolo dal famoso enciclopedista francese Jean-Baptiste Le Rond d'Alembert, questo fenomeno è meno intuitivo da immaginare e viene spesso spiegato attraverso il moto di una trottola, la quale non solo gira su sé stessa ma possiede anche un movimento che la porta ad ondeggiare e inclinarsi da una parte all'altra: il moto di precessione.
Gli effetti che questi moti hanno sul clima sono anche chiamati Cicli di Milanković, dal nome dall'ingegnere e matematico serbo Milutin Milanković che li ipotizzò e studiò ai primi del XX secolo.
CONCLUSIONI
Anche se il clima è il risultato di un sistema complesso le cui variabili generano altrettanti e complessi meccanismi di feedback, in generale possiamo immaginare che valga la regola per cui ogni fenomeno che modifica per lungo tempo il comportamento della radiazione solare ricevuta dalla Terra, è determinante sul lungo tempo per il clima globale del Pianeta; i suoi effetti, però, saranno sempre riscontrabili con leggero ritardo.
La relazione tra i vari moti millenari determina dunque, oltre alla ricorrenza dei periodi glaciali, anche l’intensità con cui essi si presenteranno ciclicamente.
I dati raccolti dai paleoclimatologi ci rivelano inoltre che la storia delle glaciazioni è in realtà molto recente. È da 3 milioni di anni che la Terra si sta lentamente raffreddando, con la comparsa dei primi ghiacciai, solamente stagionali, risalente a circa 2,75 milioni di anni fa nelle regioni settentrionali del Pianeta.
È invece da “soli” 0,9 milioni di anni che hanno iniziato ad esistere i ghiacciai permanenti.
Nel periodo delle decine e centinaia di migliaia di anni, il clima globale è dunque prevedibile grazie ai modelli fisici ed astronomici confermati dagli studi di geologi, paleologi e paleoclimatologi: abbiamo la certezza che, anche basandosi esclusivamente sul moto di precessione, ci troviamo già dentro l’inizio di una nuova era glaciale - che non è però mai iniziata.
Quasi certamente questo inizio disatteso è da attribuirsi alle emissioni in atmosfera dei cosiddetti “gas serra”, che, come è ormai accettato dalla quasi totalità delle comunità scientifiche, non permettono la naturale dispersione della quantità di radiazione solare ricevuta dal pianeta che invece continua a riscaldarsi.
Inoltre, secondo i modelli climatici, questi gas sarebbero dovuti diminuire anziché aumentare, ostacolando l’innescarsi dei feedback positivi e naturali di innesco della prossima glaciazione.
Stiamo ritardando la prossima glaciazione? Si.
PER APPROFONDIMENTI
William Ruddiman, “L’aratro, la peste, il petrolio - L’impatto umano sul clima”, UBE Paperback, 2015
William Ruddiman, “Earth’s Climate”, Freeman, 2001
Gemelli digitali del pianeta? No grazie - Una riflessione sui "futuri simulati"
Un articolo recentemente pubblicato sul giornale WIRES Climate Change offre una critica articolata delle iniziative anche Europee di costruire dei gemelli digitali dell’intero pianeta, comprensivi di oceani, atmosfera, biosfera, e degli umani con le loro economie e società. Di cosa si tratta?
Molti gemelli artificiali sono già di uso corrente, in ingegneria, medicina e gestione dei processi. Secondo il sito della IBM un gemello digitale
… È una rappresentazione virtuale di un oggetto o sistema, disegnato per riflettere accuratamente un oggetto fisico. Esso copre l’intera vita dell’oggetto, viene alimentato con dati in tempo reale e usa simulazioni, nonché tecniche di apprendimento automatico (machine learning)
Gemelli di una turbina, di un ciclo produttivo o di un cuore umano, possono aiutare nello sviluppo di nuovi prodotti, processi o farmaci.
Il passaggio da una turbina al pianeta con noi sopra non è ovviamente cosa da nulla. Questi megamodelli gireranno su supercomputers inghiottendo enormi banche dati e generando immensi output che potranno essere ‘letti’ con l’ausilio di intelligenze artificiali. Essi ci consentiranno, secondo chi li propone, di affrontare le sfide dell’antropocene (un termine usato per indicare una nuova fase geologica caratterizzata da un visibile impatto umano) con particolare attenzione ai cambiamenti climatici. I gemelli del pianeta saranno collegati in tempo reale con satelliti, droni, boe, cavi sottomarini, sensori della produzione agricola e telefoni mobili.
Euronews, una rivista con sede a Bruxelles, si porta avanti, e annuncia: 'Gli scienziati hanno costruito un "gemello digitale" della Terra per prevedere il futuro del cambiamento climatico'. Secondo Margrethe Vestager, Vicepresidente Esecutiva per un'Europa dell’era digitale:
Il lancio dell'iniziale Destination Earth (DestinE) è un vero punto di svolta nella nostra lotta contro il cambiamento climatico... Significa che possiamo osservare le sfide ambientali, il che ci aiuterà a prevedere scenari futuri - come non abbiamo mai fatto prima... Oggi, il futuro è letteralmente a portata di mano.
DestinE è la versione europea dei numerosi progetti volti a costruire gemelli digitali del pianeta. L'idea che possiamo costruire una replica in silico (cioè nella pancia di un computer) della Terra ha un chiaro fascino culturale, una visione prometeica di fuga definitiva dell'umanità dalla materialità, accolta con entusiasmo come si vede da diversi decisori politici e da molte istituzioni scientifiche, come si puo’ vedere dal numero speciale del giornale Nature Computational Change, che discutendo diverse applicazioni del gemelli digitali presenta l’estensione all’intero pianeta come una naturale evoluzione della tecnologia. Perché opporsi, quando tanti fondi appaiono a portata di mano per sviluppare computers e modelli più potenti per studiare la Terra, il suo clima, l’evoluzione metereologica e gli eventi estremi? L’iperbole diventa di rigore, e così si arriva a dire che i gemelli preconizzano una nuova fase nello sviluppo dell’umanità, dove il mondo diventa “cyber-physical” cioè senza più barriere fra il virtuale ed il reale, grazie al suo nuovo esoscheletro.
Pubblicare un articolo critico come quello offerto da Wires Climate Change diventa così una sfida per gli undici autori, che richiede pazienza e una certa dose di ostinazione per procedere nonostante i rifiuti di molti giornali di scienze naturali. Quali ragioni adducono questi autori a ‘mettersi di traverso’? Le ragioni sono diverse e fanno riferimento a diverse scuole e discipline – come gli stessi autori:
- I proponenti dei gemelli digitali della Terra sostengono che essi, aumentando la risoluzione spaziale dei modelli, fino alla scala del kilometro, ci consentiranno di decifrare i misteri del cambio climatico. Per i dissidenti sopracitati:
Più alta è la risoluzione (cioè, maggiore è la localizzazione), più emergono feedback non fisici come rilevanti, che si tratti degli effetti microclimatici delle foreste o dei micropattern di albedo dovuti al ricongelamento di pozze acquose sulle calotte di ghiaccio. Il cambiamento di scala spesso comporta cambiamenti non banali nella complessità e nei principi che governano il sistema, e scale più dettagliate possono rivelare comportamenti caotici deterministici. Una risoluzione diversa potrebbe richiedere descrizioni di processi differenti, forse ancora sconosciute.
- I gemelli sono il risultato di una catena di riduzioni: la scienza viene ridotta alla fisica delle equazioni che governano il cambiamento climatico, e questa viene a sua volta ridotta ad un determinismo che solo esiste nelle equazioni stesse.
- L’enfasi sui gemelli, anche per affrontare sfide come la difesa della biodiversità, stravolge la natura della sfida e ne sposta il baricentro dal sud globale, dove si trovano le specie da classificare e difendere, al nord globale dove l’attenzione si concentrerà sulle specie sulla quali esistono più dati.
- Il progetto dei gemelli illustra drammaticamente l’autorità epistemica (relativa alla conoscenza) assunta dai modelli e da chi li opera. Gli eccessi di tale autorità, resi evidenti nel corso della recente pandemia, sono evidenti nella impostazione dei gemelli, che tendono a posizionare il cambio climatico – di certo reale e incombente – come una mono-narrazione cui tutto deve fare riferimento, comprese guerre, migrazioni, e derive autoritarie, con il risultato di oscurare la geopolitica con la fisica a danno dei deboli che si vorrebbero difendere dal cambiamento climatico.
- I gemelli digitali emergono da un intreccio di cambiamenti sociopolitici e tecnologici, in cui i numeri – indipendentemente da come vengono generati, siano essi visibili, come nelle statistiche, o invisibili, come quelli che girano nel ventre degli algoritmi – influenzano sempre più il discorso sociale, causando l’allarme dei filosofi, dei giuristi, degli economisti e degli stessi tecnologi, per non parlare degli esperti che studiano la sociologia della quantificazione e la sua relazione con la politica.
Quest’ultimo bullet, relativo alla relazione fra modelli, numeri e politica, si presta a interessanti digressioni, su come i numeri conferiscano potere epistemico e legittimità, e siano diventati il mezzo prevalente per esprimere valore nelle nostre società. L'accesso e la produzione di numeri riflettono e rafforzano le strutture di potere esistenti. I numeri catturano la nostra attenzione orientandola selettivamente. I numeri sono diventati invisibili poiché penetrano ogni aspetto della vita attraverso grandi modelli, algoritmi e intelligenza artificiale. Numeri e fatti sono diventati sinonimi. I numeri hanno colonizzato i fatti.
Un’altra digressione possibile riguarda il "fact signalling” con i numeri – «una pratica in cui i tropi stilistici del pensiero logico, della ricerca scientifica o dell'analisi dei dati vengono indossati come un costume per rafforzare un senso di giustizia morale e certezza». Questa è diventata un'attività dilagante praticata da esperti, presunti verificatori di fatti, politici e media. Un'arte simile è praticata dai cosiddetti ‘imprenditori di valori’ – esperti il cui lavoro consiste nel misurare il valore sociale di diverse iniziative al fine di stabilire legittimità, dimostrare conformità, cambiare comportamenti o giustificare un campo. Il fact signalling è anche praticato da attori industriali per difendere i propri interessi sotto il pretesto di difendere la scienza dai suoi presunti nemici. I numeri sono diventati una misura di virtù, ed i gemelli del pianeta ce ne forniranno in abbondanza.
Una terza ed ultima digressione – ci perdoneranno i lettori – riguarda il ruolo dei mezzi di comunicazione in quanto discusso fin qui. I media hanno sostanzialmente fallito nel monitorare adeguatamente gli esperti, spesso presentando le opinioni degli stessi esperti come certezze. Sul fronte cruciale della politica, i media contribuiscono a una campagna futile per difendere la democrazia e i valori dell'illuminismo attraverso la “verifica dei fatti” (sempre con numeri). Come osservato da un linguista cognitivo, ciò avvantaggia le forze antidemocratiche moltiplicando il loro messaggio: contare le bugie di Trump significa parlare di Trump ogni giorno. L'uso sconsiderato dei numeri banalizza i valori della politica e indebolisce la vita democratica.
Tornando ai gemelli del pianeta, si può concludere con una ricetta in quattro punti per un futuro più gentile, basata sullo sviluppo di diversi modelli specifici e adatti allo scopo piuttosto che su un modello universale, sull'esplorazione del potenziale di modelli semplici basati su euristiche in contesti climatici/ambientali, sulla raccolta e integrazione di dati da fonti divergenti e indipendenti, inclusa la conoscenza tradizionale, e sull'abbandono di una visione del pianeta centrata sulla fisica a favore di una diversità di processi relazionali, sia sociali che biologici, naturalmente fluttuante e irriducibilmente incerta, che richiede pratiche di cura più pluraliste e provvisorie per contrastare le narrazioni socio-ecologiche della modernizzazione ecologica, della crescita verde, dei servizi ecosistemici e simili.
Questa non è una discussione del tutto nuova. Il sociologo della scienza Brian Wynne osservava quaranta anni fa in relazione ai grandi progetti di modellizzazione:
Che sia deliberatamente concepito e utilizzato in questo modo o meno, la grande modellizzazione può essere interpretata come un simbolo politico il cui significato centrale è la diseducazione e la privazione del diritto di partecipazione delle persone dalla sfera della politica e della responsabilità.
Wynne suggeriva inoltre che:
In effetti, l'analisi delle politiche, specialmente quella condotta attorno a modellizzazioni su larga scala, tende ad essere strutturata in modo tale che ogni gruppo di modellizzazione costituisca virtualmente la propria ‘peer community’ [la comunità di esperti in grado di verificare la qualità del prodotto scientifico].
È quindi legittima la preoccupazione?
---------------------------------
Una versione di questo articolo è apparsa in inglese nel blog ‘The Honest Broker’ di Roger Pielke Jr., settembre 2024.
Soluzioni Basate sulla Natura (NBS) - Un nuovo approccio per lo sviluppo equilibrato
Buongiorno Emanuele. Tu - nel tuo percorso di dottorato - ti stai occupando degli ecosistemi nell’ambiente urbano e delle possibilità di quantificare i benefici che questi generano in favore degli esseri umani.
Recentemente abbiamo sentito parlare – per lo più in ambienti istituzionali - di NBS, di Nature Based Solutions, a proposito – ad esempio – di come affrontare le emergenze come alluvioni, frane e siccità.
Puoi darci un’idea concreta di cosa sono le NBS?
La nozione di “Soluzioni Basate sulla Natura”, il cui acronimo è “NBS”, raffigura l’attuale ricerca di nuovi approcci per perseguire lo sviluppo integrando, in modo equilibrato, obiettivi sociali, ambientali ed economici.
Per chiarirne il senso possiamo usare alcune fonti istituzionali illustri come la Commissione Europea ed Il Programma delle Nazioni Unite per l'Ambiente (UNEP), che rappresenta la principale autorità ambientale globale.
La prima qualifica le NBS come “soluzioni ispirate e supportate dalla natura, efficaci dal punto di vista dei costi, che forniscono benefici ambientali, sociali ed economici e contribuiscono a costruire la resilienza”.
La seconda fonte, invece, fornisce la definizione più attuale e completa per descrivere le NBS. Nello specifico, l’UNEP le riconosce come “azioni volte a proteggere, conservare, ripristinare, utilizzare in modo sostenibile e gestire ecosistemi terrestri, d'acqua dolce, costieri e marini naturali o modificati che affrontano le sfide sociali, economiche e ambientali in modo efficace e adattivo, fornendo contemporaneamente benessere umano, servizi ecosistemici, resilienza e benefici per la biodiversità".
Queste definizioni identificano l’equilibrio tra le diverse dimensioni come elemento chiave e imprescindibile. Le NBS, infatti, non rappresentano sicuramente la panacea per le crisi climatiche e ambientali, ma, se ben progettate e implementate, a livello locale possono generare molteplici benefici su tutte e tre le dimensioni obiettivo: ambientale, sociale ed economica.
Perché è opportuno affrontare temi come – ad esempio - il dissesto idrogeologico, e le alluvioni che spesso ne conseguono, affidandosi a queste metodologie e non puntando – invece – su altre soluzioni più “ingegneristiche”?
La risposta non è semplice e per nulla scontata. Come accennato poco fa, se le NBS venissero ben progettate, nonché integrate con la pianificazione a livello locale, dovrebbero essere costruite, sviluppate e inserite nel paesaggio circostante per aiutare a proteggere, ripristinare e gestire in modo sostenibile gli ecosistemi naturali e modificati nel processo; inoltre, allo stesso tempo dovrebbero risultare economicamente vantaggiose nonché fornire benefici sociali, ambientali ed economici a lungo termine.
La loro grande innovazione sta proprio nell’elaborare una visione completa e a lungo termine, concetto che risulta sempre un po’ ostico da assimilare. L’essere umano infatti, nella sua storia, ha sempre avuto la tendenza a massimizzare il profitto ottenibile da una specifica risorsa, meglio se in tempi brevi. Questa logica, se osservata da un punto di vista individuale, risulta difficilmente confutabile ma, se analizzata da un punto di vista più ampio come quello di “comunità” in cui noi tutti viviamo, mostra facilmente segni di debolezza.
Lo scienziato e scrittore Nicholas Amendolare, nella sua "tragedy of the commons", descrive in modo chiarissimo il motivo per il quale una visione individualista non sia più perseguibile da una specie complessa e sociale come quella umana. Egli approfondisce il dilemma in cui individui, agendo autonomamente e razionalmente in base al proprio interesse, sfruttano in modo eccessivo una risorsa comune e condivisa, portandola al suo esaurimento. Infatti, quando tutti cercano di ottenere il massimo beneficio personale senza considerare l'impatto cumulativo delle proprie azioni, la risorsa viene sovrasfruttata, riducendo o addirittura impedendo così la capacità futura per tutti di poterne trarre beneficio.
La mancanza di regolamentazione o di gestione collettiva delle risorse comuni – come pascoli, foreste, pesci nei mari, o l'atmosfera – porterà facilmente ad una vera e propria “tragedia” con conseguenti implicazioni sociali e morali. Proprio per questo, le NBS rappresentano uno strumento importante e, forse, irrinunciabile, in quanto permettono di conciliare lo sviluppo umano, senza però esaurire irreversibilmente le risorse che l’ambiente ci offre, garantendo pertanto un maggior beneficio collettivo.
Puoi farci un esempio?
Certamente: una vecchia piazza urbana, magari con pavimentazione rovinata e deteriorata, potrebbe essere il soggetto ideale per un progetto di rigenerazione che voglia adottare la metodologia NBS. Analizzando specificatamente le condizioni ambientali che la caratterizzano, le dinamiche sociali e politiche locali e identificando la visione del pianificatore a lungo termine, è possibile progettare la sua riurbanizzazione in modo da ottenere benefici sociali, economici e ambientali. Sostituendo, ad esempio, i materiali della pavimentazione - vecchi e danneggiati - con materiali nobili, che assorbano meno calore, si potrebbe migliorare esteticamente la piazza e contemporaneamente diminuirne l’effetto “isola di calore”, migliorando quindi le condizioni di vita per umani, piante e animali. Oppure, inserendo delle zone verdi, non solo si creano aree di sviluppo e mantenimento della biodiversità ma - sicuramente - si facilita l’assorbimento delle acque meteoriche, riducendo il rischio di allagamenti e inondazioni che sempre più spesso provocano danni (anche economici) alle nostre città.
Per concludere, le NBS possono essere un ponte che collega obiettivi apparentemente molto distanti tra loro; tuttavia, per evitare che siano solo bellissime idee, è necessario che siano progettate e pianificate con la dovuta attenzione e cura.
Cibo di alta qualità, crescita economica, salvare il pianeta o salvare gli animali? - 4 istanze morali in tensione
Due settimane fa, parlando della FAO e della controversia sulle misure più efficaci per contenere le emissioni di gas serra, abbiamo evidenziato un possibile conflitto tra l’obiettivo di diminuire significativamente la CO2 immessa nell’atmosfera e la missione della FAO stessa di garantire a tutti abbastanza cibo di alta qualità.
Nell’accezione della FAO, infatti, il cibo di alta qualità è principalmente rappresentato dalle proteine di origine animale e, quindi, ridurre le emissioni di CO2 che vengono dagli allevamenti intensivi significa mettere in crisi il meccanismo di approvvigionamento di una parte importante del cibo di alta qualità.
Questa tensione tra i due obiettivi mostra come, spesso, i problemi di carattere scientifico (il modo in cui ridurre la produzione di CO2 è indubbiamente un problema scientifico) celino una dimensione politica e, quindi, di scelte morali [1].
In questo caso, esaminando con maggiore attenzione i termini della controversia, emerge che ci sono almeno quattro obiettivi di carattere politico e morale in tensione reciproca:
- La riduzione della CO2 anche attraverso il drastico ridimensionamento dell’industria della carne [2], che fa capo all’istanza morale di “salvare il pianeta”,
- La garanzia che tutti abbiano sufficiente cibo di alta qualità, che fa capo all’istanza morale di “salvare le persone umane” dalla fame e dagli effetti negativi che derivano da una alimentazione insufficiente o troppo povera,
- La salvaguardia dell’economia e dell’occupazione delle sfere sociali in cui operano i produttori di carne, la cui istanza morale può essere riassunta in “garantire lavoro e sussistenza”,
- L’attenzione alla vita e al benessere degli animali non umani, importante per una sempre più diffusa sensibilità la cui istanza morale di riferimento è “non uccidere e non far soffrire tutti gli animali”.
In modo molto schematico e semplificato, la tensione reciproca tra le 4 istanze morali è abbastanza evidente considerando gli effetti della riduzione degli allevamenti:
- ridurre significativamente gli allevamenti (e la CO2 che producono) può generare crisi economica e disoccupazione, almeno nel breve periodo e, contestualmente, ridurre la disponibilità di cibo di alta qualità per chi ne ha bisogno
- mantenere in continuità gli allevamenti con la conseguente stabilità economica e occupazionale, può – invece – impedire il raggiungimento degli obiettivi di contenimento della CO2 e (senza può) provoca morte e sofferenza a milioni di animali non umani (bovini, ovini e suini)
A queste 4 istanze morali va aggiunta quella del rispetto e della continuità delle tradizioni, tra cui quelle alimentari, che includono – spesso – il consumo di carne, abitudinario o addirittura con sfumature rituali (ad esempio, il Sunday Roast in Gran Bretagna, il capitone a Natale e l’agnello a Pasqua in Italia, il tacchino per il Thanksgiving negli US ecc.), che complica ulteriormente il quadro.
Questa contrapposizione di obiettivi mostra chiaramente come, dietro una questione scientifica (il maggiore o minore valore della CO2 da allevamenti), si ponga la necessità di fare delle scelte morali, di determinare quali siano le priorità da assegnare alle diverse opzioni e ai diversi obiettivi, cosa sia più importante, quale sia il valore da collocare in cima alla scala.
E, ancora una volta, mostra che le scienze e il lavoro scientifico non siano neutrali ma
- influenzate da istanze sociali, politiche e morali; l’interpretazione riduttiva del tasso di CO2 legato agli allevamenti intensivi, in questo caso, può essere stato influenzato da considerazioni di natura economica, occupazionale e alimentare
- politicamente e socialmente attive; in questo caso, ancora, la lettura della FAO ha orientato l’agenda politica e ambientale in direzione diversa da quella della riduzione dell’allevamento di animali da carne
È, perciò, opportuno non credere alla presunta obiettività e neutralità delle scienza ma – riconoscendone la rilevanza per la vita di tutti e senza cadere in forme di critica distruttiva – fare attenzione alle implicazioni sociali, politiche e morali che esse sottendono.
--------
A ben vedere, inoltre, queste contrapposizioni tra istanze morali che, prese una alla volta, sono tutte ampiamente condivisibili (chi non vuole salvare la Terra? E chi non vorrebbe eliminare la fame dal mondo? E chi si opporrebbe ad una economia florida e con meno disoccupazione? A chi piace veder soffrire e morire animali innocenti?) sono ben rappresentate tra gli organismi sovranazionali che, in particolare, fanno capo alle Nazioni Unite:
- la FAO – che ha la missione di assicurare cibo sufficiente e di qualità per tutti
- l’UNEP – che lavora a favore della tutela dell’ambiente e della sostenibilità
- la WOAH – che si occupa della salute e del benessere degli animali non umani
- l’ILO – organizzazione internazionale per il lavoro, con il fine di creare maggiori opportunità di occupazione e redito dignitosi
- la Banca Mondiale e il Fondo Monetario Internazionale – che dovrebbero impegnarsi per uno sviluppo equo ed equilibrato di tutte le nazioni
Organismi e obiettivi in tensione o, addirittura, in parziale conflitto tra loro. Come si possono – quindi – armonizzare agende [3] tanto diverse tra loro?
Un primo passopotrebbe essere quello di abbattere una sorta di tabù, quello dell’identificazione del cibo di alta qualità con la carne animale seguendo, ad esempio, le linee guida del Rapporto EAT – Lancet, che indica vie alternative (e spesso a minor costo) di alimentazione ricca e completa. Se la FAO adottasse questo punto di vista uno dei termini di opposizione si eliminerebbe.
Un secondo passo potrebbe essere, conseguenza del primo, l’adozione di una politica di progressiva trasformazione dell’economia dell’allevamento in economia della produzione e trattamento dei cereali per alimentazione umana, con misure di sostegno eco-finanziario da parte della Banca Mondiale, e con risultati efficaci per la salvaguardia dell’ambiente (meno CO2), del benessere di animali umani (meno rischi cardiaci) e non umani (meno sofferenze e morti).
Inoltre, eludendo la difficoltà di armonizzare politiche mondiali, potrebbe essere opportuno focalizzare gli interventi su aree micro economiche ed ambientali, in cui le misure di contenimento delle emissioni di CO2 possono essere orientate in modo mirato e gli interventi per la trasformazione ambientale, alimentare e produttiva possono essere sostenuti in modo più efficace, creando esperienze pilota e buone pratiche da diffondere.
Sempre con un occhio attento alle relazioni tra scienze, società, morale e politica, e con le orecchie aperte alle istanze minoritarie – anche quelle scientifiche – che possono alimentare l’innovatività e le soluzioni meno ovvie.
NOTE
[1] In modo molto semplificato, possiamo definire scelta morale una scelta fatta in modo consapevole sulla base di esperienze, convinzioni e scale di priorità e di valori. Per fare queste scelte usiamo, infatti, quello che sappiamo, quello che abbiamo provato, quello che ci ha insegnato se la scelta ci farà bene o male; per sapere se quello che accadrà ci farà bene o male usiamo l’esperienza del piacere e del dolore; per discernere tra piacere e dolore utilizziamo una scala di valori, cioè una classifica di cosa fa più bene o più male.
[2] Soprattutto bovina, cfr. Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems, Food and Agriculture Organization of the United Nations, Rome, 2023, ISBN 978-92-5-138448-0, si può scaricare qui, p. 12
[3] Qualcosa, in questo senso, è stato fatto: si tratta di ONE HEALTH un approccio integrato alla salute umana, animale e ambientale, che coinvolge la FAO, la WHO e la WOAH, e che – per ora – consiste in un gruppo trasversale di esperti costituito nel 2021 con l’obiettivo di sviluppare un punto di vista olistico su salute e ambiente e di fornire consulenza su questo tema alle Agenzie che lo formano. Questo approccio sembra essere, tuttavia, molto orientato alla tutela della salute umana.
FAO, alimentazione e emissioni di CO2 - Una controversia e un conflitto di interessi?
COS’È LA FAO
La FAO – Food and Agriculture Organization – è «un’agenzia specializzata delle Nazioni Unite che guida gli impegni internazionali mirati a sconfiggere la fame». Il suo obiettivo dichiarato è «raggiungere la sicurezza alimentare per tutti e assicurare alle persone l’accesso regolare a quantità sufficienti di cibo di elevata qualità, al fine di condurre vite sane e attive»[1].
Questa missione, dichiarata nella sezione “About us” del sito, dice una serie di cose importanti per la controversia che stiamo esaminando: la FAO è un’agenzia delle Nazioni Unite; agisce per garantire a tutti (paesi e popolazioni) accesso a quantità sufficienti di cibo; il cibo deve essere di elevata qualità; in ultimo, il cibo sembra essere funzionale all’obiettivo di condurre una vita sana ed attiva.
TEMA, ATTORI E POSIZIONI DELLA CONTROVERSIA
La controversia verte su quanto potrebbe contribuire la diminuzione del consumo di carne – in particolare di carne bovina[2] – sul contenimento delle emissioni di CO2 nell’atmosfera e, di conseguenza, sull’effetto serra nei prossimi 25 anni.
Da tempo si parla del fatto che gli allevamenti (intensivi) di bestiame, in particolare di bovini destinati al macello per la produzione di carne a uso alimentare umano[3], sono una fonte rilevante – il 12% del totale[4] – delle emissioni di CO2 e di “gas serra” nell’atmosfera.
La riduzione delle emissioni legate agli allevamenti intensivi è una tematica ricorrente nella narrazione giornalistica e si intreccia con l’istanza animalista sulle condizioni e le sofferenze imposte a bovini, ovini e suini e con quella ambientalista sui gas serra.
La questione coinvolge anche la disponibilità di alimentazione proteica a basso costo per le fasce di popolazione meno ricche e il tema delle tradizioni culturali alimentari.[5]
Gli attori sono di questa disputa sono, da una parte la FAO e il suo rapporto “Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems” presentato alla conferenza ONU sul clima, la COP28 di Dubai; dall’altra parte, due fisici che studiano l’impatto di varie attività umane sull’ambiente: Paul Behrens e Matthew Hayek, tra gli autori degli studi scientifici citati nel rapporto della stessa FAO.
Il rapporto Pathway towards lower emission realizzato dalla FAO stima la riduzione delle emissioni di CO2 che si può ottenere con una serie di interventi sulle pratiche di allevamento e alimentari. L’efficacia stimata per ciascuno di questi interventi è la guida per definirne rilevanza e priorità.
Prime, per efficacia stimata e per priorità di attuazione, ci sono due linee di intervento sulle modalità di allevamento degli animali da carne:
- la prima linea suggerisce di incrementare la produttività degli allevamenti;
- la seconda linea propone di migliorare l’alimentazione e lo stato di salute degli animali negli allevamenti.
Quali sono i razionali e gli effetti attesi di queste misure di contenimento delle emissioni?
La prima linea, quella della produttività, è legata in modo diretto alla previsione di aumento della popolazione mondiale (+ 20% nei prossimi 25 anni) e proietta un aumento proporzionale di produzione animale necessario a soddisfare la domanda di carne e latticini. Grazie all’aumento di produttività, la FAO stima un possibile minore incremento di emissioni pari al 30%.
Per inciso, il rapporto FAO - fatto salvo per la riduzione dell’età di macellazione degli animali, che favorirebbe un migliore rapporto tra costi di produzione, volumi di prodotto (carne, peso dell’animale ucciso) e emissioni di gas - non suggerisce specifici modi per migliorare la produttività ma parla soltanto di “enhanced efficiency at every production stage along the supply chain” e “adoption of best practices”.
La seconda linea di intervento, relativa all’alimentazione e al benessere degli animali negli allevamenti, potrebbe migliorare i risultati della prima misura per varie ragioni: una alimentazione con cibi più calorici, meno grassi e più oli essenziali può far crescere prima e meglio gli animali; alimenti tannici possono ridurre la quantità di gas nella fase di ruminazione; in generale, una alimentazione “più sana” può far diminuire il tasso di mortalità degli animali e, nello stesso tempo, aumentare il tasso di crescita.
La FAO considera di minore rilevanza, in termini di effetti e di priorità, le misure relative al cambiamento delle abitudini alimentari, al consumo più responsabile e alla conseguente minore domanda di carne per uso alimentare, quali:
- cambiare le abitudini alimentari, in particolare ridurre il consumo di carne, seguendo le indicazioni governative, con un effetto di contenimento delle emissioni tra il 2% e il 5%[6];
- ridurre gli sprechi dei generi alimentari nella parte finale della filiera[7], dalla vendita al consumo, con un effetto di contenimento tra il 3% e il 6%.
Ecco, il tema del cambiamento delle abitudini alimentari è il centro della controversia.
Behrens e Hayek sostengono, infatti, in una lettera indirizzata al Direttore della Divisione Produzione Animale e Salute della FAO, che il rapporto FAO ha distorto e mal utilizzato una serie di informazioni, sottostimando l’effetto di riduzione delle emissioni associato alla riduzione del consumo di carne.
In particolare, i due scienziati, denunciano che:
- la FAO ha usato un loro studio del 2007 mentre altri studi più recenti – loro e di altri autori – disegnano uno scenario diverso e più favorevole alla riduzione del consumo di carne;
- l’effetto del cambiamento alimentare è calcolato sulla base di raccomandazioni nazionali (NDR - National Dietary Recommendations) obsolete; quelle più aggiornate raccomandano quantità di carne e di latticini molto minori;
- il rapporto contiene una serie di errori sistematici che portano a sottostimare gli effetti del cambio di dieta, tra i quali: l’utilizzo dei massimi di scala per gli NDR, la comparazione di grandezze difficilmente commensurabili, il raddoppio dei valori di emissioni al 2025, l’uso di un mix incongruente di anni di confronto;
- infine, che il rapporto FAO non prende in considerazione le linee guida più aggiornate sulle diete sostenibili e salutari raccolte – ad esempio – nell’autorevole e recente studio EAT – Lancet del 2019
Sulla base di queste considerazioni, Berhens e Hayek sostengono che il minore consumo di carne avrebbe effetti strutturali e decisamente superiori a quanto stimato dalla FAO, ponendosi in controtendenza rispetto alla strategia di inseguire una crescita della domanda di carne proporzionale all’aumento della popolazione.
Alla lettera con cui chiedono di rivedere il rapporto, la FAO ha – responsabilmente, va detto – replicato che il rapporto è stato sottoposto a peer-reviewing in doppio cieco e che, quindi, va ritenuto affidabile, ma si impegna a indagare sulle questioni sollevate e a confrontarsi con Berhens e Hayek su metodo e merito.
Nel frattempo, però, il rapporto della FAO è stato utilizzato nella conferenza sul clima COP28.
CONCLUSIONI
Ora, aspettando di vedere cosa succederà, viene da chiedersi quanto la FAO sia un soggetto indicato per definire strategie, linee guida e priorità per le misure di contenimento della CO2 nell’atmosfera, seppure se correlate all’alimentazione; la domanda si pone perché alcune misure di contenimento possono essere in parziale conflitto con gli obiettivi della FAO.
Sembrano emergere, infatti, almeno quattro ordini di problemi:
- La FAO ha la missione di garantire, qui e ora, che tutti abbiano cibo di elevata qualità e abbondante; un cambiamento radicale degli schemi produttivi e alimentari, basati – ad esempio – su una rapida riduzione degli allevamenti intensivi e su un deciso allontanamento dall’alimentazione carnea può essere in conflitto con la missione della FAO, per due ragioni: la prima è la necessità di sostituire – in tempi altrettanto serrati – carne e latticini a basso costo con prodotti vegetali di qualità e altrettanto reperibili; la seconda è la necessità di riassestamento economico e occupazionale del settore e dei paesi produttori di carni meno ricchi, che richiederebbe un sostegno organizzato a livello sovranazionale;
- la missione della FAO è centrata sulla nozione di “cibo di alta qualità”, nozione che è socialmente costruita e per lo più rappresentata da cibi a elevato contenuto proteico di origine animale, carne e latticini[8] (meglio se a basso prezzo); una svolta verso la diminuzione di questi cibi è certamente in conflitto con la nozione di “alta qualità” della FAO e richiede anche un cambiamento culturale rilevante;
- la natura della FAO – emanazione dell’UN e controllata da 143 paesi, tra i quali alcuni grandissimi produttori di carne bovina in allevamenti intensivi – richiede di tenere conto del possibile conflitto di interessi tra le misure di riduzione del consumo di carne e i paesi produttori;
- l’ultimo tema che emerge è la possibile competizione tra l’istanza morale di una migliore e più abbondante disponibilità di cibo e quella di salvaguardia dell’ambiente a cui fa capo il contenimento delle emissioni di CO2; chi decide di queste due istanze ha la priorità?
Senza nulla togliere al suo compito insostituibile, la FAO non dovrebbe, però, essere soggetto normativo su come ridurre le emissioni, ma occuparsi di mettere in atto, senza effetti negativi sul benessere di tutti, le misure più efficaci di contenimento delle emissioni decise da organismi dedicati a questo e confrontarsi con questi sulla maggiore o minore priorità dell’istanza alimentare versus quella ambientale.
Tra l’altro, l’indicazione del miglioramento dell’efficienza (produttività) degli allevamenti – nonostante il tentativo di salvare capra e cavoli con il tema del welfare dei bovini – mostra la totale assenza, nella missione della FAO, dell’istanza morale del benessere e della vita degli animali non-umani. Che potrebbe – anch’essa – essere considerata in competizione con quella della vita sana e attiva degli umani.
NOTE
Questa riflessione e il relativo studio delle fonti hanno preso spunto dall’articolo La FAO ha distorto degli studi sull’importanza di ridurre il consumo di carne?, apparso il 26 aprile 2024 su “il POST” e sull’articolo del Guardian UN livestock emissions report seriously distorted our work, say experts, 19 aprile 2024.
[1] Traduzione mia dalla sezione “About us” del sito della FAO, https://www.fao.org/home/en
[2] La produzione di carne di ruminanti ha un’impronta di CO2 di circa due ordini di grandezza superiore a quella di ovini e di suini. Cfr. Walter Willett et al., Food in the Anthropocene: The EAT-Lancet Commission on Healthy Diets from Sustainable Food Systems, "Lancet" (London, England) 393, no. 10170 (2019): 447–92, https://doi.org/10.1016/S0140-6736(18)31788-4, Figure 4, pag. 471.
[3] La produzione di carne a uso alimentare umano è lo scopo prevalente dell’allevamento intensivo di animali. Tra gli altri scopi – a titolo di esempio - possiamo citare: pellame (cuoio) per le industrie di abbigliamento, prodotti alimentari per animali da compagnia, farine proteiche, capsule per i farmaci, fertilizzanti (primo fra tutti il letame), caglio animale per formaggi, biocarburanti.
[4] Dati FAO: Globally, the production of the animal protein, as presented in the previous subsection “Global animal protein production”, is associated with a total of 6.2 Gt CO2eq of emissions, constituting approximately 12 percent of the estimated 50 to 52 Gt CO2eq total anthropogenic emissions in 2015. (Greenhouse gas emissions from agrifood systems.Global, regional and country trends, 2000-2020. FAOSTAT Analytical Brief Series No. 50. Rome). https://www.fao.org/3/cc2672en/cc2672en.pdf)
[5] È interessante vedere come lo stesso numero, la stessa percentuale – in questo caso del 14,5%, calcolata nel 2015 – di contribuzione dell’allevamento animale sia narrata in modo opposto da due parti a loro volta contrapposte: il WWF scrive «tra i maggiori responsabili della produzione di gas serra ci sono gli allevamenti intensivi che, in base a stime della FAO, generano il 14,5% delle emissioni totali di gas serra»; Alimenti&Salute, sito tematico della Regione Emilia-Romagna dedicato alla sicurezza alimentare e alla nutrizione, titola: «Rapporto FAO sulle emissioni gas serra. Solo il 14% viene attribuito agli allevamenti intensivi»
[6] Con una diversa distribuzione tra paesi più ricchi, tra il 13% e il 24%, paesi a reddito intermedio, tra lo 0,08% e il 12% e, invece, un aumento di emissioni tra il 12% e il 17% per i paesi più poveri (cfr. cit. p.19)
[7] Se non ci credete, fate un giro in un qualsiasi supermercato verso le 19.00/20.00 e noterete quanta carne viene buttata via a fine giornata, perché ormai scaduta. Per cui non è vero che uccidiamo animali per mangiarli. Probabilmente il 50% degli animali viene ucciso per… essere buttato nella spazzatura a fine giornata…
[8] Per approfondimenti: Adams C, Carne da macello. La politica sessuale della carne, 2020, Vanda edizioni; Harris M., Buono da mangiare. Enigmi del gusto e consuetudini alimentari, 2015, Einaudi.
RIFERIMENTI BIBLIOGRAFICI
- Il rapporto della FAO, Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems, Food and Agriculture Organization of the United Nations, Rome, 2023, ISBN 978-92-5-138448-0, si può scaricare qui.
- La lettera di P. Behrens e M. Hayek indirizzata a Thanawat Tiensin, Director of Animal Production and Health Division (NSA), si può scaricare qui.
- Greenhouse gas emissions from agrifood systems.Global, regional and country trends, 2000-2020. FAOSTAT Analytical Brief Series No. 50. Rome. https://www.fao.org/3/cc2672en/cc2672en.pdf)
- Walter Willett et al., “Food in the Anthropocene: The EAT-Lancet Commission on Healthy Diets from Sustainable Food Systems.,” Lancet (London, England) 393, no. 10170 (2019): 447–92, https://doi.org/10.1016/S0140-6736(18)31788-4.
- Nordic Cooperation, “Less Meat, More Plant-Based: Here Are the Nordic Nutrition Recommendations 2023,” Nordic Cooperation, 2023, https://pub.norden.org/nord2023-003/
- Vieux et al., “Greenhouse Gas Emissions of Self-Selected Individual Diets in France: Changing the Diet Structure or Consuming Less?,” Ecological Economics 75 (March 1, 2012): 91–101, https://doi.org/10.1016/j.ecolecon.2012.01.003.