MEGACHIROTTERA: La Piccola Era Glaciale è stato un evento globale?...: di Donato Barone Circa dieci anni fa cominciai ad interessarmi al cambiamento climatico in corso. Fu un evento fortuito. In quel p...
Circa una settimana fa ho pubblicato su CM un post
in cui veniva commentato uno studio (S. Bronnimann e colleghi) che
riconosceva, seppur in maniera implicita, alla Piccola Era Glaciale
(PEG) un carattere globale, in quanto i segnali di un raffreddamento del
clima dell’emisfero boreale, trovavano riscontro in dati di prossimità
di carattere globale (variazioni del contenuto di calore oceanico e
modifiche del monsone indiano, in modo particolare).
Tale circostanza è, però, negata in modo categorico da uno studio, i cui risultati sono stati pubblicati quasi contemporaneamente a quelli di Bronnimann et al., 2019 su Nature:
No evidence for globally coherent warm and cold periods over the preindustrial Common Eraa firma di R. Neukom, N. Steiger, J. J. Gómez-Navarro, J. Wang & J. P. Werner (da ora Neukom et al., 2019)
Neukom et al., 2019 è basato su una serie di dati di prossimità che
provengono un po’ da tutte le parti del globo e che costituiscono la
base di dati utilizzata dal Consortium 2k per la ricostruzione delle
temperature globali, nota come PAGES 2k pubblicata nel 2013 e
rettificata nel 2015, a causa del gran numero di errori individuati, tra
gli altri, da S. McIntyre. Si tratta di ricostruzioni di dati climatici
(soprattutto temperature) derivate da carote di sedimenti oceanici,
dendrologici (spessore degli anelli degli alberi), coralli, carote di
sedimenti lacustri e via cantando. I registri paleoclimatici utilizzati
nello studio sono circa 600 e sono distribuiti su tutto il globo
terrestre (di cui però solo 200 utilizzati in modo sistematico), per
cui, almeno in prima battuta, sembrano essere in grado di offrire una
ricostruzione completa del clima terrestre nel corso degli ultimi
duemila anni. Lo studio dimostra che quelle che noi definiamo “ere
climatiche moderne” sono fenomeni molto localizzati e non hanno affatto
respiro globale. E questo vale tanto per il Periodo Caldo Romano (PCR),
quanto per il Periodo Caldo Medioevale (PCM) e la Piccola Era Glaciale.
Ho volutamente utilizzato la locuzione “almeno in prima battuta”, in
quanto, approfondendo la questione, si scopre che la maggior parte del
periodo indagato, viene caratterizzato attraverso un numero molto
ridotto di registri di dati di prossimità: qualche decina. Il numero di
registri utilizzati per ricostruire il clima passato, diventa, infatti,
significativamente consistente a partire dal 1200/1300. Se si vanno ad
esaminare, inoltre, le tipologie di registri analizzati, si vede che la
stragrande maggioranza dei dati di prossimità sono di origine
dendrologica. Essi sono localizzati, infine, quasi tutti nell’emisfero
boreale e solo una manciata di serie proviene dall’emisfero australe
(cinque, per la precisione). Diverso è il caso dei registri glaciali e
coralligeni che appaiono meglio distribuiti sull’intero globo. Il
problema è che i dati desunti da indagini sui coralli, coprono in modo
soddisfacente solo un periodo molto breve rispetto a quello analizzato:
dal 19° al 20° secolo.
Tutta questa premessa si spiega con l’assunto che i ricercatori hanno
posto a base del loro lavoro: l’apparente globalità delle ere
climatiche moderne deriva dal numero molto basso di dati di prossimità
presi in considerazione. Un’analisi approfondita del tipo di dati di
prossimità utilizzati da Neukom et al., 2019, dimostra che quello che
loro consideravano un bias di altre ricerche, affligge anche la loro,
almeno per i primi 1200/1300 anni dell’Era Comune (dopo Cristo, per
intenderci).
Accertato, pertanto, che la copertura spaziale dei dati non è affatto
omogenea, cerchiamo di capire come si può stabilire la coerenza
temporale del fenomeno climatico preso in esame. Per effettuare un
confronto tra due serie di dati, bisogna esaminare i dati dell’una e
dell’altra e determinarne lo scarto. Più esso è piccolo, più le due
serie sono simili. Per accertare se un fenomeno climatico ha carattere
globale o regionale, quindi, bisogna andare a vedere se il caldo
registrato in un punto, corrisponde al caldo in un altro punto del globo
(coerenza spaziale) e che i due picchi di caldo siano contemporanei
(coerenza temporale).
Per quel che riguarda la temperatura terrestre, con l’avvento dei
satelliti meteorologici siamo stati in grado di monitorare in modo
uniforme il globo terrestre. Lo stesso non si può dire per le altre
tipologie di misurazione: i punti di rilevamento non sono distribuiti
uniformemente e, pertanto, bisogna interpolare pesantemente le misure,
per calcolare le temperature in punti del globo ove non esistono
stazioni di misura. Tutto ciò in quanto abbiamo bisogno di determinare i
valori di temperatura nei nodi di una griglia che avvolge, idealmente,
l’intero pianeta. Con i dati di prossimità il discorso è ancora più
complesso: poche decine/centinaia di dati devono essere spalmati
sull’intero pianeta.
Neukom et al., 2019 segue questa strada: divide la superficie
terrestre sulla scorta di una griglia avente maglie di lato 5°x5° (la
stessa utilizzata dai principali centri di ricerca climatica) e calcola i
valori delle temperature nei nodi di questa griglia. Se per i
termometri siamo abituati ad interpolazioni su distanze di centinaia di
chilometri, per i dati di prossimità arriviamo ad
interpolazioni/estrapolazioni di migliaia di chilometri.
E con questo abbiamo sistemato la distribuzione spaziale dei dati
utilizzati nello studio. La parte più difficile è, però, la
sincronizzazione temporale dei dati presi in esame. Considerata la
risoluzione dei dati di prossimità, è francamente impossibile
sincronizzare serie distanti nello spazio e nel tempo. A meno che non si
faccia pesantemente ricorso alla matematica e, in particolare, alla
statistica.
E in Neukom et al., 2019 di statistica, probabilità e matematica in
genere ne troviamo a iosa. Il problema di fondo resta, però, sempre lo
stesso: mentre i metodi di analisi statistica, probabilistica e
matematica hanno una loro intrinseca esattezza, non altrettanto vale per
i dati cui essi sono applicati. Mi spiego meglio. Se io eseguo una
campagna di misure sperimentali di una grandezza fisica con un unico
strumento e per un lungo periodo di tempo, escludendo errori sistematici
e grossolani, le metodiche analitiche portano a valori della misura che
si avvicinano alla verità in tutto l’arco temporale indagato. Sono
secoli che lo facciamo e ci riusciamo benissimo. Il problema sorge
allorché noi applichiamo tali metodologie a dati molto eterogenei come
quelli di prossimità: se i dati di partenza sono imprecisi, anche le
conclusioni lo saranno, indipendentemente dal livello di sofisticazione
delle metodologie analitiche.
In Neukom et al., 2019 si cerca di verificare che i livelli di
temperatura siano contemporaneamente alti (bassi) in tutto il globo
nelle varie epoche climatiche prese in considerazione. Se consideriamo
la PEG, per esempio, si cerca di calcolare la percentuale della
superficie del globo terrestre che in un certo anno sia stata più fredda
della media dell’intero periodo. Per giungere a questo risultato essi
utilizzano il seguente procedimento. Scelgono innanzitutto delle serie
di dati di prossimità con risoluzione annuale e ricostruiscono con
metodi analitici le temperature degli anni mancanti. Per far ciò,
ovviamente, si trascurano tutti i registri di dati con risoluzione
maggiore di un anno (che sono la maggioranza). Tutte le serie di dati
vengono calibrate con i dati strumentali del periodo 1911-1995 e vengono
validate con i dati del periodo 1881-1910. Queste operazioni che io ho
descritto in modo banale, in realtà, sono frutto di pesanti elaborazioni
statistiche basate su modelli autoregressivi che consentono di
ricostruire le temperature a partire dai dati di prossimità.
Una volta determinati i campi di temperatura nei nodi della griglia,
Neukom et al., 2019 cerca di stabilire, punto per punto, i valori della
temperatura durante le ere climatiche moderne. Allo scopo di rendere il
processo il più oggettivo possibile, si utilizzano delle finestre di 51
anni all’interno delle quali si cerca di individuare il picco caldo (se
si indaga un periodo caldo) o freddo (se si indaga un periodo freddo).
Combinando tra loro tutti i risultati ottenuti, si giunge alla
conclusione che i periodi freddi e quelli caldi nell’era pre-industriale
non coincidono, globalmente, né da un punto di vista spaziale, né da un
punto di vista temporale. Ciò a livello annuale. Se l’indagine viene
condotta a livello decadale o multidecadale, invece, comincia ad essere
ben visibile tanto una coerenza spaziale che temporale.
Il discorso cambia relativamente al periodo caldo moderno (quello
attuale). Per tale periodo si nota, infatti, come la coerenza temporale e
spaziale sia quasi perfetta.
A conclusione di questa disanima, cui non allego alcun grafico o
diagramma anche perché facilmente accessibili consultando l’articolo
originale, solo qualche considerazione personale.
La metodologia utilizzata da Neukom et al., 2019, presenta il pregio
di aver introdotto un metodo oggettivo per individuare i picchi di
temperatura, senza lasciarsi influenzare dal fatto di trovarsi in un
periodo caldo o freddo. Le altre metodologie utilizzate fino ad ora,
invece, consentivano di adattare i dati alla convinzione soggettiva del
ricercatore e, quindi, i risultati erano viziati da un certo “bias
confermativo”.
Il suo principale limite consiste, a mio avviso, nel fatto che i dati
utilizzati sono quasi esclusivamente quelli dendrologici e quelli
derivanti dallo studio dei coralli (l’ottantacinque per cento del
campione) in quanto sono gli unici ad avere una risoluzione annuale. Ciò
trasferisce nello studio tutte le perplessità connesse alla
ricostruzione delle temperature a partire dagli anelli degli alberi e
che ho già trattato in passato qui e qui
su CM. Resta inoltre la forte polarizzazione del campione utilizzato
nell’analisi: quasi tutti i dati dendrologici provengono dall’emisfero
boreale, mentre quelli relativi all’emisfero australe sono poco
rappresentati. Questo problema non è risolto dall’utilizzo dei dati
provenienti dallo studio dei coralli, in quanto questi ultimi coprono
essenzialmente gli ultimi due secoli. Ne deduco che la coerenza spaziale
e temporale della distribuzione delle temperature a livello globale nel
periodo caldo moderno, potrebbe essere un artefatto di calcolo connesso
all’abbondanza di campioni nel periodo più recente. Viceversa la
scarsità di campioni nei periodi temporalmente più distanti dai giorni
nostri, potrebbe aver reso meno certa la mancanza di coerenza spaziale e
temporale dei dati di temperatura delle altre ere climatiche. Queste
conclusioni si basano anche sul fatto che la calibrazione e verifica dei
dati di temperatura, ricostruiti a partire dai dati di prossimità, sono
state effettuate confrontando le temperature ricostruite con quelle del
periodo moderno (strumentali).
Volendo esprimere un giudizio conclusivo circa la globalità o meno
delle ere climatiche moderne, alla luce dei risultati dei due studi
commentati, non mi sento di esprimere un giudizio definitivo, anche se,
mettendo insieme tutti gli altri indizi raccolti nel corso di questi
anni di studio, tendo a considerare la PEG, il PCR ed il PCM fenomeni
globali e non locali.
Fonte: ClimateMonitor
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.