venerdì 4 ottobre 2019

Inganno globale: l'esagerazione della minaccia del riscaldamento globale di Patrick J. Michael



 
  Patrick J. Michaels è un ex presidente dell'American Association of State Climatologists ed è stato presidente del programma per il Comitato di climatologia applicata della American Meteorological Society. È stato professore di ricerca di scienze ambientali all'Università della Virginia per 30 anni. Michaels è stato un autore collaboratore ed è un revisore del gruppo intergovernativo delle Nazioni Unite sui cambiamenti climatici, che ha ricevuto il premio Nobel per la pace nel 2007.

La sua scrittura è stata pubblicata su importanti riviste scientifiche, tra cui Climate Research, Climate Change, Geophysical Research Letters, Journal of Climate, Nature and Science, nonché su periodici popolari in tutto il mondo. È autore o editore di otto libri sul clima e il suo impatto, ed è stato autore del "paper of the year" sul clima assegnato dall'Association of American Geographers nel 2004. È apparso sulla maggior parte dei principali media mondiali.

Introduzione

Al "Vertice della Terra" di Rio de Janeiro nel 1992, le Nazioni Unite hanno proposto la "Convenzione quadro sui cambiamenti climatici", in seguito nota come "Trattato di Rio", per rallentare le emissioni di gas a effetto serra come l'anidride carbonica. L'obiettivo dichiarato era una riduzione, da parte delle nazioni industrializzate e sviluppate, dei livelli di emissione ai livelli del 1990 entro il 2000. Solo due nazioni, la Gran Bretagna e la Germania, raggiungeranno questo obiettivo ed entrambe per ragioni che non hanno nulla a che fare con il clima cambiamento, ma piuttosto con la ristrutturazione industriale che sarebbe avvenuta senza il Trattato di Rio. Le emissioni sono aumentate drammaticamente sul resto del pianeta.

A causa del mancato raggiungimento degli obiettivi del trattato, i negoziatori degli Stati Uniti hanno concordato, durante la riunione dei cambiamenti climatici delle Nazioni Unite a Kyoto nel dicembre 1997, di ridurre le emissioni di biossido di carbonio a una media del 7% al di sotto dei livelli del 1990 nel periodo 2008-2012. Queste riduzioni delle emissioni sarebbero legalmente vincolanti, piuttosto che semplicemente un "obiettivo". Ciò fa presagire una sorprendente inversione del consumo di energia nella più grande economia del mondo. Se implementato, richiederà una riduzione del 41 percento delle emissioni negli Stati Uniti entro il 2010 da dove sarebbero state in "attività come al solito".
Questa azione è stata presa nella piena consapevolezza che le previsioni che originariamente costituivano la base per l'incontro di Kyoto erano grossolane sopravvalutazioni dell'entità e dell'impatto del riscaldamento globale.
Esiste un forte argomento internamente coerente contro il paradigma del drammatico cambiamento climatico. Perché la squadra negoziale degli Stati Uniti abbia proceduto come a Kyoto sarà sicuramente oggetto di dibattito storico per i decenni a venire.
Nel tentativo di convincere gli americani della necessità di questa drastica riduzione del consumo di combustibili fossili, il governo degli Stati Uniti si è impegnato in una campagna continua e implacabile di esagerazione della minaccia dal riscaldamento globale. Ma, in realtà, le temperature globali non sono riuscite a riscaldarsi come previsto.

Questa campagna è alimentata in gran parte dalla percezione che il pubblico americano deve ancora essere convinto della gravità di questa potenziale minaccia ambientale. Studi "focus group" sponsorizzati dall'amministrazione concludono ripetutamente che le prove contro la previsione di un riscaldamento globale drammatico e distruttivo sono più convincenti delle prove a favore di esso.
A causa di questa mancanza di sostegno popolare, l'amministrazione prevede notevoli difficoltà nel chiedere eventuali riduzioni giuridicamente vincolanti delle emissioni di gas serra nel prossimo Congresso.
La Costituzione degli Stati Uniti richiede che tale modifica di un trattato sia approvata dalla maggioranza dei due terzi del Senato se deve avere una posizione legale.
Per aggiungere la beffa al danno, il protocollo di Kyoto al Trattato di Rio si applica solo alle nazioni sviluppate. Ma la non partecipazione di altre nazioni, tra cui Cina, Messico e India, non è accettabile per il Senato degli Stati Uniti, che ha votato nel giugno 1997, con un margine di 95-0, che non accoglierebbe alcun cambiamento nel Trattato di Rio che non includeva riduzioni legalmente vincolanti per tutti i firmatari. Il Senato ha anche dichiarato che non avrebbe accettato alcuna modifica del trattato che avrebbe imposto un costo economico netto agli Stati Uniti.
L'amministrazione ha tentato di generare sostegno pubblico con una serie di "riunioni cittadine" e "seminari regionali" sul cambiamento climatico e il suo impatto. L'archetipo di questi era il "vertice scientifico" che si è tenuto alla Casa Bianca il 6 ottobre, che ha dettagliatamente spiegato l'argomento dell'amministrazione sui cambiamenti climatici. I punti principali erano che:
• I modelli climatici, in particolare quelli che combinano gli effetti del riscaldamento dell'effetto serra con il raffreddamento da altre emissioni generate dall'uomo, stanno diventando più affidabili. Sono sempre più in grado di simulare la variabilità climatica di questo secolo.
• Gli eventi estremi - in particolare le piogge alluvionali - stanno aumentando di frequenza e questo è coerente con il riscaldamento globale causato dal cambiamento dell'effetto serra.
Questo documento esamina in dettaglio queste due affermazioni. È molto chiaro che sono centrali nel tentativo dell'amministrazione di convincere il popolo americano della necessità di ridurre drasticamente il consumo di energia a causa del riscaldamento globale. Inoltre, sono una componente significativa degli sforzi degli Stati Uniti per convincere i paesi in via di sviluppo della necessità di ridurre le emissioni.


Cambiamenti climatici previsti e osservati

C'è stato un lungo e rumoroso dibattito scientifico sull'entità e l'esistenza dei cambiamenti climatici globali causati dall'attività umana. Il noto fisico Svante Arrhenius ha inizialmente calcolato che il raddoppio dell'effetto serra naturale dell'anidride carbonica, causato dalla combustione di combustibili fossili, aumenterebbe la temperatura superficiale di 5,2°C in media. Ha anche calcolato che andare a metà strada a quel punto aumenterebbe la temperatura di 3,0°C.2
I primi 30 anni del 20° secolo si sono riscaldati abbastanza rapidamente, e nel 1933 ci fu la speculazione del meteorologo statunitense J.B. Kincer sul fatto che questo cambiamento potesse essere stato antropogenico.3 Ma, subito dopo quella pubblicazione, le temperature iniziarono a diminuire. Nel 1976, alcuni scienziati stavano offrendo la spiegazione che una combinazione di riscaldamento ad effetto serra e un raffreddamento in competizione a causa della ridotta radiazione solare che raggiungeva la terra a causa delle particelle di polvere prodotte dall'attività umana era responsabile del leggero raffreddamento netto.4
Quasi nello stesso momento, sono stati eseguiti i primi modelli di computer per il clima di circolazione generale (GCM) in cui sono stati specificati i cambiamenti nell'effetto serra. Questi GCM stimarono un riscaldamento di circa 4,0°C per un raddoppio di anidride carbonica.5 I GCM furono i primi tentativi di modellare simultaneamente un numero di processi atmosferici, inclusa la complessità dell'interazione superficie-atmosfera, dai primi principi fisici. Altri studi precedenti avevano una natura altamente empirica o assumevano una superficie uniforme.

Nel 1990, c'erano cinque GCM che hanno ricevuto la maggior parte delle citazioni scientifiche. Il riscaldamento medio previsto da loro per un raddoppio del biossido di carbonio atmosferico era di 4,2°C e la cifra più bassa, dal modello del Centro nazionale americano per la ricerca atmosferica, era di 3,2°C.6
Questi modelli hanno guidato il primo documento di "consenso" su questo argomento, il "First Scientific Assessment" delle Nazioni Unite, pubblicato nel 1990 dall'Intergovernmental Panel on Climate Change (IPCC).
La frase chiave in questo rapporto riguardante i cambiamenti climatici previsti e osservati diceva: "Quando vengono eseguiti i più recenti modelli atmosferici con le attuali concentrazioni di gas serra, la loro simulazione del clima è generalmente realistica su larga scala". Nel 1990, c'erano cinque GCM che hanno ricevuto la maggior parte delle citazioni scientifiche. Il riscaldamento medio previsto da loro per un raddoppio del biossido di carbonio atmosferico era di 4,2°C e la cifra più bassa, dal modello del Centro nazionale americano per la ricerca atmosferica, era di 3,2°C.6
Questi modelli hanno guidato il primo documento di "consenso" su questo argomento, il "First Scientific Assessment" delle Nazioni Unite, pubblicato nel 1990 dall'Intergovernmental Panel on Climate Change (IPCC).
La frase chiave in questo rapporto riguardante i cambiamenti climatici previsti e osservati diceva: "Quando vengono eseguiti i più recenti modelli atmosferici con le attuali concentrazioni di gas serra, la loro simulazione del clima è generalmente realistica su larga scala".7
In altre parole, modelli informatici del clima che incorporavano emissioni di gas serra simili alle emissioni effettive hanno prodotto cambiamenti climatici che in genere assomigliavano a ciò che era stato osservato. Uno studio successivo ha calcolato che questi modelli hanno previsto che la temperatura media della superficie terrestre avrebbe dovuto aumentare tra 1,3 e 2,3°C a seguito di questi cambiamenti.8 Versioni leggermente riviste di questi modelli sono servite da base tecnica per la Convenzione quadro delle Nazioni Unite sul clima Modifica, approvata per la prima volta al "Vertice della Terra" di Rio de Janeiro nel giugno 1992.
Come mostrato nella Figura 1, tuttavia, il riscaldamento superficiale osservato dalla fine del XIX secolo è stato di circa 0,6°C, o un terzo, della media prevista. I critici hanno sostenuto, nelle testimonianze congressuali (vedi, ad esempio, la mia testimonianza del 25 giugno 1997, davanti al Comitato per le relazioni estere del Senato) e altrove, che ci sarebbe stata una drastica riduzione delle previsioni sul riscaldamento futuro per riconciliare i fatti con i risultati dei modelli.
In altre parole, modelli informatici del clima che incorporavano emissioni di gas serra simili alle emissioni effettive hanno prodotto cambiamenti climatici che in genere assomigliavano a ciò che era stato osservato. Uno studio successivo ha calcolato che questi modelli hanno previsto che la temperatura media della superficie terrestre avrebbe dovuto aumentare tra 1,3 e 2,3°C a seguito di questi cambiamenti.8 Versioni leggermente riviste di questi modelli sono servite da base tecnica per la Convenzione quadro delle Nazioni Unite sul clima Modifica, approvata per la prima volta al "Vertice della Terra" di Rio de Janeiro nel giugno 1992.
Come mostrato nella Figura 1, tuttavia, il riscaldamento superficiale osservato dalla fine del XIX secolo è stato di circa 0,6°C, o un terzo, della media prevista. I critici hanno sostenuto, nelle testimonianze congressuali (vedi, ad esempio, la mia testimonianza del 25 giugno 1997, davanti al Comitato per le relazioni estere del Senato) e altrove, che ci sarebbe stata una drastica riduzione delle previsioni sul riscaldamento futuro per riconciliare i fatti con i risultati dei modelli.


Figura 1
Riscaldamento globale della superficie osservato, 1900-1996

Fonte: J.T. Houghton et al., Climate Change 1995: The Science of Climate Change (Cambridge, Inghilterra: Cambridge University Press, 1996).

Nel 1990, gli scienziati della NASA Roy Spencer e John Christy pubblicarono la storia di 11 anni delle temperature misurate dalle unità di sondaggio a microonde sui satelliti in orbita.9 Mentre copriva solo un breve periodo di tempo (a partire dal 1 gennaio 1979), il record non mostrò alcun riscaldamento, che indica una certa disparità con il record del termometro a terra di Figura 1. La Figura 2 mostra i 18 anni completi di dati globali sulla temperatura del satellite. La linea in grassetto indica la tendenza negativa (raffreddamento) statisticamente significativa.
Esiste anche una notevole corrispondenza tra le temperature annuali misurate dai satelliti e quelle misurate dai palloni meteorologici tra i 5.000 e i 30.000 piedi. I palloncini vengono lanciati simultaneamente due volte al giorno per fornire un profilo tridimensionale globale dell'atmosfera per l'input ai modelli di previsioni meteorologiche.
I palloncini trasportano termistori verticalmente attraverso l'atmosfera, mentre i satelliti guardano in basso sul pianeta registrando le temperature con uno strumento che misura la vibrazione dell'ossigeno atmosferico. Come tali, questi due metodi rappresentano misure completamente indipendenti della temperatura atmosferica e possono essere usati per crossvalidarsi a vicenda. L'alto grado di corrispondenza tra i due conferisce un alto livello di fiducia nelle loro osservazioni.

Figura 2

Temperature globali del satellite, 1979-1997

Nota: il coefficiente della linea di tendenza della temperatura è statisticamente significativo a livello p = 0,05.
Fonte: R.W. Spencer e J.R. Christy, "Monitoraggio preciso delle tendenze della temperatura globale dai satelliti", Science, 247, pp. 1558-1562.

Mentre, come si evince dalla figura 2, l'andamento della temperatura complessiva dal 1979 al 1997 è leggermente negativo, vi sono aree di riscaldamento pronunciate sull'Eurasia centrale e sul Nord America nordoccidentale. La Figura 3 divide il record satellitare in bande latitudinali per illustrare meglio le tendenze regionali della temperatura. Il riscaldamento delle mezzetanze dell'emisfero settentrionale si distingue in contrasto con il raffreddamento che si manifesta in quasi tutte le altre regioni. Pertanto, secondo i dati satellitari, si potrebbe sostenere che l'effetto serra ha imposto una leggera tendenza al riscaldamento nelle regioni relativamente secche dell'emisfero settentrionale, dove la teoria della serra sostiene che il riscaldamento dovrebbe essere più pronunciato (vedi appendice). Ma questo riscaldamento sembra sovrapporsi a una leggera tendenza al raffreddamento globale.

Figura 3

Andamenti della temperatura di Latitude, 1979-1995

Fonte: calcoli dell'autore; R.W. Spencer e J.R. Christy, "Monitoraggio preciso delle tendenze della temperatura globale dai satelliti", Science, 247, pp. 1558-1562; e J.T. Houghton et al., Climate Change 1995: The Science of Climate Change (Cambridge, Inghilterra: Cambridge University Press, 1996).

Esiste un'ovvia disparità tra il record satellitare, mostrato in Figura 2, e il record basato sulla superficie mostrato in Figura 1. Sono probabili due cause. In primo luogo, una piccola parte della differenza è il risultato di "urbanizzazione" del record a terra. È un dato di fatto che le città tendono a crescere attorno alle nostre stazioni meteorologiche più antiche, che sono state collocate in punti di commercio nel 19 ° secolo. Gli scienziati lo sanno da tempo, e mentre hanno fatto di tutto per eliminare questo effetto dalla maggior parte dei registri - confrontando le stazioni vicine e cercando tendenze spurie - tale metodo è altamente insensibile al riscaldamento urbano negli ultimi anni.
È probabile che l'altro errore sistematico risieda nei dati satellitari, a determinate condizioni. Il satellite non misura la vera temperatura "superficiale", ma integra piuttosto la temperatura degli strati inferiori in cui l'ossigeno è più abbondante. Ecco perché corrisponde così bene alle temperature medie globali dello strato tra 5.000 e 30.000 piedi misurate dai palloni meteorologici.
L'ipotesi che le temperature da 5.000 a 30.000 piedi siano simili a quelle in superficie è vera in un'atmosfera ben miscelata e omogenea, una condizione che si ottiene per lo più nelle aree terrestri del mondo, che è anche il luogo in cui la maggior parte delle stazioni meteorologiche siamo. Tuttavia, ci sono alcune condizioni in cui la temperatura atmosferica vicina alla superficie non riflette la temperatura media tra 5.000 e 30.000 piedi. Ciò si verifica spesso nel pieno dell'inverno, quando, durante le lunghe notti polari e ad alta latitudine, una pozza di aria molto fredda “defluisce” in superficie.
Queste masse d'aria molto fredde sono generalmente meno di 5.000 piedi di profondità. Come discusso nella casella ombreggiata nella pagina seguente, queste sono le masse d'aria che dovrebbero mostrare il riscaldamento della serra più pronunciato. Pertanto, è probabile che il satellite veda solo la parte superiore di queste masse d'aria molto sensibili. Ad ogni modo, le differenze tra le temperature del satellite e della superficie sono ancora piuttosto contenute.


L'ultimo decennio

Uno degli aspetti più notevoli (e poco noti) dell'ultimo decennio è che nessuna delle tre misure globali di temperatura atmosferica e superficiale inferiore mostra alcun riscaldamento. Ciò è mostrato nella Figura 4 (tratta dal rapporto IPCC del 1995), che raffigura il record satellitare, le letture del pallone meteorologico (in media da 5.000 a 30.000 piedi) e il record di superficie.
Nel 1995, nella sua seconda revisione completa dei cambiamenti climatici, l'IPCC ha riferito:
Quando si tiene conto solo degli aumenti dei gas a effetto serra ... la maggior parte dei [modelli climatici] produce un riscaldamento medio maggiore di quanto finora osservato, a meno che non venga utilizzata una minore sensibilità climatica [all'effetto serra] .... prove che aumenti degli aerosol di solfato stanno parzialmente contrastando il [riscaldamento] a causa dell'aumento dei gas a effetto serra.10
La traduzione secolare di questa affermazione è che o non si scalda tanto quanto era stato precedentemente previsto, o qualcosa nasconde il riscaldamento. La natura umana impone che sarà fatto ogni sforzo per dimostrare quest'ultima spiegazione.


Riscaldamento umano della serra in masse d'aria gelide

Le masse d'aria molto fredde che il satellite non riesce a vedere fino in fondo sono quelle che dovrebbero scaldarsi maggiormente a causa dei cambiamenti nell'effetto serra. Allo stesso modo, le masse d'aria che sono già molto calde, in generale, dovrebbero riscaldarsi molto poco.
Tutto questo ha a che fare con il modo in cui l'effetto serra funziona per riscaldare gli strati inferiori dell'atmosfera. Alcune molecole, principalmente vapore acqueo, assorbono pacchetti di energia a infrarossi che si irradia costantemente dalla superficie terrestre. Se non ci fossero, la radiazione andrebbe direttamente nello spazio.
Ma a causa del loro assorbimento, emetteranno nuovamente la radiazione nello spazio ("su") e non cambieranno la temperatura, o torneranno a terra ("giù"), fornendo ulteriore riscaldamento.
Oltre il 95 percento dell'effetto serra naturale della Terra proviene dal vapore acqueo e circa il 3 percento da anidride carbonica. Ma il vapore acqueo e l'anidride carbonica assorbono molti degli stessi tipi di pacchetti energetici provenienti dalla superficie, quindi non importa quanta anidride carbonica è presente nell'atmosfera se la concentrazione totale di vapore acqueo è abbastanza alta da assorbire gran parte dell'energia . Questo è il caso delle masse d'aria più umide del pianeta, che sono invariabilmente quelle molto calde (l'aria calda contiene molte volte più molecole d'acqua rispetto all'aria fredda). Le masse d'aria più fredde sono incredibilmente asciutte e quindi hanno pochissimo effetto serra naturale del vapore acqueo. Inserire l'anidride carbonica in queste masse d'aria è molto simile a quello immesso nell'acqua: l'assorbimento delle radiazioni infrarosse aumenta rapidamente, provocando un forte riscaldamento.
Le masse d'aria più secche più fredde che normalmente colpiscono gli esseri umani sono i grandi sistemi freddi ad alta pressione che si formano in Siberia e Nord America nord-occidentale in inverno. E questi sono quelli che mostrano un segnale di riscaldamento; la grandezza e la pervasività di questo riscaldamento minano tutto ciò che accade in estate. In altre parole, il riscaldamento in serra è in gran parte un riscaldamento delle masse d'aria più fredde che conosciamo. Secondo i satelliti, il resto del pianeta mostra una leggera tendenza al raffreddamento per quasi due decenni di registrazioni satellitari. E nessuno dei record di temperatura globale che gli scienziati usano comunemente mostrano alcun riscaldamento negli ultimi 10 anni.


Figura 4

Misurazioni della temperatura dei palloni di superficie, satellitari e meteorologici, 1987-1996

Fonti: R.W. Spencer e J.R. Christy, "Monitoraggio preciso delle tendenze della temperatura globale dai satelliti", Science, 247, pp. 1558-1562; J.T. Houghton et al., Climate Change 1995: The Science of Climate Change (Cambridge, Inghilterra: Cambridge University Press, 1996); e J.K. Angell, Trends "93: un compendio di dati sul cambiamento globale, ORNL / CDIAC-65 (Centro di analisi delle informazioni sull'anidride carbonica, Oak Ridge National Laboratory, Oak Ridge, Tennessee).

Il "qualcosa" che nasconde il riscaldamento è ipotizzato essere un aumento dei solfati e ha ricevuto molta attenzione dalla comunità di ricerca. I primi risultati, in particolare quelli pubblicati su Nature il 4 luglio 1996, sembravano sostenere la tesi secondo cui i solfati stavano mascherando il riscaldamento previsto.11 Questo particolare studio ha utilizzato i dati annuali sui palloni meteorologici dal 1963 al 1987.
Il più eclatante fu un rapido riscaldamento nel mezzo dell'emisfero meridionale, dove praticamente non ci sono solfati disponibili per contrastare il riscaldamento delle serre.

Tuttavia, quando è stata utilizzata l'intera documentazione dei dati relativi al pallone meteorologico, dal 1958 al 1995, questa regione di riscaldamento più pronunciata non ha mostrato alcun cambiamento.12 Secondo il numero del 16 luglio 1996 della rivista New Scientist, questa critica "Disegnato sangue" nella controversia sulla serra. Nel contesto di un'intervista con B.D. Santer, l'autore senior dello studio Nature del 4 luglio 1996, New Scientist riferì: "Dal 1987, la forza crescente dell'effetto serra si è riaffermata e il nord ha ripreso il comando".13 Poiché non vi fu alcun cambiamento netto in uno dei record di temperatura dell'ultimo decennio, questa affermazione è chiaramente in errore.
Chiaramente l'opzione predefinita - che semplicemente non si scalda tanto quanto indicato nelle proiezioni precedenti - è sempre più plausibile. Una nuova serie di modelli climatici, che ora sembrano adattarsi più accuratamente alla storia osservata, testimoniano questa conclusione.
La Figura 5a mostra il nuovo risultato (1997) del modello del Regno Unito Meteorological Office (UKMO ).14 La previsione pubblicata è il valore più elevato, che mostra ancora un notevole riscaldamento. Ma un'attenta lettura del manoscritto rivela che i cambiamenti nell'effetto serra utilizzati sono molto maggiori dei cambiamenti osservati e previsti. Quando vengono utilizzati i valori più accettati (come indicato dall'IPCC), il riscaldamento scende alla cifra inferiore, o circa 1,7°C entro l'anno 2100.
La Figura 5b è un nuovo modello analogo del Centro nazionale americano per la ricerca atmosferica (NCAR), pubblicato nel numero di Science del 16 maggio 1997.15 Anche esso utilizza un cambiamento dell'effetto serra maggiore almeno del 30% rispetto a i cambiamenti noti e previsti. La tendenza più bassa nella Figura 5b è corretta per quell'errore e produce solo 1.3°C di riscaldamento entro il 2100.
In particolare, questo modello non include alcun raffreddamento dai solfati.
Sebbene questo effetto sia apparentemente sopravvalutato, nuove misurazioni dirette indicano che dovrebbe ridurre il riscaldamento di circa 0,3°C in questo periodo.16 Al contrario, il modello di Taylor e Penner (1994), che costituisce gran parte della base per i risultati di Santer et al., Nell'ormai famigerato articolo di Nature, presuppone un raffreddamento del solfato che è tre volte più potente.17 I lettori potrebbero voler speculare sulla necessità di inserire tale raffreddamento non realistico in modelli di riscaldamento globale.


Una cultura dell'esagerazione

Il fallimento dei GCM che prevedono il riscaldamento drammatico è ormai ben noto nei circoli scientifici, così come il fatto che i modelli più recenti più fisicamente realistici tendono a prevedere meno riscaldamento.
Ciò ha portato a un cambiamento nella retorica. L'amministrazione ora parla meno di "riscaldamento globale" di quanto non faccia di "cambiamento climatico".

Figura 5a

Temperature previste dal modello UKMO

Linea A = concentrazione di CO2 non realistica di 859 ppm entro il 2050.
Linea B = stima del riscaldamento se viene utilizzata la concentrazione più probabile, come indicato dall'IPCC 1995.
Fonte: J.F.B. Mitchell e T.C. Collins, "Sulla modifica del riscaldamento globale da parte degli aerosol di solfati", Journal of Climate, 10, 1997, pp. 245-266.

Figura 5b

Temperature previste dal nuovo modello NCAR

Linea A = Aumenta la CO effettiva dell'1% all'anno (ma un aumento più realistico è del 20,7% all'anno). Linea B = stima le temperature usando il valore più realistico. Ora di inizio nominale intorno al 1965.
Fonte: R.A. Kerr, "Il modello ha ragione, senza fattori di fondente", Science, 276, 1997, p. 1041.

Il risultato è che l'amministrazione ora si posiziona praticamente davanti a qualsiasi evento meteorologico insolito e lo incolpa del cambiamento climatico indotto dall'uomo. Ognuna di queste affermazioni è stata drammaticamente imperfetta e le inesattezze e le incoerenze scientifiche stanno iniziando a danneggiare la credibilità. Ecco solo alcune delle recenti esagerazioni.

Piogge intense in aumento?
Le crescenti minacce di inondazioni sono state notate per la prima volta nel discorso "Earth Day" del vicepresidente Al Gore a Washington DC nel 1995, in cui affermava che "le piogge torrenziali sono aumentate in estate durante le stagioni di coltivazione agricola". Si riferiva a ricerche che non avevano ancora appare nella raffinata letteratura scientifica del climatologo federale Thomas Karl. Alla fine Karl pubblicò un articolo su Nature che mostrava un aumento del 2% della quantità di pioggia negli Stati Uniti derivante da tempeste tra i due e i tre pollici in 24 ore.18 Non vi fu alcun cambiamento nelle piogge di tre o più pollici.
Nel gennaio 1997, sulla base dello stesso studio, il Dipartimento del Commercio degli Stati Uniti ha prodotto un comunicato stampa in cui si afferma che le piogge alluvionali sono aumentate del 20% negli Stati Uniti.
In che modo il 2 percento si è trasformato in 20 percento? Facilmente, se si sceglie di travisare i dati al fine di creare preoccupazione.
Gli Stati Uniti hanno in media circa 30 pollici di pioggia all'anno. All'inizio di questo secolo, il 9 percento, ovvero 2,7 pollici all'anno, cadde, in media, a causa di tempeste di due pollici o più in 24 ore.
Alla fine del secolo, la quantità era aumentata all'11 percento, o 3,3 pollici all'anno da tali tempeste. Se si divide 3,3 pollici per 2,7 pollici, si calcola un aumento del 22 percento della quantità di pioggia in questa categorizzazione arbitraria di pioggia. Rimane comunque la realtà che la quantità di pioggia che cade da queste tempeste è aumentata di soli 0,60 pollici all'anno; 0,60 pollici di pioggia non hanno mai causato inondazioni.

Il riscaldamento globale provoca bufere di neve?
La grande inondazione nella valle del Red River nel 1997 è stata causata dallo scioglimento primaverile di nevicate insolitamente pesanti dell'inverno precedente. Durante la Giornata della Terra, il presidente Clinton ha dichiarato: "Penso che ogni americano abbia notato un sostanziale aumento negli ultimi anni del genere di cose che vedremo oggi nel Nord Dakota".
L'allora sottosegretario di Stato Eileen Claussen ha dichiarato: 
“Possiamo aspettarci che un continuo riscaldamento dell'atmosfera terrestre possa comportare molto di più di tali eventi di maltempo .... pensiamo di poter dire, con una certa sicurezza, che lì saranno più casi come [il diluvio del Fiume Rosso] man mano che la Terra inizierà a scaldarsi”.
L'amministrazione avrebbe dovuto verificare la relazione tra la temperatura invernale media e le nevicate nel Nord Dakota (Figura 6). Come sembrerebbe ovvio, più caldo è, meno nebulose. E, in linea con la teoria delle serre, le temperature molto fredde dell'inverno si sono riscaldate un po 'nell'atmosfera secca della valle del fiume Rosso.

Figura 6

Rapporto tra nevicate e temperature invernali a Grand Forks, Dakota del Nord, 1948-1992

Fonte: National Climate Data Center, Asheville, Carolina del Nord.

Gli umani stanno sciogliendo i ghiacciai del Glacier National Park?
La visita del vicepresidente Gore al ghiacciaio Grinell, nel Glacier National Park, nel Montana, nel settembre 1997, è stata progettata per creare una foto sul riscaldamento globale. In quel periodo dell'anno, i ghiacciai raggiungono normalmente il loro livello più basso e non sono arrivate nuove nevicate. Gore indicò il ghiacciaio, guardò i giornalisti e intonò cupamente: "Questo ghiacciaio si sta sciogliendo". Il vicepresidente ha quindi combinato il riscaldamento globale e lo scioglimento del ghiacciaio Grinell.
Il fatto è che i ghiacciai del parco si stanno sciogliendo da circa 150 anni, secondo la stessa letteratura del parco. Lo scioglimento iniziò a metà del XIX secolo quando la temperatura globale si riprese dalla gelida “Piccola era glaciale”. Durante questa Piccola era glaciale (1450-1900), i ghiacciai di montagna di mezza latitudine si espansero drammaticamente (in alcuni casi, a circa un miglio) oltre le loro attuali condizioni, e il Tamigi si congelava regolarmente, mentre l'Europa tremava nella miseria di Dickens.
Se Gore avesse ispezionato la storia estiva della temperatura diurna nel Montana occidentale, avrebbe scoperto che non c'è stato alcun riscaldamento nell'ultimo secolo. Ovviamente, durante le giornate estive, i ghiacciai si sciolgono e se non c'è riscaldamento estivo, non c'è accelerazione della fusione glaciale. Ciò che Gore fece fu di fuorviare e confondere intenzionalmente il pubblico su un riscaldamento naturale durante il diciannovesimo secolo con una mancanza di riscaldamento nel Montana occidentale nel ventesimo secolo.

Il riscaldamento globale rende gli uragani più intensi o frequenti?
Nel marzo 1996, Eileen Claussen disse a un "Town Meeting on Global Warming" a Chapel Hill, nella Carolina del Nord, che l'uragano Fran (1996) era tipico di ciò che ci si poteva aspettare dal riscaldamento globale.
Il fatto è che l'uragano Fran era un uragano puramente medio che faceva quello che fanno gli uragani medi quando colpiscono le proprietà sviluppate, causando danni per alcuni miliardi di dollari. A seguito di dichiarazioni imprudenti come questa, alcuni attori importanti nel settore assicurativo, come Swiss Re, e in misura minore alcuni riassicuratori americani, hanno colto il riscaldamento globale come una scusa per aumentare i premi. Citano una maggiore esposizione a causa del peggioramento degli uragani poiché la "necessità" di un aumento dei tassi.
La base per credere che un aumento del riscaldamento globale intensifichi gli uragani è un singolo documento.19 Le ipotesi nel documento erano abbastanza irrealistiche - inclusa l'idea fisicamente errata che gli uragani non raffreddassero gli oceani su cui passano. Un successivo articolo di revisione non ha trovato alcuna base per l'aspettativa di grandi cambiamenti nella gravità dell'uragano.20

Figura 7a

Venti di uragano medi annuali nel bacino atlantico

Fonte: J.T. Houghton et al., Climate Change 1995: The Science of Climate Change (Cambridge, Inghilterra: Cambridge University Press 1996).

Figura 7b

Numero di uragani intensi nell'Oceano Atlantico

Fonte: C.W. Landsea, et al., "Tendenze al ribasso nella frequenza degli intensi uragani atlantici negli ultimi cinque decenni", Geophysical Research Letters, 23; 1996, pagg. 1697-1700.

Al momento esiste un solo modello climatico che calcola esplicitamente la frequenza e l'intensità degli uragani man mano che l'effetto serra aumenta. I creatori di questo modello hanno scritto:
La distribuzione globale delle tempeste ... concorda sulla posizione geografica e sulla variabilità stagionale con quella del clima attuale, ma il numero di tempeste è significativamente ridotto [corsivo in originale], in particolare nell'emisfero australe. ... La maggior parte delle regioni di tempesta tropicale indicano una ridotta velocità del vento superficiale e un ciclo idrologico leggermente più debole [enfasi aggiunta].21
Le figure 7a e 7b presentano alcune prove del fatto che le minacce agli uragani stanno diminuendo, non peggiorando. La Figura 7a, tratta dal secondo rapporto IPCC, mostra che i venti medi annuali negli uragani nel bacino dell'Atlantico sono diminuiti in modo statisticamente significativo negli ultimi 50 anni. Ciò è ulteriormente supportato da recenti ricerche che mostrano un calo statisticamente significativo del numero di intensi uragani nello stesso periodo (Figura 7b).22


Conclusione

Non vi è dubbio che il paradigma del cambiamento climatico moderato, e in gran parte benigno, derivante dall'attività umana gode del supporto dei dati. I modelli climatici che predissero i grandi e drammatici riscaldamento - compresi quelli che servono come base per il Trattato di Rio sui cambiamenti climatici - erano sbagliati.
Inoltre, l'argomentazione secondo cui il riscaldamento non si è materializzato perché è stato "nascosto" dagli aerosol di solfato non è supportato dai dati. Piuttosto, è più probabile che la sensibilità del clima alle emissioni di gas serra sia stata semplicemente sopravvalutata.
Allo stesso tempo, la preponderanza del riscaldamento nelle masse d'aria più fredde - che dovrebbe essere più sensibile ai cambiamenti delle serre - dà credito all'idea che ci sia stata una certa influenza umana sul clima. Ma il fatto che i cambiamenti siano piccoli, principalmente nell'aria più fredda, e che probabilmente rimarranno piccoli dovrebbe significare la fine della paura del riscaldamento globale.
Questi risultati mettono in discussione le proposte di riduzioni rigorose delle emissioni, come quelle concordate dai negoziatori degli Stati Uniti a Kyoto nel 1997. L'attuale proposta, che riduce le emissioni statunitensi al 7% al di sotto dei livelli del 1990 all'inizio del prossimo secolo, costerà oltre il 2% del prodotto interno lordo all'anno, secondo un modello econometrico di Charles River Associates. Dato che i cambiamenti climatici non stanno procedendo al ritmo allarmante previsto al momento della firma del Trattato di Rio, potrebbe non essere più saggio risparmiare questa enorme spesa per gli investimenti finali nella tecnologia energetica del futuro, piuttosto che intraprendere (probabilmente) un fallimentare programma costoso per far fronte a un'emergenza che non esiste?




Notes

1. J.J. Fialka, “Gore Faces Cool Response to Issue of Global Warming,” The Wall Street Journal, August 26, 1997.

2. Svante Arrhenius, “On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground,” Philisophical Magazine 41 (1896), pp. 237–276.

3. J.B. Kincer, “Is Our Climate Changing? A Study of Long-time Temperature Trends,” Monthly Weather Review, 61 (1933), pp. 251–259.

4. R.A. Bryson and G.J. Dittberner, “A Non-equilibrium Model of Hemispheric Mean Temperature,” Journal of the Atmospheric Sciences, 33 (1976), pp. 2094–2106.

5. S. Manabe, and R.T. Wetherald, “On the Distribution of Climate Change Resulting from an Increase in the CO2 Content of the Atmosphere,” Journal of Atmospheric Research, 37 (1980), pp. 99–118.

6. W.M. Washington and G.A. Meehl, “Climate Sensitivity Due to Increased CO2: Experiments with a coupled Atmosphere and Ocean General Circulation Model,” Climate Dynamics, 2 (1989), pp. 1–38.

7. J.T. Houghton, G.J. Jenkins, and J.J. Ephraums (editors), Climate Change: The IPCC Scientific Assessment. (Cambridge, England: Cambridge Univeristy Press, 1990).

8. J.M. Murphy and J.F.B. Mitchell, “Transient Response of the Hadley Centre Coupled Model to Increasing Carbon Dioxide, Part II: Temporal and Spatial Evolution of Patterns,” Journal of Climate, 8 (1995), pp. 57–80.

9. R.W. Spencer and J.R. Christy, “Precise Monitoring of Global Temperature Trends from Satellites,” Science, 247 (1990), pp. 1558–1562.

10. J.T. Houghton, L.G. Meira Filho, B.A. Callander, N. Harris, A. Kattenberg, and K. Maskell (editors), Climate Change 1995: The Science of Climate Change. (Cambridge, England: Cambridge Univeristy Press, 1996).

11. B.D. Santer et al., “A Search for Human Influences on the Thermal Structure of the Atmosphere,” Nature, 382 (1996), pp. 39–45.

12. P.J. Michaels and P.C. Knappenberger, “Human Effect on Global Climate?” Nature, 384 (1996), pp. 522–523.

13. F. Pearce, “Greenhouse Wars,” New Scientist, 139 (1997), pp. 38–43.

14. J.F.B. Mitchell and T.C. Johns, “On Modification of Global Warming by Sulfate Aerosols,” Journal of Climate, 10 (1997), pp. 245–266.

15. R.A. Kerr, “Model Gets It Right—without Fudge Factors,” Science, 276 (1997), p. 1041.

16. P.V. Hobbs, et al., “Direct Radiative Rorcing by Smoke from Biomass Burning,” Science, 275 (1997), p. 1777.

17. K.E. Taylor and J.E. Penner, Response of the climate system to atmospheric aerosols and greenhouse gases, Nature, 369 (1994), pp. 734–737.

18. T.R. Karl, R.W. Knight, and N. Plummer, “Trends in High-frequency Climate Variability in the Twentieth Century,” Nature, 337 (1995), pp. 217–220.

19. K.A. Emanuel, “On the Maximum Intensity of Hurricanes,” Journal of the Atmospheric Sciences, 45 (1987), pp. 1143–1156.

20. J. Lighthill, G. Holland, and W. Ray, “Global Climate Change and Tropical Cyclones,” Bulletin of the American Meteorological Society, 75 (1994), pp. 2147–2157.

21. L. Bengtsson, et al., “Will Greenhouse Gas-induced Warming over the Next 50 Years Lead to a Higher Frequency and Greater Intensity of Hurricanes?” Tellus, 48A (1996), pp. 57–73.

22. C.W. Landsea, et al., “Downward Trends in the Frequency of Intense Atlantic Hurricanes During the Past Five Decades,” Geophysical Research Letters, 23 (1996), pp. 1697–1700.




Center for the Study of American Business
Washington University
Campus Box 1027
One Brookings Drive
St. Louis, Missouri 63130-4899
Phone: (314) 935-5630

Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.