200 97 6MB
Italian Pages 248 Year 2020
Daniele Mazza Francesco Marino
La strega perfetta
Saggi
tab edizioni © 2020 Gruppo editoriale Tab s.r.l. Lungotevere degli Anguillara, 11 00153 Roma www.tabedizioni.it Prima edizione MESE 2020 isbn 978-88-31352-xx-x Stampato da The Factory s.r.l. via Tiburtina 912 00156 Roma per conto del Gruppo editoriale Tab s.r.l. È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata, compresa la fotocopia, senza l’autorizzazione dell’editore. Tutti i diritti sono riservati.
Indice
p. 9 Introduzione 13 Capitolo 1 La strega si presenta
1.1. Struttura molecolare e proprietà della CO2, 13 1.2. L’accusata si difende, 17
21 Capitolo 2 Il viaggio dell’energia radiante
2.1. Il lungo viaggio dell’energia: dal nucleo del Sole al confine dell’atmosfera, 21 2.2. Dal confine dell’atmosfera alla superficie, 24
31 Capitolo 3 L’effetto serra
3.1. L’effetto serra classico ovvero “la serra del giardiniere”, 31 3.2. Ma cos’è l’assorbimento molecolare?, 33 3.3. Le differenze tra il pianeta e una serra, 35 3.4. CO2 e H2O vapore: un nano e un gigante, 42 3.5. Variazione della concentrazione di CO2 e suoi effetti, 43 3.6. Il parere di un fisico controcorrente, 46 3.7. Le misure sperimentali e la simulazione, 48
53 Capitolo 4 L’energia radiante interagisce con l’atmosfera terrestre
4.1. Il viaggio dal Sole, 53 4.2. Adattiamo la legge di Planck alla realtà dei materiali, 55 4.3. Albedo ed emissività ci guidano al bilancio termico dell’energia (senza atmosfera), 56
6
Indice
4.4. Il bilancio dell’energia (con atmosfera), 61 4.5. Tipo 1. Assorbimento/emissione radiante, 64 4.6. Tipo 2. Assorbimento quantistico e riscaldamento del gas, 68 4.7. La stratosfera: perché si riscalda?, 70
p. 75 Capitolo 5 La temperatura del pianeta
5.1. Il punto di arrivo: la temperatura del pianeta, 75
5.2. Oscuramento globale (Global Dimming), 78
5.3. Perché le città sono isole termiche, 81 5.4. Modelli a cascata e amplificazione degli errori, 84
91 Capitolo 6 Alcune considerazioni di chimica-fisica dell’atmosfera
6.1. La composizione dell’atmosfera, 91 6.2. U n poco di storia: come si è arrivati alla composizione attuale, 94 6.3. L a strega non può bruciare ma altri gas con effetto serra sì, 95
103 Capitolo 7 CO2 contro H2O vapore
7.1. Si presenta spontaneamente a deporre… la molecola dell’acqua, 103 7.2. I due imputati vengono messi a confronto, 104 7.3. Dove la strega ha il predominio, 110
113 Capitolo 8 Cenni di chimica degli oceani
8.1. L’oceano misterioso, 113 8.2. Gli oceani serbatoio termico per tutta l’umanità, 114 8.3. Gli oceani e la loro chimica, 117 8.4. L’acqua di mare è salata, 121 8.5. Il calcio ci salverà, 134 8.6. È vero che gli oceani nel 2050 sommergeranno le nostre coste?, 140
145 Capitolo 9 Lo stato del clima 2018
9.1. Lo stato del clima 2018: una visione d’insieme, 145 9.2. Lo stato del clima 2018: una visione di catastrofe imminente, 154 9.3. L o stato del clima 2018: le previsioni dei modelli e il senno di poi, 156
Indice7
p. 161 Capitolo 10 La ciclicità degli eventi climatici
10.1. La Dinamica dei Sistemi, 161 10.2. Sistemi in equilibrio e non, 164 10.3. Oscillazioni cicliche nel nostro sistema, 167 10.4. Il padre di tutte le oscillazioni è a 149 milioni di km da noi, 172
175 Capitolo 11 Ma se davvero fosse la CO2…
11.1. La sensibilità climatica… ecco la traccia lasciata dalla strega, 175 11.2. Diamo voce ai satelliti, 178 11.3. Gli effetti benefici della strega, 180 11.4. Ecosistemi isolati: la strega agisce dove l’uomo non arriva, 184
11.5. Influenza della CO2 sulla vita marina, 188 191 Capitolo 12 Effetti non antropogenici sul clima
12.1. Il passato spiega il presente, e non viceversa, 191 12.2. Quando gli effetti eccedono la causa: amplificazione o retroazione positiva, 194 12.3. Raggi cosmici, nubi e clima, 201 12.4. Se il passato spiega il presente, come si ricostruisce il passato?, 205
219 Glossario 237 Bibliografia
Introduzione
Quanti di voi sono al corrente che centinaia di scienziati di chiara fama, delle più prestigiose università e centri di ricerca, dall’Australia alla Norvegia, hanno scritto libri e pubblicazioni scientifiche nelle quali esprimono dubbi sulla responsabilità dell’anidride carbonica (CO2) sul riscaldamento globale (Global Warming) del nostro pianeta? Ad ascoltare giornalisti, tivù, meteorologi, climatologi, tuttologi per così dire “ufficiali”, politici, amministratori, alte cariche Istituzionali degli Stati europei e non solo, dichiarazioni dell’ONU attraverso i suoi comitati e strutture varie, sembrerebbe, fatte salve poche eccezioni, esserci un unanime consenso sull’affermazione: «Il brusco innalzamento della concentrazione della CO2 nell’atmosfera, dovuto all’attività antropica (industrie, produzione dell’energia da combustibili fossili, emissione di veicoli con motori termici, allevamenti intensivi, ecc.) è il responsabile dell’anomalo e repentino riscaldamento della Terra» (in inglese Antropogenic Global Warming AGW). Le voci dissidenti, o anche solo dubbiose su questo assunto, evidentemente sono state messe a tacere, sottoposte a ostracismo, ridicolizzate e bollate a tal punto che i soggetti di queste voci quasi lavorano in silenzio, quasi non si espongono più prendendo atto che questo che stiamo vivendo è l’ennesimo periodo buio della nostra storia durante il quale vige sovrana la frase d’ordine: “chi grida più forte ha ragione!”. Eppure istituzioni e mass media costantemente ci annoiano
10
Introduzione
con frasi di rito che evidenziano l’importanza del dialogo, dell’altrui opinione, l’arricchimento che le idee “degli altri” generano. Dunque chi dissente dalla precedente affermazione non ha neppure l’onore di esser classificato come una minoranza e come tale esser tutelato! In altri termini, l’altrui opinione arricchisce solo se appartiene al recinto delle idee tracciato dalla “voce ufficiale”. Nessuno perde tempo a dimostrare l’esistenza del Sole, è lì con la sua forza, ma quando una idea (la CO2 è causa del riscaldamento globale) viene continuamente ribadita è segno di una sua intrinseca debolezza. Si potrebbe facilmente obiettare: è giusto che sia così, nella Scienza c’è chi ha torto e chi ha ragione e chi ha torto deve esser messo a tacere senza falso buonismo, ed è proprio questo il fascino della scienza! Noi autori in questo testo ci siamo impegnati a esporre fatti ed evidenze raccolte studiando, indagando e ri-cercando. Lasciamo al paziente lettore che vorrà arrivare fino all’ultima pagina la possibilità di giungere a una sua personale conclusione. In altri termini, lo scopo di questo libro è contribuire a divulgare ciò che non è divulgato: dati, grafici, idee e ragionamenti, relativi al sopra riportato assunto virgolettato, che sono stati sottratti al sapere comune! A questo fine abbiamo pensato di aggiungere un capitolo Glossario, d’ora in poi (G), nel quale vengono affrontati alcuni argomenti in modo più rigoroso e, speriamo, non troppo noioso. Sia chiaro: il riscaldamento globale e i cambiamenti climatici sono fuori discussione. Ambo gli autori sono stati e ancora sono appassionati “montagnini” e hanno visto sotto i loro occhi sparire le pareti nord più affascinanti delle nostre Alpi e tristemente ridursi i loro ghiacciai già in tempi non sospetti. Fuori di dubbio che negli ultimi anni ci sia stato un incremento della concentrazione di CO2 e che questa sia un gas attivo nell’IR (infrarosso) e quindi un attore del cosiddetto “effetto serra”. Fenomeni chimico-fisici di origine non antropica hanno influenzato il clima secondo dei cicli che sono evidenti analizzando
Introduzione11
il passato preindustriale (prima del 1750 d.C.). Ci sembra ovvio che questi fenomeni ciclici perdurino ancora ai giorni nostri, anche se si sono verificate variazioni notevoli della composizione chimica atmosferica, non sperimentate nel recente passato. Ad esempio la CO2 è rimasta per millenni attorno a valori più bassi (circa 280 ppm) rispetto a quelli attuali. Tra i fenomeni antropogenici non dimentichiamo di considerare anche la deforestazione, la cementificazione del territorio e il mutamento delle pratiche agricole, tutti fenomeni da correlare all’aumento della popolazione globale. In particolare la distribuzione della popolazione sul pianeta è assolutamente disomogenea, tendendo a concentrarsi in megalopoli che, come noto, sono vere e proprie “isole termiche” con una temperatura di circa +1/+2°C rispetto alla media circostante. Questo dato è da paragonare con l’aumento di circa 1-1,3°C dal 1750 a oggi. Sottolineiamo poi che le variabili climatiche (temperatura, umidità ecc.) sono spesso interpretate a livello locale (a cui siamo molto affezionati) e non come variabili globali medie. Con l’avvento, dagli anni 80, dei satelliti metereologici le misure di temperatura, umidità, copertura nuvolosa, e recentemente di concentrazione locale di CO2, stanno gradualmente assumendo una uniformità di campionamento globale, sia sulla superficie terrestre che su quella oceanica, ricordiamoci che i mari costituiscono il 71% della superficie del pianeta. Inoltre non possiamo non chiederci quale affidabilità potesse avere la misura della temperatura media di mari e oceani prima dei rilevamenti satellitari. E poi ancora, come si insegna nelle scuole di ingegneria, a ogni dato di misura sperimentale va assegnato un errore di misura (± Δx), senza il quale questi valori “pre-satellitari” hanno poco significato. Oltre a ciò, mesi riferiti dai media come i più caldi degli ultimi tempi (luglio 2019) sono in realtà il frutto di misure locali in città con elevata densità abitative mentre a livello globale le temperature di alcuni mesi del 2017 furono più alte! I fenomeni dovuti all’aumento di CO2 non sono né lineari né esponenziali, ma sono (probabilmente) vicini a una saturazione
12
Introduzione
rispetto all’assorbimento della radiazione infrarossa emessa dalla Terra. La lente di ingrandimento focalizzata sulla CO2 ci ha fatto perdere di vista i fenomeni naturali e la loro ciclicità da millenni presenti e che continueranno in futuro. Il Sole, grande e unico protagonista energetico del sistema Terra, gli effetti dei parametri orbitalici terrestri (eccentricità, precessione e altri), il ruolo dell’acqua allo stato sia di vapore che di micrometriche gocce nel determinare la copertura nuvolosa e gli aerosol atmosferici, solo per citarne alcuni. Tutti questi fenomeni naturali alterano in maniera drammatica l’intensità radiante che raggiunge la Terra e quindi il bilancio energetico, la temperatura e il clima. Il libro cercherà di rispondere ad alcune semplici e intuitive domande sulla sorte finale della CO2 antropica, prodotta dall’uomo essenzialmente mediante combustione di petrolio, carbone e gas naturale a fini energetici. Vi sono dei meccanismi naturali di regolazione, o di retroazione negativa, che ci aiuteranno a rallentare o azzerare del tutto l’aumento costante dei suoi valori atmosferici, anno dopo anno, dal 1900? È vero che la fotosintesi è l’unico mezzo di recupero della CO2 dall’atmosfera? Probabilmente le risposte a queste domande che troverete proposte dagli autori vi potranno stupire. Ci rendiamo conto che alcuni dei capitoli potrebbero risultare ostici per il lettore, e questo nonostante il nostro impegno ad “alleggerire”. Questo è essenzialmente dovuto al fatto che, al di là delle nostre capacità divulgative, noi tutti abbiamo maggiore confidenza con alcuni modi di trasmissione del calore, come la conduzione o la convezione, ma meno con l’irraggiamento, visto che viviamo immersi in un gas come l’atmosfera. Di conseguenza abbiamo scarsa esperienza con quest’ultimo e le sue complicate leggi che sono alla base del trasferimento dell’energia radiante, come quella proveniente dal Sole che illumina la Terra e che dalla Terra ritorna nello spazio. Infine, il lettore troverà evidenziate frasi e affermazioni che si ritiene lo possano orientare tra gli argomenti trattati.
Capitolo 1
La strega si presenta
1.1. Struttura molecolare e proprietà della CO2
L’anidride carbonica (formula CO2) è una molecola costituita da tre atomi, due di ossigeno e uno di carbonio al centro. Si tratta di una struttura lineare, in cui i due atomi di ossigeno formano due doppi legami con il carbonio, come in figura 1.1. Gli elettroni dei legami chimici (8 in tutto, due per legame) sono condivisi in maniera asimmetrica in quanto l’ossigeno è più elettronegativo del carbonio. La rappresentazione in colore di questa densità elettronica (rosso negativo, blu positivo) ci dice che si formano due dipoli elettrici, che tuttavia si annullano a vicenda essendo posizionati a 180°. Se vogliamo spingerci ancora all’interno di questa struttura, scopriamo che su i due ossigeni si crea una carica frazionaria (in unità elettroniche) di -0,29, mentre di +0,58 sul carbonio. Nell’insieme la molecola risulterà quindi neutra e apolare. Questo gas di straordinaria importanza per la nostra vita sulla Terra ha accompagnato in realtà tutta quanta l’evoluzione dell’atmosfera terrestre dalla nascita del nostro pianeta, avvenuta 4,5 miliardi di anni fa. Per almeno un miliardo di anni dalla sua nascita la Terra ha posseduto un’atmosfera costituita essenzialmente da azoto (N2) e anidride carbonica, non vi era ossigeno (O2) in quanto dovevano ancora formarsi i primi organismi con proprietà di fotosintesi (cianobatteri o alghe azzurre). L’ambiente terrestre era molto diverso da come lo possiamo osservare oggi: il magma caldissimo spesso risaliva in superficie ini-
14
La strega perfetta
Figura 1.1. Nuvola elettronica e densità di carica attorno alla molecola di CO2. Le tonalità di colore dal rosso al blu indicano il passaggio da densità di carica negativa a positiva.
ziando a formare la prima crosta terrestre, i primi oceani si aggregavano costituiti dall’acqua in gran parte proveniente dallo spazio attraverso il cosiddetto “intenso bombardamento tardivo” avvenuto durante i primi 100-200 milioni di anni. Si trattava di fasci di comete e meteoriti formati da ghiaccio e particelle rocciose provenienti dalla fascia più esterna del sistema solare (fascia di Kuiper), che venivano letteralmente scaraventati sulla Terra per un effetto sinergico dei campi gravitazionali dei due giganti gassosi (Giove e Saturno). La temperatura dei primi oceani era molto alta (80 – 90°C) con conseguente formazione di dense nubi di vapore acqueo. L’ossigeno non era ancora comparso, pertanto l’atmosfera risultava fortemente riducente (in grado di cedere elettroni), permettendo così la formazione di innumerevoli composti organici sia negli oceani sia nell’atmosfera senza alcuna interferenza ossidativa (ossidazione: sottrarre elettroni) da parte dell’ossigeno stesso. Si formarono pertanto molecole che oggi sarebbero altamente tossiche e incompatibili con la vita come l’acido cianidrico o l’idrogeno solforato, ma che a quei tempi costituirono le prime molecole pre-biotiche. A quei tempi era però opportuno che si fosse in quelle condizioni, in quanto proprio i primi composti organici diedero in questo modo origine ai “mattoni della vita”: con ogni probabilità si formarono adenina, timina e le altre basi azotate che costituiscono ora il codice genetico conservato nel DNA ed RNA. L’elevata temperatura degli oceani permetteva il formarsi di quantità di nuvole che innescavano intensi fenomeni temporaleschi, con scariche elettriche molto intense. In laboratorio fin dai primi anni ’60 del secolo scorso si riuscì a ottenere in condizioni simili
1. La strega si presenta15
(ma simulate in recipienti di vetro ed elettrodi) la formazione di alcuni amminoacidi, costituenti fondamentali di tutte le proteine. Ma veniamo alla nostra grande accusata. Nell’evoluzione dell’atmosfera terrestre circa 3,5 miliardi di anni fa la natura riuscì a produrre la clorofilla, molecola complessa contenente un atomo di magnesio al centro di un complesso anello di atomi di carbonio e azoto, con alcune appendici molecolari che servono a posizionare questo pigmento negli appositi organelli cellulari (cloroplasti) deputati appunto alla fotosintesi clorofilliana, con conseguente immissione nel sistema di una nuova sconvolgente molecola: l’ossigeno! Da lì in avanti, con gradualità, la CO2 lasciò il posto all’ossigeno nell’atmosfera che divenne ossidante, permettendo poi la vita al regno animale, che utilizza appunto l’ossigeno per il metabolismo (respirazione). Un’interessante conferma di questo eccezionale cambiamento nella composizione atmosferica, di certo il più sconvolgente di tutta la storia terrestre, è il passaggio di colore delle rocce sedimentarie contenenti ferro, che nell’atmosfera primordiale era bivalente (Fe2+) di colore giallo chiaro per poi passare a trivalente (Fe3+) color ruggine con l’atmosfera ossidante. Esaminando la stratigrafia dei sedimenti si nota con facilità questo cambiamento di colore. Questo processo fu tutt’altro che immediato, richiese parecchie centinaia di milioni di anni. Non tutto il carbonio presente inizialmente nella CO2 atmosferica fu trasformato in composti organici, una buona parte di esso si sciolse negli oceani primordiali, mano a mano che la temperatura si abbassava, formando acido carbonico ma anche carbonato di calcio o di magnesio, sali poco solubili che diedero origine alle rocce calcaree o dolomitiche che ancor oggi osserviamo. Ecco che, una volta conclusasi questa trasformazione, circa 2,6 miliardi di anni fa, pur con oscillazioni marcate nelle varie ere geologiche, la CO2 assunse un valore in lenta diminuzione nel tempo fino ad arrivare ai livelli di circa 180 ppm al culmine dell’ultima era glaciale (minimo assoluto in tutta la storia della Terra), dopodiché si ebbero fasi di lenta risalita fino ad arrivare a circa 280 ppm, alle soglie dell’era industriale, attorno al 1750.
16
La strega perfetta
Evidentemente su scala geologica molteplici fattori determinarono la concentrazione di questo gas, ma sicuramente si sovrapposero al cosiddetto ciclo breve del carbonio, che permane tutt’oggi, come in passato. Si tratta di una periodicità di circa 4-10 anni (la durata dipende dal tipo di organismo fotosintetico, è più breve per quelli unicellulari e più lunga per le piante con tronco). Essa rientra nei cicli naturali di una serie di elementi chimici, ben nota a chi studia la “chimica dell’atmosfera”. In altri termini l’atmosfera è un continuo ricambio di composti ed elementi chimici, senza che noi lo percepiamo direttamente: un sistema in continua circolazione dinamica. Assieme al carbonio, lo zolfo, il fosforo, il sodio, il potassio, l’azoto (solo per citare i principali) partecipano a spostamenti ciclici tra suolo, acque superficiali, oceani e, per alcuni di questi, atmosfera. Questi sistemi sono altamente dinamici, anche se spesso non ci accorgiamo di questo quando la concentrazione di questi elementi è costante nel tempo. Questo indica che in un certo “serbatoio” (ad esempio l’atmosfera) il flusso in ingresso e quello in uscita per un certo elemento sono identici. Il carbonio viene catturato dalle piante verdi e dal fitoplankton: in termini più scientifici la fotosintesi riesce, attraverso l’energia radiante del Sole, a spezzare un legame molto stabile, quello tra idrogeno e ossigeno nella molecola d’acqua, dopodiché, attraverso complessi meccanismi cellulari, l’idrogeno riduce la CO2, ovvero si combina con il carbonio formando composti organici (biomassa). L’ossigeno dell’acqua entra nella costituzione della stessa biomassa, mentre quello nella molecola della CO2 viene eliminato nell’atmosfera come prodotto di “scarto”. Possiamo quindi rappresentare genericamente la fotosintesi con la stechiometria: n·CO2 + n·H2O → (hν) → (CH2O)n + n·O2(gas) dove (CH2O)n è una approssimazione chimica per la composizione della biomassa vegetale. Come si vede la fotosintesi assorbe CO2 e produce O2. hν rappresenta l’energia del quanto di radiazione visibile che
1. La strega si presenta17
sta alla base della reazione (h è la costante di Planck e ν la frequenza della radiazione). Questa reazione che assorbe CO2 e produce ossigeno è bilanciata in maniera quasi perfetta (si vedrà più avanti in che misura) dalla reazione inversa che avviene durante la respirazione animale (compresa quella umana), vegetale (durante la notte) e soprattutto dall’ossidazione microbica e dal decadimento delle biomasse morte. (CH2O)n + n·O2(gas) → n·CO2 + n·H2O Alla fine il serbatoio atmosferico rimane inalterato, sia per l’ossigeno che per la CO2, ma attenzione: soltanto per il ciclo breve. Altri cicli con periodicità molto più lunga possono influenzare in maniera molto più massiccia e su scale di tempi molto più lunghe questi serbatoi. Fino a qui abbiamo delineato il ciclo breve di due importanti elementi, come l’ossigeno e il carbonio. In assenza di perturbazioni esterne, cosa che nell’ecosistema Terra è praticamente impossibile da realizzare, i flussi in ingresso e in uscita si bilancerebbero e non vedremmo variazioni di concentrazione in atmosfera. Ma non è così, essi sono perturbati da variabili esterne al sistema, una su tutte: la combustione di enormi quantità di combustibili fossili (per dare un esempio nel 2018 si sono consumati 93 milioni di barili di greggio al giorno per fini essenzialmente energetici. Un fiume vero e proprio se pensiamo che 1 barile equivale a 159 litri, quindi la cifra globale potrebbe colpire molto. I dati sul petrolio non solo sono elevatissimi ma, nonostante gli sforzi per introdurre nel sistema l’utilizzo di energie rinnovabili, in continua crescita di anno in anno. 1.2. L’accusata si difende
Ora che siamo entrati nella logica dei cicli naturali degli elementi guardiamoci intorno per trovarne altri. In realtà quasi ogni elemento della tavola periodica presenta variazioni cicliche della sua
18
La strega perfetta
quantità contenute nei vari serbatoi (o stocks in inglese) presenti sul nostro pianeta. Il principale di questi stock è certo l’atmosfera. Con la circolazione meteorologica essa mostra concentrazioni pressoché omogenee dei vari gas di cui è composta (anche se per la CO2 ci sono piccole ma importanti variazioni locali, come si vedrà in seguito). Altri stock sono ad es. i depositi sedimentari sul fondo degli oceani, le acque oceaniche salmastre, le acque dolci dei laghi e fiumi, determinate formazioni geologiche o al limite la stessa crosta terrestre nel suo insieme. Se trascuriamo l’arrivo di meteoriti e micrometeoriti (qualche migliaio di tonnellate/anno, poca cosa rispetto alla massa totale del nostro pianeta) la Terra è un sistema chiuso, nel senso che non avviene scambio di materia con l’esterno (lo spazio infinito) ma solo di energia radiante (cfr. il Glossario, G). Se non vi fosse nemmeno scambio di energia allora il sistema, in termini fisici, si chiamerebbe “isolato”. Ma non è così. I vari elementi della tavola periodica passano da un contenitore all’altro spinti dall’attività dell’uomo (detta anche antropica) o da cause del tutto naturali. Parlando molto in generale si devono distinguere diverse modalità: molti elementi “tecnologici” come ferro, alluminio, magnesio e tanti altri, sono conservati in giacimenti concentratisi per via di fenomeni avvenuti in lontane ere geologiche. L’attività antropica non fa altro che utilizzare il deposito ad alta concentrazione e disperdere l’elemento o i suoi manufatti su tutta la superficie terrestre, quindi a bassa concentrazione. Detto in termini un pochino più scientifici aumenta l’entropia del sistema (Glossario), rendendolo più stabile. Per i metalli nobili si utilizza un processo inverso: spesso un giacimento a bassa concentrazione viene utilizzato per ricavarne il metallo in forma massiva (es. oro, argento) cercando di limitarne al massimo la dispersione nell’ambiente. Questo richiede un certo dispendio di energia, perché l’entropia diminuisce (come insegna la termodinamica). Esiste infine una terza modalità valida per alcuni elementi che partecipano a cicli biologici, in primis il carbonio, elemento base
1. La strega si presenta19
per tutta la chimica organica e la biochimica. Ma non solo: zolfo, potassio, fosforo, sodio, ossigeno e altri elementi meno importanti sono attori di questi cicli. Questo reca prevalentemente beneficio agli esseri umani, ma non sempre, un semplice esempio: l’azoto (N), il quale, come molecola, è la più abbondante (78% in volume) dell’atmosfera terrestre. Si tratta di un gas abbastanza inerte (poco reattivo chimicamente), infatti la molecola N2 è biatomica con un legame interatomico particolarmente forte (triplo legame). Tuttavia l’azoto come elemento è un componente essenziale della biosfera, partecipa alla formazione degli amminoacidi e di altre importantissime molecole biologiche. L’atmosfera è quindi il principale serbatoio per la formazione di composti biologici, tuttavia la conversione dall’azoto atmosferico è particolarmente difficile (fissazione dell’azoto). Nell’ecosistema questo avviene mediante particolari batteri che vivono in simbiosi con le radici di alcune piante (es. leguminose) i quali riescono a ridurre l’azoto ad ammoniaca (NH3). Questo composto può venire assorbito dalla pianta ospite o ossidato in condizioni aerobiche (presenza di ossigeno) a ione nitrato (NO3-). Quest’ultimo viene assimilato molto facilmente dalle radici delle piante, trasformato quindi in composti organici vari. Per decomposizione del materiale organico vegetale, a seconda delle condizioni, si può riformare N2 atmosferico o ione nitrato. Lo ione nitrato viene comunque infine trasformato, in condizioni anaerobiche (carenza di ossigeno), dai batteri denitrificatori in N2 atmosferico e quindi il ciclo si completa. Questi vari cicli combinati hanno determinato sulla Terra come su altri pianeti una evoluzione dell’atmosfera che infine ha portato alle condizioni attuali. Per renderci conto dell’importanza dei fattori all’origine di ciò, confrontiamo l’evoluzione dell’atmosfera terrestre con quella di uno dei pianeti adiacenti, ad esempio Venere (più vicino al Sole della Terra). Presumibilmente tutte e due i pianeti si formarono con simili ingredienti di partenza, ma le composizioni delle atmosfere attuali non potrebbero essere più distanti. A causa del maggiore irraggiamento solare la temperatura superficiale di Venere non permise mai la formazione di acqua liquida in oceani, che
20
La strega perfetta
potessero assorbire la CO2. Questa rimase quindi nell’atmosfera fino ai giorni nostri con valori elevati di pressione (circa 100 atm) e percentuale (96%, il resto essendo azoto). Non possedendo Venere un campo magnetico come la Terra, il vento solare (particelle cariche ad alta energia) non viene deviato e bombarda la superficie. Assieme all’intensa radiazione ultravioletta (UV) questi due effetti provocarono la decomposizione nel tempo dell’acqua vapore in idrogeno, che per la sua bassa massa riesce a fuggire dal campo gravitazionale del pianeta. L’ossigeno rimasto ossida il carbonio e gli altri elementi della superficie. Come risultato finale l’acqua è veramente minima (su Venere) e concentrata in imponenti formazioni nuvolose che coprono l’intero pianeta a circa 50 km dalla superficie. La temperatura superficiale risultato di tutto ciò è attorno ai 400°C, rendendo il pianeta del tutto inospitale per ogni forma di vita. Quindi, riassumendo, la nostra accusata si difende indicando una serie di elementi che partecipano come Lei da miliardi di anni a cicli terrestri senza incidere minimamente sul clima del pianeta. Un breve riassunto: 1. la CO2 accompagna l’atmosfera terrestre in tutta la sua storia di 4,5 miliardi di anni; 2. con l’avvento della fotosintesi, circa 3,5 miliardi di anni or sono, essa è diventata l’unica sorgente dell’elemento carbonio, importantissimo in biochimica, per gli organismi vegetali; 3. come conseguenza le piante verdi emettono l’ossigeno nell’atmosfera; 4. il carbonio, come l’azoto e altri elementi, viene continuamente immesso nell’atmosfera e assorbito da essa mediante svariati processi, instaurando un ciclo continuo, il cui bilanciamento può variare nel tempo.
Capitolo 2
Il viaggio dell’energia radiante
2.1. Il lungo viaggio dell’energia: dal nucleo del Sole al confine dell’atmosfera
Tutta l’energia prodotta nel sistema solare si origina in una zona estremamente calda all’interno del Sole: il nucleo solare. Esso si trova al centro della stella e ha un raggio pari al 20% circa del raggio solare. Esso è costituito da idrogeno ed elio ad altissime temperature. Nel suo interno la fusione dei nuclei di idrogeno (quindi protoni 1H) provoca lo sviluppo di enormi quantità di energia portando la temperatura del nucleo a circa 15 milioni di gradi. All’origine di tutta questa energia ci sono reazioni di fusione nucleare che avvengono tra protoni, in quanto a quelle temperature l’atomo di idrogeno è dissociato in protoni ed elettroni liberi, che formano il cosiddetto plasma. 1. 2. 3.
1
H + 1H → 2D + e+ + neutrino D + 1H → 3He + raggio gamma 3 He + 3He → 4He + 1H + 1H 2
I due protoni (1H) generati dall’ultima reazione rientrano in ciclo con la prima quindi riforniscono di combustibile il ciclo, per cui la reazione complessivamente produce raggi gamma (radiazione elettromagnetica a lunghezze d’onda cortissime, quindi molto energetica) e neutrini, particelle che arrivano direttamente anche sulla nostra Terra, in quanto non interagiscono, se non minima-
22
La strega perfetta
mente, con la materia ma che trasportano una quantità infinitesima di energia. Esercitiamoci con il primo schema a blocchi, altri ne incontreremo nel corso del libro. Gli schemi a blocchi ci aiutano anche graficamente a ragionare su situazioni in cui esistono interazioni complesse tra entità che la nostra mente o le condizioni fisiche ci permettono di identificare come blocchi. Vediamo con uno schema a blocchi come l’energia si trasferisce dal nucleo alla fotosfera (superficie solare) da cui poi viene irradiata nello spazio raggiungendo, in piccola parte, anche la superficie terrestre. Per semplificare ulteriormente immaginiamo che tutta la fotosfera sia racchiusa in un enorme specchio che riflette tutta l’energia radiante proveniente dal nucleo. Se immaginiamo di creare 6 blocchi, lo schema che ne deriva è il seguente, figura 2.1. Il nucleo solare ha una temperatura T1 pari a 15 milioni di gradi e irradia, come già detto, al primo strato attraverso l’emissione di raggi-gamma. Si vedrà più avanti che le radiazioni con questa piccolissima lunghezza d’onda corrispondono, per via della legge di Planck, a tali altissime temperature. Il primo strato si porta quindi all’equilibrio alla stessa T1, irradiando quindi sia verso il secondo che verso il nucleo. Il ciclo procede per tutti gli strati, in quanto ognuno di essi irradia al precedente e al seguente con la stessa intensità. L’ultimo strato irradierebbe verso lo spazio, ma essendovi uno specchio l’energia irradiata viene retro-riflessa,
Schema a blocchi del trasferimento radiante tra il nucleo solare e la fotosfera con retro-riflessione completa.
Figura 2.1.
2. Il viaggio dell’energia radiante23
Schema a blocchi del trasferimento radiante tra il nucleo solare e la fotosfera con emissione da essa verso lo spazio infinito (nuvoletta).
Figura 2.2.
come indicato. Quindi all’equilibrio tutti gli strati possiedono la stessa temperatura T1. Immaginiamo ora di rimuovere lo specchio: a questo punto l’ultimo strato (fotosfera) irradia verso lo spazio infinito senza alcun ritorno di radiazione, come in figura 2.2. Il simbolo della nuvoletta nella dinamica dei sistemi indica lo spazio aperto, una specie di contenitore infinito in grado di accogliere energia e materia senza limiti. Partiamo dall’ultimo blocco a destra nella figura (fotosfera solare), esso irradia verso lo spazio ma a questo punto nulla rientra, quindi la sua energia interna diminuisce e di conseguenza si raffredda (alla temperatura Tn). Irradierà quindi anche meno energia verso lo strato immediatamente più interno, si noti infatti che la freccia verso sinistra è più corta. La minore energia irradiata farà si che anche la sua temperatura diminuisca, diciamo a T6, innescando un feedback negativo anche per gli strati retrostanti (verso sinistra). Il risultato finale sarà uno stato di equilibrio stazionario, in cui i flussi di energia rimangono costanti nel tempo, ma ogni strato si troverà a una temperatura minore di quello più interno. In altre parole: Tn < T6 < T5 < T4 < T3 < T2 < T1 Irraggiamento e temperatura sono infatti collegati da una legge fenomenologica (legge di Planck, spiegata nel Glossario) che ve-
24
La strega perfetta
dremo tra breve, per ora ci basti sapere che questi due parametri si muovono nella stessa direzione (aumentano o diminuiscono in parallelo). Nella realtà gli strati sono molti di più di quelli schematizzati, ma il risultato è concettualmente lo stesso. La fotosfera si trova a circa 6000K (Tn) mentre il nucleo rimane a 15.000.000 K (T1). Chi volesse chiarire il significato di grado Kelvin o K veda il Glossario (G). Le dimensioni solari sono tali per cui l’energia irradiata dal nucleo impiega 10 milioni di anni per raggiungere la superficie: per assurda ipotesi se il nucleo smettesse di funzionare ce ne accorgeremmo dopo 10 milioni di anni! Contemporaneamente alla rimozione dell’ipotetico specchio si origina anche un flusso di materia, particolarmente negli strati più esterni. È un secondo modo per trasferire energia termica (oltre all’irraggiamento): la convezione. Essa si instaura quando abbiamo un fluido a diverse temperature in un contenitore, che si muove tra zone a diverse temperature trasportando con sé energia termica. Masse di gas caldi (in realtà gas fortemente ionizzati, noti come plasmi) costituite da “materia primordiale” (cioè una miscela di 75% di idrogeno e 25% di elio che costituiva la massa originaria del nostro universo ai suoi albori) si spostano da un blocco all’altro. Gas più caldi arrivano nel blocco più esterno da cui contemporaneamente provengono quelli più freddi. Il trasferimento di materia tra blocchi viene, nel contesto di questo libro, indicato da frecce ricurve. Esso contribuisce notevolmente al bilancio termico complessivo degli strati più esterni. Nel capitolo 13 si ritornerà a parlare di questi gas ionizzati in movimento e degli effetti magnetici che essi stessi creano con il loro movimento convettivo (dinamo solare). 2.2. Dal confine dell’atmosfera alla superficie
La legge di Planck (G) ci aiuta a prevedere a quale lunghezza d’onda avviene l’irraggiamento solare in funzione di una sola variabile:
2. Il viaggio dell’energia radiante25
Tabella 2.1.
d’onda (λ).
Suddivisione delle radiazioni elettromagnetiche in base alla lunghezza
Nome
Specifico
Lunghezza d’onda 1 nm = 0,001 μm
Energia (eV) del fotone
Note relative allo spettro di emissione solare
Raggi gamma
-
< 0,01nm
> 124 keV
Raggi-X
-
0,01 – 10 nm
124 keV – 124 eV
-
10 – 400 nm
124 eV – 3,3 eV
UV-C
100 – 280 nm
Completamente assorbito dallo strato di ozono (SdO)
UV-B
280 – 315 nm
Prevalentemente assorbito dallo SdO
UV-A
315 – 400 nm
Non assorbito dallo SdO, soft UV
-
400 – 700 nm
Rappresenta la parte predominante dell’emissione
Ultravioletto
Visibile
IR-A (vicino) 0,75 – 1,4 μm IR-B (shortwave)
1,4 – 3 μm
IR-C (longwave)
3 - 15 μm
F-IR (lontano)
15 - 1000 μm
Microonde
-
1mm – 1 metro
Onde radio
-
1 metro – 1000 km
Infrarosso
3,3 – 1,7 eV 1,7 eV – 1,24 meV
Nel nostro testo come IR vicino si intende la coda dello spettro di emissione solare, da 0,70 a 3 μm
26
La strega perfetta
la temperatura della fotosfera. In questo libro esprimeremo le lunghezze d’onda della radiazione elettromagnetica in micrometri (o micron), millesimi di millimetro, rappresentati dal simbolo μm, oppure in nanometri, nm, 10-9 metri (G). A seconda della lunghezza d’onda le radiazioni elettromagnetiche coprono intervalli e tipologie molto ampie, tabella 2.1. La figura 2.3 mostra lo spettro della radiazione solare che arriva all’esterno della superficie terrestre in giallo. La curva di emissività di Planck più vicina alle misure sperimentali (ossia che interpola meglio lo spettro misurato alla sommità dell’atmosfera) corrisponde a una temperatura di 5778 K. In realtà la temperatura solare è leggermente più alta, ma alcuni assorbimenti avvengono già nella corona che circonda il Sole. La radiazione che invece ha attraversato tutta l’atmosfera ed è arrivata sulla superficie terrestre è in rosso. Sembra si sia verificata un’erosione; in realtà sono successi 3 fenomeni distinti, iniziamo a nominarli in sequenza: 1. albedo, 2. scattering di Rayleigh, 3. assorbimenti molecolari. Circa il 30% della radiazione incidente viene riflessa nello spazio, prendendo, questo fenomeno, il nome di albedo (dal latino biancore). Sono in primis le formazioni nuvolose che riflettono la radiazione solare verso l’esterno. Oltre a ciò abbiamo il fenomeno della dispersione (scattering in inglese) studiato dal fisico
Figura 2.3. Spettro della radiazione solare all’esterno dell’atmosfera (giallo) e sulla superficie terrestre (rosso), da https:// commons.wikimedia.org/wiki/File:Solar_spectrum_en. svg, con modifiche.
2. Il viaggio dell’energia radiante27
Lord J. Rayleigh. Esso riguarda i principali costituenti dell’aria, azoto e ossigeno: gli elettroni di queste molecole se eccitati da una radiazione elettromagnetica si polarizzano e possono riemettere un fotone della stessa lunghezza d’onda in una direzione casuale. Questo fenomeno non riguarda particolari assorbimenti quantistici di queste due molecole, ma semplicemente il fatto che esse sono costituite da elettroni in continuo movimento attorno ai nuclei dei loro atomi. Questo fenomeno è quindi comune a ogni tipo di molecola ma varia inversamente alla quarta potenza della lunghezza d’onda. Ecco perché, come si nota dalla figura 2.3, esso è molto più marcato per la radiazione blu, violetta e soprattutto UV (per inciso questo effetto spiega il colore blu diffuso del cielo visto dalla superficie terrestre). Dall’esame della stessa figura si nota infatti un elevato assorbimento da parte dell’atmosfera tra 0,25 e 0,40 μm. Ma veniamo ora al riscaldamento diretto dell’atmosfera da parte del Sole: l’assorbimento molecolare. Iniziamo dalla ozonosfera, uno strato dell’atmosfera che si situa a circa 25 km dalla Terra dove si ha formazione di ozono, una molecola costituita da 3 atomi di ossigeno (O3), invece dei comuni 2 che si hanno nella molecola O2.Questa molecola si forma proprio perché i raggi UV trasportano parecchia energia, sufficiente a spezzare il legame O=O. I due atomi di ossigeno che si formano si uniscono a due molecole O2 formando quindi O3. Ecco un esempio di retroazione negativa. Le molecole di O3 prodotte assorbono nell’UV e schermano gli strati più bassi da queste radiazioni, quindi anche sulla superficie terrestre. Diversa origine ha l’ozono nella bassa atmosfera, in quanto si origina da inquinanti come gli ossidi di azoto NOx o idrocarburi incombusti, con l’ausilio della radiazione solare. Gran parte della radiazione UV viene assorbita dall’ozonosfera (che fa parte della stratosfera), e questo è positivo perché evita l’arrivo sulla superficie di radiazioni potenzialmente pericolose. In questo caso, però, il riscaldamento è limitato all’ozonosfera stessa e ha una minima importanza per il clima della sottostante troposfera in cui viviamo.
28
La strega perfetta
Il visibile da 0,40 a 0,70 μm non ha praticamente assorbimenti di tipo molecolare. La coda della curva di emissione, da 0,70 fino a 2,50 μm contiene ancora circa metà dell’irradianza solare ed ecco che qui avvengono importanti fenomeni di assorbimento da parte dell’H2Ovap. Non esistono altre molecole con assorbimenti, tranne un sottile picco per l’ossigeno a circa 0,75 e un minuto picco per la CO2 dopo 2,00 μm. Visivamente si nota l’importanza di questi assorbimenti dalla loro area, ma non solo: il vapor acqueo è presente nella parte bassa della stratosfera, fino a 5 km circa, dopodiché si ha condensazione e formazioni di nubi. È quindi nella bassa troposfera che avviene il riscaldamento diretto, senza intermediari, dell’aria da parte della componente infrarossa (IR) della radiazione solare. In tutta questa panoramica abbiamo forse dimenticato un attore importante: le nubi. Come il lettore attento avrà notato accanto alla formula dell’acqua aggiungiamo sempre la notazione “vap” o “liq” per indicarne con chiarezza il suo stato fisico di aggregazione, in quanto il comportamento è molto diverso. H2Ovap è una molecola isolata e come tale assorbe energia solo quando essa può eccitare livelli energetici della molecola stessa (vibrazionali, rotazionali) e poi diseccitarsi riemettendo questa energia, come vedremo dopo. H2Oliq possiede anche e soprattutto le caratteristiche di una particella di piccole dimensioni sospesa in un gas (aerosol). Ad esempio può deviare il percorso di un raggio di luce solare e può comportarsi come corpo nero di Planck, cioè emettere radiazione secondo uno spettro molto più ampio della molecola isolata. Quindi la copertura nuvolosa aumenta la radiazione solare riflessa indietro durante il cammino attraverso la troposfera. Da una parte le minuscole goccioline d’acqua deviano infatti il cammino di un raggio di luce, secondo il principio della rifrazione. Questo succede sia quando il raggio entra nella gocciolina che quando esce. Ma se l’angolo di uscita è superiore a un certo valore, detto angolo limite di rifrazione, allora si ha la riflessione del raggio di luce e il suo cammino può essere cambiato a tal pun-
2. Il viaggio dell’energia radiante29
to da ritornare parzialmente indietro, verso lo spazio, o da essere intrappolato nella gocciolina. Dall’altra, avendo dimensioni di qualche μm quindi molto maggiori della lunghezza d’onda anche dell’IR, le goccioline possono emettere verso lo spazio radiazione IR. Questi due fattori, come vedremo, hanno un’importanza drammatica sull’albedo del pianeta Terra. Ricordiamo infatti che anche una sua piccola variazione, minore dell’1%, modifica radicalmente l’apporto energetico sul pianeta. Bene, è stata fatta una breve carrellata su come lo spettro solare arrivi fino a noi sulla superficie e quali siano le sue perdite energetiche e le sue riflessioni mentre attraversa l’atmosfera… forse abbiamo dimenticato qualcosa? Certamente! La strega! Non compare mai, non è che un minimo, debole picco a circa 2,00 μm. Inesistente. In tutto questo complesso di assorbimenti atmosferici intervengono il vapore acqueo, le nubi, in piccola parte l’ossigeno e poi l’ozono, ma a 25 km dal suolo ci interessa poco. La commedia viene recitata da attori ben noti e la nostra molecola non è nemmeno una comparsa, al massimo uno spettatore, magari in prima fila ma sempre uno spettatore. Così, tanto per iniziare, la strega si difende! Un’ultima considerazione che ci accompagnerà per tutto il libro. Uno schema complesso di trasferimento energetico come quello delineato implica di solito delle retroazioni, dette anche dall’inglese feedback. Esse possono essere sia positive che negative. In sistemi complessi di interazioni come la superficie e l’atmosfera queste retroazioni rappresentano più la regola che l’eccezione. Per stimolare la curiosità del lettore a questo proposito, proviamo ad esemplificarne due, una positiva e l’altra negativa. Un aumento di temperatura provoca una maggiore evaporazione dagli oceani e quindi una maggior concentrazione di vapore acqueo che assorbe nell’IR vicino, come abbiamo visto, per cui l’atmosfera si riscalda e così via (feedback positivo). Se questo fenomeno porta ad un aumento di temperatura superiore all’input iniziale si parla anche di amplificazione. D’altra parte una maggior
30
La strega perfetta
umidità atmosferica genera anche una maggior copertura nuvolosa, quindi una lieve diminuzione dell’albedo e anche quindi della radiazione solare con un feedback negativo. Riassumendo brevemente: 1. tutta l’energia nel sistema solare viene prodotta dal nucleo del Sole mediante reazioni di fusione nucleare dell’idrogeno; 2. questa energia arriva dopo milioni di anni sulla superficie solare (fotosfera) che si trova a circa 6000 K; 3. la fotosfera irradia verso lo spazio enormi quantità di energia radiante, con lunghezze d’onda spiegabili dalla legge di Planck. Una piccola parte di questo flusso energetico raggiunge la Terra, dove una parte di esso viene riflesso verso lo spazio dall’albedo terrestre (circa il 30%); 4. la parte non riflessa attraversa l’atmosfera riscaldandola, in quanto già in questo tragitto si verificano i primi importanti assorbimenti, da parte del vapore acqueo e dell’ozono, oltre alla dispersione per effetto Rayleigh; 5. infine la radiazione che riesce ad arrivare sulla superficie terrestre la riscalda fino a una certa temperatura. In tutto questo cammino e nei suoi differenti assorbimenti di radiazione non compare la nostra strega CO2.
Capitolo 3
L’effetto serra
3.1. L’effetto serra classico ovvero “la serra del giardiniere”
Tutti gli esseri viventi, piante di pomodori comprese, sicuramente possono aver sperimentato l’effetto serra (d’ora in poi ES) quando, dietro a un vetro, illuminati dalla radiazione solare, percepiamo una forte sensazione di riscaldamento. Questo fatto è innanzi tutto dovuto alla quasi assenza dei moti convettivi perché siamo in un ambiente relativamente piccolo e chiuso, senza circolazione di aria. Inoltre, circa il 90% della radiazione solare incidente attraversa i vetri della serra/finestra permettendo così al calore solare di entrare sotto forma di energia radiante (ovvero onde elettromagnetiche) e riscaldare la superficie delle foglie e il terreno dentro la serra o gli oggetti dentro una stanza. A loro volta queste superfici, in quanto calde, emettono una radiazione di lunghezza d’onda molto diversa da quella ricevuta dal Sole, per la precisione spostata nell’infrarosso da 4 a 100 μm, ma a queste lunghezze d’onda il vetro è opaco. Il motivo della riemissione come infrarosso (d’ora in poi IR) è da ricercare nella relazione tra temperatura di un corpo e lunghezza d’onda del massimo di emissione. Questo viene spiegato dalla legge dello spostamento o di Wien, derivabile dalla equazione di Planck (cfr. Glossario), la quale afferma che il prodotto fra la temperatura di un corpo (espressa in Kelvin) e la relativa lunghezza d’onda emessa dal massimo della curva (espressa in μm) è una costante: λ(max) ·T(Kelvin) = 2897,8
32
non ho corretto casi simili, non essendo sicuro: è corretta la parentesi unita alla lettera λ?
La strega perfetta
Se T = 300 K (ovvero 27°C) si ottiene λ(max) = 9,7 μm quindi siamo in pieno IR, mentre se T = 6000 K (temperatura della superficie solare) si ottiene λ(max) = 0,5 μm. Un altro paragone spesso utilizzato per divulgare l’ES è il seguente: immaginate di entrare in un’auto che sia rimasta al Sole estivo per qualche ora. Tutti abbiamo presente le temperature che si possono raggiungere, talmente alte che in certi casi possono sfiorare i 90°C, ponendo problemi per i materiali che i costruttori utilizzano per l’abitacolo. Il principio è esattamente lo stesso: il flusso energetico che entra attraverso i vetri riscalda gli oggetti all’interno, che assorbono la luce visibile. Questi a loro volta riemettono la loro energia sotto forma di radiazione infrarossa, che non riesce ad uscire perché i vetri e le pareti interne dell’abitacolo la bloccano. La maggior parte di essa viene riflessa indietro anche se una parte è assorbita dal vetro, che quindi si riscalda. Ora sappiamo che il calore, così ci insegnarono nelle scuole, si trasmette in tre modi: conduzione, convezione e irraggiamento. Bene nell’auto sotto il Sole l’ultimo abbiamo visto che è impedito, rimangono i primi due. Ma sia la serra che l’abitacolo sono ambienti chiusi e i moti convettivi sono limitati al loro interno, al massimo possono rendere più omogenea la temperatura, ma senza cambiarne il valore medio. Per esclusione rimane il primo, la conduzione. Il calore viene così trasferito alla superficie esterna dell’auto o della serra, da cui poi riscalderà l’atmosfera circostante. Facciamo un passo avanti: immaginiamo che la nostra autovettura inizialmente a 20°C rimanga esposta al Sole per un’ora. In tutto questo tempo la temperatura interna aumenterà, dapprima velocemente ma poi sempre più lentamente, fino a raggiungere un valore di equilibrio costante. Bene, ci siamo imbattuti (e succederà spesso in questo libro) in un fenomeno di flussi stazionari di energia: tanta energia entra nell’abitacolo, tanta ne esce. Il flusso della radiazione IR emessa dall’abitacolo non riesce, se non in minima parte, ad attraversare i vetri, che nell’IR sono opachi, quindi riscalda le pareti del contenitore (carrozzeria e vetri) il quale per
3. L’effetto serra33
conduzione disperderà il calore principalmente scaldando l’aria circostante. 3.2. Ma cos’è l’assorbimento molecolare?
Facciamo un passo indietro: perché una molecola assorbe energia radiante, sotto forma di quanti di radiazione? Il panorama è diverso a seconda dell’energia di questi quanti (fotoni) che è direttamente proporzionale alla frequenza secondo la legge di Planck E = h·ν, dove ν è la frequenza in hertz e h è la costante di Planck. Possiamo riassumere i tre casi principali: 1. l’energia del fotone è alta, la frequenza cade nell’UV, per cui può spezzare alcuni legami chimici, come il doppio legame O=O nella molecola O2. L’energia del quanto di radiazione può essere infatti pari o superiore a quella di alcuni legami chimici; 2. l’energia del fotone è media, diciamo visibile e vicino IR. Vengono eccitati moti vibrazionali all’interno della molecola, di modo che alcuni legami chimici oscillano attorno alle loro posizioni di equilibrio. Si dice anche che alcune bande di frequenza vengono assorbite dalle molecole dei gas costituenti l’atmosfera, mentre altre bande giungono inalterate fino a noi, residenti sulla crosta terrestre. Cosa si nasconde dietro al termine “assorbite”? Comprendere questo fenomeno è rilevante per capire “il riscaldamento globale” e muoversi più agevolmente fra le pagine di questo libro. Si immagini una molecola semplice ad esempio ossigeno O2 o azoto N2, formata quindi da due soli atomi legati fra loro da un legame chimico, che può essere immaginato come una molla che unisce il centro delle due sferette: gli atomi, ad esempio, di azoto/ossigeno. Se il legame è forte la molla è corta e robusta, al contrario se il legame è debole. Come tutte le molle anche questa, se opportunamente sollecitata,
34
La strega perfetta
vibra o se si preferisce oscilla. Il modello che i chimici utilizzano per lo studio di molecole semplici, bi-tri atomiche, è proprio costituito da 2-3 sferette vincolate fra loro da molle per cui questo modello si chiama “oscillatore armonico”. Un modo classico per eccitare, cioè mettere in oscillazione il sistema, consiste nell’illuminare il gas, e quindi le molecole che lo costituiscono, con un fascio di onde elettromagnetiche. Questa molla di legame ha però una peculiarità, e un po’ come succede a noi, si eccita solo se investita da una onda elettromagnetica di suo gradimento, cioè di una particolare frequenza o, se si vuole, lunghezza d’onda. Questo perché i livelli energetici di molecole e atomi non sono continui ma quantizzati. Dunque se la lunghezza d’onda incidente sulla molecola e quindi sulla sua molla (gas costituito da molecole biatomiche come l’O2) ha un ben preciso valore, questa onda viene assorbita, e la molla inizia vibrare o se si vuole a danzare in strani modi, chiamati “modi normali di vibrazione” (G). Le molle di legame sono ferme solo a zero kelvin (0 K) che equivale a -273°C, ma se eccitiamo il legame chimico, cioè la molla, con una onda di gradita frequenza o lunghezza d’onda, la molla assorbe la radiazione e inizia a danzare, vibrando e torcendosi, è come dire che il gas si sta scaldando; a relativamente alte temperature la danza è così frenetica che le molle possono arrivare a rompersi; 3. l’energia del fotone è bassa (lontano IR). Quindi la frequenza associata, più bassa, riesce a eccitare solo i moti rotazionali di tutta la molecola. Le molecole apolari (O2, N2) non possedendo un dipolo elettrico non hanno frequenze di assorbimento nel visibile o nell’infrarosso, quindi gran parte dell’atmosfera non partecipa a questi fenomeni ed è perfettamente trasparente (salvo l’effetto di scattering Rayleigh per frequenze nell’UV). L’unica molecola caratterizzata da un dipolo permanente è l’acqua, infatti l’angolo di legame H-O-H risulta essere di 105° circa, ovvero la molecola non è line-
3. L’effetto serra35
are. Questo le permette di essere attiva non solo nell’IR ma anche nel visibile! La molecola della CO2 è viceversa lineare e non presenta un dipolo elettrico complessivo in quanto i due dipoli elettrici dei legami C=O si annullano a vicenda, pur tuttavia opportuni modi vibrazionali (es. stretching asimmetrico o bending) possono generare dipoli elettrici temporanei e quindi essere attivi nell›IR. In sostanza H2O e CO2 possiedono relativamente pochi modi vibrazionali, ma questi si possono combinare con i moti rotazionali, molto più numerosi, generando quindi uno spettro di assorbimento/emissione caratterizzato da ampie bande di assorbimento, tra le quali sono interposti altrettanti ampi spazi vuoti. In sostanza queste due molecole seguono la legge emissiva di Planck solo quando ciò è reso possibile dai modi rotovibrazionali. 3.3. Le differenze tra il pianeta e una serra
In analogia con una serra, la Terra avrà un flusso di energia entrante (solare) ma essendo circondata dallo spazio vuoto non potrà disperdere la stessa energia per convezione o conduzione, e quindi dei tre meccanismi di trasferimento termico (Glossario) non rimane che l’irraggiamento, e vista la temperatura media della superficie terrestre (15°C) sarà sicuramente radiazione infrarossa (IR). Anche qui si raggiunge un equilibrio che eguaglia il flusso energetico in ingresso con quello in uscita, regolato essenzialmente dalla maggiore o minore efficacia con cui la radiazione IR attraversa in uscita l’atmosfera. Vi sono differenze sostanziali, tant’è vero che molti ritengono inappropriato il termine “ES” (greenhouse effect) e preferiscono per il pianeta il termine “ES intensificato” (enhanced greenhouse effect). Vi sono essenzialmente tre motivi: 1. esiste un intervallo di lunghezza d’onda, approssimativamente tra 8 e 14 μm, che non viene assorbito da nessuna delle prin-
36
La strega perfetta
cipali molecole dell’atmosfera (a eccezione dell’ozono, che è presente in tracce). Questa porzione di radiazione (tra 8 e 14 μm) attraversa indenne l’atmosfera e trasporta con sé più di un terzo (circa il 37%) del flusso energetico uscente, figura 3.1; 2. le rimanenti lunghezze d’onda vengono assorbite dai gas attivi nell’IR, detti anche gas serra, principalmente H2Ovap e CO2. A differenza del vetro della serra queste molecole, che rendono opaca l’atmosfera a una serie di lunghezze d’onda IR, sono mescolate in un gas (azoto e ossigeno), il quale è soggetto a moti convettivi di notevole importanza e non trascurabili, come avevamo detto prima per l’interno dell’auto o della serra. Le molecole in questione, assorbendo la radiazione IR, si trovano ora in uno stato con energia maggiore (stato eccitato); 3. le molecole in questo stato energetico eccitato sono dei piccoli sistemi quantistico-energetici isolati, i quali possono: –– trasferire immediatamente questa energia alle altre molecole dell’aria (ossigeno e azoto) oppure in alternativa; –– riemettere la radiazione con la stessa λ, ma in direzioni casuali quindi verso lo spazio esterno, verso la Terra o verso una nuova molecola di gas attivo IR, eccitandola. Si ricorda che l’atmosfera si riscalda anche per un secondo fenomeno: la superficie (terrestre e acquatica) trasferisce per conduzione una parte del calore direttamente all’atmosfera stessa, esistono quindi due motivi per non trascurare i moti convettivi dell’atmosfera. Prima di esaminare i punti 2 e 3, sicuramente intriganti, soffermiamoci un attimo su questa finestra 8-14 μm: si tratta di un canale preferenziale importantissimo, una specie di by-pass dell’energia, anche se spesso non sufficientemente considerato. Dal momento che CO2 e H2Ovap non possiedono assorbimenti in quella regione, la trasparenza è assicurata. I rivelatori infrarossi sensibili a quelle lunghezze d’onda hanno portate di chilometri, mentre vedono un’atmosfera opaca appena escono da quell’intervallo.
3. L’effetto serra37
Solo le nubi e gli aerosol assorbono e in parte disperdono quelle lunghezze d’onda. Come discuteremo più avanti gli aerosol hanno particelle dell’ordine dei micron e per essi si applica l’emissione di radiazione secondo la legge di Planck già accennata nel capitolo precedente. Me se il cielo è sereno la radiazione nella finestra 8-14 μm raggiunge direttamente lo spazio esterno senza essere intercettata delle nubi ed essere in parte retro-riflessa verso la superficie. Di questo effetto ci si accorge al mattino di una notte nuvolosa, quando la temperatura è maggiore dello stesso mattino dopo una notte serena. La parte di radiazione che fluisce attraverso questa finestra non è una parte trascurabile, come si evince dall’esame della curva di Planck per temperature tipiche della superficie terrestre come 290, 300 e 310 K (17, 27 e 37°C) cfr. figura 3.1. Tutto questo flusso non dipende assolutamente dalla quantità dei due
Spettro emissivo secondo la legge di Planck per un corpo nero a 290, 300 e 310 K. Viene indicata la finestra emissiva terrestre 8-14 μm e la sua percentuale di energia emessa.
Figura 3.1.
38
La strega perfetta
gas serra principali H2Ovap e CO2, ma solo dalla copertura nuvolosa, in particolare delle nubi basse, e degli eventuali aerosol. Ritorniamo per un attimo all’inizio del paragrafo. Esaminiamo meglio i punti 1 e 2. I due meccanismi si escludono a vicenda, un vero aut aut. Il meccanismo 1 è sicuramente preponderante, ma la piccola probabilità del 2 è assolutamente determinante per il riscaldamento dell’atmosfera. Proviamo a dare una spiegazione semplificata, rimandando all’equazione di Schwarzschild (G) per una spiegazione più scientifica. Le radiazioni IR emesse dalla Terra (a eccezione delle lunghezze d’onda 8-14 μm), che arrivano a propagarsi direttamente nello spazio interagiscono con i gas attivi IR dell’atmosfera, principalmente H2Ovap e CO2, come verrà illustrato nel capitolo 6. Le radiazioni assorbite da questi gas verranno o trasformate in moti rotazionali e vibrazionali (andando ad aumentare la velocità media molecolare e quindi la temperatura) punto1 o riemesse con la stessa lunghezza d’onda, punto 2. Nel primo caso le molecole allo stato eccitato per aver assorbito un fotone infrarosso si muoveranno più rapidamente in modo caotico (agitazione termica) aumentando la loro frequenza di collisione con relativa diseccitazione della molecola eccitata. L’energia termica liberata da questa diseccitazione viene quindi redistribuita su tutte le molecole componenti quell’elemento di volume dell’atmosfera, azoto e ossigeno e compresi. L’effetto è un aumento di temperatura distribuito tra diverse molecole, con la conseguenza di modificare anche la curva di Maxwell-Boltzmann, indice della distribuzione delle energie cinetiche in un gas. Se invece la diseccitazione avviene per un meccanismo radiante con liberazione di un fotone avente la stessa lunghezza d’onda di quello incidente, questo fotone intercettando un’altra molecola la porterà in uno stato eccitato innescando un meccanismo a catena che terminerà: 1. per diseccitazione termica; 2. per dispersione nello spazio infinito; 3. per assorbimento dalla superficie del pianeta.
3. L’effetto serra39
Ora, nessuno è in grado di prevedere esattamente come si comporterà una singola molecola di gas serra, soltanto statisticamente possiamo dare una risposta. Si può dire che quando una molecola viene eccitata è molto probabile che si disecciti trasferendo l’eccesso di energia a un fotone IR (trasferimento radiativo). Si genera quindi un processo a catena, come vediamo schematizzato in figura 3.2; supponendo che nessuna delle molecole della catena si disecciti trasferendo la sua energia al gas (atmosfera), allora il processo di trasferimento finirà in uno solo di due modi: o mediante riassorbimento sulla superficie (radiazione di ritorno o DLR, Downward Longwave Radiation) o mediante emissione verso lo spazio infinito. Nel primo caso riscalda il pianeta, nel secondo no, poiché l’energia si perde nello spazio. Ipotizziamo ora che durante il processo a catena di trasferimento radiativo una molecola “decida” (ironicamente… si tratta infatti di un fenomeno probabilistico) di diseccitarsi trasferendo la sua energia ai moti termici dell’insieme delle molecole circostanti. È un’eventualità poco probabile… ma può accadere. In questo preciso istante la catena si spezza e l’energia del quanto IR (fotone) viene trasferita come energia cinetica al gas. L’atmosfera
Figura 3.2. Emissione radiante dalla superficie terrestre e suo trasferimento attraverso le molecole di CO2.
40
La strega perfetta
quindi si riscalda sia per questo che per riscaldamento superficiale. Per effetto della sua minore densità l’aria calda sale e quindi si generano i moti termici convettivi che muovono, come sappiamo, ingenti quantità di materia gassosa e generano il profilo di temperatura sia in altitudine che in longitudine. La figura 3.2 esemplifica quanto succede per la CO2. Sui 4 casi disegnati uno conduce a irradiare nello spazio (B), due scaldano l’atmosfera (A e C) e infine uno torna indietro come radiazione IR diretta verso il basso, in inglese Downword Longwave Radiation o DLR e scalda la superficie terrestre (D). La figura 3.3 invece esemplifica la situazione per H2Ovap. Intanto si nota che la densità di molecole è maggiore. Semplici calcoli basati sull’equazione di Clausius-Clapeyron ci dicono che a 20°C, a livello del suolo e con solo il 50% di umidità relativa ci sono oggi 410 ppm CO2 contro 11000 ppm H2Ovap, circa 27 volte di più. Già questo dato indica come il vapore acqueo sia il principale attore nell’ES. E qui la strega passa al contrattacco! Complessivamente, esaminando la figura 3.3, ci sono 4 catene che terminano con un trasferimento termico (B, D, E, F), una che irradia nello spazio infinito (C) e una verso la superficie (A).
Figura 3.3. Emissione radiante dalla superficie terrestre e suo trasferimento attraverso le molecole di H2Ovap.
3. L’effetto serra
41
A complicare la situazione le molecole di un gas (ma anche di un liquido o di un solido) non possiedono tutte la stessa energia, ma essa risulta distribuita statisticamente attorno a un valore medio. Alcune molecole sono molto energetiche, cioè possiedono elevata velocità e quindi energia cinetica, altre sono molto lente e poco energetiche. Attraverso urti molecolari l’energia cinetica si trasferisce di continuo tra le molecole: nel tempo e statisticamente esse possiedono una distribuzione nota come curva di Maxwell-Boltzmann, spiegata sommariamente nel glossario (G). Potrebbe una molecola molto energetica, ovvero che si muove molto velocemente, trasformare la sua energia cinetica in un quanto di radiazione (fotone) e quindi emettere radiazione IR e poi rallentare? Se fosse emesso, questo fotone potrebbe iniziare una nuova catena di eventi di trasferimento radiativo e quindi incrementare l’emissione radiante. I modelli fenomenologici del trasferimento radiante devono tenere conto anche di questo fenomeno, anche se alle basse temperature dell’alta troposfera (attorno a -40 -50°C) la distribuzione di Maxwell-Boltzmann è prevalentemente spostata verso molecole che non avrebbero energia cinetica sufficiente a questo atto. Sono aspetti di modellizzazione climatica piuttosto complessi, da affrontare con l’ausilio di modelli matematici, comunque un semplice confronto visivo tra la distribuzione delle energie cinetiche e la curva quantistica di Planck sembrerebbe suggerire che la trasformazione di energia cinetica in radiante sia una possibilità piuttosto rara e di scarsa rilevanza (cfr. Glossario). Riassumendo, se il cielo è sereno e non vi sono nubi o aerosol (particolato, polveri sottili, fuliggine, smog) il trasferimento dell’irraggiamento IR della superficie terrestre verso lo spazio infinito o verso la superficie terrestre stessa (DLR), viene determinato da fenomeni probabilistici di natura quantistica, per chi volesse approfondire abbiamo consigliato in bibliografia alcune letture (ad es. McCartney 1983). Per chi fosse interessato a simulazioni on-line di assorbimento/ emissione di una certa massa gassosa investita da una radiazione si rimanda a un sito specializzato, come www.spectralcalc.com.
42
La strega perfetta
Questi fenomeni non sono di semplice modellizzazione e le simulazioni al computer sono necessarie, sia per risolvere con elementi finiti l’equazione di Scwartzschild, che di sua natura è in forma differenziale e quindi va integrata, sia per tener conto dei moti convettivi dell’atmosfera. 3.4. CO2 e H2O vapore: un nano e un gigante
Si è accennato prima al fatto che la concentrazione in ppm del vapor acqueo a 20°, 1 atm e 50% di umidità relativa è pari a 11000 (ovvero 1,1%). Esso è quindi il protagonista assoluto, almeno fino a 3 km circa dal suolo, dei fenomeni relativi all’effetto serra. Oltre quella quota la sua concentrazione diminuisce in quanto passa allo stato liquido nelle nubi o a temperature più basse addirittura a quello solido. Negli strati alti della troposfera quindi la sua importanza va via via diminuendo, lasciando spazio alla CO2 che non liquefa. Ci preme rimarcare tuttavia come le variazioni di CO2 (antropica e non), se riconsiderate in simbiosi con il vapore acqueo in una logica complessiva, portino a variazioni percentuali di molto inferiori rispetto alla CO2 da sola. Con un semplice calcolo, ad esempio, una variazione da 280 a 410 ppm della CO2 (dal 1750 ad oggi) prevede una variazione di gas attivi IR nella bassa atmosfera (a 20°C e 50% di umidità), da 11280 a 11410 ppm, con un delta di 1,15%, se consideriamo anche l’H2Ovap. La strega ha solidi motivi per puntare l’indice verso le molecole d’acqua allo stato di vapore. Su alcuni siti web (esempio spectracalc.com) è possibile simulare lo spettro di assorbimento IR dell’aria a diverse altitudini, in modo da verificare quanto asserito. La figura 3.4 si riferisce al livello del mare. Per i più curiosi nel Glossario si presentano anche i corrispondenti per 3 e 6 km. In rosso CO2 e in nero H2Ovap. La netta prevalenza di quest’ultimo si nota facilmente, gli assorbimenti sparsi tra 20 e 30 μm sono dovuti a moti rotazionali, mentre a più alte lunghezze d’onda a vibrazioni interne della molecola di H2O. Si nota altresì l’assenza di assorbimenti IR nella finestra 8-14μm.
3. L’effetto serra
43
Figura 3.4. Spettro di assorbimento simulato dal sito web spectralcalc.com. In rosso gli assorbimenti vibrazionali della CO2 e in nero i relativi ad H2Ovap. Fino a 10μm vibrazionali, da 10 a 30 rotazionali.
3.5. Variazione della concentrazione di CO2 e suoi effetti
Anche solo considerando la CO2 è da escludere una relazione di tipo lineare, concentrazione → effetto sull’anomalia termica, gli effetti suddetti 1, 2 e 3 (cfr. a metà del paragrafo 3.3) aumentano certo di intensità, ma avendo in parte risultati opposti, in quanto l’effetto finale è di trasferire energia o verso lo spazio o verso la superficie si possono compensare a vicenda. Il meccanismo 1 che provoca il riscaldamento diretto dell’atmosfera sembrerebbe l’imputato principale dell’ES, ma anch’esso ha una dipendenza lieve o nulla dalla concentrazione di CO2. Aumentandola, infatti, non si fa altro che diminuire la distanza media tra le interazioni di scambio di quanti di energia (fotoni) tra le molecole con l’effetto di riscaldare di più la parte bassa dell’atmosfera che non gli strati più alti. In altre parole il processo a catena termina a una distanza più breve, comunque inferiore al km. Detto in termini più scientifici il fenomeno è già in saturazione. La strega supera i suoi sensi di colpa.
44
La strega perfetta
Se pensiamo al paragone delle gocce d’inchiostro in un bicchiere non siamo quindi nella situazione in cui l’aggiunta di poche goccioline diminuisce la trasparenza alla luce, ma in quella di un’aggiunta di qualche gocciolina a un bicchiere dove è già presente una quantità d’inchiostro tale da renderlo opaco completamente. Pensiamo che la presentazione popolare dell’ES suggerisca una relazione causa-effetto lineare, ma in realtà siamo vicini alla saturazione. Attenzione: questo non significa che non esista l’ES, ma che esso svolge il suo compito in maniera eccellente e di più non potrebbe fare. Un po’ come premere l’acceleratore di un’auto a tavoletta: anche se aumento la spinta con ulteriore sforzo del piede, la vettura più di tanto non accelera. C’è però un aspetto che ci è sfuggito. La misura in ppm è in realtà una misura relativa, cioè una percentuale divisa per 10.000. In altri termini 1000 ppm = 0,1% e così via. Anche se l’atmosfera diviene sempre più rarefatta (alla sommità della troposfera, a 10.000 metri c’è una pressione di circa 300 mbar) le ppm di CO2 sono sempre le stesse, ad es. 410ppm, sia al livello del mare che in cima all’Everest. Vengono trascurati i leggeri effetti dovuti alla superiore densità della CO2 rispetto all’aria (circa 1,5 volte). Ma essendo l’aria più rarefatta la concentrazione in massa su volume reale (es. in moli/Litro) dei gas diminuisce, le distanze reciproche delle loro molecole aumentano fino al punto che diventa molto facile che un fotone emesso da una molecola eccitata non riesca più a trovarne una simile e quindi si perda nello spazio infinito. Ecco il punto che ci mancava per comprendere la spiegazione oggi accettata dai climatologi per l’ES. Aumentando la concentrazione di CO2 aumenta l’altezza dal suolo alla quale le molecole sono sufficientemente distanti tra loro e possono liberamente inviare la loro energia radiante verso lo spazio attraverso il meccanismo 2. Sappiamo che la temperatura scende con l’altitudine (circa 7°/km alle medie latitudini) per cui la loro possibilità emissiva per l’equazione di Planck viene progressivamente diminuita. In sostanza, l’ES è già per gli scopi pratici arrivato a saturazione: se l’atmosfera non si raffreddasse
3. L’effetto serra
45
con l’altezza non vi sarebbe alcuna sua variazione nell’emissività IR aumentando le ppm CO2. Ma siccome questo avviene si ha che aumentando CO2 l’altezza alla quale le molecole sono sufficientemente distanti per emettere nello spazio aumenta, diminuisce anche la loro temperatura e quindi emettono di meno e infine un maggior flusso energetico ritorna indietro. Questo fatto non è semplice da esemplificare e non compare nei disegni di cui sopra, ma nondimeno è l’unica spiegazione plausibile. Essa contrasta con quanto si è indotti a pensare, perché di solito si ignora di quanto i meccanismi di trasferimento radiativo-quantistico tra molecole siano in effetti già in saturazione. Le difficoltà di calcolo sono implicite alla complessa serie di fenomeni coinvolti e richiedono modelli matematici al computer. Questo compito viene eseguito da una decina di centri di super-calcolo specializzati e diffusi nel mondo. Ciononostante, secondo l’IPCC (Intergovernamental Panel on Climate Change), vi è una relazione logaritmica tra la concentrazione (in ppm) dei gas serra e il forzante radiativo, ovvero la quantità di energia in più che arriva sulla superficie del pianeta per effetto di un certo aumento di CO2. La formula usa un coefficiente α di proporzionalità tra il forzante radiativo δF in Watt/m2 (potenza radiante diviso superficie irradiata) e il logaritmo naturale del rapporto tra la concentrazione di CO2 attuale e quella preindustriale, considerata nel 1750 pari a 278 ppm. δF = 5,35 ln([CO2]/[CO2 preind.]) È facile da utilizzare, per la concentrazione attuale di 410 ppm si ha ΔF di 2,08 W/m2. Questo valore è da confrontare con il flusso radiante attuale IR verso il suolo (DLR) pari a 324 W/ m2. Tutto ciò è pari ad una variazione dello 0,6% molto più piccola di quanto ci si aspetterebbe. In sostanza l’ES esiste eccome, ci permette di vivere su questo pianeta, il quale altrimenti sarebbe coperto dai ghiacci con una temperatura media sotto lo
46
La strega perfetta
zero. Quello che la scienza non è ancora riuscita ad appurare, nonostante le simulazioni e le proiezioni per il futuro, è quanto valga esattamente la derivata prima del riscaldamento globale rispetto alla derivata prima del forzante radiativo ovvero δT / δF. Per una risposta a questo fondamentale interrogativo è necessario aspettare il capitolo 12, ma anticipiamo che essa è molto più bassa di quanto le correnti scientifiche prevalenti (mainstream) e l’IPCC indichino! Ovvero, in altre parole, è cruciale trasformare questi 2,08 W/m2 in un innalzamento di temperatura. Ora i climatologi concordano che l’innalzamento termico dall’era preindustriale (1750) a oggi sia di circa 1°C (±0,2°C). Questo è da ascrivere a una variazione dello 0,6% della DLR? Secondo IPCC la risposta è si ma secondo molti altri studiosi variazioni così piccole non avrebbero potuto creare variazioni climatiche significative. Lasciamo queste discussioni al capitolo 12, arrivando al quale, nella successione logica, il lettore avrà forse dati sufficienti per poter eventualmente appurare che vi sono altre cause del riscaldamento globale dal 1750 a oggi. Il colpevole di solito viene svelato nell’ultimo capitolo dei libri gialli… e capirete che non è il maggiordomo… 3.6. Il parere di un fisico controcorrente
John Nicol, professore emerito di fisica (James Cook University, Australia) nel suo report dal titolo Climate Change, a Fundamental Analysis of the Greenhouse Effect dopo una serie di puntuali analisi fisiche e matematiche su come l’energia viene trasmessa dalla superficie attraverso l’atmosfera, dà una risposta ai quesiti fondamentali del fenomeno dimostrando (https://courses.seas.harvard. edu/climate/eli/Courses/global-change-debates/Sources/CO2-saturation/more/nicol-08.pdf) che: 1. il vapore acqueo e le nubi dominano in realtà la capacità della troposfera di assorbire la radiazione uscente nell’IR lontano
3. L’effetto serra
2.
3. 4. 5.
47
(detta anche LWR, Long Wave Radiation), fermo restando che la concentrazione di vapore acqueo diminuisce con l’altezza. La maggior parte dell’assorbimento avviene entro pochi metri di atmosfera al di sopra della superficie; il 99% dei fotoni (quanti di energia luminosa) che vengono assorbiti non sono più riemessi, a causa di urti con altre molecole (in primis azoto e ossigeno) e con un conseguente trasferimento di energia dal fotone alla molecola, il quale fenomeno converte praticamente tutta l’energia LWR in energia cinetica in uno spazio e un tempo molto brevi; la convezione risulta quindi il metodo predominante di trasferimento termico attraverso la troposfera; la radiazione IR viene trasmessa dalla superficie e attraversa tutta la troposfera in una finestra che si allarga gradualmente con l’altitudine e che è centrata da 8 a 14 μm; la radiazione di ritorno dall’atmosfera verso la Terra è minima e in ogni caso non varia al variare della concentrazione di CO2 e altri gas attivi nell’IR.
Ovviamente abbiamo riassunto un rapporto di 40 pagine in poche righe, ma le conclusioni sono in profondo contrasto con quelle che sono le tesi predominanti sull’effetto dei gas serra (o meglio gas attivi IR). Esula dagli scopi di questo libro un’analisi dettagliata del report, nel quale si intrecciano postulati quantistici e termodinamica classica, quello che ci preme sottolineare è che si tratta di un’analisi puntuale che giunge a conclusioni nettamente opposte a quello che la stampa e i media suggeriscono. L’effetto di riemissione di radiazione verso la Terra dai cosiddetti gas serra presi in considerazione (H2Ovap e CO2) risulterebbe un fenomeno già abbondantemente arrivato a saturazione con le concentrazioni attuali, tenendo conto che gran parte dell’energia di queste molecole se eccitate nelle loro bande di assorbimento IR disperdono poi questa stessa energia per collisione con le molecole adiacenti (azoto e ossigeno in primis) e quindi trasformano l’energia radiante ricevuta in riscaldamento.
48
La strega perfetta
Un aumento dei gas serra provocherebbe quindi soltanto una diminuzione dell’altezza dell’atmosfera alla quale avviene il fenomeno del riassorbimento, comunque di pochi metri. Un certo irraggiamento negli strati alti della troposfera sarebbe comunque possibile o per via della finestra trasparente 8-14 μm o per via della eccitazione per collisione di alcune molecole che quindi istantaneamente riemetterebbero radiazione IR diseccitandosi. Facendo riferimento alla figura 3.1, i percorsi A, C, D sarebbero gli unici percorribili, mentre la probabilità di un percorso B sarebbe estremamente bassa e comunque indipendente dalla concentrazione del gas serra. 3.7. Le misure sperimentali e la simulazione
Sembrerebbe a questo punto che per dirimere la questione si debba ricorrere a misure sperimentali di questa radiazione uscente dalla troposfera terrestre. In effetti misure del genere sono abbondantemente documentate, quella riportata in figura 3.5a si riferisce a una delle prime effettuate con satelliti (1969) (linea continua). Esistono oggi strumenti di calcolo che permettono di riprodurre molto bene la curva sperimentale (linea tratteggiata). Essi sono noti generalmente come ARTS (Atmospheric Radiative Transfer Simulator) e sono basati su una serie di assorbimenti/emissione radianti per le varie molecole attive IR, alcuni anche su assorbimenti per aerosol e polveri sottili. Si tratta come sempre di modelli di integrazione numerica su diversi strati atmosferici in base all’equazione di Schwarzschild per le diverse lunghezze d’onda. La zona interessante è da 25 a 6 μm, al di sopra l’intensità è scarsa e al di sotto si ha interferenza con la radiazione solare incidente. Una versione moderna di queste simulazioni è rappresentata in figura 3.5b. Ts è la temperatura della superficie terrestre (15°C in media) e Tmin è quella minima al confine della troposfera. Le due curve di Planck sono relative appunto a queste due temperature. Confrontando la curva effettiva con la curva di Planck a Ts si nota quanto
3. L’effetto serra
49
Lunghezza d’onda (m). Spettro osservato e calcolato per cielo limpido sul Golfo del Messico 23/4/1969. Lo spettro osservato è spostato di 0,2 in alto per facilitare il confronto.
Figura 3.5a.
Figura 3.5b. By Lukas Kluft – Own work, CC BY-SA 4.0, da https://commons. wikimedia.org/w/index.php?curid=79434392, con modifiche.
i gas serra contribuiscano con i loro assorbimenti molecolari a decurtare la radiazione uscente. Addentrarci in queste simulazioni è al di fuori degli scopi di questo libro, ma le figure che presentiamo (analoghe si possono trovare sul web) si prestano ad alcuni commenti:
50
La strega perfetta
1. la finestra 8-14 μm si dimostra davvero il canale preferenziale per il trasferimento energetico radiante dalla Terra. Esso è brevemente interrotto da due picchi dovuti all’assorbimento dell’ozono presente nella stratosfera, lo stesso che ci protegge dai raggi UV (scudo di ozono); 2. l’acqua vapore, con il suo spettro roto-vibrazionale complesso provoca assorbimenti diffusi ma nel complesso il picco di assorbimento più marcato è della CO2. L’assorbanza relativa dei due gas può essere valutata visivamente dal confronto con l’emissività di superficie a Ts; 3. l’andamento a campana discendente asimmetrica della curva è dato dalla emissività della superficie terrestre (legge di Planck) ovvero dalla distribuzione delle frequenze in partenza dalla superficie prima che attraversino l’atmosfera. Il contrasto con quanto precedentemente scritto sulla prevalenza del vapor acqueo rispetto alla CO2 sul fenomeno ES è solo apparente, infatti le misure satellitari vedono l’atmosfera dall’alto, in particolare esse esaminano il confine superiore della troposfera, dove H2Ovap è praticamente assente. Al contrario, precedentemente il fenomeno veniva osservato dalla superficie terrestre verso l’alto. Lasciamo aperti alcuni dubbi o spunti di riflessione: 1. quello che “manca” dallo spettro è l’energia assorbita direttamente dai gas serra nell’atmosfera oppure energia rimandata verso Terra dagli stessi o ancora, vedendo il bicchiere mezzo pieno, l’energia radiante è stata assorbita in realtà completamente a quelle determinate frequenze ma viene poi riemessa con minore intensità dalle molecole negli strati più alti dell’atmosfera (come sostiene il professor Nicol) per eccitazione collisionale; 2. inoltre l’esame di una sola curva non dirime la questione di quanto varino gli assorbimenti in funzione delle concentrazioni, e quindi quanta radiazione ritorni sulla superficie ad esempio raddoppiando la CO2.
3. L’effetto serra51
Nel Glossario, in riferimento a “Energie molecolari ed emissione IR”, si può trovare una spiegazione basata sul confronto di due distribuzioni energetiche, una (Maxwell-Boltzmann) che relaziona con la temperatura la distribuzione delle energie cinetiche delle particelle di un gas e un’altra (Planck) che invece relaziona sempre con la temperatura, l’energia radiante che può essere assorbita/riemessa da un corpo. Si evince come la percentuale di molecole aventi energia cinetica sufficiente a eccitare stati vibrazionali interni sia piuttosto bassa, particolarmente a -50°C (233 K) temperatura supposta per l’alta troposfera a 10 km di altitudine. Il modello radiativo (percorso B di figura 3.2 e percorso C di figura 3.3) sembrerebbe ancora il più semplice da accettare, e il più comunemente accettato, anche se non si possono escludere, a priori, altri meccanismi. Ora è chiaro che la radiazione mancante è stata assorbita in qualche modo o dalla superficie (che poi ha scaldato l’atmosfera) o dall’atmosfera stessa. Il punto è che a seconda del meccanismo postulato la risposta a un aumento dei gas serra potrebbe essere diversa. In particolare un meccanismo basato sull’assorbimento (percorsi A e C di figura 3.2) è intuitivamente associato a un fenomeno di saturazione, quindi l’aumento di CO2 potrebbe essere poco influente mentre l’irraggiamento nello spazio/suolo (percorsi B e D) di per sé lascerebbe spazio a una relazione dose-effetto ancora attiva (forzante radiativo). Un semplice riassunto: 1. l’effetto serra che avviene nell’atmosfera terrestre è molto diverso da quanto succede in una serra di giardino; 2. entrano in gioco fenomeni spiegabili solo con la fisica quantistica, che permettono a una molecola di assorbire energia da un fotone IR, a patto che abbia una lunghezza d’onda opportuna per l’eccitazione di movimenti vibratori o rotazionali; 3. una volta nello stato eccitato la molecola emette la stessa energia (si diseccita) o attraverso un fotone o trasferendo la stessa energia al gas circostante, che si riscalda;
52
La strega perfetta
4. il delicato bilanciamento tra i due fenomeni suddetti ci può far prevedere l’entità dell’energia IR che ritorna sulla Terra e contribuisce a riscaldarla, ciò che sappiamo essere l’effetto serra atmosferico; 5. l’entità dell’irraggiamento IR verso la Terra dipende dalla concentrazione dei gas serra ma non in maniera lineare e potrebbe essere vicino alla saturazione, ovvero aumentando i gas serra esso non varia più; 6. il principale gas serra è di gran lunga il vapore acqueo, anche se questo fatto trova scarsa rilevanza nei mezzi di informazione.
Capitolo 4
L’energia radiante interagisce con l’atmosfera terrestre
4.1. Il viaggio dal Sole
Dopo 8 minuti e 149 milioni di km percorsi, la luce del Sole finalmente arriva a illuminare la Terra. Se non vi fosse l’atmosfera di mezzo, il bilancio energetico sarebbe molto semplice. È proprio la nostra atmosfera che complica dannatamente i calcoli, la stessa che ci permette anche di vivere, di osservare il cielo blu e non di un nero cupo e inquietante come quella che vedono gli astronauti sulla stazione orbitante. Bisogna introdurre due coefficienti prima di calcolare la temperatura della superficie (ci riferiamo sempre ai valori medi). Coefficienti che sono noti con una certa approssimazione, ma dal cui valore dipende in maniera critica ogni calcolo successivo. Una parte di questa energia radiante del Sole viene riflessa dalla superficie terrestre (ad esempio nevi e ghiacciai, superficie marina quando vi giunge con angolo basso, inferiore all’angolo limite di rifrazione). Essa prende il nome di albedo (dal latino = biancore) e viene espressa con un coefficiente frazionario. Per la Terra vale 0,30, anche se in letteratura compaiono valori diversi, fino a 0,32 o 0,33. L’incertezza nasce dalla difficoltà intrinseca di valutare la luce complessivamente riemessa dalla Terra, essendo noi sulla sua superficie. Recentemente alcuni astronomi russi sono riusciti a valutare l’albedo terrestre in 0,30 misurando la luce cinerea, ovvero la luce che riflessa dalla Terra arriva sulla Luna quando la sua superficie non è illuminata dal Sole (ad esempio Luna nuova).
54
La strega perfetta
Non è chiaro però a quale periodo dell’anno si riferisca o se sia una media annuale. La parte che viene assorbita certo riscalda la superficie e ne determina la temperatura. Ma in che modo? Attraverso un secondo coefficiente, oltre l’albedo infatti compare l’emissività. Quest’ultimo va spiegato con la legge di Planck “adattata” ai materiali reali, che sono sostanzialmente diversi dal corpo nero ipotizzato dallo scienziato. Il sistema è alimentato da una fonte di energia che, nella scala dei tempi da noi utilizzata nella modellizzazione, eroga costantemente, risultando essere virtualmente “inesauribile”. Il sistema in questo caso non potrà mai arrivare a un equilibrio dinamico, a meno che non esista anche uno “scarico” in grado di assorbire energia all’infinito. Nei nostri sistemi, avrete già intuito, la fonte di energia inesauribile è il Sole e lo scarico (sink) che non arriva mai a saturazione è lo spazio interstellare, in grado di accettare qualsiasi flusso di energia radiante, a qualunque lunghezza d’onda. Come consuetudine lo spazio interstellare viene indicato da una nuvoletta. Trascurando il vento solare, non vi è flusso di materia dal Sole, ma solo di energia, e nemmeno dalla Terra verso lo spazio. Quindi il Sole e lo spazio emettono/assorbono solo energia. I vari flussi, anche quelli interni tra il Sole e lo spazio, arriveranno prima o poi a un equilibrio stazionario e quindi il flusso energetico dal Sole sarà pari a quello in uscita verso lo spazio. Si tratta di flussi radianti, espressi in watt/m2. Come si vedrà tra breve, la natura di questi flussi radianti non è la stessa: infatti il Sole irradia nel visibile (λ = 0,40 – 0,70 μm), nel vicino ultravioletto (λ = 0,315 – 0,40 μm) ma anche nel vicino infrarosso λ = 0,70-3,0 μm, mentre la superficie terrestre e le nubi irradiano nell’infrarosso (λ = 3,0 – 40 μm). Tutto ciò in conseguenza della legge di Planck, alla cui descrizione nel Glossario si rimanda. Useremo tra breve una serie di figure per presentare i vari flussi energetici, per semplificarne la descrizione. Questi flussi sono espressi di norma in watt/m2 (W/m2) come di consueto. Un riassunto delle tipologie di radiazione elettromagnetica in funzione della λ si può ritrovare in tabella 2.1.
4. L’energia radiante interagisce con l’atmosfera terrestre 55
4.2. Adattiamo la legge di Planck alla realtà dei materiali
In tutte e tre le leggi sopra citate (Planck, Wien, Stefan-Boltzmann) occorre introdurre un coefficiente empirico minore di 1 e a sua volta dipendente dalla frequenza in esame (anche se spesso in prima approssimazione si considera costante con la frequenza). Il motivo di ciò va ricercato nella natura stessa della superficie del materiale emittente che in realtà riflette sempre una parte della radiazione e quindi non è più “nero” ma a tutti gli effetti diventa un “corpo grigio”. Tale parametro prende il nome di emissività (ε); si tratta di un parametro largamente usato in termotecnica, misurato o calcolato per vari materiali, anche in funzione della rugosità della superficie e di altre caratteristiche di essa (lappatura, lucidatura, brunitura ecc.). Esso influenza la potenza emessa (I) che diviene: I = ε · σ ·T4 dove σ è la costante di Stefan-Boltzmann che vale 5,67 · 10-8 W m-2 K -4. Questo parametro è vitale nel valutare i flussi di energia da e per la Terra ed è alla base di tutte i modelli climatologici. Per la Terra attualmente viene stimato da 0,61 a 0,64 in base a una serie di valutazioni. L’emissività della terraferma (fatte salve alcune regioni desertiche e rocciose) è molto vicina a 0,98, soprattutto per l’infrarosso lontano (da 4 a 40 μm). Per la superficie oceanica è vicino a 0,95 con buona approssimazione. Per le nubi è piuttosto variabile oscillando, a seconda del tipo di nube e della sua altezza dal suolo, da 0,35 a 0,75. Nei calcoli viene spesso assunto un valore molto approssimato di 0,5, che deve essere ridotto della quarta potenza della temperatura assoluta delle nubi, 258K rispetto alla temperatura media terrestre di 285K. A titolo di esempio presentiamo un nostro calcolo, relativo a due valori estremi di emissività per le nubi. Emissività globale pianeta Terra = 0,96
56
La strega perfetta
Emissività nubi da 0,35· (258/285)4 = 0,235 fino a 0,75·(258/285)4 = 0,504 Emissività del pianeta con una copertura nuvolosa del 50% da 0,5·0,96 + 0,5·0,235 = 0,598 fino a 0,5·0,96 + 0,5·0,504 = 0,732
Riassumendo, otteniamo valori di emissività del pianeta da 0,598 fino a 0,732 a seconda del valore iniziale usato per l’emissività delle nubi (0,35 o 0,75). Per uno scienziato accettare una approssimazione così forte non è facile. Questa ovviamente va a modificare tutto l’iter dei calcoli climatologici successivi. Anche se essi sembrano corretti, in realtà si trascinano dietro questa enorme approssimazione dei dati di partenza (assieme a quella dell’albedo). Per questo motivo gli autori di questo libro sono così scettici sulle modellizzazioni usate in climatologia, almeno di quelle che pretendono di partire “ab initio” con le leggi della fisica applicate al sistema Terra-Sole. Si vedrà più avanti che i modelli climatologici complessi sviluppati con i mezzi di calcolo attuali non hanno la pretesa di partire “ab initio”, ma introducono alcuni parametri di “regolazione fine” (fine-tuning) spesso e volentieri in numero esagerato, che non è dato di sapere e non viene divulgato. Questi parametri di regolazione vengono “sintonizzati” facendo funzionare lo stesso modello negli ultimi 10-20 anni, in cui sono note le varie misure (temperatura, ppm CO2, copertura nuvolosa…). Dopo questo stadio con gli stessi parametri viene utilizzato il modello di calcolo per le previsioni. Ed è così che si spiega il motivo del loro generico insuccesso. 4.3. Albedo ed emissività ci guidano al bilancio termico dell’energia (senza atmosfera)
Eccoci allora a esaminare la base dell’equilibrio termico della superficie di un qualunque pianeta illuminato dal Sole, Terra compresa. Immaginiamo come primo passo che non vi sia atmosfera sul pianeta Terra e impostiamo il più semplice modello possibile
4. L’energia radiante interagisce con l’atmosfera terrestre 57
dell’equilibrio radiativo terrestre: l’energia radiante in arrivo dal Sole equivale esattamente alla energia radiante dispersa nello spazio dalla Terra, quindi si raggiunge un equilibrio termodinamico e la temperatura rimane costante. La radiazione che arriva sulla Terra proviene dalla fotosfera solare (circa 6000K) e quindi presenta un picco centrato attorno a 0,48 μm, nel visibile (da 0,4 a 0,7 μm). In rosso nella figura 4.1 è rappresentato il picco di Planck a 5780 K (temperatura della fotosfera solare come corpo nero ideale) con in ascisse le lunghezze d’onda in scala logaritmica e in ordinate l’intensità (scala arbitraria). Più a destra in verde il picco di Planck relativo a 288K, temperatura media della superficie terrestre. La funzione di Planck, B(λ), a 5780K come spiegato prima, viene scalata, cioè il suo valore viene diviso per 3,26·106, in quanto questa funzione ci fornisce la radianza, ovvero la potenza emessa per m2 di superficie radiante, sulla fotosfera (Sole) e non quanto effettivamente arriva su 1 m2 di superficie terrestre. Come si nota le due curve si somigliano molto, ponendo attenzione alla scala logaritmica si osserverà che esse sono però piuttosto distanti, si intersecano a circa 3,4 μm. Di conseguenza abbiamo due canali distinti per l’ingresso e l’uscita della ra-
Figura 4.1. Curve di emissività da corpo nero per T = 5780 K (in rosso) e per T = 288 K (in verde).
58
La strega perfetta
diazione, il primo nel visibile in ingresso, attivo solo di giorno quando il Sole illumina la superficie e il secondo sempre attivo 24/24 in emissione. La distanza tra i due picchi è dovuta quindi alla diversa temperatura della fotosfera e della superficie terrestre. La temperatura (teorica) della Terra si può perciò ricavare bilanciando i due flussi radianti ma introducendo l’albedo. Esso, come già detto, è un numero puro, senza unità di misura, che indica la frazione della luce incidente su un pianeta che viene riflessa nello spazio. La figura 4.2 rappresenta il più semplice schema a blocchi per questo flusso radiante da bilanciare. Per una trattazione più approfondita si rimanda al capitolo 10. Ricordiamo al lettore come la “nuvoletta” che compare negli schemi a blocchi rappresenti lo spazio infinito, contenitore infinito di energia, e non una nuvola in senso meteorologico. Si tratta di una convenzione della Dinamica dei Sistemi. Possiamo immaginare un semplice schema dinamico, detto della “vasca da bagno” (bathtub in inglese), schematizzato nella figura 4.2 in basso.
Figura 4.2. Equilibrio radiante senza atmosfera.
4. L’energia radiante interagisce con l’atmosfera terrestre 59
La caratteristica saliente è il livello dell’acqua in essa contenuta. Il livello potrebbe essere paragonato alla temperatura (fattore “intensivo” dalla fisica) e la quantità di acqua al calore o energia termica (fattore “estensivo” dalla fisica). Il livello dell’acqua dipende ovviamente dall’apertura del rubinetto d’ingresso e di quello di uscita, schematizzati nel disegno da due valvole V1 e V2, ma non dal loro flusso preso singolarmente. È il loro rapporto che determina il livello. Se lo scarico è strozzato si raggiungerà un livello alto (fino a strabordare!) anche con un ingresso modesto. Viceversa un ingresso “tutto aperto” potrebbe portare a un livello basso se lo scarico rimane aperto al massimo. Se trasferiamo il paragone al bilancio energetico di un pianeta senza atmosfera dobbiamo trovare una situazione di equilibrio termodinamico tra il flusso energetico proveniente dal Sole che impatta sulla superficie del pianeta e il flusso da esso uscente. Il corpo celeste irradiato dal Sole si riscalda (situazione transitoria) fino a quando la sua temperatura superficiale gli permette di emettere la stessa quantità di energia che riceve (situazione di equilibrio dinamico). Per questo calcolo radiante dobbiamo eguagliare il flusso energetico in arrivo (Watt/m2, cfr. tabella 4.1) moltiplicato per la sezione del cono radiante che colpisce il pianeta (πR2, essendo R il raggio in metri del pianeta) al flusso energetico in uscita pari a 4πR2 (superficie sferica del pianeta) moltiplicato per il flusso energetico radiante di Stefan-Boltzmann, tenendo conto dell’albedo. Per ora supponiamo che l’emissività sia pari a uno: (1 – a)·Flusso·πR2 = σ · T4 · 4πR2 (σ = 5,67·10-8 W m-2 K-4) Qui di seguito un confronto tra albedo e altre grandezze fisiche per alcuni pianeti del sistema solare, assieme alla distanza dal Sole e al conseguente flusso radiante sulla superficie e alla temperatura di equilibrio radiante. Per la Terra si deduce un valore di 255 K, pari a -18°C, come valore medio… decisamente un po’ freddino. Per un ulteriore mi-
60
La strega perfetta
Tabella 4.1.
Parametri fisici di alcuni pianeti del sistema solare.
Pianeta
Distanza dal sole (Unità astron.)
Flusso ricevuto (Watt/m2)
Albedo
T(Equil.), K
Mercurio
0,39
8994
0,06
439
Venere
0,72
2639
0,78
225
Terra
1
1367
0,3
255
Marte
1,52
592
0,17
216
Giove
5,18
51
0,45
105
glioramento di calcolo si deve considerare l’emissività (ε) media della Terra, di cui abbiamo discusso prima. Certo, risulta strano considerare l’esistenza di una copertura nuvolosa ancora senza atmosfera, ma procediamo per approssimazioni successive. L’equazione diventa quindi: (1 – a)·1367·πR2 = ε ·σ·T4 · 4πR2 Con opportune semplificazioni si ottiene una semplice equazione che descrive la temperatura di equilibrio della Terra senza atmosfera: T = [(1 – a)·1367/ 4·ε ·σ]1/4 Questa volta si ottiene T = 285 K (12°C), sempre come valore medio… ci stiamo scaldando, ma il valore dovrebbe aggirarsi attorno a 18°C… manca ancora qualcosa. Come si vede i parametri radiativi che compaiono sono due: l’albedo e l’emissività; del secondo e della sua incertezza abbiamo già discusso, del primo in letteratura si trovano valori che oscillano da 0,3 a 0,33, con una variazione del 10%. Curiosamente è più facile
4. L’energia radiante interagisce con l’atmosfera terrestre 61
misurare l’albedo di un pianeta che quella della Terra, anche se oggi disponiamo di satelliti. Di recente un gruppo di scienziati russi ha però potuto appurare un valore preciso di albedo molto vicino a 0,301 mediante misure di luce cinerea (flusso luminoso proveniente dalla Terra e riflesso dalla superficie non illuminata della Luna). Se inseriamo nell’ultima equazione i valori a=0,30 ed ε = 0,64 si ottiene T = 285 K (tutti i valori nel sistema SI), ma se variamo del 10% l’emissività della Terra, incertezza più che legittima considerando le approssimazioni sulla copertura nuvolosa di cui sopra, diciamo da 0,64 a 0,70 ne risulta che la temperatura di equilibrio radiante scende da 285 a 279 K, di ben 6 °C. E qui la strega sorride ironica! Ora una variazione del genere è abissale, considerando che le variazioni decennali delle temperature medie terrestri per il riscaldamento globale sono dell’ordine di qualche decimo di grado. Basta quindi una variazione della copertura nuvolosa dell’1% per avere effetti di quella portata! Uno schema a blocchi, figura 4.3, aiuta a riassumere. 4.4. Il bilancio dell’energia (con atmosfera)
Abbiamo disquisito a sufficienza sui flussi di energia da/verso la Terra. Ora concentriamoci su quel sottile strato di gas, vapori e aerosol che circonda la Terra. Perché sottile? Di solito i calcoli climatologici si riferiscono ai primi 10 km di atmosfera, la co-
Schema a blocchi con l’inserimento dell’atmosfera.
Figura 4.3.
62
La strega perfetta
siddetta troposfera. Confrontiamo ora questi 10 km con il raggio del pianeta, 6371 km… quindi meno dello 0,2 % ma estremamente importante per gli scambi termici sulle superficie del pianeta… e non solo. Pensiamo alle acque oceaniche di superficie e alla loro circolazione, ai ghiacci e altro. Certo anche la crosta terrestre è un sottile strato solido che racchiude al suo interno rocce ad alta temperatura (mantello) e più in profondità (nucleo) ferro e nichel a più di 4000°C. Vista però la scarsa conducibilità termica della crosta terrestre, nessun climatologo prende in considerazione il trascurabile flusso termico verso la superficie terrestre dal sottosuolo (salvo i cacciatori di… energia geotermica). Nel nostro viaggio dell’energia dobbiamo quindi considerare due passaggi, uno in ingresso e l’altro in uscita. Il primo attore è la radiazione (UV-VIS-IR vicino) attraverso l’atmosfera e il secondo la radiazione IR emessa dalla Terra. In questo viaggio dovremo descrivere come la radiazione elettromagnetica (di tutte e 3 le tipologie, UV, VIS e IR) interagisce con le molecole che costituiscono l’atmosfera terrestre. Iniziamo dal più “poetico” ma non meno importante: la dispersione (o scattering) di Raylight per frequenze nell’UV-VIS provenienti dal Sole. Una descrizione del fenomeno è data nel Glossario. È un effetto che è tanto più importante quanto minore è la λ. Interessa solo il lato “blu” del visibile. Un quanto di radiazione (fotone) incide su una molecola e ne viene respinto con la stessa λ in una direzione casuale, senza assorbimento di energia. È a causa di questa dispersione che il cielo ci appare blu e la luce del Sole gialla, soprattutto all’alba o al tramonto, quando essa attraversa un percorso molto più lungo di atmosfera. In questo percorso la componente blu viene dispersa, quindi il Sole appare giallo, in mancanza di ciò il suo colore sarebbe bianco accecante, con temperatura di colore pari a 6000 K. Sono interessate a questo fenomeno le molecole di ossigeno e azoto, vista la loro abbondanza, e in misura minore CO2 e H2Ovap. Questo effetto provoca infine una certa riemissione di radia-
4. L’energia radiante interagisce con l’atmosfera terrestre 63
zione solare dall’atmosfera verso lo spazio, il cui effetto viene conteggiato in generale nell’albedo. Come spiegato in dettaglio nel capitolo 6, le diverse molecole dell’atmosfera possono assorbire quanti di radiazione IR se questa possiede l’energia per eccitare un loro stato vibrazionale/rotazionale. La molecola essenzialmente assorbe energia secondo uno dei 3 possibili meccanismi (in ordine di energia crescente): 1. assorbendo un quanto di radiazione di energia (fotone) corrispondente a una sua transizione energetica rotazionale, soprattutto in molecole gassose di piccole dimensioni; 2. assorbendo un fotone di energia corrispondente a una sua transizione vibrazionale (o roto-vibrazionale se combinata con il meccanismo 1); 3. assorbendo un fotone a energia sufficientemente alta per spezzare qualche legame all’interno della molecola e quindi dare luogo ad una vera e proprie reazione chimica. Dallo stato eccitato la molecola decade in due modi sostanzialmente alternativi, e cioè: 1. emettendo una radiazione con la stessa energia (e quindi λ); 2. trasformando l’energia in eccesso in energia cinetica (traslazionale) o rotazionale che alla fine provoca il riscaldamento del gas. Interessante notare che le probabilità dei fenomeni diretti e inversi (eccitazione/diseccitazione) non sono assolutamente le stesse, e proprio su questa sottile differenza si basano tutti i calcoli sull’effetto serra! Le molecole interessate sono in primis l’acqua allo stato di vapore, e poi la CO2. Tralasciando per ora la rottura dei legami chimici, essenzialmente a opera di fotoni UV, una volta che una molecola si è eccitata secondo i meccanismi di assorbimento 1 o 2 o combinati, si può diseccitare secondo solo due meccanismi:
64
La strega perfetta
1. assorbimento quantistico e riemissione con la stessa λ; 2. assorbimento quantistico e riscaldamento del gas per via della transizione tra livelli energetici della molecola, la cui differenza di energia viene trasformata in energia cinetica. In teoria potrebbe verificarsi che una molecola assuma per via della distribuzione di energie cinetiche di Maxwell-Boltzmann una energia talmente alta da passare in uno stato eccitato (vibrazionale o rotazionale). In realtà come dimostreremo tra breve con l’ausilio di grafici il secondo meccanismo di assorbimento (cinetico) è poco/pochissimo probabile, a seconda della temperatura. La distribuzione delle energie cinetiche (e quindi delle velocità) tra le molecole di un gas è regolata dalla statistica di Maxwell-Boltzmann (cfr. Glosssario). Questa non permette che a pochissime molecole di avere l’energia sufficiente per attivare un salto energetico interno, sia per la CO2 che H2Ovap. 4.5. Tipo 1. Assorbimento/emissione radiante
Vediamo di aiutarci con uno schema a blocchi, figura 4.4, dividendo questa volta l’atmosfera (o meglio la troposfera) in una serie di strati, come viene fatto nei modelli climatologici. Ricevendo l’energia radiante dal Sole (seguire lo schema) la Terra si riscalda ed emette nell’IR verso il primo strato atmosferico. Le molecole con transizioni IR possibili (H2Ovap e CO2) vengono eccitate dopodiché riemettono la stessa frequenza di radiazione in una direzione casuale, che qui abbiamo schematizzato sia verso l’alto che verso la Terra. La radiazione riemessa verso l’alto eccita le molecole del secondo strato che si diseccitano emettendo di nuovo verso l’alto o verso il basso. Si procede così fino all’ultimo strato (strato “n” nello schema) il quale finalmente può emettere verso lo spazio esterno. Questi fenomeni emissivi vanno interpretati con la legge di Planck. Essa vale solo se si raggiunge un equilibrio termodinamico
4. L’energia radiante interagisce con l’atmosfera terrestre 65
Figura 4.4. Equilibrio radiante dell’atmosfera (legge di Planck). La radiazione solare è divisa nelle 3 componenti:VIS (visibile) UV (vicino) e IR (vicino).
con un corpo nero di dimensioni molto maggiori di quelle delle lunghezze d’onda considerate. L’ipotesi di Planck è che ogni corpo nero possieda al suo interno una serie di oscillatori di natura elettrica (quantistici) che “vibrano” all’arrivo della radiazione incidente emettendo a loro volta un quanto di radiazione, anche di differente lunghezza d’onda. Se il corpo nero è costituito da una singola molecola (ad es. CO2), non avrà a disposizione tutti gli oscillatori elettrici necessari per interagire con una gamma di radiazioni incidenti. Gli effetti di emissione/assorbimento si avranno soltanto per determinate lunghezze d’onda corrispondenti a transizioni energetiche (rotazionali o vibrazionali) tipiche della molecola stessa. Le molecole apolari (O2, N2) non possedendo un dipolo elettrico non hanno frequenze di assorbimento nel visibile o nell’infrarosso. Quindi gran parte dell’atmosfera non partecipa a questi fenomeni ed è perfettamente trasparente (salvo l’effetto di scattering Raylight per frequenze nell’UV). L’unica molecola caratterizzata da un dipolo permanente è l’acqua, infatti l’angolo di legame H-O-H risulta 105° circa, ovvero la molecola non è lineare. Questo le per-
66
La strega perfetta
mette di essere attiva non solo nell’IR ma anche nel vicino infrarosso e in piccola parte anche nel visibile! La molecola della CO2 è viceversa lineare e non presenta un dipolo elettrico complessivo in quanto i due dipoli elettrici dei legami C=O si annullano a vicenda, pur tuttavia opportuni modi vibrazionali (es. stretching asimmetrico o bending) possono generare dipoli elettrici temporanei e quindi essere attivi nell›IR. In sostanza H2O e CO2 possiedono relativamente pochi modi vibrazionali, ma questi si possono combinare con i moti rotazionali, molto più numerosi, generando quindi uno spettro di assorbimento/emissione caratterizzato da ampie bande di assorbimento, tra le quali sono interposti altrettanti ampi spazi vuoti. In altri termini queste due molecole seguono la legge emissiva di Planck solo quando ciò è reso possibile dai modi rotovibrazionali. Esiste però un intervallo di frequenze da 8 a 14 μ in cui né le molecole di CO2 ne quelle di H2Ovap possiedono assorbimenti IR. In questo intervallo l’ozono, del quale scriveremo dopo, presenta un picco di assorbimento ed il metano con alcuni assorbimenti secondari, ma per ora trascuriamo queste sostanze, presenti peraltro in concentrazioni di parti per miliardo. La finestra 8-14 nel cielo sereno irradia direttamente verso lo spazio esterno, essendo l’atmosfera completamente trasparente, quindi diventa una componente molto importante nel bilancio energetico globale. Ma attenzione se vi è copertura nuvolosa le micro goccioline delle nubi contengono acqua liquida e gli assorbimenti cambiano. Si formano oggetti delle dimensioni molto maggiori della lunghezza d’onda per cui la legge di Planck entra in gioco nella sua completezza e non solo più per alcune frequenza permesse. Come risultato di ciò una parte della radiazione IR viene rispedita verso Terra e una parte direttamente verso lo spazio esterno (simboleggiato dalla nuvoletta). La copertura nuvolosa ha quindi due effetti: il primo più importante è quello di riflettere verso lo spazio una parte della radiazione UV-VIS del Sole ma, secondariamente, di rispedire verso
4. L’energia radiante interagisce con l’atmosfera terrestre 67
la terra una parte dell’IR nella finestra 8-14. Il primo ci raffredda, il secondo ci riscalda. Tenendo conto dell’entità relativa, l’effetto complessivo è di raffreddamento. Ritorniamo all’assorbimento/emissione radiante. Quando l’ennesimo strato emette finalmente la radiazione IR verso lo spazio esso si trova a una temperatura tipica del confine superiore della troposfera, circa -50°C. In base alla legge di Stefan-Boltzman la sua capacità emissiva è nettamente inferiore e quindi nel bilancio energetico bisogna tenere conto della temperatura dello strato emissivo superiore. Questa, per inciso, è la spiegazione adottata dagli scienziati per l’effetto serra, e cioè un aumento della concentrazione del gas serra sposta verso l’alto l’ultimo strato emissivo e quindi a temperature sempre più basse e quindi meno emissive. A queste altitudini il vapor acqueo è scarso e la CO2 domina l’effetto emissivo. Più aumenta la concentrazione di CO2 più aumenta questa altezza emissiva critica, la temperatura si abbassa (il profilo di temperatura adiabatico è circa 7°/km alle medie latitudini e 4°/ km ai tropici) e quindi la Terra deve riscaldarsi di più per poter irraggiare la quantità di calore radiante ricevuta dal Sole. Si ricorda che l’atmosfera si fa progressivamente più rarefatta con l’altitudine. Le concentrazioni espresse in ppm (ad esempio 410 ppm CO2) sono percentuali: su un milione di molecole 410 sono di CO2, ma questo non ci dice che la concentrazione in mol/ litro di CO2 progressivamente diminuisce per la rarefazione dell’aria, pur rimanendo le ppm costanti. Questa riemissione radiante verso la superficie da parte dell’atmosfera (DLR, Downward Longwave Radiation) si può oggi misurare in una ventina di stazioni meteo dotate di opportuni rilevatori. Accurate procedure di calibrazione dovrebbero garantire una elevata precisione (± 5%, circa 10 W/m2). I valori di DLR si riferiscono a lunghezze d’onda maggiori di 4 μ e quindi non vi è crossover o sovrapposizione con la luce visibile del Sole e le misure possono essere condotte 24/24 ore. Esse variano con la latitudine, la stagione e con l’ora solare ed è quindi difficile fare delle medie globali da inserire poi in uno schema a flussi. Valori misurati pos-
68
La strega perfetta
sono variare da 100 a 140 (sempre Watt/m2) al Polo Sud come da 280 a 340 alle medie latitudini fino ad arrivare a 400 ai tropici. 4.6. Tipo 2. Assorbimento quantistico e riscaldamento del gas
Anche qui ci aiutiamo con uno schema a blocchi, figura 4.5. Come al solito la superficie terrestre emette nell’IR lontano (per definizione con λ> 4μ), la finestra 8-14 è sempre attiva ed emette direttamente nello spazio, fatta salva la copertura nuvolosa, le cui goccioline riemettono verso il basso e verso lo spazio. Come si nota, vi è una differenza importante: i vari strati atmosferici assorbono IR ma con una trascurabile riemissione, come si dimostrerà tra breve con l’aiuto di grafici. Si tratta quindi di un assorbimento regolato da una legge di fisica classica, la Legge di Lambert e Beer. Questa legge prevede una diminuzione esponenziale dell’intensità del raggio luminoso che attraversa il mezzo opaco, in funzione della distanza percorsa in quanto l’assorbimento si trasforma in moti termici senza riemissione.
Figura 4.5.
Equilibrio radiante dell’atmosfera (legge di Lambert-Beer).
4. L’energia radiante interagisce con l’atmosfera terrestre 69
È facile dimostrare, e su questo concordano i climatologi, che il compito assorbitivo della CO2 è già arrivato in saturazione, indipendentemente dalla concentrazione. Un esempio: sciogliamo una decina di gocce d’inchiostro in un bicchiere pieno d’acqua. Guardando in controluce la sua trasparenza sarà pressoché nulla (trasmittanza = 0). Se aggiungiamo altre 10 o 20 gocce non avremo nessuna variazione di trasmittanza, il bicchiere sarà completamente opaco come prima. Analogo ragionamento vale per l’H2Ovap, che presenta assorbimenti molto più intensi nell’IR della CO2. A differenza di quest’ultima la sua concentrazione percentuale scende bruscamente con l’altitudine per effetto della diminuzione di temperatura e conseguente passaggio allo stato liquido. Se ci focalizziamo sull’assorbimento della CO2 possiamo asserire che tutta la radiazione IR emessa dalla Terra (al di fuori dell’intervallo 8-14) viene con questo meccanismo assorbita completamente già dalle concentrazioni preindustriali di CO2 (280 ppm). Tutto ciò che succede, raddoppiando la concentrazione, è che l’energia radiante viene assorbita più vicino alla superficie. In termini più scientifici, la lunghezza di assorbimento per l’attuale concentrazione di CO2 è 25 metri (lunghezza alla quale l’intensità diminuisce a 1/e). Di conseguenza a circa 200 metri dal suolo l’assorbimento è praticamente completo. Aumentati livelli di CO2 semplicemente spostano la lunghezza di assorbimento più vicino a terra, ad esempio 100 m. In realtà, a tali deduzioni arrivarono già agli inizi del ’900 i pionieri dell’effetto serra, H.Koch e L. Angstrom (Realclimate: what Angstrom didn’t know). In esperimenti di laboratorio si usano tubi riempiti di CO2 pura, simulando così in pochi metri l’atmosfera terrestre. Essi dimostrano chiaramente che dopo pochi metri l’assorbimento IR è completo. Cerchiamo di aiutarci con uno schema a blocchi, figura 4.6, che indichi anche quali sono (secondo i vari autori…) i valori più attendibili dei flussi di energia in Watt/m2. Il flusso radiante solare (medio) pari a 342 W/m2 incide sull’alta atmosfera. Si tratta di radiazione essenzialmente visibile, con
70
La strega perfetta
Figura 4.6. Flussi di energia Sistema a blocchi in uno stato di equilibrio stazionario indica i flussi in watt/m2 come di consueto (da Trenberth et al. 2009, rielaborata).
una coda nell’UV e nell’IR vicino. 77 W/m2 sono immediatamente riflessi indietro verso lo spazio infinito (rappresentato dalla nuvoletta) dalle goccioline d’acqua delle nubi, 67 sono assorbiti dalle nuvole stesse (le multiple riflessioni nelle goccioline o cristalli di acqua) o anche da H2Ovap che presenta interessanti assorbimenti nell’IR vicino, figura 4.7. 4.7. La stratosfera: perché si riscalda?
La figura 4.8 mostra i profili verticali della pressione e della temperatura osservati nell’atmosfera. La scala delle ascisse del grafico a sinistra è logaritmica e quindi l’andamento lineare del grafico implica che la pressione diminuisce esponenzialmente con l’altitudine, ciò significa che la frazione del peso totale dell’aria situata al di sopra dell’altitudine z è P(z)/P(0). Ad esempio a 80 km di altezza la pressione scende a 0,01 hPa (ettoPascal) ovvero il 99,999% dell’atmosfera è al di sotto di tale altitudine. In realtà essa è un sottile involucro che circonda la Terra, come ebbe a dire l’astronomo Fred Hoyle una volta: «Lo spazio esterno non è affatto distante; si tratta di un’ora di viaggio in auto (se l’auto potesse viaggiare verso l’alto)».
4. L’energia radiante interagisce con l’atmosfera terrestre 71
Figura 4.7.
Flussi di energia complessivi.
Figura 4.8.
Profili di pressione e temperature medie a una latitudine di 30°N
(marzo).
72
La strega perfetta
Consideriamo ora il grafico della temperatura. Nella troposfera, che si estende dalla superficie fino all’altezza di 8-18 km (a seconda della latitudine e della stagione) si ha una costante diminuzione di temperatura (la scala sulle ascisse è lineare in Kelvin). Una spiegazione semplificata è che il Sole scalda la superficie, la quale scalda l’aria a contatto con essa, la quale si dilata e sale verso l’alto espandendosi e quindi raffreddandosi (espansione adiabatica). La stratosfera inizia dalla tropopausa (sommità della troposfera) fino alla stratopausa, situata a 50 km dalla superficie. Il principale parametro che la differenzia dalla troposfera è che le temperature salgono con l’altitudine fino alla stratopausa, per via dell’assorbimento di una parte della radiazione solare incidente (nell’UV) da parte dello strato di ozono, che si forma attorno a 25 km, una zona da taluni detta ozonosfera. Questo fatto è ben documentato in figura 4.9, che sarà ripresa nel capitolo 6 sulla chimica-fisica dell’atmosfera. La radiazione UV dapprima scinde la molecola dell’ossigeno in due atomi e poi questi atomi singoli reagiscono con il nor-
Profili della concentrazione dell’ozono in funzione dell’altitudine.
Figura 4.9.
4. L’energia radiante interagisce con l’atmosfera terrestre 73
male ossigeno molecolare formando ozono, secondo la reazione O + O2 → O3. L’ozono possiede alcuni vitali (per noi umani) assorbimenti nell’UV, per cui questa radiazione non riesce ad arrivare sulla Terra se non in piccola parte.
Capitolo 5
La temperatura del pianeta
5.1. Il punto di arrivo: la temperatura del pianeta
La temperatura del pianeta Terra è in fondo il parametro a cui siamo più interessati, quello che suscita la maggiore attenzione nei media. Da una lettura dei precedenti capitoli si è però intuito che addossare tutte le responsabilità alla CO2 è piuttosto superficiale; vi sono sicuramente altre concause, antropogeniche e naturali, che concorrono a questo aumento di temperatura globale. Sì, globale! Dietro questo semplice aggettivo si nasconde tutto il contenuto di questo capitolo, o quasi. L’interesse di noi umani scende progressivamente se un certo fatto si allontana da noi nello spazio e nel tempo. Il clima segue questa logica: eppure per capire il fenomeno dobbiamo ragionare su scala planetaria, cercando di dimenticare l’ultima estate torrida magari nella pianura padana, o quella nevicata di febbraio che ci bloccò l’auto in garage. La meteorologia popolare è zeppa di luoghi comuni (non ci sono più le mezze stagioni… ecc.) che è meglio lasciare da parte prima di procedere. Ricordiamoci che la scala dei tempi, per noi umani, è profondamente diversa da quella del clima. Per noi 20 anni sono una frazione determinante per la nostra vita, per gli eventi climatici possono essere una nullità. Inoltre la temperatura misurata fisicamente con un termometro può essere diversa da quella percepita, come sappiamo infatti l’aria secca permette una maggiore evaporazione del sudore e ci raffredda, mentre l’aria umida la impedisce e ci dà un’impressione
76
La strega perfetta
di afa. Consideriamo dunque la temperatura non localmente ma globalmente. Non è semplice mediare i dati di temperatura sulla Terra e ottenere un singolo valore da inserire poi in un grafico cronologico. Secondo Don Easterbrook (Easterbrook 2015) attualmente cinque organizzazioni pubblicano dati globali di temperatura, accessibili on-line. Due (RSS, Remote Sensing System e UAH, University of Alabama in Huntsville) sono dati satellitari. Tre forniscono dati terrestri (National Climatic Data Center NCDC, NASA’s Goddard Institute for Space Studies GISS/GISTEMP, University of West Anglia Climatic research Unit CRU). I dati terrestri sono spesso in disaccordo tra loro e in realtà forniscono spesso valori molto fitti per città e megalopoli dove si hanno temperature diverse dal contesto non urbano (le città sono isole termiche con temperature di almeno 1 o 2°C maggiori delle zone circostanti come vedremo tra breve) e valori radi e scarsi sulla superficie degli oceani. Quando questi dati vengono mediati si ha un prevalere ovviamente di quelli provenienti dalle città, il che porta a medie sbilanciate verso l’alto. Le misure satellitari rappresentano una migliore alternativa, infatti forniscono una copertura completa e non sono contaminate da fattori locali. Esse non si riferiscono però alla temperatura superficiale ma alla temperatura della bassa troposfera misurata a 600 millibar (cioè all’altezza di circa 3 km, dove la pressione scende proprio a quel valore). La temperatura così misurata non corrisponde a quella superficiale, ma la differenza è considerata irrilevante (CCSP). Fu scelta la quota di 600 mb poiché si trova al di sopra del livello di mescolamento, cosa che permette di eliminare le variazioni diurne. Sul sito www.climate4you.com vengono presentati in forma grafica i dati satellitari e non solo; uno dei grafici più significativi è quello in figura 5.1, riferito alla bassa troposfera, aggiornato ad agosto 2019. Il suggerire un sito web è un’opportunità per il lettore: i dati climatologici devono essere aggiornati ogni mese, e questo non è evidentemente possibile in un libro. Dopo il picco del
5. La temperatura del pianeta77
Temperature nella bassa troposfera, riportate come anomalia rispetto alla media del periodo 1990-2000. Fonte dei dati: Hadley Centre for Climate Prediction and Research – University of East Anglia (HadCRUT). Elaborazione dei dai: climatete4you.com. Figura 5.1.
2016 in figura, dovuto al fenomeno di El Niño, si sta notando una progressiva diminuzione di circa 0,2°C in 3 anni. Questo “trend” sarà destinato a continuare? Verrebbe da dire, parafrasando il Manzoni, «ai posteri l’ardua sentenza»… ma forse basterà aspettare qualche anno e rivisitare il sito web di cui sopra! Il lettore noterà che sulla scala verticale (ordinate) non sono riportate temperature assolute ma l’anomalia delle stesse. Visto che è difficile e controverso trovare un valore di riferimento per tutte le misure satellitari e non, si preferisce rendere tutti i grafici di questo tipo praticamente “autoconsistenti”. In altri termini si sceglie a priori un intervallo di tempo di riferimento (esempio 1985-2005), si mediano tutti i valori disponibili in quel periodo e si riportano quindi sul grafico le differenze (dette anomalie) tra i valori misurati e quella media. I dati di misurazione satellitare vengono spesso rivisti anche per il passato e ricalibrati, ecco perché sul grafico compaiono valori in rosso (versione precedente) e in blu (dati aggiornati). Un grafico in controtendenza, figura 5.2, viene presentato confrontando i dati di temperatura media globale raccolti dalla “Climate Research Unit” presso l’Università della East-Anglia
78
La strega perfetta
Temperature terrestri (fonte HadCRUT), riportate come anomalia e andamento della concentrazione di CO2 Fonte dei dati www.climate4you.com (cortesia professor Ole Humlum).
Figura 5.2.
(HadCRUT4 cru.uea.ac.uk) con i dati della CO2 raccolti dall’osservatorio presso il vulcano Mauna Loa nelle Hawaii. Le temperature sono presentate come anomalie rispetto alla media 1961-1990. Il vantaggio di questa raccolta dati è di partire dal 1958, quando le misurazioni venivano raccolte unicamente da stazioni terrestri o marittime. Il grafico è aggiornato a giugno 2019. La tendenza dell’anomalia di temperatura è in grigio tratteggiato. Stupisce l’andamento in controtendenza netta con la CO2 dal 1958 al 1977, in apparentemente crescita parallela da 1978 al 2005 circa e poi una divergenza marcata tra l’aumento più ripido della CO2 e in leggerissima ascesa per l’anomalia termica. 5.2. Oscuramento globale (Global Dimming)
Con la locuzione global dimming (oscuramento/offuscamento globale), viene indicata la riduzione graduale dell’irraggiamento solare sulla superficie terrestre. Non è un fenomeno da ascriversi all’attività solare di per se stessa, di cui parleremo nel capitolo 12,
5. La temperatura del pianeta79
ma da far risalire ai complessi fenomeni di formazione di aerosol nell’atmosfera e quindi di nuclei di condensazione di nubi (CCN, Cloud Condensation Nuclei). L’effetto di questi nuclei è di accrescere la copertura nuvolosa e quindi l’albedo del pianeta con conseguente suo raffreddamento. Il fenomeno fu osservato a partire dagli anni 1950, poi confermato da un aumento di luminosità della Terra verso lo spazio misurato dai radiometri in dotazione ai satelliti artificiali in orbita proprio per l’aumentata riflettanza dell’atmosfera terrestre. Si pensa che la causa principale dell’offuscamento globale sia da imputare all’aumentata presenza nell’atmosfera di particolato sospeso in forma di aerosol. L’effetto di diffondere e riflettere la luce solare verso lo spazio può essere marginale se comparato con la formazione di nuclei di condensazione per le gocce d’acqua che formano le nubi. Si tratta di un effetto globale, con variabilità locale, ma si stima una diminuzione della radianza solare del 4% dal 1960 al 1990. Da quel periodo in avanti si è misurata una diminuzione del fenomeno, e i motivi di ciò sono ancora da determinare. Secondo i fautori dell’antropogenicità nei cambiamenti climatici il motivo va ricercato nella diminuzione delle emissioni di particolato (es. dai motori diesel) e di anidride solforica (che si trasforma poi in acido solforico, agente nucleante) per via di legislazioni più stringenti, dalla fine degli anni 80 in poi. Sempre secondo questa corrente di pensiero, nel periodo 1950-1990 al contrario l’incremento dell’inquinamento atmosferico causò l’aumento di particelle sospese e la formazione di nuvole costituite da gocce di piccole dimensioni. Al di là della causa scatenante, la crescita della copertura nuvolosa, soprattutto nella bassa troposfera, crea un maggior numero di punti di riflessione e aumenta l’albedo dell’atmosfera. In generale le nuvole assorbono e riflettono sia il calore irradiato dalla superficie terrestre che quello del Sole, secondo meccanismi diversi. L’effetto combinato di questi fattori varia, in modo complesso, a seconda dell’altitudine, della località, della luminosità e del tempo atmosferico (notte, giorno, stagioni). In genere durante il giorno
80
La strega perfetta
predomina l’assorbimento della luce solare (con l’effetto di mitigare il riscaldamento sulla superficie terrestre); di notte invece la retroriflessione della radiazione terrestre rallenta la perdita di calore della Terra. Quanto sopra potrebbe dare una spiegazione diretta della diminuzione di temperatura in controtendenza all’aumento di CO2 che si nota facilmente in figura nel periodo 1958-1978. Oggi questi dati così importanti per il pianeta sono raccolti e divulgati in rete dal Baseline Surface Radiation Network (BSRN), affiliato al World Climate Research Programme https://bsrn.awi.de/ a cui i più curiosi sono reindirizzati. I dati raccolti dal BSRN dal 1990 a oggi rivelano un fatto sorprendente: la superficie del pianeta ha ricevuto un aumento di radiazione solare pari al 4% nell’ultimo decennio, dato confermato anche da analisi satellitari. Stando così le cose la copertura nuvolosa e la conseguente modifica dell’albedo, come sottolineato all’inizio del libro, meriterebbero molta più attenzione da parte della comunità scientifica. In particolare per i loro effetti immediati sulla disponibilità energetica che ci arriva dal Sole e quindi sulla temperatura del pianeta. Henrik Svensmark, astrofisico solare, nei primi anni 2000 elaborò una teoria proprio basata sugli effetti indotti dalle radiazioni cosmiche sulla formazione di aerosol e quindi sul conseguente accrescimento di centri di condensazione e infine delle nubi. Nel capitolo 12 volgeremo la nostra attenzione proprio verso l’attività solare, i suoi cicli e i meccanismi interattivi tra essa e la copertura nuvolosa. Anticipiamo che questa teoria ben si raccorda con quella del global dimming, che potrebbe quindi avere origini non antropiche ma legate all’attività ciclica solare. In conclusione il global dimming e l’effetto serra sono fenomeni diametralmente opposti. Alcuni climatologi sostengono, estremizzando il pensiero, che l’effetto serra provocherebbe catastrofici riscaldamenti globali se non fosse “mitigato” dal global dimming. Arrivando alle conseguenze estreme, alcuni “scienziati” (utilizziamo il virgolettato) proposero di bruciare nella media troposfera zolfo
5. La temperatura del pianeta81
in polvere fine, in modo che i prodotti di combustione potessero aumentare l’effetto di global dimming e ridurre se non neutralizzare il riscaldamento globale. All’opposto si potrebbe però asserire che il global dimming non sia provocato dall’inquinamento, e allora seguirebbe una periodicità sua naturale, non provocata dall’uomo (se non in piccola misura). In questo modo esso avrebbe andamenti appunto periodici che potrebbero spiegare le fasi sia in discesa che in salita della temperatura, mentre l’origine antropica da sola difficilmente potrebbe fare altrettanto. Abbiate pazienza fino al capitolo 12…! 5.3. Perché le città sono isole termiche
Ogni anno viene pubblicata una autorevole review sui consumi energetici mondiali, da parte della British Petroleum (BP Statistical Review of World Energy). Leggendo la più recente edizione, la 68esima del 2019 (https://www.bp.com/content/dam/bp/ business-sites/en/global/corporate/pdfs/energy-economics/statistical-review/bp-stats-review-2019-full-report.pdf) dalle prime pagine appare un dato fondamentale: il consumo mondiale di energia primaria (sia fossili che rinnovabili) è aumentato nel 2018 del 2,9% (rispetto all’anno precedente), la crescita maggiore dal 2010. Le due principali fonti di aumento risultano essere il gas naturale (essenzialmente metano) e le rinnovabili (fotovoltaico, eolico, idroelettrico). Il confronto di questo dato con l’aumento medio dell’1,5% negli ultimi 10 anni ci dice quanto la crescita aumenti. Le emissioni di “carbonio” sono cresciute di conseguenza del 2%, la crescita più rapida negli ultimi 10 anni. La principale fonte energetica è sempre il petrolio, con 13685 milioni di tonnellate consumate nel 2018, forse il dato che più impressiona è il consumo mondiale giornaliero, che nel 2018 ammontò a 93 milioni di barili al giorno (1 barile di petrolio equivale a 159 litri). Quindi mentre la società richiede un’accelerazione verso un sistema energetico a basso carbonio, in contemporanea si
82
La strega perfetta
ha un preoccupante aumento sia nel consumo energetico che nelle emissioni di “carbonio”. Ma c’è un aspetto scarsamente considerato dai media: sia il petrolio che il gas naturale e il carbone vengono usati per produrre energia e materie prime, molte delle quali vengono infine trasformate in calore, ad esempio la plastica negli inceneritori. L’energia viene trasformata completamente, anche quella parte trasformata prima in lavoro meccanico (ad esempio per spingere un’auto) viene infine trasferita all’ambiente come calore. Le materie prime lo sono in gran parte, così le materie plastiche vengono in gran parte bruciate negli inceneritori. Il risultato è impressionante, se si pensa che una tonnellata di petrolio sviluppa per combustione 42 Giga Joule di energia. Il consumo mondiale di energia da tutte le fonti primarie (il dettaglio è nella tabella 5.1) risulta essere secondo la fonte citata di 13864,9 milioni di tonnellate di petrolio equivalenti nel 2018, il che corrisponde a 5,82·1018 Joule come energia. Dividendo questo valore per 365 e per gli abitanti del pianeta, e ricordando inoltre che 3600 Joule equivalgono a 1 Wh (wattora) di energia, si ottiene, come risultato, che ogni abitante del pianeta nel 2018 consumò (mediamente) 58 KWh/giorno di energia. Tabella 5.1. Consumo energetico globale 2018 (per le fonti energetiche diverse dal petrolio per omogeneità si è adottata la stessa unità di misura) TW significa TeraWatt, 1012 Watt.
Milioni di tonnellate in petrolio-equivalente
TWh/anno
Petrolio
4662.1 (33,6%)
47620
Gas
3309.4 (23,9%)
33780
Carbone
3772.1 (27,2%)
38513
Energia nucleare
611.3 (4,4%)
6240
Energia idroelettrica
948.8 (6,8%)
9689
Fonti rinnovabili
561.3 (4,0%)
5729
Totale
13864.9 (100%)
141561
5. La temperatura del pianeta83
Permetteteci una piccola digressione personale, il mio contatore elettrico di casa si blocca se supero i 2 KW di energia… quindi utilizzando l’energia elettrica al massimo per 24 ore arriverei a 48 kWh… Evidentemente benzina e riscaldamento hanno un peso preponderante. Si è visto che tutta questa energia si trasforma infine quasi totalmente in calore. Lo fa in maniera molto asimmetrica, così come la popolazione è distribuita sulla superficie terrestre. Nei grandi agglomerati urbani si ha quindi elevata densità di popolazione e grandi emissioni di energia. In un recente lavoro apparso sulla prestigiosa rivista «Nature» – A new global gridded anthropogenic heat flux dataset with high spatial resolution and long-term time series, «Nature», June 2019, K. Jin et al. – gli autori hanno calcolato il flusso di calore antropogenico (Anthropogenic Heat Flux, AHF) per diverse metropoli, e per il globo intero. Vista la sua importanza, la redazione della rivista ha deciso di rendere l’articolo pubblico in rete. Iniziamo dal pianeta, il flusso termico antropogenico risultò essere 0,05; 0,13 e 0,16 W/m2 rispettivamente nel 1979, 2015 e 2050 (previsione). Non sono valori allarmanti, se inseriti in cicli di scambio energetico complessivi di centinaia di W/m2 ma se si esaminano le grandi metropoli troviamo valori compresi tra 8,4 (Pechino 2010) 26,2 (Londra 2015) fino a 52,8 (Tokyo 2015) e 87,5 (Seoul 2000) W/m2. Questi sono valori medi annuali, ovviamente vi è un andamento stagionale, con l’inverno dove l’energia viene trasformata in riscaldamento ma anche in estate per l’uso esteso, in tutte le metropoli, di aria climatizzata. Relativamente all’area metropolitana questo provoca un aumento termico tra 1 e 2,5 °C, a seconda della circolazione atmosferica. Il massimo dell’AHF fu calcolato per il centro di Tokyo, con un valore “astronomico” di 1590 W/m2! Se le sonde termiche a terra sono posizionate nelle metropoli i valori possono essere molto alterati. In questo possiamo vedere anche una certa logica, in quanto agli abitanti delle città interessa il meteo locale e non della campagna circostante, ma parrebbe quantomeno discutibile l’inserimento di questi dati in una media globale!
84
La strega perfetta
La contaminazione dei dati meteo raccolti dalle centraline urbane, in particolare per la temperatura, fu già osservata nei primi anni ’70 del secolo scorso da Oke (Oke 1973). Addirittura egli propose una formula semplificata per correlare l’aumento termico rispetto al territorio: ΔΤ (isola urbana) = 0,317·ln(P), dove P è la popolazione residente. Quindi ad esempio un villaggio di 10 persone ha uno sbilancio di 0,73°C, mentre uno con 100 abitanti di 1,46°C. Una città di 1000 uno sbilancio di 2,2°C e una metropoli con 1 milione di abitanti di 4,4°C. Visto che siamo in tema di effetti antropogenici sul clima inseriamo qui una breve digressione sull’emissione di CO2 da parte proprio di noi esseri umani. Come tutti gli animali il nostro metabolismo è basato sulla ossidazione dei carboidrati e dei grassi per produrre energia. Questa energia viene immagazzinata in una molecola detta ATP (adenosintrifosfato) che è il vero vettore energetico per tutti i processi metabolici delle nostre cellule. Come effetto di questa ossidazione ogni giorno il nostro organismo produce una quantità di CO2 variabile tra 400 grammi (metabolismo cosiddetto basale, durante il sonno o in condizioni di riposo assoluto) fino a 1000-1200 grammi con elevata attività fisica. Ipotizziamo, come media, il valore di 800 grammi, considerando che nella molecola vi sono 2 atomi di ossigeno e uno di carbonio, il rapporto tra la massa molecolare della CO2 e la massa di carbonio è 3,67 (44/12). Quindi l’emissione quotidiana di carbonio è circa 220 grammi, che moltiplicata per 365 e per 7.700.000.000 di abitanti del pianeta porta a 0,62 Gt C (giga tonnellate di carbonio) complessive per anno, un valore non certo trascurabile. 5.4. Modelli a cascata e amplificazione degli errori
Come si è visto nel capitolo 4 i calcoli necessari per avere una stima dell’aumento di temperatura nei prossimi 30-50 anni si devono basare su simulazioni matematiche al computer. Esse sono conca-
5. La temperatura del pianeta85
tenate in quanto i risultati di una sono il punto di partenza numerico di una seconda e così via. Questo perché un modello climatico necessita di uno scenario di base per un periodo di 30-50 anni (con dati di popolazione, sviluppo economico, consumo di materie prime fossili). Essendo proiezioni nel futuro non possono essere che frutto di modellazioni matematiche. A sua volta in cascata esse generano (attraverso modelli di calcolo) una serie di nuovi parametri come forestazione, biomasse, flussi di CO2 e quant’altro, che a loro volta in cascata generano (sempre attraverso nuovi modelli di calcolo) forzanti radiativi, temperature atmosferiche e oceaniche, pluviometrie. In questo meccanismo concatenato, tipico di tutte le simulazioni a livello globale, esse devono necessariamente inserire nel computo svariati fattori che necessiteranno poi di modifiche attraverso passaggi successivi. A ognuno di questi fattori viene a priori assegnato un compito di “causa” oppure di “effetto”, e successivamente l’effetto potrà a sua volta influire sulla “causa” stessa o su altre “cause”. Se desideriamo addentrarci con maggior precisione nella questione, la causa (anche se alcuni climatologi non sarebbero d’accordo) diventa il “forzante” e l’effetto la “retroazione”. Ma come funzionano in sintesi queste simulazioni? Concettualmente considerano due processi principali che governano ogni cambiamento climatico, il forzante e la retroazione (forcing and feedback). Il forzante va inteso come un fenomeno, un evento che perdura nel tempo e che influenza uno (o più) dei flussi di energia il cui delicato equilibrio è alla base e della temperatura raggiunta dalla superficie, e quindi anche del clima. La retroazione (positiva o negativa) è un effetto secondario provocato del forzante che produce a sua volta delle variazioni della temperatura; se esso è positivo si parla anche di amplificazione. Ad esempio l’aumento della CO2 dall’era preindustriale a oggi ha prodotto (secondo la formula adottata nel report ICPP) 2,03 W/m2 di aumento del flusso IR che l’atmosfera irradia verso Terra (DLR) pari a circa 300 W/m2. Si ricorda che l’altro componente IR attivo dell’aria è l’H2Ovap, anche se si estrinseca su bande IR
86
La strega perfetta
diverse dalla CO2. Per spiegare l’aumento di temperatura media del pianeta dall’era preindustriale (circa 1°C) e per prevederne gli andamenti in futuro si suppone una retroazione positiva del vapor acqueo, che per un iniziale riscaldamento oceanico viene emesso in maggior quantità, e quindi secondariamente determina un aumento di riscaldamento atmosferico per effetto serra. È proprio la parte di amplificazione o retroazione positiva che determina, a seconda di come viene considerata nelle simulazioni, un ventaglio ampio di aumenti termici per il 2050 (rispetto all’epoca preindustriale), che vanno da 1,5 fino ad addirittura 4°C. È ovvio che un sistema climatico che comprenda elevati effetti di amplificazione per la CO2, visto il suo aumento continuo dovuto alla combustione dei fossili, alla produzione del cemento e altro, prevedrà un aumento del riscaldamento globale antropogenico o anche una sua accelerazione. La sensibilità climatica è un parametro che, se riferito alla CO2, indica l’aumento di temperatura che si avrebbe raddoppiando la sua concentrazione dalle 280 ppm preindustriali a 560. Nelle simulazioni, rese necessarie in quanto il valore di 560 è lontano dall’attuale quindi mai raggiunto dal pianeta, ad esempio il GCM (General Circulation Model) vengono previsti valori tra 2 e 5°C a seconda del livello di amplificazione, ma alcuni studi con altre modellizzazioni danno risultati minori. Spesso si sente parlare anche di gas serra come il metano (emesso ad esempio dagli allevamenti): essendo presente in circa 1,7 ppm sembrerebbe avere un forzante minimo, ma se il modello climatico è molto sensibile gli effetti saranno amplificati fortemente. All’opposto, se il modello climatico è relativamente insensibile (scarsa o nulla amplificazione) la nostra preoccupazione per l’aumento di gas serra potrebbe diminuire e in particolare l’aumento di CO2 non potrebbe spiegare da solo il riscaldamento globale. Quest’ultimo sarebbe, almeno in parte, dovuto a cause naturali. Non solo, i massicci investimenti finanziari per ridurre la CO2 potrebbero risultare inefficaci, insomma una cura sbagliata. Spesso discernere cause ed effetti in fenomeni che avvengono
5. La temperatura del pianeta87
contemporaneamente (o quasi) non è immediato. Un forzante (causa scatenante) può, cambiando punto di vista, diventare un effetto (retroazione) e i ruoli si invertono, rovesciando improvvisamente la nostra visione del mondo (come direbbero in Germania, Weltanschaung). Molti ricercatori assumono che il riscaldamento globale provochi una diminuzione della copertura nuvolosa, ma spostando il punto di vista si potrebbe asserire che una diminuzione di copertura nuvolosa, aumentando la radiazione incidente sulla superficie, potrebbe causarne facilmente un riscaldamento. In questa seconda ipotesi il forzante sarebbe la copertura nuvolosa. Qui i due fenomeni avvengono in simultanea ed è facile cadere nel tranello di scambiare causa con effetto (cfr. la bibliografia basilare, Spencer 2007, Spencer 2008, Kauppinen 2019). L’ipotesi che le fluttuazioni nella copertura nuvolosa siano la causa delle variazioni di temperatura in realtà ha diversi sostenitori nella letteratura scientifica (cfr. sopra). Alcuni autori (J.K. e P.M.) di recente hanno evidenziato una corrispondenza, nei limiti dell’errore sperimentale, tra il ΔT (osservato) e il ΔT (calcolato in base alla variazione di copertura nuvolosa) (ΔT = variazione di Temperatura), assegnando per conseguenza, alla sensibilità climatica della CO2 un valore di 0,24°C, molto basso. In aggiunta questi autori stimarono un rapporto lineare tra l’aumento percentuale di copertura nuvolosa (nuvole basse) e l’anomalia di temperatura, con un coefficiente di -0,11°C. Probabilmente nei mezzi di comunicazione di massa questi lavori sono quasi ignorati, in contrasto viene data una risonanza esasperata a quelli che indicano previsioni apocalittiche. Pensate che si è giunti persino a demonizzare chi sosteneva ipotesi del genere, paragonandolo a un “negazionista dell’Olocausto”. Il rapporto causa-effetto deve essere in una sola direzione e non si deve suggerire, in alcun modo, all’opinione pubblica la via alternativa. Me se i ricercatori dimenticano il forzante nuvoloso ecco che emerge un’illusione di clima dominato da retroazioni positive.
88
La strega perfetta
Il dubbio che emerge a questo punto può essere riassunto nella domanda: “Ma se il clima terrestre è così poco sensibile alle nostre emissioni di gas serra, che cosa può aver provocato il riscaldamento degli ultimi 100 anni?”. In altre parole dovrà pur esserci qualche potente forzante naturale come responsabile di ciò! Per ora la scienza non è concorde, ci sono alcune ipotesi, una ad esempio prevede un forzante solare, ma ne discuteremo meglio nel capitolo 12, appunto dedicato agli effetti non antropogenici sul clima… chiediamo al lettore di pazientare ancora un poco. Per rispondere alla domanda occorre sottolineare, rimanendo in tema con il capitolo, che contrariamente a quanto sostenuto da alcuni scienziati, il riscaldamento sperimentato dal 1920 in avanti non è molto diverso da quanto la Terra ha sperimentato negli ultimi 2000 anni, in cicli alternati. Eventi come il periodo caldo medioevale e la piccola glaciazione sono ampiamente documentati, anche se vi è una tendenza in letteratura a sminuirli o addirittura eliminarli. Ne parleremo più diffusamente nel capitolo 12. Per ora cerchiamo di ampliare soltanto la scala dei tempi. Come sapete ci troviamo verso la fine di un lungo periodo interglaciale, iniziato circa 11.000 anni fa al termine dell’ultima glaciazione, durata essa stessa quasi 90.000 anni, figura 5.3. Ora le datazioni con la tecnica isotopica del ghiaccio della Groenlandia (Epica Dome-C) ci permettono con buona approssimazione di risalire sia alla temperatura che alla concentrazione di CO2 durante questo periodo di 11.000 anni (qui sotto i riferimenti ai dati originali). I grafici sono elaborati dal sito climate4you.com, mentre la fonte delle misure si trova su questi due siti web: ftp://ftp.ncdc.noaa.gov/pub/data/ paleo/icecore/greenland/summit/gisp2/isotopes/; ftp://ftp.ncdc. noaa.gov/pub/data/paleo/icecore/antarctica/epica_domec/edcco2.txt. Si nota che: 1. nell’arco di tempo considerato non vi è alcuna apparente correlazione tra la curva sottostante in rosso (CO2) e quella superiore in blu (temperatura);
5. La temperatura del pianeta89
Figura 5.3. Temperature terrestri e CO2 negli ultimi 11000 anni (cortesia Ole Humlum/climate4you.com).
2. precedenti all’attuale periodo caldo vi sono almeno 3 periodi caldi documentati, quello minossico, quello romano e il medioevale, rispettivamente centrati a 3300, 2100 e 1000 anni fa. Tutti cadono in epoca preindustriale in cui l’effetto antropogenico era nullo! Il grafico si ferma all’inizio dell’era industriale (1850) lasciando quindi da parte gli ultimi anni che vedono un aumento di circa 1,0°C delle temperature medie e un picco di CO2 che arriva a 410 come sappiamo. La principale obiezione a questi dati è che le temperature della Groenlandia non sempre riflettono le temperature medie globali, ma ne sono comunque una traccia.
Capitolo 6
Alcune considerazioni di chimica-fisica dell’atmosfera
6.1. La composizione dell’atmosfera
Noi viviamo con i piedi a terra ma immersi nell’atmosfera e con questa interagiamo profondamente attraverso una interfaccia che chiamiamo pelle e attraverso i nostri atti respiratori con i quali trasferiamo l’aria nei polmoni dove ha inizio una lunga serie di reazioni chimiche alla base dei processi vitali. Si può veramente affermare che l’aria per noi è “La Vita”, senza questa la vita cessa, per soffocamento, dopo pochi minuti, di regola inferiori a 5, mentre senza acqua e senza cibo possiamo resistere per giorni. Altre interfacce strategiche per il funzionamento (secondo gli umani interessi) del pianeta sono quelle fra aria atmosferica e suolo terrestre, acque dolci e salate, e il mondo vegetale. Lo spirito indagatore dell’uomo non poteva certo sottrarsi allo studio dell’atmosfera terrestre, sia sotto i suoi aspetti fisici, ad esempio pressione, temperatura e propagazione di onde al suo interno, che chimici, composizione e reattività. L’atmosfera è stata suddivisa in diverse fasce: –– troposfera, entro un raggio dalla crosta terrestre di 10 km in media (in realtà di 8 km in prossimità dei poli, fino a 17 km nelle zone equatoriali); –– stratosfera con raggio di 50 km; –– mesosfera con un raggio di 80 km; –– esosfera a contatto con lo spazio celeste.
92
La strega perfetta
In generale molecole e atomi costituenti l’atmosfera sono trattenuti dall’attrazione gravitazionale in un raggio di 500 km. La composizione chimica della troposfera, aria secca, a livello del mare alla pressione di 1 atm è riportata in tabella 6.1. Ricordiamoci che questo meraviglioso involucro del pianeta è un sistema in continua evoluzione dinamica, come più volte sottolineato. In condizioni di equilibrio dinamico (o meglio stazionario), la quantità complessiva in ingresso di un certo componente eguaglia quella in uscita, nello stesso intervallo di tempo considerato. Se dividiamo la quantità totale del gas presente nell’atmosfera per questo flusso ingresso o in uscita (sono due quantità eguali all’equilibrio) otteniamo appunto il suo tempo di residenza. Ma non tutti i componenti gassosi dell’atmosfera hanno lo stesso tempo di residenza: questo è in relazione con la reattività e le caratteristiche chimico-fisiche del gas e non necessariamente con la sua percentuale. Bisogna sottolineare che il tempo di residenza così definito non è in stretta relazione con il tempo necessario per un certo componente gassoso a raggiungere una concentrazione stabile dopo un repentino cambiamento. Questo parametro, definito dagli studiosi tempo di aggiustamento, viene determinato dalla contemporanea presenza di più di un meccanismo di assorbimento/ riemissione. Ad esempio il carbonio ha un tempo di residenza di 4 anni (ciclo breve o fotosintetico del carbonio) ma se consideriamo anche il ciclo lungo (dovuto agli scambi con l’oceano e la formazione di carbonati insolubili) il suo tempo di aggiustamento può raggiungere anche 50-200 anni. Si è già discusso nel capitolo 1 dei meccanismi di ingresso e uscita nell’atmosfera di CO2, O2 ed N2. Diamo ora uno sguardo più generale con una tabella riassuntiva (tabella 6.1): Come si può notare la somma delle percentuali in volume di azoto 78%, ossigeno 21% e del gas nobile argon 0,93%, arriva a 99,93%. La somma di tutti gli altri gas presenti arriva dunque a 0,07 %, come numero quasi trascurabile non come importanza per i processi chimico-fisici che da questi si originano; ormai gran par-
6. Alcune considerazioni di chimica-fisica dell’atmosfera93
Tabella 6.1.
Composizione chimica dell’atmosfera.
Gas (in ordine di abbondanza)
Formula chimica
Percentuale in volume (o moli)
Tempo di residenza
Sorgente
Azoto
N2
78,084%
16 milioni di anni
Biologico
Ossigeno
O2
20,946
3000 – 4000 anni
Biologico
Argon
Ar
0,934
-
Decadimento radioattivo
Anidride carbonica
CO2
410 ppm = 0,0410%
4 anni (vedi cap.2)
Biologico, oceanico, combustione dei fossili
Neon
Ne
18,18 ppm
-
-
Elio
He
5,24 ppm
-
-
Metano
CH4
1,7 ppm
9 anni
Biologico, antropogenico
Idrogeno
H2
0,56 ppm
2 anni
Biologico, antropogenico
Protossido d’azoto
N2O
0,31 ppm
150 anni
Biologico, antropogenico
Monossido di carbonio
CO
40-220 ppb = 0,04-0,22 ppm
60 giorni
Fotochimico, combustione
Ozono
O3
10 - 100 ppb
pochi giorni
Fotochimico
NMHC(*)
-
5 – 20 ppb
variabile
Biologico, antropogenico
Idrocarburi alogenati
-
3,8 ppb
variabile
Antropogenico
Perossido d’idrogeno
H2O2
0,1 – 10 ppb
1 giorno
Fotochimico
94
La strega perfetta
Ammoniaca
NH3
0,01 – 1 ppb
2-10 giorni
Biologico
Biossido di zolfo
SO2
0,01 – 1 ppb
2-10 giorni
Fotochimico, vulcanico, antropogenico
Radicale idrossile (^)
•OH
0 – 0,0004 ppb
1 secondo circa
Fotochimico
(*) = Non Methane HydroCarbons ovvero idrocarburi diversi dal metano (^) = I radicali sono specie chimiche con un elettrone spaiato tra gli elettroni esterni di valenza N.B. ppm (parti per milione) = percentuale/10.000; ppb(parti per miliardo) = ppm/1000
te di noi ha imparato che nell’aria c’è la CO2 e c’è l’ozono O3 le cui concentrazioni sono espresse rispettivamente in parti per milione e parti per miliardo, in inglese billion. Si è reso necessario usare questi tipi di concentrazione perché se le esprimessimo in % verrebbero numeri difficili da leggere e da memorizzare per contro fornirebbero, per paragone con le altre %, una idea concreta della loro, in apparenza, trascurabile presenza: anidride carbonica CO2 =0,0414%; ozono O3 =0,0000010 - 0,0000100 %. 6.2. Un poco di storia: come si è arrivati alla composizione attuale
Iniziamo dai gas nobili (o gas inerti) come elio (He), neon (Ne) e Argon (Ar). Sono gas monoatomici che, non reagendo con alcun altro elemento, hanno tempi di residenza lunghissimi, confrontabili con l’età stessa della Terra. Essi sono determinati da meccanismi fisici e non chimici, ci forniscono una specie di orologio naturale. Prendiamo il più pesante dei tre, l’argon. Per via della sua massa atomica risiede da milioni di anni nella troposfera, dove la sua concentrazione è andata aumentando lentamente durante le ere geologiche, derivando dal decadimento del potassio-40 un isotopo naturale del potassio presente nelle rocce che decade, attra-
6. Alcune considerazioni di chimica-fisica dell’atmosfera95
verso cattura elettronica ed emissione di positrone, in argon-40. L’emivita (o tempo di dimezzamento) di questo processo è di 1,25 miliardi di anni, poco meno di 1/3 dell’età del nostro pianeta (infatti l’argon-40 viene usato nella datazione delle rocce più antiche della Terra). Anche l’elio si origina per via di un decadimento radioattivo naturale dall’uranio-238 e dal torio-232, anche qui con emivite di tipo geologico. Essendo però un gas molto leggero (viene usato nei dirigibili), l’elio si accumula nella stratosfera e lentamente raggiunge l’esosfera dove viene poi disperso nello spazio assieme all’idrogeno. La sua concentrazione, come si vede dalla tabella, è straordinariamente bassa. Il neon, gas abbondante nella cosmogenesi degli elementi, è rimasto nell’atmosfera dalla formazione del pianeta, e avendo una densità di circa 2/3 quella dell’aria si è, molto lentamente, disperso nello spazio attraverso l’esosfera. Ma le più importanti sorgenti naturali dei gas della troposfera sono biogeniche, dovute cioè all’attività degli organismi viventi presenti nel terreno, negli oceani, e per formazione in situ. L’esempio più eclatante, come discusso in precedenza, è l’ossigeno presente nell’atmosfera. Esso fu liberato dall’attività fotosintetica, che iniziò 3,8 miliardi di anni fa e da allora si è accumulato nell’atmosfera, con un tempo di residenza di 3-4 mila anni. La sua risposta a eventuali diminuzioni (dovuta alla combustione dei fossili) sarebbe quindi molto lenta. L’azoto, di cui si è discusso nel capitolo 1, in relazione ai meccanismi di emissione e assorbimento, ha un tempo di residenza di 16 milioni di anni, quindi con risposte a bruschi cambiamenti ancora più lente. 6.3. La strega non può bruciare ma altri gas con effetto serra sì
Prima di discutere di altri gas serra, che spesso vengono associati alla CO2 come metano (CH4) o monossido di carbonio (CO) dobbiamo chiarire perché il loro tempo di residenza è così piccolo,
96
La strega perfetta
come risulta dalla tabella 6.1. Tempo di residenza breve significa un ricambio più veloce e in definitiva una concentrazione minore, soprattutto nelle zone in cui l’immissione in atmosfera è più intensa. Il motivo risiede nelle proprietà ossidanti dell’atmosfera, dovute non solo alla presenza di ossigeno, ma anche di ozono (O3) e soprattutto del radicale ·OH. L’ossidazione nella troposfera è di importanza chiave per chiarire appunto il meccanismo attraverso il quale vengono ossidati e quindi allontanati questi gas, ricordiamo infatti che la troposfera contiene l’85% di tutta la massa gassosa dell’atmosfera. Facciamo una breve digressione sull’ozono (O3). Si tratta di una molecola meno stabile dell’ossigeno, che recita un duplice ruolo. Nell’alta stratosfera (attorno a 20-25 km) è come un ombrello che ci protegge dai raggi solari UV. Circa il 90% dell’ozono si trova nella stratosfera e a lungo gli scienziati hanno ipotizzato che questa fosse la sorgente di O3 anche per la componente che risiede nella troposfera. In seguito si è scoperto che nella troposfera avvengono reazioni fotochimiche/radicaliche che producono O3 partendo da alcuni gas in tracce come: NO, CO, composti organici emessi dalle attività umane. In figura 4.9 viene illustrato l’andamento della concentrazione di questo gas con l’altitudine. Schonbein (chimico svizzero-tedesco più noto per la scoperta nel 1838 delle celle a combustibile) scoprì l’ozono a causa del suo odore che si origina in seguito a violente scariche elettriche, ozein in greco significa odore. È un gas fortemente irritante, tossico ed esplosivo. A causa della sua reattività degrada materie plastiche e gomme, è dannoso per gli esseri viventi anche in concentrazioni tipo 10 ppb. Nei cieli urbani reagisce con i gas di scarico e i vapori di benzina generando altre sostanze irritanti. Da un punto di vista chimico le energie di legame di O2 e O3 sono sufficientemente alte da impedire una loro reattività elevata, ma negli anni 50 fu identificato il radicale ·OH come un fortissimo agente ossidante nella stratosfera, soprattutto nei confronti di molecole contenenti idrogeno (H), in quanto questo atomo viene
6. Alcune considerazioni di chimica-fisica dell’atmosfera97
estratto convertendo ·OH in H2O. La produzione di questo radicale parte dalla reazione con H2Ovap di ossigeno monoatomico O, a sua volta derivato dalla decomposizione dell’ozono mediante la radiazione ultravioletta: O3 + hν → O2 + O (1D) O(1D) + M → O + M O(1D) + H2O → 2 ·OH M è una generica molecola dell’aria come N2 o O2. O (1D) rappresenta un atomo di ossigeno in uno stato eccitato di singoletto (senza elettroni spaiati) (il termine singoletto deriva dalla spettroscopia elettronica e si riferisce a un particolare stato quantico di un atomo in cui tutti gli elettroni sono accoppiati negli orbitali con i loro spin opposti) che si diseccita nello stato di energia più bassa (fondamentale) mediante collisione con M. Fino al 1970 si riteneva che la produzione di O (1D) fosse trascurabile nella troposfera per il quasi totale assorbimento dell’UV nella colonna di atmosfera sovrastante. Si dedusse quindi che l’ossidazione di composti chimici emessi sulla superficie terrestre come CO, SO2, CH4 richiedesse il trasporto fin nella stratosfera seguito poi dalla reazione con il radicale ·OH. Poiché l’aria necessita in media di 5-10 anni per viaggiare dalla troposfera alla stratosfera, i tempi di residenza dei suddetti inquinanti avrebbero dovuto essere molto più lunghi del valore reale. Più tardi si scoprì che l’ozono si poteva formare anche nella troposfera in zone inquinate per ossidi di azoto, come città o aree industriali, partendo, attraverso reazioni radicaliche, da ossigeno e biossido d’azoto, come ad esempio: NO2· + O2 + hν → · NO + O3 La reazione deve essere attivata dalla luce con λ < 430 nm, disponibile dal Sole già nello spettro del visibile. Sono possibili anche altre reazioni fotochimiche che coinvolgono l’ossidazione del
98
La strega perfetta
monossido di carbonio (CO) o del metano (CH4), con produzione di ozono. La capacità ossidante del radicale ·OH, soprannominato lo spazzino dell’atmosfera, è risultata sorprendente, cfr. figura 6.1. Tutto nasce da una molecola, l’ozono, che viene indicata come un forte inquinante a livello della bassa atmosfera ma che in un certo senso si riscatta producendo, appunto, lo spazzino di cui sopra. Ritorniamo a un breve cenno ad altri gas con effetto serra che vengono associati alla CO2. Il metano, con un tempo di residenza di circa 9 anni è tra i principali co-imputati, assieme alla strega. La sua concentrazione è circa 300 volte minore di quelle dalla CO2 (infatti viene espressa in ppb) ed è variata da circa 0,7 in epoca preindustriale a 1,7 attuale. Sappiamo che ne esistono vasti giacimenti ma viene quasi tutto recuperato a uso energetico e di sintesi chimica, anche se piccole percentuali si disperdono inevitabilmente nell’atmosfera. La maggior parte di questo gas in atmosfera deriva dal decadimento di materiali organici recenti attraverso animali ruminanti, mucche, ecc, o dalla decomposizione per fusione del permafrost dovuto a variazioni climatiche. Nell’atmosfera, principalmente nella troposfera, è anche presente un altro gas, anzi un vapore, di straordinaria importanza per il pianeta Terra, in una percentuale molto variabile: il vapor d’ac-
Vari prodotti di ossidazione di inquinanti da parte del radicale ·OH.
Figura 6.1.
6. Alcune considerazioni di chimica-fisica dell’atmosfera99
qua. Proprio a causa della variabilità della sua percentuale la composizione dell’aria viene calcolata in aria secca o anidra. Il vapor acqueo presente in atmosfera proviene principalmente dall’evaporazione dell’acqua presente sulla Terra: oceani, mari, laghi, fiumi, e persino pozzanghere. In secondo luogo dalle piante, foreste e dalla respirazione di noi umani! Per caratterizzare in modo quantitativo il tasso di vapor acqueo presente nell’atmosfera si usano 3 grandezze: 1. l’umidità assoluta, cioè la quantità di vapore espressa in volume presente in un volume di atmosfera umida; 2. l’umidità di saturazione, cioè la massima quantità di vapor acqueo che riesce a sciogliersi in un m3 di atmosfera. Questa quantità massima è funzione della temperatura dell’aria, più la temperatura è alta più vapore si può sciogliere, al contrario per basse temperature; 3. l’umidità relativa, cioè il rapporto fra l’umidità assoluta e quella di saturazione espresso in percentuale. Questo rapporto è ovviamente compreso fra 0 e 100. Zero vuol dire che l’aria è secca, 100 significa che l’aria è satura di vapore e quindi se aggiungessimo anche solo 1 grammo d’acqua si formerebbe 1 grammo di goccioline di acqua. Il vapor acqueo presente nell’atmosfera non è visibile a occhio nudo perché è dissolto, ovvero esso forma una miscela di gas. Se si abbassa la temperatura dell’aria, l’umidità di saturazione diminuisce e l’umidità relativa cresce. Se questa arriva al 100% l’aria non è più trasparente, non è più una soluzione omogenea, si formano minutissime goccioline di acqua liquida, aggregati di moltissime molecole d’acqua, di dimensioni variabili fra 1 e 80 μm. Si è quindi in presenza di una nebbia o di una nuvola a seconda della causa del raffreddamento: se il suolo ha raffreddato l’aria sovrastante si origina una nebbia, se il raffreddamento è dovuto al mescolamento con una corrente d’aria più fredda, compare una bella nuvola in cielo. Come possono restare disperse nell’aria delle goccioline di
100
La strega perfetta
acqua senza precipitare al suolo sotto forma di pioggia? Il vapor acqueo è più leggero dell’aria ma una goccia d’acqua ha densità 1 g/ cm3, di gran lunga superiore alla densità dell’aria (a livello del mare e a 0°C =1,29 kg/m3). A tenere sospese le goccioline d’acqua sono i cosiddetti “moti browniani” che provocano movimenti casuali a zig-zag delle goccioline stesse. Sono anche presenti forze di natura elettrostatica (quindi fra cariche elettriche) che i chimici chiamano “forze di Van der Waals” agenti fra goccia e goccia, quando le goccioline si addensano fra loro, fenomeno della crescita, il campo gravitazionale ha finalmente la meglio e quindi piove a gocce più o meno grandi. La crescita delle goccioline è guidata, verso la fine del processo di formazione della goccia di pioggia, da fenomeni di enrgia superficiale che diminuisce allorché due goccioline coalescono. La pioggia lava e ripulisce l’atmosfera, abbatte il pulviscolo di origine umana e di origine extra terrestre, ma quando piove avvengono anche delle reazioni chimiche fra acqua, CO2 e altre anidridi principalmente solforosa SO2 ma anche solforica SO3 che si è formata solo grazie a reazioni di tipo radicalico. La prima pioggia che cade, dopo un periodo di siccità, sulle zone densamente popolate e industriali è tutto tranne che santa…! La pioggia precipitando scioglie la CO2 e altri gas (1 litro d’acqua arriva a disciogliere ben 20 cm3 di gas quali solfuro di idrogeno, ammoniaca ecc.) portando la prima in soluzione acquosa CO2 (aq). Questa soluzione acquosa ha carattere acido e viene indicata come H2CO3 (aq), acido carbonico il quale dunque esiste solo se disciolto in acqua. Ora questa acqua meteorica leggermente acida, scorre sul suolo e reagisce ad esempio con le rocce costituite da carbonato di calcio portandolo in soluzione sotto forma di bicarbonato solubile. Come esempio di informazione distorta, vorremmo citare una notizia rimbalzata sui telegiornali nell’estate 2019, che si può riassumere come segue: a causa del riscaldamento globale, fra 50 anni non potremo più assistere allo spettacolo della bellezza delle nu-
6. Alcune considerazioni di chimica-fisica dell’atmosfera101
vole. La fonte, citata dai giornali, sarebbe addirittura il Caltech, California Institute of Technology, di Pasadena, California. Alla luce di quanto detto in questo capitolo, si può facilmente obiettare almeno 3 punti, alla luce di tre banali regole di chimica-fisica dell’atmosfera: 1. la tensione di vapore dell’acqua (tendenza dell’acqua a passare dallo stato liquido a quello vapore) cresce al crescere della temperatura, legge di Clausius-Clapeyron (Glossario), quindi al crescere della temperatura più acqua passerà allo stato vapore; 2. all’aumentare della temperatura aumenta l’umidità di saturazione; 3. l’umidità assoluta contenuta nell’aria cresce. Basterà uno spiffero di aria fresca per riempire il cielo di nubi, ancor più in California investita da venti che arrivano da ovest, i quali, passando sull’oceano Pacifico, saranno tiepidi e saturi di umidità, e arrivando sulla terra ferma, più fredda, daranno origine a nubi e piogge. Dulcis in fundo, ad aspettare i venti caldi e umidi che arrivano dal Pacifico c’è la “Catena Costiera” della California alta circa 2000 m. Ossidi di azoto
L’ossido di azoto NO (ossido nitrico) e NO2 biossido di azoto, indicati con NOx, sono prodotti dalla combustione di biomasse fossili, dalle emissioni degli aerei reazione e dalla fermentazione della biomassa nel suolo. Possono anche essere il risultato della scarica di fulmini e ossidazione dell’ammoniaca e provenire infine dalla stratosfera. Di notte l’NO2 viene ossidato dall’O3 a ·NO3 che reagisce con NO2 generando N2O5, questi, infine, reagisce con l’acqua formando acido nitrico HNO3. Non entriamo qui nel dettaglio delle reazioni, che sono un poco diverse da quelle che si
102
La strega perfetta
incontrano di solito nei libri di testo di chimica, essendo reazioni tra radicali, ovvero molecole o ioni con un elettrone spaiato, cioè solitario, su un certo orbitale atomico o molecolare. Ammoniaca
NH3 si origina dal suolo, dai rifiuti animali, dai fertilizzanti e in ultimo dalle emissioni industriali. Esso è l’unico gas a comportamento basico nell’atmosfera, ciò lo rende veramente rilevante, gli altri sono acidi o neutri. Quindi l’NH3 neutralizza l’acido solforico, l’acido nitrico, generando i rispettivi sali di ammonio. Questi sali diventano degli aerosol e come tali vengono trasportati nell’atmosfera, e poi sul terreno ove funzionano da fertilizzanti. Quindi, grazie all’ammoniaca, invece che piogge acide per acido solforico e nitrico, sul terreno arrivano sostanze fertilizzanti. Monossido di carbonio
Il CO viene prodotto per ossidazione del metano CH4, altre importanti sorgenti di CO sono rappresentate dalla combustione delle biomasse e dei combustibili fossili. La “reazione finale” del CO è la sua ossidazione a CO2 per reazione con ·OH CO + ·OH → H + CO2 La concentrazione di CO nell’atmosfera è ciclica: cresce in inverno quando la concentrazione di ·OH è bassa, diminuisce in primavera, a causa della reazione sopra riportata. Le misure satellitari della concentrazione di CO evidenziano un suo valore elevato in America del Sud e in Africa a causa della combustione di biomasse. I pennacchi di fumo viaggiano lentamente attraverso l’emisfero meridionale fino a raggiungere i cieli dell’Australia. Un’altra importante sorgente di CO, questa volta dovuta alle emissioni industriali, è il sud est dell’Asia e i fumi arrivano a invadere il Nord America.
Capitolo 7
CO2 contro H2O vapore
7.1. Si presenta spontaneamente a deporre… la molecola dell’acqua
A differenza della molecola della CO2, quella dell’acqua presenta un dipolo permanente, derivante dalla polarizzazione dei due legami O-H, con carica dipolare negativa verso l’ossigeno. L’angolo tra i due legami (104°) fa sì che la somma vettoriale dei due dipoli elettrici O-H non sia nulla, come si vede in figura 7.1 a pagina seguente. La presenza di un dipolo permanente (per i più curiosi sull’idrogeno vi è una carica elettronica di +0,21 e sull’ossigeno di -0,42, quindi la molecola è neutra) influenza drammaticamente le proprietà fisiche dell’acqua: tra le centinaia che si possono trovare in letteratura qui interessa la possibilità di condensare, cioè di passare allo stato liquido o addirittura allo stato solido (al di sotto di 0°C, fenomeno noto come brinamento). Infatti i dipoli permanenti dell’acqua si attraggono portando le molecole a distanze più ravvicinate e quindi a passare a uno stato condensato. Quando si formano minutissime goccioline d’acqua nelle nubi (ad alte quota il raffreddamento può facilmente trasformarle poi in minutissimi cristalli di ghiaccio) esse si comportano, come già discusso, in maniera diversa dal punto di vista dell’emissione/assorbimento sia nel visibile (luce solare) che nell’IR (emissione dalla superficie). Esse infatti sono minuti corpuscoli con dimensioni molto maggiori delle lunghezze d’onda che le investono, quindi possono essere
104
La strega perfetta
Polarità elettriche nella molecola H2O. In blu le cariche positive sulla superficie di densità elettronica, in rosso quelle negative.
Figura 7.1.
assimilate meglio a un corpo nero di Planck e seguono la relativa legge. L’acqua è quindi un imputato con due vestiti o meglio il caso di due imputati in un solo processo! In base alla legge fenomenologica pertinente (eq. di Clausius-Clapeyron) si possono calcolare a ogni temperatura la pressione di vapore saturo e, supponendo di essere in aria con pressione totale pari ad 1 atm., anche le ppm (ovvero la percentuale molecolare divisa per 10.000). Ecco una tabellina interessante (7.1) che verrà utilizzata anche in futuro. Per renderla più verosimile i dati in ppm si riferiscono a un’umidità relativa del 50% La CO2, per confronto, possiede come tutti i gas una temperatura alla quale passa allo stato liquido. Alla pressione di 1 atm. questa vale -78°C, temperatura che non si raggiunge nella troposfera, quindi nubi di CO2 non potranno mai formarsi! 7.2. I due imputati vengono messi a confronto
Vediamo dapprima l’imputato “vapore” ovvero H2Ovap, disperso come un gas tra i suoi simili. È un protagonista di rilievo, ma questo non ci sorprende. La molecola infatti (a differenza di CO2 e metano) presenta un importante dipolo permanente di natura elettrica, il che la rende molto più attiva nell’assorbire diverse frequenze IR. Non dimentichiamo che alcune di esse (principal-
7. CO2 contro H2O vapore105
Tabella 7.1. Pressione di vapore saturo, parti per milione di acqua (vapore) in funzione della temperatura.
Temperatura (°C)
Pressione vap. saturo (atm.)
ppm H2O
-40
0,00013
64
-20
0,00103
517
0
0,00612
3059
5
0,00873
4365
10
0,01228
6142
15
0,01706
8528
20
0,02338
11692
mente attorno a 1,4 μm, 1,8 μm e da 2,6 a 2,8 μm) sono già attive nell’assorbire la radiazione in ingresso dal Sole nel vicino IR. In figura 7.2 a conferma di ciò lo spettro di emissione caratteristico della radiazione solare e le varie linee convolute di assorbimento del vapor acqueo (elaborazione dati IR da spectralcalc.com). Se concentriamo la nostra attenzione sul vapor acqueo è necessario considerare quattro processi dinamici: 1. l’evaporazione dalle acque di superficie (oceani, laghi, fiumi, ecc.), accompagnata in misura minore dalla traspirazione fogliare; 2. il trasporto verso gli strati più alti e freddi della troposfera con la successiva condensazione e quindi la formazione di nubi; 3. l’effetto della copertura nuvolosa sull’albedo e quindi la luce solare riflessa nello spazio; 4. l’effetto della copertura nuvolosa sull’aumento della radiazione riflessa verso terra dalle goccioline che formano le stesse nubi. Il processo 1 è un processo di equilibrio dettato dalla corri-
106
La strega perfetta
Curva emissiva del Sole secondo Planck (5880 K) e assorbimenti H2Ovap (da spectralcalc.com con modifiche).
Figura 7.2.
spondente legge fenomenologica (equazione di Clausius-Clapeyron, cfr. Glossario). Essa indica come la temperatura influenzi in maniera determinante il fenomeno. Appena la temperatura oceanica aumenta, subito nello strato di atmosfera a contatto con essa si rileva un aumento di vapor acqueo, il quale determina un aumento di assorbimento, nell’IR vicino, di origine solare e quindi un primo riscaldamento dell’atmosfera. Essendo poi la radiazione solare assorbita completamente nei primi 10 metri di profondità dell’oceano, ogni minima variazione di essa provoca una variazione immediata della temperatura superficiale dell’oceano (feedback positivo). Il processo 2 è un processo sotto controllo cinetico, ovvero negli strati alti della troposfera si supera tranquillamente la saturazione (sempre in base all’equazione citata) ma non si ha formazione di goccioline fino a che si generino nuclei di condensazione per le stesse. Questi nuclei possono essere anche impurezze chimiche (es. H2SO4) oppure pulviscolo solido, e il processo può richiedere l’intervento del vento solare o radiazioni cosmiche ad alta energia (come suggerito da H. Svensmark). I processi 3 e 4 sono contrapposti e l’effetto complessivo dipen-
7. CO2 contro H2O vapore107
de dal tipo di nubi. Per i cumuli prevale il 3 sul 4 e quindi complessivamente si ha una diminuzione del flusso radiante verso la Terra. Quindi la somma di questi quattro processi non è determinabile con semplicità, ma, come sottolineato in altri capitoli, la combinazione di questi potrebbe fornire un importante amplificazione per l’effetto di riscaldamento da parte di fenomeni naturali, come la radiazione solare o il vento solare. Per i sostenitori dell’importanza della CO2 nelle variazioni climatiche, visto che il forzante radiativo per questo gas è comunque molto basso, l’amplificazione per effetto del vapor acqueo è fondamentale. Il punto centrale è che per l’acqua stessa non è possibile calcolare un “forzante” in analogia alla CO2 proprio per il fatto che essa stessa si trova nell’atmosfera sia allo stato gassoso che liquido (nubi) e questi due contenitori sono in continuo dinamico cambiamento per effetto della temperatura, del suo gradiente, dei nuclei di condensazione presenti nella media e alta troposfera. Quindi, mentre la CO2 è come concentrazione percentuale sempre costante (ad esempio 410 ppm) al variare dell’altitudine e quindi della rarefazione dell’aria, lo stesso non si può dire per l’acqua. Vediamo meglio come alcuni dati calcolati dagli autori ci possano aiutare. Ipotizziamo una temperatura al suolo di 15 °C (media terrestre) e usiamo le equazioni empiriche proposte da NASA earth atmosphere model (grc.nasa.gov/WWW/k-12/airplane/ atmosmet.html). A ogni temperatura si è calcolata la tensione di vapore con il sistema ThermoBuild – NASA GlennResearchCenter (cearun.grc.nasa.gov/cea/index_ds.html) e di qui la concentrazione percentuale in ppm. Per le temperature inferiori a 0°C si tratta ovviamente della tensione di vapore del ghiaccio. Abbiamo raccolto i dati nella tabella 7.2 in funzione dell’altitudine dal livello del mare, fissando la concentrazione percentuale della CO2 in 410 ppm e ipotizzando sempre una umidità relativa in percentuale del 50% (50% del valore di saturazione). Una mole corrisponde a 6,022·1023 molecole. Aumentando l’altitudine, sia la temperatura che la pressione
108
Tabella 7.2.
La strega perfetta
Parametri di composizione H2O/CO2 a varie altitudini.
Altitudine slm(metri)
Temperatura Pressione (°C) (atm.)
ppm CO2
ppm H2O vap
moli/ m3 di H 2O
moli/m3 di CO2
0
15
1,00
410
8536
0,3618
0,0174
1000
9
0,89
410
6269
0,2412
0,0158
2000
2
0,79
410
4512
0,1572
0,0143
3000
-4
0,69
410
3045
0,0958
0,0129
4000
-11
0,61
410
1966
0,0558
0,0116
5000
-17
0,53
410
1237
0,0315
0,0105
6000
-24
0,47
410
757
0,0173
0,0094
7200
-32
0,39
410
404
0,0081
0,0082
diminuiscono, ma mentre le ppm CO2 rimangono costanti al valore di 410, le ppm H2Ovap diminuiscono vistosamente con l’altitudine. Sulla superficie esse sono assolutamente preponderanti (8536 contro 410). Da questo si deduce che il contributo come gas serra della CO2 risulta assolutamente ridimensionato. Esaminando solo il primo chilometro di troposfera la situazione non cambia. Prendendo un valore medio di 7000 per H2Ovap in questo intervallo, potremmo dire che raddoppiando la CO2 da 280 (preindustriale) a 560 (ipotizzata nel 2050) le ppm dei principali gas serra passano da 7280 a 7560 con un aumento del 3,8 %. È un dato molto più tranquillizzante rispetto a un aumento del 100% da 280 a 560. H2Ovap possiede peraltro un numero molto più elevato di assorbimenti nell’IR, in quanto, come accennato, si tratta di una molecola polare, come si deduce dalla figura 7.3. In nero gli assorbimenti per H2Ovap e in rosso quelli di CO2. In blu è delineato lo spettro emissivo di Planck per una temperatura di 300 K. La visione d’insieme è utile per poter effettuare un raffronto. L’effetto serra non si estrinseca però solo nel primo km della troposfera, ma interessa anche i km successivi, fino a che la concentrazione effettiva in moli/m3 diventa così bassa che il gas serra
7. CO2 contro H2O vapore109
può irradiare direttamente nello spazio esterno. Il calcolo diventa quindi complesso proprio per la veloce diminuzione (nella nostra simulazione) del vapor acqueo. A circa 7,2 km dalla superficie le percentuali in ppm (e quindi anche le concentrazioni in moli/m3) dei due attori si pareggiano. Ma a questo punto gran parte della radiazione IR, se non tutta, che doveva essere ridiretta verso Terra ha compiuto il suo tragitto riscaldando la superficie del pianeta e la parte diretta verso lo spazio è già stata irradiata. In conclusione è da un semplice calcolo con algoritmi affidabili che si dimostra l’enorme importanza del vapor acqueo nell’effetto serra. Questo fatto è sorprendentemente passato sotto silenzio: nell’ultimo report ICPP il vapor acqueo non compare nemmeno nella lista dei gas serra! Forse perché il “Panel” di scienziati aveva presente il detto “innocente come l’acqua” e allora ha derubricato la medesima. Trasformare l’acqua in una strega forse era davvero troppo! Ma c’è di più. I calcoli si riferiscono a una temperatura superficiale di 15°C. Se passiamo a 20°C, temperature tipiche ad esempio del bacino del mediterraneo, avremmo con il 50% di umidità relativa 11692 ppm H2Ovap che rispetto a 410 ppm CO2 sono 28 volte tanto. Questa volta il rapporto è schiacciante!
Figura 7.3. Curva emissiva della Terra secodo Planck (300 K) e assorbimenti H2Ovap (da spectralcalc.com con modifiche).
110
La strega perfetta
A conferma del ruolo fondamentale del vapor acqueo durante gli ultimi decenni proponiamo il grafico di figura 7.4, basato sui dati NOAA elaborati da Climate4you.com. Viene riportato dal gennaio 1948 a oggi il valore (medio globale) dell’umidità atmosferica vicino alla superficie terrestre (pressione di 1000 mbar). Viene anche riportata l’umidità specifica che fornisce un valore non dipendente dalla temperatura espresso in grammi di H2O/kg di aria. L’umidità relativa fornirebbe una percentuale sulla quantità di acqua vapore presente alla saturazione e quindi un valore a sua volta dipendente dalla temperatura. Si nota, al di là dell’andamento stagionale, un chiaro trend in aumento, come indicato dal tratto blu della cosiddetta “media scorrevole” (la media aritmetica degli ultimi n valori in un grafico temporale), pari a circa 0,6 grammi su un valore di 10. In percentuale risulta circa 6% di aumento che su scala globale non è certo un valore trascurabile! Si apre uno spiraglio e un secondo imputato sembra tutt’altro che innocente. Il vapor acqueo potrebbe essere la causa o la conseguenza del riscaldamento globale? O si tratta forse semplicemente di un meccanismo di amplificazione? 7.3. Dove la strega ha il predominio
Dove il vapor acqueo è assente quasi del tutto allora entra in gioco
Andamento dell’umidità atmosferica a 1000 mb, vicino alla superficie (1948-2019) (Ole Humlum / climate4you.com).
Figura 7.4.
7. CO2 contro H2O vapore111
la CO2. Ci riferiamo all’Antartide, dove le bassissime temperature fanno si che l’acqua passi quasi completamente allo stato solido, come si deduce dalla tabella 7.1. Siamo certo in condizioni di temperatura tali da poter affermare che le ppmH2Ovap sono trascurabili rispetto a quelle della CO2, che rimangono 410. Per la precisione i satelliti NOAA hanno misurato la radiazione IR uscente (Outgoing longwave radiation) in un periodo di tempo in cui le ppm di CO2 variavano da 325 a 395 (dal 1970 al 2012) in una calotta di superficie terrestre compresa tra 70° e 90° di latitudine sud. La variazione di CO2 avrebbe dovuto provocare un aumento di questa radiazione IR uscente ma i risultati di tutte queste misure ci dicono che in realtà non esiste alcuna correlazione trai due parametri, come si nota dal grafico. Nessuna persona dotata di buon senso potrebbe trovarne una. Con il metodo di interpolazione, noto come metodo di Lagrange o dei minimi quadrati, si può certo forzare una polinomiale (in questo caso di secondo grado, quindi una parabola, i suoi coefficienti sono in figura 7.5) ma se diamo un’occhiata al coefficiente R di correlazione, esso è pari a 0,0044 ovvero nessuna correlazione.
Andamento della radiazione IR uscente dalla calotta antartica in funzione della concentrazione di CO2 (cortesia Ole Humlum/climate4you.com).
Figura 7.5.
112
La strega perfetta
Possiamo concludere dicendo che quando l’imputata CO2 è messa alla prova da sola (ceteris paribus) i dati sperimentali non permettono di ascriverle alcun reato e la figura 7.5 ne è la dimostrazione.
Capitolo 8
Cenni di chimica degli oceani
8.1. L’oceano misterioso
Quanto conosciamo di questo grande protagonista climatico? Negli ultimi anni, a causa del Global Warming, tre aspetti sono stati messi sotto i riflettori dai media e hanno sicuramente colpito le persone non addette ai lavori: –– viene acidificato dalla CO2 antropogenica (che si trasforma per dissoluzione in acqua in acido carbonico); –– aumenta di livello e tra una trentina d’anni sommergerà le nostre coste; –– i suoi ecosistemi sono profondamente alterati dall’uomo (ad es. barriera corallina). Per capire quanto siano realistiche queste affermazioni occorre studiare meglio questo protagonista. Da un punto di vista chimico-fisico, si scopre innanzitutto che esiste una scienza specifica (oceanografia) che da anni si occupa della questione. Tra climatologi e oceanografi però non deve correre una buona comunicazione: sui molti lavori scientifici, le due categorie di scienziati sembra che si ignorino reciprocamente. Augurandosi che in futuro questa collaborazione possa migliorare, in estrema sintesi vengono qui di seguito elencati alcuni punti che sono fondamentali riguardo alla chimica-fisica degli oceani e di conseguenza al loro ruolo climatico.
114
La strega perfetta
–– gli oceani del globo occupano il 71% della superficie del pianeta, ma essi contengono il 99.9% dell’energia termica superficiale del pianeta, mentre l’atmosfera soltanto lo 0.07% di essa. La loro influenza sul clima a medio/lungo termine è proporzionale alla loro capacità termica, quindi elevatissima (Climate Change, due to Solar Variability or Greenhouse Gases? Part A.Andy May / May 2, 2018, wattsupwiththat.com); –– gli oceani sono il nostro grande serbatoio di accumulo della CO2, lo sono stati nelle ere passate e lo saranno in futuro. L’atmosfera attuale contiene 850 Gt (gigatonnellate) di carbonio in forma di CO2, mentre gli oceani ne contengono 38.000 Gt, circa 45 volte tanto; –– la composizione chimica dei sali disciolti nell’acqua di mare ci indica uno sbilanciamento tra ioni positivi (cationi come: Na+ ione sodio, K+ ione potassio, Mg++ ione magnesio, Ca++ ione calcio) e ioni negativi (anioni come: Cl- ione cloruro, SO4-- ione solfato, HCO3- ione bicarbonato). Questo sbilanciamento viene compensato dagli ioni ossidrile (OH-) e quindi l’acqua di mare ha un pH basico che varia da 7,8 a 8,4 a seconda delle località. Nei paragrafi seguenti dimostreremo che proprio sulla base di questa composizione chimica l’acqua di mare può assorbire enormi quantità di CO2 con minime variazioni di pH, senza arrivare a pH< (inferiore a) 7, cioè acido; –– attualmente si stima che 10,5 GtC/anno (gigatonnellate di carbonio per anno) vengano emesse (come CO2) nell’atmosfera per combustione di fossili, delle quali 4,5 GtC/a vengono assorbite dagli oceani, secondo precise dinamiche che esamineremo (questo dato è estrapolato in base all’aumento di consumo dei combustibili fossili dai dati di 6,4 GtC/a e 2,8 GtC/a relativi al 1990). 8.2. Gli oceani serbatoio termico per tutta l’umanità
Iniziamo con il primo dei 3 punti: come detto, gli oceani del globo
8. Cenni di chimica degli oceani115
contengono il 99.9% dell’energia termica superficiale del pianeta, mentre l’atmosfera soltanto lo 0.07% di essa. Il motivo di ciò risiede nell’elevata capacità termica dell’acqua liquida e nella circolazione superficiale degli oceani (primi 100 metri dalla superficie) che espongono ingenti quantità di acqua al riscaldamento solare. Come conseguenza, mentre i processi atmosferici condizionano il meteo per previ periodi, fino a due settimane, il clima a più lungo termine (mesi, anni) è dominato generalmente dagli oceani e dalla loro circolazione. Bene fin qui, ma se gli oceani condizionano il clima, quali fenomeni condizionano gli oceani? La risposta è semplice, almeno in prima istanza. Essi non possiedono fonti di energia interne, unicamente riescono a raccogliere la maggior parte dell’energia solare che si fa strada sulla superficie terrestre e praticamente tutta l’energia radiante nell’infrarosso (Downward Longwave Radiation), DLR rispedita dai gas serra verso la superficie. Tutto qui, se escludiamo i contributi non trascurabili dai vulcani sottomarini, e molto minori dai raggi cosmici e dal riscaldamento conduttivo attraverso la crosta terrestre dal mantello sottostante. Si può generare, come si vedrà meglio nel capitolo 10, uno schema a blocchi che ci aiuti a interpretare i fenomeni, e a verificare se e come i flussi tra i blocchi varino nel tempo. L’oceano: 1. riceve un flusso energetico dal Sole (fatto salvo l’albedo e la parte di vicino IR già assorbita dall’atmosfera per H2Ovap) e si riscalda; 2. irradia nell’infrarosso (IR) verso l’atmosfera secondo la legge di Planck e si raffredda; 3. riceve una parte della stessa radiazione riemessa dagli strati bassi della troposfera; 4. assorbe la radiazione dal punto 3 e si riscalda nuovamente; 5. ritorna al punto 1 e il ciclo si chiude. Ora, se i flussi di energia sono costanti, le temperature (medie) dei due blocchi oceano e atmosfera devono rimanere costanti (cfr.
116
La strega perfetta
capitolo 10). Che cosa provoca allora le variazioni che noi osserviamo? Attualmente vi sono due ipotesi alla ribalta, le quali non sono affatto in contrasto tra loro: 1. una variazione del flusso solare incidente (TSI, Total Solar Irradiance punto 1 dello schema precedente). Variazioni di questo possono originarsi da cicli di attività solare o da variazioni dell’orbita terrestre, i cosiddetti forzanti orbitalici (cicli di Milankovitc) cfr. capitolo 12. Inoltre una parte variabile di TSI viene riflessa dall’atmosfera (albedo) o assorbita dalla copertura nuvolosa; 2. una variazione (punto 3 dello schema) della radiazione IR emessa dall’atmosfera verso la superficie dell’oceano a causa dell’aumento dei cosiddetti gas serra o meglio “gas attivi nell’infrarosso” (cfr. capitolo 4). Si rimanda la discussione di questi punti ai relativi capitoli, mentre per ora ci preme sottolineare l’enorme capacità termica degli oceani e quindi il loro effetto di “volano termico”. Nel discutere di clima, l’oceano è certo il protagonista di gran lunga principale. Ricordiamoci che il nostro “termosifone planetario” non funziona in modo costante, come se la centrale termica avesse periodi di alti e bassi. Intanto abbiamo la famosa periodicità di circa 3,5 anni di “El Niño” o ENSO (El Niño Southern Oscillation), dopodiché l’oscillazione decennale pacifica (PDO) e l’oscillazione multi decennale atlantica (AMO). Oltre a ciò gli oceanografi citano la circolazione termoalina (THC), un processo in cui l’acqua superficiale oceanica diviene più concentrata in sali e quindi più densa (per effetto dell’evaporazione) e si immerge nel profondo dell’oceano, prevalentemente nelle zone polari, quando la temperatura si avvicina allo 0°C. Questo processo fa si che le acque oceaniche al di sotto del termoclino, situato tra 500 e 1000 metri di profondità, presentino su tutto il pianeta una temperatura costante di 4°C. Il ciclo completo THC può richiedere anche più di 1000 anni.
8. Cenni di chimica degli oceani117
Se il mare comunica con gli oceani attraverso stretti o “colli di bottiglia” gli effetti di queste ciclicità sono minori o quasi nulli. Questo è il caso del mare più vicino a noi, il mare Mediterraneo, in comunicazione con l’oceano attraverso lo stretto di Gibilterra. Le cause della circolazione oceanica sono riconducibili alla variazione di densità dell’acqua marina in funzione di due parametri vitali per la circolazione stessa, la temperatura e la salinità. Aumentando la prima, per effetto della dilatazione termica, la densità diminuisce. Effetto opposto per la seconda, aumentando la salinità la densità aumenta. Questi effetti contrapposti sono alla base dei complessi fenomeni di circolazione oceanica; ai tropici l’acqua oceanica si riscalda, fino ad arrivare in alcuni casi estremi a 30°C, contemporaneamente si ha evaporazione dell’acqua e quindi concentrazione dei sali e aumento della salinità. I due fenomeni sono contrapposti e possono generare effetti non facilmente prevedibili. Il valore medio della salinità è 35 per mille, cioè 1 kg di acqua contiene 35 grammi di sali disciolti, con punte estreme in bacini a forte evaporazione (Mar Morto). Il valore medio della temperatura oceanica è 17°C con punte di 30°C e di -2°C vicino ai poli (L’acqua salata presenta il fenomeno dell’abbassamento crioscopico, quindi non congela a 0°C ma a temperature inferiori. 8.3. Gli oceani e la loro chimica
Si è detto poco sopra che la massa degli oceani contiene circa 38.000 Gt di carbonio. Cerchiamo di comprenderne il motivo e di spiegarne la dinamica. Si è detto in precedenza che si stima in 4,6 GtC/a il flusso netto di CO2, ma esso è la risultante di due flussi opposti, diciamo il bilancio dare/avere dell’oceano. La CO2 è infatti un gas reattivo nei confronti dell’acqua e quando l’oceano assorbe questo gas attraverso la sua superficie, che rappresenta l’interfaccia liquido-gas, si instaurano una serie di reazioni ben note ai chimici. Si tratta di reazioni reversibili, le quali raggiungono ben presto una situazione di equilibrio. Quale sia la posizione di que-
118
La strega perfetta
sto equilibrio chimico dipende dalla temperatura, dalla pressione (parziale) della CO2, nonché da un parametro tipico dell’acqua di mare, la salinità. Ci addentriamo in un aspetto necessariamente chimico, chi fosse allergico alla chimica può direttamente saltare alle conclusioni, evidenziate nel testo. Chi al contrario vuole approfondire le metodologie di calcolo dei vari equilibri (con i riferimenti bibliografici) può addentrarsi nel Glossario. Intanto definiamo una reazione reversibile e il suo equilibrio: è meglio chiarirli subito poiché ciò sarà indispensabile nella futura discussione. Una reazione reversibile può avvenire in modo diretto (da sinistra a destra, dove a sinistra abbiamo i reagenti e a destra i prodotti) o all’inverso da destra a sinistra (i prodotti si possono quindi trasformare nei reagenti). All’equilibrio la velocità della reazione diretta è pari a quella della reazione inversa, come da schema seguente dove A B C e D sono quattro generiche sostanze chimiche: Reazione diretta A + B → C + D Reazione inversa A + B ← C + D Equilibrio A + B C + D… le due velocità si equivalgono. Gli equilibri chimici sono dinamici: reagenti e prodotti si trasformano continuamente gli uni negli altri. Poiché le due velocità sono identiche, le concentrazioni all’equilibrio non variano, sono costanti. Ritorniamo alla CO2. La prima reazione di interesse è: 1. CO2 (gas) CO2 (aq) Il pedice (aq) riferito alla molecola di CO2 significa che essa è “aquata” cioè essa non è più un gas ma è penetrata (si è disciolta) nella fase liquida. Pur conservando la sua identità interagisce con le molecole di solvente (acqua) non diversamente da come fanno azoto (N2) e ossigeno (O2) quando assi stessi si sciolgono in acqua. Non vi è
8. Cenni di chimica degli oceani119
ancora una reazione chimica ma solo un cambiamento di stato (gas → liquido). Per azoto e ossigeno le cose si fermano qui, ma la CO2 è una molecola molto più reattiva: tanto maggiore è la pressione di CO2 tanto maggiore sarà la concentrazione di CO2 (aq). Un piccolo richiamo sulle concentrazioni. Le “parti per milione” o ppm sono una misura di concentrazione percentuale. Ora in questi equilibri occorre inserire la pressione parziale, che per una miscela di gas è data dalla pressione totale della miscela per la frazione molare di quel componente. La frazione molare varia da 0 a 1 mentre le ppm da 0 a 1.000.000. Per calcolare la pressione parziale di CO2, conoscendo la pressione totale (ad es. 1 atm) e le ppm di CO2 (ad es. 410) si deve operare come segue: Pressione parziale CO2 = 1,00 atm x 410/1000000 = 0,00041 atm, cioè dividere il risultato per 1.000.000. Come tutti gli equilibri chimici anche questo (1) è influenzato anche dalla temperatura (oltre che dalla pressione parziale della CO2). Su questo si ritornerà tra breve. In cascata e partendo da CO2 (aq) si instaurano in rapida successione una serie di equilibri, in sequenza, ovvero i prodotti diventano i reagenti della reazione successiva: 2. CO2(aq) + H2O H2CO3 (l’acido carbonico H2CO3 si ritrova come reagente nella reazione (3) 3. H2CO3 + H2O HCO3- + H3O+ (questi due prodotti di reazione si ritrovano tra i reagenti della reazione seguente) 4. HCO3- + H3O+ + H2O CO3- - + H3O+ A ciascuno di essi è associata una costante di equilibrio, che dipende dalla temperatura (cfr. il Glossario). Come evidenziato dalle cornici le reazioni sono “concatenate” nel senso che i prodotti di una sono tra i reagenti della successiva. Lo ione HCO3- si chiama ione bicarbonato, lo ione CO3-- ione carbonato e H3O+ è lo ione ossonio, spesso indicato nei testi di chimica per brevità come ione idrogeno H+. In realtà esso è sempre associato a una molecola d’acqua in forma di H3O+.
120
La strega perfetta
Si nota come l’acido carbonico (H2CO3) sia prodotto nell’equilibrio (2) e reagente nel (3), come HCO3- e H3O+ siano prodotti dall’equilibrio (3) ma compaiano come reagenti nel (4). Tutte queste reazioni arrivano rapidamente all’equilibrio (questione di pochi minuti) con l’eccezione dell’(1) per cui si ha un fattore di ritardo dovuto alla scarsa superficie di contatto gas-liquido (fattore di Revelle, cfr. conclusione n. 3). È infatti operazione comune in un laboratorio chimico far gorgogliare un gas in un liquido per accelerare appunto i fenomeni di dissoluzione, ma la superficie marina (salvo l’infrangersi delle onde sulla spiaggia o le creste delle onde battute dal vento) non presenta questo fenomeno di gorgogliamento ma solo una superficie ondosa. Purtroppo non finisce qui, dobbiamo citare ancora una reazione reversibile, molto veloce a raggiungere l’equilibrio, e altre due che invece sono piuttosto lente a farlo. Il primo è un equilibrio omogeneo, i secondi due eterogenei (tra un liquido e un solido) e questo spiega il motivo della loro pigrizia. Peccato… perché se procedessero spediti e arzilli avremmo risolto il problema delle emissioni di CO2 da oggi al giorno dell’esaurimento dei combustibili fossili!. Ma procediamo per gradi… Come ebbe a notare il celebre chimico svedese Svante Arrhenius, nell’acqua (pura o nelle soluzioni) si ha una bizzarra reazione tra due molecole d’acqua, tale per cui esse si scambiano vicendevolmente uno ione H+: 5. H2O + H2O H3O+ + OHL’equilibrio della reazione 5 è molto spostato a sinistra, vale a dire che ad esempio nell’acqua pura su 1 molecola di H3O+ vi sono all’equilibrio più di 5,5 miliardi di molecole di H2O neutre. Questa reazione è alla base della definizione di pH (cfr. Glossario). Nell’acqua neutra (come ad esempio l’acqua pura) le concentrazioni di ioni ossonio H3O+ e di ioni ossidrile OH- sono eguali e pari a 1·10-7 moli/litro, quindi il pH =7. La situazione di questo equilibrio (come di tutti gli altri) muta
8. Cenni di chimica degli oceani121
però con la temperatura, per cui il pH della neutralità in acqua pura vale esattamente 7,000 soltanto a 24,5 °C. Ancora due equilibri, questa volta relativi a un precipitazione. In chimica si indica con questo termine la formazione di un sale in forma di microscopiche particelle solide che poi ingrossano e sedimentano. Si parte dagli ioni costituenti disciolti in acqua, nel nostro caso specifico ioni calcio (Ca++) e ioni carbonato (CO3--) che come ricorderete arrivano alla fine di una catena di reazioni che iniziano con la dissoluzione della CO2 in acqua. 6. Ca++ + CO3-- CaCO3(calcite) 7. Ca++ + CO3-- CaCO3(aragonite) Quando il carbonato di calcio (CaCO3, noto a tutti come calcare) precipita può formare una delle due forme cristalline che gli competono, entrambe presenti in natura come minerali ben noti ai geologi e ai mineralogisti, calcite e aragonite. A temperatura e pressione ambiente la forma più stabile, ma di poco davvero, è la calcite. Tradotto scientificamente il prodotto di solubilità dell’aragonite (6,65 ·10-7) è maggiore di quello della calcite (4,39 ·10-7) questo valore numerico indica il prodotto delle concentrazioni all’equilibrio degli ioni calcio e carbonato. Tanto è maggiore tanto più il sale è solubile, quindi l’aragonite è più solubile o in altre parole la sua struttura cristallina di solido meno stabile. Bene, abbiamo terminato con i principali sette equilibri chimici che interessano la CO2 e l’acqua di mare. Risolverli, conoscendo la composizione chimica (media) dell’acqua marina e la concentrazione di CO2 nell’aria, dovrebbe essere un compito alla portata di un qualunque studente universitario di chimica. Ma non è così… vediamo perché. 8.4. L’acqua di mare è salata
Certo una banalità, ce ne siamo accorti tutti da bambini, ma die-
122
La strega perfetta
tro si nasconde la prima delle difficoltà di calcolo degli equilibri carbonatici. Nel risolverli infatti occorre assolutamente (a meno di incorrere in errori catastrofici) tener conto della forza ionica, ossia della quantità di cariche positive e negative (cationi e anioni) che compaiono in soluzione. L’effetto del loro campo elettrico fa si che i parametri dei vari equilibri che interessano ioni (tutti eccetto il n. 1) varino in funzione della concentrazione di cariche in soluzione, appunto detta forza ionica. La seconda difficoltà è data dall’influenza della temperatura su tutti gli equilibri chimici. È una regola generale e vi sono equazioni di termodinamica che permettono di modellizzare il fenomeno (esempio equazione di van’t Hoff). Talvolta però si preferisce assumere parametri derivati sperimentalmente da accurate misure di laboratorio, soprattutto in miscele complesse di sali come l’acqua marina. Terza difficoltà: tutti e sette gli equilibri di cui sopra debbono (anche qui è un obbligo) essere risolti contemporaneamente, il che richiede una procedura iterativa per approssimazioni successive, non una grande difficoltà se si possiede un programma idoneo, anche su un personal computer. Un calcolo simultaneo degli equilibri carbonatici fu affrontato negli anni 60 da Bjerrum (Bjerrum_plot su wiki), esso viene citato spesso e presentato in forma grafica, ma è valido per acqua pura e a 25°C. Uno degli autori di questo libro (DM) ha di recente sviluppato (https://wattsupwiththat.com/2019/05/18/co2-and-ocean-chemistry/) un metodo di calcolo iterativo che soddisfa tutte le esigenze sopra indicate. Mentre si rimanda al lavoro originale e al solito Glossario per gli approfondimenti, si è pensato di esporre i risultati in forma grafica semplificata e accessibile, commentandoli brevemente, soprattutto alle luce delle implicazioni di flussi di CO2 tra atmosfera e oceani e viceversa. Questi risultati conducono a interessanti risultati, finora non comparsi in letteratura, per via dell’approccio innovativo al trattamento degli equilibri acquosi in soluzioni saline. Iniziamo dalla composizione media dell’acqua di mare; oggi
8. Cenni di chimica degli oceani123
viene universalmente accettata quella proposta da Doe (Doe 1994), in cui le concentrazioni sono espresse in moli su Kg di acqua. Considerando la densità dell’acqua di mare pari a circa 1,026 g/cm3 si noterà come queste differiscano (di poco ma non trascurabilmente) dalle usuali concentrazioni molari dei chimici (cioè moli/Litro). Il motivo per cui gli oceanografi adottano questo tipo di concentrazione è che essa non varia con la profondità e quindi la pressione (la concentrazione molare si, in quanto compaiono i litri, misura di volume e non di massa). Iniziamo a elencare gli ioni non reattivi negli equilibri carbonatici (qualcuno li chiama ioni spettatori). A sinistra i negativi (anioni) e a destra i positivi (cationi), cfr. tabella 8.1. Orbene si nota subito uno sbilancio di cariche, per la precisione 0,6056(+) e 0,6033(-) con un risultato algebrico di 0,023(+). Ora, uno dei principi basilari dell’elettrochimica ci dice che deve valere in tutte le soluzioni ioniche (quindi con particelle cariche) il principio della neutralità elettrica, quindi dobbiamo aver lasciato indietro qualche ione. Per la precisione ne abbiamo tralasciati 4, importantissimi, che non sono più spettatori ma attori in prima persona, e partecipano agli equilibri sopra descritti. Essi sono lo ione bicarbonato (o carbonato acido) HCO3-, il suo parente prossimo ione carbonato CO3- -, lo ione ossidrile OH- e lo ione ossonio H3O+. La somma delle cariche di questi ioni deve essere pari a 0,023 moli/kg di acqua. Lo ione ossidrile OH- recita un ruolo preponderante rispetto allo ione ossonio, in quanto deve portare Ioni spettatori nell’acqua di mare.
Tabella 8.1.
Cl-
0,5457
Na+
0,4690
SO4
0,0283
K+
0,0102
Br
0,0008
Mg++
0,0528
0,0001
Ca++
0,0103
B(OH)4
0,0001
Sr++
0,0001
Σ cariche (-)
0,6033
Σ cariche (+)
0,6056
--
-
F
-
124
La strega perfetta
la sua parte di carica negativa per compensare l’eccesso di cariche positive di cui sopra. Ecco perché l’acqua di mare ha una spiccata natura basica (pH > 7) che facilita enormemente la solubilizzazione della CO2. Tralasciamo i dettagli chimici computazionali degli equilibri simultanei alcuni sono riportati in sintesi nel Glossario. Partendo dalle nostre condizioni iniziali variabili a piacere (temperatura, ppmCO2) come in tutte le simulazioni che si rispettino, si ottengono una serie di dati vitali, come la quantità di CO2 che si scioglie nell’acqua di mare, il suo pH, le concentrazioni di H2CO3, HCO3-, CO3- -. Mentre le concentrazioni degli ioni spettatori rimangono ovviamente fissate ai valori tabulati sopra. Conclusione 1
Il primo grafico: sulle ordinate viene riportato un parametro caro agli oceanografi, la concentrazione totale delle specie chimiche che contengono carbonio, indicato con DIC (dall’inglese Dissolved Inorganic Carbon). Tale valore dipende ovviamente, visti gli equilibri di cui sopra, dalla quantità di CO2 che nelle epoche passate e fino a oggi si è disciolta negli oceani; sulle ascisse la concentrazione espressa in ppm della CO2. Scritto in forma di equazione DIC = [H2CO3] + [HCO3-] + [CO3]; come di consuetudine le parentesi quadre indicano le concentrazioni (questa volta espresse in millimoli/Kg H2O, per evitare troppi zeri nei decimali). Seguendo un’altra convenzione il termine [H2CO3] contiene anche la concentrazione della CO2 solvatata (questo non cambia il risultato). La curva in rosso mostra ciò che succede mettendo in contatto acqua pura (si pensi a un lago di montagna) con una atmosfera (Pressione = 1 atm.) contenente da 20 a 600 ppm di CO2. Il pH parte da 7 e raggiunge 5,5 per 600 ppmCO2. Qui davvero avviene un’acidificazione, senza che si disciolgano poi grandi quantità di gas, al massimo si ha infatti che DIC è pari a circa 0,03. L’acido carbonico, anche se debole, è pur sempre un acido.
8. Cenni di chimica degli oceani125
Diamo però un’occhiata alla curva in blu, relativa all’acqua di mare. Intanto per 20 ppm di CO2 partiamo con un pH nettamente basico 8,9, ma già le quantità di gas disciolte portano il carbonio totale DIC pari a 1,207 che sale fino a un valore di 2,13 per 600 ppm con un pH ancora basico di 7,9. Non è avvenuta una acidificazione, ma una diminuzione di basicità di 1,0 unità nella scala del pH. Attenzione alla scala: siamo partiti da 20 e arrivati a 600 ppmCO2; questi valori non furono mai sperimentati almeno nelle ultime migliaia di anni; un valore inferiore a 150 ppm implica l’arresto della fotosintesi per impossibilità di accedere al carbonio della CO2 che ricordiamo è l’unica fonte di questo elemento basilare per la biochimica dei vegetali, mentre valori molto più alti degli attuali furono presenti in ere geologiche passate. Conclusione 2
Ma vogliamo esagerare, per convincere che il termine acidificazione è esagerato e va sostituito con “diminuzione della basicità”; proviamo a simulare un aumento della CO2 dalle 280 ppm preindustriali addirittura a 5000 ppm, valore all’inizio del carbonifero,
Figura 8.1.
DIC in funzione delle ppm di CO2 in acqua pura e in acqua di mare.
126
La strega perfetta
350 milioni di anni fa, e ovviamente simuliamo che tutta la CO2 si sciolga (situazione di equilibrio, tabella 8.2). Anche a 5000 ppm siamo ancora in ambiente alcalino! (Nota per gli appassionati, il pH di neutralità a 17°C e una salinità del 3,5 % non è 7,00 ma 6,84, il che non fa che rafforzare le nostre conclusioni). I valori medi attuali variano da 1,96 a 2,04 per DIC e pH da 7,7 a 8,2, valori che si accordano molto bene con quanto previsto dal grafico. Teniamo sempre conto che stiamo ragionando su valori medi su tutto il globo: le condizioni locali di temperatura e salinità possono far oscillare questi valori. Si calcoli ora, utilizzando la nostra simulazione, la variazione del DIC passando da 280 (era preindustriale, fino al 1750 d.C.) a 410 ppm CO2 (attuali). DIC varierebbe da 1,978 a 2,059 con una differenza di 0,081 mMoli/Litro di carbonio (sempre considerando che tutte le reazioni raggiungano l’equilibrio chimico alla temperatura di 17°C, vedremo poi se ciò si avverrà). Ora questa tenue differenza in millimoli diventa enorme tenendo conto del volume complessivo degli oceani stimato in 1,35·109 Km3. In totale sono 1310 Gt di carbonio, Gt(C), un valore sicuramente superiore all’assorbimento reale e che ci indica chiaramente il limite massimo (in base ai calcoli di equilibrio chimico) di Gt di Tabella 8.2.
pH in funzione della concentrazione di CO2 (ppm). ppmCO2
pH (17°C Salinità = 3,5%)
280
8,17
400
8,05
1000
7,71
2000
7,44
3000
7,27
4000
7,15
5000
7,05
8. Cenni di chimica degli oceani127
carbonio che gli oceani potrebbero assorbire passando da 280 a 410 ppmCO2. Attualmente (stima 2018) vengono immesse nell’atmosfera per combustione di fossili 10,1 Gt(C)/anno di cui 4,4 vengono assorbite dall’oceano e le rimanenti 5,7 rimangono nell’atmosfera. Il dato di confronto per il 1990 è di 6,4 Gt(C) immesse e 2,8 Gt(C) assorbite dagli oceani. Nello stesso periodo di tempo le ppm di CO2 sono passate da 354 a 408 (medie annuali) con una differenza di 54 ppm di CO2. Ripercorrendo i calcoli di cui sopra gli oceani avrebbero potuto assorbire circa 510 Gt(C) contro le circa 230 prodotte dall’uomo per combustione di fossili, quindi più del doppio. Attualmente si stima che il 44% della CO2 antropica venga disciolto dagli oceani anche se vi sono discordanze tra vari autori anche piuttosto alte, passando dal 30 al 50%. Si tratta in realtà di una falsa questione se non si specifica il periodo di tempo considerato per l’assorbimento. I nostri dati si riferiscono a un periodo annuale, anche se qui, in un fenomeno dinamico come l’aumento di CO2 attuale, la loro precisione non è assoluta. Un altro parametro che influenza la solubilità della CO2 è la temperatura. Per motivi termodinamici la solubilità di un gas in un liquido diminuisce con l’aumentare della temperatura, e la CO2 non fa eccezione, anche se è un gas reattivo. La temperatura media degli oceani, finora considerata, è pari a 17°C ma in realtà varia con gradualità da -2°C nelle zone circumpolari a 30°C in alcune aree equatoriali. Non solo, per effetto delle correnti oceaniche ingenti masse d’acqua si spostano e si riequilibrano a una diversa temperatura, attraversando zone climatiche diverse. La possibilità di risolvere gli equilibri in funzione della temperatura ci permette di simulare tutto ciò. Risolvendo gli equilibri in questo modo in un grafico bidimensionale, è necessario però lasciare inalterata la concentrazione totale del carbonio (DIC) per non avere due variabili. Prima fissavamo la temperatura al valore (medio) oceanico di 17°C ora fissiamo il carbonio totale a 2,000 mMoli/L, valore medio oceanico. Il grafico risultante viene presentato in figura 8.2 per temperature da 0 a 30°C. A ogni temperatura viene diagrammata
128
La strega perfetta
la relativa concentrazione di CO2 (in ppm) in equilibrio. Per effetto della serie di equilibri sopra descritti, al riscaldamento aumenta la tendenza della CO2 a passare allo stato gassoso. È quindi necessaria una concentrazione maggiore in aria per equilibrare questa tendenza, ovvero all’equilibrio la pressione parziale della CO2 deve aumentare. Se la temperatura media degli oceani risulta 17°C, vediamo chiaramente come le attuali 410 ppm di CO2 (punto blu) siano superiori di circa 90ppm al valore di equilibrio (figura 8.2). Risultato: la CO2 si scioglie negli oceani piuttosto che uscirne. Occorrerebbe un riscaldamento di almeno 5°C (fino a 22°C) per invertire il fenomeno. Il grafico indica anche che, in realtà negli oceani, dove la temperatura varia da -2° a 30°C, alle attuali concentrazioni (410 ppm) la CO2 tenderà a disciogliersi a temperature inferiori a circa 22°C ma a ritornare in atmosfera dagli oceani al di sopra di
Figura 8.2. Concentrazione di CO2(ppm) in equilibrio a varie temperature con acqua di mare avente DIC = 2,000.
8. Cenni di chimica degli oceani129
essa (sempre se DIC = 2,0). Il valore di 22 °C si deduce dal valore della curva rossa per y = 410 ppm di CO2. Si instaura quindi un ciclo di assorbimento/emissione modulato dalla temperatura dell’oceano. Visto che quest’ultima non varia in modo omogeneo dall’equatore ai poli, non ci si dovrà stupire di variazioni locali nei flussi. Una mappa globale degli scambi di CO2 attraverso la superficie degli oceani con una risoluzione di 1000Km è stata redatta da Takahashi della Università della Columbia ed è disponibile in rete. Essa indica (cfr. figura 8.3) come nelle zone tropicali prevalga il flusso oceano → aria, quando T > Tmedia, oppure aria → oceano se T < Tmedia, con un sostanziale equilibrio dei due flussi alle medie latitudini. Conclusione 3
Può essere utile un terzo grafico, frutto delle nostre simulazioni. Prima abbiamo relazionato DIC e ppm di CO2, quindi ppm di CO2 e T, ora la terza combinazione DIC e T. Le due curve (cfr.
Figura 8.3. Mappa dei flussi misurati di emissione/assorbimento di CO2 da parte degli oceani (Takahashi 2002).
130
La strega perfetta
figura 8.4) si riferiscono al valore attuale di 410 ppm di CO2 (curva blu) e preindustriale di 280 ppm di CO2 (curva rossa). I due tratti orizzontali verdi sono posizionati a valori medi di carbonio totale dissolto pari a 2,00 (attuale) e 1,95 (preindustriale). L’area delineata in grigio è proporzionale alla CO2 scambiata variando la temperatura oceanica da 6° a 24°. Si sono scelte queste temperature in quanto rappresentative del 90% della superficie oceanica, tralasciando le zone estreme. I fenomeni di assorbimento si verificano quando la linea (rossa/blu), è al di sopra del tratto orizzontale medio di DIC situato, come detto, a 2,00 per l’attuale e a 1,95 per il preindustriale. Il grigio scuro contraddistingue il periodo preindustriale, mentre il grigio chiaro quello attuale. La differenza tra aree relative ci può dare un’idea semi-quantitativa del bilancio assorbimento/desorbimento, come si vede sempre a favore del primo, che poco sopra abbiamo detto essere passato da 2,8 a 4,1 Gt(C)/anno dal 1990 al 2018.
Figura 8.4. Flussi calcolati di CO2 tra atmosfera e oceano in funzione della temperatura dell’acqua oceanica simulati per 280 e 410 ppmCO2 (www.oceanchemistry. info).
8. Cenni di chimica degli oceani131
Dal confronto incrociato delle aree grigie emerge che gli oceani attualmente stanno funzionando come assorbenti di CO2 in maniera più efficiente che nel passato preindustriale, in quanto a tutt’oggi la CO2 assorbita supera notevolmente quella desorbita. Si è sottolineato come tutti gli equilibri carbonatici arrivino velocemente alla situazione prevista di equilibrio, salvo il primo che prevede il passaggio da gas a CO2 aquata. All’equilibrio la reazione si muove nei due sensi, quindi gli stessi fattori che rallentano la dissoluzione nei mari freddi rallentano anche il desorbimento in quelli caldi. Altri fattori come la velocità dei venti e delle correnti possono entrare in gioco. Spesso usato a sproposito, in questo senso, è il fattore di Revelle (dal nome di Roger Revelle, oceanografo scomparso nel 1991 e studioso tra i primi dell’effetto serra). Si tratta di un rapporto tra due differenziali, la variazione di concentrazione di CO2 e la variazione di DIC, calcolati in condizioni di equilibrio. Esso fu proposto, in origine, per esprimere numericamente la compensazione oceanica con l’aumento di gas serra, ma non è un fattore misurato sperimentalmente e non tiene conto dei disequilibri che si originano. Questo rapporto varia tra circa 6 e 14 con un valor medio di 10. Molto più utile per studiare il disequilibrio fra dissoluzione/desorbimento sono le misure sperimentali di DIC messe in relazione con DICsat, ovvero il valore calcolato alla saturazione. Si rimanda al testo di R.G.Williams e M.J.Follows “Ocean Dynamics and the carbon Cycle” in cui si deduce che la differenza massima Δ(DIC-DICsat) vale ± 0,06 mMol/L con valori in realtà compresi tra ±0,02 per vaste aree di oceano, escludendo zone calde tropicali e fredde circumpolari, confermando sostanzialmente i calcoli precedenti. Nello stesso testo viene anche ipotizzata una cinetica esponenziale per il raggiungimento della saturazione, del tipo: Dc(t) = [Dc(0)] exp(-t/τ) Dove Dc(t) è la differenza tra DIC e DICsat al tempo t (in secondi), Dc(0) la stessa al tempo zero, τ è la costante di tempo del
132
La strega perfetta
fenomeno, che per la CO2, gas reattivo vale circa 3·107 s (quasi un anno) mentre vale 10 volte di meno per l’ossigeno che non è reattivo. Dopo 1 anno la differenza di DIC dovrebbe ridursi al 37% del valore iniziale cioè exp(-1). Questo ritardo di circa un anno è molto in sintonia con alcuni effetti ciclici di cui parleremo nel capitolo 10 sulla ciclicità degli eventi climatici, e in particolare di come sia evidente, da diversi studi, che variazioni di temperatura (dovuti a “El Niño” o altre oscillazioni periodiche) precedano picchi incrementali di CO2 appunto di quel periodo, questo pur in un contesto di aumento costante di CO2 per effetto antropico. Certo un ritardo di un anno non è poco, un volume di oceano in quel lasso di tempo può essersi spostato di cento o anche mille chilometri. Conclusione 4
Ora questi calcoli possono sembrare superflui, visto che, come è opinione corrente, la Terra dispone di ampie foreste che sono il cosiddetto “polmone verde” del pianeta, e di fitoplancton negli oceani che devono assorbire la CO2 prodotta dall’uomo. Come verrà sottolineato nel capitolo 11, i fenomeni di trasferimento di materia ed energia tra la superficie e l’atmosfera del nostro pianeta hanno un comportamento ciclico. La fotosintesi non si sottrae a questo. Ogni anno circa 120 Gt(C) vengono assorbite dalle piante verdi e trasformate in zuccheri e polisaccaridi, come la cellulosa ma altrettante vengono riemesse dalla respirazione stessa delle piante (ad esempio nelle ore notturne), dalla fermentazione del materiale organico (foglie, legno) e dell’humus derivante dalla degradazione stessa delle piante. Una foresta tropicale, lasciata a se stessa, è un sistema ciclico chiuso, tanto dà e tanto assorbe, come CO2. Questo non ci autorizza a distruggere le foreste, per diversi motivi, in primis sottraendo foresta il ciclo di cui sopra si sbilancia nel verso di una emissione di CO2 maggiore dell’assorbimento e prima che si riequilibri possono passare anni/decenni, in secundis
8. Cenni di chimica degli oceani133
le foreste sono un refrigerante naturale del suolo, per via dell’evaporazione dell’acqua dalle foglie, necessaria per la fotosintesi. Un uso razionale delle foreste non è quindi il lasciarle vegetare in modo incontrollato, ma un disboscamento razionale con rimessa a dimora delle stesse specie arboree (uno degli autori FM non taglierebbe neppure un albero, ma questo è un altro ragionamento…). In questo modo la foresta produce legname utile come materiale edile, combustibile e quant’altro. Anche questo materiale legnoso, seppure con tempi lunghi, verrà infine trasformato in CO2, ma questa volta con beneficio per l’uomo! Spesso immaginiamo che le grandi foreste tropicali lasciate a se stesse ci possano prima o poi depurare dalla CO2 immessa mediante la combustione dei fossili. Non è così oggi ma neanche nel passato; esse sono dei sistemi in equilibrio, tanto assorbono e tanto immettono. Gli oceani sono il nostro vero serbatoio (sink in inglese) per la CO2 antropogenica. Riflettendo si tratta sempre di cicli naturali, che sono il leit motiv di questo trattato. Il ciclo fotosintetico del carbonio segue un “ciclo-breve” di 2-4 anni, a biomassa costante. Ingenti quantità di carbonio vengono scambiate tra vegetazione, fitoplankton, atmosfera, suolo e humus, ma se la biomassa rimane costante questi flussi sono bilanciati nei due sensi. Il ciclo oceanico o carbonatico, in cui la CO2 viene equilibrata con gli ioni carbonato/bicarbonato, richiede tempi di qualche anno anni per completarsi, esattamente come dimostrato sopra, siamo ancora molto lontani dall’equilibrio e grandi quantità di CO2 aspettano ancora di essere assorbite dagli oceani! Le tempistiche di questo “ciclo-lungo” del carbonio oggi si determinano con precisione sfruttando il rapporto isotopico C-13/C-12. La CO2 derivante dai fossili è sensibilmente più ricca dell’isotopo 13, quindi l’esame di questo rapporto alle varie profondità marine ci illumina sulla velocità con cui avvengono queste reazioni. Detto in maniera concisa, esiste un fattore limitante sulla velocità con cui si raggiungono i vari equilibri: la diffusione, sia tra le
134
La strega perfetta
varie profondità marine ma soprattutto nell’equilibrio (1) nel quale, è la lenta diffusione del gas nel liquido, per semplice contatto superficiale, il collo di bottiglia che controlla la velocità. 8.5. Il calcio ci salverà
Vi è un altro aspetto chimico degli oceani, che non viene mai segnalato dai media e non solo, oltre alla basicità dell’acqua di mare, e che quindi il grande pubblico non conosce. Partiamo un po’ alla lontana: tra i vari ioni disciolti nell’acqua di mare si possono avere svariate combinazioni, ad esempio NaCl, sale che deriva dalla combinazione di ioni cloro e ioni sodio, oppure Mg(OH)2 idrossido di magnesio, e ancora KBr bromuro di potassio. Le combinazione sono molte ma nessuna raggiunge la concentrazione sufficiente per la sua precipitazione (passaggio allo stato solido come sale cristallino), tant’è che nelle saline si fanno evaporare enormi quantità di acqua per concentrare la rimanente fino a saturazione, dopodiché si ha la formazione del sale da cucina. Nessuna… salvo una: CaCO3 ovvero carbonato di calcio. L’acqua di mare è soprassatura e quindi la chimica ci dice che deve avvenire la reazione: Ca++ + CO3-- ==> CaCO3 (solido) Vediamo rapidamente un concetto che ci spiega le cose: il prodotto di solubilità. Nel caso del carbonato di calcio esso vale 4,7·10-9 (valore riferito all’acqua pura). Nella composizione media dell’acqua di mare, la concentrazione degli ioni calcio vale 0,01028 (mol/Kg) e attualmente la concentrazione degli ioni CO3- - vale 0,00026 (mol/Kg). Il loro prodotto è pari a 3,3·10-6, quindi maggiore del prodotto di solubilità, per cui deve formarsi il precipitato. Il punto è che la velocità di questa reazione dipende da una serie fattori: essendo una reazione eterogenea essa necessita di una formazione di nuclei di accrescimento,
8. Cenni di chimica degli oceani135
il che non è immediato. Inoltre il calcolo si riferisce all’acqua pura, nel caso dell’acqua di mare esso è complicato dalla forza ionica, dalla temperatura, dalla pressione e infine dalla forma cristallina del precipitato (calcite o aragonite). Comunque la situazione reale è che CaCO3 supera il prodotto di solubilità di 5 volte o più. Il magnesio, con una concentrazione 5 volte più abbondante del calcio (54 mMoli/L contro 10 mMoli/L) dovrebbe precipitare sotto forma di carbonato di magnesio, MgCO3, ma questo non avviene in quanto questo sale ha un prodotto di solubilità maggiore del CaCO3 (1·10-5 contro 5·10-9). Il fattore che misura di quanto si supera il prodotto di solubilità (cioè quanto la soluzione è sovrasatura/sovrassatura) si indica con la lettera Ω (omega) e prende il nome di saturazione. Si può calcolare con le simulazioni di cui sopra, cfr. tabella 8.3. Ω=([Ca++][CO3– –]) Ksp Nella sua espressione Kps è il prodotto di solubilità, cioè il prodotto della concentrazione molare di Ca++ e CO3- - quando la soluzione è esattamente satura a quella temperatura. Come si evince dalla tabella siamo sempre al di sopra di 1 per Ω, cioè in condizioni di sovrasaturazione (o anche sovrassaturaTemperatura (°C) ppm CO2
Ω calcite
Ω aragonite
17°
410
4,2
2,7
17°
510
3,6
2,4
17°
600
3,2
2,1
0°
410
2,2
1,4
15°
410
4,0
2,6
30°
410
5,9
3,9
Tabella 8.3. Sovrasaturazione di calcite e aragonite a diverse temperature e concentrazioni di CO2.
136
La strega perfetta
zione) per concentrazioni anche elevate (600) di CO2 mentre per riscaldamento da 0 a 30°C la sovrasaturazione aumenta vistosamente (negli oceani tropicali infatti il fenomeno è più marcato). Questo contrasta con l’opinione comune che un riscaldamento degli oceani (pur se limitato) provochi la dissoluzione della barriera corallina, al contrario la rafforza in quanto la sovrasaturazione dell’aragonite aumenta con la CO2 (nota: i coralli e quindi tutte le barriere coralline sono costituite da aragonite, unica eccezione rispetto alla maggioranza degli organismi calcificanti che usano la calcite). La velocità di formazione della calcite, che è sempre meno solubile dell’aragonite, viene determinata da complessi fenomeni e segue due strade, quella inorganica e quella organica. Vengono soprannominate dagli oceanografi “biological and physical pumps for carbon dioxide”. Il pompaggio “fisico” o meglio inorganico segue le strade consuete della chimica delle precipitazioni. Dapprima occorre che si formino dei nuclei di cristallizzazione (da 20 a 100 nm). Questo fenomeno, anche in soluzioni sovrasature, è rallentato dall’elevato rapporto superficie/volume in particelle così piccole (fenomeni di energia superficiale negativa) e quindi occorre vincere una prima barriera energetica che ostacola il fenomeno. Una volta che i primi nuclei si sono formati essi si accrescono, l’energia superficiale diminuisce e l’accrescimento diventa più rapido. Si formano le prime particelle di qualche micron che poi possono unirsi (fenomeno noto come coalescenza) e dare luogo ad agglomerati maggiori. Questi finalmente sono dotati di una velocità di sedimentazione sufficiente per depositarsi sul fondo degli oceani. Il pompaggio organico segue una strada più complessa, dovuta alla presenza di organismi (monocellulari o pluricellulari) nelle acque marine che da milioni di anni hanno imparato a sfruttare a loro vantaggio il fatto che gli oceani siano sovrasaturi rispetto al CaCO3. Essi riescono a precipitare il carbonato di calcio creando strutture anche complesse, di sostegno e protezione, come molti molluschi, i crostacei e poi i foraminiferi, gli echinodermi e altri.
8. Cenni di chimica degli oceani137
Chi di noi da bambino non ha raccolto qualche conchiglia sulla battigia? Ebbene questa era la conferma diretta dei ragionamenti sopra esposti. Come detto anche le imponenti barriere coralline sfruttano la sovrasaturazione ma della aragonite, caso unico, anche se questa forma è “meno sovrasatura” quindi non dovrebbe formarsi. Una volta che gli organismi calcificanti terminano il loro ciclo vitale, le strutture calcificate lentamente sedimentano sul fondo marino. Esiste ancora una terza via per il carbonato di calcio, di notevole importanza e va citata. Per effetto della pressione, che aumenta di 1 atm ogni 10 metri di profondità e della temperatura che, al di sotto del termoclino scende in tutti gli oceani a 4°C, gli equilibri di precipitazione si spostano (principio di Le Chatelier, cfr. Glossario). Si arriva a una profondità, detta orizzonte di saturazione, alla quale la calcite si ridiscioglie. Questo orizzonte nelle zone tropicali è attorno ai 4000 metri ma risale nelle acque polari. Lo stesso vale per l’aragonite, ma vista la sua maggiore solubilità il suo orizzonte di saturazione è attorno a 2000 metri di profondità. Se l’oceano è sufficientemente profondo, al disotto dell’orizzonte di saturazione la calcite sedimentaria molto lentamente si discioglie, fino a che scompare del tutto ritrasformandosi in ioni (alla profondità detta di compensazione). Una parte modesta di calcio si ridiscioglie e attraverso la circolazione profonda risale poi in superficie (upwelling), naturalmente in tempi dell’ordine di migliaia di anni. Una curiosità: non si è parlato, per semplicità, dell’acido silicico (H4SiO4) presente in piccolissime quantità, ma anche lui in condizioni di sovrasaturazione rispetto alla silice (SiO2). Segue uno schema analogo, limitato alle diatomee e ai radiolari che formano bellissimi (al microscopio) gusci silicei. Ma questo per ora non ci interessa. Ecco quindi che si evidenzia un ciclo geologico: è il terzo dei cicli, che ricordiamo essere rispettivamente breve, lungo e geologico.
138
La strega perfetta
Conclusione 5
Per via della concentrazione di ione carbonato (derivato a sua volta dal bicarbonato e quindi dalla CO2 disciolta) i carbonati di calcio raggiungono i fondali marini. Una volta depositatisi essi formano uno strato insolubile di roccia carbonatica, che rimarrà tale per tempi geologici (decine di milioni di anni), finché la subduzione della placca continentale (tettonica a zolle) porterà queste rocce a contatto con il mantello a temperature tali da decomporre i carbonati in CaO (ossido di calcio, che poi reagisce con la silice per dare vari silicati) ed emettendo CO2 (dai vulcani prevalentemente). Il ciclo geologico del carbonio ha tempi talmente lunghi che diventano di interesse molto lontano. Quanti dei lettori di questo libro sono interessati alla concentrazione di CO2 che si avrà tra 50 milioni di anni? Eppure questi sono i tempi della geologia, cfr. figura 8.5. I giacimenti di carbone e di petrolio che oggi sfruttiamo intensamente si formarono in un periodo noto come carbonifero (da 360 a 290 milioni di anni fa) quando la concentrazione di CO2 raggiunse le 5000 ppm (si avete letto bene: 5000 ppm) e la vege-
Figura 8.5.
La concentrazione di CO2 nella storia della Terra.
8. Cenni di chimica degli oceani139
tazione era talmente lussureggiante che i resti fossili delle foreste si decomponevano solo in parte mentre quasi tutto il carbonio si stratificava geologicamente, formando appunto vasti depositi. Riassumendo, il carbonio come CO2 attraversa tre cicli: un ciclo-breve (fotosintetico) che raggiunge in pochi anni il funzionamento a regime (se non si ha deforestazione). Esso ci aiuta ben poco a eliminare la CO2 antropogenica dai fossili. Poi si ha il ciclo-lungo della dissoluzione negli oceani attraverso gli equilibri carbonatici. Richiede qualche anno in più (10-20) ma è davvero di grande aiuto. Infine il ciclo-geologico. La sedimentazione del CaCO3 libera gli oceani dal “surplus” di carbonio inorganico arrivato dall’atmosfera; il carbonato di calcio quindi è il deposito finale, almeno per il prossimo milione di anni, che ci permette di abbassare il carbonio inorganico totale degli oceani, DIC, mantenendolo a livelli accettabili. Ricordiamoci che l’atmosfera, pur così importante per noi, è un serbatoio (stock) di carbonio relativamente piccolo rispetto alle rocce sedimentarie, gli oceani e la biosfera. Circa 50·106 GtC (gigatonnellate di carbonio) sono conservate nella crosta terrestre, circa 50.000 volte di più di quanto è conservato nell’atmosfera e 1000 volte di più di quanto è negli oceani. Volendo appurare il ruolo di questo sale negli equilibri carbonatici, possiamo ricorrere a una simulazione con il sistema di risoluzione simultanea già usato, tenendo conto della precipitazione del carbonato di calcio. La figura 8.6 traccia il risultato del calcolo dei parametri carbonatici in funzione dell’avanzamento della precipitazione del carbonato di calcio, da 0 al 10% del valore di precipitazione totale (T = 17°C, Salinità = 35, ppmCO2 = 410). La linea rosa indica l’aumento di CaCO3, quella verde la quantità di CO2 emessa (outgassed) a seguito del fenomeno di precipitazione. Come si nota nonostante il fenomeno provochi un’emissione di CO2 verso l’atmosfera, questo è più che compensato dalla quantità di carbonio che viene sequestrata dal carbonato di calcio. Per chi volesse approfondire le metodologie e gli algoritmi di calcolo, si rimanda al sito web www.oceanchemistry.info, curato da uno dei due autori di questo libro (DM).
140
Figura 8.6.
La strega perfetta
Effetto della precipitazione di CaCO3.
L’effetto della precipitazione del CaCO3 risulta quindi determinante negli equilibri carbonatici proprio come ultimo stadio e serbatoio finale del processo di allontanamento dall’atmosfera della CO2 da fossili. Secondo Frank Millero (Millero 2013) si può stimare che il particolato sedimentario al fondo degli oceani contenga attualmente 14 milioni di Gt(C) di origine inorganica (carbonato di calcio) e 6 milioni di origine organica (resti di decomposizione di organismi). 8.6. È vero che gli oceani nel 2050 sommergeranno le nostre coste?
Dalle notizie dei TG sembrerebbe di si. I vari presentatori sembra che facciano a gara nel terrorizzare gli ascoltatori. Addirittura si dice che la capitale dell’Indonesia sia stata spostata da Giakarta perché la città è prossima a essere sommersa dalle acque (non è così), oppure isole e atolli che scompaiono e quant’altro. La realtà
8. Cenni di chimica degli oceani
141
è ben diversa. Innanzitutto misurare l’innalzamento a livello globale degli oceani è possibile solo con satelliti, non essendovi punti di riferimento in mare aperto. Le misure costiere con i cosiddetti “tide gauge” o idrometri risentono in periodi decennali di fenomeni geologici abbastanza frequenti di subsidenza o innalzamento costiero, che fanno variare lo zero di riferimento. Il livello marino risente ovviamente poi di fenomeni di marea (che vanno detratti). Tutti questi fenomeni non sono semplici da correggere. Ad esempio in Groenlandia la fusione (parziale) dei ghiacciai ha provocato una minore pressione idrostatica sul suolo, il quale si è alzato notevolmente falsando le misure del livello marino. Esiste poi la dilatazione termica, piuttosto bassa per l’acqua di mare, ma pur sempre presente: i valori dell’espansione termica per l’acqua variano da 1,51 a 2,07·10-4 K-1 rispettivamente tra 15° e 20 °C. Se consideriamo dal 1900 (anno in cui si iniziarono ad avere i primi dati attendibili di livello marino) a oggi le temperature medie di superficie sono variate di 1,2°C (cfr. diagramma del centro di Hadley): ora, considerando solo i primi 500 m di profondità marina, si ha un’espansione media di circa 10 cm, non trascurabile. Ricordiamo che la fusione dei ghiacci che galleggiano sui mari non porta a un innalzamento del livello del mare, al contrario di quanto avviene per i ghiacci posati sul suolo terrestre. È sufficiente far galleggiare un cubetto di ghiaccio in un bicchiere colmo d’acqua: a fusione avvenuta il livello non varia! (questo fatto così semplice trasse in inganno persino un premio Nobel come Al Gore quando egli conteggiò anche la fusione dei ghiacciai marini nell’innalzamento marino!). Ma quanto vale l’innalzamento marino dal 1900 ad oggi? I dati recenti degli esperti sono ancora discordanti ma sono compresi tra 17 e 27 cm per un periodo di 120 anni. Se si considera la dilatazione termica di cui sopra si scende a valori tra 7 e 17 cm. Valori bassi, considerando che in tutto l’olocene (da 10000 anni fa a oggi) vi furono variazioni documentate anche dell’ordine di 4-6 metri. Secondo un’altra ricostruzione che ha preso in considerazione sia i dati GPS che i dati igrometrici delle stazioni a terra, me-
142
La strega perfetta
diandoli poi con una tecnica statistica nota come tecnica di Krig, l’innalzamento marino segue un andamento mediamente lineare, senza particolari accelerazioni, come si nota dall’interpolazione dal 1960 a oggi (in rosso) mentre l’interpolazione dal 1900 a oggi è in nero (figura 8.7a). Da notare che questo andamento mediamente lineare mal si correla sia con la curva della CO2 che con la curva delle anomalie termiche di superficie, come riportato più in basso per confronto (figura 8.7b).
Figura 8.7a. (In alto) Innalzamento del livello marino dal 1900 al 2017, con interpolazione lineare dal 1900 al 2018 (retta nera) e dal 1960 al 2018 (retta in rosso), da https://docs.google.com/document/d/1rfZlw2L2hnY38aS7mY9woS2tj3fby44If1lgTAH-Uog/edit.
(In basso) Temperature medie globali (HadCRUT, Hadley Centre Observations Datasets) dal 1860, espresse come anomalie termiche (cortesia Ole Humlum/climate4ou.com).
Figura 8.7b.
8. Cenni di chimica degli oceani
143
Per concludere su questo aspetto dell’oceano, che si presta a facili allarmismi: l’innalzamento degli oceani esiste ma è attorno a 20 ± 4 cm/secolo e non vi sono segni di accelerazione. Negli ultimi 20.000 anni il livello marino si è alzato di circa 13 metri e quello attuale può essere una continuazione di questo trend. Che esso si alzi per via di un riscaldamento globale è innegabile, ma se seguisse l’aumento di CO2 sarebbe un andamento esponenziale e non lineare. Lo stesso IPCC notò come l’innalzamento di livello dal 1993 fosse comparabile, come andamento, a quello tra il 1920 ed il 1950. Altri autori indicano addirittura un rallentamento di questo fenomeno (cfr. ad esempio il sito www.sealevel.info). L’oceano si conferma quindi il grande contenitore sia della CO2 che dell’acqua derivante dalla fusione dei ghiacciai per via delle variazioni climatiche. Mentre per la CO2 le dinamiche si possono chiarire con simulazioni chimiche, il livello oceanico segue dinamiche di non semplice interpretazione, dovute a una varietà di concause. Certo è che l’aumento di circa 1,2 gradi dal 1900 (HadCRUT) ha provocato la fusione di ghiacciai alpini e un certo arretramento di quelli polari, ma non sembra essere questa la sola ragione. Dilatazione termica, subsidenza, ad esempio, entrano certo in gioco in maniera preponderante.
Capitolo 9
Lo stato del clima 2018
9.1. Lo stato del clima 2018: una visione d’insieme
L’inizio classico di una conferenza sul clima avviene, di regola, mostrando il grafico dell’andamento delle T (anomalie della temperatura) confrontato con la concentrazione espressa in parti per milione della CO2 nell’atmosfera. Spesso questi grafici esaminano un intervallo temporale compreso tra il 1978 ed il 2006. Come spiegato nel capitolo 5 (cfr. anche figura 5.2) in questo periodo in effetti vi fu una stretta correlazione tra anomalia termica ed incremento di CO2. Non altrettanto si può dire nei periodi precedenti il 1978 e seguenti il 2006; come si nota nella figura 5.2 infatti vi fu addirittura una correlazione inversa o una correlazione stimata “debole” dal professor Ole Humlum. Se si restringe la presentazione dei dati al periodo 1980-2010, l’effetto sul pubblico è quello di evidenziare due fenomeni apparentemente collegati, suggerendo una stretta relazione tra i due, con un rapporto causa → effetto unidirezionale: la CO2 è la causa, il riscaldamento l’effetto. Da un punto di vista della logica formale due fenomeni che avvengono contemporaneamente non sono necessariamente legati da relazione causa-effetto, se lo sono bisogna, in base alle condizioni al contorno, assegnare a uno il ruolo di causa e all’altro quello di effetto. Diverso il caso di due fenomeni che non avvengono contemporaneamente ma separati da un intervallo di tempo; se questo intervallo è sufficientemente lungo (mesi, anni) è altamente probabile che il primo ad
146
La strega perfetta
avvenire sia la causa del secondo e non viceversa. Un modo per studiare meglio questi rapporti di causa-effetto è di porre in grafico le derivate prime dei due fenomeni, ad esempio temperature e concentrazione di CO2, per verificarne la tempistica, come vedremo tra breve. Quello che manca (o che non viene detto) nelle classiche conferenze è una visione d’insieme dei fattori climatici, la qual cosa potrebbe probabilmente annoiare l’uditorio, che vuole, come in un processo, trovare subito il colpevole da punire. Una visione d’insieme (o olistica, come si dice oggi) non è cosa semplice: è il sistema Terra che è complesso e ogni semplificazione rischia di diventare arbitraria. In questo capitolo esamineremo due correnti di pensiero e due visioni diverse del clima 2018. La prima è del professor Ole Humlum, la seconda a cura del WMO (World Meteorological Organization, organo competente per il clima dell’ONU). Ole Humlum, illustre studioso particolarmente autorevole in questioni climatiche, è professore emerito presso l’Università di Oslo (Norvegia). La sua carriera scientifica è universalmente riconosciuta. Solo l’elenco completo delle sue pubblicazioni riempie diverse pagine, ma fortunatamente ogni anno egli compila un “report” di un certo spessore in cui riassume lo “stato del clima” dell’anno precedente. Mentre il lettore curioso può ritrovare e approfondire, scaricando dalla rete, il suo lavoro relativo al 2018 (presso il sito della GWPF, Global Warming Policy Foundation, www.thegwpf.org) a noi è sembrato doveroso dedicare un capitolo ai risultati di questo report. Attento e preciso raccoglitore e catalogatore di dati climatici misurati e non generati da modelli numerici, senza mai farsi prendere la mano da commenti “di parte”, questo studioso rappresenta per noi, per quanto possibile “super partes”, un solido riferimento. Delle 40 pagine di cui è composto il rapporto vorremmo portare all’attenzione del lettore una serie di argomenti numerati qui di seguito.
9. Lo stato del clima 2018
147
1. L’anidride carbonica CO2 è un importante gas serra, sebbene meno importante che il vapor acqueo. Nel periodo in cui la concentrazione della CO2 è stata registrata presso Mauna Loa (grafico di Keeling, curva blu) in figura 9.1 è visibile un andamento crescente con sovrapposto un ciclo annuale. Alla fine del 2018 la concentrazione della CO2 atmosferica è di poco inferiore a 410 ppm. La concentrazione della CO2 è di regola considerata omogenea nella troposfera. La variazione della concentrazione annua della CO2 nella troposfera, dove la sua concentrazione con buona approssimazione è considerata costante, è cresciuta nei primi anni della registrazione (1961) di circa +1 ppm/anno a +3ppm/anno nel 2018. Il grafico di Keeling con i dati mensili ha un andamento caratterizzato da oscillazioni cicliche (cfr. curva blu in figura 9.1). L’oscillazione annuale deriva dall’asimmetria del globo. Le terre emerse costituiscono il 29% della superficie ma sono concentrate per 2/3 nell’emisfero settentrionale, dove si concentrano anche le attività industriali e la popolazione. In inverno si ha una maggiore produzione di CO2 per riscaldamento e in estate un maggior assorbimento fogliare per fotosintesi. Considerando che le rilevazioni avvengono sulla sommità del Mauna Loa, un vulcano delle Hawaii a circa 4000 metri slm, si ha un ritardo di circa 2-3 mesi rispetto ai valori nell’emisfero settentrionale e il massimo viene registrato a marzo (sempre in figura 9.1 i dati dal 1960 a oggi). La curva rossa è un’interpolazione parabolica, cioè con una curva di secondo grado, che descrive meglio di una esponenziale l’andamento dei dati (elaborazione a cura di uno degli autori, DM). Sottraendo la curva rossa da quella blu si ottiene la curva verde, come si dice in climatologia “detrended” cioè sottratta dell’andamento o trend. Osservando l’andamento della curva verde si possono ancora notare delle oscillazioni con periodicità di qualche anno. Queste informazioni sono importanti e significative, e possono essere estratte in modo relativamente semplice, quindi presentare i risultati in forma grafica (cfr. figura 9.2). L’operazione consiste nel
148
La strega perfetta
ppm CO2 dal 1960 a oggi (blu), interpolata 2° grado (rossa), sottratta dell’interpolazione (verde) (dati dell’osservatorio Mauna Loa, isole Hawaii).
Figura 9.1.
calcolare la derivata prima (in maniera impropria ma efficace) sostituendo a ogni dato mensile la differenza tra esso ed il valore antecedente di 12 mesi (quindi un anno prima): un processo noto con il nome in codice di DIFF12. In questo modo si elimina sia l’oscillazione annuale che l’andamento complessivo parabolico (curva verde in figura 9.2). La stessa operazione viene compiuta per i dati globali medi di temperatura atmosferica (bassa troposfera, curva rossa) e per i dati di temperatura media di superficie dell’oceano (curva blu). Si nota chiaramente come le tre tipologie di dati (T aria, T mari, concentrazione CO2 atmosferica) varino in concordanza, ma con la temperatura media oceanica che anticipa la temperatura globale di alcuni mesi e la variazione di CO2 di 9-11 mesi. In questo modo si evidenzia un rapporto causa-effetto in cui il riscaldamento/raffreddamento oceanico anticipa significativamente quello globale e con maggior ritardo (9-11 mesi) la variazione della CO2. La pe-
9. Lo stato del clima 2018
149
Figura 9.2. DIFF-12 per CO2(verde); temperatura media oceani (blu); temperatura media globale (rosso) (cortesia Ole Humlum/climate4ou.com).
riodicità di questi tre fenomeni si attesta attorno a 3 anni circa, cioè la periodicità dei fenomeni di El Niño e quindi della grande circolazione oceanica. Possiamo affermare che la temperatura oceanica è l’unica causa della variazione della CO2? La risposta è No. Il motivo è ovvio. Con il DIFF12 sono state eliminate numericamente sia le oscillazioni annuali che il trend di fondo che sono causati dalle emissioni antropiche. Ma attenzione, l’oceano si riconferma il grande attore a lungo termine della temperatura globale e, attraverso gli scambi con l’atmosfera, il regista di fondo dell’attrice/strega CO2. In altri termini: dall’inizio del 1900, ma soprattutto dal 1950, quantità crescenti di CO2 sono state immesse nell’atmosfera, a un ritmo mai sperimentato prima dal pianeta Terra. È logico che un sistema come l’oceano con la sua inerzia chimica richieda qualche decina di anni a riequilibrarsi, ma i segni di questa sensibilità dell’oceano sono già davanti ai nostri occhi, come indicano le tre curve DIFF12 presentate nel rapporto di Ole Humlum. La CO2 non richiede che 9-11 mesi per rispondere alla chiamata dell’oceano! La nostra strega ammicca amorevolmente verso l’oceano blu. In apertura di capitolo abbiamo accennato al suggestivo inizio
150
La strega perfetta
di una conferenza climatica in cui si confrontano la curva del riscaldamento globale e quella dell’aumento della CO2. Scegliendo opportunamente la scala sugli assi x e y le due curve sembrano quasi sovrapporsi, ma è un effetto ottico (cfr. figura 5.2 dall’anno 1997 al 2005). Si può anche obiettare il contrario: confrontando due curve che sono le rispettive derivate prime (G) della curva del riscaldamento e dell’aumento della CO2 scegliamo di non mostrare la parte di crescita lineare del parametro. Detto in termini matematici, la derivata prima di una retta è una costante, che si perde nel confronto tra derivate prime e questo può dare l’erronea impressione che non esista del tutto. Quindi anche il confronto tra derivate prime rischia di essere illusorio, anche se ci dice una verità piuttosto inquietante: nella sua ciclicità, dovuta a variazioni periodiche nella circolazione oceanica, come ad esempio El Niño, la temperatura segue un andamento oscillante che precede sempre di 9-12 mesi quello della CO2. Certo, essa stessa sta aumentando, ma nel periodo considerato l’aumento è lineare o quasi, quindi impercettibile. Come sbrogliare la matassa? Vi sono due modi: o si dice che non vi è alcun rapporto causa-effetto (fenomeni scollegati) o che il rapporto causa-effetto va letto esattamente all’inverso di quanto la maggior parte dei climatologi fa: è la temperatura che provoca una variazione di CO2. Questo almeno per la derivata prima. È chiaro che se vi è un aumento costante “di fondo” non si può fare questa correlazione: qui si correlano solo le oscillazioni periodiche. Per il lettore che vuole approfondire nel Glossario viene riportata la legge di Henry che relaziona temperatura e solubilità dei gas. 2. Da una analisi delle temperature registrate dal 1850, si evince che l’anno 2018 è da considerarsi fra i più caldi ma più freddo che il 2016 e 2017. 3. Alla fine del 2018 la temperatura media globale dell’aria continua la sua graduale discesa verso i livelli caratteristici degli anni prima del forte episodio di El Niño del 2016. Questo sottolinea
9. Lo stato del clima 2018151
che il picco 2015-2016 della temperatura globale della superficie fu causato principalmente da questo fenomeno oceanografico tipico del dell’Oceano Pacifico sud orientale. Questo suggerisce anche che la pausa climatica, a lungo sottolineata, nel periodo 1997-2015 (Global Warming o hiatus, come in figura 9.3), possa ristabilirsi spontaneamente nel prossimo futuro. 4. Il recente episodio di El Niño fu infatti fra i più intensi tra quelli di cui si ha memoria storica a partire dal 1950. 5. Per quanto attiene alla temperatura degli oceani misurata col sistema “Argo Float” (boe galleggianti) dal 2004 essa è complessivamente aumentata (fino a 1900 m di profondità). Il riscaldamento più intenso si è verificato fra la superficie e la profondità di 120 m interessando preferenzialmente la fascia equatoriale degli oceani dove la radiazione solare incidente è al suo massimo. Per contro vi è stato un pronunciato raffreddamento dell’oceano nord Atlantico.
Figura 9.3. La pausa climatica globale (climate hiatus) da marzo 1997 a novembre 2015. RSS (Remote Sensing Systems) satellite measurements. L’interpolazione lineare fornisce una retta perfettamente orizzontale, ovvero nessuna variazione.
152
La strega perfetta
6. Cercando di esaminare l’andamento complessivo della massa glaciale polare, da sola copre il 99% dei ghiacci terrestri, si osserva che l’estensione dei ghiacci artici diminuisce mentre quella relativa agli antartici ha avuto un periodo di costante aumento fino al 2017, per poi diminuire bruscamente. Variazioni di portata inferiore si sovrappongono a questo andamento generale. Ad esempio nell’Artico c’è una variazione periodica di 5,3 anni, mentre nell’Antartico di 4,5 anni. Entrambi questi cicli hanno raggiunto il loro minimo simultaneamente nel 2016, spiegando con questo il minimo dell’estensione globale dei ghiacci marini. Dopo questo punto di minimo sarebbe normale ipotizzare una crescita dei ghiacci marini, la quale non sembra ancora avvenire. 7. Variazioni della temperatura nella bassa troposfera: il 2018 fu il secondo anno dopo il forte episodio di El Niño 2015-2016 in cui si raggiunse un massimo di temperatura. Partendo dai dati storici di temperatura del 1850/1880, esso fu sicuramente un anno molto caldo, ma più freddo sia del 2016 che del 2017. Nel 2018 le temperature continuarono la discesa verso i livelli caratteristici di ante El Niño e quindi il picco 2015-2016 è da ascriversi indubbiamente a questo fenomeno oceanografico ciclico. Il picco artico di temperatura del 2016 può ben essere causato dal rilascio termico dall’Oceano Pacifico del calore accumulato nel 2015-16 e successivamente trasportato verso l’artico. Dall’era dei satelliti in avanti (dal 1979) sono disponibili una serie di dati di temperatura dell’aria a differenti altitudini nell’atmosfera che indicano un plateau di temperature dal 2002 nella bassa troposfera ma anche un inizio di questo appiattimento sette anni prima (1995) nella stratosfera. Le temperature dell’aria misurate vicino alla superficie del pianeta sono sempre al centro del dibattito ambientale, ma l’importanza di queste misure non va sopravvalutata. A seconda degli episodi di El Niño (caldi) o La Niña (freddi) si instaurano importanti scambi termici tra l’Oceano Pacifico e l’aria sovrastante che si traducono poi in segnali sulle anomalie termiche globali. Questo senza che vari globalmente la capacità termica complessiva degli oceani,
9. Lo stato del clima 2018153
quindi soltanto con una redistribuzione termica tra aria e zone dell’oceano. Evidentemente una migliore comprensione di queste dinamiche è almeno altrettanto importante dello studio delle temperature superficiali dell’aria. 8. L’Energia Accumulata nei Cicloni (ACE) sotto forma di tempeste tropicali e uragani fin dal 1970 mostra una forte variabilità annuale ma l’andamento complessivo non evidenzia né incrementi né diminuzioni dell’attività. Questo vale anche per gli uragani attivi negli US continentali i cui dati sono registrati dal 1851. 9. Per quanto attiene ai ghiacci marini nel 2018 la copertura globale di ghiaccio è rimasta ben al di sotto della media dell’era satellitare (dal 1979) ma con un andamento in leggera risalita negli ultimi due anni. Alla fine del 2016 la copertura globale dei ghiacci raggiunse un minimo marcato, almeno in parte provocato dalla sovrapposizione dei cicli distinti di glaciazione nei due emisferi. Questi cicli ebbero un minimo simultaneo nel 2016, con conseguenze evidenti per l’estensione globale dei ghiacci. Nel 2018 sembra permanere la tendenza verso una diminuzione della copertura, sebbene con una velocità decrescente. 10. Nell’emisfero settentrionale, dove sono concentrati i 2/3 delle terre emerse, le variazioni della copertura nevosa sono principalmente controllate dai fenomeni meteorologici che avvengono sulla terra ferma, mentre la copertura nevosa dell’emisfero meridionale è fondamentalmente controllata dall’estensione dei ghiacci antartici. Nell’emisfero nord la copertura nevosa subisce annualmente importanti variazioni locali, ma l’andamento complessivo globale dal 1972 risulta stabile. In particolare, in autunno la neve è leggermente aumentata, in inverno è fondamentalmente stabile, in primavera si assiste a un lieve decremento, in sintesi l’anno 2018 è sostanzialmente simile ai precedenti. La copertura nevosa del continente antartico risulta sostanzialmente stabile.
154
La strega perfetta
9.2. Lo stato del clima 2018: una visione di catastrofe imminente
Di fronte a un report sullo stato del clima nel 2018 del professor Humlum focalizzato sui dati climatici e non sulle previsioni dei modelli climatologici, è doveroso fornire una visione altrettanto autorevole, ma molto diversa. Essa proviene dalla World Meteorological Organization (WMO, organizzazione mondiale di meteorologia, una costola dell’ONU). Nel suo report del 28 marzo 2019 (quasi la stessa data del report del professor Humlum), dal titolo WMO Statement on the State of the Global Climate in 2018, si dice testualmente: «I segni fisici e socio-economici dell’impatto del cambiamento climatico stanno accelerando così come gli aumenti record delle concentrazioni dei gas serra spingono il pianeta verso livelli termici sempre più pericolosi […] vi sono evidenze di rischi e impatti del clima sulle salute umana e sul benessere, sulle migrazioni, sulla sicurezza alimentare, su ecosistemi marini, terrestri. Eventi meteo estremi si intensificheranno […] l’aumento dei livelli marini accelererà intensamente». Per chi non avesse voglia di leggere tutto il report, viene allegata la figura 9.4, che riassume in un insieme di stime pessimistiche le supposte catastrofi globali avvenute nel corso del 2018, portando, riteniamo, il lettore direttamente a uno stato di profonda depressione. Nei vari settori si legge: –– –– –– ––
821 milioni di persone sottonutrite a causa della siccità; più di 35 milioni di persone inondate dal mare; l’acidificazione degli oceani procede; i cambiamenti climatici minacciano gli ecosistemi delle torbiere (non sapevamo che fossero così vitali); –– più di 1600 morti per onde di calore e fuochi selvaggi; –– di 883.000 migrazioni ben il 32% è legato a inondazioni e il 29% a siccità; –– l’ossigeno negli oceani diminuisce;
9. Lo stato del clima 2018155
Allarmismo climatico del WMO (dati relativi al report 2018) https://public.wmo. int/en/files/new-climate-statement-infographic2018png-0.
Figura 9.4.
–– più di 2 milioni di persone spostate per disastri climatici o meteorologici. Il colpevole non viene indicato ma si sottintende… è la nostra strega, la CO2, il principale gas serra! Il report riporta le conclusioni di A. Guterres, segretario in capo delle Nazioni Unite che ci dice «i dati contenuti (nel report) […] ci spingono a una grande preoccupazione. I quattro anni precedenti furono i più caldi in assoluto registrati, con il 2018 di ben 1°C sopra la linea di base preindustriale. Questi dati confermano l’urgenza di azioni climatiche […] in particolare nelle emissioni antropiche di anidride carbonica (ecco che compare la strega) che dovranno diminuire dal 2010 al 2030 del 45% e raggiungere lo zero nel 2050 […] Non vi è più spazio per ritardi». Per ultimo riteniamo di riportare il grafico delle anomalie termiche, ne abbiamo fin qui visti diversi, ma questo contenuto nel citato report WMO sembra strano (figura 9.5). Non compare traccia della pausa termica, fenomeno riconosciuto da tutti i climatologi, che si ebbe dal 1997 al 2015, non sappiamo per quale artificio grafico.
156
Figura 9.5.
La strega perfetta
Anomalie termiche come riportate da WMO.
9.3. Lo stato del clima 2018: le previsioni dei modelli e il senno di poi
Per concludere il capitolo, diamo uno sguardo al futuro climatico del “nostro” pianeta. Non possiamo farlo che attraverso simulazioni e modelli. Attenzione però, come detto più volte ci si affida ai modelli climatici troppo facilmente. La potenza di calcolo indubbia degli elaboratori che questi modelli utilizzano non è di per sé garanzia di esattezza. Ragionando sul passato, le previsioni per gli anni 2015-2019 possono essere un banco di prova per i modelli elaborati prima del 2015. Succede che ci si accorge che la maggior parte di essi, se non quasi tutti, hanno fallito, prevedendo un riscaldamento eccessivo. In una recente conferenza davanti a membri del parlamento inglese, il professor John Christy (University of Alabama in Huntsville) ha riassunto in alcune frasi chiave questo fatto: –– tutti i modelli climatici previdero un rapido riscaldamento
9. Lo stato del clima 2018157
sopra i 30.000 piedi (10 km circa) nelle regioni tropicali. Non è mai avvenuto. Il riscaldamento misurato è circa 1/3 del previsto; –– il riscaldamento globale degli ultimi 40 anni, da quando furono utilizzati i satelliti, è pari a +0,13°C per decade, circa la metà di quanto previsto dai modelli; –– anche i modelli climatici più recenti, di ultima generazione, continuano a prevedere un riscaldamento che accelera con una dinamica impressionante. Non sono credibili e fino a oggi l’aumento di temperatura è lineare salvo alcuni intervalli in cui i valori sono costanti se non addirittura di diminuzione. Il professor Christy ha anche scritto un libro sull’argomento, che è scaricabile direttamente dal sito web https://www.thegwpf. org/content/uploads/2019/05/JohnChristy-Parliament.pdf. Il titolo trae origine proprio dalla mistificazione climatica sui cieli tropicali The tropical skies; falsifying the climate alarm. Per meglio evidenziare la discrepanza tra le previsioni dei modelli climatici e la realtà riportiamo in figura 9.6 le previsioni di ben 90 di questi modelli a partire dal 1983, la loro media (tratto nero a pallini) e le misure sperimentali sia satellitari (UAH lower troposphere) in blu che terrestri (HadCRUT4) in verde. Il report IPCC AR5 include il diagramma di figura 9.7, che dimostra come questi modelli climatici esagerino il recente (dal 2005 a oggi) riscaldamento climatico. Esso è ripetuto nel Sommario Tecnico come figura TS-14. Nella discussione di questi grafici il report riferisce testualmente: However, an analysis of the full suite of CMIP5 historical simulations (augmented for the period 2006-2012 by RCP4.5 simulations) reveals that 111 out of 114 realizations show a GMST trend over 1998-2012 that is higher than the entire HadCRUT4 trend ensemble (Box TS.3, Figure 1a; CMIP5 ensemble mean trend is 0.21°C per decade). This difference between simulated and observed trends could
158
La strega perfetta
Figura 9.6. Raffronto tra le previsioni di 90 Modelli Climatici (1983) e le misure satellitari (1983-2013) da Spencer (2015), da http://www.drroyspencer.com, con modifiche.
Figura 9.7. Raffronto tra l’andamento storico e le previsioni dei modelli climatici nel report IPCC-AR5 (figure 11-25 dello stesso).
9. Lo stato del clima 2018159
be caused by some combination of (a) internal climate variability, (b) missing or incorrect RF, and (c) model response error.1
I modelli più recenti, noti come CMIP6, sono caratterizzati da una sensibilità climatica (aumento previsto della temperatura causato da un raddoppio della concentrazione di CO2, cfr. il capitolo 11) ancora più elevata che arriva anche a 5,0 e oltre. Risulta ovvio che la previsione di anomalia termica crescerà rispetto ai modelli precedenti.
1. Un’analisi del set completo di simulazioni storiche (CMIP5…) rivela che 111 su 114 di queste, dimostrano una tendenza della temperatura media globale della superficie terrestre, tra il 1998 e il 2012, maggiore della tendenza dei dati sperimentali (dati misurati sperimentalmente raccolti dall’Università dell’East Anglia e dal centro Hadley per il clima). Questa differenza tra tendenza simulata e osservata può essere causata da una combinazione di (a) variabilità climatica intrinseca di difficile interpretazione (b) forzanti radiativi mancanti o errati, (c) errori nella risposta del modello.
Capitolo 10
La ciclicità degli eventi climatici
10.1. La Dinamica dei Sistemi
La climatologia, l’oceanografia e in genere le scienze che trattano di sistemi ampiamente diversificati come la Terra, l’atmosfera o gli oceani, affrontano sempre oggetti di grande complessità. Questa deriva non tanto dalle leggi fenomenologiche che governano questi sistemi, bensì dall’eterogeneità del sistema nel suo insieme. Ad esempio la superficie terrestre è costituita da rilievi montuosi, foreste, oceani, quindi è tutto fuorché un sistema omogeneo. In fisica è (relativamente) facile descrivere un sistema omogeneo, ad esempio il moto di un corpo solido soggetto a un’accelerazione o la dinamica di un pianeta ruotante attorno a un corpo molto massiccio, come il Sole. In chimica troviamo tante reazioni che obbediscono a una semplice cinetica o a equilibri di facile soluzione. La strada si fa invece in salita quando dobbiamo trattare sistemi costituiti da decine, centinaia e oltre di parti diverse interagenti tra loro. Intendiamoci, in natura non esiste nulla di per sé semplice. Anche un atomo del primo elemento della tavola periodica, l’idrogeno, è un sistema complesso regolato dalle leggi della fisica quantistica che descrivono il movimento dell’unico elettrone attorno all’unico protone del suo nucleo. Si immagini un bicchiere d’acqua, sembra un oggetto semplice: 20-30 millilitri stazionano tranquillamente trattenuti dal contenitore di vetro. Eppure, nell’interno della massa d’acqua, si agitano qualcosa come 1024 molecole di ac-
162
La strega perfetta
qua, ognuna con la sua energia statisticamente distribuita attorno a un valore medio che dipende dalla temperatura e ognuna interagente elettricamente con le sue vicine in movimento perpetuo. Come affrontare un sistema molto complesso come l’atmosfera terrestre, con le sue interazioni varie con la massa del pianeta, la radiazione solare, gli oceani? Sembra un compito insuperabile, al di là delle frontiere della scienza. Ma esiste una via d’uscita. Bisogna limitare la nostra sete di conoscenza e in qualche modo non lasciarsi impantanare dai dettagli della fisica, dalla pretesa di conoscere ed esaminare il tutto partendo dalla conoscenza di ogni singolo componente come atomi oppure molecole. Non siamo interessati a conoscere cosa esattamente fa una singola delle 1024 molecole nel bicchiere, piuttosto a sapere come l’insieme delle molecole si comporta nel suo complesso. In pratica è come individuare una molecola “media” e replicare le sue caratteristiche sul numero totale di molecole. A questo punto dobbiamo delimitare la quantità di materia sotto esame, definendo un contenitore all’interno del quale un certo numero di parametri fisici di nostro interesse (ad es. pressione, temperatura, quantità o concentrazione di una certa sostanza, pH ecc.) assumono determinati valori costanti in ogni sua parte. In un secondo tempo potremo anche eliminare le pareti, se non sono di per sé utili. Ricordiamo che Sherlock Holmes, in un suo celebre aforisma, scrisse: «da un esame attento e approfondito di una goccia d’acqua si potrebbe dedurre l’esistenza delle cascate del Niagara». Forse oggi si riferirebbe a una molecola d’acqua… ma questo non sarebbe comunque possibile. Non siamo in grado di determinare le proprietà di una molecola con tale precisione, e ci scontreremmo oltretutto con l’indeterminazione di alcune grandezze fisiche, come la posizione e la velocità di un singolo elettrone in un atomo (Heisenberg, principio di indeterminazione) per cui a noi umani viene preclusa la deduzione esatta di orbite di elettroni negli atomi, se non in via probabilistica. Ecco che i fisici dell’atmosfera, i climatologi, gli oceanografi
10. La ciclicità degli eventi climatici163
e anche i geologi si affidano alla Dinamica dei Sistemi. Questa trattazione si sta diffondendo sempre di più nelle scienze dell’ambiente, non solo terrestre ma anche di altri pianeti del sistema solare dotati di atmosfera (Venere, Marte, Titano che è una luna di Saturno) o di esopianeti addirittura. Questa metodologia ha origini nella matematica settecentesca quando Laplace iniziò a studiare analiticamente i controlli a retroazione con la sua celebre Trasformata. Questa metodologia oggi denominata “Dinamica dei Sistemi” (System Dynamics, SD) è un approccio alla comprensione del mondo fisico basato sull’uso di due concetti: contenitori (detti anche blocchi o stocks) e flussi (flows). I contenitori sono aggregazioni di oggetti oppure entità fisiche definite, all’interno delle quali si può avere variazione di contenuto (materia, energia o entrambe) per via di flussi (di materia/energia) tra gli stessi. I trasferimenti di materia o flussi da un contenitore a un altro sono regolati da un’apposita legge fisica, la quale esprime il flusso stesso in funzione di alcune caratteristiche fisiche o chimiche possedute dalla materia presente nel blocco. A questo punto entrano in gioco le leggi della fisica e della chimica, dopo aver individuato il contenitore, la sua forma, le sue dimensioni e il contenuto. Il nostro Sistema non sarà costituito da un singolo contenitore, ma da diversi interagenti tra loro, e le interazioni saranno regolate da leggi fisiche/chimiche molto precise e puntuali a cui fare riferimento. All’interno di questi blocchi (o contenitori o stocks) cercheremo di spiegare nel modo più semplice e intuitivo le relazioni tra i vari parametri chimico-fisici, mentre gli scambi tra i blocchi sono sempre descritti dalle opportune leggi fenomenologiche a cui si farà cenno in sintesi nel testo e descritte con maggiore precisione nel Glossario. Concettualmente siamo quindi in grado, almeno sulla carta, di progettare uno schema a blocchi, con frecce di flusso per descrivere appunto le interazioni tra i diversi contenitori o blocchi e opportuni parametri chimico-fisici che caratterizzano lo stato della materia all’interno di essi. I parametri di ogni blocco possono
164
La strega perfetta
cambiare solo per effetto degli scambi di energia o materia tra i contenitori circostanti. In termini più semplici il flusso di materia/energia dal blocco A al blocco B è regolato dai parametri chimico-fisici di ciò che è contenuto in A (ad es. temperatura, pressione concentrazione chimica di una sostanza e altri ancora). Nello stesso tempo è quasi sempre previsto il flusso inverso, da B ad A, a sua volta regolato dai parametri chimico-fisici di ciò che è contenuto in B stesso. Un esempio di interazione fisica tra blocchi che esamineremo tra breve sarà lo scambio di energia radiante da un corpo più caldo (stock-1) a uno più freddo (stock-2), attraverso l’irraggiamento, regolato dalla opportuna legge fisica fenomenologica (eq. di Planck). Il calore potrebbe essere anche trasmesso da A a B attraverso convezione (con trasferimento anche di materia) e ancora conduzione (cfr. il Glossario). In questo libro la Dinamica dei Sistemi viene utilizzata per esaminare l’evoluzione nel tempo di sistemi complessi, descritti in maniera semplice, intuitiva e accessibile anche al lettore “sprovveduto”. Sistemi complessi come le interazioni tra la radiazione solare e l’atmosfera terrestre, o tanti altri ancora. Proporremo un approccio semplificato, senza introdurre complesse equazioni differenziali necessarie a risolvere i sistemi complessi in funzione temporale e lasciando al Glossario scientifico la spiegazioni delle leggi fenomenologiche che regolano i flussi. Questo approccio ci porterà a dedurre alcune considerazioni su come potrebbe svilupparsi il nostro sistema Sole-atmosfera-Terra nel tempo, ad esempio al variare di alcuni parametri, come la concentrazione di anidride carbonica (CO2) nell’atmosfera. L’intenzione degli autori è di rendere, in questo modo, più comprensibili alcuni argomenti complessi. 10.2. Sistemi in equilibrio e non
Si consideri come possono variare nel tempo i blocchi, che insieme ai flussi costituiscono il “sistema”. Ogni blocco varia tempo-
10. La ciclicità degli eventi climatici165
ralmente i suoi parametri interni a causa delle interazioni con i blocchi adiacenti, ai quali esso è legato da flussi che prevedono scambio di materia o di energia. A loro volta questi scambi, regolati da opportune leggi fisiche, vengono illustrati graficamente con frecce di flusso e spesso dal pertinente valore numerico (espresso in differenti unità di misura: per l’energia radiante watt/m2, per la materia Kg o moli/secondo ecc.). Questo approccio permette una descrizione accessibile dei fenomeni fisici complessi, pur con alcune limitazioni. La prima considerazione riguarda l’evoluzione dell’insieme dei blocchi in funzione del tempo. Vi sono tre possibilità: 1 Il “sistema” a blocchi si trova in una situazione di equilibrio, nel senso che i flussi non variano con il tempo e di conseguenza i parametri interni dei blocchi rimangono costanti. Un esempio potrebbe essere rappresentato dalla figura 11.1 dove 3 blocchi si scambiano energia. La disparità apparente nei singoli flussi nei due sensi tra due blocchi adiacenti è bilanciata globalmente in modo che sommando algebricamente i flussi in entrata e in uscita, il bilancio globale per ogni blocco è in pareggio. La forza motrice (driving force) che provoca il trasferimento di energia potrebbe essere, come esempio, una differenza di temperatura e i flussi potrebbero essere di tipo radiante.
Figura 10.1.
Sistema a blocchi in uno stato di equilibrio.
166
La strega perfetta
2 Il “sistema” non si trova in uno stadio di equilibrio, ad esempio un blocco emette più di quanto riceve, come in figura 10.2. Si vede che il blocco (1) ha un bilancio negativo (-5) mentre il (2) positivo (+5). Il motivo può derivare dal tipo di flusso e dalla sua legge fenomenologica. Se il primo è anche funzione del tempo, come nel caso di fenomeni di trasferimento di materia per diffusione o per convezione, allora il sistema richiederà un certo tempo per raggiungere lo stato stazionario di cui al punto 1 (minuti, anni, secoli dipende dalla quantità di materia e dai flussi). Solo alla fine i bilanci di ciascun blocco saranno in parità. 3 Il “sistema” è alimentato da una fonte di energia che, nella scala dei tempi da noi utilizzata nella modellizzazione, eroga costantemente, essendo quindi virtualmente “inesauribile”. Il “sistema” in questo caso non potrà mai arrivare a un equilibrio dinamico, a meno che non esista anche uno “scarico” in grado di assorbire energia all’infinito. Nei nostri sistemi, avrete già intuito, la fonte di energia inesauribile è il Sole e lo scarico (sink) che non arriva mai a saturazione è lo spazio interstellare, in grado di accettare qualsiasi flusso di energia radiante, a qualunque lunghezza d’onda. Come consuetudine lo spazio interstellare viene indicato da una nuvoletta. Trascurando il vento solare non vi è flusso di materia dal Sole,
Figura 10.2.
Sistema a blocchi in uno stato di non-equilibrio.
10. La ciclicità degli eventi climatici167
ma solo di energia, e nemmeno dalla Terra verso lo spazio. Quindi il Sole e lo spazio emettono/assorbono solo energia. I vari flussi, anche quelli interni tra il Sole e lo spazio, arriveranno prima o poi a un equilibrio stazionario e quindi il flusso energetico dal Sole sarà pari e quello in uscita verso lo spazio, come indicato in figura 5.2. Si tratta di flussi radianti, espressi in watt/m2. Si è visto come la natura di questi flussi radianti non sia la stessa: infatti il Sole irradia nel visibile (λ = 0,4-0,7 μm), nel vicino ultravioletto (λ< 0,4 μ) e anche nell’infrarosso, mentre la Terra e le nubi irradiano nel vicino infrarosso (λ =4 -40 μm). Tutto ciò in conseguenza della legge di Planck, alla cui descrizione si rimanda (G). 10.3. Oscillazioni cicliche nel nostro sistema
Soffermiamoci un attimo sulla situazione di equilibrio dinamico come appena descritta (situazione 3). Succede spesso, anzi diviene quasi la regola nei sistemi con numerosi blocchi e flussi, che una volta che il “sistema” raggiunge l’equilibrio stazionario, questo sia immediatamente disturbato dall’insorgere di una dinamica ciclica, in modo che i flussi oscillino (aumentano e diminuiscono in funzione periodica del tempo). L’insorgere di un comportamento oscillatorio in un sistema è nozione comune in svariate branche della scienza, ad esempio in elettronica un circuito entra spontaneamente in una oscillazione caratteristica se eccitato da una sorgente esterna di energia (una differenza di potenziale). In idraulica un flusso di acqua in una condotta assume la caratteristica forma di onde stazionarie… gli esempi sono moltissimi. Ma vi è una peculiarità nei nostri “sistemi” alimentati dall’energia del Sole. I blocchi sono già per loro stessa natura sistemi oscillanti “in proprio”. La Terra è soggetta a una rotazione che ciclicamente in 24 ore porta dall’esposizione diurna al buio notturno. A
168
La strega perfetta
questa si sovrappongono i cicli stagionali, dovuti all’inclinazione dell’asse di rotazione terrestre rispetto al piano orbitalico della Terra, e ancora variazioni periodiche dovute alla natura ellittica dell’orbita terrestre. All’afelio, punto più distante dal Sole che occupa uno dei due fuochi dell’ellisse, il flusso energetico (TSI) del Sole è circa 1300 W/m2 e al contrario al perielio quasi 1420. Lo stesso Sole ha un ciclo di attività di 11 anni (macchie solari ed energia emessa) oltre ad altri cicli di 350 e 1950 anni di cui parleremo. Insomma, già di per sé, i nostri contenitori o blocchi sono soggetti a variazioni cicliche del loro contenuto ed è quindi inevitabile che quando impostiamo un “sistema” di blocchi e flussi non si raggiunga un equilibrio stazionario costante nel tempo ma piuttosto i flussi abbiano oscillazioni periodiche anche complesse. Se due oscillazioni cicliche di diversa frequenza si sommano si ha il battimento (G), soprattutto se le due frequenze sono vicine. In altri casi il riconoscere un andamento ciclico o periodico nel tempo può non essere semplice. Facciamo un esempio pratico. Il fenomeno di “El Niño” ha una periodicità di circa 3,5 anni. Interessa la temperatura di superficie di vaste masse oceaniche (Oceano Pacifico) e influenza il clima globale, tanto che è stato persino introdotto un indice apposito (El Niño Index). Se esaminiamo l’andamento della temperatura media globale negli ultimi 40 anni (figura 10.3), si scopre un andamento di aumento globale (non certo catastrofico) con una serie di fluttuazioni. Ricorrendo all’analisi di Fourier, tecnica matematica che permette di riconoscere andamenti periodici in una funzione, si può estrapolare una funzione sinusoidale che interpola abbastanza bene i dati. La funzione periodica in rosso ha appunto un periodo di 3,5 anni e un trend in salita di circa 0,5°C in 40 anni con una pendenza quindi di 0,01°C ogni anno. Le temperature sono misurate con estrema precisione dai satelliti gestiti dall’Università dell’Alabama in Huntsville (UAH) e si riferiscono a medie globali sulla bassa troposfera. Si ricorda che come in quasi tutti i grafici di temperature le
10. La ciclicità degli eventi climatici169
Figura 10.3.
Temperature globali della bassa atmosfera e trasformata di Fourier.
stesse sono riportate non in scala assoluta bensì come anomalia. In altre parole si sceglie un periodo di riferimento (ad esempio nella figura 5.2, 1961-1990) e in quel periodo si mediano tutti i dati di temperatura media globale (sono forniti in cadenza mensile sul sito). Questo dato viene poi sottratto a ogni dato mensile. Un recentissimo (2019) articolo su «Nature Communications» (https://www.nature.com/articles/s41467-019-12138-0) spazia sugli ultimi 8000 anni di storia cinese individuando come le attività preistoriche fossero influenzate da una variazione climatica ciclica con periodi di circa 500 anni. Nel loro studio i ricercatori usano l’analisi del polline e tecniche di datazione con il carbonio-14 nei sedimenti del lago Maar, nel nord est cinese. Essi giungono alla conclusione che periodi di caldo umido (alternati a freddo secco) provocati dalla variabilità monsonica corrispondono molto da vicino a una intensificazione (o indebolimento) dell’attività umana e di conseguenza al fiorire (o al declino) delle varie civiltà preistoriche. La ciclicità predominante, appunto di 500 anni, fu nel lavoro ipotizzata derivare dai fenomeni ENSO (El Niño Southern Oscillation) e da una evoluzione climatica a lungo termine dell’Olocene (periodo geologico che si estende negli ultimi 10000 anni).
170
La strega perfetta
La spiegazione in effetti non era molto convincente ma dopo poche settimane dalla pubblicazione uno degli autori (Deke Xu) affermò in un’intervista che la ciclicità individuata poteva accordarsi bene con i battimenti ciclici di attività solare di 350-400 anni recentemente evidenziati dalla studiosa russa Valentina Zharkova (cfr. paragrafo seguente, 10.4). Ma spingiamoci ancora più nel passato, andando ora ad esaminare i dati dei carotaggi profondi in Antartide. Essi permettono di risalire con sufficiente precisione alle temperature fino a 400.000 anni fa e in contemporanea alla concentrazione di gas serra nell’atmosfera, come la CO2. La prima viene determinata attraverso il rapporto isotopico deuterio/idrogeno nell’acqua e la seconda attraverso analisi con la spettrometria di massa delle bollicine di aria intrappolate nel ghiaccio e rimaste così congelate fino al momento della sua osservazione. L’andamento delle temperature ha permesso di riconfermare le quattro ere glaciali (90.000 anni) intervallate da periodi relativamente caldi di 10.000 anni. Abbiamo esaminato con cura questi dati per cercare di stabilire una relazione causa/effetto tra la concentrazione di CO2 e le relative temperature. Questo è possibile proprio grazie all’andamento ciclico dei due parametri negli ultimi 400.000 anni. Senza troppi trattamenti numerici ci siamo fermati all’esame delle due curve sovrapposte, evidenziato nella figura 10.4 qui sotto: Le quattro ultime ere glaciali sono evidenziate dai lunghi periodi in cui la temperatura scese di 6-8 gradi rispetto alla media attuale. Attualmente da circa 10.000 anni siamo in un periodo caldo interglaciale. Nei tratti al termine delle ere glaciali (risalita di temperatura) si nota chiaramente come la temperatura preceda la CO2. Lo stesso anche più chiaramente si nota in discesa, prima la temperatura scende e dopo molti anni (anche 10.000) la CO2 ridiscende. Il ritardo con cui la CO2 scende indica chiaramente l’inerzia termica del sistema, in gran parte dovuta alla capacità termica degli oceani. Essendo maggiore il ritardo in discesa si può dedurre che, almeno nell’intervallo di concentrazione 180-280 ppm, è più rapido l’assorbimento della CO2 negli oceani quando
10. La ciclicità degli eventi climatici171
la temperatura cresce che il relativo desorbimento quando diminuisce. Si rimanda al capitolo 8 per il trattamento degli equilibri carbonatici nell’acqua di mare, e per una spiegazione un poco più chimica dei fenomeni. Appurato che negli ultimi 400.000 anni furono le variazioni di temperatura a provocare le variazioni di CO2 e non viceversa, abbiamo pensato di porci la questione anche rispetto a tempi più recenti, così da dirimere la vexata questio di chi precede e chi segue; in altre parole se esiste una relazione di fase in un dominio oscillante di due variabili. Abbiamo scoperto però che personalità di grande reputazione in ambito climatologico come Ole Humlum, Kjell Stordahl e Jan-Erik Solheim ci hanno preceduto pubblicando sulla rivista Nature un lavoro nel 2012 dal titolo “Relazione di fase tra l’anidride carbonica atmosferica e la temperatura globale”. La loro analisi si riferisce al periodo gennaio 1980 – dicembre
Figura 10.4.
I carotaggi di Vostok.
172
La strega perfetta
2011 e prende in considerazione 8 set di dati altamente attendibili (1 per la CO2, 6 per le temperature globali, sia terrestri che oceaniche misurate da satelliti e 1 per le eruzioni vulcaniche). Questi risultati sorprendenti non sono stati pubblicizzati come meritato e, non a caso, sono stati dimenticati da giornalisti e media. Si afferma infatti che, senza ombra di dubbio, i cambiamenti globali atmosferici di CO2 ritardano di 11-12 mesi rispetto al cambiamento delle temperature medie oceaniche, e di 9-10 mesi (quindi leggermente meno) rispetto alla media delle temperature della bassa troposfera. I cambiamenti di temperatura spiegano, secondo gli autori, una parte sostanziale delle variazioni di CO2 atmosferica, la cui concentrazione non segue da vicino l’immissione dovuta alle attività umane. In altri termini, la CO2 antropogenica si somma come componente minoritaria a massicce emissioni dagli oceani, dovute al riscaldamento globale degli stessi e alle emissioni vulcaniche. Queste conclusioni sono in accordo con i grafici del capitolo 8. Non solo: l’analisi viene estesa (come fatto da noi) ai dati dei carotaggi antartici e gli stessi autori evidenziano un forte ritardo della CO2 rispetto alla temperatura, confermando così le nostre deduzioni. 10.4. Il padre di tutte le oscillazioni è a 149 milioni di km da noi
Come abbiamo descritto nei capitoli 2 e 4 la produzione di energia in tutto il sistema solare è concentrata nel nucleo del Sole. Il cammino dell’energia però è lungo, nel suo percorso verso la superficie (fotosfera) essa è trasportata dal plasma caldissimo, composto da particelle cariche (positive come nuclei di elio e di idrogeno e negative, elettroni). Questi flussi convettivi di particelle cariche provocano intensi campi magnetici, tant’è vero che il fenomeno fu battezzato “dinamo solare”. Semplificando, intensa attività solare provoca intensi campi
10. La ciclicità degli eventi climatici173
magnetici localizzati, quindi macchie solari, attorno a esse le faculae, quindi maggior emissività solare. È noto che il ciclo principale delle macchie solari è di circa 11 anni, ma tentare di simulare l’attività solare unicamente attraverso il conteggio delle macchie solari è praticamente impossibile. Una strada più percorribile è data dall’esame diretto dei dati del campo magnetico solare, cercando di evidenziare i comportamenti ciclici. Seguendo questa strada un gruppo di astrofisici russi coordinato da V. Zharkova ha di recente (2018) pubblicato su “Nature” un interessante lavoro in cui, in estrema sintesi, si individuano non una ma due dinamo solari, con le rispettive sorgenti dipolari nello strato più esterno e in quello più interno del Sole. L’aspetto curiosamente interessante è che i periodi dell’oscillazione di entrambe le dinamo sono simili, quindi i fenomeni di battimento (G) sono molto evidenti. La figura 10.5 si riferisce alla simulazione condotta da questi studiosi in un ampio intervallo di tempo (più di 3 millenni) dal 1000 a.C. fino al 2200 d.C. di queste due componenti. Il periodo di queste oscillazioni è di circa 22 anni, il doppio del periodo di 11 anni delle macchie solari, che infatti cambiano di polarità magnetica in maniera opposta ma sincrona con il campo
3000 anni di variazione dell’irradianza solare (TSI). Notare le corrispondenze con i periodi storici (Zharkova V.V. 2019 – figura 1 rielaborata).
Figura 10.5.
174
La strega perfetta
magnetico solare. I battimenti danno origine a un ciclo di 350-400 anni. La figura originale della pubblicazione è stata rielaborata inserendo nella cronologia alcuni celebri periodi di riscaldamento globale (rosa) o di raffreddamento (nero) come il noto minimo di Maunder (1645-1705). Da notare come attualmente (2020, in verde) ci situiamo al termine del ciclo di macchie solari n. 24 e al termine del periodo moderno di riscaldamento. I prossimi 3 cicli (25, 26 e 27) saranno caratterizzati da una bassa attività solare (le due dinamo sono in antifase) e quindi è prevedibile un periodo di tre decadi, quindi fino al 2050, caratterizzato da un’attività solare bassa e da un raffreddamento globale. Dopodiché l’attività solare riprenderà fino ad un nuovo massimo attorno al 2150 d.C. Occorre sempre molta cautela, gli stessi autori riferiscono che solo il 67% della deviazione standard dei dati è coperta dalla simulazione. Altri cicli con periodi maggiori (ad esempio 1950±95 anni) sono necessari per spiegare andamenti della linea di base (rossa) qui considerata una retta orizzontale.
Capitolo 11
Ma se davvero fosse la CO2…
11.1. La sensibilità climatica… ecco la traccia lasciata dalla strega
Esiste da tempo un parametro proposto dai climatologi, detto appunto “sensibilità climatica” (Climate Sensitivity, CS), il quale dovrebbe fornire una valutazione diretta dell’influenza della nostra imputata principale, la CO2. In linea di principio essa (CS) è definita come la variazione di temperatura media globale (in °C) a fronte del raddoppio di un certo forzante climatico. Quasi sempre si fa riferimento al raddoppio della concentrazione di CO2, dando per scontato che il suo forzante radiativo, di fronte a un raddoppio di concentrazione, sia 3,7 W/m2, come sarà riportato nel paragrafo seguente 11.2. Si capisce che è un parametro non misurabile direttamente poiché il raddoppio delle ppm CO2 da 280 (valore preindustriale-anno 1750) a 560 non è ancora stato raggiunto. Lo si può stimare solo attraverso modelli o estrapolando misure storiche. Entrambi i metodi hanno degli svantaggi. I modelli prevedono comunque una serie di parametrizzazioni iniziali, e le misure storiche difficilmente possono separare l’effetto CO2 dagli altri forzanti in gioco, quantificando le diverse cause del riscaldamento in modo da indicare la (supposta) colpa della strega… Si capisce quindi come, a seconda dei modelli di simulazione, si possano ottenere i più diversi valori per la CS. Il grafico qui sotto (figura 11.1) ci dà un’idea statistica dei valori previsti nelle diverse simulazioni; esso rappresenta un
176
La strega perfetta
Figura 11.1. Distribuzione delle sensibilità climatiche previste dai vari modelli: da “What if Global Warming isn’t as severe as predicted?”: Climate Q&A: Blogs. Earth Observatory, part of the EOS Project Science Office, located at NASA Goddard Space Flight Center. Presente anche su wiki (Climate_sensitivity page).
istogramma con le percentuali delle CS previste da svariati modelli, raggruppate per intervalli di 0,5. In altri termini fino a ora noi autori ci siamo scatenati nell’elencare Watt (W) che partono dal Sole, Watt che arrivano sulla Terra, Watt che partono dalla Terra e ritornano nello spazio, Watt rimandati sulla Terra dai gas attivi nell’infrarosso (IR) e così via. Ma i Watt al metro quadro (W/m2) non lasciano traccia nella nostra mente, a noi interessano i gradi Celsius (°C), in altri termini 1 W/m2 a quanti °C corrisponde? Dietro questa equivalenza si nascondono algoritmi matematici complessi e quindi anche e purtroppo forzature dovute al pensiero umano, che in un certo modo è portato a influenzare la logica scientifica. Esistono poi diverse tipologie di CS. La ECS (Equilibrium Climate Sensitivity) o sensibilità climatica di equilibrio (la più usata) è definita come l’aumento di temperatura in °C che risulterebbe da un raddoppio della CO2 nell’atmosfera terrestre dopo che il sistema climatico, nel suo complesso, abbia raggiunto l’equilibrio, in particolare nei flussi radianti da e per lo spazio. La TCR (Transient Climate Response) tiene conto che gli aumenti sono graduali, in particolare ipotizza un aumento della CO2 pari all’1% annuale. Infine la ECS (Earth System Sensitivity) comprende le retroazioni del sistema Terra a lungo termine, come i cambiamenti nella copertura glaciale delle calotte polari o cambiamenti nella copertura vegetativa. In quest’ultima modalità vengono
11. Ma se davvero fosse la CO2 …177
definiti tipi di sensibilità ambientale, a seconda dei particolari sotto-sistemi del pianeta che vengono presi in considerazione. A ciascuno di questi viene associata una variazione di temperatura DT al raggiungimento dell’equilibrio per una certa variazione della CO2. I report della ICPP non aiutano a fare chiarezza, anzi sembra che siano più interessati, nell’intervallo di valori plausibili, a evidenziare un ipotetico limite superiore, per stimolare un aumento degli interventi precauzionali o per puro allarmismo. I valori forniti da questo Comitato per ECS si sono da diversi anni focalizzati su un “probabile” (confidenza > 66%) intervallo rimasto praticamente immutato tra 1,5 e 4,5°C. Nel report del 2007 (IPCC AR4) si asseriva (senza chiarire i motivi) che nel peggiore dei casi non si potevano escludere valori anche maggiori di 4,5°C, addirittura con una coda della distribuzione oltre i 10°C. Nel report del 2013 (IPCC AR5) il limite superiore era di 6°C, con un intervallo di probabilità stimato tra il 3 ed il 10%. Per quanto attiene ai modelli climatologici specifici, il suddetto report cita il CMIP5 che fornisce intervalli tra 2,1 e 4,7°C. Più recentemente, altri studiosi, come Lewis e Curry (2018) hanno ampliato l’intervallo temporale di studio nei paleoclimi (usando alcuni proxy (G)) indicando come limiti tra il 5% ed il 95% di probabilità 1,05 e 2,7°C per ECS. Con il trascorrere degli anni abbiamo ora uno strumento di grande validità: Il confronto tra i dati reali relativi agli anni recenti con quelli previsti dai modelli climatologici. È stato notato (Golaz et al. 2019) come le temperature medie globali simulate dai modelli climatici nel periodo 1960-2000 avessero previsto aumenti molto più veloci di quanto osservato nella realtà; il punto chiave sembra essere il peso che viene assegnato nel modello alla copertura nuvolosa, con una grande incertezza intrinseca (formazione di aerosol, particolato e altro). Ancora una volta rientra in gioco H2Ovap, il grande assente… e pensare che ICPP non gli assegna né un forzante radiativo né una sensibilità climatica… viene ignorato del tutto!
178
La strega perfetta
Judith Curry nel suo articolato report (https://judithcurry. com/2019/04/01/whats-the-worst-case-climate-sensitivity/) ha classificato così le attuali tendenze per la CO2: –– ECS < 0 impossibile; –– 0 < ECS < 1°C solo se vengono considerati forti feedback negativi; –– 1,0 < ECS < 1,2°C assenza di feedback, come diverse recenti analisi empiriche confermano; –– 1,05 < ECS < 2,7°C valori empirici basati su rilevamenti strumentali (da quando disponibili) e analisi statistiche (Lewis e Curry, 2018); –– 1,15 < ECS < 4,05°C valori empirici e dati paleoclimatici stimati (Lewis and Grunwald, 2018); –– 2,1 < ECS < 4,05 tabella 9.5 IPCC AR5; –– 4,5 6°C impossibile/assurdo. Vediamo quindi che con 8 semplici diseguaglianze si pone un confine fra esagerazioni sospette e scenari reali. 11.2. Diamo voce ai satelliti
Il titolo del paragrafo può sembrare stravagante, ma ci aiuta a riflettere sull’importanza delle misure “dal di fuori” perché meno influenzate da parametri locali ma soprattutto perché si prestano meglio a ottenere medie globali significative, che comprendono quindi tutta la superficie del pianeta, oceani compresi. Di recente (giugno 2019) Willis Eschenbach, climatologo, ha recuperato i dati CERES (Clouds and the Earth’s Radiant Energy System) Instrument on board the NASA Aqua Satellite (Damadeo and Hanson, 2017) https://ceres.larc.nasa.gov/, dal 2010 al 2018. Egli ha quindi riportato in grafico la temperatura globale media di superficie (misurata su scala mensile) in funzione della
11. Ma se davvero fosse la CO2 …179
radiazione totale incidente sulla stessa (somma di radiazione solare effettiva e DLR, Downward Longwave Radiation) rimuovendo poi le variazioni stagionali, cfr. figura 11.2. Si tratta di un riesame di centinaia di punti singoli (scatterplot) e l’interpolazione lineare sembra suggerire un andamento in salita. E qui sta la parte sorprendente: la pendenza di questa retta di interpolazione ci dice che per un aumento di 3,7 W/m2, forzante radiativo previsto da ICPP per un raddoppio di CO2, si ha un incremento medio di soli 0,38°C. Quindi l’ECS verrebbe fortemente ridimensionata a un valore (appunto 0,38°C) che però non stupisce gli autori del libro, anzi si inquadra in un panorama complessivo dove altri forzanti (solare, orbitalico, H2Ovap, copertura nuvolosa) vanno considerati in simultanea con i loro effetti positivi e negativi sulla temperatura del pianeta.
Figura 11.2. Temperatura superficiale terrestre in funzione del flusso radiativo totale su di essa (UV-VIS e IR), da “Radiation versus Temperature” di Willis Eschenbach, guest post in whatsupwiththat.com modificato.
180
La strega perfetta
11.3. Gli effetti benefici della strega
Il chimico svedese Svante Arrhenius (premio Nobel per la chimica nel 1905) fu il primo scienziato a sviluppare una relazione quantitativa tra l’aumento della CO2 atmosferica e la temperatura superficiale, già nel 1895 in una comunicazione alla Società Svedese di fisica. Il padre del riscaldamento globale da gas serra, capì, come dovrebbe fare chiunque abbia frequentato un corso di biologia nelle scuole, che l’anidride carbonica è l’unica sorgente dell’elemento carbonio per le piante ed è quindi essenziale per la vita animale sulla Terra. Egli asserì esplicitamente che un suo aumento atmosferico sarebbe stato benefico per l’umanità, aumentando con esso la crescita vegetale e quindi la disponibilità di cibo. Queste conclusioni oggi sarebbero forse bollate come “climatonegazioniste” e bandite dalla scienza ufficiale, ma è facile dimostrare l’asserto di Arrhenius. Occorre focalizzare la nostra mente meno sugli effetti climatici diretti della CO2 e più sui suoi effetti sulla crescita vegetale e sulle retroazioni (feedback) positive sul clima che questa ultima induce. In effetti, anche prima di Arrhenius, un botanico francese (Nicola-Theodore de Saussure) pubblicò un testo dal titolo “Reserches Chimique sur la Vegetation” già nel 1804 indicando come la CO2 fosse un nutriente vitale indispensabile per le piante. Oggi i produttori di piante praticano, come routine, il pompaggio di CO2 nelle loro serre, per accelerare la crescita vegetale, da livelli attorno a 800-900 ppm fino a 2000 ppm, che è considerato l’optimum per molte specie. In alcuni casi estremi si usano valori fino a 20.000 ppm (loblolly pine, cuphea). Un recente lavoro di un Centro Internazionale di Studi sulla CO2 (CSCDGC, Center for the Study of Carbon Dioxide and Global Change) conclude, in base a centinaia di risultanze sperimentali, che le 45 specie vegetali coltivate (e che forniscono da sole il 95% del raccolto globale di vegetali eduli) beneficerebbero di un aumento di produttività medio del 34,6%, con valore della
11. Ma se davvero fosse la CO2 …181
mediana (cioè media tra il valore maggiore e il minore) pari a 41% in corrispondenza di un aumento di 300 ppm di CO2. La nostra strega si rivela piuttosto un angelo, a questo riguardo. Ma c’è di più: le piante, come sappiamo, sono dei meravigliosi laboratori chimici, che sintetizzano composti complessi come amido, cellulosa, proteine partendo da una decina di elementi chimici che assimilano prevalentemente dalle radici: azoto (come ione nitrato NO3-) zolfo (come ione solfato SO4--) fosforo (come ione fosfato PO4---) e quindi sodio (Na+), potassio (K+), calcio e magnesio. I rimanenti 3 elementi basilari per l’anabolismo della pianta e cioè carbonio idrogeno e ossigeno, sono ottenuti partendo dalla molecola dell’acqua (H2O), il cui legame O-H viene spezzato dall’energia solare attraverso la fotosintesi, permettendo poi all’idrogeno liberatosi di combinarsi con il carbonio della CO2 e quindi di trasformarlo in composti biochimici. È evidente che a questo punto l’ossigeno della CO2 diventa un prodotto di scarto per la pianta che viene emesso nell’atmosfera come gas (O2). Una parte dell’acqua assorbita dalle radici viene quindi “organicata” (trasformata in composti organici) ma una gran parte di essa viene persa dalla pianta per evaporazione. L’assorbimento della CO2 dalle cellule e quindi il suo passaggio nei cloroplasti della pianta, dove risiede la clorofilla, avviene infatti attraverso una sottile membrana cellulare (stomi fogliari nelle piante superiori) che permette lo scambio gassoso. Attraverso questa sottile membrana avviene inevitabilmente un flusso gassoso in verso opposto con emissione di una certa quantità di H2O durante l’assorbimento di CO2. Come dimostrato da vari studi sperimentali, un aumento di CO2, oltre a favorire la crescita della biomassa verde, richiede una minore emissione di acqua durante lo scambio di cui sopra, proprio per la maggior facilità di assorbimento della CO2. L’efficienza del processo aumenta e le piante emettono meno acqua, e quindi una minore quantità di questo fluido è necessaria per lo stesso aumento di biomassa. Come conseguenza (non da poco) viene incrementata la capacità vegetale ad adattarsi a climi aridi o con scarsità di acqua scenario previsto in un prossimo futuro.
182
La strega perfetta
Tutto ciò e ulteriormente corroborato da uno studio sperimentale recente (Reyes-Fox 2014) sulle graminacee, che rivela come l’aumento di CO2 allunghi la stagione di crescita, particolarmente in climi aridi, in quanto gli stomi fogliari si adattano velocemente sia riducendo le loro dimensioni che limitando le perdite di H2Ovap. Per lo stesso motivo un altro effetto positivo della strega è che diminuendo gli stomi diminuisce anche la velocità di ingresso nelle cellule vegetali di gas tossici, di cui il principale è l’ozono. Mentre nei report precedenti ICPP sosteneva che aumenti di CO2 non erano sostenibili per i vegetali, nell’ultimo (ICPP AR5), si ammette, sembra a malincuore, che si, un aumento della NPP (Net Primary Productivity) dei vegetali si può osservare ma non superiore al 20-25% raddoppiando la CO2 dai livelli preindustriali. Vengono dibattuti anche casi in cui la mancanza di nutrienti (come fosforo o azoto) o micronutrienti (come il molibdeno) siano fattori limitanti e quindi possono diminuire o annullare gli effetti dell’aumento di CO2 [IPCC 2013]. Traduciamo il più letteralmente possibile la frase conclusiva: «con alta probabilità, l’effetto fertilizzante dell’anidride carbonica aumenterà l’NPP, ma rimangono elevate incertezze sulla grandezza di questo effetto, a causa della mancanza di dati sperimentali al di fuori dei climi temperati». Questa frase induce il lettore all’indifferenza. Al contrario i dati sperimentali non sono eludibili e secondo quelli riportati da CSCDGC, passando dal preindustriale di 280 all’attuale 410 ppm CO2, l’aumento di resa dei raccolti è attorno al 15-16%. Addirittura alcuni studiosi di agraria sostengono che l’aumentata resa dei raccolti vistasi negli ultimi 30 anni sia dovuta prevalentemente all’aumento di CO2 piuttosto che al miglioramento tecnologico. Craig Idso (2013), esperto di CO2 e autore del sito web “CO2 science.org”, ha tentato un’analisi dei vantaggi economici mondiali, dimostrando che negli ultimi 50 anni gli agricoltori, attraverso l’aumento di redditività dei raccolti, si sono arricchiti complessivamente di 274 miliardi di dollari solo per il grano, di 180 per il mais e di ben 579 per il riso. Qui la strega regala miliardi e miliardi, se non a tutti… almeno agli agricoltori…
11. Ma se davvero fosse la CO2 …183
e non soltanto all’Epifania! I vegetali applaudono riconoscenti la strega. Lo stesso Craig Idso, figura 11.3, ha pubblicato una foto emblematica sul suo sito, che è stata poi ripubblicata anche altrove. Ve la proponiamo perché è veramente istruttiva. Si confronta la crescita di un pino (in quattro esemplari identici) con 4 concentrazioni di CO2: ambiente (410), +150, +300 e +450 ppm. Beh diremmo che i commenti sono superflui… Anche se importantissimo, il carbonio assimilato attraverso la CO2 è solo uno dei nutrienti fogliari, rimane sottinteso che carenze di azoto negli ecosistemi (prevalentemente temperati e boreali) così come carenze di fosforo in quelli tropicali possono rallentare la crescita. Negli ecosistemi controllati dall’uomo è pratica comune utilizzare fertilizzanti chimici (ad esempio nitrati, fosfati inorganici) che suppliscono alle carenze di questi elementi nel terreno. Anche l’ingegneria genetica è una tecnologia applicata su vasta scala, ad esempio il riso in Cina, modificato geneticamente, richiede meno acqua nella fase di crescita, o addirittura non necessita di acqua nelle risaie. Tali tecnologie destano spesso preoccupazione
Sherwood Idso dimostra sperimentalmente gli effetti della CO2 sulla specie di pino “Eldarica” in ambienti arricchiti di questo gas presso US Water Conservation Laboratory in Phoenix, AZ (gentile concessione del dottor Craig Idso/CO2science.org).
Figura 11.3.
184
La strega perfetta
da parte di molti ambientalisti per cui potrebbe verificarsi un feedback negativo in questo senso. Quando fra 20 anni saremo circa 10 miliardi, forse la nostra strega verrà osannata, sarebbe tipico del comportamento umano passare da un estremo all’altro. 11.4. Ecosistemi isolati: la strega agisce dove l’uomo non arriva
Dal 1985, quando già le precise misure della CO2 sul monte Mauna Loa erano in atto da 27 anni, fu notata dal alcuni (Bacastow et al., 1985) una amplificazione stagionale delle variazioni annuali, che fu spiegata con un parallelo aumento della vegetazione estiva. Questo fu il primo cenno di un rinverdimento globale (global greening), fenomeno ora confermato da misure satellitari. Recenti misure, effettuate anche con aerei, hanno permesso di stabilire un aumento di queste oscillazioni stagionali, in particolare nell’emisfero settentrionale, dal 25 al 50% per altitudini da 3 a 6 km. Ulteriori misure satellitari hanno appurato che il rinverdimento non è confinato alle terre coltivate ma avviene parimenti nelle foreste e nelle zone incolte. A questi risultati si è giunti anche attraverso osservazioni dirette su foreste centro-europee, i cui dati di forestazione sono disponibili fino dal 1870. Alcuni alberi vecchi di 75 anni hanno dimostrato che le specie dominanti (Norway spruce ed european beech) sono cresciute da un 10% a un 30% più velocemente nel 2000 che nel 1960 (Pretzsch 2014). Questi effetti possono essere quantificati in forma grafica ricorrendo agli schemi a blocchi già utilizzati. Naturalmente partiamo dal Sole che irradia la Terra con 1367 W/m2, almeno prima di attraversare l’atmosfera, e che permette la fotosintesi nella biomassa verde. Immaginiamo una situazione di CO2 statica, ferma a 360 ppm (dato del 1990). A quel tempo si stimarono sia gli stock nei 3 contenitori (suolo e detriti, atmosfera, biomassa verde) che i flussi tra di essi come indicato in figura 11.4.a.
11. Ma se davvero fosse la CO2 …185
Un cenno alle unità di misura: gli stocks si valutano in Gtonn di carbonio (1 Gigatonnellata corrisponde a 1015 grammi ovvero 1 Pg o petagrammo) mentre i flussi, come di consueto in questi schemi, su base annuale, in Gtonn di carbonio all’anno (GtC/a). Per risalire alla massa di CO2 che viene riportata talvolta, occorre moltiplicare per 44/12 = 3,67, cioè il rapporto tra il peso molecolare della CO2 e quello atomico del carbonio. Quantificare il fenomeno del global greening non è semplice. Diverse fonti citano dati discordanti per via del diverso anno a cui si riferiscono o per via del periodo di tempo esaminato. Non dimentichiamo mai che l’atmosfera è un sistema dinamico in via di progressivo mutamento, come fu in passato e sarà in futuro. I diversi schemi a blocchi con relativi flussi in realtà nascondono… almeno la metà di quello che mostrano. Inoltre queste dinamiche hanno tempistiche che possono anche differire da un blocco a un altro (la costante di tempo del fenomeno) per cui i valori di flussi e di stock vanno visti come un’istantanea di una evoluzione temporale più ampia e articolata. Tuttavia, essendo l’aspetto della fotosintesi e relativo bilancio in termini di flussi di CO2 di estrema attualità, abbiamo confrontato 4 di questi schemi, raccogliendo i risultati in due figure (11.4 a, b) e relativa tabella (11.1). Le lettere in grassetto (A, B, C, D), indicano rispettivamente il flusso in Gigatonnellate/anno di cabonio (GtC/a): –– tra atmosfera e biomassa per via della fotosintesi (A); –– tra biomassa e atmosfera tramite la respirazione fogliare (B); –– tra la biomassa e il suolo per via dei detriti organici non più vegetativi (C); –– dal suolo di nuovo all’atmosfera per via della fermentazione batterica (D). In tabella 11.1 sono riportati i valori di questi 4 parametri di flusso, da cui si evincono notevoli discrepanze. Il primo dei 4 modelli (D. Jacob) si riferisce a una situazione di
186
La strega perfetta
Stock e flussi di carbonio tra atmosfera, biomassa verde e suolo in condizione di equilibrio tra flussi (ovvero i flussi sono stazionari nel tempo) a causa del valore costante di CO2.
Figura 11.4a.
Figura 11.4b. Stock e flussi di carbonio tra atmosfera, biomassa verde e suolo in condizione dinamica (ovvero i flussi variano nel tempo) a causa del valore crescente di CO2. La simulazione si riferisce al periodo 1990 → 2007.
11. Ma se davvero fosse la CO2 …187
Tabella 11.1.
Variabili numeriche da inserire in Figura 11.4 a, b.
Aumento antropico in atmosfera
A
B
C
D
Aumento Accumulo biomasse nel suolo verdi
Rif.
0
-
60 (A – B)
60
60
0
0
Daniel Jacob 1999 (Situazione prendustriale)
6,4
120
119,6 63 (B + D – C)
60
3,2
2,6
ICPP AR5
12,0
120
60
63
60
3,0
3,0
Riebeek + NASA
10,0
120
59
59
58
2,0
1,0
Patrick Moore 2016
perfetto pareggio. Le foreste hanno raggiunto in epoca preindustriale il perfetto equilibrio di flussi in quanto la CO2 stazionava costantemente a 270 ppm. Gli altri 3 modelli si riferiscono a situazioni di aumento costante di CO2 attorno al 1990 o dal 1990 al 2007; in queste condizioni dinamiche la biomassa vegetale quindi aumenta, anche a beneficio dell’umanità. Riassumendo, la biomassa vegetale mitiga efficacemente l’aumento di CO2 assorbendone assieme ai detriti indecomposti quantità, a seconda delle stime, variabili tra 3 e 6 GtC/anno. Nell’aumento della biosfera verde, stimato in 14% dal 1982 a oggi, sono comprese anche le masse vegetali usate per l’alimentazione umana o animale che forse hanno beneficiato in misura maggiore delle foreste per via della loro velocità di crescita più alta. Recenti evidenze satellitari hanno confermato questo dato. Gli effetti avversi o supposti tali della strega su eventi estremi come riscaldamento globale o aumento del livello del mare sembrano superati da quelli benefici sull’aumento dei raccolti e sul generale benessere che ne deriva per l’umanità. Questi ultimi ef-
188
La strega perfetta
fetti benefici sono probabilmente sottostimati dai media mentre sono sovrastimati quelli negativi. I benefici sono reali, mentre i costi ambientali del riscaldamento potrebbero non esserlo. Pensare di bloccare improvvisamente le emissioni di CO2 priverebbe gli abitanti del pianeta dei molti benefici molto prima dei supposti miglioramenti climatici, così sostiene Indur Goklany, già membro dell’ICPP e ora attivo in diversi organismi internazionali sul clima (Indur Goklany in Carbon Dioxide – The Good News’ Report 18 GWPF – www.thegwpf.org). 11.5. Influenza della CO2 sulla vita marina
Come l’aumento di CO2 provoca un accrescimento vegetale accelerato sulla terraferma, lo stesso vale per il mare, dove vivono organismi fotosintetici (alghe, fitoplankton) in grado di utilizzare il suddetto gas; si tratta prevalentemente di organismi monocellulari trasportati dalle correnti marine. Si è visto nel capitolo 8 come la CO2 si sciolga negli oceani, instaurando una serie di equilibri che diminuiscono leggermente il pH alcalino dell’oceano, fenomeno incautamente detto “acidificazione degli oceani”. Non vi è alcuna possibilità che il pH scenda sotto il valore di 7. Vi è anche molto allarmismo non fondato quando si afferma che la leggera diminuzione di alcalinità possa provocare un rallentamento nella calcificazione di organismi marini e quindi una diminuzione nella “pompa organica” del calcio, cioè in quella serie di reazioni che inducono la formazione biologica di esoscheletri calcarei e quindi una diminuzione del CaCO3 (carbonato di calcio) sedimentario. Citiamo solo uno studio specifico sui coccolitofori, i più comuni organismi monocellulari, ad esempio l’Emiliana huxleyi dove si è dimostrato, da esperimenti in laboratorio, come la calcificazione e la produzione di biomassa aumentino significativamente con l’aumento della pressione parziale di CO2. Esperimenti condotti in situ nell’oceano sono arrivati alle stesse conclusioni, indicando che
11. Ma se davvero fosse la CO2 …189
negli ultimi 220 anni vi è stato un aumento del 40% nella biomassa di questi organismi (Iglesias-Rodriguez 2008). Altri studiosi, come Palacio e Zimmermann (Palacio 2007), Hendriks et al (Hendriks 2010) addirittura conclusero che l’aumento di crescita in alcune alghe (sea-grass) potrebbe arrivare al 50% rispetto all’era preindustriale, impoverendo l’ambiente marino di CO2 almeno nelle loro vicinanze e quindi compensando l’incremento di CO2. In conclusione livelli più elevati di CO2 stimolano gli ecosistemi marini a una maggiore produttività, con implicazioni positive su tutta la catena alimentare e soprattutto sulla pompa carbonatica, che sappiamo essere il canale definitivo di eliminazione della CO2, con il ritorno di essa al mondo inorganico come roccia calcarea.
Capitolo 12
Effetti non antropogenici sul clima
12.1. Il passato spiega il presente, e non viceversa
Come più volte riportato non siamo certo negazionisti, anzi siamo attenti e sensibili al riscaldamento globale, e abbiamo sotto i nostri occhi i risultati dell’innalzamento della temperatura del pianeta. In questo lavoro semplicemente abbiamo selezionato e analizzato, una molteplicità di pubblicazioni scientifiche e report scritti da scienziati di chiara fama, riconosciuti esperti nel loro settore (climatologia, oceanografia, fisica e chimica dell’atmosfera, ecc.) che mettono seriamente in discussione l’assunto “Incremento della CO2 nell’atmosfera→effetto serra→ Riscaldamento della Terra, ergo Riscaldamento di origine antropica della Terra”. Obiettivo di questo scritto è e rimane divulgare il fatto che, nonostante ciò che ci viene quotidianamente inculcato, nel mondo scientifico e accademico si è ben lungi dalla certezza di quell’assunto sopra riportato. Quindi, a rigore, non spetta certo a queste pagine individuare altre cause del Global Warming. Allo stesso tempo non vorremmo certo deludere quei pochi intrepidi lettori che hanno deciso di investire neuroni e tempo libero in questa lettura, i quali, a nostro parere, si aspettano se non proprio un reo confesso, almeno… qualche indiziato da “attenzionare” come dicono Magistrati e Investigatori. Come non pensare al Sole? Più indiziato di lui non c’è nessuno! Eppure l’IPCC (Intergovernmental Panel on Climate Change), autorevole organismo dell’ONU stronca questa ipotesi affermando che la variazione della “forzante solare radiativa” misurata (ed estrapolata) fra gli anni 1750-2013 è di circa 0,05
192
La strega perfetta
W/m2, un valore del tutto trascurabile rispetto all’effetto dei gas serra, stimato dallo stesso IPCC intorno a 2,3 W/m2. Esistono però due serie di evidenze sperimentali che non sono in linea con i dati IPCC. Da una parte, attraverso carotaggi profondi nell’Antartide, esame di sedimenti marini e altre tecniche, si è raggiunta una conoscenza molto più affidabile sul clima passato del pianeta, in una scala dei tempi che va da 5 miliardi di anni fa, attraverso le ere glaciali e più vicino a noi nel cosiddetto Olocene (ultimi 10.000 anni). Dall’altra i cambiamenti nell’attività solare, e in particolare della sua radianza totale (Total Solar Irradiance, TSI), sono meglio conosciuti e si sono sviluppati modelli di essa che permettono accurate ricostruzioni del passato e previsioni del futuro. Confrontando i dati sempre più numerosi si può asserire con certezza che il Sole ebbe una influenza determinante sul clima passato, che ha attraversato, anche negli ultimi 2000 anni, periodi anche più caldi dell’attuale o molto più freddi, come la piccola era glaciale in concomitanza con il minimo di Maunder. In questi periodi passati, antecedenti il 1750 (inizio dell’era industriale), l’influenza antropica era trascurabile, la composizione chimica dell’atmosfera non era variabile e quindi l’unica forzante climatica era, senza alcun dubbio, il Sole. La scienza deve anche spiegare il passato, fornire cioè spiegazioni relative a variazioni importanti nella temperatura globale ben superiori all’attuale, quando il Sole era l’unico protagonista. Queste variazioni di temperatura furono sicuramente più marcate del valore di 1,3°C, stimato dallo stesso ICPP dall’era preindustriale a oggi. Per molti climatologi, ossessionati dai forzanti antropogenici sul clima, il disquisire o inquisire sulle variazioni dell’attività solare è una spina nel fianco. Per dimostrare la responsabilità dell’uomo sui cambiamenti climatici essi sono costretti a minimizzare o azzerare tutte le possibili variazioni naturali del sistema energetico terrestre, ponendo come costante l’unica sorgente energetica per il nostro pianeta: il Sole. Anche i periodi medioevali freddi devono essere spiegati diversamente o messi addirittura in discussione,
12. Effetti non antropogenici sul clima193
adducendo supposte concause come variazioni climatiche locali riguardanti l’Europa adducendo altri supposti indicatori climatici che indicherebbero che globalmente non era così. D’altro canto esistono correnti di pensiero che individuano nell’attività solare il motore dei cambiamenti climatici, sia nel passato che nel presente e anche nel futuro. Come sempre “historia magistra vitae”… andiamo indietro di 5,5 milioni di anni. L’esame del rapporto isotopico O-18/O-16 nei sedimenti carbonatici bentonici è una tecnica tra le più recenti di indagine sulle temperature del passato. Nella figura 12.1 (https:// cdiac.ess-dive.lbl.gov/trends/co2/vostok.html) si tracciano le anomalie termiche (differenze di temperatura rispetto a un riferimento, in questo caso lo stesso dei carotaggi di Vostok). Si nota come per circa 2,5 milioni di anni il clima fosse decisamente più caldo, non di qualche decimo di grado (valori di Global Warming attuali) ma di qualche grado. Non esistevano ghiacciai alpini e le calotte glaciali artica e antartica erano ridottissime. Da 3 milioni di anni in poi il clima iniziò un progressivo raffreddamento e si attivarono meccanismi ciclici, dapprima con un periodo di 41.000 anni e poi di circa 100.000 anni. Quest’ultima oscillazione, protrattasi per una decina di cicli fino ai giorni nostri, ha provocato le celebri ere glaciali. Esse sono costituite da lunghi periodi freddi, con temperature medie che scendono anche di 4°C della durata di circa 90.000 anni, intervallati da periodi caldi di circa 10.000 anni. Attualmente ci troviamo alla fine di un periodo caldo interglaciale. Per dare un’idea della situazione climatica nell’ultima glaciazione, quando l’Europa era abitata dall’uomo di Neanderthal, i ghiacci della calotta artica arrivavano in Europa a coprire il sito dell’attuale Berlino a lambire quello di Parigi. È opinione comune che dietro a mutamenti climatici di così ampia portata temporale non vi sia soltanto la variazione dell’attività solare (forzante solare) ma anche importanti effetti orbitalici (forzante orbitalico terrestre). Milutin Milankovic spiegò per primo nel 1920 come variazioni cicliche nell’eccentricità dell’orbita terrestre associate al moto di precessione degli equinozi e all’incli-
194
Figura 12.1.
bentonici.
La strega perfetta
5 milioni di anni di cambiamenti climatici dall’esame dei sedimenti
nazione dell’asse di rotazione terrestre sul piano orbitalico possano essere alla base di queste periodicità. 12.2. Quando gli effetti eccedono la causa: amplificazione o retroazione positiva
Bisogna sottolineare che i forzanti orbitalici di Milankovic prima descritti possiedono periodicità molto più ampie della scala dei tempi in cui dal 1950 osserviamo le variazioni climatiche. Per dare un’idea, la variazione periodica dell’eccentricità dell’orbita terrestre, dovuta essenzialmente all’influenza gravitazionale di Giove e Saturno, ha un periodo di 413.000 anni. L’angolo dell’asse di rotazione terrestre rispetto al piano orbitalico varia tra 22,1° e 24,5° con un periodo di circa 41.000 anni (il valore attuale è 23,44°, circa a metà, in diminuzione). Come è noto questo valore è alla base dell’andamento delle stagioni. Questo angolo raggiunse il massimo nell’8.700 a.C (quindi escursioni stagionali più intense) ed è atteso un suo minimo nell’anno 11.800 d.C. (escursioni stagionali più deboli). Il terzo forzante orbitalico è dato dalla precessione degli equinozi (o precessione assiale) che ha un periodo di 25.772 anni, essendo causato da influenze gravitazionali combinate dell’orbita lunare e del Sole. Qui la periodicità è più breve, ma comunque molto
12. Effetti non antropogenici sul clima195
lunga rispetto alla scala dei tempi a cui siamo interessati. Essa ha però delle intriganti conseguenze che esamineremo tra breve. Vi è un consenso piuttosto diffuso sul fatto che i tre forzanti orbitalici da soli non abbiano una intensità tale da provocare eventi abbastanza estremi, come le ultime ere glaciali, ma che comunque vi debba essere un meccanismo di amplificazione o retroazione positiva. Non dobbiamo stupirci di questa procedura: praticamente tutti i forzanti, compresa la CO2, CH4 ecc., da soli non forniscono una variazione energetica sufficiente a spiegare le differenze di temperatura. Su questo vi è un generale consenso tra i climatologi, e quindi si è costretti a trovare (o ipotizzare) un amplificatore. Nel caso dei cicli di Milankovic se ne sono ipotizzati tre, conviene spendere qualche parola per descriverli: 1. riflettività della neve (o del ghiaccio). Una volta formatasi, la coltre nevosa riflette praticamente tutta la radiazione visibile incidente. Lo stesso vale per i ghiacciai, fatto salvo il fenomeno tipicamente attuale del deposito di particolato (fuliggine) che rende la superficie dei ghiacciai più grigia e quindi meno riflettente. Un ghiacciaio possiede quindi una certa inerzia alla fusione e comunque aumenta l’albedo terrestre. Questo effetto crea un raffreddamento ulteriore una volta che a seguito della diminuzione termica si sia formata una coltre ghiacciata. Vale ovviamente anche l’opposto per un riscaldamento globale; 2. emissione di H2O. Un riscaldamento globale provoca un aumento di temperatura nello strato superficiale degli oceani e quindi in base all’equazione di Clausius-Clapeyron (G) un aumento della pressione parziale dell’H2Ovap (e quindi della sua concentrazione). Abbiamo visto come (capitolo 3, figura 3.4) H2Ovap sia interessata a notevoli assorbimenti durante il percorso della radiazione solare attraverso l’atmosfera (nell’infrarosso vicino) e come questo comporti un riscaldamento dell’atmosfera, particolarmente sopra gli oceani dove la satu-
196
La strega perfetta
razione è quasi completa. Inoltre H2Ovap è il principale gas serra dell’atmosfera, come tale ha la possibilità di amplificare quello della CO2. Le nubi potrebbero però avere un feedback negativo al riguardo, per via della radiazione IR retro riflessa. Secondo alcuni l’effetto serra potrebbe essere amplificato a tal punto da parlare di effetto serra catastrofico (runaway greenhouse effect) (https://en.wikipedia.org/wiki/Runaway_ greenhouse_effect); 3. emissione CO2. Come esaminato meglio nel capitolo a ciò dedicato (capitolo 8) un riscaldamento globale provoca un aumento della temperatura superficiale degli oceani. A causa degli equilibri carbonatici viene emessa una quantità maggiore di CO2 rispetto a quanta se ne ridiscioglie, portando a un aumento atmosferico di questo gas e quindi a un possibile aumento dell’effetto-serra. Ritorniamo però un momento su terzo forzante orbitalico di Milankovic (precessione assiale). L’orbita della Terra attorno al Sole non è un cerchio perfetto ma un’ellisse, di cui il Sole occupa uno dei due fuochi. Attualmente (2019) il perielio (punto più vicino al Sole) dell’orbita terrestre e il solstizio invernale (estivo per l’emisfero australe) sono vicini, con circa due settimane di differenza. Lo stesso dicasi per il solstizio estivo (invernale per l’emisfero australe) e l’afelio (punto più distante dal Sole). Tra afelio e perielio, vista l’eccentricità dell’orbita, vi è una differenza di circa 3,4 % come distanza fisica, ma come radianza solare, visto che diminuisce con l’inverso del quadrato della distanza, la differenza sale a circa 6,9%. La figura 12.2, ovviamente non in scala, è una vista perpendicolare al piano orbitalico terrestre (piano dell’eclittica) dal lato del polo nord terrestre. Le date si riferiscono all’anno 2019. Con la precessione degli equinozi la situazione cambierà gradualmente e fra 12.886 anni (metà del periodo completo del ciclo di precessione) la figura sarà esattamente l’opposto. Ma focalizziamoci sul presente: 6,9% di variazione del TSI (To-
12. Effetti non antropogenici sul clima197
Figura 12.2.
Schema orbitalico terrestre.
tal Solar Irradiance) tra afelio e perielio non è poco. Si passa da 1320 a 1400 Watt/m2, con 80 Watt/m2 di differenza che non sono trascurabili, come si nota in figura 12.3. Per la curiosa vicinanza attuale tra afelio/perielio e solstizio quando la Terra è più vicina al Sole (perielio) l’emisfero australe è nel pieno dell’estate ma quello boreale nel pieno dell’inverno. Situazione esattamente opposta per l’afelio. In altre parole le estati nell’emisfero meridionale sono più calde che non in quello settentrionale. Consideriamo ora la percentuale di pianeta coperta dagli oceani, 71%. Essi rappresentano un serbatoio insostituibile di energia termica. La capacità termica dell’acqua è maggiore di quella del terreno o delle rocce, inoltre la circolazione oceanica ridistribuisce il calore accumulato nel cosiddetto strato misto superficiale, da 0 a 100 metri di profondità. La superficie degli oceani e le terre emerse non sono uniformemente distribuite sul pianeta, nell’emisfero boreale abbiamo 40% di terre
198
La strega perfetta
Figura 12.3. Radianza totale solare (TSI) a 1 Unità Astronomica e alla distanza reale Terra-Sole.
emerse (e 60% di oceani) mentre in quello australe si ha 20% di terre emerse e 80% di oceani. Ecco quindi che il serbatoio oceanico riesce a immagazzinare meglio l’energia termica nella situazione attuale di estrema vicinanza tra solstizio invernale (per emisfero nord) e perielio. C’è un parametro che si può misurare sperimentalmente, la capacità termica degli oceani, attraverso il quale è possibile avere una quantificazione del fenomeno. Il grafico di figura 12.4 riporta i dati di un istituto oceanografico e si riferisce alla energia termica (in Joule) condensata nello strato di oceano da 0 a 700 m di profondità. I dati hanno forti oscillazioni quindi sono stati proposti 3 tipi di medie. In rosso ogni 3 mesi, in nero ogni anno e in blu ogni 5 anni. È evidente comunque il netto andamento in salita dal 1970 con un trend quasi lineare dal 1985. Quindi gli oceani si confermano il grande volano del clima. Mitigano gli aumenti di temperatura ma conservano memoria di ciò con una notevolissima capacità termica e quindi
12. Effetti non antropogenici sul clima199
Andamento della capacità termica degli oceani (NOAA/NESDIS/ NODC – Ocean Climate Laboratory, con modifiche).
Figura 12.4.
con un effetto inerziale che può durare anche anni. Se ci si aspetta dalla prevista diminuita attività solare nel periodo 2020-2050, analoga secondo alcuni al minimo di Mauder (1645-1705), un’immediata diminuzione delle temperature globali si è fuori strada. Continuiamo la nostra esposizione sull’amplificazione. Sembra quasi di poter dire, dopo aver letto centinaia di pubblicazioni e libri, “a ogni forzante la sua amplificazione”. Sembra che gli aumenti (o supposti tali) di flusso radiante dall’atmosfera verso la Terra (appunto i forzanti radiativi) necessitino, per poter spiegare il riscaldamento globale di questi ultimi decenni, di un effetto moltiplicativo o di amplificazione. Da parte degli autori aleggia però un certo sospetto. In particolare per il forzante CO2; l’effetto amplificatore si appoggia essenzialmente all’H2Ovap, riconosciuta da tutti come il principale gas serra. Lo schema non è complesso: 1. un aumento di ppm CO2 crea un certo aumento di energia radiante verso la Terra; 2. questo provoca un lieve aumento di temperatura; 3. globalmente questo provoca (legge di Clausius Clapeyron) un aumento delle ppm di H2Ovap;
200
La strega perfetta
4. per effetto serra questo provoca un secondo aumento di flusso radiante ecc… Rimandando al Glossario per la sintetica descrizione della legge fenomenologica, si ricorda come a 20°C, e anche solo al 50% di umidità relativa, ci sono 11.000 ppm di H2Ovap e 410 ppm di CO2. Il rapporto 11.000/400 vale 27,5 e questo potrebbe anche dare un’idea (molto approssimata) di questa amplificazione (o supposta tale). Sfortunatamente invocare il feedback H2Ovap non è patrimonio esclusivo della CO2, infatti esso è patrimonio di qualunque forzante, in particolare del forzante solare, per due motivi principali, entrambi a monte nella catena di eventi (quindi prioritari): 1. gli oceani assorbono nei primi 30 metri tutta la radiazione solare. Essi rappresentano il 71% della superficie del pianeta; 2. nell’attraversare la troposfera la radiazione solare riscalda direttamente l’aria per effetto delle bande IR attive solo per H2Ovap che si situano nel vicino IR, di fianco al visibile. La CO2 qui non riveste alcun ruolo. Questo particolare aspetto è stato discusso nel capitolo 3 e in particolare rimandiamo alla figura 3.4, la quale mostra le bande di assorbimento di H2Ovap nel vicino IR, confrontate con la curva dell’emissività di Planck per la temperatura solare. Piccole variazioni nell’attività solare generano, già prima che la radiazione arrivi sulla superficie (meccanismo 2) o appena arriva sugli oceani (meccanismo 1), lievi aumenti di temperatura che possono quindi essere facilmente amplificati via H2Ovap. Vi sono però anche feedback negativi da considerare. Visto il gradiente termico negativo (alle medie latitudini 7°C ogni km di atmosfera) e vista la circolazione atmosferica, il vapor acqueo condenserà in parte con formazione di nubi. Si è visto come un aumento, anche piccolo della copertura nuvolosa modifichi l’albedo del pianeta e quindi porti a un raffreddamento. La questione
12. Effetti non antropogenici sul clima201
quindi non è di facile risoluzione. Vi sono tuttavia altre tipologie di amplificazione per l’attività solare, proposte da diversi illustri studiosi, come H. Svensmark. 12.3. Raggi cosmici, nubi e clima
Il principale caposcuola di questa ipotesi è Henrick Svensmark, che dalla metà degli anni 90 ha pubblicato svariati articoli scientifici e report su questo argomento. Nel suo più recente report (report 33 of The Global Warming Policy Foundation) cita ben 97 pubblicazioni scientifiche, alcune a suo nome, su prestigiose riviste come “Nature”, “Climate Science”, “Solar Physics” e altre. Rimandiamo al report per l’elenco completo, mentre al fondo del capitolo sono riportati i riferimenti di alcune di queste che possono essere fonte di approfondimento per il lettore interessato, in quanto disponibili on-line in modalità “open” (articolo completo). Da alcuni studiosi l’effetto di cui parliamo è stato battezzato “effetto Svensmark”. Poiché le nubi possiedono un enorme effetto sul bilancio energetico, come più volte sottolineato (viene stimata una diminuzione del flusso radiante verso la Terra di 20-30 watt ogni m2 di superficie nuvolosa) ogni variazione sistematica nella copertura nuvolosa provoca effetti molto significativi sul clima. La formazione delle nubi non è un meccanismo semplice, procede infatti attraverso diversi stadi e proprio per questo si possono facilmente incontrare situazioni in cui, pur essendo l’aria sovrasatura di vapor acqueo, questo non riesca a condensare in goccioline. Detto in termini propriamente chimici, si tratta di un fenomeno sotto controllo cinetico, che tende sì alla situazione di equilibrio termodinamico ma con le sue tempistiche specifiche, che implicano la formazione di nuclei di condensazione di dimensioni “atomiche” da 1 a 2 nanometri (10-9 metri) i quali si accrescono in veri e propri nuclei di condensazione nuvolosa (CCN Cloud Condensatio
202
La strega perfetta
Nuclei). Da questi ultimi si formano le prime goccioline d’acqua di 15-20 micron alla base delle nubi. Meccanismi di questo genere sono noti ai meteorologi dagli anni ’50 quando si cercava di “inseminare” le nuvole con microe nano-particelle di AgI (ioduro d’argento). Oggi questa pratica, scherzosamente battezzata dei “maghi della pioggia”, è quasi del tutto abbandonata. Fatte queste premesse, esponiamo in sintesi in cosa consiste l’effetto Svensmark. Alla base ci sono i raggi cosmici. Ci si ricorda di loro quando il personale in volo sugli aerei lamenta esposizioni alle radiazioni ionizzanti da questi provocate circa 70 volte rispetto a quelle di una persona al livello del mare. Certo si tratta di particelle cariche come quelle del vento solare essenzialmente protoni al 90%, poi particelle alfa ed elettroni. La differenza è che hanno energie spaventose, molto più alte delle particelle che costituiscono il vento solare. Derivano da fenomeni violenti anche extragalattici come l’implosione di supernovae, il collasso di due stelle di neutroni o altro. È stato osservato come una (piccolissima) parte di raggi cosmici possieda energie superiori a quanto ottenuto nell’acceleratore del CERN per i protoni. L’intensità dei raggi cosmici è misurata, dagli anni ’50, mediante il conteggio di neutroni (prodotti dalle reazioni nucleari nella ionosfera/stratosfera da parte dei raggi cosmici) da parte di stazioni a terra, mentre la copertura nuvolosa dagli anni ’70 mediante l’uso di satelliti meteorologici. Fu osservato sperimentalmente fin dal 1996 dallo stesso Svensmark e coll. come l’intensità dei raggi cosmici fosse in stretta relazione con la copertura nuvolosa del pianeta, senza al momento postulare un meccanismo. L’intensità dei raggi cosmici è in relazione di antifase con l’attività solare, come dimostrato in maniera eloquente dal grafico di figura 12.5. L’attività solare è espressa come numero di macchie solari, che si correla benissimo in opposizione di fase con il flusso di raggi cosmici.
12. Effetti non antropogenici sul clima203
Figura 12.5. Flusso di raggi cosmici e macchie solari dal 1951 al 2018 (periodo di osservazioni strumentali) (Svensmark Force Majeure 2019).
Il vento solare si fa più intenso nei periodi di maggiore attività della nostra stella, muovendo verso la Terra un flusso di particelle cariche più alto. Ora si sa che una corrente di particelle cariche genera un campo magnetico (Legge di Lorentz), quindi maggiore attività solare crea un maggior campo magnetico che scherma la Terra dai raggi cosmici deviandone la traiettoria. I raggi cosmici originano, vista la loro altissima energia, uno sciame di molecole ionizzate (caricate + e -) che in qualche modo catalizza la formazione dei CCN. Le molecole candidate a questo processo possono essere H2Ovap o altri gas presenti in tracce nella stratosfera come H2SO4. Recenti esperimenti al CERN hanno confermato questo meccanismo. Su queste molecole ionizzate iniziano a depositarsi molecole di acqua formando aggregati di 50-100 nm ancora carichi e quindi stabilizzati dalla repulsione elettrostatica, i cosiddetti CCN. Essi sono, come accennato prima, alla base della formazione di nubi. Su queste micro goccioline di 50-100 nm può iniziare la condensazione di H2Ovap. Una volta iniziata si ha un meccanismo a valanga: più H2Ovap condensa più il diametro della gocciolina
204
La strega perfetta
aumenta e quindi la sua superficie, perciò più H2Ovap condensa e così via. Tutto questo se ovviamente l’aria è satura o sovrasatura/ sovrassatura di vapor acqueo, alla temperatura specifica. Maggiore formazione di nubi aumenta l’albedo e quindi aumenta la parte di radiazione solare riflessa verso lo spazio. L’obiezione principale non è sul meccanismo fisico-chimico ma sulla sua collocazione nel contesto dell’atmosfera. La ionizzazione dovrebbe avvenire a quote alte (ionosfera/stratosfera) mentre le nubi si formano nella media troposfera prevalentemente. Non sono, d’altro canto, rari i fenomeni in cui la ionizzazione avviene a quote più basse (effetto Forbusch). Secondo lo stesso Svensmark, un meccanismo del genere potrebbe provvedere un’amplificazione circa 10x e produrre un forzante radiativo di 1,1 ± 0,3 W/m2 dell’attività solare. Occorre qui fare una precisazione: i vari forzanti radiativi si intendono come valore medio su tutta la superficie terrestre, in genere a livello del suolo. Le variazioni di “irradianza” solare (TSI) invece fanno riferimento al flusso per unità di superficie che arriva a colpire la Terra. Questo valore va diviso per 4 (la superficie sferica vale 4p2R2 mentre la sezione del cono di radiazione che la colpisce vale pR2) e poi moltiplicato per l’albedo, quindi ad esempio una variazione di TSI pari a 1,8 si trasforma in un forzante solare sulla superficie terrestre di circa 0,3 W/m2. Riassumendo: 1. aumento di attività solare, 2. aumento vento solare, 3. diminuzione dei raggi cosmici, 4. diminuzione della copertura nubi, 5. riscaldamento globale! L’effetto Svensmark è stato ferocemente criticato nel corso degli anni dai sostenitori degli effetti antropogenici del riscaldamento globale, anche (e soprattutto) da giornalisti non scientifici o incompetenti. Da una ricerca sul web prevalgono le critiche all’effetto Svensmark, ma nel corso degli anni si sono accumulate anche ulteriori evidenze sperimentali e teoriche, per cui il peso reale di questo effetto non è ancora definitivamente assodato, ma sicuramente è uno dei meccanismi di amplificazione del forzante solare.
12. Effetti non antropogenici sul clima205
Il professor Svensmark conclude il suo recente report con una riflessione: La scienza del clima è attualmente pesantemente politicizzata coinvolgendo forti interessi economici e non solo. Non è quindi sorprendente che le conclusioni di questo report sul ruolo del Sole sul clima terrestre siano pesantemente contestate. Il nocciolo della questione può anche esser visto così: se il Sole ha avuto una indiscussa influenza nel periodo Holocene, come può non aver influenza nell’attuale riscaldamento globale, con la conseguenza di ridurre l’influenza della CO2? In conclusione quindi l’impatto dell’attività solare sul clima è di gran lunga maggiore di quanto suggerisca il “consenso ufficiale”. Commento a margine degli autori: il Sole da sempre è la fonte di energia termica della Terra, la Terra si sta scaldando e il Sole non c’entra nulla… a noi sembra veramente dura da far accettare! 12.4. Se il passato spiega il presente, come si ricostruisce il passato?
Il dibattito sul clima degli ultimi 400 anni è molto acceso. Il punto è la ricostruzione dell’attività solare (sempre TSI in watt/m2) in questo arco di tempo. Non essendovi strumentazioni idonee se non dopo il 1980 (satelliti) il flusso radiante dal Sole deve essere ricostruito da misure indirette (i cosiddetti “proxy”). I più celebri di questi proxy (G) per la TSI sono basati su analisi isotopiche, come il C-14 nelle cortecce degli alberi o il Be-10 nei ghiacci, oppure anche il rapporto isotopico O-16/O-18 nei ghiacci dell’Antartide. Una stima più diretta si ha estrapolando il TSI direttamente dal conteggio delle macchie solari, iniziato attorno ai primi del ’600 con Galileo Galilei. Le macchie solari sono essenzialmente aree circolari scure sulla superficie del Sole, dove la concentrazione di flusso magnetico inibisce la convezione riducendo la temperatura superficiale. Si sviluppano a coppie di opposta polarità e durano da qualche giorno
206
La strega perfetta
a qualche mese prima di scomparire. Le macchie solari si espandono e si contraggono mentre si muovono sulla fotosfera (superficie solare) e variano il loro diametro da qualche decina di km fino a 150.000 km. Le macchie solari appaiono spesso in gruppi e sono circondate da aree più chiare (faculae) dove la temperatura della fotosfera cresce. Nel complesso quindi i periodi di maggiore attività solare e quindi flusso radiante TSI coincidono con i massimi nel numero di macchie. Anche se le macchie con una temperatura attorno a 4000 K sono più “fredde”, nelle faculae che le circondano le temperature aumentano a tal punto che la radiazione solare aumenta nel complesso (massimi solari). I minimi di attività corrispondono al minimo delle macchie, o alla loro totale assenza, come avvenne tra il 1645 e il 1705. Il punto critico è che non esiste una relazione matematica diretta tra il numero di macchie e la TSI, ma soltanto una serie di modelli di relazione. Per questi motivi in letteratura si possono trovare decine di ricostruzioni, e spesso esse vengono utilizzate a seconda della convinzione climatologica e quindi della conclusione finale a cui si vuole arrivare. Questo non fa che aumentare la confusione e l’incertezza tra i lettori. Come indicato in figura 12.6 le ricostruzioni possono essere raggruppate in due “fasce” la prima raggruppa ipotesi di variazioni di TSI dell’ordine di 1,5 W/m2 (es. Koddington/Kopp), mentre la seconda variazioni fino a 6 W/m2, quattro volte maggiori (https://crudata.uea.ac.uk/cru/data/temperature/ and https://wattsupwiththat.com/2018/05/03/climate-change-due-to-solar-variability-or-greenhouse-gases-part-b/). Una ricostruzione diciamo “intermedia tra gli estremi” potrebbe essere quella pubblicata nel 1995 da J.L.Lean e colleghi sulla rivista Geophysics Research Letters che può servire da base per associare ai suoi minimi (Maunder, Dalton e altri) eventi storici recenti basati sulle condizioni climatiche del periodo (figura 12.7). Si nota in questa ricostruzione come il periodo 1945-1980 sia caratterizzato da un’irradianza maggiore di circa 1,1 W/m2 relativamente al precedente periodo 1880-1915, il che potrebbe indicare
12. Effetti non antropogenici sul clima207
Figura 12.6. Esempi di ricostruzioni dell’attività solare negli ultimi 400 anni (da wattsupwiththat.com).
Figura 12.7. TSI dal 1600 al 2014. J.L.Lean et al., Reconstruction of solar irradiance since 1610, implication for climatic change,1995 Geophysics Research Letters 22, 3195-3198.
208
La strega perfetta
una causa o concausa solare nel recente riscaldamento globale, tenendo conto degli effetti di inerzia termica degli oceani. Facciamo qualche passo indietro: al termine del “Periodo Caldo Medioevale” circa 1300 d.C., le temperature calarono bruscamente dando inizio a un periodo freddo riferito in letteratura come “Piccola Era Glaciale (PEG) – Little Ice Age”. Le conseguenze furono negative, almeno in Europa i periodi caldi estivi si accorciarono innescando una serie di carestie. I ghiacciai in Groenlandia iniziarono un progressivo avanzamento e la banchisa si estese su tutto il nord atlantico, bloccando porti e attività di pesca. La PEG in realtà è un periodo di circa 5 secoli, da cui il pianeta è uscito completamente soltanto dopo l’ultimo minimo (Dalton, cfr. figura 12.7) attorno alla metà dell’ottocento. La PEG non fu infatti un periodo continuo di clima freddo, piuttosto una sequenza di periodi alternati di riscaldamento e raffreddamento, associati a massimi e minimi dell’attività solare. Vediamone alcuni: Minimo di Wolf (1290-1350 d.C.)
Esso segna l’inizio della PEG; il brusco abbassamento delle temperature provocò carestie devastanti. Secondo le cronache l’inverno 1309-1310 fu tra i più rigidi, con fiumi come il Tamigi congelati e raccolti di cereali ridotti al minimo. In questo stato di deprivazione collettiva ebbe facile diffusione la peste nera (1347-1350), il più grande flagello che sconvolse mai l’Europa. Arrivata dal medio oriente attraverso rotte marittime commerciali, attraversò i porti di Messina, Genova e Pisa e di lì si diffuse in tutta Europa. Provocò 20 milioni di morti, circa la metà della popolazione complessiva del continente a quel tempo. Minimo di Maunder (1645-1705 d.C.)
Questo minimo è il più celebre della PEG. La stagione dei raccolti divenne via via più breve, i giorni di neve aumentarono fino a 20-30
12. Effetti non antropogenici sul clima209
per anno, il suolo congelò per quasi un metro di spessore in molte parti d’Europa, i ghiacciai alpini ebbero il loro massimo di espansione arrivando a coprire campi coltivati e fattorie. I ghiacci circondarono l’Islanda per più di 20 km e bloccarono i porti dell’Olanda. Di nuovo il Tamigi e i canali olandesi congelarono durante l’inverno (figura 12.8). Carestie nel Nord America furono dovute al non adattamento climatico delle specie di cereali ivi coltivate da anni. Associati alla malnutrizione sono da citare due famosi episodi di pestilenze, come quella del 1630 (la famosa peste manzoniana) e quella del 1656 che fu particolarmente nefasta nell’Italia meridionale, dove dimezzò la popolazione di città come Napoli e Messina. Come detto, in questo periodo l’attività solare fu così bassa che non si osservarono macchie solari per circa 50 anni. La cosa fu così curiosa che si misero in dubbio le prime osservazioni di esse (G. Galilei, 1609), quando molti astronomi si lanciarono attivamente alla loro ricerca (sfruttando il telescopio galileiano) senza alcun esito. Infatti era un periodo di freddo intenso! Minimo di Dalton (1790 – 1820 d.C.)
Terminato il minimo di Maunder, il pianeta attraversò un periodo relativamente caldo, caratterizzato anche da un certo arretra-
Figura 12.8. Anno 1663, pittura di Jan Grifier del fiume Tamigi congelato a Londra durante il Minimo di Maunder.
210
La strega perfetta
mento dei ghiacciai alpini, fino al susseguente minimo di Dalton caratterizzato da un notevole avanzamento degli stessi e della copertura glaciale artica. Alcuni inverni furono estremamente rigidi, in particolare quello del 1812 che provocò l’unica vera sconfitta di Napoleone I in Russia, con la perdita di gran parte del corpo di spedizione di circa 500.000 uomini. Ne ritornarono in Francia circa 80.000, nonostante la famosa vittoria di Borodino del 6 settembre dello stesso anno sulle truppe dello Zar Alessandro. Attualmente siamo al termine di un periodo di intensa attività solare, ciclo 24 (cfr. figura 12.9, le previsioni per il ciclo 25 sono in colore tenue), e quindi la componente solare (o forzante) sul clima dovrebbe raggiungere un minimo attorno al 2020, al termine del ciclo 24 di macchie solari. Non si dimentichi come gli oceani siano (particolarmente nell’attuale periodo di quasi coincidenza tra perielio ed estate australe) il nostro “termosifone”. Essi assorbono immense quantità di energia termica, enormemente maggiori del-
Figura 12.9.
Ultimo ciclo solare di 11 anni e stima del prossimo (25 esimo).
12. Effetti non antropogenici sul clima211
la terraferma e le rilasciano con gradualità, secondo i vari cicli che conosciamo (es. El Niño ecc.). Non dobbiamo quindi aspettarci un subitaneo abbassamento delle temperature ma piuttosto una diminuzione di questa componente climatica nel corso dei prossimi 10-20 anni. http://sidc.be/silso/node/152.
Conclusioni
Di continuo siamo martellati, fino allo sfinimento, da una frase del tipo: “i modelli climatici prevedono per il 2030/2050…” seguita da un elenco di catastrofi, tutte, rigorosamente tutte, imputabili al “riscaldamento globale”! Esiste un giornalista, opinionista, manifestante che si chieda e chieda: –– quali grandezze fisiche sono state usate per costruire il modello climatico? –– qual è la variabilità di queste grandezze, tipo albedo, copertura nuvolosa, ecc? –– come si riflette questa variabilità sul risultato finale? –– esistono altri modelli elaborati? E se si, qual è la dispersione dei dati finali? –– questi modelli hanno predetto il giusto per i 20-30 anni appena trascorsi? A conclusione di questo nostro lavoro ci piacerebbe che il lettore, desideroso di conoscenza, ri-cercasse, al di là di quanto riportato in questo libro, una risposta alle domande sopra formulate! Per quanto riguarda invece noi autori, a conclusione del nostro lavoro, ci riteniamo profondamente insoddisfatti per le risposte che, dopo lungo studio, abbiamo trovato nella letteratura ufficiale (ad es. IPCC, International Panel Climate Change… ma non solo) a proposito delle cause del riscaldamento globale (Global Warming).
214
Conclusioni
In particolare riteniamo fortemente sottostimati o totalmente assenti alcuni argomenti: –– iniziamo dall’acqua (vapore): essa non è un semplice spettatore dei cambiamenti climatici, ma uno dei, se non il principale, attore. Basti pensare che a livello del mare la concentrazione dell’H2O vapore, alla temperatura di 20°C, con umidità relativa del 50% è circa 11.000 ppm mentre quella della CO2 è 410 ppm. Inoltre essa è un gas molto più attivo nell’IR, essendo una molecola polare (a differenza della CO2), e non solo nell’IR emesso dalla Terra ma anche nell’IR vicino (cfr. tabella 2.1) che è una componente importante della radiazione solare; –– passiamo ora agli oceani: non sono soltanto un enorme serbatoio termico che influenza il clima (El Niño ad esempio) ma riescono a immagazzinare (mediante complessi flussi di assorbimento/desorbimento) enormi quantità di CO2, maggiori di quanto riescano nel complesso le biomasse verdi. La sorte finale di questa CO2 è la trasformazione in carbonato di calcio CaCO3, che si deposita nei fondali in forma di calcite o aragonite; –– la spasmodica attenzione al “sistema Terra” ci ha fatto dimenticare che siamo immersi in periodicità naturali che possono aver origine all’esterno del nostro pianeta come l’attività solare, sia come flusso di radiazione che come vento solare, e i raggi cosmici; se tutto è considerato costante e ininfluente, quindi, la verità ufficiale non può né sa spiegare le piccole ere glaciali, i minimi di Maunder e di Dalton e la fase di riscaldamento terrestre fra i 2 minimi (anni 17051790) cioè 85 anni di Global Warming! –– se consideriamo soltanto l’assorbimento infrarosso della CO2 in atmosfera secondo le leggi classiche (Lambert e Beer), allora il fenomeno è già in regime di saturazione, così in soli 20 metri la radiazione IR emessa dalla superficie terrestre viene già completamente assorbita. Bisogna allora
Conclusioni215
considerare fenomeni quantistici di assorbimento e di emissione delle molecole con effetto serra, cioè attive nell’infrarosso (IR) in primis CO2 e H2O vap, e non tutti i fisici forniscono la stessa interpretazione; –– i vari trasferimenti energetici verso la superficie della Terra vengono quantificati in “forzanti radiativi” di diverse origini, espressi in Watt/m2, ma vi è una notevole discrepanza di opinioni sul come poi trasformarli in un’anomalia termica complessiva espressa in °C! –– infine una considerazione di buona pratica scientifica. L’incertezza con cui sono note le grandezze fondamentali da inserire in un modello climatico, come l’emissività, l’albedo della superficie terrestre, la sua copertura nuvolosa, si riflette sul valore finale di anomalia termica, ma la deviazione standard (o incertezza di misura) in termini di ΔT (differenza di temperatura) di questo parametro viene spesso omessa. Noi autori abbiamo stima e fiducia nei nostri colleghi scienziati, ma allora perché queste sottostime e questi silenzi? Noi tutti siamo seriamente preoccupati dai repentini mutamenti climatici e una profonda nostalgia e tristezza avvolge noi autori innamorati delle nostre montagne solo 30 anni fa ricche di ghiacciai e pareti nord temibili e affascinanti. Al contempo, non meno preoccupati siamo dai toni che vengono usati per descrivere gli effetti del riscaldamento, temiamo che il fanatismo climatico prenda il posto di quell’approccio cauto, logico e razionale che tanto amiamo. L’espressione “fanatismo climatico” non è, come potrebbe apparire, esagerata. Citiamo un esempio: giovedì 31/10 2019 TG1 edizione serale, viene asserito che il fiume Colorado, per via dei cambiamenti climatici, non arriva più a sfociare nell’Oceano Pacifico. Ora è noto che il flusso del fiume Colorado, dai tempi della costruzione della diga Hoover (anni ’30), è dirottato, in maniera completa, per irrigare i terreni agricoli.
216
Conclusioni
Il grafico dell’aumento di concentrazione della CO2 in atmosfera rispetto al trascorrere del tempo che ben si accoppia all’anomalia della temperatura sulla stessa scala temporale è una tentazione irresistibile per la scienza a correlare questi due andamenti (ad esempio figura 5.2 dal 1977 al 2005). Gli studi condotti da centinaia di scienziati di chiara fama, i più importanti dei quali vengono esposti e commentati in questo libro, mettono fortemente in discussione questa correlazione causa-effetto (“Global and Planetary Change” gennaio 2013, pp. 51-69). Non è difficile incontrare nella scienza variabili parallele ma non necessariamente correlabili. La scienza, per onestà intellettuale, dovrebbe comunicare che al momento non vi è certezza nell’attribuire alla CO2 la responsabilità del riscaldamento globale. Solo per un elegante “principio di precauzione”, che nasconde dietro sé la meno elegante verità “non sappiamo che altro fare…”, si sta operando, a fronte di costi e sacrifici non del tutto immaginabili, nella direzione di abbattere le emissioni di CO2! Tutto questo senza alcuna certezza dell’abbassamento della temperatura globale media. Ammettiamo pure di riuscire a diminuire la concentrazione di CO2 nell’atmosfera, in questo caso nei prossimi decenni potrà succedere: 1. la temperatura del pianeta continuerà lentamente a salire; 2. la temperatura scenderà; 3. il profilo di temperatura avrà un andamento difficile da definire e interpretare. Nel caso 1 varrà il principio “la vittoria ha 100 padri ma la sconfitta è orfana”, nessuno si assumerà alcuna responsabilità; nei casi 2 e 3 la scienza ufficiale avrà avuto totalmente ragione, a prescindere da tutte le altre variabili climatiche e dalle loro molteplici combinazioni. Nei casi 1 e 3 secondo noi, il rischio sarà quello di andare incontro, nei prossimi decenni, a una forte delusione e a un popolare sconforto seguito da una nefasta e pericolosa perdita di fiducia
Conclusioni217
nelle Istituzioni. Questo è anche il motivo per cui i provvedimenti e gli investimenti particolarmente onerosi che le Istituzioni, a livello mondiale, stanno assumendo devono essere presi tenendo in debito conto i dati pubblicati da tutta la comunità scientifica, con cautela, logica e razionalità, e non sotto la pressione di un nascente fanatismo climatico. Mentre stiamo scrivendo (primi giorni di novembre 2019) apprendiamo che molte località del Piemonte e della Liguria, dopo due giorni di forte pioggia, sono interessate da allagamenti, frane, colate di fango, case spazzate via, ponti crollati, aziende in ginocchio, forse dei morti. Purtroppo nulla di nuovo, è il solito film in programmazione ogni autunno e ogni primavera! Sempre mentre stiamo scrivendo, apprendiamo che la Comunità Europea chiede altri due miliardi di € agli Stati membri, da aggiungere ai sette/otto già stanziati per ridurre le emissioni di CO2. Il dissesto idro-geologico del nostro territorio costa ogni anno ai cittadini italiani lutti, dolore, disservizi, sacrifici e miliardi di euro! Facendoci guidare da buon senso e razionalità dove lo Stato Italiano dovrebbe investire quelle misere risorse di cui dispone? Sappiamo bene ormai che ogni violento scostamento climatico diventa “a memoria d’uomo mai visto nulla del genere…!”, eppure (tanto per citar due casi) il tornado che sconvolse Torino, abbattendo persino la guglia della Mole, avvenne il 23 maggio del 1953 (io stavo giocando sul balcone) e l’alluvione di Firenze il 4 novembre del 1966! A quel tempo la nostra simpatica strega era sconosciuta, gli inverni gelidi, i ghiacci avanzavano e a Torino, d’inverno, puntualmente le fontane erano gelate e, a fine luglio, di fisso, c’erano oltre 30 °C! Paradossalmente chi ci amministra dovrebbe esser “grato” alla CO2: capro espiatorio perfetto per nascondere dietro al suo mantello inadempienze, cialtronerie, e scelte (o non scelte) scellerate perpetrate nei confronti del nostro disastrato territorio. Una delle tante critiche potrebbe essere: “e dunque, secondo voi… la causa del riscaldamento qual è?”.
218
Conclusioni
Non tocca a noi autori rispondere, noi ci dilettiamo di chimica-fisica dei mari e dell’atmosfera. Dopo molto lavoro, però, un aspetto appare davvero evidente: la ciclicità dei fenomeni climatici, si d’accordo, stagioni, ere glaciali, fasi lunari, maree, lo sapevamo da un pezzo, ma c’è qualcosa di più… Si afferma spesso che gli effetti climatici antropogenici si sommano a cicli climatici naturali ma con periodicità molto lunghe, come ere glaciali o simili. Ma siamo davvero certi che le variazioni periodiche del clima naturale siamo davvero così lunghe? Fenomeni ricorrenti (come El Niño, cicli glaciali delle due calotte polari, ciclo breve della CO2 e altri) hanno periodicità comprese tra 3 e 10 anni e se si sommano in concordanza di fase producono effetti davvero inaspettati. Questi effetti possono essere inspiegabili se non si esamina il complesso interferire delle cause scatenanti.
Glossario
Assorbimento molecolare nei gas
Allorché lo spettro di onde elettromagnetiche provenienti dal Sole e dallo spazio profondo (radiazioni cosmiche) investe l’atmosfera terrestre a partire dall’esosfera, alcune bande di frequenza vengono assorbite dalle molecole dai gas costituenti l’atmosfera, mentre altre bande giungono inalterate fino noi, residenti sulla crosta terrestre. Cosa si nasconde dietro al termine “assorbite”? Comprendere questo fenomeno è rilevante per capire “il riscaldamento globale” e muoversi più agevolmente fra le pagine di questo libro. Si immagini una molecola semplice ad esempio l’ossigeno O2 o l’azoto N2, formata quindi da due soli atomi, questi sono legati fra loro da un legame chimico, il modo più semplice per immaginare un legame chimico è pensarlo come una molla che unisce il centro delle due sferette: gli atomi, ad esempio, di azoto/ossigeno. Se il legame è forte la molla è corta e robusta, al contrario se il legame è debole. Come tutte le molle anche questa, se opportunamente sollecitata, vibra o se si preferisce oscilla. Il modello che i chimici utilizzano per lo studio di molecole semplici, bi-tri atomiche, è proprio costituito da 2-3 sferette vincolate fra loro da molle e, non per niente, questo modello si chiama “oscillatore armonico”. Un modo classico per eccitare, cioè mettere in oscillazione il sistema, consiste nell’illuminare il gas, e quindi le molecole che lo costituiscono, con un fascio di onde elettromagnetiche. Questa molla di legame ha però una peculiarità, e un po’ come succede
220
Glossario
a noi, si eccita solo se investita da un’ onda elettromagnetica di suo gradimento, cioè di una particolare frequenza o, se si vuole, lunghezza d’onda. Questo perché i livelli energetici di molecole e atomi non sono continui ma quantizzati. Dunque se la lunghezza d’onda incidente sulla molecola e quindi sulla sua molla (gas costituito da molecole biatomiche come l’O2) ha un ben preciso valore, questa onda viene assorbita, e la molla inizia vibrare o, se si vuole, a danzare in strani modi, chiamati “modi normali di vibrazione”. Le molle di legame sono ferme solo a zero kelvin (0 k) che equivale a -273°C, se si eccita il legame chimico, cioè la molla, con una onda di gradita frequenza o lunghezza d’onda, la molla assorbe la radiazione e inizia a oscillare, vibrando e torcendosi, è come dire che il gas si sta scaldando; a relativamente alte temperature le vibrazioni sono così ampie che le molle possono arrivare a rompersi. Quando una radiazione infrarossa (IR), o se si preferisce, un fotone infrarosso viene assorbito da una molecola, questa passa dal suo stato vibrazionale fondamentale a uno stato vibrazionale eccitato. Gli esperti di IR costruiscono dei grafici con in ascisse la lunghezza d’onda irradiata e in ordinate la percentuale di radiazione assorbita. Se un gas è trasparente alla radiazione IR il suo spettro si presenterà come una linea parallela all’asse delle ascisse e quasi con questo coincidente, se il gas non è completamente trasparente ci saranno degli assorbimenti e quindi delle transizioni tra livelli energetici vibrazionali. In questo caso lo spettro sarà caratterizzato da una serie di picchi di altezza variabile in corrispondenza della lunghezza d’onda assorbita. I livelli energetici vibrazionali di una molecola possono essere calcolati e si può anche verificare che tanto maggiore è la forza di legame tanto maggiore sarà la frequenza di vibrazione per un dato livello vibrazionale. Le molecole possono avere o non avere un comportamento polare. Se la molecola è costituita da due atomi uguali non sarà polare, vedi ossigeno e azoto, l’anidride carbonica CO2 è anch’essa apolare a causa della sua simmetria. Una condizione necessaria affinché una radiazione infrarossa possa originare una transizione vibrazionale consiste nel verificarsi di un cambiamento del
Glossario221
dipolo elettrico molecolare a seguito del cambiamento di posizione degli atomi. Quindi le molecole omoatomiche (come N2.o O2) non sono attive all’infrarosso, mentre molecole apolari quali CO2 possono entrare in risonanza con la radiazione solamente grazie alle vibrazioni asimmetriche che producono un dipolo istantaneo. Nel caso di molecole allo stato gassoso, in cui c’è libera rotazione, il tipico spettro IR ingloba anche i contributi delle transizioni rotazionali e diviene uno spettro vibro-rotazionale più complesso ma anche più ricco di informazioni. Clausius-Clapeyron (equazione di)
In forma differenziale prende il nome di equazione di Clapeyron e mette in relazione la pressione di vapore saturo (tensione di vapore) in equilibrio con il liquido in funzione della temperatura: dP/dT = L/(T·ΔV) P è la pressione, L il calore latente di evaporazione (o sublimazione se il passaggio è solido → vapore), T la temperatura assoluta (kelvin) e ΔV la variazione (molare) di volume al passaggio liquido (o solido) → vapore. Occorre tener presente che L varia a sua volta con la temperatura e si annulla alla temperatura critica. Questo fatto spiega l’utilizzo di svariate leggi empiriche derivate da questa. In particolare se immaginiamo “L” costante con la temperatura, e inoltre ipotizziamo che il vapore segue l’equazione di stato dei gas ideali (PV = nRT) si può integrare facilmente la equazione di cui sopra ottenendo: P(vap) = c·exp[ -L/(RT)] dove R è la costante universale dei gas e c una costante che deriva dall’integrazione e che è caratteristica per ogni liquido.
222
Glossario
Energie molecolari ed emissione IR
Nei grafici riportati si confrontano due distribuzioni, una quantistica (Planck, in rosso) e una classica (Maxwell-Boltzmann, in verde). La necessità di questo confronto nasce dall’esigenza di poter prevedere se una certa molecola possiede sufficiente energia cinetica perché possa emettere un quanto di radiazione (corrispondente alle sue frequenze caratteristiche) e allo stesso modo se può emettere una volta eccitata lo stesso quanto IR. Per poter avere la stessa scala sulle ascisse (lunghezza d’onda in μ) si è espressa la distribuzione di Planck non in funzione della frequenza ma appunto di λ (λ=c/f, dove c=velocità della luce ed f = frequenza in Hertz) e per la distribuzione di MB si è trasformata l’energia cinetica (E) in frequenza in base alla relazione E = h·f, dove f è la costante di Planck e f la frequenza in Hertz. Come si nota nei 4 casi esaminati (CO2 a -50°C, H2O a -50°C, CO2 a 15°C, H2O a 15°C, figure 1-4) la probabilità di emissione è molto bassa per la distribuzione MB quindi sia ai confini della troposfera (-50°C) sia sulla superficie terrestre (15°C) è praticamente impossibile che vi siano molecole con energie cinetiche talmente alte da poter spontaneamente emettere radiazione IR per diseccitazione. Se una molecola invece viene eccitata da un quanto di radiazione IR (invece che per effetto della sua energia cinetica) la possibilità di emissione è abbastanza consistente (distribuzione di Planck) Con la stessa scala di λ sono riportati in blu gli assorbimenti IR sia dell’acqua che dell’anidride carbonica, in modo che il lettore possa confrontali con le due curve di distribuzione. Kelvin (grado)
Unità di misura della temperatura assoluta. Simbolo K. Lo zero di questa scala corrisponde a -273,15 gradi centigradi. Usata in Termodinamica, è stata scelta in modo tale da non aver temperature
Glossario223
Distribuzioni energetiche di Maxwell-Boltzmann e di Planck confrontate con l’assorbimento della molecola di CO2. La scala sulle ascisse è la lunghezza d’onda della radiazione elettromagnetica, che può essere trasformata in energie con l’equazione E = h·f (h=costante di Planck, f = frequenza in Hertz). La temperature è 223 K (-50°C) e corrisponde alla media dell’alta troposfera (10 km).
Figura 1.
Figura 2. Distribuzioni energetiche di Maxwell-Boltzmann e di Planck confrontate con l’assorbimento della molecola di H2O a 223K.
224
Glossario
Distribuzioni energetiche di Maxwell-Boltzmann e di Planck confrontate con l’assorbimento della molecola di CO2 a 288K (15°C). Essa corrisponde alla media della bassa troposfera.
Figura 3.
Distribuzioni energetiche di Maxwell-Boltzmann e di Planck confrontate con l’assorbimento della molecola di H2O a 288K.
Figura 4.
Glossario225
negative. Non sono fisicamente possibili temperature inferiori a questo valore. La temperatura media terrestre di 15°C corrisponde a 288 K, arrotondando i decimali. Per passare da kelvin a gradi centigradi occorre sottrarre -273,15. Lambert-Beer (legge di)
Questa legge mette in relazione l’attenuazione della intensità di un fascio luminoso con la distanza percorsa da questo, attraverso un materiale omogeneo con proprietà conosciute (cammino ottico). Viene spesso applicata in spettrofotometria per misurare la concentrazione di una sostanza colorata in un mezzo trasparente alla radiazione stessa. Si possono usare radiazioni policromatiche nei comuni colorimetri o monocromatiche (spettrofotometri). Quando un fascio di luce (monocromatica) di intensità I0 attraversa uno strato di spessore “dist” di un mezzo, una parte di esso viene assorbita dal mezzo stesso e una parte ne viene trasmessa con intensità residua Ir. Il rapporto tra le intensità della luce trasmessa e incidente sul mezzo attraversato è espresso dalla seguente relazione: Ir/I0 = exp[-k(λ)·dist] dove k(λ) è il coefficiente di attenuazione o di assorbimento, che è una costante tipica del mezzo attraversato e dipende dalla lunghezza d’onda λ. Il rapporto Ir/I0 viene anche detto trasmittanza. Un giorno, prima ancora di decidere di scrivere queste pagine, Francesco mi raccontò che, mentre frequentava il 4° anno del perito chimico presso l’Istituto Casale di Torino, il professor Panetti, noto docente del Politecnico di Torino e figlio d’arte (a suo padre, prof. M. Panetti, Senatore della Repubblica Italiana, è dedicata la galleria del Vento, presso il Politecnico di Torino), tenne una memorabile (per lui…) lezione e presentò un esperimento basato proprio sulla
226
Glossario
legge di Lambert e Beer. Questo esperimento riguardava l’assorbimento di una precisa radiazione monocromatica IR da parte della CO2 contenuta nell’aria anidra immessa in un tubo di quarzo. Maxwell (distribuzione di)
Le molecole di un gas si trovano in una situazione di movimento continuo e caotico (il termine “gas” deriva etimologicamente da “caos”). Ciascuna di esse, fissato un certo istante, possiede una certa velocità e quindi una certa energia cinetica (Ec = ½ m·v2). A causa dei numerosissimi urti tra le molecole di un gas (anche 1010 urti al secondo per molecola a temperatura e pressione ambiente) si ha un continuo trasferimento di energia cinetica tra una molecola e un’altra, quindi le energie cinetiche delle molecole sono diverse e continuamente variabili nel tempo. J.C. Maxwell calcolò la distribuzione statistica delle energie cinetiche fra le molecole di un gas ideale a temperatura e pressione costante. La curva risultante ha la forma di una gaussiana asimmetrica e la sua equazione ci fornisce la probabilità che una molecola abbia energia cinetica E (o che è lo stesso la frazione di molecole sul totale, con energia cinetica E) in funzione della stessa energia cinetica E. Prob(E) = 2/·[1/(kT)]3/2·exp[-E/(kT)]· Dove k è la costante di Boltzmann, T è la temperatura assoluta in K, E è l’energia cinetica misurata nel sistema S.I. Da notare che non compare qui la massa molare del gas, quindi questa formulazione è valida per qualunque gas (in condizioni ideali) Il valore più probabile dell’energia cinetica corrisponde al massimo della funzione e si ha per E = k·T/2 Di conseguenza la funzione si appiattisce e si sposta a destra all’aumentare della temperatura. In figura 5 la distribuzione delle velocità per l’azoto a 500°C. La zona scura indica le molecole con energia superiore a una certa soglia.
Glossario227
Figura 5. Distribuzione delle velocità molecolari secondo la statistica di Maxwell-Boltzmann.
Oscillazione ciclica
Un’ oscillazione ciclica di natura armonica può essere descritta da una funzione sinusoidale: y(t) = A·sin(ωt) = A·sin(2πf t) dove ω è il periodo, f la frequenza e A l’ampiezza dell’ oscillazione. Planck (legge di)
Si è visto come la trasmissione radiante di energia sia importante nei diagrammi a blocchi. Iniziamo a descrivere la legge che si occupa di quantizzare in fisica questa emissione radiante, cioè l’energia trasferita da un corpo a un altro, o da un corpo verso lo spazio, sotto forma di radiazione elettromagnetica. Max Planck (1858–1947) fu indubbiamente uno dei più geniali scienziati del nostro tempo. Tra i suoi meriti l’aver scoperto la quantizzazione dell’energia (egli stesso riferì che ne ebbe l’intuizione il giorno di Natale del 1900). Mediante questo concetto, svariati fenomeni fisici ebbero finalmente una spiegazione razionale.
228
Glossario
Uno di questi è l’emissione radiante (quindi per mezzo di onde elettromagnetiche di differenti lunghezze d’onda) di un oggetto fisico noto come “corpo nero”. Questo è un oggetto ideale, dotato di massa, in grado di assorbire tutta la radiazione elettromagnetica incidente senza rifletterla. Assorbendo tutta questa radiazione incidente (attivando oscillazioni, vibrazioni di cariche elettriche al suo interno, questo per adesso non ci interessa), per la conservazione dell’energia (il corpo nero è all’equilibrio termico, cioè non cambia la sua temperatura) esso deve riemettere tutta l’energia assorbita. Ovviamente trattasi di una idealizzazione, in natura non esistono tali corpi. In figura 6 è rappresentato il dispositivo sperimentale ideato da Max Planck. Il corpo nero si trova a una certa temperatura T e irradia verso uno specchio sferico completamente riflettente a tutte le frequenze, in cui il corpo nero è contenuto. Non vi sono assorbimenti di radiazione in quanto il tutto è sotto alto vuoto. All’equilibrio termodinamico la radiazione emessa/assorbita avrà una distribuzione caratteristica, nota come spettro di radiazione, appunto secondo la legge di Planck. Vi sono due espressioni apparentemente diverse dell’equazione di Planck, una in funzione della frequenza
Figura 6. Schema del trasferimento energetico del corpo nero di Planck.
Glossario229
e un’altra della lunghezza d’onda. Per ora useremo la prima cioè B(f,T), raffigurata anche come grafico in figura 7, per una temperatura di 300 K (ovvero 27°C). Si nota subito che l’emissività ha un massimo intorno a 16 µm quindi nel lontano infrarosso (cioè con lunghezza d’onda lambda >4 µm) Di questa curva è utilissimo sia trovare il massimo in funzione della temperatura (punto in cui si annulla la derivata prima) ma anche integrarla su tutte le frequenze, in modo da avere la potenza totale emessa dal corpo nero per unità di superficie (1 m2 nel sistema S.I.). Proxy
Evento o misura che è indirettamente correlata a un altro parametro fisico. Particolarmente utilizzato per risalire alla temperatura
Figura 7. Distribuzione energetica di Planck. f è la frequenza in hertz, h la costante di Planck, T la temperatura assoluta, k la costante di Boltzmann e c la velocità della luce. Tutte le quantità sono espresse nel sistema S.I.
230
Glossario
delle ere passate, attraverso misure (ad es. rapporti isotopici) eseguite oggi su reperti formatisi nello stesso periodo e nella stessa località di cui si desidera il valore della temperatura. Reazioni radicaliche
La maggior parte, le più importanti, e anche le più bizzarre (viste da un chimico) reazioni che avvengono nell’atmosfera sono di tipo radicalico. Un radicale può essere immaginato come una molecole con un legame chimico spezzato e quindi con un elettrone libero/spaiato, trattasi di quello originariamente messo in comune per la formazione del legame, residente in un orbitale, molto reattivo e pronto a legarsi di nuovo. Anche gli atomi con un elettrone spaiato possono esser considerati dei radicali, per esempio l’atomo di idrogeno, H, e l’atomo di ossigeno, O, infatti questi atomi sono particolarmente reattivi e si legano rapidamente fra loro generando rispettivamente una molecola di idrogeno H2 e una di ossigeno O2. A spezzare il legame chimico con annessa generazione di due radicali liberi ci pensa l’alta energia associata alle radiazioni elettromagnetiche ultraviolette presenti nella stratosfera e anche nella troposfera (reazioni fotochimiche). Uno dei più importanti radicali liberi, a causa della sua reattività, è *OH ( l’asterisco rappresenta l’elettrone spaiato) presente con una concentrazione di circa 1012 m-3. Esso reagisce con CO formando CO2, con NO2 per formare HNO3, con H2S originando SO2, con SO2 ossidandolo ad H2SO4. Inoltre *OH è in grado di rimuovere molte sostanze inquinanti, funzionando come un detergente dell’atmosfera. Schwarzschild (equazione di)
Karl Schwarzschild (1873-1916), nei pochi anni della sua breve vita (morì a 42 anni in seguito a una malattia autoimmune contratta
Glossario231
sul fronte russo nella 1° guerra mondiale), fu un brillante fisico teorico. Si occupò principalmente di teoria della relatività. Quando A. Einstein pubblicò nel 1915 il set di equazioni alla base della teoria della relatività generale, K.S. ne fornì per primo dopo pochi mesi la soluzione esatta in termini di calcolo tensoriale. In climatologia è celebre la sua equazione che è alla base del trasferimento radiante nelle atmosfere dei pianeti. Interessa nel sistema solare i pianeti con atmosfera, cioè la Terra, Venere, Marte e Titano (una luna di Saturno) e al di fuori del sistema solare gli esopianeti che vengono via via oggi scoperti. Non usarle nelle simulazioni, a distanza di più di un secolo, sarebbe come partecipare a una gara di ciclismo senza la bicicletta. Di solito viene presentata nei vari testi in forma differenziale (e quindi anche noi faremo lo stesso) ma occorre dire che nei modelli di simulazione deve essere integrata numericamente attraverso i vari strati dell’atmosfera e per l’intero intervallo di λ in esame. dI(λ) = n·σ(λ)·B(λ)·ds – n·σ(λ)·I(λ)·ds La variazione differenziale di intensità (dI) di un raggio di radiazione (UV, VIS, IR etc.) durante il suo percorso in un mezzo opaco (non perfettamente trasparente a essa) è dato da due termini: il primo, con segno positivo, descrive un’emissione secondo B(λ), cioè la funzione emissiva del corpo nero, in base alla legge di Planck, per quella lunghezza d’onda e temperatura mentre il secondo, con il segno negativo, descrive un assorbimento di radiazione secondo l’equazione classica di Lamber-Beer. σ(λ) è la cosiddetta sezione di assorbimento, anch’essa dipendente da λ. Al termine intensità è opportuno aggiungere l’aggettivo “spettrale”, nel senso che le variazioni differenziali nell’equazione dipendono dalla lunghezza d’onda. In altri termini le molecole sono interessate ai fenomeni di assorbimento/emissione solo a determinate lunghezze d’onda, che corrispondono (come energia del quanto di radiazione) a transizioni energetiche della molecola. Questa formula si applica quando viene raggiunto l’equilibrio
232
Glossario
termodinamico locale (LTE), applicata ai modelli climatologici (es. modello a strati), che sono essenzialmente dinamici, rappresenta quindi solo un’approssimazione. In esperimenti con un tubo di vetro/quarzo di qualche metro, la lunghezza è troppo breve perché si possa misurare l’effetto del primo termine e quindi prevale il termine di assorbimento di Lambert-Beer. Nei modelli climatologici o meteorologici vengono usate versioni dell’equazione di K.S. in modo da minimizzare il tempo di calcolo. Infatti ricordiamo che l’equazione va integrata numericamente per i vari strati orizzontali con cui abbiamo diviso l’atmosfera. Esistono anche siti web che permettono di eseguire i calcoli on-line. Ovviamente la equazione non considera gli effetti dei moti convettivi e considera solo un’atmosfera statica. Inoltre il mezzo che attraversa la radiazione non deve disperdere per effetto ad esempio di aerosol (goccioline d’acqua) Egualmente non viene considerata la dispersione intrinseca elettronica delle molecole (effetto Raylight) Stefan-Boltzmann (legge di)
Altrettanto utile è l’integrazione della legge di Planck, eseguita sulle differenti lunghezze d’onda, che costituisce la legge di Stefan-Boltzmann, già ricavata empiricamente prima delle considerazioni quantistiche di Planck. Essa permette di calcolare l’emissività di una superficie (in Watt/m2) posta a una certa temperatura T: I = σ·T4 dove σ vale 5,67·10-8 W m-2 K-4 di nuovo raggruppando le varie costanti (sistema SI). Anche qui un esempio: la temperatura della fotosfera solare
Glossario233
(la superficie emissiva del Sole) risulta dall’esempio precedente di 6000 K, quella media della Terra di circa 293 K (20°C). La fotosfera emette quindi per unità di superficie un’energia 60004/2934 = 175.847 volte superiore a quella emessa nell’infrarosso dalla Terra! La distanza tra i due picchi è dovuta quindi alla diversa temperatura della fotosfera e della superficie terrestre. La temperatura (teorica) della Terra può essere perciò ricavata bilanciando i due flussi radianti ma introducendo un parametro, l’albedo (dal latino “biancore”). Esso è un numero puro, senza particolari unità di misura, che indica la frazione della luce incidente su un pianeta che viene riflessa nello spazio. Trasferimento termico
Il calore si trasferisce da un corpo a un altro secondo 3 meccanismi 1. Conduzione. Tipicamente avviene nei solidi, dove una zona a temperatura maggiore trasferisce calore a una zona a temperatura minore. L’agitazione termica si trasmette alle molecole o agli atomi vicini finché attraversa un volume del solido. Anche il trasferimento di energia attraverso i moti elettronici contribuisce in notevole misura, e questo spiega perché i metalli sono buoni conduttori termici. 2. Convezione. Tipicamente avviene nei liquidi o nei gas, dove masse intere di sostanza si spostano da zone calde a zone più fredde dello stesso contenitore. Il motivo risiede nella minore densità di un liquido o di un gas qualora venga riscaldato, a pressione costante. Si generano veri e propri cicli di risalita e discesa di masse fluide che assorbono calore da un corpo caldo e risalgono trasferendolo a quello freddo. Nei modelli di circolazione per convezione atmosferica si hanno le celle di Hadley tra le zone calde tropicali e quelle temperate alle medie latitudini.
234
Glossario
3. Irraggiamento. Avviene per emissione di onde elettromagnetiche dalla superficie di un corpo solido o liquido e per determinate lunghezze d’onda specifiche anche da un gas. La lunghezza d’onda della radiazione elettromagnetica è legata alla legge di Planck. Mediante questo meccanismo si può avere dispersione nello spazio infinito della radiazione, senza che riscaldi necessariamente un secondo corpo. Vibrazioni molecolari
Considerando una molecola lineare formata da N atomi, in base all’orientamento lungo i tre assi cartesiani (x, y, z) sono possibili 3N-5 diversi modi vibrazionali; per una molecola non lineare tali modi sono 3N-6. Questo perché una molecola composta da N atomi possiede 3N gradi di libertà, a cui vanno sottratti 3 di traslazione e 3 di rotazione (quindi 3N-6) per le molecole non lineari, mentre per le molecole lineari vanno sottratti 3 di traslazione e 2 di rotazione (quindi 3N-5). Si definisce “modo normale di vibrazione” di un sistema quei particolari modi di oscillazione che ogni sistema vibrante, sia esso meccanico, elettrico, acustico, possiede secondo i quali tutte le parti che lo compongono vibrano di moto armonico, e con la stessa frequenza. Una molla per definizione obbedisce alla legge di Hooke e quindi, se sollecitata, la sua vibrazione viene definita armonica e le masse vincolate alla molla si muovono di moto armonico Le vibrazioni possono essere di due tipi: stiramento del legame chimico (stretching) e deformazione dell’angolo di legame (bending). Lo stiramento consiste in una variazione periodica della distanza interatomica e può essere simmetrico se i due atomi si avvicinano o allontanano contemporaneamente (indicato con νs) o asimmetrico nel caso contrario (indicato con νa). La deformazione può pure essere simmetrica o asimmetrica e può avvenire lungo il piano su cui giace l’angolo di legame o fuori da tale piano. La deformazione simmetrica nel piano è detta scissoring (apertura e chiusura di una
Glossario235
forbice, indicata con δ), mentre quella asimmetrica è chiamata rocking (oscillazione, indicata con ρ); la deformazione asimmetrica fuori dal piano è detta twisting (torsione, indicata con τ) mentre quella simmetrica fuori dal piano è chiamata wagging (agitamento, indicata con la lettera w). Wien (legge di)
Derivando la legge di Plank in funzione di λ si ottiene la λ con il massimo di intensità emissiva. Queste viene detta legge di Wien o dello spostamento, che si può scrivere riunendo tutte le costanti come: λ(max) = 2897/T lambda è espressa in µm. Per esempio si può valutare la temperatura della superficie emissiva del Sole. Il massimo spettrale è compreso nel visibile (da 0,4 a 0,7 µm) posizionato a circa 0,48 µm da cui si deduce T ~ 6000K.
per l’autore: è corretta questa formattazione?
Bibliografia
Il numero di pubblicazioni scientifiche sul clima è salito in maniera esponenziale in questi ultimi anni, a partire dal 2000 (oggi ha raggiunto la cifra record annuale di circa 30.000 tra pubblicazioni, libri e articoli scientifici). Anche solo tentare di citarli tutti sarebbe causa di grande confusione, per cui riportiamo al termine di ogni capitolo soltanto quelli che riteniamo più significativi. I riferimenti sono tutti a: 1. report di studiosi di chiara fama che hanno ritenuto di riassumere in una monografia breve le loro risultanze scientifiche recenti, con opera di sintesi. Essi sono elencati al termine del libro e non di ogni capitolo e contengono a loro volta ampia bibliografia internazionale; 2. articoli su riviste di elevato rilievo internazionale, con referee; 3. libri di testo rilevanti o monografie, citate omettendo, per brevità, le centinaia di riferimenti entro contenuti. Internet è oggi uno strumento di indagine scientifica potentissimo e alla portata di chiunque, per cui tra i riferimenti abbiamo posto in enfasi quelli disponibili on-line allegando a ognuno un indirizzo web verificato dagli autori come genuino e corretto (al momento della stampa del libro). In questo modo ogni lettore curioso avrà la possibilità di approfondire uno specifico aspetto visitando il sito web indicato.
238
Bibliografia
Report
Goclany Indur M., Carbon dioxide; The good news, The Global Warming Policy Foundation, Report 18/2016, https://www.thegwpf.org/content/uploads/2016/10/benefits.pdf. Humlum Ole, State of the Climate 2018, The Global Warming Policy Foundation, Report 34/2019, https://www.thegwpf.org/content/uploads/2019/04/StateofClimate2018.pdf. ICPP (International Panel on Climate Change), AR4 Cambridge University Press. McKitrick Ross, What is wrong with the IPCC?: Proposals for a Radical Reform, The Global Warming Policy Foundation, Report 4/2011, https://www. thegwpf.org/images/stories/gwpf-reports/mckitrick-ipcc_reforms.pdf. Nicol John, Climate Change, A Foundamental Analysis of the Greenhouse Effect, 2018, https://courses.seas.harvard.edu/climate/eli/Courses/global-change-debates/Sources/CO2-saturation/more/nicol-08.pdf. Svensmark Henrik, Force Majeure, The Sun’s Role in Climate Change, The Global Warming Policy Foundation, Report 33/2019, https://www.thegwpf. org/content/uploads/2019/03/SvensmarkSolar2019-1.pdf. Tsonis Anastasios, The Little Boy: El Nino and natural climate change, The Global Warming Policy Foundation, Report 26/2017, https://www. thegwpf.org/content/uploads/2017/09/Tsonis-17.pdf. Articoli e libri
Bacastow R.B., Keeling C.D., Whorf T.P., Seasonal amplitude increase in atmospheric carbon dioxide concentration at Mauna Loa, Hawaii, 1959-1982, «Journal of Geophysical Research» 90, 1985, 529-10, 540. Beer J., Baumgartner S.T., Dittrich-Hannen B. et al., Solar variability traced by cosmogenic isotopes, «International Astronomical Union Colloquium», 1994, vol. 143, pp. 291-300. Denman et al. Climate Change 2007, The Physical Science Basis e anche IPCC AR4 Cambridge University press 2007 e anche climate.be/textbook/chapter2_node11.xml Dickson A.G. and Goyet C. Handbook of methods for the analysis of the various parameters of the carbon dioxide system in sea water. 1997. Fagan B.M., The Little Ice Age: How Climate Made History, 1300-1850, Basic
Bibliografia239
Books, 2000. Feulner G., S Rahmstorf, On the effect of a new grand minimum of solar activity on the future climate on Earth, «Geophysical Research Letters», 2010, vol. 37. URL: https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/2010GL042710. Frederikse T., Delft University of technology, A Consistent Sea-Level Reconstruction and Its Budget on Basin and Global Scales over 1958-2014, «Journal of Climate», https://doi.org/10.1175/JCLI-D-17-0502.1. Freeman W.H. and Co., 2001; Mark Pagani et al., “Marked Decline in Atmospheric Carbon Dioxide Concentrations during the Paleocene.” «Science» 309, n. 5734, 2005, pp. 600-603. Gill A., Atmosphere-ocean dynamics, «International Geophysics Series» vol. 30. Gray L.J., Beer J., Geller M. et al., Solar influences on climate, «Reviews of Geophysics», 2010, vol. 48. Hendriks I.E., Duarte C.M., Alvarez M., Vulnerability of marine biodiversity to ocean acidification: a meta-analysis, Estuarine, CoastalandShelfSciences 86, 2010, pp. 157-164. Humlum O., KjellStordahl, Solheim J.-E., The phase relation between atmospheric carbon dioxide and global temperature, «Global and Planetary Change», vol. 100 51-69, https://www.sciencedirect.com/science/article/pii/S0921818112001658?via%3Dihub. Idso C.D., Carter R.M., Singer S.F., NIPCC, Nongovernative International Panel on Climate Control and Heartland Institute, in Climate Change Reconsidered II, Physical Impacts, https://www.heartland.org/_template-assets/ documents/CCR/CCR-II/CCR-II-Full.pdf and also Climate Change Reconsidered II, Biological Impacts http://climatechangereconsidered.org/ wp-content/uploads/2019/01/CCR-II-Biological-Impacts-full-report. pdf. Idso C.D., CO2 Science, Center for the Study of Carbon Dioxide and Global Change, Tempe, Arizona. www.co2science.org/. Iglesias-Rodriguez M.D. et al., Phytoplankton calcification in a high-carbon dioxide world, «Science» 320(5874), 2008, pp. 336-340. Kauppinen J., Malmi P., No experimental evidence for the significant anthropogenic climate change, arXiv:1907.00165v1, 29 Jun 2919 and reference therein. Kirkby J., Curtius J., Almeida J. et al., Role of sulphuric acid, ammonia and galactic cosmic rays in atmospheric aerosol nucleation, «Nature», 2011, vol.
240
Bibliografia
476, pp. 429-433. Lamb H.H., The early medieval warm epoch and its sequel, «Palaegeography, Palaeoclimatology, Palaeecology», 1965, vol. 1, pp. 13-37. Lean J.L., Rind D.H., How will Earth’s surface temperature change in future decades?, «Geophysical Research Letters», 2009, vol. 36. https://agupubs. onlinelibrary.wiley.com/doi/abs/10.1029/2009GL038932. Lean J.L., DeLand M.T., How does the sun’s spectrum vary?, «Journal of Climate», 2012, vol. 25, pp. 2555-2560, https://doi.org/10.1175/JCLI-D-11-00571.1. Lüning S., Gałka M., Vahrenholt F., Warming and cooling: The Medieval Climate Anomaly in Africa and Arabia, «Paleoceanography», 2017, vol. 32, pp. 1219-1235, https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1002/ 2017PA003237. Mann M.E., Jones P.D., Global surface temperatures over the past two millennia, «Geophysical Research Letters», 2003, vol. 30, https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/2003GL017814. Marshall J., Alan R., Plumb Atmosphere, ocean and climate dynamics: An introductory text, Massachussets Institut of Technology, Elsevier, 2007. McCartney E.J., Absorption and emission by atmospheric gases, John Wiley&Sons, 1983. Millero F., Chemical Oceanography, 4th edition 2013. Moore P., June 2016, The Positive Impact of Human CO2 Emissions on the Survival of Life on Earth, www.fcpp.org. Nasif Nahle, Cycles of Global Climate Change, «Biology Cabinet Journal Online», July 2009, http://www.biocab.org/Climate_Geologic_Timescale. html. Referencing C.R. Scotese, Analysis of the Temperature Oscillations in Geological Eras, 2002; W.F. Ruddiman, Earth’s Climate: Past and Future, New York, NY. Palacios S.L., Zimmerman R.C., Response of eelgrass Zostera marina to carbon dioxide enrichment: possible impacts of climate change and potential for remediation of coastal habitats, MarineEcologyProgressSeries 344, 2007, pp. 1-13. Pretzsch H., Biber P., Schutze G. et al., Forest stand growth dynamics in Central Europe have accelerated since 1870, «Nature Communications» 5, 2014, 10.1038/ncomms5967. Reyes-Fox M., Steltzer H., Trlica M.J. et al., Elevated carbon dioxide further lengthens growing season under warming conditions, «Nature» 510, 2014, pp.
Bibliografia
241
259-262, doi:10.1038/nature13207. Riebeek H., The Carbon Cycle, NASA earth Observatory, June 2011, earthobservatory.nasa.gov/features/CarbonCycle. Rind D., Lean J., Lerner J. et al., Exploring the stratospheric/tropospheric response to solar forcing, «Journal of Geophysical Research: Atmospheres», 2008, vol. 113. Scafetta N., Willson R.C., ACRIM-gap and TSI trend issue resolved using a surface magnetic flux TSI proxy model, «Geophysical Research Letters», 2008, vol. 36, https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/2008GL036307. Shapiro A., Schmutz W., Rozanov E. et al., A new approach to the long-term reconstruction of the solar irradiance leads to large historical solar forcing, «Astronomy & Astrophysics», 2011, vol. 529, p. A67, https://doi. org/10.1051/0004-6361/201016173. Spencer R.W., Braswell W.D., Potential Biases in Cloud Feedback Diagnosis: A Simple Model Demonstration, «Journal of Climate» 21, 2008, pp. 56245628. Spencer R.W., Braswell W.D., Christy J.R., Hnilo J., Cloud and Radiation Budget Changes Associated with Tropical Intraseasonal Oscillations, «Geophysical Research Letters» 34, 2007. Svensmark H., Enghoff M.B., Pedersen J.O.P., Response of cloud condensation nuclei to changes in ion-nucleation, «Physics Letters A», 2013, vol. 377, pp. 2343-2347, http://www.sciencedirect.com/science/article/pii/ S0375960113006294. Svensmark H., Enghoff M.B., Shaviv N.J. et al., Increased ionization supports growth of aerosols into cloud condensation nuclei, «Nature Communications», 2017, vol. 8, p. 2199, https://doi.org/10.1038/s41467-017-02082-2. Svensmark H., Bondo T., Svensmark J., Cosmic ray decreases affect atmospheric aerosols and clouds, «Geophysical Research Letters», 2009, vol. 36, p. 15101. Takahashi T., Sutherland S.C., Sweeney, et al., Global sea-air CO 2 flux based on climatological surface ocean pCO 2, and seasonal biological and temperature effects, Deep-Sea Res. II, 49, 2002, 1601-1622. Anche wiki libera https:// serc.carleton.edu/download/images/45031/ocean_co2_flux_credit_1400184673.jpg. White B., Lean J., Cayan D.R. et al., Response of global upper ocean temperature to changing solar irradiance, «Journal of Geophysical Research: Oceans», 1997, vol. 102, pp. 3255-3266, https://agupubs.onlinelibrary.wiley.com/
242
Bibliografia
doi/abs/10.1029/96JC03549. White, Lean J., Cayan D.R. et al., Response of global upper ocean temperature to changing solar irradiance, «Journal of Geophysical Research: Oceans», 1997, vol. 102, pp. 3255-3266, https://agupubs.onlinelibrary.wiley.com/ doi/abs/10.1029/96JC03549. Williams R.G., Followes M.J., Ocean Dynamics and the Carbon Cycle: Principles and Mechanisms, Cambridge University press. Zharkova V.V., Shepherd S.J., Zharkov I., Popova E., Oscillation of the baseline of solar magnetic field and solar irradiance on a millenial timescale, «Nature Scientific Reports» 9, 9197, 2019, nature.com/articles/s41598-01945584-3. Zeebe R., Dieter W.-G., CO2 in seawater:equilibrium, kinetics, isotopes, 2001.
La strega perfetta di Daniele Mazza e Francesco Marino direttore editoriale: Mario Scagnetti editor: Marcella Manelfi progetto grafico e redazione: Giuliano Ferrara