Tagarchief: Zeke Hausfather

Een nieuwe analyse van de warmte-opname door de oceanen

Warmte-opname in de verschillende componenten van het klimaatsysteem sinds 1958. Bron: Cheng et al.

Journal of Climate publiceerde vorige maand een nieuwe analyse van de hoeveelheid warmte die de oceanen hebben opgenomen in de afgelopen periode van ruim zestig jaar. In het verleden werd wel eens gezegd dat zo’n onderzoek over de warmte-inhoud van de oceaan ging, maar eigenlijk is dat niet zo handig. Het gaat over de verandering van de warmte-inhoud, en dat is hetzelfde als de warmte-opname. Het artikel draait vooral om een verbeterde statistische analyse van de beschikbare informatie. Aan een beschrijving daarvan waag ik me niet. Ik houd het bij enkele opmerkelijke punten.

Oceanograaf en klimaatwetenschapper Lijing Cheng van de Chinese Academie van Wetenschappen is eerste auteur van het nieuwe artikel. Hij is een van de specialisten op dit onderwerp in de wereld. Zijn instituut onderhoudt een webpagina met de actuele gegevens over warmte-opname door de oceanen. De overige vier auteurs zijn Amerikanen en eveneens bekende namen in de klimaatwetenschap. Ze zijn allemaal al wel eens in de een of andere hoedanigheid voorbijgekomen op dit blog, vanwege hun bijdrage aan interessant onderzoek: Grant Foster (ook bekend als blogger Tamino), Zeke Hausfather, Kevin Trenberth en John Abraham.

In zekere zin is de warmte-opname door de oceanen veruit het grootste gevolg van de toename van de hoeveelheid broeikasgassen. Simpelweg omdat het water in de oceanen veel meer warmte op kan nemen dan het land of de atmosfeer. Zoals bekend zorgt het versterkte broeikaseffect ervoor dat de aarde minder warmte uitstraalt dan er aan zonlicht binnenkomt. Omdat de energiebalans niet in evenwicht is, vindt er een accumulatie van energie plaats in het klimaatsysteem. Van die extra warmte belandt zo’n 90% in de oceanen. Dat wij klimaatverandering niet zozeer als accumulatie van energie zien, maar als opwarming van het aardoppervlak en de atmosfeer, komt omdat dat de veranderingen zijn die wij direct ervaren en die we relatief eenvoudig kunnen meten. Overigens stijgt de temperatuur van het landoppervlak wel sneller dan die van de oceanen, ook al nemen die het overgrote deel van de warmte op. Dat komt doordat de warmte veel dieper doordringt in water dan in land.

Lees verder

RCP8.5: worst case, business as usual of foute voorspelling?

Er woedt al een tijd een pittige discussie onder energie- en klimaatdeskundigen en hun volgers over de RCP-emissiescenario’s, die onder meer zijn gebruikt in het vijfde Assessment Report van het IPCC. Het gaat dan met name over het hoogste scenario, RCP8.5. Ik kan me niet aan de indruk onttrekken dat we hier te maken hebben met wat Stephan Lewandowsky ooit “seepage” noemde: een pseudosceptisch frame dat binnensijpelt in de wereld van de wetenschap. Dat pseudoscpetische frame komt er op neer dat RCP8.5 een foute voorspelling is. Dat is nonsens.

Scenario’s zijn geen voorspellingen. Er wordt juist met verschillende scenario’s gerekend omdat de menselijke keuzes grotendeels bepalend zullen zijn voor de toekomstige emissies en concentraties van broeikasgassen onvoorspelbaar zijn. Het simpele feit dat er uiteenlopende scenario’s zijn die onmogelijk allemaal uit kunnen komen zou voldoende moeten zijn om te beseffen dat ze niet bedoeld zijn als voorspelling. Maar toch blijft de suggestie van de foute voorspelling, van de overdreven pessimistische klimaatwetenschap, maar terugkomen. Het spiegelbeeld van die suggestie, dat klimaatwetenschappers veel te optimistisch zouden zijn omdat in onderzoeken ook vaak het laagste scenario RCP2.6 wordt meegenomen, zie je zelden of nooit. En dat terwijl de werkelijke emissies nog altijd een stuk dichter bij het hoogste dan bij het laagste scenario liggen, zeker als ook emissies van ontbossing worden meegenomen.

Het tekent de moeite die de maatschappij en de wetenschap blijken te hebben met het benoemen van risico’s. En de gevoeligheid die er nog steeds is voor het verwijt van bangmakerij. Het is natuurlijk ook een lastige kwestie, omdat mensen zo verschillend reageren op informatie over risico’s. De communicatie hierover blijft dan ook een mijnenveld, tussen wetenschappers onderling én tussen wetenschap en maatschappij. Lees verder

De meeste klimaatmodellen doen het prima!

Modelprojectie uit een rapport van Exxon uit 1982. Deze projectie is overigens niet meegenomen in het onderzoek van Hausfather et al. (Bron: InsideClimate News)

Wetenschappelijke modellen zijn geen glazen bollen. En wetenschappers geen helderzienden. Dat pretenderen ze ook niet te zijn. Alleen charlatans suggereren dat ze in de toekomst kunnen kijken. Wetenschappers kunnen op basis van hun vakkennis wel iets zeggen over oorzaak en gevolg. En daarmee kunnen ze voorwaardelijke voorspellingen doen: als dit, dan dat. Als ik het glas dat ik in mijn hand heb loslaat, zal het vallen. Niemand zal dat een onjuiste voorspelling noemen als het glas heelhuids de tafel haalt omdat ik het niet echt heb losgelaten. Ook klimaatwetenschappers doen alleen voorwaardelijke voorspellingen, op basis van hun vakkennis. Bij het interpreteren van klimaatprojecties en modelresultaten is het belangrijk om daar rekening mee te houden.

Klimaatmodellen simuleren de fysica van het klimaatsysteem. Dat begon in de tweede helft van de vorige eeuw met het doorrekenen van een relatief eenvoudige energiebalans. Het soort berekeningen dat Arrhenius eind 19e eeuw nog met de hand moest doen. Computers maakten het mogelijk om die berekeningen aanzienlijk te verfijnen. Al snel werden die berekeningen aangevuld met simulaties van atmosferische circulatie en van verdamping en condensatie van water. Met het groeien van de klimaatkennis en het toenemen van de rekenkracht van computers werden de modellen steeds uitgebreider en fijnmaziger. Lees verder

Is de opwarming van de aarde nog te beperken tot 1,5°C?

Reactie van de auteurs op de onjuiste berichtgeving in de media over hun artikel.

Er was de afgelopen week weer eens de nodige opschudding in de klimaatwereld. Aanleiding was een artikel van grotendeels Britse klimaatonderzoekers in Nature Geoscience. Of eigenlijk, zo vermoed ik tenminste, het bericht hierover van The Independent. Die krant heeft niet de gewoonte de menselijke invloed op het klimaat te ontkennen, maar had nu de subkop: “Previous climate models may have been ‘on the hot side’ ”. Het spreekt voor zich dat de welbekende desinformatiekanalen daar gretig bovenop doken en het nog eens stevig aandikten om aldus tot de conclusie te komen dat de Grote Ommekeer in de mainstream klimaatwetenschap nu werkelijk was begonnen. Onzin natuurlijk. De onderzoekers zagen zich, twee dagen nadat hun artikel in Nature Geoscience was verschenen, genoodzaakt dit duidelijk te maken in een bericht op de website van de universiteit van de hoofdauteur en wat uitgebreider in een ingezonden stuk in The Guardian.

Het artikel – “Emission budgets and pathways consistent with limiting warming to 1.5 °C” van Richard J. Millar et al. – behandelt bijzonder complexe materie. Toch zijn een paar oogopslagen op de resultaten voldoende om te zien dat van een Grote Ommekeer in de klimaatwetenschap geen sprake kan zijn. Die resultaten vallen namelijk keurig binnen de waarschijnlijkheidsintervallen zoals die steeds worden aangegeven door de wetenschap, onder meer in de rapportages van het VN klimaatpanel IPCC. Sterker nog, het draait hier om iets dat duidelijk door het IPCC is aangegeven in hun laatste rapport: het zwarte vlekje linksonder in onderstaande afbeelding (figuur 2.3 uit het AR5 Synthesis Report). Dat vlekje laat zien dat de temperatuur in het eerste decennium van deze eeuw iets onder het gemiddelde lag – maar wel ruim binnen de onzekerheidsmarges – van wat was berekend op basis van de geschatte cumulatieve CO2-emissies. Millar et al. hebben die afbeelding geactualiseerd tot 2015 en zien dan hetzelfde verschijnsel. Dat zou implicaties kunnen hebben voor het zogenaamde koolstofbudget: de totale hoeveelheid CO2 die we nog uit kunnen stoten om de opwarming beneden een bepaalde grens (meestal 1,5 of 2°C) te houden. Lees verder

Updates van mondiale temperatuurdatasets

Het verbranden van fossiele brandstoffen door de mens leidt tot een toename van de CO2-concentratie in de atmosfeer en basale natuurkunde vertelt ons dat dit leidt tot een toename van de temperatuur op aarde. Om inzicht te verkrijgen in deze temperatuurtoename moeten we de veranderingen in de gemiddelde temperatuur van de aarde kunnen vaststellen. Dat is geen gemakkelijke taak; immers de temperatuurmetingen worden schaarser naarmate we verder in het verleden teruggaan, niet van elk gebied op aarde zijn er meetdata (bijv. het Noordpoolgebied) en de metingen zijn vroeger niet gestandaardiseerd en opgezet met het oogmerk om er een aangesloten tijdreeks van te maken. Er zijn diverse onderzoeksgroepen in de wereld die deze uitdaging aangaan en op basis van alle beschikbare temperatuurgegevens een aaneengesloten tijdreeks genereren van de mondiaal gemiddelde oppervlaktetemperatuur. Enkele bekende groepen zijn: Met Office Hadley Centre, NASA GISS en NOAA – NCEI. De komst van de satellieten biedt een andere mogelijkheid tot het meten van de mondiale temperatuur, men kan die herleiden van straling afkomstig van zuurstofmoleculen. Onderzoeksgroepen die zich daar mee bezig houden zijn o.m. The University of Alabama in Huntsville (UAH) en Remote Sensing Systems (RSS). Bij satellieten betreft het echter niet de oppervlaktetemperatuur maar de temperatuur van kilometers dikke lagen van de atmosfeer, bijvoorbeeld het onderste gedeelte van de troposfeer (TLT). Een temperatuurreeks vaststellen met behulp van satellieten heeft zo zijn eigen bepaald niet geringe problemen, zoals rekening houden met de drift in de satellietbanen en het laten aansluiten van data afkomstig van de ene satelliet bij die van een andere satelliet.

Het zal niemand verbazen dat door de geschetste moeilijkheden de verschillende onderzoeksgroepen blijven zoeken naar mogelijkheden om de nauwkeurigheid van hun mondiale temperatuurdatasets te verbeteren en dus verschijnen er regelmatig updates. Updaten van datasets is gewoon een onderdeel dat hoort bij de wetenschappelijke vooruitgang. Men spreekt bij deze updates van versies net als bij software. Zo is de meest recente versie van de oppervlakte-temperatuurdataset van het Met Office Hadley Centre bekend onder de naam HadCRUT4.5.0.0 en UAH’s laatste versie van het onderste gedeelte van de troposfeer UAH TLT v6.0. Als onderzoeksgroepen in de klimaatwetenschap met analyses of updates van datasets komen, leidt dat wel eens tot hevige discussies in de social media en soms zelfs tot discussies in een nationaal parlement. Zo kwam het Amerikaanse NOAA twee jaar terug met een update van hun dataset en die gaf al snel de gebruikelijke beschuldigingen van manipulatie op blogs. De update leidde zelfs tot een dagvaarding van het Republikeinse congreslid Lamar Smith voor het verstrekken van alle data én interne communicatie door NOAA van het onderzoek voor hun update.
Lees verder