Categorie archief: Mondiale temperatuur

Jazeker hebben wij mensen voor opwarming gezorgd!

“It is extremely likely that human influence has been the dominant cause of the observed warming since the mid-20th century.”

Meestal gaan we op dit blog in veel stukken diep op de wetenschap in, wat voor nieuwkomers in het klimaatonderzoek lastig te volgen kan zijn. Dit keer probeer ik de basis te bespreken van de achtergrond van de bovenstaande zin. Het is een stuk tekst uit de samenvatting voor beleidsmakers van het IPCC AR5-rapport van 2013: de mens is de belangrijkste veroorzaker van de opwarming van de aarde sinds 1950. Niet iedereen gelooft deze uitspraak, maar de klimaatwetenschap is er toch erg zeker van.

De temperatuurverandering

Nadat Galileo, Fahrenheit en Celsius zich in het verre verleden met het meten van de temperatuur en de thermometer hadden bemoeid, hebben mensen ook de temperatuur van hun omgeving gemeten en vastgelegd. In Nederland startte dat bijvoorbeeld al aan het einde van de 17e eeuw. Naarmate de tijd vorderde, werden deze meetmethoden uiteraard steeds beter en werd er op steeds meer plaatsen in de wereld gemeten. Deze temperatuurmetingen vormen de basis van de bepaling van de mondiale temperatuurverandering van de afgelopen paar honderd jaar door een aantal onderzoeksgroepen. De bekendste groepen die zich daar mee bezighouden zijn NASA GISS en NOAA-NCDC uit de VS, het Engelse Met Office Hadley Centre/CRU of het Japan Meteorological Agency, je komt hun gegevens vaak tegen onder de namen GISTEMP, NCDC, HadCRUT en JMA. De Amerikaanse groepen rapporteren mondiale temperatuurdata die starten in 1880, de Japanse data starten in 1891 en de data van de Engelse groep starten zelfs in 1850.

De grafiek in onderstaande figuur komt uit het IPCC AR5-rapport en geeft de temperatuurontwikkeling op aarde weer vanaf 1850, gebruik makend van de resultaten van de drie hierboven genoemde onderzoeksgroepen. In de grafiek is de gemiddelde temperatuur op aarde over de periode 1961 – 1990 op 0 gesteld en dus geven alle lijnen in de grafiek de afwijking van de temperatuur weer t.o.v. die referentie periode (de temperatuur anomalie). Eén ding valt direct op als je naar de grafiek kijkt: het is warmer geworden op aarde sinds het einde van de 19e eeuw en dan vooral na 1970. Na 1970 is ook elk decennium warmer geweest dan het voorgaande. Volgens het IPCC is het op aarde sinds 1880 circa 0,85 °C warmer geworden en na 1950 circa 0,65 °C.

Figuur 1: De temperatuurverandering op aarde sinds 1850 waarbij drie temperatuurdatasets zijn gebruikt (HadCRUT – zwart, GISTEMP – blauw, NCDC – oranje). Gebaseerd op figuur SPM.1a uit het IPCC AR5 rapport 2013.

Lees verder

Zogenaamde ‘pauze’ opwarming aardoppervlak bedrieglijk

Vorige week stond er een interview met mij op Energiepodium over de ontwikkeling van de oppervlakte temperatuur en welke factoren daar een rol bij spelen. Het stuk is geschreven door Tseard Zoethout en is hieronder met toestemming overgenomen. Ik heb een aantal extra hyperlinks toegevoegd.

Sinds 1998 zijn temperaturen aan het oppervlak minder gestegen dan tussen 1970 en 1998. Volgens Bart Verheggen, Lector Aardwetenschappen aan het Amsterdam University College en een fervent blogger, is er echter geen trendbreuk en zal dit proces zich na verloop van tijd weer omkeren. Klimaatwetenschappelijk onderzoek richt zich op de rol van het arctisch gebied en de diepzee in het vinden van een verklaring.

“Wie de puzzelstukjes naast elkaar legt, ziet weinig tegenstelling tussen de laatste vijftien jaar en de kwart eeuw daarvoor: de opwarming van de aarde gaat gewoon door”, zegt Verheggen.

Lees verder

Lewis en Crok over klimaatgevoeligheid – meer gevoel voor p.r. dan voor wetenschap

Vandaag presenteren de Britse Global Warming Policy Foundation (GWPF, een “denktank” die al jaren actief is in de campagne tegen de klimaatwetenschap) en de Nederlandse Groene Rekenkamer in Nieuwspoort een rapport van Nic Lewis en Marcel Crok. Met dit rapport ontdoet Lewis zich overtuigend van de wetenschappelijke geloofwaardigheid die hij zo’n jaar geleden verkreeg.

Toen verscheen in Journal of Climate een artikel van zijn hand: “An Objective Bayesian Improved Approach for Applying Optimal Fingerprint Techniques to Estimate Climate Sensitivity.” Het werd met interesse en ook wel enige scepsis ontvangen in de wereld van de klimaatwetenschap. Scepsis, omdat een nieuweling die zich meldt met een nieuwe benadering die een klimaatgevoeligheid opleverde die wat afweek van wat de gangbare wetenschap zegt, nu eenmaal wat te bewijzen heeft. In de loop van het jaar kwamen er diverse vragen op: over verschillende invoerparameters die Lewis gebruikte, waarom zijn berekeningen stoppen in 2001, hoe het kan dat een uitbreiding van zijn analyse met 6 jaar aan data tot significant andere resultaten leidt. En natuurlijk: waarom acht Lewis zijn methode zo veel beter dan andere methoden om de klimaatgevoeligheid te bepalen? Je zou kunnen denken dat het woord “Objective” hier de sleutel is, omdat andere methoden dan blijkbaar subjectief zijn. Dat is niet het geval: “Objective Bayesian Analyses” is in dit geval gewoon de naam van de methode. Dit blog (inclusief de discussie) op And Then There’s Physics is een goede ingang om meer te weten te komen over de vragen die er waren. En nog steeds zijn.

In Nederland verklaarde Marcel Crok zich onvoorwaardelijk fan van de methode-Lewis. En van enkele min of meer vergelijkbare onderzoeken die eveneens op een klimaatgevoeligheid uitkwamen die aan de lage kant zat. Op ons blog legde Jos Hagelaars al uit dat die benadering zeer eenzijdig is. Lees verder

Spencer’s Grafiekengoochelarij

Roy Spencer is een klimaatwetenschapper met een mening die nogal afwijkt van de mainstream wetenschap zoals die in de IPCC rapporten is te vinden. Daar zou natuurlijk niets mis mee zijn, als hij die mening met degelijke data en artikelen zou onderbouwen, om daar de wetenschappelijke strijd mee aan te gaan.

Spencer heeft een eigen blog en zijn posts worden vaak gereblogd op WUWT. Maandag 10 februari zag ik op het blog van Roy Spencer een grafiek met daarin een vergelijking tussen de CMIP5 modellen, HadCRUT4 en UAH temperaturen. De conclusie van de grafiek, weergegeven in mooie rode letters, geeft aan dat de metingen fout moeten zijn want die wijken dramatisch af van de klimaatmodeldata.

Figuur 1. Een vergelijking van HadCRUT4, UAH en de CMIP5 modellen met als referentieperiode 1986-2005.

Lees verder

Het fabeltje over 16 jaar geen opwarming

Gastblog van Jos Hagelaars

“Er was eens..”, de eerste woorden van vele sprookjes en fabeltjes. Nu ik wat ouder geworden ben en ik mijn kinderen niet meer voor hoef te lezen, had ik verwacht dat ik niet veel meer met fabeltjes in aanraking zou komen. Niets is minder waar. De zogenaamde klimaatsceptici kwamen al regelmatig met allerlei fabeltjes aanzetten over het klimaat, die niets met wetenschap van doen hebben, maar de laatste tijd word ik wel erg vaak geconfronteerd met het fabeltje / onwaarheid dat de aarde al zo’n 16 jaar niet meer opwarmt. “Er was eens…” is veranderd in “Er was geen…”, maar het blijft een verzinsel.
Was het maar waar!
Helaas, rond 1997 is de opwarming van de aarde niet gestopt. De troposferische temperaturen zijn sinds 1997 minder snel gestegen dan over eenzelfde periode van ca 1981 t/m 1996, ze zijn echter wel degelijk gestegen. Andere indicatoren laten zien dat de opwarming van de aarde absoluut niet is gestopt. Hieronder enkele grafieken betreffende de temperatuur, de zeespiegel, de mondiale zee-ijs extent, de sneeuwbedekking op het Noordelijk Halfrond en de warmte inhoud van de oceanen (OHC – ocean heat content).

Vorig jaar oktober kwam de GWPF met de boodschap dat er al 15 jaar geen opwarming meer is en de Daily Mail maakte er 16 jaar van. Voor enkele andere Nederlandse voorbeelden zie de Staat van het Klimaat, of DDS (hier of hier) of onlangs hier bij de Open Discussie.
Inmiddels zijn er mensen die deze periode omtoveren in 18 jaar of zelfs ‘een kleine 20’. Dit alles natuurlijk gebaseerd op het idee: “Als ik een fabeltje vaak genoeg vertel, gaan anderen misschien geloven dat het een waar gebeurd verhaal is”.

Lees verder

Lange termijn persistentie en interne variabiliteit in het klimaatsysteem

Na een lange stilte is nu een nieuwe discussie van start gegaan op ClimateDialogue.org. Het onderwerp is lange termijn persistentie in de mondiale temperatuurdata en de eventuele implicaties daarvan voor de sterkte van interne variabiliteit en voor trend significantie. Deze discussie is gerelateerd aan de vraag of de opwarming een ‘random walk’ zou kunnen zijn, een vraag die onderwerp van vurig debat was op mijn Engelstalige blog een paar jaar geleden (zie ook deze 1 april post daarover).

De genodigde experts op ClimateDialogue zijn Rasmus Benestad (bekend van o.a. RealClimate), Demetris Koutsoyiannis en Armin Bunde. Zeker de openingsblog van Rasmus is zeer verhelderend en lezenswaardig. Hieronder volgt een korte introductie op de discussie. Een uitgebreidere (Engelstalige) versie staat op OurChangingClimate en natuurlijk op ClimateDialogue (met kleine verschillen).

Het klimaat kan door verschillende oorzaken veranderen:

–       Natuurlijke interne variabiliteit (bijv. als gevolg van oceaanschommelingen)

–       Natuurlijke klimaatforcering  (bijv. veranderingen in de zon of vulkanisme)

–       Anthropogene klimaatforcering (bijv. veranderingen in broeikasgassen of aerosolen)

Het IPCC AR4 rapport zei hierover: “it is extremely unlikely (<5%) that recent global warming is due to internal variability alone, and very unlikely (< 10 %) that it is due to known natural causes alone.” Deze conclusie is gebaseerd op een veelheid aan detectie en attributie studies en verschillende “vingerafdrukken” waarin niet alleen observaties maar ook fysische inzichten in het klimaatsysteem zijn meegenomen.

Lange termijn persistentie (LTP) is een eigenschap van een tijdsreeks die een lang geheugen heeft. De aanwezigheid ervan doet de statistische significantie van een trend sterk afnemen. Het kan om die reden relevant zijn voor de detectie van significante opwarming. Vaak wordt de aanwezigheid van LTP gelijkgesteld met interne variabiliteit, maar dat is volgens anderen onterecht, aangezien een deterministische trend ook LTP veroorzaakt (zo vertoont klimaatmodel output ook LTP). Bovendien is voor het kwantificeren van interne variabiliteit een fysische onderbouwing onontbeerlijk.

De twee tijdperken van Marcott

Gastblog van Jos Hagelaars. English version here.

Begin maart 2013 verscheen in Science een artikel over een temperatuurreconstructie betreffende de laatste 11 duizend jaar. De hoofdauteur is Shaun Marcott van de Oregon State University en de tweede auteur Jeremy Shakun, die we nog kennen van het vorig jaar gepubliceerde en interessante onderzoek over de relatie tussen CO2 en de temperatuur tijdens en na het einde van de laatste ijstijd.
De temperatuurreconstructie van Marcott is de eerste die de gehele periode van het Holoceen bestrijkt. Uiteraard is die niet volmaakt en de komende jaren zal deze op details waarschijnlijk wat veranderen. Een normaal onderdeel van het wetenschappelijke proces.

De temperatuurreconstructie eindigt halverwege de vorige eeuw, derhalve is in de grafieken van hun studie de snelle temperatuurstijging na 1850 duidelijk zichtbaar. En wat ziet men dan? Opnieuw iets dat lijkt op een hockeystick zoals de grafiek in Mann et al 2008.

Lees verder

Klotzbach Revisited

Gastblog van Jos Hagelaars

De gemiddelde oppervlaktetemperaturen van de aarde, gemeten via ‘thermometers’, worden door een aantal instituten verzameld, de bekendste van deze datasets zijn GISTEMP, HadCRUT en NCDC. Sinds 1979 worden er eveneens temperatuurdata voor de lagere troposfeer vrijgegeven door de University of Alabama in Huntsville (UAH) en Remote Sensing Systems (RSS), die gemeten zijn via satellieten.
De temperaturen van deze twee meetmethodieken vertonen verschillen, zoals bijvoorbeeld: de NCDC data geven een trend boven het landoppervlak van 0.27 °C/decennium voor de periode 1979 t/m 2012, terwijl over dezelfde periode de trend over de satellietdata van UAH een stuk lager is met 0.18 °C/decennium. Dit terwijl de trends over mondiale temperaturen kleinere verschillen vertonen, voor NCDC en UAH resp. 0.15 °C/decennium en 0.14 °C/decennium over dezelfde periode.

Big deal? Bijna alles wat betrekking heeft op het klimaat is een ‘big deal’, dus voor deze trendverschillen is dat niet anders. In een wereld die warmer wordt, zou, ongeacht de oorzaak van de opwarming, de hogere troposfeer namelijk gemiddeld meer op moeten warmen dan het oppervlak en de data op basis van UAH (en RSS) laten dat niet zien.
Waarom zou het hoger in de troposfeer meer op moeten warmen en wat is de oorzaak van deze trendverschillen tussen de oppervlaktetemperaturen en de satelliettemperaturen?

Lees verder

Een data update van 2012

Een gastblog van Jos Hagelaars

De gegevens over 2012 van de meest gevolgde temperatuur datasets GISTEMP, HadCRUT4, NCDC, UAH en RSS zijn inmiddels bekend. Het jaar 2012 is bij deze datasets warmer dan 2011 en staat bij 4 ervan in de top 10. Het warmste jaar voor de oppervlaktetemperaturen is nog steeds 2010 en bij de lagere troposfeer temperaturen, gemeten met satellieten, is het warmste jaar 1998 (de satellietdata heb ik gemiddeld op basis van hun maanddata). Alle andere jaren in de top 10 beginnen allemaal met een 2, wat aangeeft dat de jaren van deze eeuw tot nu toe allemaal zeer warme jaren zijn geweest.

In figuur 1 staan de mondiale jaargemiddelde temperaturen gerangschikt van hoog naar laag. Zoals gewoonlijk wordt de “anomalie” gegeven: het verschil met de gemiddelde temperatuur over een bepaalde referentieperiode. Deze periode verschilt voor verschillende datasets; dit veroorzaakt mede de verschillen in de temperaturen tussen de datasets.

Jaargemiddelde temperatuur tm 2012

Figuur 1: De mondiale temperaturen gerangschikt naar temperatuur.

Lees verder

De sceptische top 10 of: waarom klimaatsceptici ongeloofwaardig zijn (6)

Gastblogger Hans Custers behandelt “De 10 redenen waarom er geen klimaatcatastrofe komt” van Climategate.nl

6. Sinds de super El Ninjo van 1998 stijgt de wereldtemperatuur niet meer

Daar is het magisch jaar weer. 1998, baken van hoop en inspiratie voor veel klimaatsceptici. Laat ik hier eens iets positiefs zeggen over de top 10. Meestal zit er een grote adder onder het gras als sceptici over 1998 beginnen, maar deze keer is de adder duidelijk zichtbaar: de super El Niño. El Niño jaren zijn altijd warmer dan gemiddeld; een jaar met een super El Niño is veel warmer dan gemiddeld. Na zo’n El Niño daalt de temperatuur weer gewoon en het is volstrekt logisch dat het even duurt voordat we door de geleidelijke stijging door het toenemende broeikaseffect weer op het niveau van die tijdelijke hoge piek komen.

Wie bezig is met kwantitatief onderzoek wil altijd proberen om zoveel veel mogelijk informatie aan zijn moeizaam verkregen cijfers te ontfutselen. Met de verhouding tussen signaal en ruis als eeuwig terugkerende bron van frustratie. Er is een aparte tak van wetenschap die tal van gereedschappen heeft ontwikkeld om informatie uit cijfers te persen en om te bepalen hoe betrouwbaar die informatie is: de statistiek. Als een bekende Nederlandse klimaatscepticus beweert dat het maar een menselijk verzinsel is dat je het gemiddelde weer over 30 jaar moet gebruiken om het klimaat te bepalen, dan heeft hij het mis. Dat hebben wij mensen niet bedacht, dat heeft de statistiek voor ons bepaald. Sommigen schijnen te denken dat dat betekent dat je pas over dertig jaar iets over het klimaat van nu kunt zeggen. Dat is niet waar. Elke keer als er nieuwe cijfers zijn kun je weer een nieuw gemiddelde over 30 jaar berekenen. De invloed van één warm, koud, droog, nat, stormachtig of rustig jaar op dat gemiddelde is natuurlijk wel beperkt. Wie een kortere periode wil beschouwen mag dat vanzelfsprekend ook doen – het kan zelfs wel eens zinvol zijn – maar als je daarbij geen rekening houdt met de regels van de statistiek is er een grote kans dat je de mist in gaat. Wetenschappers komen bij analyses over een korte termijn vaak tot een conclusie als: “Er is geen statistisch significante stijging”. Sceptici vertalen dat naar: “Het warmt niet op”, Statistisch significant betekent in het algemeen: met een waarschijnlijkheid van meer dan 95%. Geen statistisch significante opwarming betekent dus dat de kortdurende variaties (de ruis) te groot is om met 95% zekerheid een onderliggende trend (het signaal) te kunnen onderscheiden (als je alleen naar dat korte tijdsinterval zou kijken). Je zou het ook om kunnen draaien: als er meer dan 5% kans is dat er geen signaal tussen de ruis zit, dan vindt de wetenschap dat terughoudenheid op zijn plaats is. In de klimaatsceptische blogosfeer wordt heel vaak misbruik gemaakt van de (terechte) neiging tot terughoudendheid van wetenschappers.

Maar goed, ik kan me best voorstellen dat niet iedereen altijd zin heeft in uitgebreide statistische analyses. Het is ook niet mijn hobby. Je zou om te beginnen een heel simpele vuistregel aan kunnen houden: als een berekende trend, of ander analyseresultaat, sterk verandert als je het begin- of eindpunt van de berekening een jaartje eerder of later neemt, dan klopt er iets niet. Waarschijnlijk is de periode te kort en anders is er iets anders mis. Via Wood For Trees en de Temperature Trend Calculator van SkS is het mogelijk om hier wat mee te spelen. Ik neem aan dat het wel duidelijk is dat deze tools leuk zijn om wat door de gegevens te grasduinen, maar dat je er geen state-of-the-art wetenschap mee bedrijft.

Escalator_2012_500

“The Escalator”

Lees verder