Categorie archief: Mondiale temperatuur

Lewis en Crok over klimaatgevoeligheid – meer gevoel voor p.r. dan voor wetenschap

Vandaag presenteren de Britse Global Warming Policy Foundation (GWPF, een “denktank” die al jaren actief is in de campagne tegen de klimaatwetenschap) en de Nederlandse Groene Rekenkamer in Nieuwspoort een rapport van Nic Lewis en Marcel Crok. Met dit rapport ontdoet Lewis zich overtuigend van de wetenschappelijke geloofwaardigheid die hij zo’n jaar geleden verkreeg.

Toen verscheen in Journal of Climate een artikel van zijn hand: “An Objective Bayesian Improved Approach for Applying Optimal Fingerprint Techniques to Estimate Climate Sensitivity.” Het werd met interesse en ook wel enige scepsis ontvangen in de wereld van de klimaatwetenschap. Scepsis, omdat een nieuweling die zich meldt met een nieuwe benadering die een klimaatgevoeligheid opleverde die wat afweek van wat de gangbare wetenschap zegt, nu eenmaal wat te bewijzen heeft. In de loop van het jaar kwamen er diverse vragen op: over verschillende invoerparameters die Lewis gebruikte, waarom zijn berekeningen stoppen in 2001, hoe het kan dat een uitbreiding van zijn analyse met 6 jaar aan data tot significant andere resultaten leidt. En natuurlijk: waarom acht Lewis zijn methode zo veel beter dan andere methoden om de klimaatgevoeligheid te bepalen? Je zou kunnen denken dat het woord “Objective” hier de sleutel is, omdat andere methoden dan blijkbaar subjectief zijn. Dat is niet het geval: “Objective Bayesian Analyses” is in dit geval gewoon de naam van de methode. Dit blog (inclusief de discussie) op And Then There’s Physics is een goede ingang om meer te weten te komen over de vragen die er waren. En nog steeds zijn.

In Nederland verklaarde Marcel Crok zich onvoorwaardelijk fan van de methode-Lewis. En van enkele min of meer vergelijkbare onderzoeken die eveneens op een klimaatgevoeligheid uitkwamen die aan de lage kant zat. Op ons blog legde Jos Hagelaars al uit dat die benadering zeer eenzijdig is. Lees verder

Spencer’s Grafiekengoochelarij

Roy Spencer is een klimaatwetenschapper met een mening die nogal afwijkt van de mainstream wetenschap zoals die in de IPCC rapporten is te vinden. Daar zou natuurlijk niets mis mee zijn, als hij die mening met degelijke data en artikelen zou onderbouwen, om daar de wetenschappelijke strijd mee aan te gaan.

Spencer heeft een eigen blog en zijn posts worden vaak gereblogd op WUWT. Maandag 10 februari zag ik op het blog van Roy Spencer een grafiek met daarin een vergelijking tussen de CMIP5 modellen, HadCRUT4 en UAH temperaturen. De conclusie van de grafiek, weergegeven in mooie rode letters, geeft aan dat de metingen fout moeten zijn want die wijken dramatisch af van de klimaatmodeldata.

Figuur 1. Een vergelijking van HadCRUT4, UAH en de CMIP5 modellen met als referentieperiode 1986-2005.

Lees verder

Het fabeltje over 16 jaar geen opwarming

Gastblog van Jos Hagelaars

“Er was eens..”, de eerste woorden van vele sprookjes en fabeltjes. Nu ik wat ouder geworden ben en ik mijn kinderen niet meer voor hoef te lezen, had ik verwacht dat ik niet veel meer met fabeltjes in aanraking zou komen. Niets is minder waar. De zogenaamde klimaatsceptici kwamen al regelmatig met allerlei fabeltjes aanzetten over het klimaat, die niets met wetenschap van doen hebben, maar de laatste tijd word ik wel erg vaak geconfronteerd met het fabeltje / onwaarheid dat de aarde al zo’n 16 jaar niet meer opwarmt. “Er was eens…” is veranderd in “Er was geen…”, maar het blijft een verzinsel.
Was het maar waar!
Helaas, rond 1997 is de opwarming van de aarde niet gestopt. De troposferische temperaturen zijn sinds 1997 minder snel gestegen dan over eenzelfde periode van ca 1981 t/m 1996, ze zijn echter wel degelijk gestegen. Andere indicatoren laten zien dat de opwarming van de aarde absoluut niet is gestopt. Hieronder enkele grafieken betreffende de temperatuur, de zeespiegel, de mondiale zee-ijs extent, de sneeuwbedekking op het Noordelijk Halfrond en de warmte inhoud van de oceanen (OHC – ocean heat content).

Vorig jaar oktober kwam de GWPF met de boodschap dat er al 15 jaar geen opwarming meer is en de Daily Mail maakte er 16 jaar van. Voor enkele andere Nederlandse voorbeelden zie de Staat van het Klimaat, of DDS (hier of hier) of onlangs hier bij de Open Discussie.
Inmiddels zijn er mensen die deze periode omtoveren in 18 jaar of zelfs ‘een kleine 20’. Dit alles natuurlijk gebaseerd op het idee: “Als ik een fabeltje vaak genoeg vertel, gaan anderen misschien geloven dat het een waar gebeurd verhaal is”.

Lees verder

Lange termijn persistentie en interne variabiliteit in het klimaatsysteem

Na een lange stilte is nu een nieuwe discussie van start gegaan op ClimateDialogue.org. Het onderwerp is lange termijn persistentie in de mondiale temperatuurdata en de eventuele implicaties daarvan voor de sterkte van interne variabiliteit en voor trend significantie. Deze discussie is gerelateerd aan de vraag of de opwarming een ‘random walk’ zou kunnen zijn, een vraag die onderwerp van vurig debat was op mijn Engelstalige blog een paar jaar geleden (zie ook deze 1 april post daarover).

De genodigde experts op ClimateDialogue zijn Rasmus Benestad (bekend van o.a. RealClimate), Demetris Koutsoyiannis en Armin Bunde. Zeker de openingsblog van Rasmus is zeer verhelderend en lezenswaardig. Hieronder volgt een korte introductie op de discussie. Een uitgebreidere (Engelstalige) versie staat op OurChangingClimate en natuurlijk op ClimateDialogue (met kleine verschillen).

Het klimaat kan door verschillende oorzaken veranderen:

–       Natuurlijke interne variabiliteit (bijv. als gevolg van oceaanschommelingen)

–       Natuurlijke klimaatforcering  (bijv. veranderingen in de zon of vulkanisme)

–       Anthropogene klimaatforcering (bijv. veranderingen in broeikasgassen of aerosolen)

Het IPCC AR4 rapport zei hierover: “it is extremely unlikely (<5%) that recent global warming is due to internal variability alone, and very unlikely (< 10 %) that it is due to known natural causes alone.” Deze conclusie is gebaseerd op een veelheid aan detectie en attributie studies en verschillende “vingerafdrukken” waarin niet alleen observaties maar ook fysische inzichten in het klimaatsysteem zijn meegenomen.

Lange termijn persistentie (LTP) is een eigenschap van een tijdsreeks die een lang geheugen heeft. De aanwezigheid ervan doet de statistische significantie van een trend sterk afnemen. Het kan om die reden relevant zijn voor de detectie van significante opwarming. Vaak wordt de aanwezigheid van LTP gelijkgesteld met interne variabiliteit, maar dat is volgens anderen onterecht, aangezien een deterministische trend ook LTP veroorzaakt (zo vertoont klimaatmodel output ook LTP). Bovendien is voor het kwantificeren van interne variabiliteit een fysische onderbouwing onontbeerlijk.

De twee tijdperken van Marcott

Gastblog van Jos Hagelaars. English version here.

Begin maart 2013 verscheen in Science een artikel over een temperatuurreconstructie betreffende de laatste 11 duizend jaar. De hoofdauteur is Shaun Marcott van de Oregon State University en de tweede auteur Jeremy Shakun, die we nog kennen van het vorig jaar gepubliceerde en interessante onderzoek over de relatie tussen CO2 en de temperatuur tijdens en na het einde van de laatste ijstijd.
De temperatuurreconstructie van Marcott is de eerste die de gehele periode van het Holoceen bestrijkt. Uiteraard is die niet volmaakt en de komende jaren zal deze op details waarschijnlijk wat veranderen. Een normaal onderdeel van het wetenschappelijke proces.

De temperatuurreconstructie eindigt halverwege de vorige eeuw, derhalve is in de grafieken van hun studie de snelle temperatuurstijging na 1850 duidelijk zichtbaar. En wat ziet men dan? Opnieuw iets dat lijkt op een hockeystick zoals de grafiek in Mann et al 2008.

Lees verder

Klotzbach Revisited

Gastblog van Jos Hagelaars

De gemiddelde oppervlaktetemperaturen van de aarde, gemeten via ‘thermometers’, worden door een aantal instituten verzameld, de bekendste van deze datasets zijn GISTEMP, HadCRUT en NCDC. Sinds 1979 worden er eveneens temperatuurdata voor de lagere troposfeer vrijgegeven door de University of Alabama in Huntsville (UAH) en Remote Sensing Systems (RSS), die gemeten zijn via satellieten.
De temperaturen van deze twee meetmethodieken vertonen verschillen, zoals bijvoorbeeld: de NCDC data geven een trend boven het landoppervlak van 0.27 °C/decennium voor de periode 1979 t/m 2012, terwijl over dezelfde periode de trend over de satellietdata van UAH een stuk lager is met 0.18 °C/decennium. Dit terwijl de trends over mondiale temperaturen kleinere verschillen vertonen, voor NCDC en UAH resp. 0.15 °C/decennium en 0.14 °C/decennium over dezelfde periode.

Big deal? Bijna alles wat betrekking heeft op het klimaat is een ‘big deal’, dus voor deze trendverschillen is dat niet anders. In een wereld die warmer wordt, zou, ongeacht de oorzaak van de opwarming, de hogere troposfeer namelijk gemiddeld meer op moeten warmen dan het oppervlak en de data op basis van UAH (en RSS) laten dat niet zien.
Waarom zou het hoger in de troposfeer meer op moeten warmen en wat is de oorzaak van deze trendverschillen tussen de oppervlaktetemperaturen en de satelliettemperaturen?

Lees verder

Een data update van 2012

Een gastblog van Jos Hagelaars

De gegevens over 2012 van de meest gevolgde temperatuur datasets GISTEMP, HadCRUT4, NCDC, UAH en RSS zijn inmiddels bekend. Het jaar 2012 is bij deze datasets warmer dan 2011 en staat bij 4 ervan in de top 10. Het warmste jaar voor de oppervlaktetemperaturen is nog steeds 2010 en bij de lagere troposfeer temperaturen, gemeten met satellieten, is het warmste jaar 1998 (de satellietdata heb ik gemiddeld op basis van hun maanddata). Alle andere jaren in de top 10 beginnen allemaal met een 2, wat aangeeft dat de jaren van deze eeuw tot nu toe allemaal zeer warme jaren zijn geweest.

In figuur 1 staan de mondiale jaargemiddelde temperaturen gerangschikt van hoog naar laag. Zoals gewoonlijk wordt de “anomalie” gegeven: het verschil met de gemiddelde temperatuur over een bepaalde referentieperiode. Deze periode verschilt voor verschillende datasets; dit veroorzaakt mede de verschillen in de temperaturen tussen de datasets.

Jaargemiddelde temperatuur tm 2012

Figuur 1: De mondiale temperaturen gerangschikt naar temperatuur.

Lees verder

De sceptische top 10 of: waarom klimaatsceptici ongeloofwaardig zijn (6)

Gastblogger Hans Custers behandelt “De 10 redenen waarom er geen klimaatcatastrofe komt” van Climategate.nl

6. Sinds de super El Ninjo van 1998 stijgt de wereldtemperatuur niet meer

Daar is het magisch jaar weer. 1998, baken van hoop en inspiratie voor veel klimaatsceptici. Laat ik hier eens iets positiefs zeggen over de top 10. Meestal zit er een grote adder onder het gras als sceptici over 1998 beginnen, maar deze keer is de adder duidelijk zichtbaar: de super El Niño. El Niño jaren zijn altijd warmer dan gemiddeld; een jaar met een super El Niño is veel warmer dan gemiddeld. Na zo’n El Niño daalt de temperatuur weer gewoon en het is volstrekt logisch dat het even duurt voordat we door de geleidelijke stijging door het toenemende broeikaseffect weer op het niveau van die tijdelijke hoge piek komen.

Wie bezig is met kwantitatief onderzoek wil altijd proberen om zoveel veel mogelijk informatie aan zijn moeizaam verkregen cijfers te ontfutselen. Met de verhouding tussen signaal en ruis als eeuwig terugkerende bron van frustratie. Er is een aparte tak van wetenschap die tal van gereedschappen heeft ontwikkeld om informatie uit cijfers te persen en om te bepalen hoe betrouwbaar die informatie is: de statistiek. Als een bekende Nederlandse klimaatscepticus beweert dat het maar een menselijk verzinsel is dat je het gemiddelde weer over 30 jaar moet gebruiken om het klimaat te bepalen, dan heeft hij het mis. Dat hebben wij mensen niet bedacht, dat heeft de statistiek voor ons bepaald. Sommigen schijnen te denken dat dat betekent dat je pas over dertig jaar iets over het klimaat van nu kunt zeggen. Dat is niet waar. Elke keer als er nieuwe cijfers zijn kun je weer een nieuw gemiddelde over 30 jaar berekenen. De invloed van één warm, koud, droog, nat, stormachtig of rustig jaar op dat gemiddelde is natuurlijk wel beperkt. Wie een kortere periode wil beschouwen mag dat vanzelfsprekend ook doen – het kan zelfs wel eens zinvol zijn – maar als je daarbij geen rekening houdt met de regels van de statistiek is er een grote kans dat je de mist in gaat. Wetenschappers komen bij analyses over een korte termijn vaak tot een conclusie als: “Er is geen statistisch significante stijging”. Sceptici vertalen dat naar: “Het warmt niet op”, Statistisch significant betekent in het algemeen: met een waarschijnlijkheid van meer dan 95%. Geen statistisch significante opwarming betekent dus dat de kortdurende variaties (de ruis) te groot is om met 95% zekerheid een onderliggende trend (het signaal) te kunnen onderscheiden (als je alleen naar dat korte tijdsinterval zou kijken). Je zou het ook om kunnen draaien: als er meer dan 5% kans is dat er geen signaal tussen de ruis zit, dan vindt de wetenschap dat terughoudenheid op zijn plaats is. In de klimaatsceptische blogosfeer wordt heel vaak misbruik gemaakt van de (terechte) neiging tot terughoudendheid van wetenschappers.

Maar goed, ik kan me best voorstellen dat niet iedereen altijd zin heeft in uitgebreide statistische analyses. Het is ook niet mijn hobby. Je zou om te beginnen een heel simpele vuistregel aan kunnen houden: als een berekende trend, of ander analyseresultaat, sterk verandert als je het begin- of eindpunt van de berekening een jaartje eerder of later neemt, dan klopt er iets niet. Waarschijnlijk is de periode te kort en anders is er iets anders mis. Via Wood For Trees en de Temperature Trend Calculator van SkS is het mogelijk om hier wat mee te spelen. Ik neem aan dat het wel duidelijk is dat deze tools leuk zijn om wat door de gegevens te grasduinen, maar dat je er geen state-of-the-art wetenschap mee bedrijft.

Escalator_2012_500

“The Escalator”

Lees verder

Globaal gemiddelde temperatuur: korte termijn variatie vs lange termijn trend

Van maand tot maand, en zelfs van jaar tot jaar, vertoont de globaal gemiddelde temperatuur veel variatie. Dat zorgt ervoor dat over tijdsschalen korter dan ruwweg 10-15 jaar de onderliggende trend niet goed zichtbaar is.

Voor klimaatverandering (lange termijn verandering in de gemiddelde weerssituatie) is het van belang om onderscheid te maken tussen de korte termijn variatie en de lange termijn trend.

(doubleclick to see animation; via SkS)

Ook in aanwezigheid van een lange termijn trend zijn er perioden van stagnerende temperatuur. Dat wordt ook door klimaatmodellen voorspeld, alleen kan de precieze timing ervan niet worden voorspeld (omdat de ENSO cyclus en vulkanen niet voorspelbaar zijn op tijdsschalen van meerdere jaren).

Een groot deel van de variatie op een tijdsschaal van enkele jaren valt terug te voeren op de effecten van natuurlijke processen zoals de El Nino/La Nina cyclus, grote vulkaanuitbarstingen, en de zonnecyclus. Deze invloeden kunnen op basis van fysische principes gekwantificeerd worden (zoals in grootschalige klimaatmodellen wordt gedaan). Het is ook mogelijk om op basis van een regressie analyse van de mondiale temperatuur de meest waarschijnlijke invloed ervan te bepalen. Als dan voor de invloed van deze processen gecorrigeerd wordt, komt de opwarmende trend duidelijker uit de ruis te voorschijn.

Dit is in een notedop wat Foster en Rahmstorf hebben gedaan in hun recente artikel. Daarin laten ze de data als het ware voor zichzelf spreken, zonder enige aanname over werkingsmechanisme of de mate van invloed van de verschillende factoren. Het komt erop neer dat ze hebben gekeken met welke combinatie van bovengenoemde natuurlijke factoren en een lineaire trend (als proxy voor het menselijke global warming signaal) de gemeten opwarming het beste gesimuleerd kan worden. Daarbij is ook rekening gehouden met een eventuele vertraagde respons (door dat ook in de regressie op te nemen).

De maandelijkse waarden van de ‘gecorrigeerde’ globaal gemiddelde temperatuur vertonen nog steeds flinke pieken en dalen, maar alleen over korte tijdsschalen vanminder dan een jaar. Deze variaties zijn onderdeel van het chaotische element in ‘het weer’. Door de jaarlijkse waarden van de gemeten en de voor natuurlijke factoren gecorrigeerde opwarming met elkaar te vergelijken wordt duidelijk dat over meerdere jaren bekeken de opwarming gestaag aan het doorgaan is:

(In de bovenste van deze twee figuren zijn de verschillende datasets verticaal verschoven voor de duidelijkheid)

Een zelfde soort analyse is enkele jaren geleden ook door Lean en Rind gedaan. Zij gebruikten een langere tijdsperiode (1889 – 2006), waardoor de menselijke invloed ook niet meer met een lineaire trend gesimuleerd kon worden. In plaats daarvan gebruikten zij een combinatie van broeikaswarming en aerosolkoeling. Qua fysische onderbouwing sterker, maar het vereist wel extra aannames over de relatieve sterkte van de broeikas en aerosolforcering (en de laatste is heel onzeker). Beide keuzes zijn verdedigbaar, en beiden hebben hun specifieke voor- en nadelen.

Een korte versie van deze analyse heb ik op 12 december op het klimaatsymposium gepresenteeerd. Zie mijn slides hier. Commentaar van Tamino op zijn eigen artikel. Een flinke discussie over dit artikel werd ook al gevoerd op een vorige blogspost.

Update (15 oktober): In een latere blog ga ik verder in op het verschil tussen korte termijn variaties en een lange termijn trend: De onderliggende opwarmende trend gaat gewoon door, terwijl door natuurlijke variaties en andere factoren die trend tijdelijk gemaskeerd kan worden.