- “Als alle data beschikbaar komen dan zullen we zien dat 2015 het warmste jaar zal zijn dat de aarde heeft meegemaakt sinds we betrouwbare data hebben.”
- “Er is geen significante opwarming van de aarde gedurende de laatste 18 jaar.”
Twee citaten uit een video van Peter Sinclair die je onderaan dit blogstuk kunt vinden. De video is gemaakt naar aanleiding van een hoorzitting in de Amerikaanse Senaat (8 december 2015) waarin presidentskandidaat Ted Cruz zijn beste ‘klimaatsceptische’ beentje voorzet. Het warmste jaar en tevens geen opwarming, om Frank Boeijen te parafraseren: Is iedereen de temperatuur-weg kwijt? Warmt de aarde nou op of niet? Daar kunnen we kort over zijn: Jazeker warmt de aarde op en wij mensen zijn daar de veroorzakers van.
Het eerste citaat refereert aan de temperatuur aan het aardoppervlak: gegevens van allerlei weerstations, samen met gegevens van temperatuurmetingen aan het oceaanwater van schepen of boeien. Als je alle gegevens van al die temperatuurmetingen bij elkaar voegt en goed middelt, krijg je de gemiddelde temperatuuranomalie aan het oppervlak van de aardbol. Klinkt simpel. Maar zoals zo vaak met meten, en zeker als je terug gaat in de tijd, is het zo simpel helaas niet. De weerstations zijn in de loop der tijd gewijzigd en/of verplaatst, er zijn andere typen thermometers in gehangen en het tijdstip van meten (of eigenlijk: aflezen) is zo nu en dan veranderd. Voor de temperatuur van het oceaanwater geldt iets vergelijkbaars, eerst werd de temperatuur van het water in een emmer gemeten, later bij de inlaat van de motoren en tegenwoordig ook met boeien. Uit al die verschillende soorten meetdata genereert men een gemiddelde temperatuuranomalie aan het oppervlak van de wereld, waarbij via een proces dat homogenisatie wordt genoemd, gecorrigeerd wordt voor alle onvolkomenheden en veranderingen die in de loop der tijd in de data zijn geslopen. Er zijn diverse onderzoeksgroepen die de ruwe temperatuurdata van de vele meetstations analyseren en er een mondiaal gemiddelde uit bepalen, bijvoorbeeld NOAA-NCEI, NASA GISS, Met Office/CRU, Berkeley Earth en JMA. Al deze onderzoeksgroepen zullen de komende weken aangeven (of hebben dat al gedaan) dat 2015 het warmste jaar aan het oppervlak van aarde zal zijn sinds het begin van de metingen, dat is namelijk al duidelijk geworden uit de eerste 11 maanden van 2015.
Het tweede citaat boven dit blogstuk refereert aan gegevens afkomstig van satellieten. Die satellieten hangen velen tientallen kilometers boven het aardoppervlak en hebben geen thermometer aan boord waarmee men de temperatuur op aarde kan meten. De satellieten meten straling afkomstig van zuurstofmoleculen en de intensiteit van deze straling is afhankelijk van de temperatuur. Wellicht kwam al dat rekenen en corrigeren bij de oppervlaktetemperaturen ingewikkeld over, het bepalen van de temperatuur uit satellietgegevens is nog een stuk complexer. De satellieten kunnen hoogte verliezen of het tijdstip waarop ze boven een bepaald punt op het aardoppervlak zijn kan veranderen. Men moet er zorg voor dragen dat de data van de afkoelende stratosfeer en de opwarmende troposfeer goed van elkaar gescheiden blijven en er moet rekening gehouden worden met temperatuureffecten in het meetinstrument zelf. Dan moet men er tevens voor zorgen dat de data afkomstig van een satelliet die gedurende een bepaalde periode actief was, aansluit bij een andere satelliet die actief was gedurende een andere periode. Via ingewikkelde algoritmes (in feite modellen) wordt de geobserveerde straling omgerekend naar een temperatuur van de luchtlaag in kwestie. Bij een van de twee bekende satelliet-datasets (RSS) gebruikt men zelfs een klimaatmodel voor bepaalde belangrijke correcties. UAH is bezig met een nieuwe versie van hun dataset en dat resulteert in aanzienlijke verschillen tussen hun oude en nieuwe temperatuurdata, net als bij eerdere wijzigingen die zij door hebben gevoerd. Een teken dat dit soort correcties bij de satellietdata niet bepaald eenvoudig is.
Wat tevens belangrijk is: de satelliettemperatuur-data betreffen niet het oppervlak, maar verschillende lagen van de atmosfeer. De laag het dichtst bij het oppervlak waar satellietgegevens van zijn, is de zogenoemde lagere troposfeer. Die gaat tot zo’n 10 km hoogte, waarbij het zwaartepunt zo ongeveer op 2 à 4 km hoogte ligt. Mensen, dieren en planten bevinden zich over het algemeen toch ergens aan het oppervlak van onze planeet.
De grafiek in figuur 1 geeft een overzicht van allerlei datasets betreffende de mondiale temperatuur sinds 1880 met daarin twee satelliettemperatuur-datasets en vier oppervlaktetemperatuur-datasets. In die grafiek wordt de periode 1981-2010 als nul weergegeven. Ter indicatie, volgens het WMO is de gemiddelde temperatuur op aarde in de periode 1961-1990 circa 14 °C, daar zitten we nu aan het oppervlak ongeveer 0.7 – 0.8 °C boven.
Een aantal zaken kun je uit de grafiek van figuur 1 opmaken. Het is duidelijk warmer geworden op aarde sinds het begin van de 20ste eeuw, ongeveer 1 °C. Ter vergelijking, tijdens de laatste ijstijd was het circa 4 à 5 °C kouder op aarde dan nu, dus 1 °C is een substantieel verschil. De temperatuurwaarden van de satelliet-datasets (oranje en rode lijnen) volgen redelijk de temperatuur van de oppervlakte-datasets (groene, grijze en blauwe lijnen), maar met een grotere variatie. Dat is goed zichtbaar bij bijvoorbeeld 1998, waar het verschil in temperatuur van de twee satelliet-datasets en de vier oppervlakte-datasets meer dan 0.2 °C bedraagt. Wat verder opvalt, is dat na 2005 de temperatuur van de satelliet-datasets een beetje lager ligt dan temperatuur van de oppervlakte-datasets.
De uitspraak van presidentskandidaat Ted Cruz, het tweede citaat boven het blogstuk, is gebaseerd op de trend (de gemiddelde temperatuursverandering per tijdseenheid) in een van de twee satelliet-datasets, RSS, vanaf midden 1997. Dus net voor het punt in die dataset waarbij de temperatuur zo’n grote uitschieter vertoont. Wiskundig kun je dan een berekening maken waaruit volgt dat de trend sinds midden 1997 circa 0 °C/decennium bedraagt en dus geen temperatuurstijging laat zien. Een soort hobby van Christopher Monckton die nu al een paar jaar lang elke maand op de ‘klimaatsceptische’ site WUWT verslag doet van die trend in de RSS data. Een van die grafieken van Monckton gebruikte Ted Cruz in de hoorzitting van de Amerikaanse Senaat ter ondersteuning van zijn uitspraak en deze is weergegeven in onderstaande figuur.
Zegt dit wiskundige sommetje nu dat er geen opwarming meer plaatsvindt op aarde? Natuurlijk niet. Start je dezelfde berekening een jaar na die gigantische piek, dus in 1999, dan vind je weer wel een stijging. Dit soort berekeningen gaat gepaard met een bepaalde onzekerheid en hoe meer variatie in de gegevens des te groter is de onzekerheid waarmee men die trend kan bepalen. De onzekerheid in de trend in de RSS-data vanaf 1998 is erg groot met ongeveer ± 0.17 °C/decennium (2 sigma, de range waarbinnen een trend met een waarschijnlijkheid van 95% zal vallen). De onzekerheden in de trendberekeningen ontbreken steevast in de grafieken van Monckton.
De grotere variatie in de temperatuur van de satelliet-datasets dan bij de oppervlakte-datasets betekent dat de onzekerheid waarmee je een trend kunt bepalen ook veel groter is. Een voorbeeld is de trend van de temperatuursverandering en de onzekerheid (2 sigma) van RSS en HadCRUT4 vanaf 1979 (start RSS-data) t/m november 2015, waarbij de onzekerheid is bepaald volgens de methode van Foster & Rahmstorf (waarbij autocorrelatie over de gehele periode in aanmerking wordt genomen):
HadCRUT4 : +0.16 ± 0.04 °C/decennium
RSS : +0.12 ± 0.06 °C/decennium
De onzekerheid bij RSS is zo ongeveer anderhalf keer die van HadCRUT4, maar allebei laten vanaf 1979 een opwarming zien. Deze berekende onzekerheid zegt alleen iets over de mate waarin de data afwijken van een rechte lijn, de “statistische onzekerheid”, en wordt dus bepaald uit de uiteindelijke temperatuurgegevens zoals de onderzoeksgroepen ze vrijgeven.
De uiteindelijke temperatuurdata van de vrijgegeven oppervlakte- en satelliet-datasets kennen echter van zichzelf ook een onzekerheid, dat zou je een “structurele onzekerheid” kunnen noemen. Meten gaat immers altijd gepaard met een bepaalde onzekerheidsmarge of meetfout dus zo’n punt in de grafieken van figuur 1 of figuur 2 is geen precies getal waarvan de afwijkingen nul zijn. Zo geeft HadCRUT4 voor 2015 een mondiaal gemiddelde temperatuurafwijking van 0.745 °C (t.o.v. 1961-1990) maar de 95% waarschijnlijkheids-range is 0.655 – 0.837 °C. Het Britse Met Office stelt voor hun HadCRUT4 oppervlaktetemperatuur-dataset voor analysemogelijkheden een soort verzameling van mogelijke temperatuuruitkomsten beschikbaar, waarbij rekening is gehouden met bijna alle bekende onzekerheden in de data. Die verzameling heet een ensemble en bestaat bij HadCRUT4 uit 100 verschillende temperatuur-sets. RSS stelt eveneens zo’n ensemble beschikbaar gebaseerd op de onzekerheid in de satellietdata. Kevin Cowtan heeft in een blogstuk op SkepticalScience de HadCRUT4 – en RSS ensembles grafisch vergeleken. Dat blogstuk is vooraf gereviewed door Carl Mears van RSS. De grafiek in figuur 3 bevat de vergelijking van Kevin Cowtan.
De spreiding in de temperatuurensembles is bij de RSS data veel groter dan bij de HadCRUT4 data; vanwege de bovengenoemde complexiteit hebben satellietdata van de temperatuur een grotere onzekerheidsmarge dan directe temperatuurmetingen aan het aardoppervlak. Volgens Cowtan zijn als gevolg daarvan de bekende onzekerheden in de trends die je uit de RSS data kunt berekenen ongeveer vijf keer groter dan bij de HadCRUT4 data. Het HadCRUT4 ensemble bevat niet alle onzekerheden die men kent en daarnaast zijn er misschien nog onbekende onzekerheden in de satelliet-datasets, zo nu en dan wordt daar namelijk in artikelen op gewezen. Als voorbeeld: de invloed van straling afkomstig van wolken wordt mogelijk niet correct meegenomen. Uit de grafiek van figuur 1 viel op te maken dat de satelliettemperaturen lijken te divergeren van de oppervlaktetemperaturen, is er misschien sprake van een niet gecorrigeerde drift in de satellieten of is dat gewoon een gevolg van de grotere structurele onzekerheid? Mogelijk speelt hetzelfde bij de recente divergentie tussen weerballondata en de satellietdata. Dit wordt ongetwijfeld vervolgd.
De satelliet-datasets geven dus temperatuurdata die met een wijdere onzekerheidsmarge zijn omgeven (m.a.w. minder betrouwbaar zijn) dan de oppervlakte-datasets. Daarnaast representeren ze simpelweg iets anders, de lagere troposfeer is niet het oppervlak van de aarde (zie ook deze uitleg van Geert Jan van Oldenborgh van het KNMI). Door verregaande conclusies trekken uit de satelliet-datasets en de oppervlakte-datasets daarbij negeren begeef je je wetenschappelijk gezien dus op glad ijs. De uitspraak van bijvoorbeeld Judith Curry en anderen in de Senaats-hoorzitting, dat de satelliet-datasets de beste zijn die we hebben, is wetenschappelijk gezien niet gefundeerd. Dit alles betekent echter niet dat men de satelliet-datasets dan maar moet negeren. De grotere onzekerheid in de data is een nadeel, daar staat tegenover dat de satellieten zo ongeveer de hele wereldbol af kunnen scannen en ook iets kunnen zeggen over verschillende lagen van de atmosfeer.
Om te bepalen hoe het nu zit met de opwarming van de aarde, moet je naar álle datasets kijken en tevens naar andere indicatoren. Zo gaat de zeespiegelstijging onverminderd door, verliezen de grote ijskappen op Antarctica en Groenland massa en is de warmte-inhoud van de oceanen sinds 1997 sterk gestegen. Zoals Ben Santer in de video hieronder zegt:
De door ons mensen veroorzaakte opwarming van de aarde is niet gestopt, maar gaat gewoon door en aan het oppervlak zal 2015 het warmste jaar sinds het begin van de metingen zijn. Maar wellicht wordt 2016 nog warmer.
Meer info over dit onderwerp:
- Uitgebreide uitleg over de satellietdata en de uitspraken van Ted Cruz op van Carl Mears en Ben Santer: A Response to the “Data or Dogma?” hearing
- Het blogstuk van Kevin Cowtan over de statistische en structurele onzekerheden in de temperatuurdata: Surface Temperature or Satellite Brightness?
- Een nieuwe klimaatmythe op SkepticalScience: Which is a more reliable measure of global temperature: thermometers or satellites?
- Dana Nuccitelli in The Guardian: Ted Cruz fact check: which temperature data are the best?
- Tamino op Open Mind: Cherry Cruz Cherry Monckton Cherry Christy Cherry Spencer Cherry Curry
- John Abrahm in The Guardian: A striking resemblance between testimony for Peabody Coal and for Ted Cruz
Hi Jos,
Dank voor het heldere overzicht!
Op het blog van David Appell staat er een interessant grafiekje met de opwarming — volgens de UAH satelliettemperaturen — vanaf het tijdstip op de x-as t/m december 2015 (de rode curve):
Je ziet dat alleen indien:
1. je alle andere temperatuurreeksen negeert en uitsluitend naar de satelliettemperaturen kijkt;
2. en dan ook nog eens uitsluitend naar dat ene punt, begin 1998;
er een ‘no warming for xx years and yy months’ uit te construeren is. In de grafiek zie je dat ELK ander beginpunt (voor of na begin 1998, maakt niet uit) wel degelijk een positieve trend laat zien t/m heden.
Het is een beetje triest dat iemand als Ted Cruz, een Republikeins presidentskandidaat, kritiekloos een dergelijke dubbele cherry-pick navolgt. Waarom eigenlijk? Omdat zijn ideologie — zijn waardenstelsel — hem voorschrijft dat ‘global warming’ niet waar kán en mag zijn. Daarom knoopt Ted Cruz zijn volledige wereldbeeld vast aan dat éne beginpunt in januari 1998 en negeert hij zowel alle andere beginpunten als alle andere temperatuurreeksen.
LikeLike
Overigens heeft David Appell ook uitgerekend dat, als januari 2016 in de satellietreeksen minstens 0,51°C warmer wordt dan de baseline, die gehele dubbele cherry-pick niet meer opgaat.
Met andere woorden: dan krijg je de blauwe curve (of hoger) en is er dus geen enkel beginpunt meer te selecteren zodanig dat er “no warming for xx years and yy months” geroepen kan worden.
Dat de eerste maanden van 2016 in UAH en RSS boven de +0,51°C uit gaan komen is wel vrij waarschijnlijk doordat de satellietreeksen zo’n 4 á 6 maanden na-ijlen op de El Niño. Het effect daarvan is nu nog niet volledig zichtbaar in de satellietreeksen, zie:
https://klimaatverandering.wordpress.com/2011/12/30/globaal-gemiddelde-temperatuur-korte-termijn-variatie-vs-lange-termijn-trend/
LikeLike
Nooit eerder las ik zo´n verhelderend stuk over satellieten. Nu begrijp ik ook waarom zelfs chemtrails als argument gebruikt worden. Waarschijnlijk zullen we binnenkort linken naar Niburu lezen op Climategate.
http://climategate.nl/2015/12/28/chemtrails-een-alarmistische-onthulling/
LikeLike
Sinds de “mantra” van Chritie en Curry in die Cruz-bijeenkomt mbt door satellieten gemeten temperaturen hebben een aantal wetenschappers al die gegevens nog eens tegen het licht gehouden. Op korte periodes is die “fit” tussen allerlei reeksen nl. buitengewoon goed, maar er is op langere termijn sprake van systematische afwijkingen van UAH 6.0 en RSS met de rest. Er onstaat nu een levendige discussie over de mogelijke oorzaken, vandaag nog bijv. http://rabett.blogspot.nl/2016/01/hmm-thats-suspicious.html.
Interessant zijn ook de vergelijkingen van de niet-lineariteit in de trends van allerlei reeksen: https://tamino.wordpress.com/2016/01/21/changes-2/
LikeLike
Hi Mr. Ooijer,
Het lijkt er inderdaad op dat PR-specialisten (het campagneteam van Ted Cruz?) hetzelfde zinnetje hebben laten instuderen door hun genodigden voor het Congres: “The Satellite Data are the best data that we have.” Dat zinnetje wordt bij wijze van mantra opgedreund, waarbij er telkens nadrukkelijk in de camera gekeken wordt. Instructies van de PR mensen?
Het zinnetje is heel ver bezijden de waarheid.
NOAA heeft overigens een eigen dataset van TMT temperaturen (middle layer troposphere met een zwaartepunt zo rond 5 km hoogte) berekend uit de opeenvolgende AMSU satellietmetingen, hier:
http://www.ngdc.noaa.gov/docucomp/page?xml=NOAA/NESDIS/NCDC/Geoportal/iso/xml/C00935.xml&view=getDataView&header=none
In het boek van Chen Zou van NOAA daarover staat een grafiek, waar de trend en de calibratie tussen de opeenvolgende satellieten met kleuren staat aangegeven:
NOAA komt tot een opwarmende trend van +0,141 °C per decennium over 1978 t/m 2010 (voor het midden van de troposfeer, en tegelijkertijd een afkoeling van de stratosfeer van -0,332 °C per decennium).
Terugrekenen van deze TMT trend naar oppervlaktetemperaturen is echter een ingewikkelde zaak waar de (natte) lapse rate tussen 5 km hoogte en het oppervlak een grote rol speelt. Die lapse rate hangt af van lokale variaties in luchtvochtigheid en er zal een klimaatmodel voor gebruikt moeten worden om dit om te rekenen naar het oppervlak.
LikeLike
Jos, zeer bedankt voor dit overzicht; heel bruikbaar.
De aanvulling van Bob over de ASMU meting van NOAA is een goede bijvangst.
Daar kan, denk ik, worden afgeleid hoe de atmosfeer op drie niveau’s reageert op bepaalde gebeurtenissen.
Zien we bij de TLS-meting het effect van grote vulkaanuitbarstingen waar schoksgewijs de stratosfeer wordt ‘verstoord’? En kunnen we ook zien hoe het effect wegebt?
En bij TMT het effect van El Nino?
De metingen zijn dus uiterst waardevol om variabele componenten van de warmtehuishouding op te sporen. En het zijn temperatuurmetingen maar ze duiden iets over veranderingen op de korte termijn. Een serie van vingerafdrukken.
Zijn er studies bekend waarin dit verder is uitgewerkt of wordt gebruikt?
LikeLike
Bob, Lieuwe, Pieter. Dank voor de complimenten.
Pieter, wellicht vind je het volgende onderzoek van Santer et al (die uit de video) interessant. Zij gebruiken de satellietdata om naar de effecten van vulkanische uitbarstingen te kijken:
http://www.nature.com/ngeo/journal/v7/n3/full/ngeo2098.html
Een pdf van eindversie van de auteur staat hier:
https://dspace.mit.edu/openaccess-disseminate/1721.1/89054
Een citaat uit het artikel, waar sommigen toch echt tegen zondigen:
“It is not scientifically justifiable to claim that model climate sensitivity errors are the only explanation for differences between model and observed temperature trends.”
LikeLike
Jos,
“Uit al die verschillende soorten meetdata genereert men een gemiddelde temperatuuranomalie aan het oppervlak van de wereld, waarbij via een proces dat homogenisatie wordt genoemd, gecorrigeerd wordt voor alle onvolkomenheden en veranderingen die in de loop der tijd in de data zijn geslopen.”
Dat heb je helemaal helder uitgelegd, de weergoden zij dank : )
Wat bij mij kriebels veroorzaakt is de stijging van de oceanische warmte-inhoud waar je in de laatste alinea, met link, op wijst. Dat gaat dus letterlijk en figuurlijk dieper dan satelliet- en oppervlakte metingen. Die link eindigt met
“How the ocean acts to moderate surface temperatures is vital for understanding how our planet responds to greenhouse gases over the long term […].
Wat mij niet duidelijk is in hoeverre de stijging van de oceanische warmte-inhoud een rol speelt in het vaststellen van ‘klimaatgevoeligheid.’ Als ik het goed begrepen heb zit daar een forse theoretische knoop. Klopt dat of zie ik iets over het hoofd?
LikeLike
Hoi Goff,
In het simpele lineaire model zoals beschreven in Otto 2013 (zoals ook gebruikt door Nick Lewis), zit de warmte-opname in de noemer van de vergelijking, zie de formules in figuur 2 in:
https://klimaatverandering.wordpress.com/2013/05/22/goed-nieuws-over-de-klimaatgevoeligheid/
Als de toename van de warmte-inhoud van de oceanen onderschat zou worden, dus de delta-Q is hoger dan gedacht, zou de ECS hoger zijn. Of lager als de delta-Q overschat zou zijn.
Zoals je citaat al aangeeft, op de korte termijn (zeg de komende eeuw) tempert de warmteopname door de oceanen de opwarming aan het oppervlak. In de klimaatgevoeligheid voor deze korte termijn, de TCR, ontbreekt in de tweede formule in die figuur 2 de delta-Q, de warmte-opname van de oceanen. Relatief meer warmte-opname door de oceanen betekent een lagere TCR: op de korte termijn neemt dan de temperatuur aan het oppervlak minder toe. Als de trage oceanen ook energetisch in evenwicht geraken, krijgen we steeds wat meer opwarming aan het oppervlak en over een periode van honderden jaren wordt dan dan gegeven door de ECS.
LikeLike
Hi Jos en Goff,
Zoals Jos al aangeeft kan een grotere warmte-opname van de oceanen (delta-Q) duiden op een hogere ECS (formule 1 uit figuur 2) en een lagere of gelijkblijvende TCR.
Het is wel een beetje lastig in te schatten of een grotere warmteopname door de oceanen (delta-Q) misschien ook betekent dat de huidige forcering (delta-F in die formules) groter is dan gedacht?
Het is wel belangrijk om te beseffen dat deze formules alleen een ondergrens voor de ECS geven — omdat het een lineair model is dat alleen rekening houdt met ‘fast feedbacks’ over de afgelopen periode waarover de delta-T bepaald is. Deze methode kan de langzamere feedbacks niet meenemen.
LikeLike