Klimaatsymposium van Nederlandse klimaatsceptici, deel I: de ‘AGW antagonisten’

Op maandag 12 december hielden de Nederlandse klimaatsceptici, i.s.m. de Groene Rekenkamer, een klimaatbijeenkomst in Nieuwspoort (Den Haag). Aanleiding was de KNAW brochure over het klimaatdebat, die volgens hen ernstige fouten bevat en derhalve moet worden teruggetrokken. Hiertoe is een aantal weken geleden een brief gestuurd aan de KNAW. Deel I gaat over de bijdragen van enkele klimaatsceptici. In deel II zal ik ingaan op de bijdragen van enkele PCCC leden (Platform Communication on Climate Change), waaronder yours truly. Zie ook het (kortere) bericht op Klimaatportaal.

Hans Labohm was dagvoorzitter. KNAW lid Rudy Rabbinge was er ook, en Labohm heette hem en Rob van Dorland, Leo Meyer, Bart Strengers en Bart Verheggen welkom, als ‘AGW protagonisten’ en representanten van ‘de officiële Nederlandse klimaatinstituten’, zoals verenigd in het PCCC. Wij wilden met onze aanwezigheid en door middel van het aangaan van de dialoog bijdragen aan het depolariseren van het publieke debat.

Algemene impressie

Het was een interessante gewaarwording om eens zo sterk in de minderheid te zijn wat betreft visie op klimaat. Het beeld van een parallel universum kan ik niet helemaal loslaten. Het was leuk om personen met wie ik meerdere malen van gedachten heb gewisseld of wiens blogs ik gelezen heb eens in levenden lijve te zien. We zijn ten slotte allemaal mensen; dat is ook wel eens goed om je te realiseren als je regelmatig op internet met andersdenkenden discussieert. Persoonlijk contact draagt sterk bij aan het depolariseren van het debat. Niet dat CO2 moleculen zich daar veel van aantrekken, maar het komt de sociale dynamiek wel ten goede. Het verschil in mening lijkt vaak terug te zijn voeren op de focus: Op het badwater of op de baby. En liefst natuurlijk op allebei. Van babies op deze dag echter geen spoor.

Marcel Crok was de eerste spreker. Hij kwam met veel details over bijvoorbeeld de vergelijking tussen metingen en modellen. Zijn verdienste is het dat hij duidelijk maakt waar nog een gebrek aan begrip is. Zo wordt de opwarming vroeg in de 20ste eeuw minder goed begrepen en gesimuleerd, dan die in de late 20ste eeuw. Hij ging daarbij nogal selectief te werk, bijvoorbeeld door de opwarming vroeg in de 20steeeuw te baseren op de periode 1917 (dieptepunt) t/m 1944 (hoogtepunt) op basis van HadCRU. In een vergelijking van geobserveerde en gemodelleerde oceaan warmte inhoud was het nulpunt van de modelberekeningen verschoven om de illusie van een slechte overeenkomstigheid te versterken.

Op basis van grafieken van Lucia Liljegren, liet Marcel zien dat de mate van overeenkomst tussen model en observaties afhangt van de baseline periode (en dus indirect het nulpunt). Hoe korter de baseline periode, hoe slechter de simulatie (en vice versa). Dat komt enerzijds door de aanwezigheid van ongeforceerde en dus onvoorspelbare variatie in de temperatuurdata, en hangt anderzijds ook af van hoe ‘goed’ het model is.

Dick Thoenes begon met het debat te karakteriseren als tussen ‘alarmisten’ en ‘sceptici’. Hij stelde vraagtekens bij issues, waarover de wetenschap door middel van observaties en kennisvergaring al lang overeenstemming heeft bereikt, zoals bijvoorbeeld de fossiele oorsprong van de toename in CO2 concentraties of het verzadigingsargument. Ook beweerde hij dat het smelten van zee-ijs geen teken is van opwarming, maar van afkoeling. Immers, smelten onttrekt energie aan de omgeving.

Thoenes eindigde met een interessante vraag: “Wat als de sceptici gelijk hebben?” Veel geld voor niets gespendeerd te hebben stelde hij voor als een horrorscenario. Daar kwam ik later (in mijn 5 minuten spreektijd) op terug door de inverse vraag te stellen: “Wat als de mainstream wetenschap gelijk heeft? En als we naar de ene kant van het spectrum kijken (minder erg dan verwacht), moeten we eerlijkheidshalve ook naar de andere kant kijken (erger dan verwacht): Wat als ‘alarmisten’ gelijk hebben?” Het spectrum kan misschien simplistisch als volgt weergegeven worden: Sceptici focussen op het badwater, klimaatactivisten op de baby, en de mainstream wetenschap op allebei.

Theo Wolters verwoordde de kritiek op de KNAW brochure en vroeg om terugtrekking ervan. Een belangrijk punt daarbij, zoals ook verwoord door Kees le Pair, was dat die brochure het deed voorkomen alsof er een consensus is onder wetenschappers. Vanuit het idee dat consensus een unanimiteit van meningen inhoudt, verwerpen zij de stelling dat er consensus is. Bovendien hadden de meeste sprekers en bezoekers het idee dat de wetenschap totaal verdeeld is over de basale klimaatvragen. Zijn presentatie werd gevolgd door een discussie tussen Rabbinge en de zaal. Vanwege het gebrek aan context onthield Rabbinge zich van inhoudelijk commentaar op de kritiekpunten van Wolters. Hij gaf aan te zullen overleggen binnen de KNAW en op basis daarvan eventueel in een later stadium te reageren.

Arthur Rörsch hield een pleidooi dat wolken, wind en water het mondiale klimaat zouden stabiliseren. In deze visie zou opwarming, via effecten op de watercirculatie, tot een verlegging van de windzones leiden. [tekts veranderd 16-12] Een kwantitatieve en fysische onderbouwing ontbrak.

Bas van Geel, paleo-ecoloog aan de UvA, had het over de rol van de zon in klimaatveranderingen. Hij liet o.a. onderzoeksresultaten zien op het snijvlak van antropologie en paleo-klimatologie. Op basis van lokale studies concludeert hij dat het effect van de zon op het mondiale klimaat veel sterker is dan uit de IPCC rapportages (en de onderliggende literatuur) blijkt, en dat er dus mechanismen moeten zijn die het effect van de directe zonnestraling versterken. Deze kunnen volgens hem niet in modellen ingebouwd worden. Echter, in eerdere modelsimulaties is het maximaal mogelijke effect van kosmische straling via aerosolvorming al eens becijferd en zeer klein bevonden. Een belangrijk versterkingsmechanisme is volgens van Geel de relatief grote variatie in ultraviolette straling bij zonneactiviteit. Volgens Rob van Dorland laten de meeste studies hierover echter zien dat dit mechanisme de mondiale temperatuur nauwelijks beïnvloedt.

Meer lezen:

Klimaatmodellen zijn niet perfect, maar hebben wel degelijk voorspellende waarde.

Stadseffect is aanwezig, maar heeft marginale invloed op mondiale temperatuurreconstructies.

Rol van de zon is evident, maar niet verantwoordelijk voor recente opwarming (laatste 40 jaar).

62 Reacties op “Klimaatsymposium van Nederlandse klimaatsceptici, deel I: de ‘AGW antagonisten’

  1. Iedereen met een PC (liefst een snelle met veel geheugen) kan op basis van de daggemiddelde reeks van DeBilt (etmeg260) over 1901-2010 zien dat de voortschrijdende trend over 11 jaar maxima vertoont rond 1909, 1933, 1945, 1956, 1968, 1990 en 2001.
    En minima rond 1917, 1938, 1953, 1960, 1980, 1993 en 2006.
    Opvallend is dat het maximum rond 1945 iets groter is dan die van 2001.
    Het kleinste minimum ligt rond 1953.
    Bekijk je zo’n grafiek dan lijkt er niet zo veel mis te zijn.

    Link volgt na de “peer-review” van het Excel-rekenblad in het weekend 🙂

    Like

  2. Jos Hagelaars

    @Boels,
    “Bekijk je zo’n grafiek dan lijkt er niet zo veel mis te zijn.”
    Wat zou er “mis” moeten zijn?
    De Bilt is niet representatief voor de gehele wereld, de temperatuurstijging van 1900 naar 2010 in de Bilt is, gebaseerd op een 30-jarig gewogen gemiddelde, ~1.5 °C. De wereld is gelukkig minder hard opgewarmd, Giss geeft: ~0.8 °C.

    Like

  3. @Jos Hagelaars:
    Het gaat om de presentatie van de gegevens en die van het KNMI zijn gemakkelijk bereikbaar en hanteerbaar.
    Bovendien zijn ensembles bewerkt en werk ik daar liever niet mee (de globale temperatuur is fictief en heeft geen fysische betekenis volgens mij).

    Het alarm ging eind ’60-jaren af omdat er aanwijzingen waren dat het uit de hand liep.
    Een grafiek van een running trend van een 11-jarige periode ziet er (logisch) anders uit dan die van een 15- of 30-jarige periode.
    Het lijkt onjuist om het startpunt van een periode (van welke lengte dan ook) in graniet te beitelen.
    Daarom is een running trend over een vaste tijdsduur (11, 15, 30 jaar of wat dan ook) over de gehele meetreeks inzichtelijker.

    Like

  4. Jos Hagelaars

    @Boels

    “Alarmen” en “het loopt uit de hand” zijn nogal subjectief natuurlijk, ik kan daar niet veel mee. De gemiddelde temperatuur in de wereld loopt op, dat lijkt mij evident. De wetenschap moet met de feiten en getallen komen en het is aan de maatschappij om te beoordelen of we daar wat aan gaan doen en hoe we dat gaan doen.

    Terug naar de getallen. De gemiddelde wereldtemperatuur is precies wat de naam zegt en niet meer dan dat, lokaal zijn de verschillen groter natuurlijk. Als je je puur richt op de KNMI Bilt data, kun je een foutief beeld krijgen van de “global warming”, maar dat neemt niet weg dat het niet interessant zou zijn om die getallen te analyseren.
    Ik ben het geheel met je eens dat, wil je een trend zien of een conclusie eruit trekken, je zult moeten middelen. Er komen dan schommelingen tevoorschijn, de amplitude hangt af van de gekozen periode en volgens mij hebben die schommelingen een positieve richtingscoëfficiënt. Over de periode 1901 – 2011 uit zich dat totaal in ongeveer +1.5 °C.

    Wellicht vind je het interessant om eens wat gemiddelden te berekenen uit antieke gegevens, met meedata vanaf het jaar 764:
    http://climexp.knmi.nl/data/inederland_yr.dat
    Je kunt daar een zeer bekend figuur mee maken, een Nederlandse hockeystick.

    Like

  5. @Jos Hagelaars :
    Dank voor de reactie.
    De KNMI-gegevens gebruik ik als oefenstof, niet als bepalende meetreeksen.
    De grafiek staat inmiddels on-line :

    Klik om toegang te krijgen tot RunningTrendetmeg.pdf

    Verder komt er binnenkort een duiding waarom meetreeksen van stations met verschillende meetregimes niet zonder meer gebruikt zouden kunnen worden om een globale temperatuur te bepalen.
    (Regimes: uurgemiddelde, min/max en één meting per dag op een vast tijdstip)

    Ik gebruik dan de uurgemiddelde tijdreeks van DeBilt en bepaal daaruit de trends op basis van uurgemiddelde, min/max en die van de afzonderlijke tijdstippen (1-24h).

    Dank voor de link naar de historisch gegevens (voor voor Excelisten :-))

    Like

  6. De signaal-ruis verhouding wordt lager naarmate je over kortere tijdsschalen of kleinere ruimtelijke schalen kijkt. Meetreeksen over 1 locatie zeggen niets over het globale klimaat.

    Zie bijv het stukje over “lokaal-globaal” hier (nav KNMI rapport): http://ourchangingclimate.wordpress.com/2008/08/05/knmi-toestand-klimaat/

    Like

  7. @Bart:
    Ik beweer alleen dat de wijze van grafisch presenteren nogal verschil maakt.
    En daarmee ook de interpretatie en gevolgtrekkingen.
    Mijn voorbeeld geeft m.i. aan dat er voorzichtig om moet worden gegaan met het middelen en het gebruik van lineaire regressie.

    Like

  8. Beste Boels,

    Een kleine hint: de temperatuurreeksen (GIS, HadCru, BEST, …) bepalen NIET de gemiddelde temperatuur op aarde. Die aanpak is al begin 20e eeuw verlaten.

    Ze bepalen uitsluitend de anomalieën per station, en dan ook alleen per homogene meetreeks. Dus zodra er een lokatie-wijziging, bebouwing of nieuwe instrumentatie plaatsvindt, start er een separate meetreeks.

    Alleen de anomalieën van dát station binnen dié meetreeks worden gebruikt.

    NOAA/GISS/HadCRU houden zelf adhv de metadata deze ‘breakpoints’ bij per station, en BEST doet dit m.i. nog veel beter, met statistische technieken om de breakpoints automatisch te detecteren. In geen geval wordt ‘de gemiddelde temperatuur op aarde’ bepaald, alleen het gewogen gemiddelde van de anomalieën.

    Like

  9. Kleine aanvulling op het bovenstaande.

    Gegeven deze (juiste) methodiek, heb ik een voorkeur voor BEST omdat:

    – HadCRU homogenisatie toepast om (per station) de individuele meetreeksen te koppelen tot één homogene reeks;
    – waarbij HadCRU gebruik maakt van de gegevens v.d. meteo-instituten voor deze homogenisatie per station;
    – maar HadCRU soms zélf een homogenisatie moet bepalen voor stations met slechte metadata (historisch/oost-europa/…).

    Dat laatste is riskant omdat het deels een ‘judgement call’ is. Overigens geldt dat voor een minderheid v.d. HadCRU meetreeksen per station.

    BEST gebruikt helemaal geen homogenisatie:

    – zij gebruiken uitsluitend de statistische ‘drift’ per station, binnen elke individuele meetreeks;
    – hebben een statistische procedure om ‘breakpoints’ op te sporen zelfs als de metadata ontbreekt;
    – en hebben dus geen ‘biased’ judgment calls nodig.

    Berkeley werkt trouwens aan verdere verbeteringen om breakpoints te onderkennen o.b.v. relaties met omliggende stations. Het kan nog beter dan BEST. 😉

    Overigens een compliment aan Boels dat hij zelf gaat rekenen aan KNMI data – dat is zeer prijzenswaardig.

    Like

  10. Jan van der Laan

    Boels(69), je weet toch wel wat een anomalie is? Gezien je herhaalde bijdragen op climategate.nl m.b.t. temperatuureeksen heb ik stellig de indruk van niet, maar ik laat me graag verrassen.

    Watts & D’Aleo begrepen dat in eerste instantie niet (en in laatste instantie wrs nog steeds niet).

    Like

  11. Hier is de BEST analyse (gebruik makend van de “Preliminary “data en code van de Berkeley Earth site) van De Bilt:

    Like

  12. @Jan van der Laan, Bob Brand
    Laat ik dan maar voor kerstman spelen: een anomalie is een afwijking van een gemiddelde (en dat heb ik niet hoeven opzoeken).

    Het gebruik van de anomalie van afzonderlijke meetreeksen is net zo goed of slecht als het gebruik van afzonderlijke gemiddelden van meetreeksen.
    De relatie tussen een anomalie en het gemiddelde is immers 1:1.
    Daardoor is het niet goed mogelijk om meetreeksen die onder verschillende meetregimes zijn verzameld op een hoop te gooien.

    Stel dat het KNMI voor DeBilt slechts één meting per dag zou hebben verricht.
    Welke van de 24 metingen zou je moeten kiezen uit de uurgemiddelde gegevens?
    Die van 2h met een lineaire trend over 1951-2010 van 2,5 K/cy of die van 9h met een lineaire trend van 3,5 K/cy (voor de anomalie maakt de trend niet uit)?

    Ik heb de BEST-metadata gedownload, te veel om op een toch best wel forse PC te verwerken.
    Met name de beperking van Excel 2010 tot 2^20 rijen speelt mij parten.

    Like

  13. @Wipneus:
    Dank, die houden wij er in!

    Like

  14. Een belangrijk verschil is dat een temperatuursanomalie veel beter correleert in de ruimte dan een absolute temperatuur.

    Like

  15. @Bart:
    Dat klopt natuurlijk.
    De vraag (voor mij) is dan wel welke waarde is te hechten aan correlaties van (veel) minder dan 0,5?

    Like

  16. Dit is onjuist:

    Het gebruik van de anomalie van afzonderlijke meetreeksen is net zo goed of slecht als het gebruik van afzonderlijke gemiddelden van meetreeksen.

    Het gebruik van alléén de anomalie per individuele meetreeks (en per station) is véél “beter” dan het gebruik van “afzonderlijke gemiddelden”.

    De systematische fout die in elke individuele meetreeks zit (nogmaals: één homogene reeks PER station en PER periode met identiek instrumentarium/lokatie), zit ook in het “afzonderlijke gemiddelde” per meetreeks.

    En aangezien je dát gemiddelde (met die specifieke systematische fout er in) aftrekt van beginwaarde én eindwaarde van die specifieke meetreeks, valt de systematische fout per meetreeks eruit.

    Er worden nergens een absolute temperaturen bepaald – die hoef je helemaal niet te weten. De systematische afwijkingen in de afzonderlijke meetreeksen interesseren je ook niet meer, want die vallen er uit.

    De fout die overblijft per anomalie, is alleen de niet-lineaire afwijking. Deze niet-lineaire fouten werken dan over een heel klein temperatuursbereik (namelijk alleen die delta). Er zijn andere technieken om die te herkennen en grotendeels te verwijderen.

    Like

  17. @Bob Brand:
    Het gaat mij om de twijfel over het “mengen” van anomalie data van meetstations met andere meetregimes.
    Inzicht in die twijfel vind je door simulatie: uurgemiddelde gegevens opdelen in 24 andere datasets en dan de afzonderlijke trends te bepalen.
    (Of een dataset genereren op basis van de max/min registratiemethode)

    Ik begrijp best dat er met daggemiddelden wordt gewerkt, dat wordt echter moeilijk als slecht één of twee metingen per dag worden gedaan.

    Like

  18. @Bob Brand:
    Nog even:
    Of produceert BEST gegevens per meetregime?

    Like

  19. Boels,

    Het gaat mij er om, éérst duidelijk te maken:

    1) er wordt géén gemiddelde temperatuur op aarde bepaald (dat zou heel onnauwkeurig zijn);

    2) er wordt uitsluitend gebruik gemaakt van anomalieën per homogene meetreeks, zodat de systematische fouten per individuele meetperiode/station er uit vallen;

    3) wat NOAA, BEST etc. rapporteren is dus de ontwikkeling v.d. temperatuursanomalie.

    Het bovenstaande maakt ook duidelijk waarom het géén doodzonde is om een station boven een heet parkeerterrein te hangen: die systematische afwijking (‘too hot’) valt er uit, en alleen het VERSCHIL (de DELTA) van die specifieke meetreeks blijft over.

    Dit geldt overigens voor NOAA, GISS, HadCRU, BEST, etc.

    Wat specifiek de BEST innovatie is, is dat men überhaupt geen homogenisatie meer doet. Zij zijn daar trouwens niet helemaal uniek in, want NOAA gebruikt een vergelijkbare methode maar haalt “breakpoints” tussen individuele meetreeksen vooral uit de metadata.

    De methode BEST heeft extra voordelen: hun detectiemethode onderkent ook stationswijzigingen die ten onrechte niet gedocumenteerd zijn in de metadata, bijvoorbeeld een gebouw dat naast dat hete parkeerterrein wordt opgetrokken. Je kan nog steeds deze metingen gebruiken, maar moet het dan splitsen in twee individuele meetreeksen: vóór/na die omgevingsverandering, met elk een eigen anomalie.

    BEST onderkent dit soort ongedocumenteerde wijzigingen automatisch, en splitst de reeksen.

    Het is nog steeds mogelijk dat er bijv. een UHI effect in de anomalieën overblijft, als steden sneller op zouden warmen dan daarbuiten. BEST heeft dat onderzocht door de anomalieën van Urban/non-Urban te vergelijken, en Urban stations warmen juist iets MINDER SNEL op.

    Een mogelijke verklaring voor dat effect is de grotere warmtecapaciteit van een stedelijke omgeving. Het doet er trouwens niet zoveel toe: ca. 1% van de ‘stationarea’ vertoont deze iets MINDERE anomalie. De individuele meetreeksen worden immers gewogen naar het oppervlak dat ze ‘samplen’. En steden nemen maar weinig oppervlakte in.

    Like

  20. Is het bovenstaande wel duidelijk?

    Vergis je niet: zelfs McKitrick had de clou van deze methode niet begrepen, toen hij in 2003/2004 publiceerde. Pijnlijk. Zoals Jan van der Laan al zegt, blijkt D’Aleo het nog steeds niet te begrijpen!

    Dan wil ik vanavond wel een poging wagen om je volgende vraag te beantwoorden.

    Maar als je het bovenstaande begrepen hebt, kan je het antwoord inderdaad zelf raden. 🙂

    Like

  21. UHI heeft bij mijn genoemde vragen/twijfels geen rol gespeeld.
    Het lijkt mij ook een apart onderwerp.

    En ja, ik kan volgen wat er hierboven wordt gezegd.
    Er worden anomalieën per homogene meetreeks gebruikt.
    Niet duidelijk is hoe dan uit de anomalieën van stations met afwijkende meetregimes een globale duiding wordt verkregen.

    De anomalieën van de geconstrueerde 24 subsets van een uurgemiddelde meetreeks maken voor mij niet duidelijk dat het juist is om resultaten van verschillende meetregimes te mengen met die van andere.

    Like

  22. Jos Hagelaars

    @Boels

    Rare constructie die grafiek van je, maar levert een leuk plaatje op. Ik heb het even nagebootst om te begrijpen wat je nu aan het doen was. Je had dezelfde soort grafiek kunnen maken, maar dan met “gladde” lijnen als je uitgegaan was van het jaargemiddelde van de KNMI – Bilt data. Nu doe ik dat in mijn gedachten als ik jouw grafiek bekijk.
    Maand/Jaardata via: http://www.knmi.nl/klimatologie/maandgegevens/index.html

    Als ik me beperk tot het 30-jarig gemiddelde van de rc’s in jouw grafiek, kun je ruwweg zeggen dat de temperatuur gestegen is tot ~1945, daarna was de rc negatief tot ~1960, een periode waarin de T in de Bilt daalde. Na 1960 is de rc weer positief en de laatste 40 jaar is deze rc waarde groter positief dan in de jaren voor 1945, oftewel de T is de laatste 40 jaar in De Bilt harder gestegen dan voor de oorlogsjaren. Een grove schatting uit mijn eigen nabootsing: tot 1945 gemiddeld ~ +0.1 °C/decennium, dan 20 jaar met ~-0.1 °C/dec. en de laatste 40 jaar ~ +0.3 °C /dec..

    De conclusie die ik nu trek is: het tempo waarin de temperatuur in de Bilt is veranderd, is groter dan het wereldgemiddelde en ook hier heeft de hoofdmoot van de stijging plaats gevonden in de jaren na ~1970.

    Zoals Bob schrijft, als je gaat vergelijken gebruik anomalieën om de stationsverschillen te minimaliseren.
    Ik ben er nooit ingedoken hoe men bij Giss, Best of waar dan ook, al die gemiddelde anomalieën uitrekent. Je kunt het gehele algoritme van Giss downloaden: http://data.giss.nasa.gov/gistemp/sources/
    Ik ga uit van de kwaliteit van de mensen aldaar, de gegevens zijn openbaar, net als de meeste source code. Iedereen met veel meer tijd dan ik kan ze controleren. Ze komen trouwens allemaal nagenoeg met dezelfde uitkomsten, alleen Hadcrut wijkt wat af.

    Als je zelf de BEST data wil analyseren uit hun zip-file, moet je het file-format uitpuzzelen en dan wat software schrijven. Natuurlijk heeft iemand op het internet dat voor je gedaan. Bij woodfortrees kun je de gegevens zien, maar tevens de ruwe data downloaden.
    Ga naar: http://www.woodfortrees.org/plot/best
    Klik op het woord “raw data” rechtsonder.
    Heb je interesse in het algoritme wat Paul Clark daar gebruikt, kijk onder de header “Software” en download ” analyse-0.8.4.tgz”. Kijk in de file “analyse.cc”, het algoritme is vrij simpel (methode read_best).

    PS, heb je de Nederlandse hockeystick grafiek al gemaakt?
    Mocht er iemand interesse hebben, maak ik die even en plaats een link.

    Like

  23. @Jos Hagelaars:
    Dank voor de links.
    Moet wel zeggen dat ik nu ook wel denk aan een oude wijsheid: elke eigen mening heeft z’n prijs; ik zal er meer tijd in moeten steken 😉

    Ik heb bewust niet de jaargemiddelden genoemen omdat ik juist wilde bekijken in hoeverre de periodelengte invloed heeft op het plaatje.

    Ik heb niet de tijd gehad/genomen om de NL-hockey stick te produceren.

    Like

  24. Jos Hagelaars

    Kon het niet laten:

    Like

  25. @Jos Hagelaar:
    Mooie, duidelijke grafiek!
    De MWP en LIA zijn niet opvallend aanwezig?

    Like

  26. Jos Hagelaars

    @Boels

    Al die getallen is voor mij het leukste onderdeel van de klimaatwetenschap. In tegenstelling tot vrijwel alle andere wetenschappelijke sectoren is hier alles nagenoeg openbaar. Voor hobbyisten zoals ik, is dat geweldig.
    Het gemiddelde wat je in mijn grafiek ziet, is een simpel lineair gewogen gemiddelde van ±15 jaar rond een meetpunt, de eerste 15 jaar en laatste 15 jaar van de meetserie lijken derhalve steeds meer op moving averages. Bijv. bij het Met Office gebruiken ze een binomial filter van 21 meetpunten, het idee is echter vergelijkbaar, zie: http://www.metoffice.gov.uk/hadobs/hadcrut3/smoothing.html

    Om het MWP en LIA wat duidelijker te krijgen dan in de grafiek op mijn link, moet je de data over een langere periode middelen dan 15 jaar. Ik heb wat software geschreven om dat snel te kunnen doen. Als ik een lineair gemiddelde van ±50 jaar neem van die KNMI data, wordt de piek van het MWP en LIA duidelijk, alleen neemt de amplitude door al dat middelen af. In De Bilt ligt het maximum in T ergens bij ~1250, het minimum bij ~1590. Het verschil in T tussen die twee jaartallen valt echter volledig in het niet bij de stijging sinds 1970.

    Maar opnieuw, het is alleen maar De Bilt en het zijn “historische” data. Naast de lokaliteit van de meetdata, speelt de kwaliteit van die historische meetdata een rol, wat dan helpt is een statistische analyse over heel veel data, kijk bijv. eens naar:
    http://www.ncdc.noaa.gov/paleo/pubs/frank2010/frank2010.html

    Klik om toegang te krijgen tot frank10nat.pdf

    Bij de eerste link kun je maar liefst data betreffende 521 ensembles van reconstructies downloaden. Trek je eigen conclusies maar.

    Groeten, Jos

    Like

  27. Het maakt volgens mij niet uit welke dataset gebruikt wordt om een beeld te krijgen van de (on)mogelijkheden bij de verwerking van gegevens.
    Van de locatie DeBilt zijn meer dan genoeg historische gegevens voorhanden die mogelijk een effect hebben op de metingen.

    Waar het uiteindelijk om gaat: is er een methode die houdbare toekomstprognoses oplevert en zijn de beschikbare gegevens voldoende.

    Like

  28. Voor toekomstprognoses moet je de belangrijkste werkingsmechanismen kennen en een aanname (of meerdere) maken over hoe die zich zulen gaan ontwikkelen (i.e. scenario’s).

    Like

  29. ‘Voor toekomstprognoses moet je de belangrijkste werkingsmechanismen kennen en een aanname (of meerdere) maken over hoe die zich zulen gaan ontwikkelen (i.e. scenario’s).”

    In die aannames ligt een valkuil opgesloten. Als je weet dat de toekomstprognoses als basis gaan dienen voor beleid, dan kan dat de aannames beinvloeden.
    Het opraken van fossiele brandstoffen (olie, aardgas, steenkool) werd al in de 20e eeuw aangekondigd door o.a. de Club van Rome. Aan het eind van de 20e eeuw kwam peakoil opeens erg dichtbij. De meeste politici zien in dat we moeten afkicken van fossiele brandstoffen.
    En tegen deze achtergrond roepen wetenschappers en politici dat het opstoken van fossiele brandstoffen de ergste bedreiging voor de natuur en de mensheid.

    Ik denk dat het opraken van de fossiele brandstoffen op zich al een ramp is voor de 7 miljard mensen, die er nu zijn. Ik begrijp dat CO2 er als grote boze wolf wordt bijgehaald om ons te helpen om af te kicken.
    De aannames over de werkingsmechanismen worden beinvloed door de wens om de grote boze CO2-wolf, nog angstaanjagender te maken.

    Like

  30. Hans,

    Je haalt *aannames* over toekomstige ontwikkelingen door elkaar met *kennis* van de werkingsmechanismen.

    Like

  31. Ik denk dat ik wel kan stellen dat iedereen het er wel over eens is dat er rond 2100 een globale temperatuurverandering zal optreden; ergens tussen -6K en +6K 😉

    Nu gaat het er om beleidsmakers te voorzien van betrouwbare info op basis van wetenschappelijke inzichten.

    Zowel bij -6K en +6K gaat het om enorme veranderingen in het leefpatroon, gepaard aan gigantische kosten.

    Voorwaar een zware en verantwoordelijke taak voor de wetenschap.
    Wensdenken (aan beide zijden van het klimaatdispuut) en wetenschap zijn onverenigbaar.

    Like

  32. Bart, it’s not what you don’t know, that gets you into trouble.
    It’s what you think you know for sure, that just ain’t so.

    Like

  33. Hans, ik ken een aantal klimaatwetenschappers, en *geen enkele* van deze klimaatwetenschappers denkt ook maar een milliseconde aan “peak oil” als hij/zij erop wijst dat de door onze uitstoot veroorzaakte klimaatverandering grote en onwenselijke maatschappelijke impact zal hebben. Geen enkele.

    Like

  34. Er zijn ook wetenschappers die zich voordoen als klimaatwetenschappers door klakkeloos de IPCC WG1 bevindingen te accepteren en daarna de eventuele gevolgen gaan evalueren.
    Meelifters dus.

    Dat helpt een geïnteresserde leek niet, want hoe herken je die?

    Like

  35. Beste Hans Verbeek,

    ik ben het wel eens met Marco hierboven: er is nog zoveel winbare koolstof in de lithosfeer (volgens recente schattingen ca. 12000 Gton) dat we daarmee (in theorie) de hoeveelheid CO2 in de atmosfeer zouden kunnen vertienvoudigen, als we alles op zouden stoken.

    De atmosfeer bevat nu totaal zo’n 800 Gton koolstof.

    De 12000 Gton in de bodem is natuurlijk maar voor een heel klein deel in de vorm van vloeibare olie, een deel is teerzand of gas, en nog veel meer steenkool en bruinkool. In die 12000 Gton koolstof is nog niet begrepen de minstens 5000 Gton aan methaanhydraten in de diepzee.

    Iemand die dit bestudeert is prof. Ottmar Edenhofer – econoom en IPCC Co-Chair WG III van IPCC 2007.

    Ik heb heel weinig tijd, maar je kan zelf e.e.a. van Edenhofer lezen hier:

    Interview: http://www.nzz.ch/nachrichten/politik/schweiz/klimapolitik_verteilt_das_weltvermoegen_neu_1.8373227.html

    Vertaling: http://rabett.blogspot.com/2010/11/ottmar-repeats-himself.html

    Lees ook: http://www.pnas.org/content/108/21/8533.full

    Verder even Googelen naar Edenhofer voor zijn wat meer recente papers en presentaties. Tot voor kort werden de koolstofreserves veel lager geschat (max. 5000 Gton). Eén van de grote uitdagingen is dat landen met aanzienlijke reserves fossiele brandstoffen in essentie ‘onteigend’ worden door emissiebeperkingen (Edenhofer wijst daarop in het interview).

    De 2-graden doelstelling van Kopenhagen houdt in dat er nog max. ca. 300 Gton van die 12000 opgestookt kan worden. We stoken nu zo’n 8.7 Gton per jaar. Zie verder vooral Edenhofer en het onderzoek waar hij aan refereert.

    Like

  36. Boels, de klimaatwetenschappers die ik ken zijn op één na prima in staat om WG1 fysica the begrijpen.

    De geïnteresseerde leek zou zich niet moeten bezig houden met de mening van een andere ‘geïnteresseerde’ leek die een samenzweringstheorie aanhangt zonder daar ook maar een schrijntje bewijs voor aan te dragen (ja, Hans, ik refereerde aan jou).

    Like

  37. @Marco:
    Uh, ben je een wetenschapper in een tak van wetenschappen als je het kunt begrijpen?

    @Bob Brand:
    De laatste decennia wordt de bewezen fossiele reserve jaarlijks steeds op rond 40 jaar geschat.

    Like

  38. Boels, niet noodzakelijkerwijs. Ik ken een ornitholoog die onderzoek doet naar klimaatverandering en veranderingen van migratiepatronen. Hij hoeft niet veel te snappen van de fysica om dat onderzoek te doen. Gezien zijn onderzoek durf ik hem een klimaatwetenschapper te noemen.

    Like

  39. Beste Boels,

    De koolstofreserves in de bodem (ca. 12000 Gton) zijn voldoende om, bij huidig verbruik, nog een jaar of 800 á 900 vooruit te kunnen – niet veel langer, want synthetische diesel etc. produceren uit steenkool is niet erg efficiënt. Een voorbeeld zijn de Fischer-Tropsch processen zoals die al door de Nazi’s tijdens WOII werden gebruikt om ‘ersatz’ brandstoffen te produceren.

    Het bovenstaande laat de methaanhydraten (‘clathrates’) nog buiten beschouwing – dat zou zo’n 500 jaar aan fossiele brandstoffen kunnen toevoegen.

    Als men het heeft over “nog 40 jaar”, dan gaat het alleen over BEWEZEN reserves, en alleen “conventional fuels”. Geen wonder dat dit altijd 40 jaar is – zover kijken exploratie&productie bij de grote maatschappijen namelijk vooruit. Dat wil niet zeggen dat de resterende koolstofreserves erg makkelijk, milieuvriendelijk of goedkoop te winnen zijn.Coal-to-liquids is duur, duurder nog dan gas-to-liquids.

    In principe kunnen dezelfde processen óók benut worden om biodiesel te maken uit:

    kooldioxide in de atmosfeer + zonne-energie –> biomassa, algen etc. –> koolwaterstoffen

    Het probleem zit ‘m NIET in koolstof op zich: daar is genoeg van, en je kan het eindeloos rondpompen (mits aangedreven door zonne-energie).

    Het probleem zit ‘m wél in het dumpen van alle koolstof – die eerst onder de grond zat – in de atmosfeer!

    Like

  40. Oeps, te haastig – hierbij met de tags op de juiste plek:

    De koolstofreserves in de bodem (ca. 12000 Gton) zijn voldoende om, bij huidig verbruik, nog een jaar of 800 á 900 vooruit te kunnen – niet veel langer, want synthetische diesel etc. produceren uit steenkool is niet erg efficiënt. Een voorbeeld zijn de Fischer-Tropsch processen zoals die al door de Nazi’s tijdens WOII werden gebruikt om ‘ersatz’ brandstoffen te produceren.

    Het bovenstaande laat de methaanhydraten (‘clathrates’) nog buiten beschouwing – dat zou zo’n 500 jaar aan fossiele brandstoffen kunnen toevoegen.

    Als men het heeft over “nog 40 jaar”, dan gaat het alleen over BEWEZEN reserves, en alleen “conventional fuels”. Geen wonder dat dit altijd 40 jaar is – zover kijken exploratie&productie bij de grote maatschappijen namelijk vooruit. Dat wil niet zeggen dat de resterende koolstofreserves erg makkelijk, milieuvriendelijk of goedkoop te winnen zijn.Coal-to-liquids is duur, duurder nog dan gas-to-liquids.

    In principe kunnen dezelfde processen óók benut worden om biodiesel te maken uit:

    kooldioxide in de atmosfeer + zonne-energie –> biomassa, algen etc. –> koolwaterstoffen

    Het probleem zit ‘m NIET in koolstof op zich: daar is genoeg van, en je kan het eindeloos rondpompen (mits aangedreven door zonne-energie).

    Het probleem zit ‘m wél in het dumpen van alle koolstof – die eerst onder de grond zat – in de atmosfeer!

    Like

  41. @Marco:
    Maar noemt de ornitholoog zichzelf een klimaatwetenschapper?
    Als dat zo is, dan moet ik CV’s van iedereen die iets roept over het klimaat er bij nemen.
    ’t Is maar dat ik het weet 🙂

    Like

  42. Jos Hagelaars

    Er zijn ook een stel niet-wetenschappers die zich een beetje voordoen als klimaatwetenschapper en jan en alleman vertellen dat global warming een hoax is. De zinnen beginnen vaak met “I’m not a climate scientist but…”.
    Van de weeromstuit doen de wetenschappers net alsof het musici zijn, klik op de link “The Climate in Chicago” onder videos (om te voorkomen dat hier een youtube geplaatst wordt) :
    http://geosci.uchicago.edu/people/archer.shtml
    Er is zelfs een rapsong met exact hetzelfde intro-filmpje, maar rap is niet zo mijn ding:
    http://greenfyre.wordpress.com/2011/05/11/rap-attack-im-a-climate-scientist/

    Like

  43. Boels, soms doet hij dat, afhankelijk van het forum. Zijn onderzoek is namelijk tweeledig: effecten van klimaat op migratie, en vice versa, wat migratiepatronen zeggen over het klimaat.

    Like

  44. @Marco & @Bob Brand: ik heb me in peakoil en het opraken van de fossiele brandstoffen verdiept.
    De koolstofreserves zijn niet de maatstaf om de toekomstige CO2-uitstoot te bepalen.Het gaat erom welke fossiele brandstoffen economisch en fysiek winbaar zijn.
    De makkelijk winbare fossiele brandstoffen zijn op. Olie uit teerzand halen gaat trager dan olie, die spontaan uit de grond spuit. De netto-opbrengst (EROEI) is ook lager.
    Hetzelfde geldt voor aardgas. Het gas uit Slochteren spuit spontaan uit het zandsteen. Om aardgas uit schalie te winnen, moet je het gesteente openbreken. De netto-opbrengst (EROEI) is lager: schaliegas is veel duurder dan conventioneel aardgas.
    Ook de makkelijk winbare steenkool raakt op. Er moet steeds dieper gegraven worden; de steenkool die we gebruiken bevat steeds minder koolstof.
    Deze trend is onomkeerbaar.
    Sommige fossiele brandstoffen zullen altijd economish onrendabel blijven: we zullen ze nooit naar boven halen, tegen die tijd zullen we overschakelen op zon, wind en spierkracht. Als benzine 10 euro per liter kost, zullen heel, veel mensen gaan fietsen of lopen.

    Vergelijk het met de winning van uranium: in principe kun je uranium winnen uit zeewater. Maar dat proces gaat zo traag en de opbrengst is zo laag dat het meer energie zal kosten om het uranium te winnen en te zuiveren dan je er ooit uit kunt halen.
    Om de entropie te verlagen en het uranium uit het zeewater te winnen, moet je energie investeren. Als de netto-energie-opbrengst (EROEI) lager is dan 2, dan is het niet de moeite om eraan te beginnen.

    Peakoil is al geweest (in 2006). De huidige economische problemen worden mede veroorzaakt door de dalende EROEI van fossiele brandstoffen. De makkelijk winbare olie en steenkool zijn op. We moeten meer energie steken in het winnen van fossielle brandstoffen dan we gewend waren. Dat betekent dat er minder energie overblijft voor de rest van de economie.
    Dit proces is onomkeerbaar.

    Like

  45. Hans, je hebt nog steeds geen bewijs aangedragen dat “peak oil” de reden is dat klimaatwetenschappers en politici waarschuwen voor klimaatverandering door CO2 uitstoot.

    Like

  46. @Bob Brand:
    Ik heb drie jaarreeksen samengesteld op basis van de uurgemiddelde reeks van De Bilt (1951-2010):
    – de gebruikelijke jaargemiddelde waarden
    – de jaargemiddelde waarden op basis van de MaxMin meetmethode
    – de jaargemiddelde waarden op basis van één meting per etmaal

    De wat slordige grafiek (hoe ouder ik wordt hoe sneller de tijd lijkt te verlopen) staat hier:
    http://www.boels069.nl/klimaat/trend/DeBiltDiff.pdf

    Like

  47. Wat wil je dat ik bewijs, Marco?
    Niemand gaat roepen dat het klimaat verandert, maar dat het helemaal geen probleem is want over 30 jaar gebruiken we sowieso veel minder fossiele brandstoffen.
    Iedereen probeert juist te benadrukken dat we nog wel 100 jaar kunnen doorgaan op de huidige voet, dat de fossiele brandstoffen nog helemaal niet schaars zijn. Bob Brand zegt zelfs dat er nog voor 800 jaar genoeg koolstof is.

    Ik kan dus niets bewijzen.
    Het afkicken van fossiele brandstoffen is een gemeenschappelijke doelstelling voor de grenzen-aan-de-groei-mensen zoals ik en de klimaatbeschermers.

    Het gebruik van biobrandstof is ons verkocht als een maatregel om de klimaatverandering te stoppen. Maar het werd een manier om onze luxe levensstijl nog een paar jaar langer vol te kunnen houden.
    Als we geen biobrandstof waren gaan gebruiken moesten we nu elke dag 2 miljoen vaten aardolie meer uit de grond halen. Ik betwijfel dat dat mogelijk is.
    Zonder biobrandstof was de olieprijs al veel hoger opgelopen en hadden nu al veel meer mensen hun auto weggedaan.

    Like

  48. Zonder biobrandstof waren er ook minder hongerigen.

    Aardolie, aardgas en steenkool zijn ook bio.

    Like

  49. Hans,

    Zoals ik al vaker heb aangegeven, en jij impliciet ook doet, is het een issue van duurder worden van fossiele brandstoffen omdat de makkelijkst winbare voorraden langzaam uitgeput raken. Maar er is in absolute zin nog meer dan genoeg; het wordt een tikkie duurder.

    Het probleem is niet dat er te weinig fossiele brandstoffen zijn, maar te veel. We moeten onszelf een rem opleggen als we het klimaat enigszins stabiel willen houden, want tegen echte, fysieke grenzen van beschikbaarheid lopen we nog lang niet aan (in ieder geval niet wat betreft kolen en gas).

    Like

  50. Hans, ik wilde dat je bewees dat CO2 en klimaatverandering er bij zijn gehaald vanwege angst voor “peak oil”. Dat kan je niet. Prima, weten we dat ook weer.

    Enne…in feite is de huidige prijs van olie nog steeds lager dan die begin jaren tachtig(!). Inflatiegecorrigeerd.

    Like

  51. @Bart en Marco: de prijs in euro’s of dollars uitgedrukt is geen probleem Bart.
    We maken er gewoon euro’s en dollars bij. Of we lenen ze van de ECB.
    In de afgelopen 10 jaar is de prijs van olie (en van aardgas) verviervoudigd. En we kunnen er nog steeds evenveel van kopen.

    Het grote probleem is de Energy Return on Energy Invested.(EROEI)
    Het kost steeds meer energie om dezelfde hoeveelheid aardolie (of aardgas of steenkool) naar boven te halen.
    Bij een EROEI van 20:1 wordt er 5% van de gewonnen olie verbruikt voor de oliewinning zelf.
    Als de EROEI terugloopt naar 10:1 dan is 10% van de gewonnen energie nodig om energie te winnen voor de volgende dag.
    Bij de winning van olie uit teerzand bedraagt de EROEI 3:1. Een derde van de olie, die gewonnen wordt uit teerzand, wordt verbruikt om de olie uit het teerzand te halen.
    Dat is nog altijd rendabel zul je zeggen. Maar onderzoekers denken dat onze huidige samenleving een minimum EROEI van 7:1 of 8:1 nodig heeft.
    Dat betekent dat we zullen stoppen met het afgraven van teerzanden en ook het schaliegas zullen laten zitten waar het zit.

    Ik ben geen klimaatdeskundige, maar ik zie deze discussie in een breder perspectief. We gaan een nieuwe recessie in. Er wordt minder geproduceerd en minder geconsumeerd. De CO2-uitstoot zal door deze recessie weer sterk dalen. Niet omdat we zo graag onze Kyotodoelstellingen willen halen, maar omdat onze economische activiteit moet krimpen. We moeten onze levensstijl aanpassen aan een dalende EROEI van de winning van fossiele brandstoffen.
    Deze trend is onomkeerbaar: de EROEI zal steeds verder dalen.

    Like

  52. Laatste opmerking: op climategate.nl roepen de skeptici om het hardst dat peakoil onzin is en dat er nog voor 100 jaar fossiele brandstoffen zijn.
    Hier op dit weblog roepen de klimaatbeschermers hetzelfde.
    Misschien heb ik het wel helemaal mis 🙂

    Like

  53. Beste Hans Verbeek,

    Het gaat niet om ‘peak oil’.

    Weliswaar is de EROIE-verhouding niet erg gunstig voor de winning van olie uit teerzanden, maar de energie die voor deze winning ingezet wordt komt helemaal niet uit olie. Daarvoor wordt steenkool, gas of nucleair ingezet (elektriciteitsproductie) en de kosten daarvan zijn weer een onderdeel van de uiteindelijke olieprijs.

    Verder is van steenkool, bruinkool of aardgas zonder veel moeite petroleum-gebaseerde brandstof te maken, zoals dat voor praktisch alle diesel en benzine in Zuid-Afrika geldt:

    http://en.wikipedia.org/wiki/Fischer%E2%80%93Tropsch_process

    Verder geven de cijfers geven je geen gelijk:

    * ondanks veronderstelde schaarste en hoge prijzen, is het totale gebruik van fossiele brandstoffen in 2010 met 5.9% toegenomen;

    * de groei in het gebruik van fossiele brandstoffen over 2001-2010 was gemiddeld +3.1% per jaar, 3 x zo hoog dan de groei 1991-2000;

    * hoewel de energieprijzen stijgen, daalt de hoeveelheid energie per eenheid produkt (GDP), waardoor het “aandeel energie” in de prijs van een eindprodukt dalende is;

    * De totale hoeveelheid produkt neemt echter nog veel sneller toe:

    Motivated by the first oil crisis, humankind was able to reduce the primary energy input required to produce one GDP unit (the so-called primary energy intensity) und is expected to do so further in the future (see Fig. 1b). Unfortunately, the historical improvements in energy intensities were not sufficient to fully offset the GDP growth, resulting in increased energy consumption.

    Zie: http://aachen2050.isl.rwth-aachen.de/mediawiki/images/a/ac/PIK-Global_sutanilblity_16-21.pdf

    Het is vooral de zeer sterke groei van de energieconsumptie in de ‘emerging economies’ die voor deze toename zorgt (ondanks verbeteringen in de energy intensity) – zie fig. 1 en fig. 2 in bovengenoemde PDF. Over de periode 2000-2100 wordt verwacht:

    10 x grotere GDP wereldwijd
    5 x grotere energieconsumptie

    Vooral op basis van steenkool… en gas, 😦

    Like

  54. Bob, ik geloof dat er iemand bij PIK last heeft van dislexie: sutanilblity?!?
    😉

    Like

  55. Hoi Marco,

    Ja, er staat ook nogal wat ‘german english’ in: “und”, “oder’ etc. trof ik ook aan…neemt niet weg dat het interessante lectuur is. Aangezien de bezetting van het PIK grotendeels Duits is, zal hun voertaal niet het Engels zijn zoals op sommige institituten. 😉

    Deze presentatie van Edenhofer is ook interessant, vooral sheet nr. 3:

    Klik om toegang te krijgen tot 18.pdf

    Je ziet daar de verhouding tussen wat al opgestookt is vs.:

    – reserves (‘proven’, wat altijd maar een klein deel is) en
    – total resources.

    Coal past niet eens in de grafiek.

    Like

  56. Bob Brand schreef:
    “Het bovenstaande maakt ook duidelijk waarom het géén doodzonde is om een station boven een heet parkeerterrein te hangen: die systematische afwijking (‘too hot’) valt er uit, en alleen het VERSCHIL (de DELTA) van die specifieke meetreeks blijft over.”

    Eerder postte ik deze grafiek:

    Klik om toegang te krijgen tot DeBiltDiff.pdf

    Gaarne commentaar.

    Like

  57. Jos Hagelaars

    Boels, voordat iemand zijn hoofd over je grafiek breekt, kun je er wat uitleg bij geven, zoals:
    wat staat er op de Y-as, wat zijn die anomalieën, wat wil je aantonen met je grafiek en wat heeft het met Bob’s zin te maken?

    Like

  58. Y-as: anomalie in K
    Op basis van uurgemiddelden DeBilt 1951-2010 grafieken van:
    – anomaly avg: jaargemiddelde van alle uurgemiddelden
    – anomaly Min/Max: jaargemiddelde van het etmaalgemiddelde op basis van (Tmax-Tmin)/2
    – anomaly 9h: jaargemiddelde op basis van de uurgemiddelden van 9h

    De bedoeling is mijn twijfel te illustreren over het gebruik van metingen die verkregen zijn onder een verschillend meetregieme voor de bepaling van één mondiale trend.

    Het zou mooi zijn als er meetstations zijn die de hierboven genoemde meetregiemen synchroon toepassen; voor zover ik weet zijn die er niet.

    Vandaar de poging om uit een bestaande meetreeks twee andere meetreeksen samen te stellen en de gemiddelden en anomalieën te bepalen.

    Like

  59. Verschrijving: het moet (Tmax+Tmin)/2 zijn.

    Like

  60. Jos Hagelaars

    Boels,

    Ik kan je grafiek redelijk snel reproduceren als ik voor het gemak even uitga van de jaargemiddelden van de waarden Tg, Tn en Tx, te downloaden via http://www.knmi.nl/klimatologie/daggegevens/selectie.cgi.

    De anomalie grafiek van Tg bepaal ik dan door het gemiddelde in Tg te nemen over alle jaren en als Y-waarde de Tg van het jaar – de gemiddelde Tg te nemen. De rc die ik krijg, is vervolgens +0.0280 °K/jaar, als ik je grafiek goed lees heb jij +0.0282 °K/jaar, immers de lichtblauwe stippellijn heeft de middelste rc. Komt goed overeen derhalve.

    Je rode grafiek kan ik reproduceren als ik, zoals je in eerste instantie schrijft, (Tmax – Tmin)/2 neem. De rc die ik dan krijg is +0.0038 °K/jaar. Jij hebt 0.0047 °K/jaar, wat redelijk goed overeen komt. De vorm van mijn grafiek lijkt zeer veel op de jouwe, bijv. de piek bij 2003 van ca 1 °K. 2003 was een jaar waarin de Tmax en Tmin verder uit elkaar lagen dan in andere jaren.
    Neem ik echter, zoals je in tweede instantie schrijft, (Tmax+Tmin)/2 dan krijg ik nagenoeg dezelfde grafiek als de anomalie Tg grafiek, met een rc van 0.0270 °K/jaar.

    Kun je eens controleren of je je niet vergist hebt in het +/- teken bij je rode grafiek?
    Ik vind niet dat het voor je conclusie veel uitmaakt of je nu uurwaarden, dagwaarden of maandwaarden gaat middelen, je kunt jezelf wel een hoop tijd besparen met die keuze.

    Ik concludeer uit deze reconstructie dat de trend in anomalie in T over de periode 1951 – 2010 in de Bilt ~ +0.27 °C per decennium is, een stuk hoger dan de Giss-T, die over dezelfde periode ~ +0.11 °C per decennium is.

    Like

  61. Jos Hagelaars

    PS,
    Het verschil tussen de Tmax en Tmin voor de Bilt wijkt af van de observaties van de gemiddelde wereldtemperatuur. Van die laatste zegt men:
    “Observed DTR over land shows a large negative trend of ~0.4°C over the last 50 years that is very unlikely to have occurred due to internal variability.”
    Dit is typisch een verschijnsel dat samenhangt met het opwarmende effect van broeikasgassen, zie: http://www.skepticalscience.com/its-not-us-advanced.htm
    In de Bilt daalt het verschil tussen Tmax en Tmin niet, de trend is zelfs licht positief over de periode 1951 – 2010. Waarschijnlijk omdat hier de T sneller is opgelopen dan het wereldgemiddelde met die 0.27 °C per decennium.

    Like

  62. @Jos Hagelaar:
    Heel erg bedankt voor de opmerkingen!!
    Er zit inderdaad een fout in het rekenblad (Tmax/Tmin, rooie kop) en ik ga de rekenbladen met een “peer” bekijken of er nog meer fouten zijn ingeslopen.
    Ik zal dan de verbetering in een vervolgblad van de PDF laten zien; de link blijft hetzelfde,.

    Like

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s