Een gastbijdrage van Pjotr’s dwarsliggers (België).
De spijbelende klimaatjongeren hebben wetenschappers gevraagd om hun klimaateisen om te zetten in concrete beleidsmaatregelen. Dat is een stap in de goede richting. Om ook te slagen is er één belangrijke voorwaarde: dat de wetenschappers onafhankelijk zijn en de wetenschap de énige basis is en niet een politieke interpretatie ervan.
In De Telegraaf schreef chemicus en theoloog Jaap Hanekamp over ‘De gevaren van de klimaatutopie’ onder meer het volgende:
“Er worden twee wereldbeelden geschetst. De dystopie: de samenleving die ten onder gaat aan droogte, zeespiegelstijging en opwarming. En de utopie: een stabiel klimaat als wereld die voor iedereen geweldig is. In zijn Nobelprijslezing zegt Al Gore het fenomenaal mooi. ’We are what is wrong and we must make it right’. Wij hebben de boel verkloot, dus wij moeten de boel opruimen.
Jouw mening als burger doet er niet toe. Het klimaatdebat is bij uitstek utopisch omdat de elite pretendeert de waarheid in pacht te hebben. Wij weten wat we moeten doen, en als we dat doen, dan wordt de wereld mooier, groener en veiliger. Vanuit mijn studie naar utopieën herken ik dit soort stuiptrekkingen ogenblikkelijk. In feite zegt de elite: geachte burger, u bent niet handelsbekwaam. U kunt niet met uw geld omgaan, lever dat maar in als belasting. Dat is nou utopie tot op het bot.”
De chemie is veel ouder dan de klimaatwetenschap. Wij ruziën al honderden jaren over allerlei fenomenen. Recent nog over quasikristallen. De goegemeente zei: die kunnen niet bestaan. Daniël Shechtman zei: ze bestaan wel. Hij leverde bewijs en kreeg de Nobelprijs. Maar dan komt de klimaatwetenschap, die bestaat 30 à 40 jaar, en die stelt dat men de waarheid al in pacht heeft. Het is CO2 en niets anders. Werkelijk? Dan heb je geen benul van de geschiedenis van de wetenschap. Kom over tweehonderd jaar nog eens terug.
Zijn afsluitende paragraaf zouden alvast alle politici, journalisten en spijbelende jongeren best ter harte nemen: “Het dwingende gelijk van klimaatverandering vind ik verontrustend. Wie moreel afwijkt, krijgt te horen: jij blokkeert de route naar de toekomst. Je mag niet meer vliegen! Foei wat een grote auto! En de utopie draagt altijd een element van geweld in zich. Nu is dat nog mentaal en psychologisch. De dwang gaat niet alleen over denken, maar ook over doen.”
In België is met die spijbelende jongeren de situatie nog veel erger, want hier wordt de utopie zelfs onderwezen in de scholen, en wordt jongeren wetenschappelijke informatie onthouden wanneer die niet overeenstemt met de ‘consensus’.
Intussen horen we reeds opperen dat wetenschappers niet mogen beslissen in een democratie. Dat klinkt aanvaardbaar, tenzij politici deze stelling gebruiken om de wetenschappelijke adviezen te interpreteren op basis van hun politieke visie. Hetzelfde als het IPCC al doet: de wetenschappelijke informatie uitdunnen tot enkel die elementen overblijven die hun wereldvisie ondersteunen. Daarom is de kans groot dat het een maat voor niets wordt.
In een latere bijdrage zullen we wetenschappelijk aantonen dat de IPCC-gestuurde conclusies botsen met wetten uit de fysica en de thermodynamica. Maar laten we beginnen met een bijdrage over de oorsprong van het publieke klimaatdebat. Het alarmisme begon met een toespraak voor het Amerikaanse Congres door NASA-wetenschapper James Hansen.
Hoe de dramatiek van de klimaatzaak berust op een minuscule fout.
Stel u even voor dat u als Amerikaans parlementslid luistert naar een toespraak van een betrouwbaar NASA-wetenschapper die aan de hand van een grafiek toont hoe de aarde door de opwarming afstevent op een enorme stijging van de zeespiegel. Al Gore nam toen het initiatief om daar een publieke zaak van te maken. Met zijn professioneel gemaakte film ‘An Inconvenient Truth’ sensibiliseerde hij de ganse wereld voor de dramatische toekomst, die wereldwijd regio’s waaronder Vlaanderen onder water zou zetten.
Hieronder de grafiek waarmee Hansen en het IPCC met succes de politiek overtuigden van de ‘sense of urgency’. (gegevens vervolledigd met de data van de laatste jaren):
Bekijken we deze grafiek eens van dichtbij. Het gaat over de stijging van de zeespiegel waarin we twee knikken (‘hockeysticks’) zien. De eerste situeert zich rond het jaar 1930 en de tweede zeer belangrijke net voor het jaar 2000. Het eigenaardige is dat die hockeysticks niet terug te vinden zijn in de metingen van die tijd.
Ziehier de werkelijke metingen in die periode op enkele plaatsen:
Zeespiegelstijging in Nederland (1,7 mm/jaar):
Zeespiegelstijging in New York
Zeespiegelstijging in Seattle
Hoe verklaart men dan die ‘hockeysticks’ die telkens leidden tot een grotere toename per jaar van de zeespiegelstijging?
Wanneer we opnieuw goed kijken, merken we op dat op de curve ‘adjusted’ staat. Wat u zich hierbij moet voorstellen, want een verklaring werd nooit gegeven, is dat u hier niet de ruwe data ziet maar ‘aangepaste’ data. Hoe men die aanpaste, wordt geheim gehouden en dat is niet wetenschappelijk, want niet reproduceerbaar.
Laten we vooral aandacht hebben voor de tweede knik, net voor het jaar 2000. Als je zo’n knik in een curve ziet, is de eerste vraag: “Wat is daar gebeurd?” In dit geval is het antwoord extreem simpel, en het staat zelfs op het plaatje: de meetmethode is veranderd. Nu mag je, als experimentele fysicus, NOOIT midden in een tijdreeks de meetmethode veranderen. “Ook niet als het om een veel betere methode gaat? Ook dan niet: NOOIT”. Ziehier waarom dat niet mag:
De gebruikte techniek voor het rode deel van de curve is radaraltimetrie. Een radarapparaat aan boord van een satelliet meet de afstand tot het wateroppervlak. Als we ook de hoogte van die satelliet kennen weten we de exacte zeespiegelhoogte. Maar… hoewel we de hoogte van die satellieten vrij nauwkeurig kunnen meten, zit er toch nog een standaardafwijking van enkele meters op. Bedenk dat we verschillen in de grootteorde van millimeters willen meten! Dus: de methode is onvoldoende precies.
Nu is de reproduceerbaarheid van die radarmeting veel beter dan de absolute hoogtebepaling. Daar gaan we naar de tienden van een millimeter. Mocht die satelliet op precies dezelfde hoogte blijven waren we klaar, want dan moeten we enkel verschillen meten, en dat gaat nauwkeurig genoeg.
Maar die satelliet blijft niet op een constante hoogte. Ze moet – volgens de tweede wet van de thermodynamica – zakken, zij het ook heel traag. Dat dalingstempo kan NASA uitrekenen. Dus toch weer alles in orde. Noteer echter wel dat dit al lang geen ‘primaire’ meting meer is: er komen ingewikkelde en niet-controleerbare berekeningen aan te pas, en een directe ijking is niet mogelijk. Nu heeft NASA daarbij een – vergeeflijke – zeer kleine, zelfs minuscule fout gemaakt. Die satellieten dalen per jaar bijna 2 mm meer dan berekend. Daardoor schijnt de zeespiegel dus die twee millimeter per jaar meer te stijgen dan hij in werkelijkheid doet. Dat is de hele verklaring voor die hockeystick.
De bedoeling van Hansen en het IPCC was duidelijk om de wereldwijd de politici te overtuigen van een ‘sence of urgency’; de noodzaak om dringend maatregelen te treffen.
Deze grafiek toont niet alleen een verdubbeling van de jaarlijkse zeespiegelstijging in vergelijking met de werkelijke metingen aan de kade. Met deze grafiek wordt op een subtiele manier de ‘sence of urgency’ gevisualiseerd door de gemeten stijging aan de kade (1,7 mm/jaar, constant over de hele periode) te vervangen door een steeds snellere én grotere stijging van de zeespiegel in deze grafiek: van 0,6 mm/jaar over 1,4 naar 3,3 mm/jaar of bijna ZES maal meer dan bij het begin van de grafiek. Meteen was de toon gezet: het klimaat is op hol geslagen!
De afgevaardigden in het Congres zagen de ondergang van de wereld voor ogen. Vanaf dan nam de wereld zoals we ze vandaag kennen haar loop. Mijnheer Al Gore sloeg er met zijn emissiecertificaten een zeer lonend slaatje uit. Die film was echt een goede investering! Het grootkapitaal en de industrie positioneerden zich in de nieuwe situatie. Niemand kwam op het idee dat de data fout zouden kunnen zijn. Maar dat waren ze: niet vervalst, maar volledig ‘bona fide’ gewoon verkeerd. En daarbij was het zo gruwelijk simpel… Maar eens beweerd, zeker voor het US Congres, moet zoiets blijven staan. Dus werd die ‘hockeystick’ over de jaren hardnekkig verdedigd. Vergeet niet dat het IPCC een politiek orgaan is en dus veel meer geïnteresseerd aan gelijk krijgen dan gelijk hebben!
Toen het echt niet meer anders kon “bedacht” klimaatwetenschapper Dr. Michael E. Mann een statistische evaluatiemethode die de gewenste ‘hockeystick’ bij alle klimaatdata (temperaturen, zeeniveau etc.) blijft produceren. Tot twee Canadezen, McKitrick en McIntyre, Mann zijn bedrog openlijk aan de kaak stelden. Ze toonden aan dat de methode van Mann altijd een ‘hockeystick’ produceert, met gelijk welke dataset, ook met toevallige getallen!
Mochten er onder de lezers na deze informatie toch nog twijfelen, dan raden we hen aan om deze film van de Nederlandse geoloog Salomon Kroonenberg eens te bekijken. Met deze bijdrage toont hij aan dat wetenschap ook toegankelijk is voor leken mits ze ‘gebeten zijn om te wéten’. In dit geval ook om te wéten wat men met hun geld allemaal wil doen en of dat wel efficiënt is en niet alleen rendabel voor een elite en ideologische belangengroepen.
Waarde lezers,
Ik weet het, zo een duidelijke en naar gevolgen kapitale fout zou nooit mogen kunnen. Maar bedenk dat het niet de eerste keer was. Toen een Amerikaanse professor in spinazie beduidend meer ijzer vond dan mogelijk is, kregen alle kinderen wereldwijd het voorbeeld te zien van Popeye the Sailor die zijn kracht haalde uit spinazie. Dat de professor kort nadien een stupide fout vond in zijn berekening – hij had de komma verkeerd gezet en had dus tien maal meer ijzer gerapporteerd dan er was – en zijn fout ook onmiddellijk publiek maakte, werd dat gewoon genegeerd. Popey the Sailor was veel belangrijker dan een banale fout.
Dus ja, beste lezers, we zijn nog altijd even gedweeë mensen die elke rattenvanger achternalopen, ook al weten we in dit geval dat de wetenschappelijke basis van het klimaatalarmisme stoelt op bewezen fouten.
We moeten dringen het boek van Barbara Tuchman De Waanzinnige 14de Eeuw herlezen.
We kunnen alvast een nieuwe versie plannen met als titel De Waanzinnige 21ste Eeuw.
Bron hier.
Over het meten van het zeeniveau dan wel de stijging van het zeeniveau als logisch gevolg van AGW is al veel geschreven. Op site BV in zoekkader even zeespiegel invullen en er staan daar een aantal artikelen met veel informatie. Ook ik heb daar een aantal malen gereageerd. Opvallend is dat de diverse satellieten ook in overlap verschillende trends laten zien.
Frans
Gezien de lage groeisneheid vd zeespiegel is de discussie hier van het niveau van spijkers op laag water zoeken. Er is geen enkel gevaar vd zeespiegel te duchten bij een groei van 1,9 mm per jaar.
En mocht de maan op de aarde storten of heel Antarctica in de zee storten dan zien we wel weer. Dan passen we ons aan.
@Boels 24 feb 2019 om 13:00,
Ik begin even terug aan de kantlijn…
er is niets stochastisch aan het weer of klimaat.
Daar wil ik je wel in volgen, maar dat betekent NIET dat je bepaalde aspecten hiervan niet stochastisch kunt benaderen en zeker als het gaat over metingen van bepaalde parameters/verschijnselen.
Ronald is bezig met een afleidingspoging
Eerlijk gezegd denk ik het niet, er valt wel degelijk iets te zeggen over de metingen van klimaatparameters. En blijkbaar heeft hij hierover – kan in een andere context zijn overigens – kennis opgedaan die hij met iedereen hier wil delen. Ik ben wel geïnteresseerd eigenlijk en zou dan ook een soort aftrap willen geven…
Omdat ik niet direct gegevens heb over zeespiegelmetingen, stel ik voor om temperatuurgegevens te gebruiken. Info voor De Bilt is eenvoudig downloadbaar en geeft bijvoorbeeld voor 22 en 23 februari volgende daggegevens:
en volgende uurgegevens voor 23 februari:
We moeten er dus van uitgaan dat de meetfout steeds 0.5 tienden °C bedraagt, m.a.w. de gem. temp op 23 feb lag ergens tussen 68.5 en 69.5 (tienden °C), met in principe een gelijke kans voor alle tussenliggende waarden. Laten we dit noteren als [68.5,69.5]
Laten we nu het gemiddelde van min en max temp berekenen: voor 23 feb geeft dit
[21.5,22.5] + [123.5,124.5] gedeeld door 2, of [72.5,73.5] en je zou dit dus evengoed kunnen noteren als 73 (tienden °C)
Maar voor 22 feb hebben we een klein probleempje:
[55.5,56.5] + [114.5,115.5] gedeeld door 2, is [85,86] en eigenlijk zouden we dit nu moeten noteren als 85.5; als we nu geen meetfout vermelden zou ons dat onterecht kunnen doen besluiten dat de meetfout nu nog slechts 0.05 (tienden °C) is…
Door het gemiddelde te nemen van 2 metingen met een meetfout van 0.5 hebben we eigenlijk een “half” significant cijfer toegevoegd – dit cijfer kan immers enkel 0 of 5 zijn – en zouden we dus voor 23 feb moeten schrijven: 85.5 ± 0.5
Het wordt natuurlijk ingewikkelder als we meerdere waarden middelen, bijv. om uit de 24 uurgegevens het dagcijfer te berekenen, maar ik vermoed dat dit het moment is dat Ronald zijn expertise wil laten spreken.
Enkel nog even een opmerking om het verschil tussen meetfouten en standaarddeviatie te benadrukken: de 24 uurgegevens hebben alle een meetfout van 0.5, terwijl de standaarddeviatie van de 24 metingen gelijk is aan 29.6
@Ronald,
Zie je het zitten om hier verder op in te gaan?
Danny, Boels,
Het is inderdaad helemaal niet bedoeld als afleidingspoging. Integendeel. Ik probeer een brug te bouwen tussen de 2 kampen hier op CG.
Zeespiegelstijging leek me een mooi voorbeeld om uit te leggen hoe je op een nauwkeurigheid van orde mm kunt komen op basis van afzonderlijke meetpunten met een nauwkeurigheid van ‘slechts’ orde enkele cm. Dat begrijpt men hier niet.
Maar goed, ik wel zeker meegaan met Danny’s voorstel, maar dan wil ik graag dat Boels hier ook aan meedoet. Danny’s voorbeeld is een goede omdat Boels hier altijd een punt van maakt (van daggemiddelden die volgens hem niet kloppen), maar nooit concreet laat zien hoe het dan beter moet. Dit is dus een mooie gelegenheid.
Dus Boels, zie je het zitten om hier verder op in te gaan?
Zo ja, dan kun je dat laten blijken door een eerste reactie te plaatsen op Danny’s berekening.
@Danny 25 feb 2019 om 16:04
Dacht ik vanmorgen gereageerd te hebben ;-(
Ben eerder terug dan verwacht ….
Ik wil wel een poging wagen ;-)
Het lijkt mij goed om de uurgegevens (ruwe data) van De Bilt te gebruiken, liefst vanaf 2010 (omdat er sinds geen verplaatsingen/veranderingen van meetpunten zijn gemeld).
Wellicht is het goed om mijn twijfels nogmaals weer te geven.
1. Dagtemperatuur
1.1 bij een gemiddelde hoort een standaardafwijking
1.2 een mediaan heeft bij een beperkt aantal punten een foutmarge
1.3 ik denk dat er een poging gewaagd zou kunnen worden om een verwachting van het temperatuursverloop per uur te schetsen op basis van de stand van de zon (die immers om de 1461 dagen binnen een tiende graad op hetzelfde lokale tijdstip verschijnt).
Op basis van eerder gespeel loopt de insolatie in De Bilt ongeveer 2 uur voor op de temperatuur en heeft een aardig sinusachtig verloop.
1.4 eenzelfde periode van 1461 dagen (of een veelvoud daarvan) zou gebruikt kunnen worden om de versnelling van het temperatuurverloop te kenschetsen.
2. Maand temperatuur
De maandtemperatuur zou afgeleid moeten worden van de uurgegevens, niet van de dagtemperatuur.
Het tijdstip van de maandtemperatuur zou niet yyyy-mm-01 moeten zijn maar yyyy-mm-dd.hh.ss (omdat de lengte van de maand geen constante is)
3. Jaartemperatuur
De jaartemperatuur zou afgeleid moeten worden van de uurgegevens, niet van de maandtemperatuur.
Het tijdstip van de jaartemperatuur zou niet yyyy-01-01 moeten zijn maar yyyy-06-16.hh.ss (omdat de lengte van de maand februari geen constante is)
Boels,
Vooraleer ik tot de kern van Ronald’s aanbod inga, toch even een kleine bemerking bij jouw antwoord.
Er zijn inderdaad heel wat vragen te stellen bij de beschikbare temperatuurreeksen…
Iets wat bijvoorbeeld opvalt in De Bilt voor de 2 dagen die ik hierboven vermeld heb, is dat er een significant verschil is als je de dagtemperatuur bepaalt aan de hand van 24 uurgemiddelden of aan de hand van de maximale en minimale dagtemperatuur.
Voor 22 feb geeft dit resp. 91 en 85.5, een afwijking van -6%, terwijl voor 23 feb we uitkomen op 69 en 73, een afwijking van +5.8%. Opmerkelijk, op zijn minst!
Maar waar het in eerste instantie Ronald (en mij) om te doen is: hoe kun je de nauwkeurigheid van de meting van een grootheid verhogen door meerdere metingen te combineren:
Mijn voorstel is dit te doen aan de hand van gemakkelijk beschikbare meetdata, dus temperatuur in De Bilt. In concreto is de vraag: met de 24 uurgemiddelden berekenen we een gemiddelde (en een standaardafwijking). Welke cijfers zijn significant in deze berekening?
Het gemiddelde is 68.83 (en de stdev 29.61). De meetfout van elk uurgemiddelde veronderstel ik op 0.5.
Ronald gaat ons dit nu uitleggen, hoop ik.
@Danny 27 feb 2019 om 13:13
Goed plan.
Vooruitlopend zal ik de komende dagen enkele Excel-bestanden op mijn website plaatsen.
Die zullen betrekkeng hebben op de uurgegevens van De Bilt: één groot bestand waarin de dagtemperatuur per uur wordt weergegeven, inclusief de data zoals gedownload van het KNMI.
En een kleiner bestand met de waarden uit het grote bestand voor de periode 2011 t/m 2018 zonder verdere berekeningen.
Danny,
De meetfout van een individuele meting is 0.5 ten gevolge van afronding. Je kunt de meting dus zien als een stochastische variabele met een uniforme verdeling, met verwachting T, uniform verdeeld over [T-0.5,T+0.5]. Stel je doet N van dergelijke metingen. Dan kun je de kansdichtheidsfunctie van het gemiddelde van die N metingen berekenen. Je zult dan zien dat de standaarddeviatie van de kansdichtheidsfunctie van het gemiddelde kleiner is dan de standaarddeviatie van de uniforme verdeling, van een individuele meting dus.
Ronald,
Akkoord, laten we daar van uitgaan, m.a.w. geen systematische fout.
Als we nu N dergelijke metingen doen – op verschillende plaatsen/ogenblikken, NIET gewoonweg dezelfde meting steeds herhalen… – dan kan je inderdaad (bij middelen) de meetfout verkleinen. De vraag is natuurlijk hoeveel… hoeveel metingen moet je middelen om de fout van 0.5 naar 0.05 te doen dalen?
Danny, het bijbehorende kwantitatieve verhaal is dat een uniforme verdeling over [T-0.5,T+0.5] een verwachtingswaarde heeft van T en een standaarddeviatie van 1/sqrt(12) ~= 0.29. Het gemiddelde van N metingen heeft dan bij benadering een Gaussische verdeling met verwachtingswaarde T en standaarddeviate (1/sqrt(12))/sqrt(N). In het geval van het daggemiddelde o.b.v. uurlijkse waarnemingen geldt N=24. En dus heeft het daggemiddelde een verwachtingswaarde gelijk aan het gemiddelde van de uurlijkse waarnemingen. De fout daarop is Gaussisch verdeeld met een verwachtingswaarde 0 en een standaardeviatie van ~0.06. Dat is in tienden graden dus ruimschoots nauwkeurig genoeg om temperatuurverandering te monitoren over langere tijd.
Resume, het gemiddelde van N metingen van een grootheid geeft een verbetering van de (on)nauwkeurigheid (uitgedrukt in standaarddeviatie) van sqrt(N) t.o.v. de (on)nauwkeurigheid van een individuele meting. Wortel-N dus. Eenzelfde ‘spel’ wordt gespeeld om zeespiegelstijging met een (on)nauwkeurigheid van orde mm te bepalen o.b.v. van individuele waarnemingen met een (on)nauwkeurigheid van cm.
@Ronald 28 feb 2019 om 10:22
“In de kansrekening is een stochastische variabele of stochastische grootheid een grootheid waarvan de waarde een reëel getal is dat afhangt van de toevallige uitkomst in een kansexperiment.”
https://nl.wikipedia.org/wiki/Stochastische_variabele
Ik zie niets toevalligs in meteowaarnemingen of waarnemingen van zeespiegelhoogte.
De gemeten temperatuur is daarnaast ook nog afhankelijk van windsnelheid en richting, relatieve vochtigheid, insolatie, ..
Ronald,
Het was toch jouw bedoeling om de meelezer met iets minder beta achtergrond iets uit te leggen, niet?
Dat doe je echter niet, je poneert enkele waarden, springt zonder verklaring van meetfouten over op standaarddeviaties en komt tot een eenduidig besluit met geen enkele zin voor nuance (bijv. de opmerkingen van Boels indachtig)
Laat ons dus even herbeginnen…
Zoals je gisteren aangaf gaan we de kansdichtheid van de fout berekenen voor N metingen. Logisch dus om te beginnen bij één meting en daarvan zeg je nu:
Een niet zo eenvoudige overgang, moeilijk uit te leggen… maar wiskundig wel nodig om onze berekeningen te maken. Dus we “transformeren” een uniforme verdeling in een normaalverdeling (ziet er anders uit maar de fundamentele eigenschappen blijven behouden).
Voor we verder gaan, een vraagje: kan je even uitleggen hoe je aan sqrt(12) komt?
Boels,
Ik kom terug op jouw opmerkingen als we het wiskundige deel afgewerkt hebben en de theorie aan de praktijk zullen moeten linken.
Danny, je hebt gelijk, ik ga wellicht te snel.
Overigens poneer ik niet zomaar enkele waarden. Het uitgangspunt is jouw meetfout van 0.5. Boels gaat er blijkbaar vanuit dat meetinstrumenten foutloos zijn (meetruis = 0). Zo’n instrument heb ik nog niet gezien. Maar enfin, er zijn dus meerdere foutenbronnen: (i) meetruis en (ii) resolutie van opslag van data (in hele tienden in jouw voorbeeld). Laten we even voor het gemak aannemen dat de fout door resolutie veel groter is dan de meetruis, dan kunnen we die laatste even verwaarlozen.
Zoals je zelf aangaf zijn de metingen in hele tienden, bijv. 69 (overeenkomend met een temperatuur van 6.9 graden). Omdat is afgerond in gehele getallen (de resolutie) ligt de echte meting ergens tussen 68.5 en 69.5, oftewel in het interval [68.5,69.5]. We hebben verder geen aanvullende informatie dus alle waarden in dit interval hebben evenveel kans op de echt gemeten waarde. De bijbehorende kansdichtheidsfunctie is een uniforme verdeling over het interval.
De verwachtingswaarde (gemiddelde waarde) is dan T=69. De variantie van een kansdichtheidsfunctie bereken je door de integraal van T^2*f(T) (zie https://en.wikipedia.org/wiki/Variance onder Continuous random variable) met f(T) de uniforme verdelingsfunctie. In ons geval is f(T)=1 voor [68.5,69.5] en 0 daarbuiten. De integraal van T^2 is (1/3)*T^3 tussen de grenzen -0.5 en 0.5 (na correctie voor de verwachtingswaarde), dus dat levert 1/24 – (-1/24) = 1/12 (zie ook hier: nl.wikipedia.org/wiki/Uniforme_verdeling_(continu) ).
Staandaardeviatie is de wortel van variantie dus 1/sqrt(12).
Dat transformeren van uniform naar Gaussisch is niet zomaar even een trucje. Dat volgt uit de centrale limietstelling (nl.wikipedia.org/wiki/Centrale_limietstelling)
Tja, sorry, enige kennis van statistiek is wel vereist om op wetenschappelijk niveau je mannetje te staan.
@Ronald 28 feb 2019 om 15:11
“Boels gaat er blijkbaar vanuit dat meetinstrumenten foutloos zijn (meetruis = 0).”
Daar ga ik niet van uit; wel is het zo dat 0,05 graad verwaarloosbaar is t.o.v. de standaardafwijking van de gemiddelde etmaaltemperatuur.
Boels,
zeker, maar waarom hecht jij zoveel belang aan de standaardafwijking van de gemiddelde etmaaltemperatuur? Deze zegt alleen maar iets over de variabiliteit van de temperatuur gedurende de dag. Het zegt niets over de nauwkeurigheid van metingen en hoe je die kunt verbeteren door middeling zoals ik hierboven heb uitgelegd.
@Ronald 28 feb 2019 om 16:24
“..waarom hecht jij zoveel belang aan de standaardafwijking van de gemiddelde etmaaltemperatuur?”
Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn).
En dat is de kern van de klimaatproblematiek.
“Het zegt niets over de nauwkeurigheid van metingen en hoe je die kunt verbeteren door middeling zoals ik hierboven heb uitgelegd.”
Dan zou mijn oorspronkelijk vermoeden juist zijn?
Want je verlegd het accent van de discussie van natuurkunde naar stochastische statistiek.
De gegeven 24 temperatuurmeetwaarden zijn niet stochastisch.
Boels,
“Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn)”
Nu jouw beurt dan om jouw punt kwantitatief overtuigend over het voetlicht te brengen.
Ronald, bedankt om jouw kennis te delen. Overigens zie ik helemaal niet in waarom je je zou moeten verontschuldigen om die kennis te bezitten.
Laten we dus verdergaan, rekening houdend met jouw input, en uitgaand van de uurgemiddelden: we kunnen dus voor elke meting de uniforme foutmarge van ±0.5 beschouwen als een normaalverdeelde met een standaarddeviatie σ van 1/sqrt(12).
Via de centrale limietstelling weten we dat de foutmarge van het middelen van deze metingen een standaarddeviatie zal hebben van σ/sqrt(N) en dat de vorm de normale verdeling steeds beter zal benaderen bij stijgende N.
Voor de 24 uurgemiddelden geeft dit dus een σ voor de fout van 0.059 (afgerond op 3 cijfers na de komma). Voor een normale verdeling weten we dat ongeveer 68% van de gevallen zich binnen 1 σ van het gemiddelde bevinden, ongeveer 95% van de gevallen binnen 2 σ en bijna 100% (99.7 om correct zijn) binnen 3 σ
We moeten nu dus definiëren of we met 2 of 3 σ willen werken. Voor 2 σ zou de dagtemperatuur in De Bilt dus kunnen uitgedrukt worden als 68.83 ± 0.12, voor 3 σ als 68.83 ± 0.18. Het KNMI kiest evenwel voor 69 en ik ga er dan impliciet vanuit ± 0.5; ik vermoed dat ze daar een goede reden voor hebben…
Maar wat dan met de gemiddelde maandtemperatuur, dat gaat toch typisch over 30 maal 24 uurmetingen. De σ hiervan is toch nog slechts 0.011. 3 σ blijft nog steeds beduidend onder 0.05 dus een extra cijfer zou in principe mogelijk zijn… Maar ook de maandtemperaturen worden per tienden °C gerapporteerd…
Om nog even op een andere manier naar de meetfouten te kijken, een antwoord op de vraag hoeveel metingen moet je middelen om een extra significant cijfer te kunnen weergeven?
Voor 2 σ berekeningen: 0.025 = 1/sqrt(12)/sqrt(N) of N >= 1/12/0.025² = 133 metingen en voor 3 σ berekeningen: N >= 1/12/0.01667² = 300 metingen.
Ik zie dat jullie al aan de volgende stap begonnen zijn… ik heb het hierboven al even aangeraakt, maar kom er zeker nog op terug.
Ik heb in elk geval weer wat bijgeleerd vandaag, de voornaamste reden waarom ik op deze site (selectief) meelees en soms een reactie schrijf. Ronald, nogmaals dank.
Oeps, een kommapunt vergeten bij enkele html codes… ² hoort dus ² te zijn…
N >= 1/12/0.025² = 133 metingen
N >= 1/12/0.01667² = 300 metingen
Mooi zo Danny, ik geloof dat wij wel aardig op één lijn zitten. Het is even afwachten waar Boels mee komt.
De reden dat KNMI in hele tienden rapporteert, denk ik, is dat de meet onnauwkeurigheid groter is dan 0.1 graad:
“De WMO eist een onzekerheid beter dan 0.1°C voor de gemiddelden, en 0.3 °C voor de
extremen, maar geeft aan dat deze eisen niet haalbaar zijn. Men rekent daarom met
onzekerheden die twee maal zo groot zijn.”
(http://bibliotheek.knmi.nl/knmipubTR/TR328.pdf).
Anderzijds heb ik laten zien dat je door middelen een veel grotere nauwkeurigheid bereikt. Blijkbaar wil men consistent alle data in dezelfde resolutie weergeven. +/- 0.05 graad is ook wel voldoende voor alle toepassingen lijk me.
Ronald, wat mij betreft komt Boels pas in de discussie als we van de theorie naar de praktijk gaan. Begrijp me niet verkeerd, zijn bijdrage is enorm belangrijk, wij zijn nu berekeningen aan het maken in een ideale wereld en Boels zegt eigenlijk “jongens/heren, en nu even met de voeten op de grond… jullie ideale wereld berekeningen zijn leuk, maar niet echt realistisch…”
Nu kom jij plots met de veronderstelling dat de meetonnauwkeurigheid van het KNMI groter is dan 0.1 °C, dat is dus dubbel zo groot als we tot nu toe verondersteld hebben…
Zo hoor je dus niet te rapporteren – of dat het WMO dit nu OK vindt of niet… het is zoiets als verbranden van hout is CO2-neutraal, want “Europa” zegt het… – en dat heeft dus wel toch enige impact op de theoretische berekeningen.
Danny, volgens Boels maken deze meetfouten ook helemaal niets uit. Laat hij maar instappen, dan liggen alle kaarten op tafel en is het risico van langs elkaar heen praten een stuk minder.
Een opmerking over het middelen van 24 uursmetingen.
Zo’n tijdreeks heeft een zekere mate van autocorrelatie die je kunt uitdrukken in een aantal vrijheidsgraden, zeg M. Hoe meer autocorrelatie, hoe lager de waarde van M.
De standaardafwijking bij 24 metingen neemt dan af met een factor sqrt(24-M).
Dirk,
Interessante opmerking. Wij zitten hier nu in “uitleg”-mode. Zou je wat meer informatie (en bijhorende links) kunnen geven over jouw opmerking (begrijpbaar voor de meelezer met iets minder beta achtergrond… hoewel… ondanks mijn beta opleiding moet ik toegeven dat ik jouw opmerking helemaal niet kan plaatsen…)
Bij voorbaat dank.
Danny,
In feite zeg ik het zelfde als Boels.
Door meer metingen te doen aan een populatie kan je de schatting van de werkelijke waarde van het gemiddelde en standaarddeviatie steeds verder verbeteren.
De temperatuur heeft een dagelijkse gang van zeg10 K en de meetnauwkeurigheid van de thermometer is zeg 0.1 K.
Als je 24 metingen doet op een dag is dat vooral om de dagelijkse gang te bepalen, niet zozeer om de schatting van de gemiddelde waarde met een factor sqrt(24) te verbeteren.
Omdat in deze dagelijkse gang veel autocorrelatie zit (je kunt bv met grote zekerheid zeggen dat de temperatuur na 8 uur ‘s morgens tot ~2 uur ‘s middags een stijging zal vertonen) kun je die beschrijven met pakweg 5 parameters. Dan blijven er nog 19 vrijheidsgraden over om de schatting van het gemiddelde te verbeteren.
De berekening van Ronald komt erop neer dat er 100% autocorrelatie is.
Ronald,
Jouw conclusie
lijkt mij een beetje naïef.
Wiskundig heb je natuurlijk gelijk, maar waar ik er eerder al op hintte, stuit je in de overgang naar de praktijk nogal eens op moeilijk te nemen hindernissen.
Laat ik 2 voorbeelden nemen, eerst de temperatuur in De Bilt en daarna een simpele meting die iedereen thuis kan doen.
Het door jou gelinkte KNMI document “Nauwkeurigheid van operationele temperatuurmetingen” bevat zeer interessante informatie over de meetfouten in de praktijk: nl. een systematische fout die kan oplopen tot 0.1 °C – dus 1 eenheid in de gerapporteerde waarden – en een meetruis van 0.031 °C (2 σ).
De meetruis kan je dus inderdaad reduceren door middelen van metingen, maar de systematische fout blijft, je vermenigvuldigt ze eerst met N en deelt daarna terug door N…
Laat nu net die systematische fout potentieel de grootste bijdrage leveren. Een sensorwisseling kan (in het slechtste geval) aanleiding geven tot een verschil (temperatuurafhankelijk) van 0.13-0.16 °C
In concreto, het KNMI heeft dus alle reden omvoor 23 februari 2019 een gemiddelde dagtemperatuur van 69 te rapporteren. En dezelfde redenering geldt overigens ook voor de gemiddelde maandtemperaturen.
Nu mijn 2e voorbeeld: je neemt een pak A4 printpapier en een meetlat (mm-schaal) en meet van elk blad de lengte en de breedte. Denk je dat na de duizend metingen een nauwkeuriger resultaat gaat uitkomen dan 297 bij 210 mm?
Besluit: je kan inderdaad de nauwkeurigheid verbeteren door meerdere metingen te middelen, maar je kan nooit onder de drempel van de systematische fout.
Dirk,
Bedankt voor de extra info. Hier ga ik eens goed over moeten nadenken… Misschien kom ik hier nog wel eens op terug…
Danny,
Je moet inderdaad onderscheid maken tussen systematische fouten (bias, in het Engels: accuracy) en random fouten (in het Engels: precision). Biases kun je corrigeren, random errors niet. Maar random errors kun je dus verkleinen door middeling. Dat kan met biases niet, zoals je terecht opmerkt. Uiteraard heeft Dirk Visser gelijk dat wanneer de fouten gecorreleerd zijn er meer middeling nodig is om een vooraf vastgestelde nauwkeurigheid te halen. Voor temperatuurmetingen is er geen reden om aan te nemen dat de fouten gecorreleerd zijn, voor zeespiegelhoogte metingen wel en dat komt omdat je moet corrigeren voor foutenbronnen zoals Boels die ook aangeeft. Maar dat neemt dus niet weg dat je ook daar door middeling van cm naar mm nauwkeurigheid kunt komen door middeling.
Als gezegd, biases kun je uiteraard niet verkleinen door middeling van data. Biases zijn om die reden meestal meer een ‘pain in the ass’ dan random errors. Als je werkt met grote data sets gaat het meeste werk dan ook zitten in: biascorrectie.
Verschil in biases tussen verschillende datasets is één van de redenen voor homogenisatie om te komen tot lange meetreeksen van een geofysische parameter. Als voorbeeld, de Pagode en Stevensonhut hebben verschillende biases. Als je beide reeksen aan elkaar wilt plakken om voor klimatologische doeleinden een lange datareeks te genereren, dan zul je een homogenisatieslag moeten doen. Het is niet anders, maar dus wel noodzakelijk.
Wat betreft jouw voorbeeld van A4 printpapier. Als het pak N vellen papier bevat, dan levert middeling van N vellen een nauwkeuriger resultaat dan wanneer je slecht 1 willekeurig vel selecteert..
Ronald,
In principe probeer ik dus niet te reageren in het weekend… enkele “korte” reacties niet te na besproken…ja, soms kriebelt het teveel…
Desalniettemin, het is ondertussen maandag, dus hierbij een iets meer uitgewerkte reactie:
Ronald, oh Ronald, je ontgoochelt me en wel om 2 redenen:
1) ik heb je nauwelijks enkele dagen geleden geconfronteerd
Je gaf me gelijk, maar je doet het opnieuw… je volgt de “rode draad” niet meer, je springt van de hak op de tak, je gaat nauwelijks in op mijn “alternatieve conclusie”, je verzet de doelpalen (wat heeft “homogenisering” te maken met het reduceren van meetfouten door meervoudige metingen???), zoals dat in het jargon heet… Je eigen “gelijk” bevestigen is zoooooooooveel belangrijker dan waarheidszoeken en/of de meelezer iets te laten opsteken. Laat ik het in het Engels zeggen, je verkiest blijkbaar toch “bias” en “precision” over de mooie Nederlandse begrippen systematische fout en meetruis – overigens een woord door jou geïntroduceerd… – “so sad”
2) Jouw antwoord op mijn 2de voorbeeld is
Begrijp je het niet? Of WIL je het niet begrijpen?
Ik zou dus zeggen, terug naar af en als je een serieuze discussie wil, probeer het nog eens…………
PS. Aan de 3 positieve duimpjes, hou je niet langer afzijdig… doe mee en verklaar waarom je deze wollige reactie van Ronald zo goed vindt…
Een erg lange reactie, Danny, om inhoudelijk niets te zeggen. Je bent er blijkbaar slechts op uit om te ‘bashen’ omdat je inhoudelijk niet mee kunt. Dag Danny.
Volledig akkoord met jouw afsluiter, Roland, hier eindigt het.
Hoewel… ik ben de kwaadste niet; ik ben in deze discussie ingestapt omdat jij ze introduceerde om de meelezer met iets minder beta achtergrond iets uit te leggen. Dus hou ik nog even vol…
Ik geef je dus nog even de tijd om alsnog een inhoudelijke reactie te formuleren op “Danny 1 mrt 2019 om 15:07 ”. Als je het niet doet/wenst te doen, zal ik één van de komende dagen zelf een antwoord op mijn bijdrage formuleren, want laat het duidelijk zijn er hangen toch nog wel wat – je houdt toch van de taal van Shakespeare, niet? – low-hanging fruits…
Prima Danny, ik wacht je antwoord wel af en ook je reactie op Boels’ rekenpartij. Daar hoor ik je niet over. Tot nog kom je niet verder dan het af te kraken middels: “Wat is dit voor – ik gebruik het woord niet graag, maar het is de enig juiste omschrijving – onzin” (Danny 3 mrt 2019 om 15:32). Die discussie komt inhoudelijk niet verder.
Wat betreft de meelezer. Eerlijk gezegd denk ik dat we toch vooral voor een bijna lege zaal aan het spelen zijn, met Hermie en Dirk Visser die af en toe de zaal betreden.
Met stijgende verbazing heb ik de reacties i.v.m. meetfouten onder enkele andere blogs gelezen. Het heeft dus echt weinig zin om hier nog verder te gaan.
Om af te sluiten nog een doordenkertje: wat gebeurt er met de systematische fout bij anomalieberekeningen?
die verdwijnt Danny
Misschien wel, maar ze zou net zo goed kunnen vergroten, alles hangt af van….
…… of de systematische fout constant is in de tijd, of anders op z’n minst bekend zodat je ervoor kunt corrigeren.
Hier nog een link naar een verhaal over effectieve vrijheidsgraden en zeespiegelstijging.
https://wattsupwiththat.com/2019/02/20/sea-level-and-effective-n/
Boels,
Het lijkt erop dat het mathematische deel afgerond is en dat de spreekwoordelijke berg een muis gebaard heeft…
Tijd dus om naar jouw bijdragen te kijken. Deze stelling viel ook mij op
Heb je daar al berekeningen rond gemaakt?
Eerder deze week beloofde je om uurgegevens van De Bilt zou ter beschikking te stellen. Ik wil wel eens wat ideetjes uitproberen met de 2011-2018 data.
2 vraagjes: zit bij die gegevens ook de effectief gemeten min en max temperatuur die dag? En wat gebeurt er met zomer- en wintertijd, verschuift het dagvenster met één uur of blijft het gans het jaar stabiel?
@Danny 1 mrt 2019 om 15:41
Uiterlijk maandagochtend 0h00 staan er XL spreadsheets op mijn website.
Ik gebruik Office360-64bit, maar ik ga alleen data publiceren en eenvoudige omzettingen doen, zoals Celsius naar Kelvin in een aparte kolom.
Vraag 1:
Ik zal kolommen toevoegen met de gehomogeniseerde daggegevens van het KNMI zodra er sprake is van dagtemperaturen.
Vraag2:
De tijdstippen zijn in de ruwe data opgegeven in GMT; ik verminder het uurgetal met 1 en bereken dan yyyy-MM-DD hh:mm:ss.
Boels,
OK, uitstekend.
Mijn 2e vraag was waarschijnlijk een beetje snel geformuleerd… nogal logisch dat ze bij het KNMI weten dat GMT de juiste tijd is voor alle sites in Nederland, dus ook voor De Bilt @5°11’ OL. De zonnetijd loopt daar (afgerond) 21’ voor op GMT…
Misschien heeft mijn vraag dan toch nog een positieve impact op jouw data.
Gelieve het uurgetal dus NIET te veranderen… anders moet ik de omgekeerde operatie doorvoeren…
“Gelieve het uurgetal dus NIET te veranderen”
Klein probleempje: begint de dag met een waarneming op 00:00 uur en eindigt met een waarneming op 23:00 uur?
Of op 01:00 uur en op 24:00 uur en bij de laatste geeft Excel de volgende dag aan ;-)
Ik zie het volgende bij het downloaden van uurgegevens:
Uurvak 1 is dus van 0.00 UT/GMT tot 1.00 UT/GMT
Zo hoort het dus te zijn, geen “correctie” naar ons winteruur, want dit klopt niet volgens de zon, ons winteruur is volgens de zon zomeruur… klok 1 uur verdergedraaid.
Het is dus waarschijnlijk OK om het uurgetal met 1 te verminderen om in Excel 0:00 te stockeren als het startpunt van het eerste uur; dus als jij in je Excel-file naar de eerste 3 uurgegevens kijkt voor 22 februari zie je dan 87, 86, 85? Indien ja, dan is het OK; indien nee, dan moet je iets aanpassen…
@Danny 2 mrt 2019 om 00:09
Zo ziet het er inderdaad uit in de spreadsheet:
260 2019-02-22 1 2019-02-22 00:00 87
260 2019-02-22 2 2019-02-22 01:00 86
260 2019-02-22 3 2019-02-22 02:00 85
Hier staat het Excelbestand:
http://boels069.nl/260_2011-2018_org.xlsx
“Enable editing” is nodig voor eventuele verdere bewerkingen.
Mijn site wordt gehost door one.com, een respectabel bedrijf.
Virussen en andere nare zaken zijn niet aanwezig.
Boels, bedankt. Ziet er goed uit; had geen enkel probleem om te openen met Libreoffice.
Danny, Boels en hoe nu verder?
Wat is de aanpak om het onderstaande punt van Boels hard te maken?
“Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn).
En dat is de kern van de klimaatproblematiek.“
Van de dagtemperaturen heb ik de STDEV bepaald.
Daarmee maak ik 4 kolommen: tijd, AVG-STDEV, AVG en AVG+STDEV
Dan bepaal ik de 3 lineaire trends met de functie LINEST.
Dat geeft het volgende resultaat:
*** (Tc avg – stdev) (Tc avg) Tc avg + stdev
slope 0.00042 0.00048 0.00055
ε slope 0.00013 0.00013 0.00015
intercept -9.16 -9.45 -9.74
ε intercept 5.26 5.64 6.25
Dit is abacadabra Boels. Kun je problemen met iets meer tekst je punt duidelijker te maken, svp?
problemen -> proberen
Zie:
http://boels069.nl/Slopes_of_Tc_plus_min_stdev.xlsx
Kolom Tc avg – stdev bevat de waarden van Tc avg min 1 sigma
Kolom Tc avg bevat de waarden van Tc avg
Kolom Tc avg + stdev bevat de waarden van Tc avg plus 1 sigma
Dat betekent dat de waarden van de slope van Tc zich (met 1 sigma) kunnen bevinden tussen 0.00029 en 0.00070
Boels,
Wat is dit voor – ik gebruik het woord niet graag, maar het is de enig juiste omschrijving – onzin.
Kijk eens naar cellen A9, C9 en E9, waar de R² staat voor de 3 trendlijnen…
Kijk ook eens naar data waarbij Tc avg negatief is; neem bijv. 29/1/2011 waar de temperatuur -3.01 ± 2 °C was. Tc avg – std hoort dus -1.01 en Tc avg + std -5.01 te zijn.
Oplossing voor zinvolle trendlijnen: anomalieën.
Danny, toto nog toe vind ik ook dat Boels helemaal niets heeft laten zien. Overigens vertel jij onzin met: “temperatuur -3.01 ± 2 °C was. Tc avg – std hoort dus -1.01 en Tc avg + std -5.01 te zijn.”
De standaarddeviatie is per definitie positief.
“Onzin” Ronald? Eerder een doordenkertje…
Nee hoor, Danny, gewoon onzin.
Ronald, je blijft me ontgoochelen…
Zal ik er een tekeningetje bijmaken?
Ik heb 2 plaatjes toegevoegd aan mijn dropbox adres
https://www.dropbox.com/sh/axty8v4qq5ie4ve/AABxouxqS9nQO7Rrawvu_QWia?dl=0
Veronderstel dat we toevallig een sinusoidaal temperatuurverloop hebben en we dat uitdrukken in anomalieën (X). Ook de standaard deviatie gedraagt zich erg bijzonder: ze blijkt nl. exact 25% van het anomaliesignaal te zijn (stdevX).
Volgens jou zien de signalen X-stdevX en X+stdevX eruit zoals resp. de gele en groene curve in het plaatje ‘Sinus+stdev’.
Ik beweer dat het veel logischer is om de bruine en lichtblauwe curve in het plaatje ‘Sinus+stdev_sgn’ te gebruiken.
Je mag natuurlijk zelf beslissen welke vorm je gebruikt als je berekeningen gaat doen, maar waarvoor ik opteer is wel overduidelijk, denk ik.
Tja Danny, wat een onzin, nogmaals. Het gaat er niet om wat jij logisch vindt, het gaat erom hoe zaken gedefinieerd zijn. Daaruit volgt dat stdev >=0, per definitie en dus dat X-stdev <= X <= X+stdev.
Bleef de wiskundige maar herhalen tegen de ingenieur…
Maar, wacht, wacht, wacht,… heeft de wiskundige vorige week niet beweerd ingenieur te zijn…
Dan weet ik het ook niet meer hoor…
Laten we het hier dus maar bij laten.
Ieder zijn waarheid??
Prima, Danny als jij jouw waarheid niet wilt opgeven. Je bent iig creatief in het verdedigen ervan, hoewel je natuurlijk best weet dat je de plank hier hebt misgeslagen. De wiskundige en de ingenieur zitten op 1 lijn en dat lijkt me de juiste lijn. Jouw lijn wordt nergens ondersteund.
Een toegift.
In mijn sinusvoorbeeld weet ik in elk geval zeker dat de ingenieur op zoek is naar (A ± σ)*sin(2πft). Zou de wiskundige op zoek zijn naar A*sin(2πft) ± σ? Ik betwijfel het sterk…
Denk nog maar eens goed na Danny. Voldoet A*sin(2πft) ± σ aan een van de twee van jouw dropbox plaatjes?
Heb je het plaatje voor (A ± σ)*sin(2πft) gevonden, Ronald? Ja, dan is het plaatje voor A*sin(2πft) ± σ natuurlijk het andere… Het leven kan soms simpel zijn…
Jaaah, Boels, ik moet het er blijkbaar uittrekken, het komt niet spontaan.
Dus: Tc = slope * i + intercept, voor i=1,….,2940
Als je dat al zou willen doen, dan een Tc per waarde van slope en intercept.
Sorry Boels, ik kan helemaal niets met deze analyse. Danny, kun jij er chocola van maken?
Dus Tc stijgt over de periode 2011-2018 met slope*2940 = 1.47 graad
, uitgaande van een slope van 0.00050 (ongeveer het centrum tussen 0.00029 en 0.00070).
Is dat wat je bedoelt?
Ik heb daar wel wat op aan te merken. Voorlopig blijft het een zeer vaag verhaal waar geen aan is vast te knopen. Hopelijk kom je nog tot een duidelijke uitleg van je uitspraak:
“Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn).
En dat is de kern van de klimaatproblematiek.“?
“Dus Tc stijgt over de periode 2011-2018 met slope*2940 = 1.47 graad”
Nee.
Er zijn 3 slopes:
Stijging op basis van slope 1: 2922*0,00042 = 1,22
Stijging op basis van slope 2: 2922*0,00048 = 1,41
Stijging op basis van slope 3: 2922*0,00055 = 1,61
Maar op basis van metingen, d.w.z. laatste meting minus eerste meting: 5,45
En Boels, vind je dat realistische waarden? Tussen de 1,22 en 1,61 graden stijging over een periode van 7 jaar? Welke conclusie trek je hieruit?
Ik zit nu toch al een paar dagen op het puntje van mijn stoel te wachten op een ontknoping…..
@@Ronald 3 mrt 2019 om 11:53
” .. vind je dat realistische waarden?”
Er is gerekend met meetwaarden over een periode van 8 jaar die ik in dit draadje als feiten accepteer en beslist niet als toevalligheden.
Het is wel jammer dat er geen langere periode voor de uurgegevens gebruikt kan worden (de laatste instrumentverplaatsing is van 2008-09-25).
De waarden zijn in deze context realistisch en die laten zien dat het onjuist is om de dagtemperaturen als constanten te beschouwen.
Boels, je draait om de hete brij heen. Je beantwoordt mijn vragen niet. Het ging er toch om duidelijkheid te verschaffen? En om jouw onderstaande uitspraak middels een kwantitatieve analyse te onderbouwen?
“Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn).
En dat is de kern van de klimaatproblematiek.“
Ik zie daar niets van terug in jouw reacties. Wel zie ik een totaal onrealistische meer dan 1 graad stijging per 7 jaar.
Dit was het? Of komt er nog aanvullende informatie?
Ik laat je toch 3 verschillende trends zien?
Twee daarvan worden bepaald door de sigma.
Let wel éénmaal sigma.
Daarmee is toch aangetoond dat de trend ook afhankelijk is van de sigma?
@Boels, Misschien kan het helpen als je aangeeft wat nu je onderzoeksvraag was, hoe je te werk bent gegaan en wat nu je conclusies zijn.
@@Hermie 3 mrt 2019 om 15:33
“Misschien kan het helpen als je aangeeft wat nu je onderzoeksvraag was, hoe je te werk bent gegaan en wat nu je conclusies zijn.”
De vraag is dus: waarom worden de standaardafwijkingen van de dagtemperaturen niet meegenomen bij de verdere berekeningen.
De opgegeven waarde van een dagtemperatuur wordt als constante beschouwd; dat viel mij in het verleden al op.
Dat lijkt mij onjuist, te meer omdat een dagtemperatuur wordt geconstrueerd/berekend uit tenminste 2 waarnemingen/metingen per dag.
Werkwijze.
Uit ruwe data, d.w.z 24 uurgegevens per dag, is eenvoudig het rekenkundige gemiddelde te berekenen; daar is voor zover ik weet geen discussie over.
Ruwe data is slechts vanaf 2009-03-01 bruikbaar omdat sinds dat tijdstip er geen verplaatsing van meetpunten heeft plaats gevonden.
Het blijkt ook dat dagtemperaturen berekend uit ruwe uurgegevens overeenkomen met de gehomogeniseerde reeks dagtemperaturen (er zijn een tiental afwijkingen over een totaal van 2922 dagen).
Ik heb 3 kolommen met tijdstip t, dagtemperatuur T(t) en de berekende standaardafwijking sigma(t).
Daaruit heb ik 4 kolommen gemaakt met tijdstip(t), T(t)+sigma(t), T(t) en T(t)-sigma(t).
Van die 3 tijdreeksen heb ik de lineaire trend bepaald; de 3 trends zijn niet gelijk.
Daarmee meen ik aangetoond te hebben dat het niet meenemen van de sigma(t)’s een te grote zekerheid veroorzaakt bij verder bewerkingen naar maand- en jaartemperaturen.
Statistiek is niet gebruikt; ik beschouw de waarden van uurgegevens als gegeven feit.
Zodra statistische technieken zouden worden gebruikt moet men rekening houden dat uurgegevens geen enkele relatie hebben met vormen van kansberekening.
@Boels, Je vraagt: “waarom worden de standaardafwijkingen van de dagtemperaturen niet meegenomen bij de verdere berekeningen. ” Mijn vraag: Wat wil je uitrekenen?
@Hermie:
Het gaat mij om de zekerheden die AGW-klimatologen ons voorhouden.
Als een trend op basis van dagtemperaturen op zich al een onzekerheid heeft dan moet dat doorwerken op jaartemperaturen en op projecties.
Op basis van gegevens van 2011-2018 kan natuurlijk niets zinnigs gezegd worden over “het” klimaat.
Over het NL-klimaat over de periode 1901-1918 wel.
Dat volgt later.
@Boels,
1. Welke zekerheden houden AGW-klimatologen ons voor?
2. De fout in dagtemperaturen werkt door in jaartemperaturen. Hoe? zie literatuur voortplanting van fouten
3. Op basis van gegevens van 2011-2018 kan natuurlijk niets zinnigs gezegd worden over “het” klimaat. Volgens mij is iedereen het daar wel min of meer over eens.
@Boels, Wil je nu een trend uitrekenen of wil je nu een jaar temperatuur uitrekenen?
Boels, wat je eigenlijk hebt aangetoond is dat de trend een kansverdelingsfunctie is. Je hebt een trend berekend voor het daggemiddelde en voor plus-en-min 1-sigma. Je kunt het ook doen voor 2-sigma, 3-sigma, het minimum, het maximum, enz. Zo kun je inderdaad een kansverdelingsfunctie van de trend opbouwen. Is dat wat je wilt? En hoe verhoudt zich dat tot jouw opmerking:
“Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn). En dat is de kern van de klimaatproblematiek.”?
Welke kern raakt dit die nu gemist wordt volgens jou? Leidt jouw aanpak tot fundamenteel nieuwe inzichten?
@Ronald:
“wat je eigenlijk hebt aangetoond is dat de trend een kansverdelingsfunctie is.”
Nee, er is geen sprake van een kansverdeling omdat de gebruikte meetgegevens geen toevalligheden zijn.
Boels, je laat 3 trends zien. De 3 trends zijn niet gelijk. Als ik de trend wil weten, welke van de 3 moet ik nemen en waarom? Kortom, na al je berekeningen, wat is nu de trend volgens jou?
Een bijproduct.
Gemiddelde trends per uur over de periode 2011-2018:
http://boels069.nl/Slopes_pHour.pdf
Idem voor Marknesse:
http://boels069.nl/273data.pdf
@Boels, Slope per uur, Ik kan mij daar helemaal niets bij voorstellen.
Er zijn uurwaarnemingen ( daar zitten natuurlijk fouten in) Daaruit volgt een etmaal gemiddelde. Vervolgens kan je met die etmaalgemiddelden maand of jaargemiddelden maken. De fout in de oorspronkelijke meting werkt door. Ik dacht dat je die voortplanting van die fout kon doorrekenen. Ik had gehoopt dat jij dat zou doen. Ik dacht dat de fout steeds kleiner wordt. Je kan dit doen met 1 station, maar die kan je ook weer middelen met andere stations. Dan ga je ook kijken hoe je stations verdeeld zijn over het oppervlak. En uiteindelijk kan je ook een trend bepalen. Hoe de oorspronkelijke meetfout doorwerkt in een trend? Ik heb geen idee, maar het zal best.
@Hermie:
“Slope per uur, Ik kan mij daar helemaal niets bij voorstellen.”
25 kolommen, n rijen:
t(1), T(1,1), .., T(24,1)
…
t(n), T(1,n), .., T(24,n)
En de formule slope(T(24,1):T(24,n), t(1):t(n))
Gewoonlijk volgt de uurtemperatuur met enige vertraging (~2 uur in NL) de stand van de zon tenzij er opstakels in de weg staan.
Het valt op dat voor De Bilt om 20h de slope hoger wordt; dat is vreemd omdat de zon als externe energiebron gemiddeld weggevallen is.
Marknesse vertoont een hikje om 19h.
@Boels, Ik kan mij nog steeds niets voorstellen van die slope. Je wilden toch iets vertellen over de nauwkeurigheid van een jaargemiddelde?
@Hermie:
Over het jaargemiddelde:
http://boels069.nl/STDEV_as_function_time%20step-export.xlsx
Over de slope per uur van de dag.
1. als de slope positief is dan warmte het op,anders koelt het af
2. ’s nachts is de slope kleiner dan overdag
@Boels,
Bedoel je met slope de trend?
Wat zegt de standaarddeviatie je? ( Ik zou niet weten wat ik hier uit moet concluderen)
Waarom bepaal je een trend van de standaarddeviatie?
@Boels, Laat ik maar een beetje gaan raden. Ik neem aan dat je ‘iets’ wilt vertellen over de standaarddeviatie. Het heeft ‘iets’ met de trend te maken. Spreiding heeft natuurlijk invloed op je trend. Met heel veel spreiding zegt een trend over korte afstand niets. Maar….. Wat ik niet begrijp…. We hebben jaarwaarden. Dan kijk je toch naar de spreiding van die jaarwaarden? Tussen 8,0 en 12,0 zeg maar.
@Hermie:
Met “slope” bedoeld ik de “trend”, excuus voor de verwarring.
Een standaarddeviatie (ook wel sigma genoemd naar het meest gebruikte symbool: de griekse “s”) vertelt iets over het verloop van de temperatuur over de beschouwde periode; een vlak verloop (weing verschil in max. en min. temperatuur) levert een kleine sigma op.
De trend van de standaarddeviatie geeft een beeld van de verdeling per dag, maand of jaar over de beschouwde periode; dat ook inzicht geven in de het verloop van de verschillen in Tmin en Tmax.
Zo is
@Hermie 4 mrt 2019 om 20:13
“Dan kijk je toch naar de spreiding van die jaarwaarden? Tussen 8,0 en 12,0 zeg maar.”
De periode 2011-2018 telt 8 jaren (van 365,25 dagen), 2922 dagen en 70128 uren.
Het is logisch dat de spreiding (standaarddeviatie) per jaar afneemt als je als tijdseeneheid respectievelijk uur, dag en maand gebruikt.
Dat heb ik laten zien in het het bovenstaande bestand STDEV_as_function ..
Zie de kaders “based on hour”, enz.
Gebruik van grotere tijdseenheden suggereert een grotere zekerheid en dat is ten onrechte.
@Boels, Ik heb werkelijk geen idee waar je het het over hebt. Misschien kan @Ronald of @Danny uitleggen wat je bedoelt. @Ronald? @Danny?
Hermie,
Naarmate je hogere (tijds)resoluties neemt, neemt ook de variabiliteit (m.a.w. spreiding, gekwantificeerd met de standaarddeviatie) toe. Als Boels data tot zijn beschikking zou hebben op een tijdsresolutie van minuten en op basis daarvan de spreiding zou berekenen dan zou die nog hoger zijn. En als Boels data tot zijn beschikking zou hebben op een tijdsresolutie van seconden en op basis daarvan de spreiding zou berekenen zou die nog weer hoger zijn, enz., enz.
Mijn vraag is dan: ja, dus? Als je klimatologische trends wilt bepalen, waarom zou je dan data op een tijdsresolutie van honderdsten van seconden willen gebruiken?
Boels kan goed overweg met Excel, maar hij komt er moeilijk toe zijn punt hard te maken. Zijn punt is:
“Omdat de standaardafwijking een rol speelt bij het bepalen van trends (ook als de uurtemperatuur tot op een een duizendste graad nauwkeurig zou zijn). En dat is de kern van de klimaatproblematiek.”?
De kern waar Boels, volgens mij, op doelt is dat er een grotere onzekerheid in de temperatuurtrend is dan nu wordt gesuggereerd. Zijn conclusie, op basis van zijn analyse, is een trend van tussen de 1.22 en 1.61 graad opwarming over een periode van 8 jaar (2011-2018). Dat is alarmisme tot de macht 10. Vrouwen en kinderen eerst.
@Ronald, Dat is wat ook steeds in mij op komt: Ja dus?
@Ronald 4 mrt 2019 om 21:34
Rare reactie van je.
Ik heb de periode 2011-2018 voor de uurgegevens gekozen omdat er in die periode geen verplaatsingen van meetpunten hebben plaats gevonden.
De uitkomsten hebben dus een illustratief karakter en geven slechts aan dat de rekenmethode de nauwkeurigheid van extrapolaties bepaald.
(Ik heb je niet horen mopperen over de gekozen periode).
Het is juist dat de “sampling rate” (die ik in het “echie” op 10 minuten schat) van bijzonder belang is.
Het zou helpen als men eens begint met het zoeken naar de afhankelijkheden van de temperatuur van de andere meteogegevens om daarmee een dagelijkse gang van de temperatuur te bepalen.
Dan is het gokelement verdwenen en ook de noodzaak.
Er zijn best wel pogingen om met statistische methoden zo’n dagelijkse gang te simuleren.
Wel bij gebrek aan beter.
Zoals:
Een rekenmodel dat het verloop van de etmaaltemperatuur…
http://boels069.nl/Een%20rekenmodel%20dat%20het%20verloop%20van%20de%20etmaaltemperatuur.pdf
Statistical estimate of daily mean temperature
http://boels069.nl/statistical%20estimate%20of%20daily%20mean%20temperature.pdf
Ronald 4 mrt 2019 om 16:48
“je laat 3 trends zien. De 3 trends zijn niet gelijk. Als ik de trend wil weten, welke van de 3 moet ik nemen en waarom? Kortom, na al je berekeningen, wat is nu de trend volgens jou?”
trend: 0,00048 +/- 0,00016
intercept: 9,16 +/- 5,76
Dus toch een kansdichtheidsfunctie Boels, met een gemiddelde van 0,00048 en standaarddeviatie 0,00016. De gehele kansdichtheidsfunctie voor de trend krijg je door ook trends op basis van 2-sigma, 3-sigma, maximum, minimum, enz. te bepalen. Waarom doe je dat niet en kies je allen voor 1-sigma?
@Ronald 4 mrt 2019 om 21:38
Met 1-sigma is de grootte van de +/- toch al groot genoeg?
Waarom er een kansdichtheidsfunctie om de hoek komt kijken is mij een raadsel.
Tenzij er een groot gokelement aanwezig is bij het vergaren van meteogegevens.
Tja boels als je spreekt van 0,00048 +/- 0,00016, dan heb je het feitelijk over een kansdichtheid functie, waarvan je alleen de verwachting en standaarddeviatie opgeeft. Waarom geef je de trend niet voor 2-sigma, 3-sigma, maximum, minimum, enz.? Doe je dat wel netjes, dan bouw je de volledige kansdichtheid op.
“Met 1-sigma is de grootte van de +/- toch al groot genoeg?”
Hoe weet je dat als je de volledige kansdichtheidsfunctie niet kent? Wie is er overigens geinteresseerd in 1-sigma? Ik denk dat de interesse vooral ligt in de trends van de maxima en minima. Als je die bepaalt zul je weer op heel andere trendwaarden uitkomen. Wat betekent dat, denk je?
@Ronald 4 mrt 2019 om 21:34
Rare reactie van je.
Ik heb de periode 2011-2018 voor de uurgegevens gekozen omdat er in die periode geen verplaatsingen van meetpunten hebben plaats gevonden.
De uitkomsten hebben dus een illustratief karakter en geven slechts aan dat de rekenmethode de nauwkeurigheid van extrapolaties bepaald.
(Ik heb je niet horen mopperen over de gekozen periode).
Het is juist dat de “sampling rate” (die ik in het “echie” op 10 minuten schat) van bijzonder belang is.
Het zou helpen als men eens begint met het zoeken naar de afhankelijkheden van de temperatuur van de andere meteogegevens om daarmee een dagelijkse gang van de temperatuur te bepalen.
Dan is het gokelement verdwenen en ook de noodzaak.
Er zijn best wel pogingen om met statistische methoden zo’n dagelijkse gang te simuleren.
Wel bij gebrek aan beter.
Zoals:
Een rekenmodel dat het verloop van de etmaaltemperatuur…
boels069.nl/Een%20rekenmodel%20dat%20het%20verloop%20van%20de%20etmaaltemperatuur.pdf
Statistical estimate of daily mean temperature
boels069.nl/statistical%20estimate%20of%20daily%20mean%20temperature.pdf
Boels,
De periode van 2018 is uiteraard veel te kort om een klimatologische trend te bepalen. Jouw analyse komt uit op (Boels 2 mrt 2019 om 20:34):
trend: 0,00048 +/- 0,00016
intercept: -9,16 +/- 5,76
Hetgeen zich vertaalt naar een opwarmingstrend van tussen de 1.22 en 1.61 graad over een periode van 8 jaar (2011-2018). Jouw gemiddelde interceptwaarde van -9.16 is merkwaardig voor een klimatologische temperatuurwaarde. Dat moet je al aan het denken zetten.
Als je de gemiddelde jaarlijkse temperaturen neemt over 2018, dan krijg je het volgende:
gemiddelde jaar temperatuur: [10.9;10.3;9.8;11.7;10.9;10.7;11.0;11.4]
trend: 0.106 graden/jaar
intercept: 10.36071 graden
Dat scheelt nogal wat met jouw uitkomst en komt op z’n minst beter overeen met wat je verwacht als uitkomst.
Ik kom daar vanavond op terug.
Heb interieurverbeteraars over de vloer ;-)
Ik zie iets merkwaardigs in het gedrag van de LINEST functie in Excel, de intercept wijkt af van die van de INTERCEPT functie (bij dezelfde X en Y waarden).
De slope van LINEST is gelijk aan die van de SLOPE functie.
Ik zie al wel een vaag spoor; het vergt wel vermoedelijk enkele uren om het uit te puzzelen.
Probleem toch snel opgelost?
LINEST accepteert geen groter aantal waarden dan 32767 voor X en Y;-)
MS heeft een ticket aangemaakt omdat ik de 64-bit versie gebruik.
Als ik morgen geen nieuws heb van MS ga ik de Exelbestanden op mijn website van een update voorzien.
Boels, ik begrijp niet goed waarom de LINEST limitatie van 32767 jouw berekening van 2922 dagen zou hypothekeren. Het intercept “probleem” heeft alles te maken met het nulpunt voor de x-as. Jouw eerste punt ligt op 1/1/2011, dat betekent dus dat de datum die Excel als 0 aanduidt van belang is; dit is dus 30/12/1899; de “slope” van de trendlijn is afgerond 0.00048 per dag; over 111 jaar geeft dit dus een verval van 0.00048*365.25*111= 19.5; als we in 2011 ongeveer op 10.4 moeten zitten, is de intercept dus inderdaad -9.1; waar praten we over…
Waar we over praten, Danny, is dat jij een temperatuur van rond de -9.1 in de Bilt in 1899 blijkbaar accepteert als een reële gemiddelde temperatuur en vervolgens een stijging van 19.5 graden over een periode van 120 jaar als normaal beschouwd? Dat is alarmisme van ongekende orde. Ben je niet in beetje in de war, Danny? Of is Boels een beetje in de war? Of heeft Bill gates jullie bij de neus genomen?
Ronald,
Welke wetenschapper extrapoleert een trend berekend over 8 jaar 111 jaar terug of verder?
Dat doet geen enkele serieuze wetenschapper, Danny, maar jij suggereert dat Boels dat doet, al dan niet bedoeld: -9.1 graad in 1899.
Grapjas :-(
Boels,
Een correctie bij “Danny 3 mrt 2019 om 15:32 ”:
Het “bewijs” voor mijn straffe uitspraak is eigenlijk fout… Ik heb ondertussen zelf een aantal berekeningen gemaakt en het blijkt dat die Pearson coëfficiënt steeds belachelijk of nog belachelijker laag is.
Als ik bijv. het jaar indeel in 13 “februari”maanden (11 of 12 met 28 dagen en 1 of 2 met 29 dagen) dan vind ik een R² van 0.0059 voor de gemiddelden en van 0.0222 voor de anomalieën.
Eigenlijk betekent dit dat de trend heel goed verstopt zit in ruis.
Als je werkt met de gemiddelden dan leidt dit onvermijdelijk tot totaal onbetrouwbare trendlijnen. Ik kom bijv. uit op 0.0277, wat zich dus vertaalt in een stijging van 2.8 °C over 8 jaar – 0.0277 x 13(“februari”maanden per jaar) x 8 (jaar) – dubbel zoveel zelfs als in jouw dagberekening. Met anomalieën ziet er wel beter uit, nl. 0.00744, dus een stijging met 0.77 °C over 8 jaar. Lijkt mij realistischer, maar met een standaard deviatie van 0.0049, zowat 2/3 dus van die gevonden waarde… Maar ja, we zijn hier vooral naar ruis aan het kijken, nietwaar? Over de berekeningen op 1 standaardafwijking wil ik het zelfs niet hebben, dat lijkt ruis op ruis…
Ga waarschijnlijk ook nog wel de berekening maken voor de anomalieën voor Tmin en Tmax, maar verwacht er eigenlijk niet al te veel van. Ben wel benieuwd of voor de anomalieën de minima sneller gaan stijgen dan de maxima; op basis van ruwe metingen is dat immers helemaal niet het geval (0.00036/dag en 0.00056/dag resp.)
Laat het duidelijk zijn dat er nog heel wat denk- en rekenwerk nodig zal zijn om tot een eenduidige conclusie te komen…
@Danny 5 mrt 2019 om 20:51
“Maar ja, we zijn hier vooral naar ruis aan het kijken, nietwaar? Over de berekeningen op 1 standaardafwijking wil ik het zelfs niet hebben, dat lijkt ruis op ruis…”
Ik vind dat er in de waarnemingen geen sprake is van ruis: uurwaarden staan als een huis en daarmee ook de dag-, maand- en jaarwaarden.
Boels,
Je moet het natuurlijk wel in perspectief bekijken…
We zijn op zoek naar het klimaatsignaal in het weer; concreet gaat het voor de periode 2011-2018 in De Bilt over een stijging van ongeveer 0.1 °C per jaar; in totaal dus 0.8 °C over de 8 jaar.
We hebben inderdaad een groot aantal sterke waarnemingen ter beschikking, niet perfect zoals eerder bediscussieerd, maar absoluut uitstekende data en in deze meer dan 70 000 getallen die variëren tussen -18.9 en + 35.7 °C gaan we op zoeken naar een trend van 0.1 per jaar, 0.00833 per maand, 0.00769 per “februari”maand, 0.000274 per dag… die we dan ook nog veronderstellen zeer gelijkmatig te verlopen – stapje per stapje per dag/maand/jaar.
Vanuit het standpunt van de trend, kan je niet anders dan besluiten dat het signaal quasi uitsluitend uit ruis bestaat… hoe kwaliteitsvol de data waarvan je vertrekt ook moge zijn.
@Danny:
“.. kan je niet anders dan besluiten dat het signaal quasi uitsluitend uit ruis bestaat… hoe kwaliteitsvol de data waarvan je vertrekt ook moge zijn.”
Het klimaatsignaal mag niet verward worden met een akoestisch signaal dat verborgen zit in de ruis van een gsm-signaal.
Men zou zo langzamerhand moeten weten welke (kwasi)periodieke weer/klimaatverschijnselen er zijn en daar op kunnen filteren.
Het maakt nogal uit of men middelt over 8 jaar voor de periode 2011-2018 met 8 afgeleide waarnemingen of over 2x1461x24=70128 uurwaarnemingen.
Boels,
Mijn bedoeling is om samen tot een oplossing te komen, wat die oplossing dan ook moge zijn… Ik heb op dit moment zeker NIET de sleutel in handen die het totale plaatje overschouwt, beschrijft…
Het gaat nu een beetje over het feit dat ik het “signaal” vanuit klimatologisch standpunt “ruis” genoemd heb; ik betwijfel of deze discussie ons inderdaad dichter bij de oplossing zal brengen, maar ik ga nog even mee, we zien wel waar we uitkomen…
Het klimaatsignaal mag niet verward worden met een akoestisch signaal dat verborgen zit in de ruis van een gsm-signaal.
Het grote verschil is dat – voor zover ik het begrijp… – bij een gsm-signaal het gaat om “georganiseerde” ruis; met voldoende voorkennis is het redelijk simpel om terug te vinden wat je eigenlijk wil “horen”…
Men zou zo langzamerhand moeten weten welke (kwasi)periodieke weer/klimaatverschijnselen er zijn en daar op kunnen filteren.
Dat is nu net het probleem: de weersverschijnselen laten zich niet als “georganiseerde” ruis omschrijven… we zijn dus ERG MOEILIJK in staat ze te scheiden van hetgeen we zoeken, nl. een klimaatsignaal…
Het maakt nogal uit of men middelt over 8 jaar voor de periode 2011-2018 met 8 afgeleide waarnemingen of over 2x1461x24=70128 uurwaarnemingen.
Ik begrijp niet wat je hiermee bedoelt, maar op eventuele afrondingsfouten na geeft een middeling van gemiddelden op een lager niveau hetzelfde resultaat als middeling van de basiswaarnemingen op een hoger niveau. Als je iets anders in gedachten had, gelieve dan ter herformuleren.
Boels,
Nog even verder op mijn vorige reactie.
Het maakt nogal uit of men middelt over 8 jaar voor de periode 2011-2018 met 8 afgeleide waarnemingen of over 2x1461x24=70128 uurwaarnemingen.
Bedoel je voor het resultaat dat je vindt met LINEST voor het verloop van de trendlijn over 8 jaar?
@Danny:
Correct!
Het geldt overigens ook voor de afzonderlijke functies SLOPE en INTERCEPT.
Mij n huis ligt deels overhoop en van rustig achter de PC zitten komt niet veel terecht ;-)
OK. Boels, neem rustig je tijd.
Ik heb tot nu toe 3 trend berekeningen gemaakt op anomalieën en die liggen dicht bij elkaar:
– anomalieën op basis van daggemiddelden (366 verschillende nulwaarden)
– anomalieën op basis van maandgemiddelden (12 verschillende nulwaarden)
– “februarimaand” anomalieën op basis van dezelfde maanden (13 verschillende nulwaarden)
De resultaten voor de “slope” zijn resp.:
0.00025546/dag, maw 0.75 °C over 8 jaar
0.00025496/dag, ook 0.75 °C over 8 jaar
0.0074442/”februari”maand, maw 0.77 °C over 8 jaar
Dit lijkt mijn analyse te bevestigen dat je met anomalieën moet werken.
@Danny:
Welke methode gebruik je bij het bepalen van een anomalie?
Ik ken er 2; de algemeen gebruikelijke waarbij het gemiddelde 0 is en de stdev 1.
En de klimatologische waar een gemiddelde over een bepaalde periode wordt gebruikt.
Boels,
Ik werk volgens het KISS principe: eerst bepaal je alle 2922 daggemiddelden, afgerond op 2 decimalen.
Voor mijn eerste voorbeeld van de 366 daggemiddelden, tel je dus de zo berekende daggemiddelden van bijv. alle (8!) 1e januari’s op, deelt door 8, rond af op 2 decimalen en trekt dit cijfer af van de hoger berekende daggemiddelden en je hebt je anomalieën. 29 februari is natuurlijk een beetje anders aangezien slechts 2x voorkomend in de reeks…
Voor de andere voorbeelden verloopt de berekening gelijkaardig, maar middel je dus over grotere aantallen (226, 240 of 248 voor de maanden en 224 of 232 voor de “februari”maanden)
Boels, nog wat cijfers voor de temperatuurstijging over 8 jaar en de onzekerheid daarop berekend met LINEST voor meerdere varianten (allemaal anomalieën):
(berekend met 1 significant cijfer meer dan de meet- + afrondingsfout toelaat)
(95% intervallen – 2σ)
– daganomalieën (daggemiddelden): 0.75 ± 0.38 (=51%) °C
– daganomalieën (maandgemiddelden): 0.74 ± 0.42 (=57%) °C
– weekanomalieën: 0.793 ± 0.796 (=100%) °C
– 14daagsanomalieën: 0.774 ± 0.934 (=121%) °C
– 28daagsanomalieën: 0.775 ± 1.016 (=131%) °C
– maandanomalieën: 0.732 ± 1.054 (=144%) °C
– jaaranomalieën: 0.7616 ± 1.4074 (=185%) °C
Wat opvalt is dat door te middelen je misschien wel wat aan nauwkeurigheid kunt winnen, maar dat wordt dan volledig overschaduwd door een veel grotere onzekerheid die je introduceert; in de praktijk lijkt het dus niet erg zinvol omdat geen enkele van die extra gevonden cijfers significant is en toch weg moet bij afronding tot de significante cijfers.
Ons voorbeeld omvat natuurlijk maar 8 jaar, dus over een langere periode zal de onzekerheid wel kleiner worden, maar ik betwijfel of het ooit genoeg zal zijn…