Het blijft maar rommelen rondom de betrouwbaarheid van de temperatuurmetingen. Klimaatsceptici richten hun pijlen vooral op de zogenoemde ‘homogenisering’ van ruwe temperatuurdata. Door de daaruit voortvloeiende ‘correcties’ wordt de stijging van de gemiddelde wereldtemperatuur versterkt. Sommige sceptici gaan zelfs zo ver om (nagenoeg) de hele temperatuurtoename van de afgelopen eeuw aan deze aanpassingen toe te schrijven.
Onder de titel, ‘Exclusive: Study Finds Temperature Adjustments Account For ‘Nearly All Of The Warming’ In Climate Data’, schreef Michael Bastasch voor de ‘Daily Caller’:
A new study found adjustments made to global surface temperature readings by scientists in recent years “are totally inconsistent with published and credible U.S. and other temperature data.”
“Thus, it is impossible to conclude from the three published [global average surface temperature (GAST)] data sets that recent years have been the warmest ever – despite current claims of record setting warming,” according to a study published June 27 by two scientists and a veteran statistician.
The peer-reviewed study tried to validate current surface temperature datasets managed by NASA, NOAA and the UK’s Met Office, all of which make adjustments to raw thermometer readings. Skeptics of man-made global warming have criticized the adjustments.
Climate scientists often apply adjustments to surface temperature thermometers to account for “biases” in the data. The new study doesn’t question the adjustments themselves but notes nearly all of them increase the warming trend.
Basically, “cyclical pattern in the earlier reported data has very nearly been ‘adjusted’ out” of temperature readings taken from weather stations, buoys, ships and other sources.
In fact, almost all the surface temperature warming adjustments cool past temperatures and warm more current records, increasing the warming trend, according to the study’s authors.
“Nearly all of the warming they are now showing are in the adjustments,” Meteorologist Joe D’Aleo, a study co-author, told The Daily Caller News Foundation in an interview. “Each dataset pushed down the 1940s warming and pushed up the current warming.”
“You would think that when you make adjustments you’d sometimes get warming and sometimes get cooling. That’s almost never happened,” said D’Aleo, who co-authored the study with statistician James Wallace and Cato Institute climate scientist Craig Idso.
Their study found measurements “nearly always exhibited a steeper warming linear trend over its entire history,” which was “nearly always accomplished by systematically removing the previously existing cyclical temperature pattern.”
“The conclusive findings of this research are that the three [global average surface temperature] data sets are not a valid representation of reality,” the study found. “In fact, the magnitude of their historical data adjustments, that removed their cyclical temperature patterns, are totally inconsistent with published and credible U.S. and other temperature data.”
Lees verder hier.
Aangenomen mag worden dat het rode team waarover ik eerder rapporteerde, hier ook naar zal kijken.
Voor degenen die wat dieper in deze materie willen duiken, kan de website ‘ Klimaatgek’ van Rob de Vos worden aanbevolen, die daarover de laatste tijd verschillende interessante ‘postings’ heeft gepubliceerd.
Voor mijn eerdere bijdragen over klimaat en aanverwante zaken zie hier, hier, hier, hier en hier.
Het blijft helemaal niet rommelen, maar de “sceptici”willen de resultaten niet accepteren en blijven dus heel hard NEE roepen.
https://tinyurl.com/y75kbvsp
Maar dat is geen scepcis, dat is gewoon obstructie.
Daarom heeft de hele “red team” aanpak ook helemaal geen zin, want “scepticic”zullen nooit ophouden met jammeren en de uitkomsten blijven negeren
Oh en de studie is helemaal niet peer reviewed (tenzij Lord Monckton hem heeft gelezen)
Henk,
De studie is wel degelijk ‘peer-reviewed’.
De namen van de wetenschappers die de collegiale toetsing hebben verricht staan zelfs expliciet vermeld:
https://thsresearch.files.wordpress.com/2017/05/ef-gast-data-research-report-062717.pdf
Henk….? Je bent altijd haantje de voorste met je reacties maar nu is het opvallend stil.
Nope dat zijn namen van mensen die geen specialist zijn op het gebied van temperatuur
Het hele stuk is gewoon opinie
Beste Henk,weer een gevalletje niet gelezen hebben wat je linkt? Doe mij nou gewoon eens een lol, reageer wat minder en lees wat je denkt dat je linkt. Wellicht dat je dan ooit eens minder als nar weggezet gaat worden. Je vraagt er gewoon om. .met vriendelijke groet, gekke henkie
Henk kent één dubieus voorbeeld. Lees Toni Heller Henk en huiver.
Henk, je doet wat je sceptici verwijt: je roept maar wat zonder het te onderbouwen.
Rob,
Ik weet niet of je gied gekeken hebt, maar ik hen een linkje gegeven naarvewn blog van Victor venema die iets meer verstand heft van homogeniseren dan jij of ik
En aangezien het stuk text van aleo ook niet gepubliceerd is is het blog van venema goed genoeg.
Maar lastig natuurlijk om toe te geven dat je liever misinfornatie verspreid om beleid te voorkomen waar je ideologisch niet achter kan staan
Blogs zijn volgens jou toch niet goed genoeg? Niet met twee maten meten.
Ivo,
Aangezien het stuk tekst wat Hans aanhaalt niet peer reveiwed is (in tegen stelling tot wat hij beweert) kan een blog prima.
Dus als Hans er eens een goede gewoonte van maakt om direct naar de Peer reveiwed literatuur te verwijzen en zijn mening daarop te baseren (in plaats van verwijzen naar blogs, die weer verwijzen naar lappen verder ook niet onderbouwde tekst) dan kan ik ook beter reageren
Maar wat “sceptici”doen is iedere tekst die hun mening bevestigd klakkeloos accepteren en de wereld in sturen.
Dat is de zaken omdraaien. Als jij blogs nooit accepteert, moet je er ook niet mee komen. Dat zou je zelfs hypocriet kunnen noemen.
henk,
laten we nou eens kijken naar de argumenten en data, en niet of ze al dan niet peer reviewed zijn.
Peer review in de klimaatwetenschap heeft een slechte naam. Daar kun je je beter niet op beroepen.
Dus graag je eigen verstand gebruiken Henk, en niet maar zo wat linkjes rondstrooien.
NOAA houdt het algoritme waarmee zij de temperaturen homogeniseert geheim. Het is hier regelmatig aan de orde geweest, o.a. met verwijzing naar:
https://www.eike-klima-energie.eu/2015/12/27/judicial-watch-verklagt-regierung-bzgl-aufzeichnungen-zur-debatte-um-die-erwaermungspause/
Weet iemand of, en zo ja, hoe dit proces is afgelopen?
Een commentaar dat goed past bij dit artikel. Alle algoritmes en data zijn op het internet, maar politieke extremisten blijven hardnekkig beweren dat ze geheim zijn. Geen enkele interesse in de werkelijkheid.
Voor de sea surface temperature mag je zelf googlen. Voor stationsdata (land) heb ik bookmarks.
Algoritme:
ftp://ftp.ncdc.noaa.gov/pub/data/ghcn/v3/software/52i/
Artikel:
http://journals.ametsoc.org/doi/full/10.1175/2008JCLI2263.1
Beste Victor Venema,
fijn die links. Ik zie een tarball van 143 MB langskomen van een server die mij 4 dagen gaat kosten om te downloaden, en dan krijg ik alle shitcode in Fortran, en andere archaische programmeertalen om zelf uit te zoeken hoe het algoritme werkt? Ik heb nog een kruiwagen met kleitabletten voor je liggen, waarop de Babyloniers uitleggen hoe ze de zonne stand konden bepalen. Een algoritme houdt in, dat het kort en bondig beschreven kan worden. Niet 5 miljoen regels code. En het artikel waar je naar linkt, gaat maar over een heel klein sub-probleem van het homogeniseren van temperatuurdata, namelijk het detecteren van discrepanties in tijdreeksen door paarsgewijze vergelijking. Met een hele rits aan vraagwaardige parameters. waar je eindeloos mee kunt pielen in de marge. Dat is geen wetenschap Victor, dat is orakelen. Niemand kan bij zijn gezonde verstand stellen dat een dergelijk programma levert waar het voor bedoeld is. Programmeerfouten zijn 100% zeker. Type fouten (integer, real, float, long, short, double precisoin) zijn waarschijnlijk met een hark uit de software te halen. Looping errors, accumulatie van afrondingen, iteratie stapelingen van marginale type conversies, allemaal 100% zeker dat die in die 143 Mb zitten. En dan de parametrizaties. Niemand kan uitleggen hoe je dat zou willen doen. Beste Victor, ik ben helemaal niet onder de indruk van je argumenten. Integendeel. Ik ben gewoon blij dat ik een fatsoenlijke wetenschappelijke opleiding heb genoten. En dus geen klimaat kots wetenschapper ben. met vriendelijke groet, gekke henkie.
De discussie lijkt als twee druppels water op een scene uit de Kuifje strip “de geheimzinnige ster”. In deze strip hebben professor Kalys en zijn assistent Philippus het tijdstip berekend waarop een meteoor de aarde zal vernietigen. Als Kuifje vraagt of er mogelijk een vergissing in het spel is, overhandigt Philippus hem een stapel losse papieren, volgekrabbeld met berekeningen, met de vraag of Kuifje het misschien zelf wil narekenen.
@henkie:
Ik tref in de download van Victor Venema in bijvoorbeeld module ushcn_tobs_2000.f in ieder geval meer programmeur commentaar aan dan in de totale geitenbreierij van het CRU (start van climategate) ;-)
Deze module is (onder meer) bedoeld om waarnemingen op verschillende plaatsen en tijdstippen te kunnen verenigen.
Dat gebeurt door over een 40 jarige periode een “profiel” te maken van maandelijkse gemiddelden (1950- 1990).
Daarmee is een schatting te maken van de temperatuur op tijdstip t als de waarneming gedaan is op tijdstip t1.
De module code is inderdaad in FORTRAN, een programmeertaal die ik sinds 1982 niet meer gebruikt heb.
In ieder geval lovenswaardig dat de code vrij verkrijgbaar is!
Nog dit: de FORTRAN code is goed leesbaar met het gratis Notepad++
Deze fortran code zonder gedegen uitleg is nutteloos, tenzij je een fortran nerd bent. De gemiddelde geinteresserde lezer heeft er niets aan. Op zijn minst zou je het client onvriendelijk kunnen noemen richting de hand die hen voedt, de belasting betaler.
ErikN,
Dus omdat jij te lui bent om Fortran te leren moet de Amerikaanse belastingbetaler dieper in zijn zakken tasten? Begrijp je dat zaken uit leggen zodat iedereen het snap extra geld kost?
@Henk:
Ik heb de rest van de modules niet bekeken maar het is juist om te stellen dat commentaarregels net zo belangrijk zijn als de regels met code waarop het commentaar slaat.
Het is niet ongebruikelijk dat programmeurs ongedocumenteerde intelligente handigheidjes opnemen in de code die hardware-platform gebonden zijn en eenvoudige mutatie naar andere platforms onmogelijk maken.
Er is een paar jaar geleden (door wie: moet ik opzoeken!) geconstateerd dat uitkomsten van klimaatmodellen platform afhankelijk zijn en dat ligt toch echt aan het gebruik van (ongedocumenteerde) handigheidjes.
An Evaluation of the Software System Dependency of a Global Atmospheric Model
http://journals.ametsoc.org/doi/abs/10.1175/MWR-D-12-00352.1?af=R&
Henk, waarom een archaische taal als Fortran. Waarom niet een moderne object georienteerde taal. Of misschien pakketten als Matlab, mathematica enz.
Je kunt zoiets niet zomaar met droge ogen presenteren. Ik neem aan dat de Amerikaanse belastingbetaler er niet blij mee is.
Henk ken jij Fortran? Waarom een archaische taal als Fortran. Waarom niet een moderne object georienteerde taal. Of misschien pakketten als Matlab, mathematica enz.
Je kunt zoiets niet zomaar met droge ogen presenteren. Ik neem aan dat de Amerikaanse belastingbetaler er niet blij mee is.
Beste Boels,
ik heb (uiteraard) ook naar de diverse modules gekeken, en geprobeerd de code te lezen en te begrijpen. Wat mij opvalt, is dat er heel erg slordig omgegaan wordt met de typering van de variabelen, en er vaak gebruik gemaakt wordt van reals als waren zij booleans. Dat is vragen om ellende, omdat een real nu eenmaal op plaatsen achter de komma van 0 of 1 af kan wijken. Compilers op verschillende platformen gaan hier ook heel anders mee om, waardoor de code op een PC met Linux opeens andere resultaten kan leveren. PowerPC heeft een andere manier van data opslaan. Maar de code is waarschijnlijk ooit ontwikkeld voor gebruik onder AIX, omdat IBM destijds hofleverancier was. AIX draaide oa op RISC6000, een prachtig systeem. Staat bij mij in de huiskamer. Maar los van deze nostalgische gedachten, het is ondanks het uitgebreide commentaar in de code, een onleesbare brij, waarvan het gebruik van slechte, inconsequente data typering, conditionele voorwaarden die via “booleans”door de hele code verweven zitten, niet te volgen is. Ik blijf bij mijn kritiek dat het onmogelijk is dat dit soort code foutloos is. met vriendelijke groet, gekke henkie.
Beste Henk,
tot mijn stomme verbazing blijk jij ineens een Fortran deskundige te zijn? Naast je ongeëvenaarde deskundigheid op het gebied van klimaatwetenschap, procestechnologie, statistiek, fysica, meteorologie. Je moet welhaast een “Nobel laureate” zijn. Wat fijn dat ik hier met je mag communiceren. Mag ik je tenen kussen? met vriendelijke groet, gekke henkie.
Beste Boels,
ik heb even je link gevolgd mbt platform afhankelijkheid van de software en dit citaat doet mijn haren ten berge rijzen:
“In a seasonal prediction framework, the ensemble spread due to the differences in software system is comparable to the ensemble spread due to the differences in initial conditions that is used for the traditional ensemble forecasting”. Naar mijn mening betekent dit dat de verschillen per platform net zo groot zijn als de uitkomst van de modelmatige voorspelling (projectie) van de klimaatparameter onder studie. Dit is nog heel veel slechter dan ik had kunnen bevroeden. Dit betekent, dat wanneer je exact hetzelfde programma draait op een Cray, en op een PC, je de twee meest extreme uitkomsten kunt krijgen bij dezelfde start waardes van de relevante parameters?
Ik ben even naar de schuur om mijn diesel aggregaat te checken. met vriendelijke groet, gekke henkie.
Zou Victor Venema de code gelezen hebben, en begrepen. Je mag hopen van wel, aangezien hij het hier presenteert als de verklaring van geconstateerde adjustments.
Aanpassen van data is “nodig” omdat er anders geen dataset is van voldoende lengte.
De ruwe data van De Bilt is betrouwbaar (geen instrumentwisselingen en verplaatsingen van meetpunten) vanaf 20080925, 12.00 UT.
Zie:
http://projects.knmi.nl/klimatologie/metadata/debilt.html
Verplaatsing van een meetpunt impliceert het ontstaan van een nieuwe meetreeks die formeel geen relatie heeft met de oudere reeks tenzij er een paar jaar simultaan wordt gemeten op de oude en nieuwe stek; dan is aanpassing van de oude reeks min of meer aanvaardbaar.
Verandering van de omgeving rond het meetveld (hoogte begroeing en bebouwing) is niet opgenomen in de metadata.
Boels,
waarom aanpassing van de oude reeks? Pas de nieuwe maar aan, als de oude op echte metingen is gebaseerd.
Maar nog beter, pas niets aan. Je hebt na aanpassing twee verschillende reeksen gekregen. Indien ze voldoende lang zijn zou je de trends kunnen vergelijken.
Met meerdere reeksen is het statistisch/formeel niet mogelijk om een gezamenlijke trend te bepalen ;-)
Dat is volgens mij dan ook de reden om te sleutelen aan reeksen om één lange reeks te verkrijgen.
Men moet toch wat (al is het een beetje belachelijk om dan verschillen van 0,01K significant te noemen).
Het aanpassen van oudere metingen aan nieuwe omstandigheden is m.i. alleen zinvol als er gedurende tenminste een paar jaar simultaan gemeten is en de afwijkingen goed in kaart zijn gebracht.
Een andere foutenbron is afkomstig door het gebruik in de tijd van verschillende meetmethoden (thermograaf, platinaweerstand, enz.).
En niet te vergeten de automatische weerstations met weerstanden met negatieve temperatuurscoëfficient sinds begin jaren ’80; bij voorkeur geplaatst op of in de nabijheid van vliegvelden.
Heb ik het nog niet eens over UHI’s tengevolge verstedelijking.
Beste Boels
Stel dat we 100 jaar experimenteel gevonden data hebben en een nieuwe reeks van 10 jaar. Moeten we dan die 1e reeks van 100 jaar gaan aanpassen?
Dan krijg je zulke gekke zaken als het verdwijnen van de super zomer en winter van 1947 enz. Ik ben daar niet voor. Ik zie ook niet de zin om twee ongelijke reeksen aan elkaar te koppelen. Bewerkingen die je ermee gaat doen zijn onbetrouwbaar, met een korreltje zand te nemen.
@Erik:
Ik vind het te verdedigen als de nieuwe 10 jarige reeks met nieuwe meetapparatuur vergezelt wordt van een simultane reeks met de oude meetapparatuur.
Èn (dus mits) de omgeving van het meetveld niet is veranderd t.o.v. die van de oude reeks.
Het taaie ongerief hier op Climategate.nl is de dagelijkse dogmatische “peer-reviewed” vervuiling en ad homini’s door Henk. Dat bewuste temperatuurseries datamanipulatie / homogenisatie (wat is het verschil met bewuste wetenschappelijke fraude?) heeft plaatsgevonden binnen het IPCC en ook KNMI is allang vastgesteld. Het is de kern van de jarenlange Climategate en het gefundeerde wantrouwen tegen IPCC’s CAGW (waar blijft de catastrofale opwarming?), die Michael Mann als ideologisch voorman verpersoonlijkt. Google zoekmachine geeft op “data fraude IPCC Mann” zo’n 48.000 hits. Dat Henk malafide datamanipulatie blijft ontkennen heeft geen enkele betrouwbare betekenis.
Scheffer, just my 2 cents here !!
we zouden pas een probleem hebben als de opdrachtgevers van “Henk” het niet meer nodig achten om iemand zijn tijd hier permanent te laten verspillen …
want laat ons eerlijk zijn: qua klimaatgeloof komen “wij” hier vrij dicht in de buurt van hopeloze gevallen …en is dus de kans klein tot onbestaande dat de aanwezigheid van “Henk” – ondanks zijn voorliefde voor “wetenschap” en “peer review”, en altijd met doorwrochte “links” – de mensen hier tot zijn geloof zal bekeren.
“Henk” is enkel en alleen hier om de occasionele bezoeker te verwarren, en zo mogelijk, weg te jagen. Door te proberen deze bezoeker enkel wat heen en weer geroep te laten zien. “Henk” reageert, op een soms serieuze post of reactie, met wat voorspelbare (sommige posters hier hebben hier al geopperd dat “Henk” eigenlijk een app zou zijn) onzin, waarop wij dan weer reageren, waarop de zaak escaleert tot wat heen en weer geroep … waarop de occasionele bezoeker mogelijk reageert met even weg te blijven …
weet gewoon dat ook de kans dat climategate.nl “Henk” bekeert tot enige redelijkheid in deze, net zo klein, of onbestaande is als andersom …
Niet alleen de wereldtemperatuur, maar ook bv. het aantal “tropische dagen in Ukkel” (tropische dag = dag met max. temperatuur > 30°C) verandert door toedoen van de mens.
Zo is – zo leren we via de website van onze VRT weerman Frank Deboosere – het aantal tropische dagen in Ukkel in 1976 op iets minder dan een jaar tijd gestegen van 14 naar 19 … plus 36% ! …
Terwijl het aantal tropische dagen in 1911 is gedaald van 19 naar 16 en in 1947 van 16 naar 15 …
Frank legt ook uit waarom : “Het meten van de temperatuur is niet zo eenvoudig als het lijkt. Ik heb voor de berekening van de tropische dagen (ook wel hittedagen genoemd) al de nodige correctiefactoren proberen toe te passen. Maar dat is moeilijk. Tot mei 1983 gebeurden de waarnemingen immers in een open thermometerhut. En de dagelijkse waarnemingen van de 19-de eeuw zijn niet zo nauwkeurig.”
“Frank legt ook uit waarom : “Het meten van de temperatuur is niet zo eenvoudig als het lijkt.”
Meten zonder waar te nemen is inderdaad onzinnig: houdt dus dreigende veranderingen van de meetomgeving in de gaten en borg het meetveld en de naaste omgeving.
Het verzamelen van meteogegevens is veldwerk (al vertikken moderne weerkundigen te weinig naar het meetveld te kijken) en inherent daar aan is de onnauwkeurigheid (niet door het meten op zich, maar van veranderende omgevingsfactoren).
Dat moet je niet kunstmatig verdoezelen en doen alsof het meetveld een geconditioneerd laboratorium is.
Metingen zijn onveranderlijke uitgangspunten of het bevalt of niet.
“Metingen zijn onveranderlijke uitgangspunten of het bevalt of niet.”
ik ben het daarmee volmondig eens, gegeven dat de metingen zo zorgvuldig mogelijk gebeuren, en voor controversiële zaken als de hedendaagse temperatuur, in volledige transparantie …
maar blijkbaar is dat in postnormale wetenschap – o.a. dus onderhavige “klimaatwetenschap” niet meer zo … het doel heiligt daar kennelijk de middelen …
http://www.kmi.be/meteo/view/nl/20257907-Het+meten+van+de+extreme+temperaturen+te+Ukkel.html
Victor, bedankt voor de link, en/maar …
1. zie mijn reactie over de aanpassing van “Frank” (van het KMI natuurlijk … ) van het aantal tropische dagen op zijn website hieronder …
2. hieronder hint ik ook al dat ook De Bilt voor mij nog niet is afgesloten … er is een heleboel “circumstantial evidence” dat 1947 heel warm, en heel lang heel warm was … en niet alleen in België of Nederland, maar in heel West Europa … ik zal straks mijn google drive daarover actualiseren, en de link hier posten …
3. de aanpassing aan de Tmax van De Bilt – o.a. aan de hittegolven van 1947 – voldoen momenteel nog steeds niet aan mijn voorwaarde van transparantie … graag zag ik van het KMI of van Mr. Brandsma originele cijfers (dus geen excelletje !) van de parallelle metingen die in De Bilt zijn gedaan tijdens de overgang van Glaisher pagode naar Stevenson hut, en de verplaatsing van het station 300m verder in de tuin … als U mij een plezier wil doen, kan U Uw gewicht gebruiken om die ingescande pagina’s zo snel als mogelijk publiek te maken …
@Victor Venema :
Dank voor de link!
Een simultaanperiode van 20 jaar lijkt mij meer dan voldoende om zinvolle correcties aan te brengen.
Het valt mij op dat de omgeving van de meetplaats wel wat te wensen over laat gezien de hoge bomen en de bebouwing op de achtergrond.
Ik meen dat de WMO een groter gezichtsveld aanbeveelt.
Beste Victor Venema,
fijn die link. Maar wat bedoel je daar mee? Dat het in Ukkel wel goed gedaan is? En in de Bilt niet? Je orakelt, Victor. Leidt ons naar het doel. Anders zoeken we het zelf en dat is ons sceptische schapen niet toevertrouwd. met vriendelijke groet, gekke henkie.
Ook in de Bilt verdwijnen warme dagen van vóór 1950 na correctie zonder dat daarvoor een duidelijke motivering wordt gegeven. De klimaatgek is inderdaad zeer de moeite waard. http://klimaatgek.nl/wordpress/de-bilt/ heeft dit proces van voortdurend corrigeren zo goed modelijk geprobeerd te achterhalen. De GIF-animaties in dit artikel laten het resultaat goed zien:
1. Fluctuaties tussen 1900 en 1990 verdwijnen
2. Het gemiddelde tot 1950 daalt.
3. Na 1970 ontstaat een continue stijgende lijn.
Zie http://klimaatgek.nl/wordpress/2017/06/30/de-verdwenen-warme-jaren-van-voor-de-oorlog/
Niet alleen gemiddelden moeten eraan geloven, ook de extremen worden voortdurend ‘bijgesteld’, waardoor er in 2 jaar liefst 3 lijstjes ontstonden van ‘warmste junimaand sinds 1901’.
http://klimaatgek.nl/wordpress/2017/06/27/warme-junimaand/
Dit beeld verloopt wereldwijd zo. Misschien kent Henk iemand die kan uitrekenen hoe groot de kans is dat de correcties over duizenden meetstations synchroon veranderen als gevolg van homogenisatie.
Hoe groot is de kans dat we over 10 jaar nog steeds dezelfde data zullen hebben?
Kreten als warmste dag ooit enz. stellen helemaal niks voor en kunnen gelijk de prullenmand in.
@ Noud …
” zonder dat daarvoor een duidelijke motivering wordt gegeven.”
dat is niet helemaal correct … er is voor De Bilt (en voor de andere hoofdstations in Nederland) rond die tijd een verplaatsing geweest van het station …
Rob De Vos geeft ze alle aan … Bv. Maastricht naar Beek … of
van Groningen naar Eelde … die zijn tot 10 km van elkaar verwijderd, en van een stadsomgeving naar het platteland … Dan is er ook De Bilt, waar het van de ene plaats in de tuin naar een andere ging, en ook nog een verschillend station werd gebruikt …
het probleem is dan ook niet – en hier mag ik mogelijk van mening verschillen met andere posters hier, en ook met o.a. William Briggs – dat er een “homogenisatie” of correctie of hoe je het ook noemt wordt toegepast … integendeel zelfs, dat lijkt me logisch …
het probleem is 1. hoeveel ? en daarmee samenhangend 2. transparantie van die aanpassing? …
en dus over De Bilt, wat mij heel erg interesseert, is de discussie nog lopend, omdat niet wordt voldaan aan punt 2.
over de correcties van Frank Deboosere hierboven kan alleen maar gehoonlacht worden …
Frank zegt 1. dat hij geprobeerd heeft alle correcties te maken, al in versie 2016, en 2. dat Ukkel een overgang van open pagode naar Stevensonscherm deed in 1983 … is dat zo ? … kan ! … geen probleem !
en dus verwacht ik in 2017 : 1. ofwel geen correctie meer, omdat de correcties al gemaakt zijn, of 2. een mogelijke aanpassing van alle cijfers ofwel in de periode voor 1983, ofwel in de periode na 1983 …
maar wat gebeurt ?
1911 en 1947 (beide VOOR 1983, of niet ?) werden blijkbaar te hoog gemeten, en 1976 (dat ik mijn idee van jaartelling OOK voor 1983 komt) werd dan ineens VEEL te laag gemeten …
DAT is natuurlijk om te gieren …
Zou een homogenisering niet een grotere sprong/afwijking moeten hebben op het moment van verplaatsen en die zou dan kleiner moeten worden naarmate je langer teruggaat, zeg maar in 30 jaar naar 0?
neen !
aanpassingen of correcties gebeuren op 1 tijdstip, en op alles wat volgt of voorafgaat … let wel, die aanpassing kan een percentage zijn, of een vast getal … dat moet blijken uit de de regels van het meten hieronder … punt 6 …
“meten” en fouten op meten is niet simpel … maar men moet het ook niet ingewikkelder maken dan het is … en dat ingewikkeld maken is natuurlijk een makkelijke manier om veel mensen weg te jagen … gooi er een aantal “percentielen” of “integralen” tussen, en de de overgrote meerderheid is weg …
om te “meten” moet men wel een aantal zaken in acht nemen, als daar zijn :
1. gebruik “goed” materiaal … (dus geen meter van 105 cm)
2. laat dat goed materiaal geregeld ijken … (die meter van 105 cm is van zo’n slecht materiaal dat een beetje er aan trekken tijdens het meten heeft gemaakt dat hij na een jaar al 110 cm is geworden)
3. stel een duidelijke procedure op voor een meting …
4. verander die procedure enkel als het echt moet …
5. laat metingen (met dat toestel en die procedure) doen door verantwoordelijke mensen met enige beroepsernst …
6. als het toch noodzakelijk is ofwel het meetmateriaal ofwel de procedure te veranderen, neem dan gedurende voldoende lange tijd parallelle metingen met toestel 1 volgens procedure 1, en met toestel 2 volgens procedure 2
7. AL het voorgaande gebeurt in TOTALE transparantie … dus NIETS achter een paywall, dus NIETS enkel toegankelijk voor insiders, enz. …
ik heb eigenlijk weinig twijfel aan de kunde en de beroepsernst, en dus aan de metingen van De Bilt en Ukkel tot voor 20 jaar … sindsdien, wegens volledige politisering van de zaak, weet ik het niet meer
Dank je, ducdorleans,
Waarom ik de vraag stelde: als het meetstation bij de Bilt verplaatst wordt omdat er inmiddels hoge gebouwen en bomen omheen staan, dan stonden die er 30 jaar geleden niet. De homogenisatie moet dan toch alleen over de periode van verstoring gaan?
Ivo, mee eens. De evt correctie moet over de tijd vd verstoring gaan en absoluut niet verder. Maar nog veel liever geen correctie, totdat je misschien een nieuwe lange reeks met ongeveer dezelfde trend hebt verkregen.
in juni 1976 is mn dochter geboren…bloedje heet…hittegolf zoals nooit meer meegemaakt….is n vrolijke meid geworden…..mvg..bart
beste henk…..als je gelijk hebt met het niet peer revieuwd zijn terwijl dat wel geclaimd wordt heb je n punt…..mvg…bart..
zie nu pas de repliek van hans daarover…dus henk…wat is daarop je antwoord?….mvg…bart.
en zoals jullie inmiddels van me gewend zijn:…weer ff n zijstapje:.zijn er al antwoorden op de vragen van de pvvsenator aan staatsecretaresse sharon dijksma gekomen resp. heeft de stemming in de 1e. kamer al plaatsgevonden?…mvg…bart.
goedgekeurd ! …
zie hier https://www.eerstekamer.nl/verslagdeel/20170704/goedkeuring_overeenkomst_van
(ik meen me te herinneren dat de presentator dat al zei tijdens het debat Verheggen vs Poels …)
merci ddo…en de antwoorden op zn vragen?….bij de kluitjes in het riet?….avec regards…bartolemie..
Nog even terug op het onderwerp: het originele rapport waarover het taaie ongerief gaat, is hier te vinden: https://thsresearch.files.wordpress.com/2017/05/ef-gast-data-research-report-062717.pdf
Ter geruststelling van Henk: ook een IPCC expert reviewer verklaart achter het rapport te staan.
Elke dag kijk ik toch wel even op deze site of er al meer duidelijk is over het klimaat. Want ik heb er geen verstand van en hoop er meer verstand van te krijgen door de artikelen goed te lezen. Het helpt natuurlijk niet als zo’n lawaaipapegaai als Henk de discussie maar blijft verstieren en zand in de molen blijft strooien. Maar ik neig toch steeds meer naar een twijfel over de klimaatopwarming , maar ik blijf het volgen.
gr Dirk
beste dirk…ik bevind me ongeveer in dezelfde fase behalve dat de opwarming vooralsnog niet ontkend wordt….maar wel twijfel hoelang de papegaaien nog mogen lawaaien…mvg..bart.
Het vervelende is dat historische meteodata (te beginnen met die van gisteren ;-) ) afkomstig is van verschillende meetmethoden op verschillende meetplekken onder verschillende omstandigheden van de omgeving en daarom niet homogeen KUNNEN zijn.
Dat geeft onzekerheden in het historische verloop van de gemeten temperatuur en dus ook in de extrapolatie naar de toekomst en de invloed van een CO2-verdubbeling op de temperatuur.
ik denk dat ik nog enkele knipsels over de hittegolven in 1947 in West Europa – die mijn speciale aandacht hebben – heb geupload naar mijn google drive … de link zou de volgende moeten zijn :
https://drive.google.com/drive/folders/0B6Kf8Kq84e-VVDFudUczXzZERDQ?usp=sharing
of deze tinyurl … http://tinyurl.com/jcrdrm3
Dan is Delpher voor NL-kranten vanaf de 17de eeuw een mooie zoekmachine ;-)
http://www.delpher.nl/
Voorbeeldje:
Rotterdamsch nieuwsblad
07-10-1895
“De warmte der maand September heeft ook reeds de aandacht der geleerde wereld getrokken. Het Parijsche observatorium houdt reeds sedert 1689 meteorologische aanteekenïrrgen en bij vergelijking is gebleken, dat September 1895 wat de hooge temperatuur betreft, alle tot dusverre gepasseerde maanden van dien naam de loef afsteekt. De gemiddelde temperatuur van die maand bedroeg 19.9° Celsius; het maximum, dat den 7en September bereikt werd, was 36.2°. In de laatste twee eeuwen heeft men slechts tweemaal dergelijke verschijnselen, die echter niet zoo opmerkelijk zijn als die van thans, waargenomen: in het jaar 1734 bedroeg de maximum-temperatuur van September 31.9° C. en in 1886 31.3° C. De hoogste gemiddelde temperatuur, 18.4° C, werd in het jaar 1841 waargenomen. “
@henkie juli 15, 2017 1:19 am
Platform afhankelijkheid
Voor de leesbaarheid nogmaals de link naar de publicatie:
http://journals.ametsoc.org/doi/abs/10.1175/MWR-D-12-00352.1?af=R&
Lijkt mij typisch iets voor een Red Team met als opdracht
1) de code van de gebruikte programma’s te toetsen
2) de uitkomsten te vergelijken op een veelheid aan platforms
3) de gebruikte statistische methoden te toetsen op toepasbaarheid
Daarbij is de hulp van “nerds” en vakstatistici onontbeerlijk.