Ja, das Meiste davon kenne ich. Es ist klar, dass in jeder Messung Unsicherheiten enthalten sind. Das ist auch das Entscheidende, was man im Hinterkopf haben muss. Je länger die Daten zurückliegen, desto fragwürdiger sind sie. Das gilt sowohl für Temperaturdaten als auch für die CO2-Messungen. Ich hatte mich mal ne Zeit lang mit den CO2-Messungen beschäftigt. Die Einwände von Beck und Jaworowski kenne ich. Soweit ich mich erinnern kann, wurden sie zumindest für mich halbwegs plausibel widerlegt.
Was bzgl. CO2-Messung bleibt, ist
•§Die Unsicherheiten bei jüngeren Eisbohrkerndaten
•§Der Split zwischen Eisbohrkern- und Luftmessungen
•§die auch heute noch weitgehend unbekannte Verweildauer des CO2 in der Atmosphäre
•§und die Projektionen der CO2-Konzentrationen
Die ersten 3 Punkte sind einfach Unsicherheiten, mit denen man leben muss. Der letzte ist einer, wo m.E. politischer Schindluder getrieben wird. Das bekannte RCP 8.5 Szenario (Business as usual) nach dem Berner Modell übertreibt m.E. die Emissionsprognosen maßlos, da z.B. so gut wie nichts als Senke (z.B. das schon heute sichtbare und dämpfend wirkende Ergrünen der Flora) berücksichtigt wird. Realistische Schätzungen gehen hier von einem Wert zwischen 500 ppm und 600 ppm in 2100 aus. Dann lägen wir bei einer Verdoppelung, also bei ca. 1 Grad Erhöhung durch CO2. Kein Beinbruch, auch wenn das noch so oft als Weltuntergang dargestellt wird. Die Hälfte davon hätten wir bereits hinter uns. Nach dem Gesetz der Serie sollten die demnächst drehende AMO zusammen mit der periodisch nachlassenden Sonnenaktivität zeitversetzt für natürliche Kühlung sorgen, so dass also am Ende, selbst wenn wir nichts machen, die ominösen 1,5 Grad nicht überschritten werden.
Damit wären wir bei den Temperaturen. Die Temperaturdatensätze erachte ich auch als zutiefst zweifelhaft. Die regelmäßig wiederkehrenden Anpassungen, die sich fast ausnahmslos in höheren Temperaturen niederschlagen, sind keinem vernünftigen Menschen mehr vermittelbar. Dabei sind noch nicht einmal immer die Datensatzherausgeber die Schuldigen. Vieles an Anpassungen passiert schon zuvor im GHCN Stationsnetzwerk. Das Stichwort lautet hier Homogenisierung. Dabei werden Ausreißer in einer Region an die Messwerte der sie umgebenden Stationen angepasst. Damit will man theoretisch dem städtischen Hitzeinseleffekt beikommen, aber es ist trotzdem Humbug, weil real existierende Mikroklimata platt gemacht werden und Trends damit verstärkt werden. Dann fliegen willkürlich Stationen aus dem Netzwerk raus, oder kommen wie jüngst hinzu. Auch hier äußert sich das Hinzunehmen in einer Erhöhung der Erwärmung, nicht weil es da wärmer war, sondern weil ihre Daten nicht lange genug zurückreichen. Damit liegt ihre Abweichung automatisch höher im Vergleich zu den alten Messdaten, aus denen die Bezugsbasis gezimmert wurde. Mittlerweile machen die ganzen nachträglichen Anpassungen mehr aus als die realen Messwerte. Dann wären da Meerestemperaturen, die vor dem Jahr 2003 nur über sehr spärliche Messungen geschätzt sind. Da sind riesige Unsicherheiten drin, die keiner benennt. Zur Erinnerung. Das Meer repräsentiert über 70% unserer Fläche.
Wie weit wir heute über den Werten der letzten Hitzeperiode in den 1930er und 1940er Jahren liegen, weiß deshalb keiner. Bei den Satellitenmessungen ist es etwas besser, aber auch da gibt es zwei Lager. Eines (RSS) hat auch 2017 seine Daten nach oben angepasst, das andere (UAH) nach unten. Unschwer zu erraten, wer welchem Lager angehört. Die Trends liegen ziemlich weit auseinander. UAH (Sat) und Hadcrut (Boden, eig. Datenanpassung) liegen bei ca. 0,13 Grad/Dekade, RSS (Sat) und Giss (Boden, GHCN Netzwerk) liegen bei ca. 0,2 Grad/Dekade. Bis zum Jahr 2100 hochgerechnet ergäbe sich daraus ein Unterschied von immerhin 0,6 Grad, alleine durch die Art der Messung bzw. Anpassung. Und da sprechen wir nur über die Lufttemperaturen. Was sich im viel entscheidenderen Meer tut, weiß man nicht und wird es nie exakt wissen, da wir keine belastbaren Daten darüber aus der Vergangenheit haben. Summa summarum, die Temperaturdatensätze sind zum Großteil Kaffeesatzleserei.
Wo Ball außerdem noch recht hat, ist die mehr oder minder komplette Vernachlässigung bzw. Unterdrückung natürlicher Faktoren. Sie sind größtenteils gar nicht bekannt. Die Wolken und Modellierung der Konvektion bleiben auch heute noch ein Rätsel, die Auswirkungen von Geomagnetismus und kosmischer Strahlung ebenso wie die Auswirkungen der Meeresströmungen. Das heißt, Modelle auf so einer dünnen Theorie mit so vielen Unbekannten und sogar bekannten, aber ausgeblendeten Unsicherheiten, ist ein Witz. Daraus auch noch willkürliche Ziele wie 1,5 oder 2 Grad in den Lufttemperaturen abzuleiten, ist wissenschaftlich kompletter Hirnriss. Das alles dient nur einem Zweck und der heißt Selbstlegitimation der Wissenschaft und Politik durch Terrorisierung der Öffentlichkeit.
Das Problem ist nur, wenn man wie Ball hingeht und sagt, ausnahmslos alles, was aus der Ecke kommt, ist frei erfunden, Betrug und Murks, wird man ziemlich schnell widerlegt und landet zurecht in der Verschwörungsecke.
-----------
Überall ist der Irrtum obenauf und es ist ihm wohl und behaglich im Gefühl der Majorität