Einige AGW - Überzeugungstäter behaupten, mehr als 100% der Erwärmung seit 1850 gehen auf das Konto der Menschen. Ohne uns hätte sich nämlich die Erde weiter abgekühlt. So steht es auch im IPCC Bericht. Dort zeigt man Rechenmodelle ohne anthropogene forcings, also nur mit den natürlichen Antrieben. Demnach wäre man jetzt wieder dort, wo wir Mitte des 19. Jahrhunderts lagen, also temperaturmäßig knapp über der kleinen Eiszeit vor 300 Jahren, der kältesten Zeit der letzten 2.000 Jahre. Der Vollständigkeit halber: Diese Erkenntnisse stammen aus den Rechenmodellen, die schon seit 18 Jahren mit ihren Projektionen daneben liegen. Mittlerweile sogar zu 100%. Observation ist in den Augen mancher Wissenschaftler eben nicht mehr vertrauenswürdig. Man glaubt den eigenen Rechenmodellen mehr als der Realität. Das ist Gruppendenken in Reinstform.
Ich kenne die Arbeit mit Rechenmodellen aus meiner täglichen Arbeit. Zwar in anderem Bezug, aber ich denke, die Prinzipien sind vergleichbar. Meine Erfahrung damit ist, dass das Ergebnis vor allem durch die Randbedingungen der Rechnung bestimmt wird. Diese werden menschlich bestimmt. Dem Computer müssen quasi die Systemgrenzen der Simulation mitgeteilt werden. Das ist selten trivial, aber immer entscheidend. Der Computer oder das Programm selbst machen sicherlich keine Fehler. Konvergiert eine Rechnung, ist sie erfolgreich und nach Ansicht des zuständigen Rechners auch richtig, wohl wissend, dass eine kleine Änderung in den Randbedingungen ein fundamental anderes Ergebnis zeitigen kann. Ich sehe auch bei uns die Tendenz der Rechner, der eigenen Rechnung mehr zu vertrauen als der Messung. Ich glaube, nach einer gewissen Zeit stellt sich ein schier grenzenloses Vertrauen in die Fähigkeiten der Maschine ein. Gedeckt wird das Vertrauen durch die Anerkennung der Umgebung. In meinem Umfeld werden Konstruktionsentscheidungen auf dieser Basis getroffen. Die Validität muss selten in Betracht gezogen werden, da die gerechnete schlechte Alternative ja verworfen wurde. Die überlegene Alternative geht dann in die Weiterentwicklung, so dass eine praktische Verifikation selten stattfindet. Und wenn, dann kann man es eben auf die Änderungen in der Weiterentwicklung schieben. Und wenn das auch nicht geht, passt man die Randbedingungen so an, dass sich die Rechnung mit der Realität deckt. Den Schritt ist die AGW Gemeinde aber noch nicht bereit zu gehen, da sie dann die Klimasensitivität von derzeit 3 Grad pro CO2 Verdoppelung auf wahrscheinlich deutlich unter 1 Grad senken müsste. Damit wäre aber die ganze Spinstory für die Katz.
"Natural factors could have caused warming or cooling. Imagine that natural factors would have caused a cooling of 0.1 degrees C since pre-industrial times (which is not at all implausible), then to achieve closure with the observed warming of 1.0 degrees, anthropogenic factors should have contributed 1.1 degrees, or 110% of the observed warming. We discussed this argument in detail in our ES&T paper emanating from the climate science survey we conducted in 2012."
Quelle:
https://ourchangingclimate.wordpress.com/2016/06/...-human-causation/Diese Argumentation ist insofern interessant, weil sie klar schizophrene Züge zeigt. Zum Einen wird die observierte Erwärmung anerkannt und sogar überhöht (die 1 Grad sind über alle Messysteme und Trends betrachtet 0,1 bis 0,2 Grad zuviel). Zum Anderen wird die Diskrepanz zwischen den eigenen Modellen und der Realität von ca. 0,5 Grad vollkommen ignoriert. 0,5 Grad sind immerhin 63% der gesamten Erwärmung. Wenn ich mir im Baumarkt ein Metermaß kaufe mit einer Toleranz von plus/mius 63 cm, lasse ich mein Projekt wohl lieber bleiben.
Aber der Grund ist auch klar: Die Modelle müssen mit viel zuviel natürlicher Kühlung rechnen, damit sie mit dem Riesenforcing, das sie dem CO2 beimessen, überhaupt noch in die Nähe der observierten Temperaturen kommen. Beides können sie ohne Gesichts- und Jobverlust nicht ändern.