Die Klimaritter, eine antikapitalistische Revolte

Seite 22 von 158
neuester Beitrag: 27.12.22 12:49
eröffnet am: 01.05.16 00:56 von: lumpensamm. Anzahl Beiträge: 3949
neuester Beitrag: 27.12.22 12:49 von: hello_again Leser gesamt: 926101
davon Heute: 190
bewertet mit 42 Sternen

Seite: 1 | ... | 19 | 20 | 21 |
| 23 | 24 | 25 | ... | 158   

20.01.17 15:06

10665 Postings, 7513 Tage lumpensammlerAnthropogener Anteil am CO2 92%

Ich wurde kürzlich gefragt, ob denn das CO2 in der Atmosphäre tatsächlich vom Menschen stammt, da es immer wieder Berichte gibt, die das bestreiten. (z.B. über den Anteil der spezifisch anthropogenen C Isotope in der Atmosphäre, die einen viel geringeren anthropogenen Anteil nahelegen)

Klare Antwort: Was da oben ist, kommt entweder natürlich aus der Erde (Vulkane, Böden, Ozeane) oder ist anthropogen. Was man definitiv sagen kann: Anhand Henry's law ( 4-17 ppmV / K) über die Löslichkeit von CO2 in Wasser und anhand der historischen Beobachtungen aus Eisbohrkernen kann man den natürlichen Anteil auf ca. 16 ppmV/K bestimmen. Nimmt man also an, dass die globale Temperatur seit Beginn der Industrialisierung um ca. 1 °C gestiegen ist, kann man den natürlichen Anteil auf diesen Wert, 16 ppmV, beziffern. Vulkane hatten in den letzten Jahrzehnten keinen nennenswerten Einfluss, ich lasse sie deshalb beiseite.

D.h. der Anstieg in der CO2 Konzentration von 120 ppm seit der Industrialisierung ginge zu 87% zu unseren Lasten.

Das gilt jedoch nur durch die Denierbrille betrachtet, dass der komplette Temperaturanstieg natürlichen Ursprungs wäre. Ein Klimaritter wird das Gegenteil behaupten, also dass der komplette Anstieg anthropogen wäre (d.h. dann auch folgerichtig 100% CO2). Nehmen wir als Schiedsgericht den wissenschaftlichen Konsensus des IPCC mit der Tendenz aus den ralen Temperaturbeobachtungen. Das IPCC sagt, dass mindestens 50% des Temperaturanstiegs seit 1950 auf unser Konto gehen. Das wären Pi mal Daumen 0,3 Grad. Dass ich mich an der unteren Grenze orientiere, begründe ich mit den aktuell gemessenen Temperaturen, die eine deutlich geringere Sensitivität nahelegen, als das IPCC postuliert. Dazu addiere ich noch einmal 0,1 Grad anthropogenen Anteil vor 1950. Also 40% des gesamten Temperaturanstiegs seit Beginn der Industrialisierung gingen somit auf unser Konto.

Damit landen wir bei ca. 92% anthropogenem Anteil an der CO2 Konzentrationssteigerung. Der ist damit so hoch, dass er eigentlich nicht diskutiert werden muss. Die C-Iosotope in der Atmosphäre sagen nicht viel über die Ursprung aus, da ein steter Wandel mit den Senken auf der Erde (Pflanzen, Ozeane) stattfindet.

Die eindeutige Korrelation zwischen CO2 Emissionen und CO2 Konzentration ist auch schwerlich von der Hand zu weisen (s. Anhang)

D.h. natürlich nicht, dass das CO2 auch der (Haupt-) Grund für den Temperaturanstieg ist, und noch viel weniger heißt es, dass das CO2 überhaupt ein Problem ist. Im Gegenteil: Man trage einmal das CO2 auf der x-Achse und auf der y-Achse Ernteertrag, Lebenserwartung, GDP etc. auf. Das ist nämlich die positive Kehrseite, die sich niemand zu malen traut.  
Angehängte Grafik:
co2_emiss_conc.jpg
co2_emiss_conc.jpg

21.01.17 01:22

10665 Postings, 7513 Tage lumpensammlerTrump legt die Axt an den Klimawandel

http://www.usatoday.com/story/news/politics/2017/...e-house/96829932/

Eine Aneinanderreihung von populistischen Thesen war seine Antrittsrede, ganz nach dem Motto: Alles geht den Bach runter und ich werde es verhindern. Wenige seiner Beschreibungen decken sich mit der Realität, sei es der Zustand des Militärs, der Arbeitsmarkt, die illegale Einwanderung oder die Kriminalität, überall sieht es wesentlich besser aus, als er es darstellt.

Die positive Überraschung des Tages war die Ankündigung, den Climate Action Plan zu kippen. So schnell hätte man nicht damit gerechnet.  

21.01.17 05:58
1

30112 Postings, 8632 Tage Tony Fordwenn ein Milliardär ...

wie Trump einen solchen Plan kippt, dann finde ich das nicht gerade glaubhaft.

Warum gibt es keine gemeinnützige Organisationen welche solch einen Plan kippen?

Warum findet man gemeinnützige Organisationen eigentlich ausschließlich auf der Seite derer die eine Energiewende befürworten?  

21.01.17 06:01

30112 Postings, 8632 Tage Tony Fordnicht zu vergessen ...

dass Trumps Kabinett so manchen Lobbiisten aus der Ölindustrie drin sitzen hat und die sind natürlich sehr daran interessiert, dass die Ölpreise wieder steigen. U.a. weil das Fracking in den USA bei solch niedrigen Preise nicht lukrativ ist.
Und diese Steigerung erreicht man damit, dass man u.a. die Klimapläne kippt.

Am Ende werden einmal mehr die Profiteure die Ölindustrie und die alte Energiewirtschaft sein, Cheers.  

21.01.17 06:01
1

71849 Postings, 6043 Tage Fillorkillpositive Überraschung des Tages

'Die ehemalige Bürgerrechtsseite ersetzte das Trump-Team umgehend durch eine Seite, die eine Solidarisierung mit den Gesetzeshütern der USA fordert. Damit wird die Diskussion über Polizeigewalt durch eine Forderung nach mehr Polizisten abgelöst.'
-----------
wg karma

21.01.17 15:31

10665 Postings, 7513 Tage lumpensammlerGemeinnützige Opposition

gibt es nicht, da das Thema zu modern, zu umweltbewusst und zu sozial ist, eben so wie der Zeitgeist im Westen. Wer soll da opponieren? Eventuelle lokale Bürgerbewegungen z. B. gegen Windkraft sind viel zu klein, um gegen den Zeitgeist und das EE Kartell aus Industrie und NGOs (Vestas, Enercon, GE, Siemens, Gamesa, Greenpeace, WWF, BUND) anzugehen. Blieben noch NGOs oder Thinktanks der fossilen Lobby, die aber durch jahrzehntelange grüne Propaganda imagemäßig in der Hölle schmort und deshalb leicht muntot zu machen war. Nebenbei gesagt gibt es auch keine nennenswerte gemeinnützige Vereinigung, die den Klimaschutz unterstützt. Die o. g. NGOs sind mittlerweile ausnahmslos zu Heimstätten politischer Aktivisten der extremen Linken und deren Kader zu Vasallen der grünen Industrie verkommen, weil daher die Kohle kommt.

Die Mär von der bösen Öllobby ist zum Großteil Propaganda dieses Umweltkatells. Die großen Ölkonzerne z. B. machen die Nachhaltigkeits-Show eher mit, als dass sie sie stoppen, weil es ein Imagefiasko wäre, dagegen anzugehen und weil sie wissen, dass diese Hexenjagd irgendwann scheitern wird. Der ganze Dekarbonisierungsquatsch hat realistisch eine max. temporäre Auswirkung auf den fossilen Verbrauch im einstelligen Prozentbereich. Trotz dieser Delle wird auf absehbare Zeit der Konsum fossiler Energieträger zunehmen. Wieso also sollten sie sich deswegen die Hände schmutzig machen?

Trump ging gegen die Klimaritter an, weil die originär rechte Klientel der Skeptiker eine dankbare Zielgruppe für ihn war und er als unabhängiger Außenseiter im Gegensatz zu den gemäßigten Republikanern den offenen Kampf mit der Umweltlobby nicht fürchten musste. Im Gegenteil: Hier kann er sich zukünftig als Ausmister einer Establishmentstallung profilieren und über das Image des Streiters für den Strompreis von Joe Sixpack in den einkommensschwachen Schichten punkten.

Wer steht also aus Sicht Trumps als personelle Auswahl im Kampf gegen diesen weit verzweigten Feind zur Verfügung? Die etablierten Politiker der Republikaner eher nicht, da sie z. T. mitverantwortlich für die Misere sind. Um gegen eine außerparlamentarische Opposition und das politische Establishment aus beiden Parteien gleichzeitig anzugehen, bieten sich nur Seiteneinsteiger aus der Industrie an. Da viele Unternehmer der new economy eher den DEMs nahestehen, wird man vorzugsweise auf die Klassiker der blue chips zurückgreifen müssen. Ölleute sind deshalb prädestiniert. Sie erfüllen diese Bedingungen und stehen nicht im Verdacht, mit dem Establishment oder dem Umweltkartell in einem Boot zu sitzen, repräsentieren den mit am wichtigsten Wirtschaftszweig in den USA und sie sind international bestens vernetzt. Bingo.

Natürlich wird deren Politik die Ölmultis stützen. Sie werden sich vor keinem Gericht mehr rechtfertigen müssen, wieso sie nicht schon vor 20 Jahren ihren Anlegern die grünen Märchen der Klimaritter erzählt haben. Und sie werden noch bessere Geschäfte machen, dagegen ist auch nichts einzuwenden. Wir freuen uns auch, wenn VW gute Geschäfte macht. Ob das Ganze zu Lasten der Bürger gehen wird, bezweifele ich in diesem Punkt. Spannend wird es auf dem Gebiet der Innenpolitik. Will Trump den Polizeistaat wie von Fill oben angedeutet noch weiter ausbauen, als es jetzt schon der Fall ist und/oder die Minderheiten so behandeln, wie er das im Wahlkampf getan hat, dann wäre das im Gegensatz zu der Klimalappalie tatsächlich eine Katastrophe.  

21.01.17 17:48

30112 Postings, 8632 Tage Tony Ford@lumpi ...

meinst du nicht, dass das was du in #531 schreibst, ein Hang zur Phobie und Irrationalität hat?

Es soll ja nicht wenige Leute geben, welche den USA unterstellen, dass dessen Kriegstreiberei vor allem der Ressource Öl geschuldet sein soll.

Der Öl-Lobbiismus, die Einflussnahme bis in den höchsten politischen Ebenen war in den vergangenen Jahrzehnten vor allem in den USA extrem dominant und ist selbst Heute noch präsent, wenngleich die Dominanz nicht mehr besteht.

Auch kann man dies anhand wirtschaftlichen Kennzahlen belegen. So liegt die Kapitalisierung der Öl-Industrie nach wie vor weit über denen der erneuerbaren Energien, so dass allein schon deshalb die Macht der "Green Energy" begrenzt ist.

Wenn man sich die Liste oben anschaut
(Vestas, Enercon, GE, Siemens, Gamesa, Greenpeace, WWF, BUND)
so zählt Vestas mit 14mrd.€ Mcap. bereits zu den größten Unternehmen im Bereich Green Energy.  Zum Vergleich Exxon Mobile über 300mrd.€ und dabei stellt Exxon Mobil nur einer von mehreren großen Wirtschaftsgiganten dar.

Dann sind da noch GE und Siemens, wo ich mich frage, was die da für eine Rolle spielen sollen? Beide Konzerne beliefern ebenso die Öl-Industrie und erzielen mit z.B. dem Bau konventioneller Kraftwerke wesentlich größere Margen aus mit dem Bau erneuerbarer Energien.
http://www.manager-magazin.de/unternehmen/...-vergleich-a-914124.html

Weder Siemens, noch GE noch die Ölindustrie haben tatsächlich ein Interesse an erneuerbare Energien und einer Energiewende, denn Fakt ist, dass sie ohne die Energiewende, d.h. auf dem konventionellem Wege wesentlich bessere Gewinne erzielen konnten.

Keine Öl-Industrie, kein Unternehmen wie Exxon Mobil würde die Energiewende freiwillig unterstützen, damit freiwillig den Ölpreis drücken und sich seiner Umsätze und Gewinne berauben. All dies ergibt wirtschaftlich wie finanziell keinerlei Sinn.  

21.01.17 19:00
1

5270 Postings, 4392 Tage MotzerKlimawandel?

Vor ein paar Tagen las ich: "2016 war das wärmste Jahr seit Beginn der Aufzeichnungen".

Auf Deutschland bzw. Europa trifft das sicher nicht zu. Es war eher ein kühles, sonnenarmes Jahr. So war z.B. 2003 eindeutig wärmer. Eine Temperatur für die ganze Erde zu berechnen, ist ohnehin völlig unmöglich. An vielen Stellen gibt es gar keine Messstationen.

Ich habe jedes Vertrauen in die Daten der Klima-Ideologen verloren. Vielleicht können sich einige noch an den Climategate Skandal erinnern.

http://www.focus.de/wissen/klima/klimapolitik/...aten_aid_462308.html

Dass die Behauptung vom durch CO2 verursachten "Klimawandel" eine der größten Lügen ist, wird von einigen renommierten Wissenschaftlern bestätigt.

z.B. vom Physiker Ivar Giaever, der Nobelpreisträger ist.

https://www.youtube.com/watch?v=8ZNHXz0v09E

Es gibt übrigens kein einziges Experiment, das diese Theorie bestätigt. Die Theorie beruht allein auf Computer Szenarien, die sich aufgrund der Vielzahl an Input-Parametern beliebig manipulieren lassen. Diese Programme unterliegen der Geheimhaltung, was ein schlechtes Licht auf die wissenschaftliche Redlichkeit der beteiligten Personen wirft. Ich habe das Wort "Forscher" bewusst vermieden.

 

21.01.17 23:04

10665 Postings, 7513 Tage lumpensammlerTony

Lass mal die Vorurteile beiseite und schau nur auf die Fakten in den USA und hier in EU in den letzten 10 Jahren? Was siehst du da an Öl- Lobbyismus und dessen Erfolge? Und was siehst du an EE Lobbyismus und dessen Erfolge? Ich sehe nur EE- Erfolge. Die Politik tanzt nach der Klimapfeife. Es vergeht kein Tag, wo uns nicht das Ende angedroht wird, wenn wir nicht alternativ werden. Die Subventionen haben wir ja hier schon einmal verglichen. Exxon hilft es wenig, das zweitgrößte Unternehmen zu sein, wenn sie öffentlich geteert und gefedert werden, wenn sie bei einer politischen Einflussnahme erwischt werden. Vestas hingegen kann 20 Busse chartern und seine Mitarbeiter nach Berlin zur Demo gegen Subventionskürzungen karren, ohne dass ein Hahn danach kräht. Diese Tiere bleiben auch stumm, wenn Vestas und Konsorten Lokalpolitiker kaufen, um einen sinnlosen Windpark im zugepflasterten Norden durchzudrücken. Das tun sie dann mit der Unterstützung durch Greenpeace und BUND, obwohl der Park im Naturschutzgebiet oder in direkter Nachbarschaft zu Wohnhäusern steht. Nene, das ist keine Frage der Marktkapitalisierung. Die Propagandamacht entscheidet und die ist mit dem Zeitgeist und der medialen Unterstützung eindeutig auf Seite der Klimaritter.

Oder schau in die USA. Was da an Klimaschutzpolitik durchgesetzt und wie die Ölbranche politisch unter Druck gesetzt wurde. Ob wirtschaftspolitisch oder geostrategisch betrachtet, das totalitäre Klimanarrativ hat den Kampf um das schwarze Gold längst als Legitimationsgrund abgehängt. Es zählt nicht, was die Branche umsetzt, es zählt, was der jew. Staat wo investiert und was er mit seinem Siegel versieht. Letzteres wird er dorthin setzen, wo er sich die größten Incentives erhofft. Und da sind die Verhältnisse glasklar.

 

22.01.17 06:16

30112 Postings, 8632 Tage Tony Ford#534 das ist Gefühlsduselei ...

denn die wirtschaftlichen Kennzahlen sagen etwas Andereres aus, da erzielt Exxon Mobile solch hohe Jahresüberschüsse wie die gesamte EE Branche zusammen.
Das große Geld wird nach wie vor mit Öl und Co. verdient und nicht mit EE.

Dass der Einfluss der Öl-Multis schwindet ist sicherlich korrekt, hat aber sicherlich nicht seinen Ursprung darin, dass die Öl-Multis diesen Weg freiwillig gehen, sondern hat sich der Trend zur Energiewende demokratisch von unten heraus durchgesetzt. U.a. spätestens auch nachdem der Ölpreis 2008/2009 auf weit über 100$ gestiegen ist und die Weltwirtschaft, vor allem die Industrienationen massive wirtschaftliche Probleme bekamen.

Seither ist auch so manch Skeptiker aufgewacht und hat verstanden, dass man die Ölfördermengen nicht x-beliebig weiter steigern kann, sondern es ein Umdenken braucht.

Dass was wir in den letzten 10 Jahren gesehen haben ist dabei noch nicht mal ein echter Wandel, denn nach wie vor STEIGT die Fördermenge und der Verbrauch an Öl auf immer neue Rekordmengen und dies wird auch die kommenden Jahre so bleiben.

D.h. wir haben nicht weniger, sondern MEHR Ölindustrie.
https://de.wikipedia.org/wiki/Globales_%C3%96lf%C3%B6rdermaximum

 

22.01.17 09:35

10665 Postings, 7513 Tage lumpensammlerDas wird hoffentlich auch so bleiben

22.01.17 16:02

30112 Postings, 8632 Tage Tony Fordwenn ...

man den wachsenden Ölverbrauch nicht weiter einbremsen kann, kann man davon ausgehen, dass die hohen Ölpreise aus der Vergangenheit erst der Anfang einer langen heftigen Preisrally sein werden.

 

22.01.17 18:16

10665 Postings, 7513 Tage lumpensammlerGlaub ich nicht

Ölverbrauch wird vermutlich nicht so stark steigen wie der von Kohle oder Gas, viell. sogar stagnieren oder leicht fallen, wenn die E-Autos kommen. Die Ölvorkommen werden jährlich nach oben revidiert. Sobald der Preis wieder bei 70$ Bis 80$ ist, wird wieder mehr gefrackt und er fällt wieder.  

23.01.17 14:10
1

10665 Postings, 7513 Tage lumpensammlerWas bedeutet das 2 Grad Abkommen?

Die 2° C Erwärmung bis zum Jahr 2100 gegenüber der vorindustriellen Zeit sind ein rein fiktiv gewähltes Ziel ohne jeden wissenschaftlichen Hintergrund. Aber der geneigte Klimaritter nimmt an, dass ab da die Hölle auf Erden losbricht. Wir wollen ihm das auch ganz fest glauben und die politische Welt hat das mit dem 2015er Abkommen von Paris ja auch getan. Man ging sogar soweit, dass man sich ein Ziel von 1,5 °C gesetzt hat. D.h. Man dürfte nur noch 0,5 Grad zulassen. Aber bleiben wir bei den 2 °C. Das bedeutete Null Emissionen bis zum Jahr 2000.

Der Skeptiker Lomborg hat die Klimamodelle der Klimaritter herangezogen und den Einfluss ermittelt, was die für die Erreichung des 2 Grad Ziels beschlossenen Maßnahmen an Temperatursenkung bringen würden. Er kam auf sage und schreibe 0,048 bis 0,17 °C, realistisch also auf ca. 0,1 Grad Celsius (s.Anhang), das ist weniger als die Jahresschwankungsbreite der Temperatur.

Wie würde denn die Welt aussehen, wenn wir diese 0,1 Grad Reduktion nun unbedingt haben müssen?

Wir dürften keine fossilen Brennstoffe mehr verwenden, um Energie zu erzeugen. D.h. auch Transport, Heizung oder Prozesswärme kämen vermutlich aus Wind und Solarquellen. Unter der mehr als optimistischen Annahme, dass sich der heutige Stromverbrauch trotz Bevölkerungsexplosion konstant halten lässt und dass das 4-fache davon erforderlich ist, um auch die heutigen nicht-elektrischen Energieverbräuche zu substituieren, komme ich auf einen Bedarf von 7,5 * 10^^14 kWh. Die sollen zu 70% auf Wind und 30% auf Solar (PV) aufgeteilt werden. Wind soll gleichmäßig über die gesamte Landfläche verteilt sein, Solar nur auf die halbe Landfläche um den Äquator herum. Die Nutzungsgrade von Wind und solar seien im Schnitt mit 20% und 15% angenommen. Den EROI der PV habe ich auf 2 gesetzt. Damit ergibt sich folgendes Bild:

Man benötigt ca. 150 Millionen Windturbinen auf die komplette Landfläche der Erde verteilt. Das entspricht einem mittleren Abstand von 1,2 km. D.h. die komplette Erdoberfläche (Land) ist mit Turbinen vollgestellt, egal ob Stadt, Land, Wald, Gebirge, überall im Abstand von 1,2 km ein Windrad. Die Energie, die zur Erzeugung der Windturbinen erforderlich wäre, müsste ebenso über Windtrubinen auf See erzeugt werden. Das habe ich nicht näher betrachtet, würd aber sicher noch einmal einige Millionen Turbinen auf See bedeuten.

Die PV-Anlagen würden 8% der betrachteten Erdoberfläche einnehmen. Sie wären so gewählt, dass sie auch den Strom erzeugen, den man zur Herstellung der Anlagen benötigt.. D.h. 4% der betrachteten Erdoberfläche dienten nur dazu, die Solaranlagen zu produzieren, die wiederum Solaranlagen zur Stromerzeugung produzieren.

Die Speicherkapazität wäre mit 6,5 * 10^^13 kWh gigantisch.

Die reinen Kosten der gesamten Sause, wenn ich noch 60% Einsparung bei PV und 90% Einsparung bei Speichern rechne, ansonsten wird es noch monströser:

Windenergie: ca. 700 Billionen €
Solarenergie: ca. 350 Billionen €
Speicher: ca. 1.250 Billionen €
--------------------------------------------------
Summe: 2.300 Billionen Euro

Das ist ca. das Dreißigfache des gesamten Welt-GDPs. Berücksichtigt man jetzt eine durchschnittliche und sehr optimistische Lebensdauer von 30 Jahren, fällt also jedes Jahr das heutige Welt-GDP für diese globale Energiewende an.

Die komplette Erde mit Windrädern und Solarmodulen bedeckt, eine durch beide Systeme zerstörte Landschaft und ein deutlich verändertes Wetter, sowie Energieausgaben, die vermutlich mehr als die Hälfte unseres Einommens ausmachen dürften, das ist der mehr als optimistische Preis der 0,1 Grad Temperatursenkung!

Statt die Folgen der CO2 Emissionen zu berechnen, sollte man lieber einmal eine Folgeschädenrechnung dieser EE-Manie machen, bevor man leichtfertig so ewtas beschließt.

 
Angehängte Grafik:
lomborg_impact.jpg (verkleinert auf 63%) vergrößern
lomborg_impact.jpg

23.01.17 16:45

30112 Postings, 8632 Tage Tony Ford#538 ...

ohne die Energiewende und Klimaritter gäbe es den Trend zum E-Auto sicherlich nicht.
Dies zeigt, wie die Energiewende eben die Abhängigkeit von fossilen Brennstoffen senken und damit bereits Heute höheren Energiepreisen entgegen wirkt.
Ohne Energiewende kann man davon ausgehen, wäre die Situation wesentlich problematischer.  

23.01.17 19:14

10665 Postings, 7513 Tage lumpensammlerDa hast du recht Tony

23.01.17 19:18

30112 Postings, 8632 Tage Tony Fordentscheidend bei der Energiewende ...

ist meiner Meinung nach die Balance. Und da kann man sicherlich darüber streiten, was wir hier ja auch oft und gern tun. ;-)  

28.01.17 23:40

10665 Postings, 7513 Tage lumpensammlerDieselskandal, die 712.

Ich hatte schon im September 2015 geschrieben, dass sehr wahrscheinlich der VW-Vorstand, Bosch, KBA, EU-Behörden und die Politik eingebunden waren, und das schon seit Jahren. Peu à peu kommt das schreibende Volk durch die amerikanischen Enthüllungen hier auch langsam auf den Trichter, Links siehe unten.

Das Prinzip, die Grenzwerte über lasche Testzyklen zu umgehen, wird seit Anfang der EU-Regelungen praktiziert. Die Testzyklen und die Grenzwerte an sich waren Jahre lang Thema intensiver Verhandlungen zwischen Herstellern, Zulassungsbehörden und Politik, um hohe Entwicklungs- und Produktionsaufwendungen zu sparen. Gerade weil es hier um sehr hohe Summen ging, waren sicher auch alle höheren Ebenen inkl. der Spitze informiert.

Bosch musste dabei sein, da dort die SW enstpr. programmiert werden musste. Eine solch gewagte SW mit einem hohen Potenzial an Gesetzeswidrigkeit macht Bosch sicher nicht ohne eine schriftliche Freigabe, evtl. in der Form, dass der Kunde die Rechtmäßigkeit geprüft und bestätigt hat, oder ohne Absprache auf ganz hoher Ebene. Ebenso umgeht kein kleiner Abteilungsleiter bei VW die Vorschriften auf eigenes Risiko. Es gibt Entwicklungs-Tools wie z.B. eine FMEA und da stehen Gefährung von Leben oder Gesundheit zusammen mit Gesetzesverstößen auf der obersten Risikostufe. Niemand hält für so eine Bedrohung den Kopf hin oder traut sich nicht zum Boss. Im Gegenteil, man kann davon ausgehen, dass die Sache jahrelang immer wieder Thema in den höchsten Ebenen der Entwicklungs- und Rechtsressorts war und am Ende auf höchster Ebene entschieden wurde, wie vorzugehen ist.

Die Testzyklen waren inoffiziell das geduldete Schlupfloch für technisch/wirtschaftlich unsinnige Grenzwerte. So wurde nach außen den teils unsinnigen Umweltforderungen genüge getan und nach innen wurden die Portemonnaies der Hersteller und Kunden geschont. Ein Kompromiss, mit dem alle Seiten leben konnten, unter der Annahme, dass Schadstoffe wie NOX oberhalb des Grenzwertes nicht auch tatsächlich sehr schädlich sind.

Es ist vollkommen logisch, dass der "Skandal" nicht in der EU aufgedeckt wurde, auch wenn sich die Presse scheinheilig den Kopf darüber zerbricht. Denn wer hätte davon profitiert und wem hätte es geschadet? "Keiner" bzw. "Allen" wären die Antworten gewesen. Also unterblieb eine Untersuchung, selbst als das Thema schon auf dem öffentlichen Tablett lag. Die Frage ist also nicht, wieso der "Skandal" erst/nur in den USA aufgedeckt werden konnte, die viel offensichtlichere Frage lautet: Wie ist es möglich, dass die hiesige Presse zwar in großen Schlagzeilen darüber berichtet, aber nicht einmal ansatzweise ein Jota zur Aufklärung beigetragen hat und selbst jetzt noch ausschl. die USA Ermittlungsergebnisse, die ja nur die Spitze des Eisbergs darstellen, wiedergibt? Ist mir unbegreiflich, wenn das Ganze doch so ein "Skandal" sein soll. Gibt es überhaupt noch einen Enthüllungsjournalismus oder begnügt man sich in den Schreibstuben damit, exzessiv von der Welt zu berichten, und das am besten so, wie es ins politische Konzept passt? Man schreibt einfach, wie es von Politik, Wissenschaft oder Industrie in die Feder diktiert wird, vorausgesetzt es ist politisch mit der eigenen Ideologie kongruent oder der Anzeigenkunde wird nicht geschädigt.

VW, Bosch und Winterkorn hängen auf alle Fälle am Haken und sollen für alle büßen. Ich weiß nicht, ob ich das jetzt gut oder schlecht finden soll. Ich könnte auch ohne den "Skandal" gut leben. Nur die Scheinheiligkeit der bisher Ungeschorenen (Politik, Behörden) bzw. der Unfähigen (Presse) geht mir tierisch auf den Zeiger. Und die Ausrede, das sei alles politisch von den USA gesteuert, ist auch nur ein schlechter Witz, um von den eigenen Fehlern abzulenken. Wäre es so, dürften die Beteiligten nicht gleichzeitig über den Skandal empört sein bzw. missmutig den Staatsanwalt einschalten.

Hier noch die "aktuellen" Medlungen dazu:
http://www.ariva.de/news/...andals-fuer-bosch-schwer-absehbar-6020252
http://www.sueddeutsche.de/news/wirtschaft/...0090101-170126-99-45793
http://www.handelsblatt.com/politik/deutschland/...tion/19311570.html

 

29.01.17 23:10

10665 Postings, 7513 Tage lumpensammlerAGW vor 700 Jahren

"Wie die Gesellschaft auf Extreme reagiert, mag ein eindrückliches Beispiel aus dem mittelalterlichen England illustrieren: In den Jahren 1314 bis 1317 waren dort die Ernteerträge aufgrund andauernder Regenfälle so gering, daß knapp zehn Prozent der Gesamtbevölkerung verhungerten. Vertreter der Kirche, eine damals besonders einflußreiche Institution, hatten in den Jahren vor den Mißernten von der Kanzel immer wieder vor Gottes Zorn gewarnt und ein gottesfürchtiges Verhalten gefordert. Das schlechte Wetter wurde als Strafe Gottes aufgefaßt. Um diese abzuwenden oder zu mindern, betrieb die Kirche eine Art „Klimapolitik“.

Der Erzbischof von Canterbury bestand darauf, daß im ganzen Land Abbittgottesdienste und Prozessionen abgehalten, Opfer gebracht, gespendet, gefastet und intensiv gebetet wurde. Das Resultat konnte als „Erfolg“ verbucht werden, denn weitere verregnete Sommer blieben aus, und die Ernten normalisierten sich wieder. Solche von Autoritäten monopolartig angebotenen Interpretationshilfen stellen einen wichtigen Faktor für die gesellschaftliche Reaktion auf eine echte oder scheinbare Klimaschwankung dar. Autoritäten können nicht nur religiöse Einrichtungen sein, sondern auch die Wissenschaft oder Aberglaube und Scharlatane."

Auszug aus dem Beitrag in der Zeit "Genarrt vom Wettergott" von Hans von Storch und Nico Stehr im Jahr 1993!

Die Episode von 1315 bis 1322 war eine Klimaanomalie mit verregneten Sommern und kalten Wintern, die in ganz Zentraleuropa zu Hungersnöten, Kriminalität und wahrscheinlich sogar Kannibalismus geführt hat. Obwohl die eigentliche Schlechtwetterphase nur 3 Jahre dauerte, führten die sinnlosen Gegenmaßnahmen wie Kirchenopfer und Konsum des Saatguts zu einer deutlichen Verlängerung der Not.

http://www.zeit.de/1993/37/genarrt-vom-wettergott
 

30.01.17 01:22

10665 Postings, 7513 Tage lumpensammlerDer Bottom Up Ansatz

ist ein wichtiges Detail, um zu verstehen, wie hatlos die Klimamodelle der Klimaritter sind.

Im Prinzip ist es ein Ansatz zur Problemlösung oder Prognose. Sein Gegenstück ist der Top Down Ansatz. Während bei Top Down die einzelnen Faktoren, die zum Ergebnis führen vorerst außen vor gelassen werden, versucht man bei Bottom Up die Details zu einem Bild zusammenzusetzen. Der Vorteil bei Top Down ist, z. B. anhand empirischer Daten schnell zum Ergebnis zu kommen, ohne die Wirkzusammenhänge komplett verstehen zu müssen. Sein Nachteil ist die Ungenauigkeit. Der Vorteil des Bottom Up Ansatzes liegt in seiner Genauigkeit. Sein Nachteil liegt in der Komplexität und in der Bedingung, ein idealerweise lineares System vorzufinden und alle Zusammenhänge zwischen den einzelnen Einflussgrößen genau zu kennen.

Einfaches fiktives Beispiel Motor. Eine neue Legierung des Zylinderkopfes verspricht eine Gewichts- und Kosteneinsparung. Das System ist überwiegend linear und die eventuellen Nichtlinearitäten bei einem kristallinen Übergang im Stahl aufgrund zu hoher Temperatur sind bekannt. Es ist deshalb kein großes Problem, das System Motor mit dem neuen Kopf bottom up zu simulieren. Dabei werden alle Bestandteile fiktiv in sehr kleine Elemente zerlegt und die physikalischen Betriebsbedingungen wie Kräfte, Zünddrücke und Temperaturen in die Elemente eingeleitet. Über bekannte physikalische Gesetze werden Dehnungen, Momente, Kräfte und Brüche berechnet. Das funktioniert halbwegs gut. Allerdings steht und fällt jede Simulation mit den Randbedingungen (z. B. wie ist der Übergang zw. Bauteilen zu betrachten, hier wird es nicht linear und der Mensch muss diesen Übergang bestmöglich definieren). Mit etwas Erfahrung bekommt man auch das hin. In der Regel ergibt eine gute Simulation einen brauchbaren Hinweis auf das, was zu erwarten ist, auch wenn das reale Ergebnis immer und bei einzelnen Werten sogar deutlich abweichen wird. Da alle Materialeigenschaften und Wirkzusammenhänge bekannt sind, kann man hier den Bottom Up Ansatz anwenden. Allerdings nicht bedenkenlos. Ein kleiner Fehler in der Vernetzung oder den Randbedingungen und der Zylinderkopf landet aufgrund der millionenfachen Verstärkung durch die kleinen Elemente auf dem Mond.

Das Klimasystem ist von Haus aus nicht linear und chaotisch. Das IPCC selbst sagt, dass es deshalb auch nicht berechenbar ist. Nichts ist richtiger als das. Die nicht linearen Übergänge bei kleinen Unterschieden in der Eisbildung oder - abnahme durch lokale Bewölkung oder geänderte Meeresströmungen bringt das System auf Sicht weniger Jahre aus dem Tritt. Nicht zu reden von gänzlich unbekannten Wirkzusammenhängen im Spannungsfeld Atmosphäre, Meer und Strahlung. Hierzu gibt es Null komma Null Erkenntnisse. Damit nicht genug, zu entscheidenden Größen wie den Wolken, gibt es noch nicht einmal Daten, von deren Wirkung (erwärmend oder kühlend) gar nicht zu reden. Es bringt nichts, das unbedeutende Teilsystem CO2 in seiner Einzelwirkung komplett zu erforschen, wenn es im Verbund z. B. durch vermehrte Wolkenbildung, deren Effekt den des CO2 auch deutlich übersteigen kann, eine ganz andere Wirkung bereitstellt.

Es ist deshalb nicht nur vermessen sondern schlicht unseriös, dieses System berechnen zu wollen. Die Unsicherheiten sind so riesig, dass Krake Paul auf Sicht von 100 Jahren wahrscheinlich ein realistischeres Ergebnis hinbekommt als der größte Supercomputer, der auch nur nach dem Prinzip "Garbage in, garbage out" arbeitet. Zur Propaganda wird es, wenn unbekannte Faktoren mit willkürlich definierten Werten belegt werden, um a: überhaupt eine Rechnung hinzubekommen und b: das gewünschte Ergebnis zu erhalten. Das ist der Stand heute und das war der Stand vor 30 Jahren, als die Massenhysterie ihren Anfang nahm. Im Prinzip keine neuen Erkenntnisse außer einer fiktiven Katastropheninflation.  

31.01.17 09:36

10665 Postings, 7513 Tage lumpensammlerZu den Modellen

gibt es bereits zahlreiche Kritiken. Es ist auch jedem seriösen Klimawissenschaftler bewusst, dass damit keine seriösen Prognosen gemacht werden können. Trotzdem stützen sich nahezu 100% der Katastrophenbehauptungen der Alarmisten auf diese Modelle. Otto Normalverbraucher nimmt das als Wissenschaft wahr. Ihm ist gar nicht bewusst, welche Science fiction dahinter steckt.

Tim Ball hat zeitgleich mit meinem ein Post auf WUWT veröffentlicht. Er benennt nicht nur die Unsicherheiten sondern hebt auch noch einmal die fehlenden Daten hervor. D.h. wie von mir schon erwähnt, fehlen zu entscheidenden Klimagrößen reale Messdaten bzw. sie sind so dürftig, dass sie gar nicht verwendet werden können (Bewölkung, Wassergehalt, Temperaturen). Also berechnet man die Daten aufgrund von Annahmen und mit Modellen, die das dahinterliegende Prinzip nur vage abbilden, weil man es gar nicht versteht. Die berechneten Daten dienen wiederum als Basis für noch zweifelhaftere Rechenmodelle zur zukünftigen Klimaprojektion. Man kann mit Fug und Recht behaupten, dass das Ergebnis ziemlich sicher falsch sein muss. Ein Treffer wäre reiner Zufall.

Hier noch einmal die Liste der Unsicherheiten, die das IPCC im wissenschaftlichen Bericht offen und richtig benennt, von denen aber in der Zusammenfassung für die Politiker und in der Öffentlichkeit jeder Hinweis fehlt. Dort werden die Ergebnisse der lächerlichen Modelle als Fakt verkauft.
Hier die IPCC Zitate (kursiv), nicht kursive Texte sind Kommentare von Tim Ball. Die gelbe Markierung stammt von mir (Seit 2000 keine Trends in der Strahlungsbilanz trotz erhöhter CO2- Konzentration und angeblich dadurch verursachter steigender Temperaturen, how come?, das ist die unbefleckte Geburt in der Wissenschaft)


"In this Report, the following terms have been used to indicate the assessed likelihood of an outcome or a result: Virtually certain 99–100% probability, Very likely 90–100%, Likely 66–100%, About as likely as not 33–66%, Unlikely 0–33%, Very unlikely 0–10%, Exceptionally unlikely 0–1%. Additional terms (Extremely likely: 95–100%, More likely than not >50–100%, and Extremely unlikely 0–5%) may also be used when appropriate. Assessed likelihood is typeset in italics, e.g., very likely (see Section 1.4 and Box TS.1 for more details).

Because of large variability and relatively short data records, confidence in stratospheric H2O vapour trends is low. (This is important because ice crystals visible in the form of Noctilucent and Polar Stratospheric Clouds are important especially in the levels of ozone, which is likely why they have problems in the next item.).


Confidence is medium in large-scale increases of tropospheric ozone across the Northern Hemisphere (NH) since the 1970s.


Confidence is low in ozone changes across the Southern Hemisphere (SH) owing to limited measurements. The public think we are fully informed on ozone and the Montreal Protocol resolved all issues).


Satellite records of top of the atmosphere radiation fluxes have been substantially extended since AR4, and it is unlikely(0-33%) that significant trends exist in global and tropical radiation budgets since 2000.


Surface solar radiation likely (66-100%) underwent widespread decadal changes after 1950, with decreases (‘dimming’) until the 1980s and subsequent increases (‘brightening’) observed at many land-based sites. There is medium confidence for increasing downward thermal and net radiation at land-based observation sites since the early 1990s.


While trends of cloud cover are consistent between independent data sets in certain regions, substantial ambiguity and therefore low confidence remains in the observations of global-scale cloud variability and trends.


It is likely(66-100%) that since about 1950 the number of heavy precipitation events over land has increased in more regions than it has decreased. (A meaningless comment).


Confidence is low for a global-scale observed trend in drought or dryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, methodological uncertainties and geographical inconsistencies in the trends. (The precipitation data is far more limited in every way than temperature data and it is inadequate. Despite this they tell the public the likelihood of drought is significantly increased because of AGW).


Confidence remains low for long-term (centennial) changes in tropical cyclone activity, after accounting for past changes in observing capabilities. (Does this mean it is useless before accounting for past changes?)


Confidence in large-scale trends in storminess or storminess proxies over the last century is lowowing to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). (It is not just the SH, although that is half the planet).



Because of insufficient studies and data quality issues confidence is also low for trends in small-scale severe weather events such as hail or thunderstorms. (Storms referred to here and above are a major mechanism for transfer of greenhouse gases and latent heat throughout the atmosphere.)


It is likely(66-100%) that circulation features have moved poleward since the 1970s, involving a widening of the tropical belt, a poleward shift of storm tracks and jet streams, and a contraction of the northern polar vortex. (It is probably at the low end of “likely” because there are insufficient surface stations to determine extent).


Large variability on inter-annual to decadal time scales hampers robust conclusions on long-term changes in atmospheric circulation in many instances. (What does “robust” mean? The atmosphere, weather, and climate are all about circulation. This comment is so broad and vague that it implies they don’t know what is going on.)


Confidence in the existence of long-term changes in remaining aspects of the global circulation is low owing to observational limitations or limited understanding. (This combines with the last to confirm they don’t know.)


Uncertainties in air–sea heat flux data sets are too large (How large is too large?) to allow detection of the change in global mean net air-sea heat flux, of the order of 0.5 W m–2 since 1971, required for consistency with the observed ocean heat content increase. The products cannot yet be reliably used to directly identify trends in the regional or global distribution of evaporation or precipitation over the oceans on the time scale of the observed salinity changes since 1950. (These are massive engines of latent heat transfer and alone are sufficient to say that any results of their work are meaningless.)


Basin-scale wind stress trends at decadal to centennial time scales have been observed in the North Atlantic, Tropical Pacific and Southern Ocean with low to medium confidence. (Wind is the almost forgotten variable and with the least data, yet essential to accurate measurements of evaporation and energy transfer.)


Observed changes in water mass properties likely(66-100%) reflect the combined effect of long-term trends in surface forcing (e.g., warming of the surface ocean and changes in E – P) and inter- annual-to-multi-decadal variability related to climate modes. (Water mass properties determine the sea level, so this comment makes a mockery of the claims about AGW sea level increase.)


It is likely (66-100%) that the annual period of surface melt on Arctic perennial sea ice lengthened by 5.7 ± 0.9 days per decade over the period 1979–2012. (The sea ice data was not reliable until 1981 and 30 years is a completely inadequate sample size for any climate-related variable despite the WMO created 30-year Normal).


After almost one decade of stable CH4 concentrations since the late 1990s, atmospheric measurements have shown renewed CH4 concentrations growth since 2007. The drivers of this renewed growth are still debated. (Apparently not. The media is full of stories about the growing threat of methane from human sources.)


Many of the cloudiness and humidity changes simulated by climate models in warmer climates are now understood as responses to large-scale circulation changes that do not appear to depend strongly on sub-grid scale model processes, increasing confidence in these changes. (But they just told us they don’t understand large scale circulation changes.) For example, multiple lines of evidence now indicate positive feedback contributions from circulation-driven changes in both the height of high clouds and the latitudinal distribution of clouds (medium to high confidence). However, some aspects of the overall cloud response vary substantially among models, and these appear to depend strongly on sub-grid scale processes in which there is less confidence. (How much less? In fact, they don’t know.)


Climate-relevant aerosol processes are better understood, and climate-relevant aerosol properties better observed, than at the time of AR4 (But they were not well understood or observed then, so this is a relative and meaningless statement.). However, the representation of relevant processes varies greatly in global aerosol and climate models and it remains unclear what level of sophistication is required to model their effect on climate. Globally, between 20 and 40% of aerosol optical depth (medium confidence) and between one quarter and two thirds of cloud condensation nucleus concentrations (low confidence) are of anthropogenic origin. (This is akin to saying 20/20 vision is like seeing 20% of the things 20% of the time. Look at the next quote.)


The quantification of cloud and convective effects in models, and of aerosol–cloud interactions, continues to be a challenge. Climate models are incorporating more of the relevant processes than at the time of AR4, but confidence in the representation of these processes remains weak. (Another relative statement that is meaningless. It is like saying I was useless before but I think I am slightly better now.)


Aerosol–climate feedbacks occur mainly through changes in the source strength of natural aerosols or changes in the sink efficiency of natural and anthropogenic aerosols; a limited number of modelling studies have bracketed the feedback parameter within ±0.2 W m–2 °C–1 with low confidence. (What is a limited number? How many would make it meaningful?)


Climate and Earth System models are based on physical principles, and they reproduce many important aspects of observed climate (Many but not all aspects.). Both aspects (This is misleading. They are talking about their aspects not the ones of observed climate) contribute to our confidence in the models’ suitability for their application in detection and attribution studies (Chapter 10) and for quantitative future predictions and projections (Chapters 11 to 14). In general, there is no direct means of translating quantitative measures of past performance into confident statements about fidelity of future climate projections. (This is a purely political meaningless statement. Are saying that their past performance is no measure or predictor of their future performance? So please let us keep stumbling forward wasting billions of dollars when the entire problem is insoluble because there is no data.)


The projected change in global mean surface air temperature will likely (66-100%) be in the range 0.3 to 0.7°C (medium confidence) (Does this mean they may be 66% certain they are 50% correct?)


Climate models have continued to be developed and improved since the AR4, and many models have been extended into Earth System models by including the representation of biogeochemical cycles important to climate change. (They have not improved since AR4). These models allow for policy-relevant calculations such as the carbon dioxide (CO2) emissions compatible with a specified climate stabilization target. (They do not allow for “policy-relevant calculations” and they have not improved because they have failed in every projection made.)


The ability of climate models to simulate surface temperature has improved in many, though not all, important aspects relative to the generation of models assessed in the AR4. (How many models improved and how many are needed to be meaningful? This confirms what is wrong with the preceding statement.)


The simulation of large-scale patterns of precipitation has improved somewhat since the AR4, although models continue to perform less well for precipitation than for surface temperature. (There is virtually no improvement. This is an enormous understatement.)


The simulation of clouds in climate models remains challenging. There is very high confidence that uncertainties in cloud processes explain much of the spread in modelled climate sensitivity. (A classic example of Orwellian double talk. They are very certain that they are uncertain.)


Models are able to capture the general characteristics of storm tracks and extratropical cyclones, and there is some evidence of improvement since the AR4. Storm track biases in the North Atlantic have improved slightly, but models still produce a storm track that is too zonal and underestimate cyclone intensity. (Well, which is it? Have they improved or not? I assume they have not. Otherwise, they would have said so.)


Many important modes of climate variability and intra-seasonal to seasonal phenomena are reproduced by models, with some improvements evident since the AR4. (That meaningless relative measure, improving on virtually nothing is still virtually nothing.) The statistics of the global monsoon, the North Atlantic Oscillation, the El Niño-Southern Oscillation (ENSO), the Indian Ocean Dipole and the Quasi-Biennial Oscillation are simulated well by several models, although this assessment is tempered by the limited scope of analysis published so far, or by limited observations. (More doublespeak: they have improved, except where they haven’t.)



Den ganzen Beitrag siehe: https://wattsupwiththat.com/2017/01/29/...and-creation-of-false-data/

 

03.02.17 12:50

10665 Postings, 7513 Tage lumpensammler@Motzer, #533

"Eine Temperatur für die ganze Erde zu berechnen, ist ohnehin völlig unmöglich. An vielen Stellen gibt es gar keine Messstationen."

Da stimme ich dir zu. schwierig. Die Messungenauigkeiten, die globale Abdeckung mit Messstationen und deren Änderungen über die Zeit erfordern riesige Anpassungen bei den gemessenen Daten. Das ist dann auch das, was man in den bekannten Temperaturdatensätzen (GISS, HadCrut, NOAA, NCDC, BEST) sieht. Wobei hinzugefügt werden sollte, dass sich selbst mehrfach angepasste hsitorische Daten bei jeder neuen Anpassung wieder ändern und die Frequenz der Anpassungen eher zu- als abnimmt. Ist es so schwierig, sich auf einen Anpassungsalgorithmus zu einigen?

Was relativ klar ist, dass es eine globale Erwärmung seit Ende der 70er Jahre gibt. Das belegen sowohl die Rohdaten der Messstationen als auch die Satellitendaten. Es ist auch rel. klar, dass es eine Erwärmung zwischen Anfang des 20. Jahrhunderts und 1940 gibt, das zeigen ebenso die Rohdaten. Offen ist meiner Meinung nach, ob wir heute tatsächlich global deutlich über der 1940er Temperatur liegen. Die Rohdaten legen das nicht nahe, die o.g. Datensätze zeigen aber eine sehr deutliche Erhöhung. Der Grund liegt in den Anpassungen, die die ersten Jahrzehnte des 20. Jahrhunderts kühler, die Abkühlung in den 60er und 70er Jahren kleiner und die Erwärmung ab 1980 und vor allem ab 2000 größer gemacht haben. Dass das bei der Menge an Anpassungen haargenau zufällig so ist, wie es die Klimamodelle und die AGW These brauchen, bezweifle ich stark, schon rein aus stochastischen Gründen. Lässt man die Vermutungen beiseite und konzentriert sich auf die Fakten, gibt es genügend Anhaltspunkte, die diese These auch stützen.

1. GHCN Stationen
Man muss wissen, dass alle obigen Datensätze zu mehr als 90% von einem Temperaturstationsnetzwerk namens GHCN (Global Historical Climatology Network) abhängen, das von der NOAA verwaltet wird. Darin enthalten sind die meisten Land-Temperaturmessstationen, die global zur Messung herangezogen werden. Auffallend ist, dass die Anzahl der Stationen, die zur Bestimmung der Globaltemperatur herangezogen werden, seit 1980 drastisch abgenommen hat, von ca. 6.000 auf ca. 1.200. Einhergehend damit war das Abrutschen des durchschnittlichen Breitengrads der Stationen um 8 Grad nach Süden und das Absinken der durchschnittlichen Seehöhe um ca. 150 m. D.h. der Durchschnitt der Stationen hat   1980 in deutlich kälteren Lagen gemessen als ab 1990. Das ergibt schon in den Rohdaten eine deutliche Tendenz zur Erwärmung. Ebenso haben die Anzahl der Messstationen an Flughäfen über diesen Zeitraum deutlich zugenommen, was diese noch Tendenz verstärken sollte. Daten und Grafik unten von Ross McKitrick, 2010.

2. Homogenisierung
Die o.g. Herausgeber der Temperaturen homogenisieren die Rohdaten, d.h. sie passen sie an, wenn die Messtechnik sich ändert, oder wenn viell. unnatürliche Faktoren eine Messung beeinflussen sollten. Dazu werden dann umliegende Messstationen herangezogen, um die Plausibilität zu prüfen. Das ist ein sehr großer Streitpunkt, hier gibt es zahlreiche Beispiele zweifelhafter Anpassungen, bei denen z.B. eine Region aus 6 Stationen mit 5 identischen Temperaturprofilen auf das Ausreißerprofil der sechsten angepasst wurde (s. Grafik). Ob das alles Zufälle sind, kann ich nicht sagen. Zweifel bestehen zwar, aber ich glaube unterm Strich würde ich diese Zweifel nur auf GISS, NOAA und BEST beziehen und vom Wert her begrenzen. Die Hauptproblematik dürfte wohl aus der zweifelhaften Datenbasis des GHCN Netzwerks sowie aus der Ungenauigkeit bzw. den willkürlichen Anpassungen der Meerestemperaturen resultieren (s. #1 bzw. #3)

3. Meeresoberflächen-Temperaturdaten
Das ist ein sehr spannendes Gebiet. Hier tummeln sich über die Jahrzehnte die unterschiedlichsten Messprinzipien. Viele, v.a. alte Daten, beruhen auf Schiffsmessungen. Dort werden entweder automatisch die Wassertemperaturen der Meeresoberfläche gemessen, z.B. über den Wassereintritt zur Motorkühlung oder über manuell eingeholte Eimer. Dann werden Bojen mit unterschiedlicher Technik eingesetzt. Zu guter Letzt gibt es noch optische Satellitenmessungen. Alle Prinzipien haben ihre Unsicherheiten und decken (mit Ausnahme der Satelliten) eine verschwindend kleine Fläche der Meeresoberfläche ab. Hier sind nicht nur Tür und Tor geöffnet für alle möglichen Anpassungen durch die temporale und lokale Gewichtung der unterschiedlichen Messungen sowie durch manuelle Anpassungen unglaubwürdiger Messdaten. Siehe auch die Arbeit von Ross McKittrick mit den Unterschieden in den Aufzeichnungen britischer und amerikanischer Schiffe. Zu bedenken ist, dass die Erdoberfläche zu 71% aus Meer besteht, diese aber am schlechtesten und ungenauesten erfasst ist. Eine kleine Anpassung hat dort riesige Auswirkung. Gerade im arktischen und antarktischen Gürtel sind die Messdaten sehr sehr spärlich und müssen über riesige Gebiete interpoliert werden.

Zusammenfassend lässt sich sagen, dass mit den vorhandenen Mitteln eine exakte globale Temperatur mit einer Abweichung von einem Zehntel Grad unmöglich zu ermitteln ist. Die Abhilfe ist deshalb der Rückgriff auf Temperaturanomalien, d.h. die Erfassung der zeitlich getrennten Temperaturunterschiede. Dadurch eliminiert man zumindest die Unsicherheit, dass ein Messgerät absolut zwar falsch oder ungenau liegt, aber die relative Messung über eine Vielzahl von Messungen trotzdem halbwegs richtig. Das hilft natürlich ungemein, aber trotzdem muss man mit den oben genannten systemischen Abweichungen und willkürlichen Anpassungen leben. D.h. es ist zweifelhaft, ob sich die Temperatur so darstellt wie es durch o.g. Datensätze getan wird. Die systematischen Ungereimtheiten deuten eher auf eine deutlich kleinere Erhöhung hin.

Quelle: http://www.rossmckitrick.com/temperature-data-quality.html
Seine Kritik der Temperaturdaten zum Download habe ich nur hier gefunden:
https://realclimatescience.com/wp-content/uploads/...alGHCNReview.pdf  
Angehängte Grafik:
ghcn-homogenization.jpg (verkleinert auf 55%) vergrößern
ghcn-homogenization.jpg

03.02.17 13:48
1

10665 Postings, 7513 Tage lumpensammlerEin weiterer Hinweis auf die Fragwürdigkeit

der Temperaturmessungen ist die Vorgeschichte zum berühmten und mittlerweile widerlegten  Hockeystick.

Wie durch den Climategate-Skandal bekannt wurde, war den beteiligten Klimawissenschaftlern der Betrug des Hockeysticks durchaus bewusst. Sie haben die Grafik wohl auch bewusst unter Umgehung der IPCC-Regeln ohne vorherige Veröffentlichung und ohne Review in den nicht wisssenschaftlichen Bericht des IPCC für Politiker und Medien gesteckt. Dort hat er dann auch voll eingeschlagen.

Was M. Mann in seiner Rekonstruktion gemacht hatte, war, sich auf unzuverlässige Baumringdaten zu konzentrieren und die Ergebnisse dann auch noch statistisch falsch zu gewichten. Um dem ganzen die Krone aufzusetzen, schnitt er die Proxytemperaturreihe in 1950 einfach ab und ergänzte sie ab da mit den gemessenen Temperaturen. Heraus kam der exorbitante Temperaturanstieg, der alles in den Schatten stellte, was in den letzten 1000 Jahren irgendwie mit Wärme zu tun hatte.

Andere, zuverlässigere Proxydaten (z.B. die von Briffa) zeigten aber genau ab 1950 eine sehr deutliche Abkühlung bis Mitte der 80er. D.h. er hätte nur die Messdaten ab 1985 einfügen dürfen. Dann wäre er mit richtigen Daten in 2000 nur in etwa bei der 1940er Temperatur und beide Temperaturen wären in etwa auf dem Level der mittelalterlichen Warmzeit gelandet, was seine Arbeit zum Non-Event gemacht und das ganze AGW in Frage gestellt hätte.

S. Bild anbei.

Die große Abkühlung, die Briffas Baumringe in der zweiten Hälfte des 20. Jahrhunderts anzeigen, sind ein weiterer Hinweis darauf, dass die angepassten Temperaturmessdaten hier falsch liegen könnten.  
Angehängte Grafik:
hockeystick-hidethedecline.jpg (verkleinert auf 54%) vergrößern
hockeystick-hidethedecline.jpg

03.02.17 14:48
1

10665 Postings, 7513 Tage lumpensammlerIm großen Bild

Achtung: Das ist die komplette Erdgeschichte, Skala x-Achse in Millionen Jahren!  
Angehängte Grafik:
paleo-temp-global-total-2.jpg (verkleinert auf 40%) vergrößern
paleo-temp-global-total-2.jpg

06.02.17 00:12

10665 Postings, 7513 Tage lumpensammlerSchwupps, schon bröckelt's

Anscheinend ging nicht alles mit rechten Dingen zu bei der letzten Anpassung der NOAA Daten, wie der ehemalige NOAA Chef der Datensätze jetzt rauslässt. Hintergrund: K15 ist das wissenschaftliche Papier, das den Grund für die magische Temperatuerhöhung in den vergangenen 20 Jahren liefert. Autor ist Tom Karl. Erschienen im Sommer 2015, rechtzeitig und von Karl so gesteuert, vor der Pariser Klimakonferenz. Das Papier wird auch Pause buster genannt und in AGW Kreisen frenetisch gefeiert, weil es die Phase stagnierender Temperaturen bei steigenden CO2 Werten beendete. Zu früh gefeiert?

Zitat aus der Kritik an K15:

"So, in every aspect of the preparation and release of the datasets leading into K15, we find Tom Karl’s thumb on the scale pushing for, and often insisting on, decisions that maximize warming and minimize documentation. "

https://judithcurry.com/2017/02/04/...versus-climate-data/#more-22794
 

Seite: 1 | ... | 19 | 20 | 21 |
| 23 | 24 | 25 | ... | 158   
   Antwort einfügen - nach oben