Top-Foren

Forum Stunde Tag
Gesamt 225 4181
Börse 90 1746
Talk 64 1426
Hot-Stocks 71 1009
DAX 4 280

Die Klimaritter, eine antikapitalistische Revolte

Seite 1 von 23
neuester Beitrag: 17.02.17 19:23
eröffnet am: 01.05.16 00:56 von: lumpensamm. Anzahl Beiträge: 570
neuester Beitrag: 17.02.17 19:23 von: lumpensamm. Leser gesamt: 22160
davon Heute: 43
bewertet mit 12 Sternen

Seite: Zurück 1 | 2 | 3 | 4 |
21 | 22 | 23 | 23  Weiter  

8842 Postings, 4652 Tage lumpensammlerDie Klimaritter, eine antikapitalistische Revolte

 
  
    #1
12
01.05.16 00:56
Ich habe lange damit gerungen, dem Thema ein weiteres Forum zu geben. Einmal, weil ein Skeptiker oder Kritiker der ganzen Klimahysterie für gewöhnlich als Verschwörungstheoretiker abgestempelt oder gleich in eine rechte, wenn nicht noch dubiosere Ecke gestellt wird. Aber auch, weil das Thema in allen Foren und Facetten schon ausführlich diskutiert wird und ein Zugewinn an Erkenntnissen fast nicht mehr möglich ist.

Was mich letztendlich doch dazu bewegt hat, ist erstens die steigende Unverfrorenheit der AGW (Anthropogenous Global Warming) Protagonisten in dieser Debatte gerade in den letzten Jahren. Und es ist die kritiklose Akzeptanz der kontraproduktiven Maßnahmen, die auf Basis dieser Propaganda getroffen werden. Wie Lämmer werden wir hier zur Schlachtbank geführt und keiner murrt, weil keiner merkt, was wirklich geschieht: Der größte antidemokratische und antikapitalistische Coup seit der Nachkriegsordnung.

Für die Mehrheit dürfte das schwer vorstellbar sein, zumal alle Medien und alle politischen Parteien, und das sogar fast weltweit unisono meinen, dass die CO2 Emissionen unser Klima in einer für uns gefährlichen Art und Weise beeinflussen. Garniert wird diese Einstimmigkeit von einem breiten wissenschaftlichen Konsens (97% der Klimawissenschaftler bestätigen das).

Deshalb kann nur ein Narr sein, der hier dagegen hält. Nun ja, ich bin so ein Narr. Ich kann mittlerweile sogar verstehen, wie man mit dieser spin story so weit kommen kann. Wenn in unseren Schulen offiziell der Al Gore Film "Eine unbequeme Wahrheit", der mehr Lügen als Wahrheiten enthält (das IPCC selbst hat mit der bestätigten Unnachweisbarkeit der Zunahme von Extremwetterereignissen die meisten Hauptthesen des Films widerlegt), gezeigt werden darf, dann wird man quasi immunisiert gegen die AGW-Kritik. Wenn fast alle globalen Temperaturrohdaten geheim in den Händen der AGW Protagonisten (Nasa GISS - Hanssen bzw. Hadcrut - Phil Jones) sind, denen aber von den Medien uneingeschränktes Vertrauen entgegengebracht wird, obwohl die daraus errechneten historischen Temperaturen sich mit schöner Regelmäßigkeit und haarsträubenden Begründungen auf wundersame Weise nachträglich hin zu mehr Erwärmung ändern, dann ist es auch kein Wunder, dass wir glauben, die Erde könnte durch unser CO2 verglühen, wo doch schon vor Jahrmillionen das Zigfache an CO2 Konzentrationen herrschten, ohne dass genau das geschah, was wir jetzt erwarten. Also Hut ab! Es hat geklappt. Alle sind eingelullt und es wird bereits kräftig an der politischen Umsetzung gearbeitet.

Die wirtschaftlichen und politischen Konsequenzen sind eigentlich leicht absehbar. Aber es stört offensichtlich niemanden, dass Kritiker der AGW Thesen mittlerweile nicht mehr nur beruflich sondern auch rechtlich belangt werden (Roger Pielke Jr. https://theclimatefix.wordpress.com/ oder Lennart Benngston http://www.spiegel.de/wissenschaft/natur/...-gwpf-aus-a-969382.html). Es stört auch niemanden, dass wir eine Energiepolitik aufsetzen, die uns erstens abhängig vom Ausland macht, mit der wir zweitens den zukünftigen Bedarf gar nicht mehr decken können und die drittens die Energiepreise steigen lassen wird, so dass große Teile der Bevölkerung deutliche Einschränkungen werden hinnehmen müssen. Und zu allerletzt stört es jemanden, dass selbst, wenn alles so wäre wie behauptet, gar keine Lösung zu dem Problem existiert. Denn wir erzeugen derzeit (und das schon trotz aller jüngsten Maßnahmen seit 20 Jahren konstant!) 13% der globalen Energie nicht fossil. Bis zum Jahr 2050 müsste dieser Wert bis auf 80% steigen, wenn wir die befürchtete Klimakatastrophe vermeiden wollten. Der Glaube macht sicher selig. Das Beste daran ist jedoch, dass auch den AGWlern dieses Dilemma bewusst ist und im Kleingedruckten ganz unverblümt von der notwendigen Transformation der Gesellschaft und Wirtschaft gesprochen wird. Also zurück in die Steinzeit!

SChließlich und gleichzeitig als Einstieg in den Zweifel will ich nur mal die globalen CO2 Emissionen direkt den vom IPCC (Basis = Hadcrut bzw. GISS) veröffentlichten globalen Temperaturen gegenüberstellen. Die einzelnen Phasen, in denen CO2 und Temperatur gleich- bzw. gegenläufig waren, habe ich farblich gekennzeichnet.

More to follow.
 
Angehängte Grafik:
co2_emissions_(2).jpg (verkleinert auf 53%) vergrößern
co2_emissions_(2).jpg
Seite: Zurück 1 | 2 | 3 | 4 |
21 | 22 | 23 | 23  Weiter  
544 Postings ausgeblendet.

8842 Postings, 4652 Tage lumpensammlerZu den Modellen

 
  
    #546
31.01.17 09:36

gibt es bereits zahlreiche Kritiken. Es ist auch jedem seriösen Klimawissenschaftler bewusst, dass damit keine seriösen Prognosen gemacht werden können. Trotzdem stützen sich nahezu 100% der Katastrophenbehauptungen der Alarmisten auf diese Modelle. Otto Normalverbraucher nimmt das als Wissenschaft wahr. Ihm ist gar nicht bewusst, welche Science fiction dahinter steckt.

Tim Ball hat zeitgleich mit meinem ein Post auf WUWT veröffentlicht. Er benennt nicht nur die Unsicherheiten sondern hebt auch noch einmal die fehlenden Daten hervor. D.h. wie von mir schon erwähnt, fehlen zu entscheidenden Klimagrößen reale Messdaten bzw. sie sind so dürftig, dass sie gar nicht verwendet werden können (Bewölkung, Wassergehalt, Temperaturen). Also berechnet man die Daten aufgrund von Annahmen und mit Modellen, die das dahinterliegende Prinzip nur vage abbilden, weil man es gar nicht versteht. Die berechneten Daten dienen wiederum als Basis für noch zweifelhaftere Rechenmodelle zur zukünftigen Klimaprojektion. Man kann mit Fug und Recht behaupten, dass das Ergebnis ziemlich sicher falsch sein muss. Ein Treffer wäre reiner Zufall.

Hier noch einmal die Liste der Unsicherheiten, die das IPCC im wissenschaftlichen Bericht offen und richtig benennt, von denen aber in der Zusammenfassung für die Politiker und in der Öffentlichkeit jeder Hinweis fehlt. Dort werden die Ergebnisse der lächerlichen Modelle als Fakt verkauft.
Hier die IPCC Zitate (kursiv), nicht kursive Texte sind Kommentare von Tim Ball. Die gelbe Markierung stammt von mir (Seit 2000 keine Trends in der Strahlungsbilanz trotz erhöhter CO2- Konzentration und angeblich dadurch verursachter steigender Temperaturen, how come?, das ist die unbefleckte Geburt in der Wissenschaft)


"In this Report, the following terms have been used to indicate the assessed likelihood of an outcome or a result: Virtually certain 99?100% probability, Very likely 90?100%, Likely 66?100%, About as likely as not 33?66%, Unlikely 0?33%, Very unlikely 0?10%, Exceptionally unlikely 0?1%. Additional terms (Extremely likely: 95?100%, More likely than not >50?100%, and Extremely unlikely 0?5%) may also be used when appropriate. Assessed likelihood is typeset in italics, e.g., very likely (see Section 1.4 and Box TS.1 for more details).

Because of large variability and relatively short data records, confidence in stratospheric H2O vapour trends is low. (This is important because ice crystals visible in the form of Noctilucent and Polar Stratospheric Clouds are important especially in the levels of ozone, which is likely why they have problems in the next item.).


Confidence is medium in large-scale increases of tropospheric ozone across the Northern Hemisphere (NH) since the 1970s.


Confidence is low in ozone changes across the Southern Hemisphere (SH) owing to limited measurements. The public think we are fully informed on ozone and the Montreal Protocol resolved all issues).


Satellite records of top of the atmosphere radiation fluxes have been substantially extended since AR4, and it is unlikely(0-33%) that significant trends exist in global and tropical radiation budgets since 2000.


Surface solar radiation likely (66-100%) underwent widespread decadal changes after 1950, with decreases (?dimming?) until the 1980s and subsequent increases (?brightening?) observed at many land-based sites. There is medium confidence for increasing downward thermal and net radiation at land-based observation sites since the early 1990s.


While trends of cloud cover are consistent between independent data sets in certain regions, substantial ambiguity and therefore low confidence remains in the observations of global-scale cloud variability and trends.


It is likely(66-100%) that since about 1950 the number of heavy precipitation events over land has increased in more regions than it has decreased. (A meaningless comment).


Confidence is low for a global-scale observed trend in drought or dryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, methodological uncertainties and geographical inconsistencies in the trends. (The precipitation data is far more limited in every way than temperature data and it is inadequate. Despite this they tell the public the likelihood of drought is significantly increased because of AGW).


Confidence remains low for long-term (centennial) changes in tropical cyclone activity, after accounting for past changes in observing capabilities. (Does this mean it is useless before accounting for past changes?)


Confidence in large-scale trends in storminess or storminess proxies over the last century is lowowing to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). (It is not just the SH, although that is half the planet).



Because of insufficient studies and data quality issues confidence is also low for trends in small-scale severe weather events such as hail or thunderstorms. (Storms referred to here and above are a major mechanism for transfer of greenhouse gases and latent heat throughout the atmosphere.)


It is likely(66-100%) that circulation features have moved poleward since the 1970s, involving a widening of the tropical belt, a poleward shift of storm tracks and jet streams, and a contraction of the northern polar vortex. (It is probably at the low end of ?likely? because there are insufficient surface stations to determine extent).


Large variability on inter-annual to decadal time scales hampers robust conclusions on long-term changes in atmospheric circulation in many instances. (What does ?robust? mean? The atmosphere, weather, and climate are all about circulation. This comment is so broad and vague that it implies they don?t know what is going on.)


Confidence in the existence of long-term changes in remaining aspects of the global circulation is low owing to observational limitations or limited understanding. (This combines with the last to confirm they don?t know.)


Uncertainties in air?sea heat flux data sets are too large (How large is too large?) to allow detection of the change in global mean net air-sea heat flux, of the order of 0.5 W m?2 since 1971, required for consistency with the observed ocean heat content increase. The products cannot yet be reliably used to directly identify trends in the regional or global distribution of evaporation or precipitation over the oceans on the time scale of the observed salinity changes since 1950. (These are massive engines of latent heat transfer and alone are sufficient to say that any results of their work are meaningless.)


Basin-scale wind stress trends at decadal to centennial time scales have been observed in the North Atlantic, Tropical Pacific and Southern Ocean with low to medium confidence. (Wind is the almost forgotten variable and with the least data, yet essential to accurate measurements of evaporation and energy transfer.)


Observed changes in water mass properties likely(66-100%) reflect the combined effect of long-term trends in surface forcing (e.g., warming of the surface ocean and changes in E ? P) and inter- annual-to-multi-decadal variability related to climate modes. (Water mass properties determine the sea level, so this comment makes a mockery of the claims about AGW sea level increase.)


It is likely (66-100%) that the annual period of surface melt on Arctic perennial sea ice lengthened by 5.7 ± 0.9 days per decade over the period 1979?2012. (The sea ice data was not reliable until 1981 and 30 years is a completely inadequate sample size for any climate-related variable despite the WMO created 30-year Normal).


After almost one decade of stable CH4 concentrations since the late 1990s, atmospheric measurements have shown renewed CH4 concentrations growth since 2007. The drivers of this renewed growth are still debated. (Apparently not. The media is full of stories about the growing threat of methane from human sources.)


Many of the cloudiness and humidity changes simulated by climate models in warmer climates are now understood as responses to large-scale circulation changes that do not appear to depend strongly on sub-grid scale model processes, increasing confidence in these changes. (But they just told us they don?t understand large scale circulation changes.) For example, multiple lines of evidence now indicate positive feedback contributions from circulation-driven changes in both the height of high clouds and the latitudinal distribution of clouds (medium to high confidence). However, some aspects of the overall cloud response vary substantially among models, and these appear to depend strongly on sub-grid scale processes in which there is less confidence. (How much less? In fact, they don?t know.)


Climate-relevant aerosol processes are better understood, and climate-relevant aerosol properties better observed, than at the time of AR4 (But they were not well understood or observed then, so this is a relative and meaningless statement.). However, the representation of relevant processes varies greatly in global aerosol and climate models and it remains unclear what level of sophistication is required to model their effect on climate. Globally, between 20 and 40% of aerosol optical depth (medium confidence) and between one quarter and two thirds of cloud condensation nucleus concentrations (low confidence) are of anthropogenic origin. (This is akin to saying 20/20 vision is like seeing 20% of the things 20% of the time. Look at the next quote.)


The quantification of cloud and convective effects in models, and of aerosol?cloud interactions, continues to be a challenge. Climate models are incorporating more of the relevant processes than at the time of AR4, but confidence in the representation of these processes remains weak. (Another relative statement that is meaningless. It is like saying I was useless before but I think I am slightly better now.)


Aerosol?climate feedbacks occur mainly through changes in the source strength of natural aerosols or changes in the sink efficiency of natural and anthropogenic aerosols; a limited number of modelling studies have bracketed the feedback parameter within ±0.2 W m?2 °C?1 with low confidence. (What is a limited number? How many would make it meaningful?)


Climate and Earth System models are based on physical principles, and they reproduce many important aspects of observed climate (Many but not all aspects.). Both aspects (This is misleading. They are talking about their aspects not the ones of observed climate) contribute to our confidence in the models? suitability for their application in detection and attribution studies (Chapter 10) and for quantitative future predictions and projections (Chapters 11 to 14). In general, there is no direct means of translating quantitative measures of past performance into confident statements about fidelity of future climate projections. (This is a purely political meaningless statement. Are saying that their past performance is no measure or predictor of their future performance? So please let us keep stumbling forward wasting billions of dollars when the entire problem is insoluble because there is no data.)


The projected change in global mean surface air temperature will likely (66-100%) be in the range 0.3 to 0.7°C (medium confidence) (Does this mean they may be 66% certain they are 50% correct?)


Climate models have continued to be developed and improved since the AR4, and many models have been extended into Earth System models by including the representation of biogeochemical cycles important to climate change. (They have not improved since AR4). These models allow for policy-relevant calculations such as the carbon dioxide (CO2) emissions compatible with a specified climate stabilization target. (They do not allow for ?policy-relevant calculations? and they have not improved because they have failed in every projection made.)


The ability of climate models to simulate surface temperature has improved in many, though not all, important aspects relative to the generation of models assessed in the AR4. (How many models improved and how many are needed to be meaningful? This confirms what is wrong with the preceding statement.)


The simulation of large-scale patterns of precipitation has improved somewhat since the AR4, although models continue to perform less well for precipitation than for surface temperature. (There is virtually no improvement. This is an enormous understatement.)


The simulation of clouds in climate models remains challenging. There is very high confidence that uncertainties in cloud processes explain much of the spread in modelled climate sensitivity. (A classic example of Orwellian double talk. They are very certain that they are uncertain.)


Models are able to capture the general characteristics of storm tracks and extratropical cyclones, and there is some evidence of improvement since the AR4. Storm track biases in the North Atlantic have improved slightly, but models still produce a storm track that is too zonal and underestimate cyclone intensity. (Well, which is it? Have they improved or not? I assume they have not. Otherwise, they would have said so.)


Many important modes of climate variability and intra-seasonal to seasonal phenomena are reproduced by models, with some improvements evident since the AR4. (That meaningless relative measure, improving on virtually nothing is still virtually nothing.) The statistics of the global monsoon, the North Atlantic Oscillation, the El Niño-Southern Oscillation (ENSO), the Indian Ocean Dipole and the Quasi-Biennial Oscillation are simulated well by several models, although this assessment is tempered by the limited scope of analysis published so far, or by limited observations. (More doublespeak: they have improved, except where they haven?t.)



Den ganzen Beitrag siehe: https://wattsupwiththat.com/2017/01/29/...and-creation-of-false-data/

 

8842 Postings, 4652 Tage lumpensammler@Motzer, #533

 
  
    #547
03.02.17 12:50
"Eine Temperatur für die ganze Erde zu berechnen, ist ohnehin völlig unmöglich. An vielen Stellen gibt es gar keine Messstationen."

Da stimme ich dir zu. schwierig. Die Messungenauigkeiten, die globale Abdeckung mit Messstationen und deren Änderungen über die Zeit erfordern riesige Anpassungen bei den gemessenen Daten. Das ist dann auch das, was man in den bekannten Temperaturdatensätzen (GISS, HadCrut, NOAA, NCDC, BEST) sieht. Wobei hinzugefügt werden sollte, dass sich selbst mehrfach angepasste hsitorische Daten bei jeder neuen Anpassung wieder ändern und die Frequenz der Anpassungen eher zu- als abnimmt. Ist es so schwierig, sich auf einen Anpassungsalgorithmus zu einigen?

Was relativ klar ist, dass es eine globale Erwärmung seit Ende der 70er Jahre gibt. Das belegen sowohl die Rohdaten der Messstationen als auch die Satellitendaten. Es ist auch rel. klar, dass es eine Erwärmung zwischen Anfang des 20. Jahrhunderts und 1940 gibt, das zeigen ebenso die Rohdaten. Offen ist meiner Meinung nach, ob wir heute tatsächlich global deutlich über der 1940er Temperatur liegen. Die Rohdaten legen das nicht nahe, die o.g. Datensätze zeigen aber eine sehr deutliche Erhöhung. Der Grund liegt in den Anpassungen, die die ersten Jahrzehnte des 20. Jahrhunderts kühler, die Abkühlung in den 60er und 70er Jahren kleiner und die Erwärmung ab 1980 und vor allem ab 2000 größer gemacht haben. Dass das bei der Menge an Anpassungen haargenau zufällig so ist, wie es die Klimamodelle und die AGW These brauchen, bezweifle ich stark, schon rein aus stochastischen Gründen. Lässt man die Vermutungen beiseite und konzentriert sich auf die Fakten, gibt es genügend Anhaltspunkte, die diese These auch stützen.

1. GHCN Stationen
Man muss wissen, dass alle obigen Datensätze zu mehr als 90% von einem Temperaturstationsnetzwerk namens GHCN (Global Historical Climatology Network) abhängen, das von der NOAA verwaltet wird. Darin enthalten sind die meisten Land-Temperaturmessstationen, die global zur Messung herangezogen werden. Auffallend ist, dass die Anzahl der Stationen, die zur Bestimmung der Globaltemperatur herangezogen werden, seit 1980 drastisch abgenommen hat, von ca. 6.000 auf ca. 1.200. Einhergehend damit war das Abrutschen des durchschnittlichen Breitengrads der Stationen um 8 Grad nach Süden und das Absinken der durchschnittlichen Seehöhe um ca. 150 m. D.h. der Durchschnitt der Stationen hat   1980 in deutlich kälteren Lagen gemessen als ab 1990. Das ergibt schon in den Rohdaten eine deutliche Tendenz zur Erwärmung. Ebenso haben die Anzahl der Messstationen an Flughäfen über diesen Zeitraum deutlich zugenommen, was diese noch Tendenz verstärken sollte. Daten und Grafik unten von Ross McKitrick, 2010.

2. Homogenisierung
Die o.g. Herausgeber der Temperaturen homogenisieren die Rohdaten, d.h. sie passen sie an, wenn die Messtechnik sich ändert, oder wenn viell. unnatürliche Faktoren eine Messung beeinflussen sollten. Dazu werden dann umliegende Messstationen herangezogen, um die Plausibilität zu prüfen. Das ist ein sehr großer Streitpunkt, hier gibt es zahlreiche Beispiele zweifelhafter Anpassungen, bei denen z.B. eine Region aus 6 Stationen mit 5 identischen Temperaturprofilen auf das Ausreißerprofil der sechsten angepasst wurde (s. Grafik). Ob das alles Zufälle sind, kann ich nicht sagen. Zweifel bestehen zwar, aber ich glaube unterm Strich würde ich diese Zweifel nur auf GISS, NOAA und BEST beziehen und vom Wert her begrenzen. Die Hauptproblematik dürfte wohl aus der zweifelhaften Datenbasis des GHCN Netzwerks sowie aus der Ungenauigkeit bzw. den willkürlichen Anpassungen der Meerestemperaturen resultieren (s. #1 bzw. #3)

3. Meeresoberflächen-Temperaturdaten
Das ist ein sehr spannendes Gebiet. Hier tummeln sich über die Jahrzehnte die unterschiedlichsten Messprinzipien. Viele, v.a. alte Daten, beruhen auf Schiffsmessungen. Dort werden entweder automatisch die Wassertemperaturen der Meeresoberfläche gemessen, z.B. über den Wassereintritt zur Motorkühlung oder über manuell eingeholte Eimer. Dann werden Bojen mit unterschiedlicher Technik eingesetzt. Zu guter Letzt gibt es noch optische Satellitenmessungen. Alle Prinzipien haben ihre Unsicherheiten und decken (mit Ausnahme der Satelliten) eine verschwindend kleine Fläche der Meeresoberfläche ab. Hier sind nicht nur Tür und Tor geöffnet für alle möglichen Anpassungen durch die temporale und lokale Gewichtung der unterschiedlichen Messungen sowie durch manuelle Anpassungen unglaubwürdiger Messdaten. Siehe auch die Arbeit von Ross McKittrick mit den Unterschieden in den Aufzeichnungen britischer und amerikanischer Schiffe. Zu bedenken ist, dass die Erdoberfläche zu 71% aus Meer besteht, diese aber am schlechtesten und ungenauesten erfasst ist. Eine kleine Anpassung hat dort riesige Auswirkung. Gerade im arktischen und antarktischen Gürtel sind die Messdaten sehr sehr spärlich und müssen über riesige Gebiete interpoliert werden.

Zusammenfassend lässt sich sagen, dass mit den vorhandenen Mitteln eine exakte globale Temperatur mit einer Abweichung von einem Zehntel Grad unmöglich zu ermitteln ist. Die Abhilfe ist deshalb der Rückgriff auf Temperaturanomalien, d.h. die Erfassung der zeitlich getrennten Temperaturunterschiede. Dadurch eliminiert man zumindest die Unsicherheit, dass ein Messgerät absolut zwar falsch oder ungenau liegt, aber die relative Messung über eine Vielzahl von Messungen trotzdem halbwegs richtig. Das hilft natürlich ungemein, aber trotzdem muss man mit den oben genannten systemischen Abweichungen und willkürlichen Anpassungen leben. D.h. es ist zweifelhaft, ob sich die Temperatur so darstellt wie es durch o.g. Datensätze getan wird. Die systematischen Ungereimtheiten deuten eher auf eine deutlich kleinere Erhöhung hin.

Quelle: http://www.rossmckitrick.com/temperature-data-quality.html
Seine Kritik der Temperaturdaten zum Download habe ich nur hier gefunden:
https://realclimatescience.com/wp-content/uploads/...alGHCNReview.pdf  
Angehängte Grafik:
ghcn-homogenization.jpg (verkleinert auf 55%) vergrößern
ghcn-homogenization.jpg

8842 Postings, 4652 Tage lumpensammlerEin weiterer Hinweis auf die Fragwürdigkeit

 
  
    #548
1
03.02.17 13:48
der Temperaturmessungen ist die Vorgeschichte zum berühmten und mittlerweile widerlegten  Hockeystick.

Wie durch den Climategate-Skandal bekannt wurde, war den beteiligten Klimawissenschaftlern der Betrug des Hockeysticks durchaus bewusst. Sie haben die Grafik wohl auch bewusst unter Umgehung der IPCC-Regeln ohne vorherige Veröffentlichung und ohne Review in den nicht wisssenschaftlichen Bericht des IPCC für Politiker und Medien gesteckt. Dort hat er dann auch voll eingeschlagen.

Was M. Mann in seiner Rekonstruktion gemacht hatte, war, sich auf unzuverlässige Baumringdaten zu konzentrieren und die Ergebnisse dann auch noch statistisch falsch zu gewichten. Um dem ganzen die Krone aufzusetzen, schnitt er die Proxytemperaturreihe in 1950 einfach ab und ergänzte sie ab da mit den gemessenen Temperaturen. Heraus kam der exorbitante Temperaturanstieg, der alles in den Schatten stellte, was in den letzten 1000 Jahren irgendwie mit Wärme zu tun hatte.

Andere, zuverlässigere Proxydaten (z.B. die von Briffa) zeigten aber genau ab 1950 eine sehr deutliche Abkühlung bis Mitte der 80er. D.h. er hätte nur die Messdaten ab 1985 einfügen dürfen. Dann wäre er mit richtigen Daten in 2000 nur in etwa bei der 1940er Temperatur und beide Temperaturen wären in etwa auf dem Level der mittelalterlichen Warmzeit gelandet, was seine Arbeit zum Non-Event gemacht und das ganze AGW in Frage gestellt hätte.

S. Bild anbei.

Die große Abkühlung, die Briffas Baumringe in der zweiten Hälfte des 20. Jahrhunderts anzeigen, sind ein weiterer Hinweis darauf, dass die angepassten Temperaturmessdaten hier falsch liegen könnten.  
Angehängte Grafik:
hockeystick-hidethedecline.jpg (verkleinert auf 54%) vergrößern
hockeystick-hidethedecline.jpg

8842 Postings, 4652 Tage lumpensammlerIm großen Bild

 
  
    #549
1
03.02.17 14:48
Achtung: Das ist die komplette Erdgeschichte, Skala x-Achse in Millionen Jahren!  
Angehängte Grafik:
paleo-temp-global-total-2.jpg (verkleinert auf 40%) vergrößern
paleo-temp-global-total-2.jpg

8842 Postings, 4652 Tage lumpensammlerSchwupps, schon bröckelt's

 
  
    #550
06.02.17 00:12
Anscheinend ging nicht alles mit rechten Dingen zu bei der letzten Anpassung der NOAA Daten, wie der ehemalige NOAA Chef der Datensätze jetzt rauslässt. Hintergrund: K15 ist das wissenschaftliche Papier, das den Grund für die magische Temperatuerhöhung in den vergangenen 20 Jahren liefert. Autor ist Tom Karl. Erschienen im Sommer 2015, rechtzeitig und von Karl so gesteuert, vor der Pariser Klimakonferenz. Das Papier wird auch Pause buster genannt und in AGW Kreisen frenetisch gefeiert, weil es die Phase stagnierender Temperaturen bei steigenden CO2 Werten beendete. Zu früh gefeiert?

Zitat aus der Kritik an K15:

"So, in every aspect of the preparation and release of the datasets leading into K15, we find Tom Karl?s thumb on the scale pushing for, and often insisting on, decisions that maximize warming and minimize documentation. "

https://judithcurry.com/2017/02/04/...versus-climate-data/#more-22794
 

8842 Postings, 4652 Tage lumpensammlerKlimaschützer leben gefährlich

 
  
    #551
1
06.02.17 09:22

63874 Postings, 6329 Tage seltsamnur mal so am Rande

 
  
    #552
1
06.02.17 09:40
ich lese hier sehr gern mit. Danke.  

8842 Postings, 4652 Tage lumpensammlerDie versch. historischen Klimazustände der Erde

 
  
    #553
06.02.17 14:12
aufgetragen über den Breitengrad. Wie man an der Grafik sehr schön erkennen kann, spielt sich die Erwärmung/Abkühlung hauptsächlich in den hohen Breiten ab. Hier sind die spiegelbildlichen Gradienten gezeigt. In der heutigen Realität ist der Gradient für die Südhalbkugelt deutlich steiler, weil die Antarktis durch die geographische Trennung von den Hauptmeeresströmungen deutlich kälter ist. (Grafik darunter)

Der Äquator bleibt aufgrund der schwerlich über 32° zu hebenden Meerestemperatur und der rel. konstanten Sonneneinstrahlung konstant. Von da weg transportieren die Luft- und vor allem Meeresströmungen die Wärme zu den Polen. Auf dem Weg dahin sorgen diese Strömungen für unser Wetter/Klima in den gemäßigten Breiten. Aufgrund der deutlich höheren spezifischen Wärmekapazität und des deutlichen höheren spezifischen Gewichts von Wasser im Vergleich zur Luft, sind die Meerestemperaturen der bestimmende aber auch trägere Faktor für unsere Temperaturen. Winde können warme Luft schnell zu uns bringen. Die geringe mitgeführte Wärme wird aber schnell wieder abgegeben. Das sind vorrangig Wetterkapriolen.

Hat sich hingegen das Meer einmal erwärmt oder abgekühlt und wird diese Wärme mit entsprechendem Zeitverzug auch zu uns transportiert, sorgt es für deutlich mehr Effekt. Der Wärmetransport läuft lokal in unterschiedlichen Mechanismen und Zyklen ab, im Atlantik (AMO) anders getaktet als im Pazifik (PDO). Je nachdem, in welchem Zyklus man sich befindet, wird viel oder wenig Wärme zu den Polen (v.a. Nordpol) transportiert. Seit 1970 in etwa sind beide Strömungen im Erwärmungsmodus, nicht etwa wegen des höheren CO2 Gehalts sondern einfach, weil das ihr Rhythmus ist. Seit 1990/2000 hat der PDO gedreht und tendiert jetzt zur Abkühlung, wahrscheinlich mit ein Grund, wieso die Temperaur in den letzten 20 Jahren nicht mehr gestiegen ist (zumindest nach den Satellitendaten). Der AMO ist gerade dabei, auf Abkühlung umzuschalten und dürfte für die kommenden Jahrzehnte eher kühlere Temperaturen bereithalten. Die Sonnenaktivität geht aktuell zu allem Überdruss auch noch zurück, was den Prozess der Abkühlung stützen dürfte. In ca. 20-30 Jahren dürften wir dann sehen, was vom CO2 Effekt tatsächlich übrig bleibt. Sind wir wieder in einer kleinen Eiszeit, kann man das Thema vermutlich endgültig abhaken. Ich glaube aber nicht, dass wir wieder dahin kommen. Wir sollten etwas darüber liegen, und zwar eben um den Beitrag, den CO2 und Konsorten beitragen.

Da das CO2 rel. wenig im Meer bewirkt, bleibt die Sonne (sehr langsam und direkt über ihre Zyklen mit Hilfe des Meeresspeichers und/oder indirekt über die Bewölkung) als einzig maßgebende Kraft für große Schwankungen in den Meerestemperauren übrig. Die Tatsache, dass die Antarktis im Gegensatz zur Arktis nicht wärmer geworden ist, sondern eher mehr Eis angesetzt hat, obwohl auch dort das CO2 wirkt, spricht ebenso dafür, dass das Meer in Verbindung mit Sonne/Wolken die treibenden Kräfte sind. Im Prinzip atmet das Klima über Äquator (einatmen, erwärmen) und Nordpol (ausatmen).  
Angehängte Grafik:
temp-profile-amo.jpg (verkleinert auf 41%) vergrößern
temp-profile-amo.jpg

8842 Postings, 4652 Tage lumpensammlerTemperaturskandal NOAA

 
  
    #554
07.02.17 12:28
In den einschlägigen Blogs brennt die Luft wegen der "Enthüllung" der Temperaturzimmerei (s. #550). Die Skeptiker und Denier überschlagen sich nach dem Motto "Hängt sie am nächsten Galgen", die Klimaritter führen alles Mögliche ins Feld, wieso sie hier die weißeste aller Westen haben. Die Wahrheit liegt wahrscheinlich wie so oft dazwischen, oder besser gesagt ganz woanders.

Erstens sind die harten Fakten des Vorwurfes rel. überschaubar: Die NOAA Wissenschaftler rund um Tom Karl, die die Temperaturdatensätze zusammenbasteln, hätten sich nicht an wissenschaftliche Qualitätssicherungsstandards für die SW-Erstellung zur Anpassung und Veröffentlichung der Daten gehalten. Konsequenterweise hat die veröffentlichte Version einige Bugs, die das System nicht reproduzierbar machen. Das ist anscheinend bestätigt und ein gerade in Arbeit befindliches Papier behebt diese bugs und kommt tatsächlich zu etwas geringerer Temperaturerhöhung. Ein weiterer, nicht belegter Vorwurf lautet, Karl und Kollegen wären bei ihren Entscheidungen einer Tendenz zu Daten mit größerer Erwärmung erlegen. Das war's dann.

Das mit den Qualitätssicherungsleitlinien und den wissenschaftlichen Standards zur Datenbereitstellung und Archivierung würde ich als formalen Krimskrams und Schluderei abtun. Nicht schön, aber solche Fehler können im Eifer des Gefechts passieren, das gestehe ich jeder Seite zu. Im Gegenteil, da arbeiten sich die Skeptiker an denselben Argumenten ab, die ihnen von den Klimarittern immer vorgeworfen werden, wenn behauptet wird, eine Kritik sei nicht zulässig, wenn sie nicht formal veröffentlicht und reviewed ist. Sich auf diese formale Diskussion einzulassen, nimmt einem die fachlichen Argumente an anderer Stelle. Sie ist auch nicht der Kern des Problems, auch wenn der Whistleblower darauf herumreitet wie ein Berseker.

Die fehlende Reproduzierbarkeit ist schon ein anderes Kaliber. Das ist zumindest grob fahrlässig. Das sollte auch keinem Wissenschaftler passieren (obwohl es mittlerweile in der Wissenschaft eher Regel als Ausnahme ist), noch dazu bei einem Thema, das so weit reichende Auswirkungen hat. Denn diese Untersuchung, wäre sie korrekt, entkräftet das Argument der Skeptiker, dass es trotz extrem steigender CO2 Emissionen seit 1998 keine Temperaturerhöhung mehr gab. Da sollte die technische Basis schon sitzen. Das wird gerade korrigiert und anscheinend wird die neue Erwärmung etwas geringer ausfallen. Also auch abgehakt. Darauf herumzureiten, macht wenig Sinn. Der Rauch verfliegt schneller, als er aufgezogen ist. Und wahrscheinlich werden ihn die Klimaritter dazu nutzen, um zu sagen: "Seht her! Hier ist alles transparent, und wir haben einen kleinen Fehler gemacht und der wird korrigiert! So what?"

Der wichtigste Vorwurf ist jedoch der, dass hier bei den Anpassungsalgorithmen und Begründungen dafür getrickst worden wäre. Allerdings ist das auch die Kritik, die am wenigsten belegt ist und zu dem es (natürlich von den Beteiligten) entsprechend laute Gegenstimmen gibt. Hier steht letzten Endes Wort gegen Wort und man ist, wie vor der Affäre auch, auf eigene Plausibilitätschecks und Beurteilung angewiesen.

Ich glaube, das wird schwer zu beweisen sein, schon allein, weil es soviele Klimaritter gibt, die die NOAA Vorgehensweise gegenüber einer potenziellen neutralen Instanz bestätigen werden. Das müssen sie auch tun, denn sie arbeiten mit denselben Methoden. Und so würde eine Untersuchung der Thematik wahrscheinlich ausgehen wie die Untersuchung der Klimaskandale (Climategate oder Hockeystick) zuvor auch: Eine Rüge und das wars.

Für mich ist klar, dass die Stationsdatensätze (NOAA, GISS, HadCrut, BEST) höchst unzuverlässig sind. Die Messmethoden, gerade der in diesem Fall wichtigen Meeresoberflächentemperaturen, sind so spärlich, so technisch unterschiedlich, so variabel über die Zeit und mit so großen Unsicherheiten belastet, dass daraus jeder einen Datensatz zimmern kann, wie er es gerade braucht. Eine Begründung für die ein oder andere Anpassung lässt sich immer finden.

Konkret: Die gerade genannten Datensätze zeigten bis vor der magischen K15 Anpassung in 2015 in Übereinstimmung mit den Satellitendatensätzen auch eine Pause in den Temperaturen seit 1998, die allgemein anerkannt war und die auch das IPCC in 2013 konstatierte. Das war natürlich vielen Klimarittern ein Dorn im Auge. Ich glaube aber nicht, dass man bewusst tricksen wollte. Es ist m.Meinung nach viel schlimmer. Man hatte sich wirklich gefragt: Wie kann es sein, dass die Temperaturen trotz CO2 am Anschlag einfach nicht steigen wollen? Da muss irgendwo ein Fehler sein! Das Gruppendenken und die felsenfeste, unverrückbare Überzeugung, der simplizistische Bottom Up CO2-Ansatz muss sich auch in der Praxis genauso manifestieren, wie man ihn berechnet, brachte sie zur Suche nach der Nadel im Heuhaufen. Wenn die Theorie also 100%ig stimmt, dann müssen die Daten falsch sein! Und genau deshalb wurden sie auch fündig. Die eigene Einstellung wurde ihnen m.Mn. nach bei den Anpassungen zum Verhängnis.

Was haben sie konkret getan? Zunächst einmal wurden die unzuverlässigen Schiffsdaten (wo teilweise Eimer eingeholt und manuell gemessen werden) mit den Daten der ab Ende der Neunziger weiter verbreiteten Bojen anders verheiratet. D.h. weil die Schiffsdaten tendenziell wärmer als die Bojen  messen (um 0,12 Grad), wurden die Messdaten der Bojen um 0,12 Grad nach oben angepasst. Das ist sehr fraglich, da die unzuverlässigen Messdaten der Schiffe eine katastrophale Toleranz von plus minus 1,7 Grad haben, die Bojen aber nur plus minus 0,1 Grad. Gleichzeitig wurde, eben wegen der höheren Genauigkeit der Bojen, deren Gewichtung im Datensatz angehoben, was prinzipiell zu begrüßen ist, aber durch den Umstand der dubiosen Anhebung um 0,12 Grad eine Erwärmung zur Folge hatte. Das ist die eine Hälfte der Geschichte. Die andere Hälfte ist m.E. nach noch dubioser. Anscheinend zeigten die unzuverlässigen Schiffsdaten vor dem Jahr 2000 einige Ungereimtheiten im Vergleich zu einem anderen Datensatz namens NMAT. Letztere ist auch ein Schiffsdatensatz, allerdings wird da nur nachts gemessen und es werden andere Anpassungenalgorithmen vorgenommen. Im Vergleich der beiden Schiffsdatensätze wurde der Hauptdatensatz nun auf den NMAT Datensatz angepasst. Wie es der Zufall will, zeigte der NMAT Datensatz aber gerade im Zeitraum des 1998er ElNinos deutlich geringere Temperaturen an. D.h. die Hauptschiffsdaten wurden in diesem Zeitraum deutlich abgekühlt. Der nächste Zufall wollte es, dass der NMAT Datensatz in 2010 endet. D.h. sollte z.B. ein El Nino der Grund für die Abweichung in den beiden Datensätzen sein, wird der zweite starke El Nino im Jahr 2015/16 nicht mehr durch diese Anpassung datenmäßig "gekühlt". Daraus ergibt sich in Summe eine Abkühlung der Daten vor dem Jahr 2000 und eine Erwärmung nach 2000 und voilà, die Pause war beendet. Der Vergleich der Satellitendatensätze mit den Stationsdatensätzen (Anhang) zeigt das sehr deutlich. Hier sieht man, wie die El Ninos in 1998 und 2016 bei den Satellitendaten zu Ausschlägen führen und wie der 1998er El Nino in den Stationsdaten ein Non-Event wird, während der 2016er plötzlich explodiert.

Um das Ganze aber noch ohne Erklärungsnöte verkaufen zu können, waren noch weitere Anpassungen nötig. Denn die Meeeresoberflächentemperaturen enthielten bis 2015 auch einen guten Teil Satellitendaten, um die globale Abdeckung zu verbessern und die Plausibilität der anderen Daten zu gewährleisten. Diese zeigten aber in 1998 den El Nino noch deutlich an und danach eine Abkühlung. Das war aber jetzt plötzlich und logisch im Vergleich zu den anderen angepassten Schiffs- und Bojendaten ein Ausreißer. Also hat man die Satellitendaten komplett gestrichen (NOAA und GISS) oder deutlich reduziert (z.B. HadCrut), weil sie als Außenseiter einen "Kältebias" erzeugten. Das ist, na ja, ...

Dubios sind und bleiben nicht nur die Begründungen zu den jeweiligen Anpassungen sondern auch die Tatsache, dass bisher fast alle Anpassungen an diesen Datensätzen die Tendenz zu mehr Erwärmung (ab 1910 und ab 2000) und weniger Abkühlung (1950 bis 1980) hatten. Verdächtig ist auch, dass sich solche Änderungen am Berechnungsalgorithmus regelmäßig im fast jährlichen Abstand wiederholen. Irgendwann, möchte man meinen, müsste man doch eine Datenbasis für die Vergangenheit haben, die sitzt. Und wenn nicht, müsste es schon rein aus Gründen der Wahrscheinlichkeit auch genausoviele Anpassungen geben, die eine Abkühlung zur Folge hätten, so dass am Ende nur ein anderer Verlauf, aber nicht unbedingt eine so deutliche Tendenz da wäre.

Man entscheide selbst, ob diese Temperaturanpassung getrickst ist. Es wird für jede obige Anpassung im Detail Begründungen geben und die Sachlage mit den riesigen Unsicherheiten und der löchrigen globalen Abdeckung erlaubt es den Produzenten, ihre Anpassungen zu machen, wie es ihnen beliebt, solange jede Kritik am Kern vorbei geht oder in einem Meer aus Gegenargumenten ersäuft wird. Aufgrund der permanenten Erwärmungstendenz und der m.E. sehr zweifelhaften Begründung halte ich persönlich zumindest diese Anpassung für eindeutig künstlich, auch wenn sie alle Datensätze umgesetzt haben und diese gegenseitig auf sich als unabhängige Bestätigung verweisen.

Datenvergleich von Bob Tisdale: https://bobtisdale.files.wordpress.com/2017/01/...surface-and-tlt.png
 
Angehängte Grafik:
temp-vgl-sat-stations.jpg (verkleinert auf 80%) vergrößern
temp-vgl-sat-stations.jpg

8842 Postings, 4652 Tage lumpensammlerKorrektur

 
  
    #555
07.02.17 13:26

Oben habe ich bzgl. der Anpassung der Bojendaten geschrieben:

"Das ist sehr fraglich, da die unzuverlässigen Messdaten der Schiffe eine katastrophale Toleranz von plus minus 1,7 Grad haben, die Bojen aber nur plus minus 0,1 Grad. "

Das ist nicht korrekt. Korrekt muss es lauten:

"Das ist sehr fraglich, da die der Unterschied zwischen Schiffs- und Bojentemperaturen von 0,12 Grad eine katastrophale Toleranz von plus minus 1,7 Grad hat (d.h. er streut wegen der unzuverlässigen Schiffsdaten um das 14 fache um seinen Mittelwert, also vollkommen außer Rand und Band), und damit eigentlich gar keine Anpassung gemacht werden dürfte, bzw. Schiffsdaten prinzipiell ad acta zu legen wären. Aber dann hätte man historisch gesehen gar keine Temperaturbasis mehr."

 

8842 Postings, 4652 Tage lumpensammlerWährenddessen

 
  
    #556
07.02.17 14:01
kühlt Grönland nach dem El Nino im letzten Jahr wieder ab und sammelt rekordverdächtig Eis. Komisch nach hottest year ever und auch jetzt noch angeblichen Temperaturen kurz unterhalb Oberkante.

Natürlich wird das nirgends berichtet. In den Schlagzeilen wird nur der vollkommen unbedeutende (weil Meereseis) Arktiseisverlust gehypt.

Quelle: Dänisches Meteorologisches Institut, DMI
https://www.dmi.dk/en/groenland/maalinger/...eet-surface-mass-budget/
 
Angehängte Grafik:
greenland-ice-mass-balance-2017.jpg (verkleinert auf 78%) vergrößern
greenland-ice-mass-balance-2017.jpg

8842 Postings, 4652 Tage lumpensammlerDas Doppel-Paradoxon der E-Mobilität

 
  
    #557
08.02.17 13:07

PARADOXON 1: Umweltfreundliche Mobilität führt zu mehr Umweltbelastung

Wenn man CO2 überhaupt als Umweltbelastung definieren kann - m.E. ist das falsch, aber die Politik tut das - dann werfen wir einen Blick auf die Realität. Ich hatte weiter vorne schon einmal eine Rechnung vorgestellt, nach der die CO2-Emissionen durch die Umstellung des Verkehrs auf E-Mobilität nichts bringen wird. In der Rechnung waren die CO2-Emissionen bei der energiehungrigen Herstellung und Entsorgung der Batterien noch gar nicht miteingerechnet. Trotzdem hatte der Verbrenner schon leicht die Nase vorne. (170g/km ggü. 175 g/km). Rechnet man die Energie zur Herstellung der Batterie (umgerechnet 1 Tonne CO2 pro 10 kWh) noch mit dazu, verschiebt sich die Bilanz eindeutig zu Gunsten des Verbrenners (170 g/km ggü. 190 g/km).
Nimmt man überschlagsweise die CO2-Emissionen als Basis für die anderen Schadstoffemissionen, dürften diese ebenso um in etwa 12% steigen. Das ist eher die Untergrenze, da gerade Biomasse und Braunkohle erheblich mehr Schadstoffe in die Welt setzen als moderne Autos.

PARADOXON 2: Investment in umweltfreundliche Energie vernichtet Arbeitsplätze und Investitionen

Obwohl in Deutschland gigantische Summen in die EE investiert wurden und knapp 380.000 Menschen im Bereich EE beschäftigt sind, sieht der weitere Ausbau bis 2050, wenn 80% der Energieerzeugung über EE laufen sollen, nur einen Zuwachs von 120.000 Beschäftigten vor. Wahrscheinlich benötigen und bekommen wir keinen 80% EE Anteil sondern "nur" 50% aber bei einem insgesamt um 25% wachsenden Energiebedarf wegen der E-Mobilität. Wohlwollend gerechnet kommen dann ca. 100.000 Arbeitsplätze dazu. In der Automobilbranche arbeiten 800.000 Beschäftigte. Ca. 1/3 der Wertschöpfung und Entwicklung entfallen auf den Powertrain (Motor / Getriebe / Nebenaggregate). Das Gros dieser Beschäftigten dürfte entfallen. Geschätzt 25% aller Beschäftigten. Das bedeutet einen Verlust von 200.000 Arbeitsplätzen. Unterm Strich also ein Minusgeschäft von 80.000. Daimler hat das gerade angekündigt. VW und andere streiten sich ebenso bereits mit ihren Betriebsräten, obwohl das Geschäft noch gar nicht angelaufen ist. Bei den Investitionen sieht es nicht viel anders aus. Im Schnitt investiert die EE-Branche ca. 10 Milliarden pro Jahr und damit in etwa die Hälfte des Automobilsektors, der für ca. 40% aller deutschen Industrieinvestitionen (direkt und indirekt über den Maschinenbau) sorgt. Die EE-Investitionen sollen bis 2030 auf 28 Milliarden steigen, macht ein Plus von 18 Milliarden. Dem gegenüber stehen Deinvestments in den Bereichen Automobil und konventioneller Energieerzeugung von 8 bzw. 4 Milliarden. Am Ende bleiben wir bei einem Plus von 6 Milliarden Euro sitzen. Noch nicht eingerechnet sind Industriedeinvestitionen wegen der höheren Strompreise und wegen dessen Sekundäreffektes im privaten Bereich. Auch nicht eingerechnet sind Investitionsrückgänge, wenn ein deutscher Automobilhersteller z.B. wegen fehlender Unterscheidungsmerkmale die Grätsche macht. Am Ende dürfte man heilfroh sein, mit einer schwarzen Null herauszukommen.

Ich sage das alles nicht, weil ich mich kategorisch gegen die E-Mobilität wehren möchte. Im Gegenteil, sie ist m.E. nicht mehr aufzuhalten, weil die Investitionen der Hersteller schon auf dem gelände oder in den Büchern stehen. Ich sage nur, sie macht derzeit und auf absehbare Zeit keinen Sinn, weder aus Umweltgesichtspunkten noch aus gesamtwirtschaftlichen Überlegungen heraus. Die Werbung für die E-Mobilität mit Umwelt- und Wirtschaftargumenten ist m. Meinung nach eine Milchmädchenrechnung. Sie sähe natürlich ganz anders aus, wenn unser Strom zu 70% oder 80% aus neuer Kernenergie erzeugt würde oder die Wasserstofferzeugung so günstig wäre, dass man auf Brennstoffzellentechnik umstellen könnte.

 

8842 Postings, 4652 Tage lumpensammlerIndoktrination grüner Ideologie im Kindergarten

 
  
    #558
09.02.17 00:09
Wie zum Henker kann man so etwas zulassen? Hier wird der Greenpeace Nachwuchs für die nächsten Generationen gezüchtet. Die lernen dann quasi mit der Muttermilch, dass nur Sonne und Wind den guten Strom liefern. Dass er nicht ausreicht, erfahren sie dann 30 Jahre später, wenn die Hütte kalt bleibt.

Am besten finde ich die Stelle mit dem Fahrrad, das einen Generator mit Glühbirne antreibt, und wo die Erzieherin erstaunt feststellt, dass man verdammt viel Kraft braucht, um das Ding zum Leuchten zu bringen. Danach sagt eine andere Erzieherin: "Wir wollen, dass es Klick macht"

Anscheinend reicht das Fahrrad mit der Glühbirne nicht aus, um zu verdeutlichen, dass wir sehr energieintensive Energieträger brauchen und die Regenerativen das ihr Lebtag nicht werden leisten können, ohne unseren Planeten komplett zu verwüsten. Aber das wäre dann ja böse, nicht nachhaltige Physik. Also lieber ausblenden und den Kinderchen grüne Märchen erzählen. Ist viel angenehmer und man ist mit dabei beim Society engineering für die Weltenrettung.

 

8842 Postings, 4652 Tage lumpensammlerPrimärenergieverbrauch weltweit

 
  
    #559
09.02.17 23:05
Hier angegeben in Mtoe (Millionen Tonnen Rohöleinheiten). Nicht erfasst sind hier Solar, Wind und die Feuerstellen der dritten Welt. Hier dürften noch einmal ca. eine Mtoe dazukommen.  
Angehängte Grafik:
img_3646.gif (verkleinert auf 96%) vergrößern
img_3646.gif

8842 Postings, 4652 Tage lumpensammlerEnergiewende, Projektion

 
  
    #560
09.02.17 23:43
Die o. g. Primärenergie durch die Bevölkerungszahl geteilt ist ein Gradmesser für den Wohlstand. Bildet man diesen über die Zeit ab, erfährt man in etwa den Entwicklungsstand der jew. Bevölkerung. D. h. soviel Energie hat jeder Mensch im Schnitt zur Verfügung, um seinen Alltag zu meistern (Kochen, Waschen, Heizen, Mobilität, Entertainment, etc.) und physikalische Arbeit in seinem Job zu verrichten (Hausbau, Konstruktion, Tellerwaschen, Umformen von Karosserieteilen etc.). Selbstverständlich ist der pro Kopf Verbrauch in einem industrialisierten Land (z. B. 45 MWh/a) höher als in einem Entwicklungsland (z. B. 0,3 MWh/a).

Legt man die von unserer Regierung beschlossenen Maßnahmen und Ziele zugrunde, ergibt sich für D der orangene Verlauf bis 2050. Dabei wird in 2050 eine 80%ige Dekarbonisierung vorgeschrieben. D. H. 80% unserer jetzigen Energie (nicht nur Strom sondern alles wie Gas, Benzin, Kohle, etc. !) wird regenerativ erzeugt. Deutschland wäre nicht mehr wiederzuerkennen. Das begreifen sogar die gehirnamputierten Aktivisten, die diese Idee verbrochen haben. Deshalb wird einfach befohlen, dass der Energieverbrauch halbiert werden muss von derzeit knapp 14 Exajoule auf dann 7. Bis dahin sterben zum Glück einige Leutchen und den Verbliebenen ist der Appetit auf Kinder abhanden gekommen, so dass von den knauserigen 7 Exajoule nur noch 73 statt 82 Millionen zehren müssen. Nichtsdestotrotz katapultiert uns diese Sparmaßnahme wohlstandsmäßig ins Jahr 1960 zurück.

Für den Rest der Welt siehts nicht wesentlich besser aus. Obwohl denen noch wachsender Energieverbrauch bis 2030 zugestanden wird, fertilisieren sie sich trotzdem in die Armut zurück.

Damit dürfte auch klar sein, wieso man so eine Selbstverstümmelung im Kindergarten an den Nachwuchs zu bringen ist. Wäre er erwachsen, würde den Mist keiner mehr verinnerlichen, außer nach einem chirurgischen Eingriff in die Schaltzentrale natürlich.  
Angehängte Grafik:
img_3645.jpg (verkleinert auf 80%) vergrößern
img_3645.jpg

8842 Postings, 4652 Tage lumpensammlerKorrektur

 
  
    #561
10.02.17 00:28
In #559 muss es richtig heißen: "Hier dürften noch einmal ca. 1000 Mtoe dazukommen."  

8842 Postings, 4652 Tage lumpensammlerSarewitz & Pielke zu unserer Klimapolitik

 
  
    #562
12.02.17 14:49
Climate policy robs the poor of hope

"A recent report from the non-profit Center for Global Development estimates that $10bn invested in renewable energy projects in sub-Saharan Africa could provide electricity for 30m people. If the same amount of money went into gas-fired generation, it would supply about 90m people ? three times as many. In Nigeria, the UN Development Programme is spending $10m to help ?improve the energy efficiency of a series of end-use equipment ... in residential and public buildings?. As a way of lifting people out of poverty, this is fanciful at best. Nigeria is the world?s sixth-largest oil exporter, with vast reserves of natural gas as well. Yet 80m of its people lack access to electricity. Nigerians do not simply need their equipment to be more efficient; they need a copious supply of energy derived from plentiful local sources.

Or consider Pakistan, where energy shortages in a rapidly growing nation of 180m have led to civil unrest ? as well as rampant destruction of forests, mostly to provide firewood for cooking and heating. Western development agencies have refused to finance a project to use Pakistan?s Thar coal deposits for low-carbon natural gas production and electricity generation because of concerns over carbon emissions. Half a world away, Germany is building 10 new coal plants over the next two years.

These examples emerge from a larger, uglier background: a widely shared assumption that poor nations need not aspire to the sort of energy consumption seen in North America, western Europe and other wealthy regions. For example, the World Bank?s action plan for energy access fails to foresee that residents of a poor nation such as Chad might eventually aspire to use more than, say, a 10th of the energy consumption enjoyed by a middle-income nation such as Bulgaria.

Aspirations are critical here. If two lightbulbs, a fan and a radio are the goal ? a standard measure of ?energy access? used by the UN?s Sustainable Energy for All initiative ? then a couple of solar panels or windmills might do the job. But if the rapidly urbanising poor are to have any chance of prosperity, they need access to energy on the same scale as all modern economies.

Climate activists warn that the inhabitants of poor countries are especially vulnerable to the future climate changes that our greenhouse gas emissions will cause. Why then, do they simultaneously promote the green imperialism that helps lock in the poverty that makes these countries so vulnerable?

If, in coming decades, Africa was to achieve rapid economic growth of the kind that China has experienced, it would lift hundreds of millions of people out of poverty. But as the rich world can attest, economic growth both requires energy consumption and leads to more of it ? most of which must be provided by fossil fuels.

Last year China?s 1.4bn people were responsible for more than 10bn tonnes of carbon dioxide emissions, while the 1bn people on the entire African continent emitted just a 10th of that amount. Africa?s population could exceed China?s within a decade; it could be double China?s by the middle of the century. The prospects of these billions of people depend in large part on growth in their energy production and consumption."

https://www.google.de/amp/s/amp.ft.com/content/...ab7de?client=safari  

8842 Postings, 4652 Tage lumpensammlerThis is what energy poverty looks like

 
  
    #563
12.02.17 22:39
 
Angehängte Grafik:
img_3723.jpg (verkleinert auf 85%) vergrößern
img_3723.jpg

8842 Postings, 4652 Tage lumpensammlerTemperaturskandal NOAA - Nachlese

 
  
    #564
12.02.17 23:33
In #550 habe ich erstmalig darauf hingewiesen und in #554 habe ich geschrieben, dass die Vorwürfe lächerlich bzw. unbelegt sind und die Klimaritter am Ende davon profitieren werden.

Genau so ist es gekommen. Der whistleblower Bates konnte seinen schwersten Vorwurf nicht belegen und beim lächerlichen, formalistischen Rest hat er klein beigegeben. Die Klimabande wird natürlich nicht müde, diesen Sieg breitzutreten. Und sie hat alles Recht dazu. Ad acta.  

8842 Postings, 4652 Tage lumpensammlerNOAA Temperaturen - GHCN Datenbasis Land Dez. 16

 
  
    #565
13.02.17 00:13
Das ist die bereits angepasste GHCN Datenbasis der ca. 1000 Messpunkte auf Landflächen. Man beachte die großen grauen Flächen, die bedeuten, dass dort keine Daten verfügbar sind.  
Angehängte Grafik:
img_3724.gif (verkleinert auf 51%) vergrößern
img_3724.gif

8842 Postings, 4652 Tage lumpensammlerNOAA Temperaturen - Land & Seedaten Verwurstung

 
  
    #566
13.02.17 00:24
Zu den o. g. Landdaten kommen dann noch ein paar Bojendaten aus den Meeren und ein paar Schiffsdaten dazu. Danach wird kräftig interpoliert und nochmals angepasst. Die Lücken sind am Ende rechnerisch geschlossen. Ob man das Ergebnis verlässlich nennen will, überlasse ich dem Betrachter. Ich bezweifle, dass ein ganzer unvermessener Kontinent wie z. B. Afrika durch ein paar ihn umkreisende Bojen und Schiffe so berechnet werden kann, dass am Ende für jeden Punkt eine genaue Durchschnittstemperatur angegeben werden kann.

Quelle: jeweils NOAA: https://www.ncdc.noaa.gov/sotc/  
Angehängte Grafik:
img_3725.gif (verkleinert auf 51%) vergrößern
img_3725.gif

8842 Postings, 4652 Tage lumpensammlerKonsequenzen der Energiewende, Teil 1

 
  
    #567
3
17.02.17 16:18

Die Energiewende hat laut Bundesregierung zum Ziel:

  • Der Anteil von Strom aus Wind, Sonne etc. am Bruttoendenergieverbrauch soll von rund 11 Prozent im Jahr 2010 auf 60 Prozent im Jahr 2050 steigen.
  • Der Anteil erneuerbarer Energien an der Stromversorgung soll bis 2020 mindestens 35 Prozent und 2050 gut 80 Prozent betragen.
  • Die Treibhausgasemissionen sollen bis 2020 um 40 Prozent und bis 2050 um mindestens 80 Prozent sinken.
  • Bis 2020 soll der Primärenergieverbrauch um 20 Prozent, bis 2050 um 50 Prozent gegenüber 2008 zurückgehen.
  • Das erfordert pro Jahr eine Steigerung der Energieproduktivität um durchschnittlich 2,1 Prozent bezogen auf den Endenergieverbrauch.
  • Der Brutto-Stromverbrauch soll bis 2050 um 25 Prozent gegenüber 2008 gemindert werden; bis 2020 soll er bereits um 10 Prozent sinken.
  • Weiterhin soll die Sanierungsrate für Gebäude von derzeit jährlich etwa 1 auf 2 Prozent des gesamten Gebäudebestands bis 2020 verdoppelt werden.
  • Der Wärmebedarf des Gebäudebestands soll bis 2020 um 20 Prozent reduziert werden. Ihr Primärenergiebedarf soll bis 2050 in der Größenordnung um 80 Prozent gemindert werden, mit dem Ziel, bis 2050 einen nahezu klimaneutralen Gebäudebestand zu haben. Neubauten sollen bereits ab 2020 "klimaneutral" sein.
  • Der Endenergieverbrauch im Verkehrssektor soll bis 2020 um 10 Prozent und bis 2050 um rund 40 Prozent gegenüber 2005 zurückgehen.

Das ist natürlich starker Tobak. Die Haupteinsparung soll also im Wärmebereich stattfinden, d.h. in 2050 sollen alle Gebäude nur noch ein Fünftel der Heizenergie benötigen und, da das klimaneutral sein soll, erzeugt aus Erneuerbaren statt aus Öl und Gas. Bereits in 2020 sollen alle Neubauten klimaneutral sein. In der Realität dürfte beides katastrophal scheitern. Die bisherigen Ansätze zur Sanierung ersticken in Rechtsstreitigkeiten, weil die Mieter nicht bereit sind, den saftigen Aufpreise der Sanierung zu bezahlen. Bei Neubauten gibt es heute noch nicht einmal eine Regelung, wie das klimaneutral aussehen soll, geschweige denn eine praktikable Lösung, wie erneuerbare Versorgung sicherzustellen soll. Und selbst wenn es diese gäbe, wird sich unweigerlich die Frage stellen, wer zu diesen Konditionen überhaupt noch bauen will.

Das zweite Standbein der Energiewende ist die Elektrifizierung des Verkehrs. Im Prinzip sind ja beide Ansätze richtig, denn die Wärmeerzeugung und der Verkehr sind die größten Energiesenken (s. Bild). Bis 2050 soll der Energieverbrauch im Verkehr um 40% gesunken sein. Wenn man annimmt, dass die Elektrifizierung durch Erzeugungs-, Speicher- und Übertragungsverluste unterm Strich keine deutliche Primärenergieeinsparung bringt (meine CO2 Rechnung weiter vorne legt das auch nahe), muss diese Einsparung durch eingeschränkte Mobilität erkauft werden (Carsharing, daheimbleiben). Kann man machen, muss einem aber nicht gefallen.

Komischerweise wird auf den offensichtlichsten Punkt kein großer Bezug genommen. Durch unsere Rückwärtsgewandtheit und die damit einhergehende Vergreisung unserer Industrie wird die Deindustrialisierung vorangetrieben. D.h. veraltete, industrielle Energiesenken werden ins Ausland verlagert, moderne kommen durch falsche Dogmen und unzureichende Bildung nicht mehr nach. Dadurch dürften wir anfangs 0,5% in 10 Jahren locker 2% unseres Primärenergieverbrauchs jährlich exportieren. Das heißt aber auch, diese Energie ist global nicht eingespart, sie wird nur woanders erzeugt und verbraucht. Ein weiteres halbes Prozent habe ich den Energieeffizienzgewinnen zugesprochen. Am Ende komme ich beim selben Verbrauch raus wie die Energiewendespezis. Allerdings sehen diese im Jahr 2050 noch eine eifrige Industrie und grüne Männchen in klimaneutralen Häuschen. Das ist m.E. vollkommen unrealistisch. Ein Großteil unserer heutigen industriellen Zugpferde wird in 30 Jahren im Ausland gefertigt werden. Dass jemand großartig unsere Dienstlesitung in der ferneren Zukunft bei neuen Technologien einfordern würde, sehe ich auch nicht. Da sind schon zuviele Züge ohne uns abgefahren. D.h. die Lücke durch die Deindustrialisierung wird durch Dienstleistung nicht zu schließen sein. Wir werden auf einem anderen Niveau landen. Das ist noch lange keine bittere Armut, aber es wird definitiv auch weit vom heutigen Schlaraffenland entfernt sein.

 
Angehängte Grafik:
prim__energie_verbrauch_aufteilung.jpg (verkleinert auf 97%) vergrößern
prim__energie_verbrauch_aufteilung.jpg

8842 Postings, 4652 Tage lumpensammlerKonsequenzen der Energiewende, Teil 2

 
  
    #568
2
17.02.17 16:43

Die obigen Ziele der Bundesregierung auf unseren Energieverbrauch angewendet bedeutet dies:

  • Wir halbieren den Energieverbrauch, ob jetzt verordnet oder wie von mir angenommen per Deindustrialisierung
  • 60% unseres Energieverbrauchs stammen von Erneuerbaren, damit wäre eine 80% Dekarbonisierung gegenüber 1990 erreicht, Kyoto und Paris im Freudentaumel

Weitere Annahmen von mir

  • Anteil Wind an EE: 60%
  • Anteil Solar an EE 30%  (in der Annahme, dass kein Hirn vom Himmel fällt)
  • Anteil Biomasse an EE: 5% (in der Hoffnung, dass etwas Hirn vom Himmel fällt)
  • Anteil Hydro an EE: 5%
  • Speicherwirkungsgrade bei Wind & Solar 70%
  • Kapzitätsfaktoren Wind & Solar bei 12,5% und 10%

Daraus ergeben sich:

  • 183.000 Windräder
  • 1 Windrad / km² oder ein mittl. Abstand von 1,2 km über ganz Deutschland verteilt
  • 5.708 km² Solarpanels
  • Alle 5 km ein 1 km² großes Solarfeld

Deutschland dürfte 2050 wie auf dem Bild aussehen. Wir werden uns dann gegenseitig die Fingernägel schneiden und uns ganz arg freuen, dass China Flüssigsalzreaktoren in Raumschiffe baut, um damit die Schwerreichen zum Mars zu schippern. Derweil vertickt der Hofreiter für 2500 Yuan seinen Haarzopf aus dem Jahr 2017 auf Ebay an Donald Trump Jr. und freut sich, dass ihm dieses Kapitalisten... das Essen für die nächsten 3 Tage sichert.

 
Angehängte Grafik:
windpark_utgast.jpg (verkleinert auf 78%) vergrößern
windpark_utgast.jpg

3340 Postings, 1531 Tage MotzerKlimawandel

 
  
    #569
1
17.02.17 17:40
Zumindest subjektiv sind die Horrormeldungen falsch: wärmster Sommer, wärmstes Jahr...Ich kann's kaum noch hören.

Was ist mit dem Sommer 2003, der eindeutig wärmer war als die letzten eher kühlen Sommer?

Aber zugegeben, mein subjektiver Eindruck beschränkt sich auf einen kleinen Bereich, der nicht repräsentativ für die "Welttemperatur" ist. Dass es keine "Welttemperatur" gibt aufgrund von riesigen Messlücken, Manipulationsmöglichkeiten usw., ist ein anderes Thema.

Ich frage mich, warum der Mensch die Klimaerwärmung bekämpft. In der Erdgeschichte ging es der Biosphäre in Warmzeiten besonders gut. Umgekehrt erwiesen sich Kälteperioden als besonders lebensfeindlich.

Ach so, da gibt es ja den Meeresspiegelanstieg. Der Kölner Dom unter Wasser! Natürlich alles Unsinn. Renommierte Wissenschaftler schätzen den Anstieg auf 0-20 cm in den nächsten Hundert Jahren. Was danach kommt, weiß sowieso niemand.

Ein langsamer Anstieg ist absolut unproblematisch. Der Mensch ist ja ständig am Bauen und Befestigen. Schlimmstenfalls muss man die Deiche erhöhen oder einfach die Städte weiter weg vom Ufer bauen, was ohnehin sinnvoll ist wegen Tsunamigefahr usw.

Der Mensch muss sich der Natur anpassen. Der Meeresspiegel war schon mehrfach um ein Vielfaches höher. Der Mensch kann nicht erwarten, dass die Natur nach seiner Pfeife tanzt.
 

8842 Postings, 4652 Tage lumpensammlerAbsolut richtig Motzer

 
  
    #570
17.02.17 19:23
Der Klimawandel ist gefahrenmäßig ein Non-Event. Selbst 20 m Meeresspiegelanstieg würde uns nichts ausmachen, da über Jahrtausende verteilt genügend Generationen Zeit haben werden, sich darauf einzustellen. Das wären nicht die ersten Städte, die im Meer versinken und sicher auch nicht die letzten. Und das ist praktisch der worst case. Am besten abee ist, dass wir so gut wie gar nichts dagegen machen können. Für was also sollen wir darben? Weil ein paar Hohlköpfe ihre extremistischen und menschenfeindlichen Triebe ausleben müssen?  

Seite: Zurück 1 | 2 | 3 | 4 |
21 | 22 | 23 | 23  Weiter  
   Antwort einfügen - nach oben
Beliebte Suchen
DAX 30
Öl
Euro US-Dollar
Goldpreis
Meistgesucht
Daimler AG710000
Deutsche Bank AG514000
BayerBAY001
Volkswagen AG Vz. (VW AG)766403
Apple Inc.865985
Allianz840400
Wirecard AG747206
TeslaA1CX3T
CommerzbankCBK100
Deutsche Telekom AG555750
BMW AG519000
E.ON SEENAG99
BASFBASF11
Siemens AG723610
thyssenkrupp AG750000