Schlagwort-Archive: Klimawandel

Scientific method and so-called skeptics

This is an addendum to the answer I have tried to give to Scott Adams‘ (the creator of Dilbert)
question on why science can’t seem to persuade climate skeptics. The basic answer is: Because they don’t want to be convinced. Maybe I should leave it at that, but I feel that maybe some people could indeed benefit by discussing the finer points of the methods of science Adams is targeting with his post. So this is for those specialists (this post not being announced anywhere but at the end of the main answer I have given).

Dear Scott Adams, I’ll dip into some of your points 1 through 14 here. I’ll go at my own pace, I am not necessarily going to jump the hoops you hold up. If you want to skip ahead: I will be dealing with

For starters this business about supplying a number, a percentage of how much of global warming was man-made. The IPCC said in 2013: “It is extremely likely that human influence has been the dominant cause of the observed warming since the mid-20th century.“ The UN-body elsewhere defines “extremely likely” as 95 to 100 percent probability. But it doesn’t give a number for “dominant”.

Let’s figure this out. Since the only other category except human influence would be non-human or natural influence we have a two-way-split. I think it would be safe then to assume that dominant means decidedly more than 50 percent. And if you look at this figure from that same IPCC report, you would think it is closer to 100 percent, wouldn’t you? Without human influence there would be little to no warming, that’s those blue bands. Add human and natural together and you get the pinkish bands around the actual observations. It’s clearer in larger regions with more data: temperatures in North America, Europe, Asia, Australia show no overlap of the colored bands anymore. And it’s most clear in global averages. And there are literally 1000s of sources in the IPCC report.

Source: IPCC, AR5, WG1, Figure SPM.6 

Maybe well over 50 to 100 percent human influence is still too vague for you. Sorry, things are not as simple as we all would like them to be. Anyways: Any single number would most certainly be evidently wrong in the precision it radiates. And attack would be sure to follow. Another of the mock debates surrounding this issue.

Next: Why do you fight being told the rate of warming was a tell-tale sign of what is happening? Rates are often as important or even more so than absolute numbers in every day life, too. Consider the task of sending a message from New York to San Francisco: The distance has stayed the same since both cities are on the map. First you could send it via stage coach, then by train, plane, now e-mail. The amount of time went from weeks to seconds and that means the speed of transmission, the rate of transport went up by orders of magnitude. Not such a difficult concept, is it? And that doesn’t mean heat and cold records aren’t relevant information, too. In fact they are, and there are way more new heat records than new cold records. By 4:1, here is a source for the US.The point is, if there was no change, then there would randomly be new cold and heat records in about the same proportion.

Arctic vs Antarctic: The ice goes away in the north and grows in the south, you say, and accuse scientist of ignoring that. Well, they aren’t, there is lots of research trying to figure out what is happening in both areas. If you think scientist are hiding that ice is growing down south then maybe you are listening to somebody who wants you to think they are hiding it. You can, for instance, look here if you interested in sea ice. For land ice, this might be a good starting point – the question, it says, in under debate.
There are several big differences between the regions that make the simple comparison you demand difficult, to put it mildly. Antarctica is a continent surrounded by ocean and fierce circumpolar currents that basically give it its own independent weather. The Arctic is an ocean surrounded by continents and tightly coupled to what happens with storms, temperatures and precipitation in many countries around it including yours and mine. The northern polar region belongs to a hemisphere that contains two thirds of earth’s land mass – including the major industrial nations with their emission histories. The southern has one third of the land including Antarctica and is otherwise 81 percent water. Why would you expect the two regions to be mirror images? It’s also not as if they were shifting ice masses between them making the changes a zero-sum-game. It is a little like adding the scores of the Chicago Bears, Cubs, Bulls, Black Hawks and Red Stars and comparing them to a sum of clubs from Los Angeles to see which is the better sports town.

And just to finish up with details, your point number 11.

  • Why aren’t insurance companies paying attention to sea level rise? They are. The US flood insurance program is recognized to be in dire need of reform because of rising seas (here, here and here, the last being a report by the National Academy of Sciences). And internationally take the example of Munich Re. It says in its annual report (page 74) that “Climate change represents one of the greatest long-term risks of change for the insurance industry”. It quotes the cost of adapting to sea level rise as 1 trillion dollars for the US alone. And university analysts have given it thumbs up on its response.
  • Why do your beaches look the same? Well, Wikipedia has you living in California, the Eastern Bay area to be exact, and I assume you might be going to Santa Cruz or thereabouts. So let’s look at a map. Here is Santa Cruz with the inundation 2010, 2060 and 2100 (Source). The water has been progressing slowly (and presumably local authorities have taken care of their beaches) but changes will accelerate.
                              Source: Monterey Bay Sea Level Assessment by Noaa

    The numbers in one projection are: seven inches rise last century, six more until 2030, another six until 2050, and two more feet on top by 2100. So you are in the middle of the two-inches-per-decade phase between 2000 und 2030. That’s not easy to notice by naked eye especially when there is maintenance going on. The water will rise, your state authorities say.
  • Why are half the top hits in web searches debunking the rise? Are you honestly asking that? It’s not about the quantity of hits but about the quality of sources. Bloggers have made it their business to attack the science and since they get shared and linked across a parallel universe the Google algorithms think the sites are trustworthy. They get ranked high like science sources who often don’t spend as much time on search engine optimization. For fun try “aliens landing earth” or “Barack Obama muslim” to see the quota of reliable information.

Now for the grand finale, your major and indeed first point: models. Maybe you have been impatiently skipping down here (or maybe you have tuned out) because the IPCC-graph I showed earlier depends on models. How else would you be able to artificially switch off human contributions? That’s nothing we can do in real life.

But why do we need models, in plural, at all? Well, that’s a tenet of science. You make multiple measurements because each one could be flawed, and then you look at what the tendency, the average, the median is, or whatever statistical analysis of them tells you. It’s easy to make fun of that, I know. In everyday life one measurement usually suffices. Has your kid gained another inch, have you lost weight, are the panels of your strip all the right size, is there enough flour in the cookie dough, how many people are at the party, is there enough pressure in your tires, how many e-mails do you get in a single day? Nobody does multiple measurements and statistical analysis for those. Well, for the e-mails you might to eliminate the effect that there could be systematically higher numbers on single days, maybe Mondays and Fridays – just guessing.

In science the questions are usually a whole lot harder, so this multiple measurement habit has proved to be a good idea. As has trusting science as a whole for society, by the way. A consequence of doing this, if you do it right, is that you get two numbers. The result you are looking for and a measure of confidence that that is a figure you can depend on. Scientists being a little nerdy often call the confidence measure “uncertainty”. And that is what it is, too. It is a measure of how uncertain we need to be – or certain we can be. In everyday language that word “uncertainty” comes across badly, just like scientists don’t know their stuff. In fact it is not a weakness but a strength of the scientific method. It has established ways of quality control that are certainly lacking from many other parts of communication – like getting directions in a strange town, remembering the weather two years ago, indicating the size of fish you caught.

When there are no measurement values to be had, because you are talking about a future that hasn’t arrived yet, you need to construct models. They simplify reality in a way that makes it computable, usually leaving out big chunks of the complicated stuff. As the saying goes, they are all wrong, but some are useful. For them also it is a good idea to have several, ideally constructed from scratch in independent, competitive research groups. If they point in different directions, all but one must be getting it wrong. If, however, they point in the same direction that can boost confidence they are getting something right.

Of course they could in principle still all be wrong. Then they all would make the same mistakes and that points to the underlying science being wrong. It’s equations about how pressure and humidity and wind and rain work together and how CO2 and other greenhouse gases influence the radiation that enters and leaves the atmosphere. Complicated stuff but pretty well tested, so the criticism against models is usually not leveled there.

This graph comes from the IPCC. It shows there’s some work to be done but not total chaos. It is a comparison of a whole lot of climate models hindcasting global temperatures over roughly 150 years and through several large volcano eruptions. Black and bold are the observations, red and bold is the average of the models, the thin lines are individual ones, the yellowish shading marks the reference period against which all temperature differences are measured.
Source: AR5, WG1, Figure 9.8, 2013

To prove that the equations and the mechanisms in the models are working together well researchers do this thing called hindcasting that irritates you so. The models start their work at some point in the distant past, fed with the initial conditions from that point in time and then run unguided through the years up to the present. The results can be compared to what actually happened and give the model makers a measurement of how good they are doing. Only if they pass that test can anyone place any confidence in them getting the future right.

„It tells you nothing of their ability to predict the future“, you say. I wonder why you would think you are in the position to judge that. Yes, hindcasting indeed tells us something about the ability to project the future, because the models prove they get the underlying science right. They calculated a future from 1850 onwards based on first principles. It’s just that for us, that future is the past.

I think it is seriously wrong to equate climate models to the financial market. You are missing something rather important. In climate science people actually know what is happening and what causes what. Obviously the minute details of dealings at the Stock Exchange are NOT known even remotely as well. If you insist on that kind of simile: The only thing that would be comparable is if you have a set of publicly available rules and based on that not one financial genius but a whole bunch of them put their predictions of the future into sealed envelopes guarded by a trusted institution only to be opened when the end year envisioned has arrived and all the data are in. And you would only count it as a success if everyone of those guys got it reasonably right.

Anyways, hindcasting of course is not the primary product of the models. It is a necessary quality check, nothing more, nothing less, and should no more be advertised than race track results for a new car model that will never go 150 mph in traffic. The results should be there for the asking, sure. But not center stage. If you see hindcasting as a major part of science communication around climate models you are looking at the communication in a different way from me. It’s safe to assume that neither of us has the right way to look so we both should be careful about what we say about them. I’ll certainly look out for exaggerated hindcasting language in the future. Maybe you can look beyond that.

Remember though I said that models were “ideally constructed from scratch in independent, competitive research groups” – well, not all of them are. There are connections between some research groups but not others. So some researchers are wondering if all the models should be treated equally, they question the model democracy, as they put it. This is brand new stuff. The suggestion is to weight the models and then to do weighted averages. In real life you would be using that technique maybe to locate a sports arena that several clubs will be using – and you want to giving the club with a 100 actives more say than the clubs with 25, 33 or 50 players. So you weight their respective answers with the number of members. In the case of the models the categories that could be used for weighting are independence – the unique efforts get more say – and skill in hindcasting. So there still is not what you wanted, the single best model, but more of a unified voice of them.

Finally to put the whole business into a framing you might understand (and I find weird examples work best to get points across): If you were to hold the secret theory that creating Dilbert was inevitable given your life’s twists and turns – how would you test that? You could recruit a number of young, very young kids and subject about half of them to the same experiences you had to see if they came up with a similar syndicated cartoon series. You would have control groups that get different experiences to test correlates: Could a woman become Scott Adams? Would there be Dilbert if there hadn’t been Little Nemo, Peanuts or Doonesbury before?

And since this in reality would be impossible or inhumane to subject people to you would think of models to give you an answer. Models, in plural, because if you only relied on one you could so easily get it wrong and never even know about it.

If you are seriously interested, it is a good idea to do this in plural. Scientists are seriously interested. And as a citizen following science news you would be better off not pushing for answers that leave out the best science has to offer. And that doesn’t just apply to models, that goes for most of your demands.

Dear Scott Adams,

you ask in your blog post why climate scientists can’t come up with good ways to convince skeptics that climate change is indeed a problem.

Just a screenshot (and a link). All rights lie with Scott Adams.

This might not be the answer you have been waiting for, but it is the answer I need to give. Let me introduce myself: I am a German science journalist, named Chris Schrader. I live in Hamburg. I am only writing this up because in the end of the post you say you’re interested in the psychology, not the science around the climate issue. So am I, that’s why I am bothering with this, but I do also know enough about the science, having worked as a journalist in the field for 15 years. And I am, this is the last of the preliminaries, assuming you have a genuine interest in the question and are, as you say, “on the side of the scientists”. I realize there is some debate about your motives in a related post but let’s go with the benefit of the doubt.

The simple answer to the question in the headline of your post is: There is no way to convince skeptics because they don’t want to be convinced. Indeed their identity and social status often depends on not being convinced. You make it sound as though everybody secretly wanted to believe climate change is real and a serious problem but just needs the right arguments to bring him- or herself to it. Or in a more neutral way of putting it: that everybody weighed the pros and cons in a rational matter and just needed enough good statements by scientists for the scales to come down on the right side. That is a concept the psychology around the issue debunked years ago: the information deficit model. It simply doesn’t work that way. More or better put information will not sway people’s views on contested topics. So if you propose to know  “what it would take to convince skeptics that climate science is a problem that we must fix”, as you say, I seriously beg to differ. This whole discussion is not about what science says or how it says it, it’s only about what people think they want to hear. You yourself seem to making the same point in the last two sentences but draw no conclusions from it.

Saying or thinking that science has to do anything at all before we finally can begin acting on climate change is nothing but a big smoke screen.

Especially on issues like climate change that are political and divisive, people tend to follow the hints in their social groups on what to think. Climate change is the prime example of that, especially in your country. It has become part of the political identity of people what they think about it. You should read up what researchers like Dan Kahan at Yale have to say on it. He does these tests that check peoples’ skills with numbers. When the subject is, say, the efficacy of a skin ointment in removing a rash and the task is comparing outcomes in subjects using it or not, people do okay. It’s a hard problem, but there are reasonable folks coming up with reasonable answers. But change the subject to climate change, or for that matter gun laws, and every evidence for numeracy people have goes out the window. Now they give the answer that falls on their political party’s line no matter the numbers. And the smarter they are and the better with numbers, the bigger the political spread becomes.

This situation is the result of a lot of hard work by some guys at conservative think tanks and other organisations. Read Naomi Oreskes’ book “The Merchants of Doubt” or see the documentary and you’ll get their names. Some of them had been falcons in the cold war, staunch missile-loving anti-communists, who then went on to defend the tobacco industry against the science saying smoking was really bad for you, defend the asbestos industry against science pointing to the risk of lung cancer the fibers posed, and so on: Acid rain, ozone hole, finally climate change, always on the side of industry against science based arguments supporting regulation.

The tactic was in every case an attack on the science and scientists, and spreading doubt was usually enough, hence Oreskes’ book title. They would say: the science is still out, there is no consensus, graphs hint at different explanations – sound familiar? The strategy was to defend the coveted American liberties against overreaching government or what these guys saw as it. They seemed to believe that if the state were allowed to regulate x then it would soon also want to deal with y and z and other letters. x in this instance being carbon emissions, y maybe cars,
z houses, and somewhere down the road gun control, health insurance and other concepts that are toxic and socialist in the view of the American right (and, just as an aside, that even rather conservative states in Europe have no problem with at all).

So these guys certainly didn’t and don’t want to be convinced climate change is a real problem. Maybe they really believe this theory about giving the state not a single ledge to step on, maybe they were and are also paid well by the industries making a profit in an underregulated business. And as long as they have a hold on their share of public opinion through political contacts, religious leaders, talk radio, TV stations like the Fox News network and bloggers they keep selling opposition to the science of climate change as an identity badge for millions of people in the country. So they don’t want to be convinced, either.

That also seriously deflates calling them skeptics. Skepticsm is a virtue in science but there you need enough of a background to voice specific objections and you have to be willing to let yourself be convinced your views are wrong. We could relax the first point to make this not into an elitist issue but the second is fundamental. And we have just seen there is no disposition by that group to be dissuaded of their criticsm.

One of the many signs held up at the February rally in Boston „Stand up for science“. It rightly says that acting on climate can be patriotic. Copyright: C. Schrader

If you take the psychology serious, and there is lots of research showing this, in order to “convince” the “skeptics” you need to embrace social strategies to get people out of the strangleholds they are in. Show them, demonstrate to them how it can be patriotic and christian to be concerned about climate change and that their neighbors, colleagues and friends think that way, too. Get them hooked on Katharine Hayhoe’s Global Weirding series of short videos: She is an evangelical climate scientists with credentials in both supposedly mutually exclusive communities. Even Trump voters don’t want him to dismantle the US climate change policy. They just don’t talk about it, because they think they are a minority. Well, they aren’t and they need to shown by someone they trust. If that’s you: welcome, get to work. Their political conviction is certainly valued. The questions we have to answer need everyone’s ideas, but it should come in at the stage where we discuss the solutions, not whether the problem is real.

Maybe then that only leaves you, Scott Adams: Do you want to be convinced? I mean, there must be some people willing and able to weigh arguments around climate change. Open mind to the question, good common sense, no patience for b/s but respect for clear arguments, willing to admit to change of opinion. It has been sort of the ideal of the western culture since enlightenment. Let’s assume you are, and further assume your questions or demands have anything to do with that. If that is correct, you show yourself as a guy with a no-nonsense-attitude that will not mind coming across gruff. Then presumably you will be able to handle a similar tone. So here goes: I think you are basically misunderstanding and misrepresenting what science is and does and supposedly owes you to a point that makes it hard to presume that all this happens in good faith.

Best, Chris Schrader

For specialists: Some answers to Adams‘ questions/demands.


Klimatipps – nicht nur für Los Angeles

14338415117_c87efa21c6_kDas Lummis House in Los Angeles hat ein amerikanischer Journalist um die Jahrhundertwende zum 20. Jahrhundert im Norden der Stadt bauen lassen. Es ist heute ein Denkmal, und der Garten ist nach den Grundsätzen des „Drought-tolerant gardening“ angelegt. Quelle: Ken Lund, Flickr, Creative Commons Licence, unverändert

Hamburg, den 22. September 2016

Zur Abwechslung mal ein paar Klimatipps für Haus und Grundstück. Der erste erreicht uns aus Los Angeles in Kalifornien, wo die vergangenen fünf Jahre der trockenste solche Zeitraum waren, seit  das Wetter regelmäßig registriert wird – also seit 140 Jahren. Mehr noch: Eine Dürre wie 2012 bis 2014 sollte nur alle knapp 10 000 Jahre einmal eintreten, haben Wissenschaftler berechnet. Das hat an der Pazifikküste bereits ein Umdenken im Hinblick auf den Klimawandel verstärkt, von dem Deutschland noch weit entfernt ist. So will der Staat Kalifornien im Alleingang bis 2030 den Ausstoß von Treibhausgasen um 40 Prozent unter das Niveau von 1990 senken  – das rechtfertigt allemal den Blick in eine Region, die neun Zeitzonen von Deutschland entfernt liegt.

Die Behörden der südkalifornischen Metropole haben auf die Dürre zum Beispiel mit dem Cash for Grass-Programm reagiert und bieten Gartenbesitzern Zuschüsse an, wenn sie ihren Rasen durch eine wassersparende Landschafts-Gestaltung ersetzen: Mulch, Steine und vor allem genügsame Pflanzen. Dafür gibt es ein Handbuch, das zum Beispiel die Salbei-Art hummingbird sage anpreist, das im Südwesten heimische deergrass, diverse Büsche und Ranken oder natürlich die Staatsblume, den kalifornischen Mohn.

Der Sinn ist, den gewaltigen Wasserverbrauch beim Sprengen des Rasens  zu reduzieren. Er war ohnehin schon durch Verordnungen eingeschränkt: Sprinkler durften nur 15 Minuten alle zwei Tage angestellt werden, und nicht zwischen 9 und 17 Uhr. Doch was die weiteren Folgen über das Wassersparen hinaus wären, wenn alle Hausbesitzer in LA ihre Gärten umgestalteten, das war bisher noch nicht richtig klar. Viele konnten sich ja ausmalen, dass die Temperaturen in unmittelbarer Umgebung des Hauses ansteigen, wenn das verspritzte Wasser nicht mehr zu großen Teilen verdunstet.

Genau das bestätigt nun eine neue Studie, die in den Geophysical Research Letters erschienen ist – allerdings zeichnet sie ein differenziertes, durchaus interessantes Bild. Während sich die Region nämlich zunächst tatsächlich tagsüber aufheizt, wenn Gärten nicht mehr gesprengt werden, kühlt sie nachts um so stärker ab. Bemerkbar macht sich das den Berechnungen zufolge schon zu einer Uhrzeit, zu der die Bewohner abends von der Arbeit nach Hause kommen, nachdem sie den üblichen Rushhour-Stau bewältigt haben. Am deutlichsten ist der Effekt in den Abendstunden. Und falls der Umbau der Pflanzenwelt nur konsequent genug vollendet wird, schwindet auch die Erwärmung in der Mittagszeit wieder, weil die Brise vom Pazifik weiter ins Land hineinreicht.

Die Erklärung ist eigentlich einfache Physik: Wenn die Erde nicht mehr künstlich feucht gehalten wird, bremst das den Austausch von Energie zwischen Luft und Boden: Die von der Sonne erwärmte Erde kann die sich Luft nicht mehr so leicht daran hindern, sich abzukühlen.

Pouya Vahmani und George Ban-Weiss von der University of Southern California haben ein regionales Klimamodell für Los Angeles laufen lassen und in der virtuellen Metropole zuerst alle Gartenpflanzen, dann auch das ganze Grünzeug auf öffentlichen Flächen ausgetauscht. Das geht natürlich nicht wie zum Beispiel bei den „Sims“, wo man den Garten seines computeranimierten Hauses liebevoll neu bepflanzt: Die Datenpunkte im Modell waren zwei mal zwei Kilometer groß. Die Forscher haben darum Kenngrößen der Vegetation verändert, vor allem Angaben über die Stomata der Pflanzen (also die Spaltöffnungen, über die sie Gase wie Wasserdampf und Kohlendioxid mit der Umgebung austauschen) und die sogenannten Rauhigkeitslänge (die Höhe über dem Boden, auf der die Vegetation den Wind praktisch auf Null gebremst hat). Sie haben auch die Albedo (also die Menge an Sonnenlicht, die Pflanzen reflektieren) variiert, aber das hatte ihren Angaben zufolge nur wenig Effekt. Den weiteren Klimawandel, der Los Angeles bis zum Ende des Jahrhunderts um drei bis fünf Grad erwärmen könnte, ignorieren die Forscher zunächst, er lässt sich in Simulationsrechnungen einfach abschalten.

droughttolerancefig2Simulationsrechnung, wie der Umbau nur von privaten Gärten (Phase 1) oder auch von allen öffentlichen Flächen (Phase 2) die Temperaturen an einem Julitag in Los Angeles
um 14 und 22 Uhr verändern würde. Quelle: Vahmani/Ban-Weis,
Geophysical Research Letters, Figure 2

Konkret warf der Computer folgende Zahlen aus: In der Phase 1, bei der nur die privaten Rasenfläche umgewandelt wurden, erwärmte sich das Stadtgebiet an Julitagen mittags um zwei Uhr im Mittel um 0,7 Grad Celsius; Spitzenwerte erreichten die Regionen im San Fernando Valley nördlich der Hollywood Hills und Santa Monica Mountains sowie in Riverside am östlichen Ende des Beckens von Los Angeles: Hier wurde es mittags um 1,9 Grad wärmer, wenn die Gärten nicht mehr gewässert wurden. Nachts um 22 Uhr hingegen kühlte sich die Metropole deutlich ab, und zwar gerade in den tagsüber erhitzen Regionen fern des Meeres – im Mittel um etwas mehr als drei Grad. Das ist nicht nur vom Betrag her mehr, sondern auch wichtiger für die Gesundheit der Angelenos. Gesundheitsschäden drohen bei einer Hitzewelle vor allem, weil die Menschen nachts keine Abkühlung mehr finden und der Schlaf massiv gestört ist.

In der Phase 2, in der auch alles öffentliche Land virtuell umgemodelt wurde, blieb die nächtliche Abkühlung gleich, und sogar tagsüber sanken die Temperatur im Mittel nun um 0,2 Grad. Verantwortlich waren vor allem die küstennahen Regionen (siehe Grafik oben). Dass im Durchschnitt eine Abkühlung herauskam, hat die Forscher selbst überrascht, wie sie schreiben. Ganz trauen sie dem Wert auch nicht; je nach Wahl der Pflanzenparameter könnte es doch eine geringe Erwärmung geben. Entscheidend für den Unterschied zu Phase 1 war jedenfalls, dass die neuen Pflanzen die Seebrise besser passieren lassen, so dass sie weiter ins Land reicht.

Das letzte Wort ist allerdings nicht gesprochen: Das Umpflanzen könnte nämlich auch bedeuten, dass manche Bäume strubbeligen Büschen weichen müssten, und da würden vermutlich nicht nur die Umweltschützer – in den USA bisweilen als „Treehugger“ verspottet – protestieren.

24150210766_f5d47bf138_kDer Dachboden eines Hauses in Kalifornien. Der Boden ist gedämmt, die Unterseite des Daches jedoch nicht sonderlich isoliert. Foto: mit freundlicher Erlaubnis

Der zweite Tipp für das Energiesparen kommt zwar nicht aus Kalifornien, aber er führt dorthin. Gerade die Metropole Los Angeles nämlich, oft das Sinnbild für Energieverschwendung, hat bei einem Vergleich von sechs Städten am besten abgeschnitten: Die Häuser dort verbrauchen am wenigsten für Heizen und Kühlen, und der Bedarf dürfte im Rahmen des Klimawandels sogar noch sinken, stellt ein Team um Anthony Fontanini von der Iowa State University und dem Fraunhofer-Zentrum für nachhaltige Energiesystem in Boston fest.

In ihrer Studie wollten die Forscher eigentlich den Effekt der Dachkonstruktion erkunden und haben sechs verschiedene Geometrien im Computer simuliert: vom Flach- über das Sattel- und Walm- bis zum Mansarden-Dach mit oder ohne Gauben. Sie werden in den USA ganz anders gebaut als hierzulande: aus leichten Materialien, ganzjährig belüftet. Die Isolationsschicht liegt (oder sollte liegen) zwischen der Decke der Wohnräume und dem Fußboden des Dachbodens.Dass die Bewohner unter dem Dach etwas lagern oder gar ein Zimmer einbauen, haben die Wissenschaftler dabei ignoriert.  Darum änderte die Konstruktion am Ende kaum etwas am Energiebedarf des 143-Quadratmeter-großen Bungalows darunter.

Aber es bewahrheitete sich wieder der alte Makler-Spruch, wonach es auf Lage, Lage und Lage ankommt. In diesem Fall ging es jedoch nicht um Stadtviertel oder gar Straßenseiten (wie bei der Hamburger Elbchaussee), sondern um geografische Regionen, als das Forscherteam die Städte Baltimore, Atlanta, Minneapolis, Seattle, Phoenix und Los Angeles verglichen. Die Metropole in Kalifornien schnitt dabei am besten ab, das heißt, hier floss am wenigsten unerwünschte Wärmeenergie durch die Decke des Wohnbereichs: im Sommer als Wärme nach unten, die weggekühlt werden muss, im Winter als Wärme nach oben, die entweicht und ersetzt werden muss.

Insgesamt ergab sich für den Bungalow in Los Angeles ein hochgerechneter Energiebedarf von gut 11 000 Kilowattstunden, das wäre auch im Vergleich mit relativ neuen Häusern in Deutschland ein guter Wert von 78 KWh/m2 ∙ a. Allerdings liegt das natürlich am milden Klima, nicht an der Bausubstanz. Die zweitplatzierte Stadt, Seattle, kam auf gut 15 000, Phoenix als Schlusslicht auf fast 22 000 Kilowattstunden. Seinen Spitzenplatz erreichte Los Angeles in der Summe über Heiz- und Kühlperiode. Nur in Phoenix muss man im Winter weniger heizen, dafür im Rest des Jahres viel mehr kühlen. In Minneapolis und Seattle wiederum läuft im Sommer seltener die Klimaanlage, dafür im Winter häufiger die Heizung.

Los Angeles hat zudem im Vergleich der amerikanischen Städte die besten Aussichten im Klimawandel: Abhängig vom Erwärmungsszenario sinkt in Südkalifornien der Energiebedarf des simulierten Hauses um zehn bis 23 Prozent. Einen kleineren Rückgang dürfen auch Baltimore, Minneapolis und Seattle erwarten, dafür steigt der Verbrauch in Phoenix um bis zu 19 Prozent und in Atlanta um bis zu 44 Prozent. Dort wird die Hitze schon heute oft unerträglich.

9710802780_6fcad6c268_kVon begrünten Dächern im Civic Center-Distrikt von San Francisco hat man  einen
guten Blick auf die Hügel und den markanten Sturm Tower. Quelle: Sergio Ruiz, Flickr,  Creative Commons License, unverändert

Und ein letzter Hinweis, der zwar aus Hongkong stammt, aber überall dort wichtig werden kann, wo Mücken zur Plage werden können. Zwei Geographen der Universität Hongkong haben untersucht, ob begrünte Dächer zum Brutplatz für Moskitos werden können. Ihre Antwort: eher nein. Sie konnten zumindest auf den drei Dachgärten weniger der stechenden Insekten fangen als auf zwei blanken Flachdächern, wo auch immer mal wieder Pfützen entstehen und als Kinderstube der Mücken dienen können. Auf dem begrünten Dach in Los Angeles (oder San Francisco) müssten aber wiederum dürre-tolerante Pflanzen wachsen, das ist wohl klar.

Das Zeitalter der Pilzwolken

Bekanntes Foto des Baker-Tests. Die durch die Druckwelle hervorgerufene Wilson-Wolke hat sich teilweise aufgelöst und gibt den Blick auf die Wassersäule und den blumenkohlförmigen Explosionspilz sowie die Flotte von Zielschiffen frei. Die Palmen am Strand wurden mit schwarzer und weißer Farbe angestrichen, um die Höhe der erwarteten Flutwelle messen zu können. Von United States Department of Defense (either the U.S. Army or the U.S. Navy)derivative work: Victorrocha (talk) - Operation_Crossroads_Baker_(wide).jpg, Gemeinfrei, 25. Juli 1946 ließen die Amerikaner auf dem Bikini-Atoll im Rahmen der „Operation Crossroads“ den Sprengsatz Baker 27 Meter unter Wasser detonieren. 93 ausgemusterte und erbeutete Schiffe und viele Versuchstiere wurden der Explosion ausgesetzt. Sie fiel so unerwartet heftig aus und verursachte solche Schäden, dass die Organisatoren den geplanten dritten Test absagten und später erst einmal wissenschaftliche Begriffe für die beobachteten Phänomene definieren mussten. Einige der radioaktiv verseuchten Schiffe wurden später im Pazifik von San Francisco versenkt. Quelle: United States Department of Defense/, gemeinfrei

Hamburg, 29. August 2016

There is now also an English translation of this entry

Hinweis: Dieser Blogbeitrag beruht auf zwei Artikeln von mir, die bei und in der Süddeutschen Zeitung erschienen sind. Ich habe sie hier zusammengefasst und ergänzt, und bringe sie vor allem, weil ich die alten Bilder so toll finde. Es lohnt sich, besonders beim Aufmacher-Bild, dem Link zu folgen. 

Das Zeitalter der Pilzwolken begann am 16. Juli 1945, morgens um halb sechs. An jenem Tag hatte sich die Elite der amerikanischen Physiker in der Wüste von New Mexico versammelt, knapp 60 Kilometer südwestlich von Socorro. Es war der erste Praxistest des Manhattan-Projekts, die erste Explosion einer Atombombe; Robert Oppenheimer hatte der Operation den Codenamen „Trinity“ gegeben. Den Sprengsatz selbst nannten die Entwickler flapsig „Gadget“, also Gerät oder Vorrichtung. Er steckte in einem mannshohen ausgebeulten Zylinder mit wildem Kabelgewirr auf der Außenseite. Sein Herzstück waren sechs Kilogramm Plutonium, und er erreichte eine Sprengkraft von etwa 21 Kilotonnen. Die Physiker hatten noch gewettet, welche Wucht der nukleare Sprengsatz erreichen würde. Die meisten unterschätzten die Explosion, nur Edward Teller war übermäßig optimistisch, so schildert es der Historiker Richard Rhodes in seinem Buch „The making of the Atomic Bomb“. Diese Zahl, um die die Experten gewettet hatten, ist nun von Radiochemikern des Los Alamos Nationallabors noch einmal mit einer ganz neuen Methode bestätigt worden.

Noch immer bietet die Geschichte der amerikanischen Atombomben Wissenschaftlern Ansatzpunkt für ihre Projekte. Sie interessieren sich für die nukleare Hinterlassenschaft der Pilzwolken-Ära: Neue Methoden erlauben Einblicke in die Funktionsweise der Sprengkörper. Die Erkenntnisse könnten bei der Überwachung künftiger Abrüstungsverträge helfen. Andere Forscher liefern frische Daten von vernachlässigten Schauplätzen der Historie wie den Südseeatollen von Enewetak, Rongelap und Bikini, wo die US-Armee fast 20 Jahre nach dem Krieg ihre Bombentests noch oberirdisch durchführte. Oder von einer Basis auf Grönland, Camp Century, von der aus die Amerikaner im Ernstfall Raketen gen Sowjet-Union starten wollten. Der Klimawandel könnte einige der Hinterlassenschaften freisetzen.

Die Trinity-Explosion ist zwar fast ein Menschenleben her, Augenzeugen dürfte es daher nur noch wenige geben. Immerhin: Neben den Physikern waren auch viele junge Soldaten anwesend, und auch Kinder der normalen Bevölkerung von New Mexico erlebten den plötzlichen Blitz mit. Mit Geigerzählern oder anderen herkömmlichen Instrumenten ist das Ereignis noch heute an damaligen Ground Zero, den die Öffentlichkeit zweimal im Jahr besuchen kann, ohne weiteres nachvollziehbar. Die Strahlung ist etwa zehnmal so hoch wie sonst in den USA. Doch Einzelheiten der Bombe buchstäblich aus dem Sand zu lesen – das ist mal ein neuer Ansatz.

Die Forscher um Susan Hanson brauchten dafür nur fünf Stückchen Glas von der Explosionsstelle, nicht einmal zehn Gramm. Die intensive Hitze des Tests hatte hier den Sand geschmolzen und dabei auch Spaltprodukte der Kettenreaktion eingeschlossen. Und obwohl in den Proben 70 Jahre lang weiter unzählige radioaktive Zerfallsprozesse abgelaufen waren, konnten die Forscher Bauart und Effektivität der Bombe daraus bestimmen. Für die Sprengkraft brauchten sie nur die historisch überlieferte Menge Plutonium und kamen so auf 22,1 Kilotonnen, das deckt sich im Rahmen der Messgenauigkeit mit bisherigen Angaben. Die Wissenschaftler richten den Blick nun nach vorn. „Ein solches Verfahren könnte die Zeitspanne erweitern, in der man Daten für Inspektionen sammelt“, schließt das Team von Hanson aus dem Erfolg. „Das würde auf absehbare Zukunft die Überprüfung von Abrüstungs-Verträgen verbessern.“ Sie haben ihre Resultate in PNAS veröffentlicht.

Norris Bradbury, im Manhattan-Projekt zuständig für die Montage der „Gadget“ genannten ersten Atombombe, und seine Kreation. Quelle: US-Regierung, flickr

Im Fall Trinity war der Kniff, in den Proben nicht nach strahlenden Resten, sondern nach stabilen Atomen zu suchen, genauer nach Molybdän-Isotopen. Neun von ihnen sind bekannt, sieben davon sind stabil, ihr Atomgewicht liegt zwischen 92 und 100. Sie haben jeweils ihren festen Anteil am natürlichen Vorkommen, der zwischen neun und 24 Prozent liegt. Diese Verteilung hatte sich in den Glasproben allerdings verschoben. Die Isotope Mo-95 und Mo-97 nämlich stehen jeweils am Ende einer Zerfallskette, in denen sich die Reste der im Feuerball der Explosion gespaltenen Plutoniumatome immer weiter umwandeln, bis sie einen stabilen Atomkern formen können. Die beiden Isotope wurden also als Folge der radioaktiven Prozesse häufiger. Bei Molybdän-96 hingegen passierte das nur im Millionstel-Bereich, denn hier endet die Zerfallskette schon vorher. Das Team um Hanson konnte also aus den Relationen Mo-95/Mo-96 und Mo-97/Mo-96 ablesen, wie die Explosion abgelaufen war. Zusammen mit dem Plutoniumgehalt der Proben ließen sich so die Anzahl der gespaltenen Atome und die Sprengkraft von „Gadget“ errechnen.

Nach dem ersten Test in New Mexico hatten die Amerikaner im August 1945 zwei Bomben auf die japanischen Städte Hiroshima und Nagasaki geworfen. Danach folgten noch Dutzende weiterer Tests – zur Sicherheit nicht auf eigenem Staatsgebiet, sondern auf den Südseeatollen. Obwohl Jahrzehnte vergangen sind, bleiben viele der Inseln dort verstrahlt: Die Zeit wird schließlich nicht unbedingt nach den Maßstäben der Menschen gemessen, sondern in der Halbwertszeit des gefährlichsten verbliebenen Spaltprodukts der damaligen Detonationen: Cäsium-137, dessen Menge sich nur alle 30 Jahre halbiert. Wie viel Strahlung wirklich noch da ist, wussten offizielle Stellen aber offenbar nicht genau – bis ein Team um Autumn Bordner von der Columbia-University mal nachgeschaut hat. Die Forscher charteten sich im Sommer 2015 ein Boot und steuerten innerhalb von zwei Wochen im August 2015 sechs der Inselgruppen an. Ihre Daten haben sie ebenfalls bei PNAS veröffentlicht.

Es zeigte sich, dass zumindest die Insel Enewetak, wo bereits wieder fast 1000 Menschen leben, einigermaßen sicher ist. Die Forscher fanden Dosisraten von 0,04 bis 0,17 Millisievert pro Jahr (msv/a), die von außen, also aus Boden, Wasser und Pflanzen auf Bewohner der Insel einwirkten. Als Mittelwert nennen sie 0,08 msv/a; nur auf einem Fleck an der Südspitze zeigten die Mess-Instrumente deutlich mehr, nämlich 0,4 msv/a. Als Grenzwert der zusätzlichen Strahlenbelastung in Folge der Atomtests haben die USA und die Marshall-Inseln gemeinsam eine Dosis von einem Millisievert pro Jahr festgelegt; nach dieser Angabe sollte beurteilt werden, ob frühere Bewohner der Inseln oder ihre Nachkommen sie wieder bewohnen können. Das gleiche Limit gilt in Deutschland.

Allerdings sollten bei Messungen wie denen des Columbia-Teams nicht mehr als zehn oder 15 Prozent des Grenzwertes ausgeschöpft werden. Die äußere Umgebung ist ja nur ein Strahlungsfaktor, wenn die Menschen auch womöglich belastete, lokale Nahrungsmittel essen und Radioaktivität im Wasser zu sich nehmen. Diese Bedingung ist zumindest auf Enewetak weitestgehend erfüllt, wo die Umwelt im Mittel acht Prozent des Limits ausmacht. Die Strahlungswerte sind damit vergleichbar mit denen auf dem kaum belasteten Majuro-Atoll, wo in der Hauptstadt des Landes heute viele der Staatsbürger beengt leben.

Die Entwarnung gilt aber nicht für das berüchtigte Rongelap, das immer noch unter der Nuklear-Geschichte leidet. Die Insel war beim Atomtest Castle Bravo 1954 von einer Wolke von Fall-Out getroffen worden. Weil sowohl die Bombe als auch der Wind sich anders verhielten als vorausberechnet, hatte die US-Armee die 64 Bewohner nicht evakuiert. Als radioaktive Asche auf die Insel regnete, rieben Kinder sie sich im Spiel in die Haare, sie drang in alle Hütten ein und verseuchte die Zisternen. Viele Bewohner erkrankten an akuter Strahlenkrankheit, etliche starben daran, obwohl die Amerikaner bald alle Insulaner fortbrachten.

Schon 1957 aber transportierte man die Überlebenden zurück und beharrte trotz zahlreicher Krebsfälle bis 1982 darauf, die Insel sei sicher. Auch danach wurden die Bewohner aber nicht ungesiedelt, bis Greenpeace mit seinem Schiff Rainbow Warrior die Bevölkerung 1985 auf ein Nachbaratoll brachte. Danach begann ein umstrittenes Reinigungsprogramm für die Insel. 1994 empfahl der amerikanische Forschungsrat, die Bewohner sollten bei einer Rückkehr ihre Lebensmittel zum Beispiel nur im Süden des Atolls sammeln, doch bislang haben sich die Marshallesen noch nicht darauf eingelassen. Als jetzt die Forscher aus New York auf Rongelap landeten, lagen die Strahlungswerte zwischen 0,06 und 0,55 msv/a; als Mittelwert berechneten sie 0,2 msv/a. Auf vielen Teilen der Insel gab es also zu viel Strahlung für eine Wiederbesiedlung, sollten sich die Zurückgekehrten von Fisch und lokalen Früchten ernähren.

10561566153_5c67d58c37_oZehn Jahre nach den letzten Tests, also in den frühen 1970er-Jahren, durften
einige Einwohner von Bikini auf ihre Inseln zurückkehren. Doch die Strahlungswerte
waren damals – wie heute – zu hoch, so dass die Menschen schließlich doch
wieder evakuiert werden mussten. Quelle:, flickr

Noch schlimmer waren die Werte auf Bikini: Hier lag schon der Mittelwert bei 1,8, die Spitzen übertrafen 6,5 msv/a. Und auf beiden Inseln, so stellten die Wissenschaftler fest, hatte man die möglichen Belastungen deutlich unterschätzt. Die gängigen Angaben waren nämlich aus Messungen berechnet, die zum Teil 20 Jahre alt waren. Und sie beruhten auf Annahmen, wie viel Zeit die Bewohner wohl in ihren Häusern verbringen und wie oft sie im Freien sein würden. Die Forscher um Autumn Bordner lassen sich zu keinem Kommentar hinreißen, was sie von dieser Methode halten, sie stellen nur trocken fest: „Unsere Resultate stellen einen Widerspruch zu den Hochrechnungen auf Basis früherer Messungen dar.“ Auch die Historie, die sich vermeintlich nach einfachen Gesetzen der Physik weiterentwickelt, braucht eben ab und zu ein Update.

Die Wissenschaftler waren zudem auf der Insel Runit, die zum Enewetak-Atoll gehört. Hier haben die Amerikaner strahlende Abfälle ihrer Bomben in den Krater einer Explosion geschoben und unter einer dünnen Betonkuppel vergraben. Das Zeug basiert vor allem auf Plutonium-239, also eine Alpha-Strahler, und dafür war das Bordner-Team nicht gerüstet: Ihre Messgerät erfassten Gamma-Strahlung. Auch davon gab es auf Runit aber einiges: direkt neben dem Bunker zeigte das Instrument gut 0,4 msv/a. Die Werte seien aber keinesfalls repräsentativ, warnen die Forscher: Sie haben die Insel nicht komplett erfasst, wohl auch zur eigenen Sicherheit.

Runit nämlich ist „Amerikas vergessene Atom-Müllhalde“ sagt Michael Gerrard, Professor für Umwelt-Recht an der Columbia University. Es gebe nicht einmal Warnschilder, geschweige denn Wachen, berichtete der Wissenschaftler von einem Besuch 2010. Viele Abfälle haben die abrückenden Truppen einfach in die Lagune geschoben, andere, darunter die Trümmer eines atomaren Blindgängers (nur der konventionelle Sprengstoff zündete), in Plastiksäcken in den Krater geworfen, der bis unter den Meeresspiegel reicht und dessen Fels aus durchlässigen Korallen besteht. Eine richtige Säuberung der Insel hat die Supermacht verweigert, und sein Parlament dann sogar gegen die finanzielle Entschädigung für die Einheimischen gestimmt, die vorher vereinbart worden war, stellt Gerrard bitter fest. Eines Tages aber werde sich das Problem nicht mehr auf eine abgelegene Insel abschieben lassen: wenn die in den Fluten des Pazifik versinken, weil der Klimawandel den Meeresspiegel anhebt.

Der „Cactus Dome“, so benannt nach dem Atomtest, der auf Runit einen
mehr als hundert Meter großen Krater hinterlassen hat, verdeckt große
Mengen radioaktiven Mülls. Quelle: US Defense Special Weapons Agency/
Wikipedia, public domain

Das hat Runit mit Camp Century gemeinsam. Äußerlich verbindet die beiden Orte wenig: hier eine im Prinzip idyllische Südsee-Insel, dort ein im Prinzip unberührtes Stück im Norden des grönländischen Eispanzers. Und in Pazifik kommt das Wasser zum Atommülllager, während in der Arktis die Reste langsam ins Meer rutschen könnten.

In Grönland hatte die US-Armee 1959 eine geheime Basis acht Meter unter dem Eis errichtet (ein Film im Wochenschau-Stil aus der Zeit wurde offenbar erst Jahrzehnte später freigegeben). Bis zu 200 Soldaten wurden dort stationiert; sie erkundeten, ob sich Tunnel im Inlandeis als Standort für Mittelstrecken mit Atomsprengköpfen eigneten. Dazu kam es offenbar nie, weil sich das Eis innerhalb einiger Jahre schon damals als weniger stabil als erwartet erwies. Und als die Armee das „Project Iceworm“ und die Basis 1967 aufgab, ließ sie 200 000 Liter Diesel, 24 Millionen Liter Abwasser und beachtliche Mengen chemischer Abfallstoffe zurück. Sie nahm den damals im Camp installierten Nuklearreaktor mit, der Strom und Wärme geliefert hatte. Das verstrahlte Kühlwasser jedoch blieb in einer Eisgrube.

CampCentury1Am Anfang waren die Arbeiter noch optimistisch, dass die ins Eis gefrästen Tunnel
von Camp Century halten würden …

CampCentury2… doch bald drückte das Eis die „Wonderarch“ genannten Metallträger einfach ein.
Hier in einem Raum, der zum Kernreaktor der Basis gehörte.
Quelle: US-Army, Technical Report 174 von 1965

Noch versinken diese giftigen Hinterlassenschaften des Kalten Krieges immer weiter im Eis von Grönland, aber das Ende ist absehbar. „Es ist nicht mehr die Frage, ob Camp Century und die Schadstoffe darin eines Tages an die Oberfläche gelangen, sondern wann“, sagt Dirk van As vom Dänischen Geologischen Dienst in Kopenhagen. Der Klimawandel könnte die Verhältnisse im Norden Grönlands bis zum Ende dieses Jahrhunderts umkehren, und dann würden Abfälle der ehemaligen Basis vielleicht schon ab 2120 an die Oberfläche gelangen.

Van As und Kollegen aus Kanada, den USA und der Schweiz haben ein fast vergessenes Kapitel der amerikanischen Atombomben-Historie aufgeschlagen (Geophysical Research Letters, online). Was sie enthüllen, klingt ein wenig wie eine andere Auflösung für den Roman „Fräulein Smillas Gespür für Schnee“. Die Forscher haben inzwischen freigegebene Dokumente über die Basis ausgewertet. „Man war überzeugt, das Eis würde sich nicht bewegen und die Abfallstoffe blieben für die Ewigkeit eingeschlossen“, sagt van As. „Doch heute wissen wir, dass es ziemlich dynamisch ist.“

Weil Details in den Dokumenten fehlen, kann das Team nur spekulieren, dass die Basis „nicht triviale“ Mengen PCB (Polychlorierte Biphenyle) enthält. Die krebserregenden Chemikalien wurden als Frostschutz eingesetzt; Farbe aus jener Zeit, die in anderen Basen benutzt wurde, enthielt bis zu fünf Prozent PCB. Ihre Behälter und die Dieseltanks von Camp Century dürften längst zerdrückt worden sein. Der Inhalt, immer noch flüssig, ist nun vermutlich in Blasen eingeschlossen genau wie die damals deponierten flüssigen Abfälle.

Camp Century3Eine Skizze des Kernreaktors mit seinen Nebenanlagen, die die US-Army in den Eistunneln installiert hatte. Quelle: US-Army, Technical Report 174 von 1965

Die dafür angelegten Kavernen, ursprünglich 40 Meter tief, liegen inzwischen vermutlich 65 Meter unter der Oberfläche, weil diese durch Schneefall immer weiter aufsteigt. Den Simulationsrechnungen der Forscher zufolge geht das noch Jahrzehnte so weiter: einem Modell zufolge über 2100 hinaus, ein anderes sagt für 2090 eine Umkehr vorher. Schon einige Jahrzehnten danach könnten erste Risse und Spalten im Eis die ehemalige Basis erreichen und Abfallstoffe mobilisieren, falls der Klimawandel so weiter geht wie bisher. Sollte die Welt nach dem Vertrag von Paris die globale Erwärmung begrenzen, dürfte das die Freisetzung in Grönland verzögern, aber nicht verhindern.

Dass viele Details in ihrem Aufsatz fehlen, ist den Wissenschaftlern bewusst. „Wir wollten eigentlich den Ort besuchen und Messungen machen, aber wir haben keine Finanzierung bekommen“, sagt Dirk van As. Mehrmals wurde ihnen von Geldgebern bedeutet, das Thema sei politisch schwierig. Unter anderem bei der Nato hatten die Forscher nach eigener Aussage Geld beantragt. Die wissenschaftlichen Gutachten über das Projekt seien positiv gewesen, aber dann müsse mindestens ein Land sein Veto eingelegt haben. Van As’ Kollege William Colgan von der University of Toronto hat in Science das gleiche erzählt; Anfragen der US-Journalisten an die dänische und grönländische Regierung und das US-Militär um Stellungnahmen blieben danach unbeantwortet. „Vielleicht wird es nach der Studie und dem Echo in den Medien einfacher“, sagt Dirk van As. „Wir sollten Radarmessungen auf dem Eis machen, um festzustellen, wo was liegt.“

Aerosole: Problem gelöst? Seite 2


Wolken über Berlin – bei Sonnenuntergang von unten beleuchtet. Schwefelsäure in der Atmosphäre hat bei der Bildung sicherlich mitgeholfen. Foto: C. Schrader 


Hamburg, 26. Mai 2016

Fortsetzung von Seite 1

Aus diesem wissenschaftlichen Erfolg entspinnt sich eine interessante forschungspolitische Diskussion, die ich in meinem SZ-Artikel nur anreiße, und hier vertiefen will. Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, verbindet sein Lob für die Ergebnisse aus der Schweiz mit einer Forderung, die den Autoren der Studien kaum gefallen dürfte. Da sich die Aerosole als wenig bedeutsam gezeigt haben, solle man sie gleich ganz aus den Simulationen nehmen und die Erforschung ihrer Effekte auf das Klima einstellen. „Insofern bedeuten die Messungen einen großen Sieg: Wir können das zur Seite legen und uns wichtigeren Dingen widmen.“

Zur genaueren Erklärung hat Stevens nach dem Interview noch eine E-Mail geschickt.

My point is that these studies support the assertion that we probably don’t need to better understand the aerosols to advance on what are some of the first rank problems related to understanding climate change.  As I mentioned yesterday, air pollution and human health are big issues, and science should work on problems that interest scientists (to some degree) so it would be unfair and incorrect to say that we should stop aerosol research.
I’m just trying to say that it is less central to understanding climate than we perhaps believed 10 or even a few years ago… or for that matter before this study.  And knowing what might be important (for a particular problem) is often a great step forward when researching something as complex as Earth’s climate.

Seine Position ist nicht ganz neu: Stevens hat das 2013 bereits in einen Kommentar in Nature geschrieben. Die damals besprochene Studie von Ken Carslaw (der auch zu dem Autoren der beiden neuen Nature-Studien gehört) und anderen in Leeds habe gezeigt, so Stevens, dass „wenn es einen Aerosol-Joker gab, dann wurde er bereits vor einem Jahrhundert gespielt und ist irrelevant für das Verständnis momentaner und künftiger Veränderungen des globalen Klimas geworden“.

Diese Logik leuchtete damals nicht unbedingt jedem ein, forderten doch die Autoren der Studie, man müsse mehr über die „unverdorbene vor-industrielle Umwelt“ erfahren. Die natürlichen Aerosole trügen 45 Prozent zur heutigen Unsicherheit über die Wirkung der Schwebteilchen bei, die industriellen nur 34 Prozent. So groß erschien der Unterschied nicht, als dass man den kleineren Part einfach ignorieren könnte.

Doch inzwischen haben die Forscher um Baltensperger und Curtius ja Daten über die Verhältnisse vor der Industrialisierung geliefert. Sie lassen den Einfluss der industriellen Aerosole geringer als befürchtet erscheinen, also kann Stevens seine Forderung mit Verve wiederholen.

Es ist wenig Wunder, dass die Autoren der neuen Studien die Schlussfolgerung des MPI-Direktors nicht teilen. Joachim Curtius hat mir geschrieben:

Durch unsere Untersuchungen verbessert sich genau unser Verständnis der früheren, nicht durch Menschen belasteten Atmosphäre, und wir erreichen damit eine wesentliche Verringerung der Unsicherheit und unser bisheriges „poor knowledge“ wird verbessert. Das ist genau das was auch nach Herrn Stevens’ Meinung bisher gefehlt hat. Damit können wir die Aerosoleffekte jetzt genauer beziffern. Die Verringerung dieser Unsicherheit (die gleichzeitig die Unsicherheit beim Gesamtstrahlungsantrieb inkl. Treibhausgase dominiert) ist eine der ganz großen Herausforderungen und genau da tragen wir zur Verringerung der Unsicherheit bei und es ist in  meinen Augen höchst sinnvoll diesen Fragen weiter nachzugehen.  Und, ja, die Effekte werden wohl kleiner, aber sie werden nicht null.

Und Urs Baltensperger hat sich so geäußert:

Es ist zwar richtig, dass bei der heutigen Situation mit höheren Aerosolkonzentrationen eine Änderung von sagen wir 10% eine kleinere Auswirkung hat als in der vorindustriellen Zeit. (…) Dies bedeutet aber nicht, dass die Auswirkungen völlig egal wären; wir sprechen ja über viel größere Änderungen als 10%. (…) Der Strahlungsantrieb der Aerosole durch Wechselwirkung mit den Wolken  ist damit nach wie vor relevant, aber schlecht quantifiziert, und benötigt deshalb weitere Forschung, unter anderem, um die Effekte der vorindustriellen Zeit und damit auch die Differenz besser quantifizieren zu können. (…) Daneben gibt es aber nach wie vor den direkten Effekt der Aerosolpartikel mit der Strahlung (in unseren Papern gar nicht angesprochen), und da gibt es diesen Sättigungseffekt nicht. Ich kann aus diesen Gründen die Schlussfolgerungen absolut nicht nachvollziehen. Sie werden auch durch ständige Wiederholungen nicht richtiger.

Diese Diskussion hat unter anderem Bedeutung für das Design künftiger Klimamodelle: Brauchen Sie die zusätzliche Komplexität, die das Nachstellen der Aerosol-Chemie bedeutet oder nicht? Piers Foster von der Universität Leeds, der wie Stevens ein Lead Author des entsprechenden Kapitels im fünften Bericht des IPCC war, nimmt eine Art Mittelposition ein und wirbt für Pragmatismus – vor allem weil die Aerosole viel Rechenzeit verbrauchen.

I think the wider climate community needs to move to suites of related climate models with different degrees of complexities, so you can choose your climate model depending on the question you want to answer. The new UK Earth system model which is just going online is a case in point. Colleagues at Leeds, led by Ken Carslaw (author of the Nature papers) led the development of the aerosol scheme within this model. It contains the complexities talked about in the Nature papers, so it is a good one.
However, they are very computational expensive models to run and around 75% of the computer time within the Earth system model is taken up by the interactive chemistry and aerosol scheme. This severely limits the experiments we can do with it. So I think we also need the stripped down models with simplistic aerosol schemes – and these simple models can be used to explore many other very important problems in climate change not related to aerosols.

In der Tat empfiehlt aber auch er seinen Kollegen, bei ihren Forschungsanträgen in Zukunft nicht mehr zu betonen, die Aerosole machten die größte Unsicherheit in der Klimaberechnung aus. Das stimme einfach nicht mehr. „Die Aerosol-Community hat großartige Arbeit geleistet und es gibt noch viele Fragen, denen sie sich widmen kann: Luftqualität und der Beitrag der Aerosole zur Klimavariabilität sind zwei interessante.“

Ergänzung am 29. Juni 2016

Mehrere Wissenschaftler des Leibniz-Instituts für Troposphärenforschung in Leipzig und von der dortigen Universität haben mich gebeten, hier auch ihre Stellungnahme zu der These von  Bjorn Stevens zu dokumentieren.

Dieser Aussage möchten wir ausdrücklich widersprechen. Generell ist es sehr problematisch, aus den Untersuchungsergebnissen zu einigen organischen Partikelbestandteilen direkt auf deren Auswirkung auf die Wolkenbildung auf klimarelevanten Skalen zu schließen. Klimamodelle können Aerosol-Wolkenprozesse noch nicht ausreichend realistisch abbilden. Daher kann die Bedeutung der neuen Ergebnisse für die Klimaentwicklung nicht ohne weiteres abgeleitet werden. Dass die Einflüsse atmosphärischer Aerosolpartikel auf das Klima im Allgemeinen nicht ignoriert werden sollten, wird auch in einer gerade erschienenen, thematisch relevanten Veröffentlichung in der renommierten amerikanischen Fachzeitschrift ‚Proceedings of the National Academy of Sciences’ verdeutlicht (Seinfeld et al 2016). Hier stellen die Autoren heraus, dass selbst bei einer Verringerung der Empfindlichkeit von Wolkeneigenschaften in Bezug auf Aerosolpartikeln, es in Zukunft, z.B. auf Grund der sinkenden Partikelkonzentrationen, nicht weniger wichtig wird, die von ihnen verursachten Modifikation des Treibhauseffekts und damit ihre Wirkung auf das Erdsystem besser zu verstehen.

Die Schlussfolgerung, dass die Rolle von Aerosolpartikeln im Klimasystem verstanden, ihre Auswirkungen hinreichend geklärt und quantifiziert wären und somit zu diesem Themenkomplex nicht weiter geforscht werden solle, ist also in keiner Weise nachvollziehbar.

gez. Ina Tegen, Hartmut Herrmann, Andreas Macke, Frank Stratmann, Ulla Wandinger, Alfred Wiedensohler (Leibniz-Institut für Troposphärenforschung); Johannes Quaas, Manfred Wendisch (Leipziger Institut für Meteorologie, Universität Leipzig)

Zurück zur Startseite

Paris und das Klima – im Großen und Kleinen

Früher Morgen am Quai du Voltaire. Die Straßen, bemerkt der Paris-Reisende Henry Lawford, seien perfekt gesäubert. Und gekühlt. Foto: Flickr/Henry Lawford 

Hamburg, 22. April 2016

Paris geht heute einmal mehr in die Geschichte ein. Unter den Klimavertrag, der dort im vergangenen Herbst ausgehandelt wurde, setzen in New York bei den Vereinten Nationen die ersten Staaten ihre Unterschrift. Das Abkommen soll helfen, die Erwärmung der Welt tatsächlich auf zwei Grad Celsius zu begrenzen, womöglich aber auch auf 1,5 Grad.

Der französische Präsident François Hollande hat bei der Zeremonie als Erster zum Füller gegriffen. Barbara Hendricks, die deutsche Umweltministerin war um 18:40 Uhr deutscher Zeit dran. Der US-Außenminister der USA, John Kerry, hielt seine zweijährige Enkeltochter bei der Unterschrift auf dem Schoß. Für jeden der Regierungschefs oder Minister wird die entsprechende Seite in einem dicken Buch aufgeblättert; nach etwa 40 Sekunden ist dann schon der nächste dran. Insgesamt hatten 171 Länder angekündigt, den Vertrag schnell zu unterzeichnen. 13 Staaten, vor allem Inselstaaten aus der Gruppe der Entwicklungsländer, wollen sogar bereits die Ratifikationsurkunden hinterlegen (Länder wie Barbados, die Malediven, Mauritius, Fidschi und Tuvalu, aber auch Somalia, Palästina und Belize). Das reicht zwar noch nicht, damit der Vertrag völkerrechtliche Gültigkeit erhält, aber es ist ein wichtiger symbolischer Schritt. In Kraft treten kann der Vertrag nämlich erst, wenn ihn mindestens 55 Länder ratifizieren, die zusammen für mindestens 55 Prozent der Treibhausgas-Emissionen verantwortlich sind.

Da China und die USA angekündigt haben, den Vertrag schnell zu ratifizieren, wäre die zweite der Bedingungen schnell erfüllt – so schreibt es zumindest die Süddeutsche Zeitung. Bei aller Freundschaft: Ganz so einfach ist es nicht. Neben den beiden Klima-Supermächten müssten noch zum Beispiel die sechs größten EU-Länder und Indien ratifizieren (gemäß 2014er-Daten des CDIAC). Es könnte aber, angesichts der Euphorie nach dem Abschluss von Paris, tatsächlich schnell gehen.

Außerdem ist aber in den USA umstritten, wie dort der Prozess der Ratifikation laufen soll. Die Regierung erklärt den Vertrag für nicht rechtlich bindend, darum müsse der Senat nicht darüber befinden. Dort würde Barack Obama wohl auch schwerlich eine Mehrheit finden. So schreibt es zum Beispiel die Washington Post. Das ist natürlich ein Trick, aber einer mit einem schalen Nebengeschmack: Die Regierung erklärt ja offiziell, dass sie sich nicht an die Vereinbarung halten muss (die ja ohnehin vor allem auf Freiwilligkeit setzt). Jeder Nachfolger des scheidenden Präsidenten, auch die klimaskeptischen Republikaner (oder was dieser Tage für Politiker dieser Partei durchgeht), wäre aber zumindest einige Jahre an den Vertrag gebunden, wenn er vor ihrem oder seinem Amtsantritt Rechtskraft erlangt.

Dass diese Auslegung, welchen Status der Vertrag für die USA hätte, aber rechtlich umstritten ist, wissen auch die W-Post und behaupten natürlich die rechte Presse und die entsprechenden Vordenker der Klimawandelleugner. Obama aber scheint mit der beschleunigten Anerkennung sicherstellen zu wollen, dass der Paris-Vertrag überhaupt Gültigkeit erlangt. Das Signal, wenn ein weiteres Mal die USA einen Vertrag zwar unterschreiben, aber nicht ratifizieren, wäre auch fatal.

Paris Morning Music_cChristineAceboAm Morgen wird der Gehsteig in vielen Pariser Straßen geschrubbt. Aufnahme mit freundlicher Genehmigung von Christine Acebo, Ashford/CT. Foto: Flickr

Vielleicht ist dieser Tag daher auch der richtige, neben dem großen Beitrag von Paris zum Klima auch einen kleinen zu würdigen. Hier geht es nicht um das Weltklima, aber immerhin um das Stadtklima. Wer schon einmal morgens in der französischen Hauptstadt  unterwegs war, um irgendwo über Café Au Lait und Croissant den Tag zu planen, der hat bestimmt gesehen, was die Einheimischen mit ihren Gehsteigen machen: Sie wässern und fegen sie (und manche Besucher fotografieren das sogar, danke an die genannten Flickr-User). Tatsächlich ist das mehr als die Privatinitiative von einzelnen Bistro-Besitzern oder Concierges, es steht ein System dahinter. An vielen der Straßen und Boulevards läuft Wasser entlang. Und das hilft tatsächlich nicht nur der Sauberkeit, und erfreut die Tauben, sondern dämpft den sogenannten Wärmeinsel-Effekt, wonach Städte viel heißer werden als das umgebende Land.

ParisStreetCleaning_cJayt74Auch Profis wässern die Straßen. Foto: Flickr/Jamie Taylor

Ein Team um Martin Hendel von der Sorbonne hat nachgemessen: Die Lufttemperatur geht um bis zu 0,8 Grad zurück. Das bringt wahrscheinlich an einem heißen Nachmittag noch keine wirkliche Erleichterung, aber jedes bisschen hilft. Die Forscher haben echte Experimente gemacht und benachbarte Straßen-Abschnitte verglichen. Zum einen in der Rue du Louvre im Stadtzentrum, wo ein Sprühwagen der Stadtreinigung alle 30 Minuten durch einen Abschnitt fuhr und durch einen anderen eben nicht (zwischen 11:30 Uhr und 14 Uhr hatten die Angestellten offenbar Mittagspause, da sprühten sie nicht, aber sie waren immerhin zurück, als die Sonne in die Straßenschlucht fiel). Zum anderen die ungefähr parallel verlaufenden Rue Lesage und Rue Rampeneau in Belleville im 20. Arrondissement. Hier lag – nur in ersterer – ein Schlauch mit Sprühventilen im Rinnstein.

Die Autoren haben darüber immerhin ein 16-Seiten-Paper veröffentlicht (Urban Climate, doi: 10.1016/j.uclim.2016.02.003). Um fair zu sein: Es geht ihnen dabei auch um die korrekte statistische Auswertung der Befunde. Und manchmal muss man eben auch einfach mal Dinge beweisen, die man schon intuitiv als richtig erkannt hat. Oder – siehe den Vertrag – Dinge tun, auf die anhand überwältigender Belege schon die halbe Welt gewartet hat.

ParisTaubenIMG_3594Eine Badewanne für Tauben. Foto: Christopher Schrader

Update: Im Lauf der Zeremonie und danach habe ich einige der Formulierungen von „wird erwartet“ hin zu „ist geschehen“ angepasst.

Wie die Bäume leichter atmen

Image-2-RespirationFrühling im Winter: Wärmestrahler hielten die Flecken im Wald um gut drei Grad Celsius wärmer als die Umgebung. Foto: William Eddy

Hinweis: Dieser Text ist bereits bei erschienen.

Hamburg, den 2.4.2016

Die Bäumchen wussten natürlich nicht, wie gut sie es eigentlich hatten. Während sonst überall noch Schnee lag, leuchteten die Setzlinge mit ihren flockenfreien Blättern bereits in vielen Grüntönen um die Wette. Acht Wärmestrahler an einem Gerüst über ihnen versetzten die Pflanzen sozusagen in die Zukunft – in eine Zeit, in der sich die Temperaturen wegen des Klimawandels permanent um gut drei Grad Celsius erhöht haben. Darum mussten die Bäumchen aber als Ausgleich für den milden Winter im Sommer stärker unter Hitze leiden als die Artgenossen im restlichen Wald.

Solche Wärmestrahler haben Forscher um Peter Reich von der University of Minnesota an insgesamt 24 Arealen in den Wäldern ihres Bundesstaats installiert. Drei bis fünf Jahre wuchsen Setzlinge von vier Nadel- und sechs Laubbaumarten unter einer solchen Wärmeglocke; Elektronik hielt den Temperaturunterschied zur Umgebung stets auf 3,4 Grad Celsius. Sonst aber hatten sie die gleichen Bedingungen wie der Rest des Waldes, genauso viel Regen, Wind, Insekten oder andere Tiere. Immer wieder haben die Forscher dann einzelne Blätter abgeschnitten und deren Stoffwechsel im Labor genau vermessen.

Nach diesem Langzeitexperiment ist Reich sicher: „Bäume passen sich besser an den Klimawandel an, als man bisher erwartet hat. Ihre Respiration dürfte auf Dauer nur um fünf Prozent zunehmen, nicht um 23 Prozent, wie kurzzeitige Laborexperimente nahegelegt hatten.“ Respiration oder Pflanzenatmung, das ist die weniger bekannte Seite des pflanzlichen Stoffwechsels. Das Grünzeug nimmt einerseits tagsüber Kohlendioxid für die Fotosynthese auf. Andererseits geben lebende Bäume, Büsche und Blumen es über ihre Wurzeln und nachts über die Blätter ab, und wenn sie nach dem Absterben verrotten, setzen auch die dafür verantwortlichen Bakterien das Gas frei.

Es geht um gewaltige Mengen

Ähnliche Messungen gab es bisher schon aus dem so genannten Fluxnet-System. Das ist ein globales Netzwerk von Messstationen in Wäldern und Naturgebieten, die den Gasaustausch der Bäume über die Jahreszeiten beobachten, allerdings ohne die Bedingungen zu manipulieren. Dabei hatten Forscher vom Max-Planck-Institut für Biogeochemie in Jena schon vor einigen Jahren festgestellt, dass die Pflanzenatmung bei Temperaturschwankungen weniger wächst als gedacht. Für eine Erwärmung um zehn Grad Celsius hatte man eine Verdopplung der CO2-Freisetzung erwartet, gemessen wurde aber nur eine Zunahme um 40 Prozent.

Hochgerechnet von der Pflanze auf die gesamte Landfläche geht es um gewaltige Mengen. Laut Weltklimarat IPCC nimmt die Biosphäre pro Jahr 123 Milliarden Tonnen Kohlenstoff in Form von Kohlendioxid auf und setzt 119 Milliarden Tonnen durch Respiration und Feuer wieder frei. Pflanzen tragen dazu etwa die Hälfte bei. Zum Vergleich: Die Menschheit emittiert pro Jahr knapp zehn Milliarden Tonnen Kohlenstoff durch das Verbrennen fossiler Energierohstoffe. Ein Drittel davon nimmt zurzeit die Biosphäre auf. Laut Fluxnet sind es 157 Gramm Kohlenstoff pro Quadratmeter und Jahr.

Die Wissenschaft fragt sich jedoch, ob die Biosphäre nicht eines Tages von einer Senke zu einer Quelle von Kohlenstoff wird. Zurzeit ist das noch nicht der Fall, die Nettoaufnahme von Kohlenstoff ist über die vergangenen Jahrzehnte sogar gewachsen. Doch die Verhältnisse könnten sich umkehren, wenn die Fotosynthese stagniert und die Respiration anwächst, wie die Erwärmungsexperimente zeigen. Die globalen Klimamodelle, mit denen die Temperaturen der Welt bis zum Ende des Jahrhunderts simuliert werden, enthalten darum Module für den Kohlenstoffkreislauf.

Gerade bei dieser Frage spielt die Anpassung der Pflanzen an höhere Temperaturen eine wichtige Rolle, sagt Julia Pongratz vom Max-Planck-Institut für Meteorologie in Hamburg, wo eines der vom IPCC verwendeten Klimamodelle gerechnet wird. Schon heute verwendeten etliche Klimamodelle eine Abschätzung der Akklimatisierung der Pflanzenrespiration; sie sehen die Biosphäre auch in Zukunft als Kohlenstoffsenke. „Diese Einschätzung wird durch die neuen Erkenntnisse noch bestärkt, denn die Respiration war bislang anscheinend eher überschätzt, die Senke also unterschätzt.“ Gerade deswegen seien Reichs Messungen aus Minnesota für die Modellierer sehr nützlich. „Die meisten Daten über die Veränderungen der Atmung stammen bislang aus kontrollierten Laborexperimenten; viel relevanter für die Modellierung sind aber echte Feldstudien wie die hier vorliegende, die natürliche Witterungsverhältnisse abbilden und die Pflanzen nicht isolieren“, sagt Pongratz. Nun fehlten noch ähnliche Daten für die tropischen Wälder, wo bisher die größten Kohlenstoffsenken liegen.


2014-03 Paris und Rugby – 038Paris, der Eiffelturm, der in den kommenden Wochen vom Symbol für den Kampf gegen der Terror zum Symbol für das Ringen um Klimaschutz wird. Foto: C. Schrader

Vorbemerkung: Aus diesem Beitrag zum Start des Pariser Klimagipfels kann und will ich meine Meinung nicht heraushalten. Ich bemühe mich, die verschiedenen Auswertungen der freiwilligen Beiträge, die die Staaten der Welt bei der COP21 vortragen wollen, einigermaßen neutral zu analysieren, stufe diesen Text aber trotzdem als Kommentar ein.

Hamburg, 29. November 2015

Der einzige Erfolg, den die internationale Gemeinschaft bei ihren Verhandlungen bisher erzielt hat, ist die sogenannte Zwei-Grad-Grenze (und es ist eine Grenze, kein Ziel). Im mexikanischen Cancún, im Jahr 2010, haben die Staaten beschlossen, dass eine Erwärmung bis 2100 gegenüber der vorindustriellen Zeit um diesen Wert gefährlichen Klimawandel darstellt. Und am Anfang des ganzen Prozesses, 1992 in Rio de Janeiro, haben sie sich gegenseitig versprochen, dass sie einen gefährlichen Klimawandel verhindern wollen. Voilá. Voilá?

Weiteren Fortschritt hat es bisher nicht gegeben, aber für Paris erwarten ihn nun alle. Die Konferenz verfolgt einen anderen Ansatz als frühere Gipfel. Die Staaten versuchen nicht mehr, sich allesamt auf eine allgemeine Reduzierung der Treibhausgas-Emissionen (und auf eine Definition von Gerechtigkeit) zu einigen. Jeder einzelnes Land – und die EU als Gemeinschaft – legt einen Plan vor, wie es bis 2025 oder 2030 den Ausstoß bremsen will. Diese Pläne heißen INDC (Intended Nationally Determined Contributions). Es hat bereits etliche Bewertungen gegeben, was sie bewirken könnten, die zwischen mäßiger Erleichterung und vorsichtigem Optimismus schwanken. Extreme Äußerung der Zufriedenheit oder der Enttäuschung sind ausgeblieben. Klar ist, dass die Vorschläge nicht reichen, um die Erwärmung tatsächlich auf zwei Grad zu begrenzen. Aber wenn sich die Staaten tatsächlich an ihre Versprechen halten, dann laufen wir auch nicht mehr auf eine Vier-Grad-Welt zu.

Insofern ist vor Paris schon etwas Wichtiges geschehen: die zwangsläufige Erwärmung erscheint gebrochen, das sogenannte Business-as-usual (BAU) ist vom Tisch. Eine häufig verwendete Formulierung lautet daher, die INDCs und die Konferenz in Paris bauten eine Brücke zur Zwei-Grad-Grenze.

Es ist allerdings unklar, wie lang diese Brücke sein muss. Die meist gehandelte Zahl, was die INDCs bringen, lautet inzwischen 2,7 Grad Erwärmung. Sie stammt unter anderem von Christiana Figueres, der Leiterin des UN-Klimasekretariats UNFCCC in Bonn. Das gilt vielen als offizielle Stellungnahme, aber Figueres verweist im nächsten Absatz der Pressemitteilung darauf, dass die Zahl nicht von ihrer Organisation stammt, sondern von einer Reihe anderer Gruppen. Außerdem lautet das vollständige Zitat (meine Hervorhebung): „The INDCs have the capability of limiting the forecast temperature rise to around 2.7 degrees Celsius by 2100, by no means enough but a lot lower than the estimated four, five, or more degrees of warming projected by many prior to the INDCs.“ Es hängt also entscheidend davon ab, wie die Staaten ihre Politik in zehn bis 15 Jahren weiter entwickeln, das sagt Figueres auch deutlich. Und was das meint ist: wie die Staaten ihre Politik danach verschärfen.

Auf diesen Zusatz hat sehr eindeutig die amerikanische Umweltorganisation Climate Interactive hingewiesen. Demnach bringen die vorliegenden INDC die Welt nur auf den Kurs zu einer 3,5-Grad-Erwärmung bis 2100. Und das ist der wahrscheinlichste Wert: Wenn man sich eine Gaußverteilung um die 3,5 herum denkt, dann reicht nur ihr unterster Zipfel bis 2,0 Grad, aber der oberste dafür bis 4,6 Grad. Nur wenn die Staaten nach Ablauf der Pariser Vereinbarung deutlich nachlegen, wären überhaupt 2,7 Grad zu schaffen.

Ein Vergleich, was verschiedene Organisationen aus den bisher vorgelegten INDCs machen. Quelle: World Resources Institute

Das sehen nicht alle Beobachter so. Das World Resources Institute hat mehrere Auswertungen auf seiner Webseite verglichen. Mit den Angaben in den Plänen zu rechnen ist nicht ganz einfach, weil viele Versprechen an Bedingungen gekoppelt sind: Entwicklungsländer fühlen sich an ihre Pläne nur gebunden, wenn die Industriestaaten ihren Beitrag leisten; manche Nationen machen die Emissionsreduktion auch von ihrem Wirtschaftswachstum abhängig. Oft wird der eigenen Beitrag als Abweichung vom Business-as-usual dargestellt.

Dem WRI zufolge ist 3,5 Grad einer der höheren Werte, aber er ragt auch nicht auffällig aus dem Feld heraus. Andererseits ist 2,7 Grad die niedrigste Zahl (wenn wir mal nur die roten Balken berücksichtigen). Ist es also ein gute Idee, diese ins Zentrum der Berichte zu stellen? Um es mal ganz offen und subjektiv zu sagen: Nein – ich finde das gefährlich.

Hier kommt ein psychologischer Effekt hinzu, mit dem zum Beispiel Supermärkte den Umsatz bestimmter Produkte steigern. Sie stellen neben den Wein oder die Nudeln oder die Butter eine billigere und eine teurere Alternaive: Wer keine Ahnung oder keine Vorliebe hat, greift dann meist zu dem mittleren Produkt, und fühlt sich einigermaßen gut, weil er ja eine Abwägung getroffen und die Extreme vermieden hat.

Dieser Mechanismus spielt auch in der Klimadebatte eine Rolle. Er führt zum Beispiel dazu, dass man 2,7 Grad, oder zur Not auch die 3,5 Grad, für einen brauchbaren Kompromiss zwischen den oft als unerreichbar bezeichneten zwei und dem Schreckgespenst mit vier bis fünf Grad Erwärmung hält. Oder dass man sich von den vier IPCC-Leitszenarien eines der mittleren aussucht, die beide auch über die Zwei-Grad-Grenze hinausführen. Diese Szenarien zeichnen die möglichen Entwicklung der Treibhausgase auf und haben merkwürdige Namen. Sie beginnen mit RCP (für Representative Concentration Pathway) und dann folgt eine Zahl: 2.6, 4.5, 6.0 oder 8.5. Sie beschreibt den sogenannten Strahlungsantrieb in Watt pro Quadratmeter, also die zusätzliche Heizleistung in der Lufthülle. Nur das RCP2.6 führt laut Weltklimarat einigermaßen sicher in eine Zukunft, in der die Staaten die Zwei-Grad-Grenze nicht reißen. RCP8.5 ist Business-as-usual, also praktisch überhaupt kein Klimaschutz. Der Mittelweg ist hier genauso fehl am Platz wie beim Urteil über die INDCs.

Allerdings hat vor Paris nicht zum ersten Mal die Debatte begonnen, ob die Zwei-Grad-Grenze nicht schon eine Illusion sei. So stellt es zum Beispiel der New-York-Times-Kolumnist Andrew Revkin dar und ähnlich steht es in Nature. Der Tenor ist, dass viele Szenarien, die die Erwärmung unter zwei Grad halten, negative Emissionen vorsehen, sprich es wird CO2 aktiv aus der Atmosphäre entnommen. Das gängigste – aber unerprobte – Verfahren heißt BECCS: Bioenergy with Carbon Capture and Sequestration. Dazu würde sehr viel Energie aus Holz oder Riesen-Chinaschilf oder Purgiernüssen oder anderen Pflanzen gewonnen, aber bei der Verbrennung das Kohlendioxid aufgefangen und unter der Erde verpresst. Da die Pflanzen zuvor CO2 aus der Atmosphäre entnommen hätten, das dann nicht zurückkehrt, hätte man negative Emissionen.

CCS hat nicht den besten Ruf, um es vorsichtig zu beschreiben. Vielleicht würde das ein wenig besser aufgenommen, wenn das CO2 aus Pflanzen statt aus Kohle stammt, aber sehr wahrscheinlich ist das angesichts des erbitterten Widerstandes nicht. Dennoch nennen zumindest zehn Staaten in ihren INDCs die Technik, darunter China, Kanada, Saudi-Arabien und Norwegen und Malawi.

In der Tat kann man bei den Szenarien – oder den INDCs, mindestens denen aus demokratisch regierten Staaten – Bedenken über die politische Durchsetzbarkeit haben. Aber erstens gibt es auch andere Wege unter die Zwei-Grad-Grenze, und zweitens ist das doch kein Glaubwürdigkeitsproblem für die Klimaforschung, wie der Autor in Nature formuliert. Die Vereinbarung von Cancún einzuhalten, wird sehr schwierig, keine Frage. Aber es ist besser, das Ziel mit ernsthaften Bemühungen knapp zu verfehlen, als es jetzt schon aufzugeben. „Wer kämpft, kann verlieren. Wer nicht kämpft, hat schon verloren.“ Das Zitat stammt entweder von Rosa Luxemburg oder von Berthold Brecht.


Welche Pause?

NoaaJan-OctTempsSo sieht es aus, wenn die globale Erwärmung erlahmt, oder? Foto: Noaa

„Seepage“, das ist im Englischen ein technischer und geologischer Begriff, der etwas mit Ein- oder Durchsickern zu tun hat. Je nach den beteiligten Flüssigkeiten kann der Vorgang einigermaßen unappetitlich werden, und es ist anzunehmen, dass diese Assoziation Stephan Lewandowsky und Naomi Oreskes ganz willkommen war. Sie haben den Begriff nämlich ins Feld der Wissenschaftsgeschichte übertragen. In einem vielbeachteten Aufsatz monieren die beiden (er ist Psychologe von der Universität im britischen Bristol, sie Wissenschaftshistorikerin an der Harvard University), die Klimaforschung als Disziplin habe sich von ihren Kritikern die Agenda diktieren lassen. Regelrecht eingesickert ins Gewebe der Wissenschaft seien die ständigen Attacken der Lobbygruppen in Gestalt sogenannter Thinktanks und anderer Kritiker. Viele Forscher hätten versucht, Argumente der Kritiker mit ihrer Forschung inhaltlich zu entkräften, die sie eigentlich schon aus formalen Gründen als falsch hätten erkennen können. Aber dabei hätten sie eben die Prämisse der Angriffe akzeptiert und so legitimiert.

Lewandowsky, Oreskes und ihre Mitstreiter belegen ihre These anhand des Begriffs der sogenannten Erwärmungspause. Schon 2006 hatten die Kritiker damit begonnen, immer wieder zu behaupten, seit 1998 habe sich die Erde nicht mehr erwärmt. Dieses Anfangsjahr war offensichtlich mit Bedacht gewählt, denn es ragte als Rekordjahr weit über die bis dahin verfügbare globale Temperaturstatistik hinaus. Damals hatte zwar die Nasa schon für 2005 einen neuen Rekord ausgerufen, seither haben 2010 und 2014 jeweils Spitzentemperaturen erreicht, und auch 2015 ist der Platz Eins in der Statistik kaum noch zu nehmen. Aber solche Details haben die Kritiker nie groß interessiert.

Grundsätzlich ist ein Zeitraum von zunächst acht, inzwischen knapp 17 Jahren nicht lang genug, um Klimatrends zweifelsfrei zu belegen. Das Lewandowsky-Team listet dennoch 51 wissenschaftliche Aufsätze allein aus den Jahren 2013 und 2014 auf, die sich mit der angeblichen Pause befassten und Ursachen dafür suchten. Zudem übernahm der IPCC im Jahr 2013 das Argument und erklärte, die Erwärmung seit 1998 sei hinter den Erwartungen zurückgeblieben. Damals rätselte alle Welt, ob der Weltklimarat in seiner wichtigen Zusammenfassung für politische Entscheidungsträger sogar das Wort „Pause“ oder das verklausulierte, aber letztlich gleichbedeutende „Hiatus“ verwenden würde – er verzichtete darauf. Unter anderem die deutsche Delegation hatte sich dafür verwendet.

Es war jedoch anhand mehrerer Studien bald klar, dass an der Pause wenig dran ist; inzwischen belegen mehrere Untersuchungen sogar, dass es nicht einmal eine nennenswerte Verlangsamung der Erwärmung gegeben hat. „Das Einsickern passiert, wenn Wissenschaftler linguistische Ausdrücke übernehmen, die außerhalb der Wissenschaft aus politischen Gründen geschaffen wurden“, erläutert Lewandowsky. „Ironischerweise droht diese Gefahr auch dadurch, dass Forscher sich gegen den Ausdruck wenden, ihn aber dabei verwenden.“

Das alles ist einerseits nicht brandaktuell, denn die Seepage-Studie ist im Sommer 2015 erschienen. Andererseits aber doch. Denn eine Untersuchung, die mit wissenschaftlichen Methoden die Luft aus dem Hiatus-Gerede lassen wollte, ist gerade zum Gegenstand eines Streits in den USA geworden. Dort übt der republikanische Kongress-Abgeordnete Lamar Smith (aus Texas) Druck auf die Behörde für Ozeane und Atmosphäre Noaa aus. Sie solle alle Dokumente und E-Mails im Zusammenhang mit einem Science-Paper vom Juni herausgeben, weil Smith angeblichen Hinweisen auf Manipulationen von Daten nachgehen will. Die Behörde lehnt das ab und bekommt viel Unterstützung dafür.

Die Science-Studie von Thomas Karl, dem Direktor des Noaa-Zentrums für Umweltinformation, schlägt eine Rekalibrierung von Temperaturmessungen vor. Es geht um die Wassertemperaturen, die auf Schiffen gemessen wurden. Das Thema klingt langweilig, hat es aber in sich. Denn wird die Korrektur angewandt, dann verschwindet fast jedes Zeichen, dass sich die Erde zwischen 1998 und heute irgendwann langsamer erwärmt hat. Und Karl sagte, bzw schrieb mir, als ich in der SZ darüber berichtete, die neue Kalibrierung solle 2016 auch in den offiziellen Datensatz der Noaa einfließen – also in eines der beiden wichtigsten Zahlenwerke, die die globale Erwärmung dokumentieren.

Das konnten die organisierten Kritiker der Klimaforschung nicht zulassen. Die Attacke des Abgeordneten Smith folgt dabei einer geradezu lehrbuchhaften Taktik, die vor allem durch Joe McCarthy bei seiner Kommunistenhatz im Kalten Krieg perfektioniert wurde. Und weil es durchaus personelle Kontinuität zwischen den Falken von damals und den Thinktanks von heute gibt (siehe Oreskes’ Buch Merchants of Doubt), haben auch Klimaforscher diese Methode zu spüren bekommen. Zuerst Michael Mann von der Pennsylvania State University und jetzt eben Thomas Karl. Dessen These, dass es eigentlich überhaupt keine Erwärmungspause gegeben habe, ist übrigens schon vorher und nachher unabhängig aufgestellt und mit jeweils anderen Methoden und Daten begründet worden; die Zahl der entsprechenden Studien hatte zunächst vier, dann vierzig betragen. Das letztere Beispiel stammt wieder von dem Lewandowsky-Oreskes-Team.

Aktuell ist die Seepage-Diskussion auch deswegen, weil sie ein Beispielfall für Wissenschafts-Philosophen geworden ist. Ich habe vor einigen Tagen in der SZ darüber berichtet, dass sie über die Unterscheidung von schädlicher und produktiver Kritik an wissenschaftlichen Erkenntnissen debattieren. Einerseits ist ja klar, dass Einwände gegen neue Thesen geäußert werden dürfen und sollen, weil sie den Erkenntnisprozess oft vorantreiben. Auch wenn es nur dadurch geschieht, dass die Kritisierten sich ihrer Argumente klarer werden. Andererseits nutzten gerade die organisierten Lobbisten diesen Mechanismus, um Klimaforscher mit aufgebauschten oder erfundenen Einwänden zu bedrängen. Es reicht ihnen schon, den Anschein einer wissenschaftlichen Kontroverse zu erzeugen, dann können sie darauf verweisen und dringend davon abraten, sich auf die Wissenschaft zu verlassen, um irgendwas zu regulieren oder gar eine Abgabe auf den Ausstoß von Treibhausgasen zu beschließen.

Dennoch ist gerade bei der Diskussion über die angebliche Erwärmungspause sehr die Frage, ob das per se unwissenschaftlich ist. Lewandowsky und Oreskes meinen offenbar: ja. Doch die vielen Aufsätze, die dazu mittlerweile erschienen sind, haben die Wissenschaft ja auch weitergebracht. „Wenn das nicht der dumpfe Trommelschlag der Klimaskeptiker gewesen wäre, wüssten wir heute vielleicht viel weniger darüber, wo sich Wärme verstecken kann, zum Beispiel im tiefen Ozean“, sagt Mathias Frisch, ein deutscher Wissenschaft-Philosoph an der University of Maryland.

Ein pragmatisches Argument mit ähnlicher Zielrichtung hat Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Er sieht die Arbeit weder als verloren noch als sonderlich fremdbestimmt an: „Das gab uns die Gelegenheit, über natürliche Variationen im Klimasystem zu sprechen, ohne dass man uns angähnt.“ Schließlich ist das Weltklima ein komplexes System, dessen Stellgrößen man noch längst nicht komplett verstanden hat. Es gibt offenbar zyklische Vorgänge, die einen Erwärmungstrend eine Weile maskieren können.

Zum Verständnis stelle man sich einmal die Bewegung eines Jojos an der Hand eines Kindes vor, das in einem Fahrstuhl nach oben fährt. Auch hier ist es möglich, dass das Spielzeug für eine kurze Zeit sozusagen stehen bleibt, bevor es dann umso schneller aufsteigt. Diesen Mechanismus jetzt diskutiert und genauer zu untersucht zu haben, hält Marotzke für einen großen Gewinn. Wäre das erst später passiert, wenn ein globales Abkommen zum Klimaschutz bereits beschlossen ist und das Publikum auf seinen Effekt wartet, dann hätte der politische Rückschlag deutlich heftiger ausfallen können, so der Max-Planck-Forscher.

Einen Beleg, dass man solche Warnungen ernst nehmen sollte, liefert die Ozonschicht. Um sie zu schützen, gilt seit 25 Jahren das Montreal-Protokoll mit seinem Verbot von FCKWs. Doch eindeutiger Fortschritt ist nicht zu erkennen, das Ozonloch wird eben nicht stetig immer kleiner. Wissenschaftler müssen ihr Publikum dann immer wieder vertrösten und ernten so mindestens hämische Kommentare. Da kann man sich ausmalen, was bei einem weitaus kontroverseren Abkommen gegen Treibhausgase passieren würde.

Christopher Schrader, 24. November 2015, alle Rechte vorbehalten

PS1: Auf Twitter hatte ich vor der Konferenz der Philosophen in Karlsruhe verkündet, es solle dort auch darum gehen, den sogenannten Klimaskeptikern das Wort Skepsis wieder zu entwinden, weil die seriöse Wissenschaft nicht ernsthaft darauf verzichten kann. Ich habe das dort auch gefragt, aber leider keine guten Rezepte gehört. Ein Teilnehmer sagte, wahrscheinlich könne man das Wort nur befreien, wenn man einen anderen griffigen Ausdruck für die Kritiker findet. Bisher ist keiner in Sicht, ich selbst eiere da auch herum. „Kritiker der etablierten Klimaforschung“ hat schon mal sieben Silben mehr als „Klimaskeptiker“. Im Englischen wird oft das Wort „denialists“ verwendet, aber das geht im Deutschen nicht. „Leugner“ ist durch die Holocaust-Leugner besetzt, und deren Behauptungen sind dann doch noch etliche Stufen widerlicher.

PS2: Full Disclosure – die Veranstalter der Karlsruher Konferenz haben meine Reise- und Übernachtungskosten für die Teilnahme bezahlt. So weit ich weiß, hatten sie eine DFG-Finanzierung dafür. Und ich habe dort auch mit diskutiert, statt passiv am Rand zu sitzen und alles zu beobachten. Dazu bewegt mich das Thema auch zu stark.


Der Klimawandel ist da, da und da

Darfur_cAlbert González Farran-UNDie Situation der Menschen in Darfur ist schon wegen des Bürgerkrieges dort extrem schwierig. Im Jahr 2014 erlebte Ostafrika auch noch besonders hohe Temperaturen und eine Dürre. Foto: UN Photo, Albert González Farran, flickr, creative commons license

6. November 2015

Bis vor kurzem haben Klimaforscher diese Frage gehasst: „Ist das schon der Klimawandel?“ Wenn Wälder brannten, Städte glühten, Felder vertrockneten oder anschwellende Flüsse Dörfer versenkten, dann rief bestimmt jemand an und wollte das wissen. Und meist war dann die Antwort: Es ist unmöglich, für ein einzelnes Extremereignis genau anzugeben, was es ausgelöst hat – oder dass es ohne Klimawandel niemals hätte entstehen können.

Doch inzwischen stellen sich die Wissenschaftler die Frage selbst. Dieser Zweig ihrer Disziplin heißt inzwischen „Attribution“, also Zuordnung. „So wie sich die Wissenschaft der Zuordnung von Ereignissen weiter entwickelt, wird auch unsere Fähigkeit wachsen, den Einfluss von Klimawandel und natürlicher Variation auf einzelne Wetterextreme auseinander zu halten“, sagt Thomas Karl, der bei der US-Behörde für Ozeane und Atmosphäre (Noaa) für Umweltinformation zuständig ist.

Seine Abteilung hat am Donnerstag zum vierten Mal einen Sonderband heraus gegeben, in dem Extremereignisse – diesmal des Jahres 2014 – darauf untersucht werden, ob der menschliche Einfluss auf das Klima etwas damit zu tun hatte (Bulletin of the American Meteorological Society, Bd. 96, Dezember 2015, online). „In all den vier Jahren hat der Bericht gezeigt, dass zum Beispiel extreme Hitze etwas mit den zusätzlichen Treibhausgasen in der Atmosphäre zu tun hat“, sagt Karl. „Wenn es aber um Niederschlägen geht, ist das noch nicht so überzeugend.“

28 Extremereignisse des Jahres 2014 untersuchen die Wissenschaftler in insgesamt 32 Studien. Die Ereignisse reichen von Hurrikanen in Hawaii und Waldbränden in Kalifornien über Dürre in Afrika und Lawinen in Nepal bis zu Starkregen in Neuseeland und dem Meereis der Antarktis. In den 32 Einzelstudien sagen die Forscher neunmal nein, fünfmal vielleicht und 18-mal ja, da gibt es einen Effekt des Klimawandels. Sie beeilen sich indes hinzuzufügen, sie sprächen von „probabilistischem, nicht deterministischem“ Einfluss. Der Klimawandel macht Extremereignisse also erkennbar wahrscheinlicher, aber er ist nicht allein für sie verantwortlich. Und die Wissenschaftler räumen auch ein, dass ihre Auswahl der Fallbeispiele nicht repräsentativ ist. So führt die meteorologische Weltorganisation in ihrem Bericht über 2014 noch Überschwemmungen in Afrika und Südamerika sowie eine Dürre in Zentralamerika auf, die in dem Noaa-Sonderband fehlen.

Geradezu symbolisch ist ein Ereignis, das sich genau in Raum und Zeit fixieren lässt. Es passierte im australischen Brisbane, der Hauptstadt des Bundesstaates Queensland. Dort trafen sich Mitte November 2014 die G20-Staaten zum Gipfel, Politiker wie US-Präsident Barack Obama und Bundeskanzlerin Angela Merkel waren angereist. Die australischen Gastgeber um Premierminister Tony Abbott versuchten zwar, das ihnen missliebige Thema Klimawandel klein zu halten, doch die globale Erwärmung drängte in Gestalt einer Hitzewelle mit Macht auf die Tagesordnung. Am zweiten Gipfeltag erreichten die Temperaturen 39 Grad Celsius; 27 Grad wären an einem solchen Frühlingstag zu erwarten gewesen. Verantwortlich war, wie australische Wissenschaftler jetzt belegen, auch der Klimawandel.


Der Einfluss des Klimawandels auf die Hitzewelle beim G20-Gipfel in Brisbane 2014: Schwarz sind historische Beobachtungen, blau Modellrechnungen ohne und rot solche mit Klimawandel. Die tatsächlich gemessenen Temperaturen liegen weit über der normalen Verteilung. Quelle: Andrew King et al, doi: 10.1175/BAMS-D-15-00098.1, im BAMS-Sonderband, Figure 28.1. 

Bei Hitzewellen ist die Beweislage in der Regel besonders klar. In den nun vier Noaa-Berichten, stellt ein Team um Stephanie Herring von der Behörde fest, hätte erst eine von 22 Studien bei Hitzewellen keinen Einfluss des Klimawandels gefunden. Auch diesmal zeigen alle Analysen einen solchen Effekt. Für Brisbane im November 2014 hat die globale Erwärmung die brutale Hitze um 44 Prozent wahrscheinlicher gemacht, rechnet ein Team australischen Klimaforscher vor. Um solche Aussagen zu gewinnen, nutzen die Forscher Klimamodelle, in denen sie die Menge an Treibhausgasen in der Luft frei wählen und den Klimawandel sozusagen abschalten können. Sie vergleichen also die reale Welt mit einer fiktiven. Dabei kommen oft noch deutlich größere Aufschläge auf die Wahrscheinlichkeit als beim Beispiel Brisbane heraus, dass eine Hitzewelle entsteht. Sie werden meist nicht mehr als Prozentzahl ausgedrückt, sondern als Faktor. In anderen Teilstudien schreiben die jeweiligen Autoren, die Spitzentemperaturen in Argentinien im Dezember 2013 sei durch den Klimawandel fünfmal so wahrscheinlich geworden, die Hitze in Nordchina im Sommer 2014 elfmal und die Thermometerausschläge im australischen Herbst 2014 (im Mai) sogar 23-mal so wahrscheinlich. Auch die Rekordwärme in Europa im ganzen Jahr 2014 sei durch den Klimawandel zehnmal so wahrscheinlich geworden wie ohne, besagt eine Studie.

Die Wärme hat womöglich auch in Kalifornien zu einer extremen Saison der Waldbrände geführt. Für 2014 berichtete Cal-Fire von 1000 Bränden mehr als im Fünf-Jahres-Durchschnitt. Und 2015 ging es weiter: Bis Ende Oktober hatte es fast 2000 Feuer mehr gegeben als zur gleichen Zeit ein Jahr zuvor (allerdings sind die Angaben der verbrannten Fläche in den offiziellen Statistiken etwas rätselhaft). Doch obwohl der Zusammenhang klar erscheint, tun sich die Forscher schwer, bei einzelnen Feuern oder sogar einer ganzen Saison den Einfluss des Klimawandels fest zu machen. Sie erwarten jedoch, dass die globale Erwärmung in Zukunft zur weiter steigenden Zahlen der Brände und der betroffenen Waldflächen beitragen wird. „Wenn wir die Tendenz betrachten, zeigen die Daten eindeutig einen Anstieg“, sagte der Leitautor dieser Studie, Jin-Ho Yoon vom Pacific Northwest Laboratory bei Climate Central.

YosemiteFire_Jul2014_cStuart Palley, EPA

Feuer im Yosemite-Nationalpark im Juli 2014. Foto: Stuart Palley/EPA

Interessant, wenn auch ähnlich unentschieden, ist die Analyse des Meereises um die Antarktis. Dessen Fläche hatte im Jahr 2014 zum ersten Mal seit langer Zeit wieder die Schwelle von 20 Millionen Quadratkilometern überschritten – es war der dritte Rekord in Folge. Im Südpolarmeer zeigt sich also der umgekehrte Trend wie im Norden. Verantwortlich war 2014 ein Feld ungewöhnlicher Winde, die schwimmende Eisschollen vom Kontinent Antarktis weg nach außen trieben, weil sie besonders kalte Luft relativ weit nach Norden brachten. Besonders zu bemerken war das in den Sektoren die Antarktis, die südlich von Neuseeland und vom mittleren Indischen Ozean liegen. Die Autoren haben sich dann, unter anderem mithilfe eines Supercomputers in Barcelona bemüht, einen menschlichen Einfluss auf diese Windfelder zu erkennen. Richtig gelungen ist es ihnen aber nicht.

Auch bei allem, was mit Regen oder fehlendem Regen zu tun hat, ist das Bild durchwachsen, wie schon von Thomas Karl angekündigt. Dürre zum Beispiel kann schließlich durch mangelnde Niederschläge, größere Hitze oder eine Kombination aus beidem ausgelöst werden. Zwei Studien zur Trockenheit in Ostafrika 2014 kommen darum zu widersprüchlichen Ergebnissen: die eine sieht den Effekt des Klimawandel, die andere eher nicht. Den Wassermangel in Brasilien erklärt ein weiteres Team durch steigende Bedürfnisse einer wachsenden Bevölkerung. Auch eine menschliche Ursache, aber eben nicht der Klimawandel. Übermäßiger Regen wiederum hatte 2014 Großbritannien, Südfrankreich, Indonesien und Neuseeland getroffen. Nur für das letzte Beispiel glauben die Forscher den Einfluss des Klimawandels belegen zu können, bei den europäischen Ländern liefert die Analyse nur ein „Vielleicht“, und die Regenfälle in der indonesischen Hauptstadt Jakarta seien nicht einmal ungewöhnlich gewesen.

Dagegen habe der Klimawandel einen extremen Wintersturm über dem Himalaja in Nepal begünstigt, sagt eine Studie. Das bisher seltene Zusammentreffen eines tropischen Zyklons im Golf von Bengalen mit einer kurzlebigen Wetterdepression, die dem Sturm den Weg zum Gebirge bahnte, werde in Zukunft häufiger vorkommen, so das Autorenteam. Im Oktober 2014 verloren dadurch laut der Studie allein 43 Menschen in Lawinen ihr Leben.


Der Weg des Hurrikans Gonzalo im Oktober 2014 nach Europa. Die tatsächliche Zugbahn ist violett, langfristige Vorausberechnungen seiner Route sind rot, kurzfristige gelb. Quelle: Frauke Feser et al, doi: 10.1175/BAMS-D-15-00122.1, im BAMS-Sonderband, Figure 11.1

Im gleichen Monat wurde Europa von einem starken Sturm getroffen, der sich aus dem Hurrikan Gonzalo in der Karibik entwickelt hatte. Dieser war um den 12. des Monates entstanden und dann binnen elf Tagen in einem weiten Bogen bis nach Griechenland gereist. Das, stellt eine Forschergruppe mit starker deutscher Beteiligung fest, war aber nicht so ungewöhnlich, wie es zuerst aussah. Winterstürme in Nordamerika und Hurrikane auf Hawaii seien aber sehr wohl durch den Klimawandel wahrscheinlicher geworden.

Christopher Schrader, alle Rechte vorbehalten

Hinweis: Dieser Beitrag beruht auf einem Artikel, den ich für die Süddeutsche Zeitung geschrieben habe.