Schlagwort-Archive: USA

Der March for Science und das Mittelalter

Hamburg, 24. April 2017

Science March in Hamburg: Nach der ersten Kundgebung geht es vom Rathausmarkt los
in Richtung Jungfernstieg. Foto: C. Schrader 

Am Samstag waren etwa 1500 bis 2000 Menschen auf dem Hamburger Rathausmarkt beim hiesigen March for Science. Es war einer von 600 auf dem ganzen Planeten, die in Solidarität mit dem Protest der amerikanischen Wissenschaftler stattfanden. Diese marschierten in Washington, andere demonstrierten auch in der Antarktis, unter Wasser vor Hawaii und in etwa 20 deutschen Städten, darunter Heidelberg, Berlin und München.

Als ich vor dem Hamburger Rathaus stand und dort den Reden zuhörte, dachte ich an eine Passage aus dem Buch „Eine kurze Geschichte der Menschheit“ von Yuval Noah Harari. Er definiert die Entwicklung unserer Spezies als eine Abfolge von drei Revolutionen, der kognitiven vor 70000 Jahren, der landwirtschaftlichen vor 12000 Jahren und der wissenschaftlichen vor 500 Jahren. In dieser sind wir noch mitten drin, und der Anlass der Demos war, dass wir gerade eine Art Konterrevolution erleben: Der Einfluss der Wissenschaft auf das Denken und die Politik soll zurückgedrängt werden. Um dem entgegenzutreten, forderten die Veranstalter der Märsche – und damit die Teilnehmer – eine Art Evidenz-basierter Politik, also gesellschaftliche Entscheidungen, die sich auf wissenschaftliche Erkenntnisse stützen, zumindest dort, wo sie vorhanden sind.

Foto von twitter, Bearbeitung: cs

Es ist interessant, wie Harari das Wesen der wissenschaftlichen Revolution definiert. Sie habe mit dem Eingeständnis des Unwissens begonnen, sagt er. Im Mittelalter war die Menschheit, jedenfalls in Europa, aber auch in anderen Kulturkreisen, der Meinung, alles Wissenswerte sei schon bekannt. Wer sich bildete, nahm dieses vorhandene Wissen in sich auf, niemand sah die Notwendigkeit, darüber hinaus zu denken. Was nicht bekannt war, war unwichtig. Und Empirie, die dem scheinbaren Wissen widersprach, konnte daran auch nichts ändern, manchmal war sie sogar gefährlich.

Dieses Bewusstsein änderte sich zu Beginn der Neuzeit. Harari illustriert das am Beispiel der „Entdeckung“ Amerikas. Christopher Columbus segelte 1492 in der festen Erwartung los, den Seeweg nach Indien zu finden. Er betrachtete die Karibik-Inseln, auf denen er landete, als Teil Indiens (noch heute heißen sie westindische Inseln) und nannte ihre Bewohner Indios. Bis zu seinem Tod beharrte er auf dieser Postion. Und dann kam der „erste moderne Mensch“ Amerigo Vespucci, der um das Jahr 1500 nach Europa von einem unbekannten Kontinent berichtete, vor dessen Küste Columbus‘ Inseln lägen. Es war ein Kontinent, von dem die Gelehrten seiner Zeit nichts wussten, der in ihren Büchern nicht vorkam, den es nach mittelalterlichem Denken nicht geben konnte. Harari urteilt: „Im Grunde ist es nur gerecht, dass ein Viertel der Welt nach einem unbekannten Italiener benannt wurde, an den wir uns heute nur deshalb erinnern, weil er den Mut hatte zu sagen: ,Wir wissen es nicht.'“

Das Weltbild des Mittelalters war natürlich stark geprägt von heiligen Büchern. Und die Menschen lebten in Ehrfurcht davor. „Es war unvorstellbar“, schreibt Harari, „dass die Bibel, der Koran oder die Vedas ein entscheidendes Geheimnis des Universums übersehen haben könnten, und dass es an gewöhnlichen Sterblichen sein könnte, dieses Geheimnis zu lüften… Was die mächtigen Götter nicht offenbarten und was die Weisen der Vergangenheit nicht in ihre Schriften aufnahmen, war definitionsgemäß irrelevant.“

Und da – jetzt spinne ich Hararis Analyse weiter –  haben wir doch eine Erklärung für die Wissenschafts-Feindlichkeit, die uns zum Beispiel aus den USA entgegenschlägt. Die religiöse Rechte, die dort jetzt den Ton angibt, beharrt darauf, dass Gott die Geschicke der Welt bis ins Detail lenkt, und verlangt Unterordnung unter die himmlische Fügung (und ganz nebenbei kann man dann noch die eigenen Interessen der biblischen Botschaft unterjubeln): Am klarsten zeigt sich das bei der Opposition gegen die Evolutionsforschung und den Evolutionsunterricht in den Schulen. Es ist aber auch in den Debatten über den Klimawandel, Impfungen oder Gentechnik zu erkennen. In dieser Hinsicht führt der Gegenwind gegen die Wissenschaften sozusagen in das Mittelalter zurück nach dem Motto: Es ist nicht am Menschen, die Geheimnisse Gottes zu lüften und zu entweihen.

Es ist nötig, sich diese Positionen einmal auf diese Weise klar zu machen. Natürlich will von den Anhängern der Trump-Regierung niemand zurück ins Mittelalter. Aber die geistige Haltung, der Wissenschaft keinen zentralen Wert mehr in der Gesellschaft einzuräumen, hat viele Parallelen zur damals verbreiteten Position des Nicht-Wissen-Wollens.

PS: Zwei Bemerkungen noch. Erstens: Dass es der Wissenschaft erfolgreich gelingt, viele Geheimnisse zu lüften, nehmen manche als Beleg, dass es Gott gar nicht gibt. Das halte ich für eine unzulässige Verkürzung, außerdem tritt man damit den Menschen vor das Schienenbein, für deren Identität der Glauben an Gott zentral ist. Das ist nicht nur grundlos verletzend, sondern auch sinnlos und taktisch unklug, weil es Reaktionen wie die jetzige beschleunigen kann. Zudem gibt es in den Kirchen viele kluge Menschen, die zwischen Religion und Wissenschaft überhaupt keinen Widerspruch sehen, auch und gerade auf den Gebieten Evolution und Klimawandel.
Zweitens: Dass sich Politik auf wissenschaftliche Erkenntnisse stützt, unterstütze ich natürlich vollkommen. Doch das greift zu kurz, denn die Resultate der Wissenschaft können gesellschaftliche Entscheidungen ja nicht ersetzen. In der Klimadebatte zum Beispiel kann man sehr wohl verschiedene Kurse steuern, wenn sie alle die Leitplanken einhalten, die die Wissenschaft gesteckt hat. Insofern müsste man eigentlich fordern, dass Politik den Erkenntnissen der Forschung nicht widersprechen sollte, sie darüber hinaus aber ihren Gestaltungsfreiraum ausschöpfen kann – und dass sich jeder in einer Demokratie daran beteiligen kann. Das ist vielleicht nicht sexy genug für den Aufruf zu einer Demonstration, aber zentral für das Selbstverständnis des Wissenschaftlers als Bürger. Wie heißt es beim IPCC: policy relevant but not policy prescriptive.

Scientific method and so-called skeptics

This is an addendum to the answer I have tried to give to Scott Adams‘ (the creator of Dilbert)
question on why science can’t seem to persuade climate skeptics. The basic answer is: Because they don’t want to be convinced. Maybe I should leave it at that, but I feel that maybe some people could indeed benefit by discussing the finer points of the methods of science Adams is targeting with his post. So this is for those specialists (this post not being announced anywhere but at the end of the main answer I have given).

Dear Scott Adams, I’ll dip into some of your points 1 through 14 here. I’ll go at my own pace, I am not necessarily going to jump the hoops you hold up. If you want to skip ahead: I will be dealing with

For starters this business about supplying a number, a percentage of how much of global warming was man-made. The IPCC said in 2013: “It is extremely likely that human influence has been the dominant cause of the observed warming since the mid-20th century.“ The UN-body elsewhere defines “extremely likely” as 95 to 100 percent probability. But it doesn’t give a number for “dominant”.

Let’s figure this out. Since the only other category except human influence would be non-human or natural influence we have a two-way-split. I think it would be safe then to assume that dominant means decidedly more than 50 percent. And if you look at this figure from that same IPCC report, you would think it is closer to 100 percent, wouldn’t you? Without human influence there would be little to no warming, that’s those blue bands. Add human and natural together and you get the pinkish bands around the actual observations. It’s clearer in larger regions with more data: temperatures in North America, Europe, Asia, Australia show no overlap of the colored bands anymore. And it’s most clear in global averages. And there are literally 1000s of sources in the IPCC report.

Source: IPCC, AR5, WG1, Figure SPM.6 

Maybe well over 50 to 100 percent human influence is still too vague for you. Sorry, things are not as simple as we all would like them to be. Anyways: Any single number would most certainly be evidently wrong in the precision it radiates. And attack would be sure to follow. Another of the mock debates surrounding this issue.

Next: Why do you fight being told the rate of warming was a tell-tale sign of what is happening? Rates are often as important or even more so than absolute numbers in every day life, too. Consider the task of sending a message from New York to San Francisco: The distance has stayed the same since both cities are on the map. First you could send it via stage coach, then by train, plane, now e-mail. The amount of time went from weeks to seconds and that means the speed of transmission, the rate of transport went up by orders of magnitude. Not such a difficult concept, is it? And that doesn’t mean heat and cold records aren’t relevant information, too. In fact they are, and there are way more new heat records than new cold records. By 4:1, here is a source for the US.The point is, if there was no change, then there would randomly be new cold and heat records in about the same proportion.

Arctic vs Antarctic: The ice goes away in the north and grows in the south, you say, and accuse scientist of ignoring that. Well, they aren’t, there is lots of research trying to figure out what is happening in both areas. If you think scientist are hiding that ice is growing down south then maybe you are listening to somebody who wants you to think they are hiding it. You can, for instance, look here if you interested in sea ice. For land ice, this might be a good starting point – the question, it says, in under debate.
There are several big differences between the regions that make the simple comparison you demand difficult, to put it mildly. Antarctica is a continent surrounded by ocean and fierce circumpolar currents that basically give it its own independent weather. The Arctic is an ocean surrounded by continents and tightly coupled to what happens with storms, temperatures and precipitation in many countries around it including yours and mine. The northern polar region belongs to a hemisphere that contains two thirds of earth’s land mass – including the major industrial nations with their emission histories. The southern has one third of the land including Antarctica and is otherwise 81 percent water. Why would you expect the two regions to be mirror images? It’s also not as if they were shifting ice masses between them making the changes a zero-sum-game. It is a little like adding the scores of the Chicago Bears, Cubs, Bulls, Black Hawks and Red Stars and comparing them to a sum of clubs from Los Angeles to see which is the better sports town.

And just to finish up with details, your point number 11.

  • Why aren’t insurance companies paying attention to sea level rise? They are. The US flood insurance program is recognized to be in dire need of reform because of rising seas (here, here and here, the last being a report by the National Academy of Sciences). And internationally take the example of Munich Re. It says in its annual report (page 74) that “Climate change represents one of the greatest long-term risks of change for the insurance industry”. It quotes the cost of adapting to sea level rise as 1 trillion dollars for the US alone. And university analysts have given it thumbs up on its response.
  • Why do your beaches look the same? Well, Wikipedia has you living in California, the Eastern Bay area to be exact, and I assume you might be going to Santa Cruz or thereabouts. So let’s look at a map. Here is Santa Cruz with the inundation 2010, 2060 and 2100 (Source). The water has been progressing slowly (and presumably local authorities have taken care of their beaches) but changes will accelerate.
                              Source: Monterey Bay Sea Level Assessment by Noaa

    The numbers in one projection are: seven inches rise last century, six more until 2030, another six until 2050, and two more feet on top by 2100. So you are in the middle of the two-inches-per-decade phase between 2000 und 2030. That’s not easy to notice by naked eye especially when there is maintenance going on. The water will rise, your state authorities say.
  • Why are half the top hits in web searches debunking the rise? Are you honestly asking that? It’s not about the quantity of hits but about the quality of sources. Bloggers have made it their business to attack the science and since they get shared and linked across a parallel universe the Google algorithms think the sites are trustworthy. They get ranked high like science sources who often don’t spend as much time on search engine optimization. For fun try “aliens landing earth” or “Barack Obama muslim” to see the quota of reliable information.

Now for the grand finale, your major and indeed first point: models. Maybe you have been impatiently skipping down here (or maybe you have tuned out) because the IPCC-graph I showed earlier depends on models. How else would you be able to artificially switch off human contributions? That’s nothing we can do in real life.

But why do we need models, in plural, at all? Well, that’s a tenet of science. You make multiple measurements because each one could be flawed, and then you look at what the tendency, the average, the median is, or whatever statistical analysis of them tells you. It’s easy to make fun of that, I know. In everyday life one measurement usually suffices. Has your kid gained another inch, have you lost weight, are the panels of your strip all the right size, is there enough flour in the cookie dough, how many people are at the party, is there enough pressure in your tires, how many e-mails do you get in a single day? Nobody does multiple measurements and statistical analysis for those. Well, for the e-mails you might to eliminate the effect that there could be systematically higher numbers on single days, maybe Mondays and Fridays – just guessing.

In science the questions are usually a whole lot harder, so this multiple measurement habit has proved to be a good idea. As has trusting science as a whole for society, by the way. A consequence of doing this, if you do it right, is that you get two numbers. The result you are looking for and a measure of confidence that that is a figure you can depend on. Scientists being a little nerdy often call the confidence measure “uncertainty”. And that is what it is, too. It is a measure of how uncertain we need to be – or certain we can be. In everyday language that word “uncertainty” comes across badly, just like scientists don’t know their stuff. In fact it is not a weakness but a strength of the scientific method. It has established ways of quality control that are certainly lacking from many other parts of communication – like getting directions in a strange town, remembering the weather two years ago, indicating the size of fish you caught.

When there are no measurement values to be had, because you are talking about a future that hasn’t arrived yet, you need to construct models. They simplify reality in a way that makes it computable, usually leaving out big chunks of the complicated stuff. As the saying goes, they are all wrong, but some are useful. For them also it is a good idea to have several, ideally constructed from scratch in independent, competitive research groups. If they point in different directions, all but one must be getting it wrong. If, however, they point in the same direction that can boost confidence they are getting something right.

Of course they could in principle still all be wrong. Then they all would make the same mistakes and that points to the underlying science being wrong. It’s equations about how pressure and humidity and wind and rain work together and how CO2 and other greenhouse gases influence the radiation that enters and leaves the atmosphere. Complicated stuff but pretty well tested, so the criticism against models is usually not leveled there.

This graph comes from the IPCC. It shows there’s some work to be done but not total chaos. It is a comparison of a whole lot of climate models hindcasting global temperatures over roughly 150 years and through several large volcano eruptions. Black and bold are the observations, red and bold is the average of the models, the thin lines are individual ones, the yellowish shading marks the reference period against which all temperature differences are measured.
Source: AR5, WG1, Figure 9.8, 2013

To prove that the equations and the mechanisms in the models are working together well researchers do this thing called hindcasting that irritates you so. The models start their work at some point in the distant past, fed with the initial conditions from that point in time and then run unguided through the years up to the present. The results can be compared to what actually happened and give the model makers a measurement of how good they are doing. Only if they pass that test can anyone place any confidence in them getting the future right.

„It tells you nothing of their ability to predict the future“, you say. I wonder why you would think you are in the position to judge that. Yes, hindcasting indeed tells us something about the ability to project the future, because the models prove they get the underlying science right. They calculated a future from 1850 onwards based on first principles. It’s just that for us, that future is the past.

I think it is seriously wrong to equate climate models to the financial market. You are missing something rather important. In climate science people actually know what is happening and what causes what. Obviously the minute details of dealings at the Stock Exchange are NOT known even remotely as well. If you insist on that kind of simile: The only thing that would be comparable is if you have a set of publicly available rules and based on that not one financial genius but a whole bunch of them put their predictions of the future into sealed envelopes guarded by a trusted institution only to be opened when the end year envisioned has arrived and all the data are in. And you would only count it as a success if everyone of those guys got it reasonably right.

Anyways, hindcasting of course is not the primary product of the models. It is a necessary quality check, nothing more, nothing less, and should no more be advertised than race track results for a new car model that will never go 150 mph in traffic. The results should be there for the asking, sure. But not center stage. If you see hindcasting as a major part of science communication around climate models you are looking at the communication in a different way from me. It’s safe to assume that neither of us has the right way to look so we both should be careful about what we say about them. I’ll certainly look out for exaggerated hindcasting language in the future. Maybe you can look beyond that.

Remember though I said that models were “ideally constructed from scratch in independent, competitive research groups” – well, not all of them are. There are connections between some research groups but not others. So some researchers are wondering if all the models should be treated equally, they question the model democracy, as they put it. This is brand new stuff. The suggestion is to weight the models and then to do weighted averages. In real life you would be using that technique maybe to locate a sports arena that several clubs will be using – and you want to giving the club with a 100 actives more say than the clubs with 25, 33 or 50 players. So you weight their respective answers with the number of members. In the case of the models the categories that could be used for weighting are independence – the unique efforts get more say – and skill in hindcasting. So there still is not what you wanted, the single best model, but more of a unified voice of them.

Finally to put the whole business into a framing you might understand (and I find weird examples work best to get points across): If you were to hold the secret theory that creating Dilbert was inevitable given your life’s twists and turns – how would you test that? You could recruit a number of young, very young kids and subject about half of them to the same experiences you had to see if they came up with a similar syndicated cartoon series. You would have control groups that get different experiences to test correlates: Could a woman become Scott Adams? Would there be Dilbert if there hadn’t been Little Nemo, Peanuts or Doonesbury before?

And since this in reality would be impossible or inhumane to subject people to you would think of models to give you an answer. Models, in plural, because if you only relied on one you could so easily get it wrong and never even know about it.

If you are seriously interested, it is a good idea to do this in plural. Scientists are seriously interested. And as a citizen following science news you would be better off not pushing for answers that leave out the best science has to offer. And that doesn’t just apply to models, that goes for most of your demands.

Klimatipps – nicht nur für Los Angeles

14338415117_c87efa21c6_kDas Lummis House in Los Angeles hat ein amerikanischer Journalist um die Jahrhundertwende zum 20. Jahrhundert im Norden der Stadt bauen lassen. Es ist heute ein Denkmal, und der Garten ist nach den Grundsätzen des „Drought-tolerant gardening“ angelegt. Quelle: Ken Lund, Flickr, Creative Commons Licence, unverändert

Hamburg, den 22. September 2016

Zur Abwechslung mal ein paar Klimatipps für Haus und Grundstück. Der erste erreicht uns aus Los Angeles in Kalifornien, wo die vergangenen fünf Jahre der trockenste solche Zeitraum waren, seit  das Wetter regelmäßig registriert wird – also seit 140 Jahren. Mehr noch: Eine Dürre wie 2012 bis 2014 sollte nur alle knapp 10 000 Jahre einmal eintreten, haben Wissenschaftler berechnet. Das hat an der Pazifikküste bereits ein Umdenken im Hinblick auf den Klimawandel verstärkt, von dem Deutschland noch weit entfernt ist. So will der Staat Kalifornien im Alleingang bis 2030 den Ausstoß von Treibhausgasen um 40 Prozent unter das Niveau von 1990 senken  – das rechtfertigt allemal den Blick in eine Region, die neun Zeitzonen von Deutschland entfernt liegt.

Die Behörden der südkalifornischen Metropole haben auf die Dürre zum Beispiel mit dem Cash for Grass-Programm reagiert und bieten Gartenbesitzern Zuschüsse an, wenn sie ihren Rasen durch eine wassersparende Landschafts-Gestaltung ersetzen: Mulch, Steine und vor allem genügsame Pflanzen. Dafür gibt es ein Handbuch, das zum Beispiel die Salbei-Art hummingbird sage anpreist, das im Südwesten heimische deergrass, diverse Büsche und Ranken oder natürlich die Staatsblume, den kalifornischen Mohn.

Der Sinn ist, den gewaltigen Wasserverbrauch beim Sprengen des Rasens  zu reduzieren. Er war ohnehin schon durch Verordnungen eingeschränkt: Sprinkler durften nur 15 Minuten alle zwei Tage angestellt werden, und nicht zwischen 9 und 17 Uhr. Doch was die weiteren Folgen über das Wassersparen hinaus wären, wenn alle Hausbesitzer in LA ihre Gärten umgestalteten, das war bisher noch nicht richtig klar. Viele konnten sich ja ausmalen, dass die Temperaturen in unmittelbarer Umgebung des Hauses ansteigen, wenn das verspritzte Wasser nicht mehr zu großen Teilen verdunstet.

Genau das bestätigt nun eine neue Studie, die in den Geophysical Research Letters erschienen ist – allerdings zeichnet sie ein differenziertes, durchaus interessantes Bild. Während sich die Region nämlich zunächst tatsächlich tagsüber aufheizt, wenn Gärten nicht mehr gesprengt werden, kühlt sie nachts um so stärker ab. Bemerkbar macht sich das den Berechnungen zufolge schon zu einer Uhrzeit, zu der die Bewohner abends von der Arbeit nach Hause kommen, nachdem sie den üblichen Rushhour-Stau bewältigt haben. Am deutlichsten ist der Effekt in den Abendstunden. Und falls der Umbau der Pflanzenwelt nur konsequent genug vollendet wird, schwindet auch die Erwärmung in der Mittagszeit wieder, weil die Brise vom Pazifik weiter ins Land hineinreicht.

Die Erklärung ist eigentlich einfache Physik: Wenn die Erde nicht mehr künstlich feucht gehalten wird, bremst das den Austausch von Energie zwischen Luft und Boden: Die von der Sonne erwärmte Erde kann die sich Luft nicht mehr so leicht daran hindern, sich abzukühlen.

Pouya Vahmani und George Ban-Weiss von der University of Southern California haben ein regionales Klimamodell für Los Angeles laufen lassen und in der virtuellen Metropole zuerst alle Gartenpflanzen, dann auch das ganze Grünzeug auf öffentlichen Flächen ausgetauscht. Das geht natürlich nicht wie zum Beispiel bei den „Sims“, wo man den Garten seines computeranimierten Hauses liebevoll neu bepflanzt: Die Datenpunkte im Modell waren zwei mal zwei Kilometer groß. Die Forscher haben darum Kenngrößen der Vegetation verändert, vor allem Angaben über die Stomata der Pflanzen (also die Spaltöffnungen, über die sie Gase wie Wasserdampf und Kohlendioxid mit der Umgebung austauschen) und die sogenannten Rauhigkeitslänge (die Höhe über dem Boden, auf der die Vegetation den Wind praktisch auf Null gebremst hat). Sie haben auch die Albedo (also die Menge an Sonnenlicht, die Pflanzen reflektieren) variiert, aber das hatte ihren Angaben zufolge nur wenig Effekt. Den weiteren Klimawandel, der Los Angeles bis zum Ende des Jahrhunderts um drei bis fünf Grad erwärmen könnte, ignorieren die Forscher zunächst, er lässt sich in Simulationsrechnungen einfach abschalten.

droughttolerancefig2Simulationsrechnung, wie der Umbau nur von privaten Gärten (Phase 1) oder auch von allen öffentlichen Flächen (Phase 2) die Temperaturen an einem Julitag in Los Angeles
um 14 und 22 Uhr verändern würde. Quelle: Vahmani/Ban-Weis,
Geophysical Research Letters, Figure 2

Konkret warf der Computer folgende Zahlen aus: In der Phase 1, bei der nur die privaten Rasenfläche umgewandelt wurden, erwärmte sich das Stadtgebiet an Julitagen mittags um zwei Uhr im Mittel um 0,7 Grad Celsius; Spitzenwerte erreichten die Regionen im San Fernando Valley nördlich der Hollywood Hills und Santa Monica Mountains sowie in Riverside am östlichen Ende des Beckens von Los Angeles: Hier wurde es mittags um 1,9 Grad wärmer, wenn die Gärten nicht mehr gewässert wurden. Nachts um 22 Uhr hingegen kühlte sich die Metropole deutlich ab, und zwar gerade in den tagsüber erhitzen Regionen fern des Meeres – im Mittel um etwas mehr als drei Grad. Das ist nicht nur vom Betrag her mehr, sondern auch wichtiger für die Gesundheit der Angelenos. Gesundheitsschäden drohen bei einer Hitzewelle vor allem, weil die Menschen nachts keine Abkühlung mehr finden und der Schlaf massiv gestört ist.

In der Phase 2, in der auch alles öffentliche Land virtuell umgemodelt wurde, blieb die nächtliche Abkühlung gleich, und sogar tagsüber sanken die Temperatur im Mittel nun um 0,2 Grad. Verantwortlich waren vor allem die küstennahen Regionen (siehe Grafik oben). Dass im Durchschnitt eine Abkühlung herauskam, hat die Forscher selbst überrascht, wie sie schreiben. Ganz trauen sie dem Wert auch nicht; je nach Wahl der Pflanzenparameter könnte es doch eine geringe Erwärmung geben. Entscheidend für den Unterschied zu Phase 1 war jedenfalls, dass die neuen Pflanzen die Seebrise besser passieren lassen, so dass sie weiter ins Land reicht.

Das letzte Wort ist allerdings nicht gesprochen: Das Umpflanzen könnte nämlich auch bedeuten, dass manche Bäume strubbeligen Büschen weichen müssten, und da würden vermutlich nicht nur die Umweltschützer – in den USA bisweilen als „Treehugger“ verspottet – protestieren.

24150210766_f5d47bf138_kDer Dachboden eines Hauses in Kalifornien. Der Boden ist gedämmt, die Unterseite des Daches jedoch nicht sonderlich isoliert. Foto: mit freundlicher Erlaubnis jimvancura.com

Der zweite Tipp für das Energiesparen kommt zwar nicht aus Kalifornien, aber er führt dorthin. Gerade die Metropole Los Angeles nämlich, oft das Sinnbild für Energieverschwendung, hat bei einem Vergleich von sechs Städten am besten abgeschnitten: Die Häuser dort verbrauchen am wenigsten für Heizen und Kühlen, und der Bedarf dürfte im Rahmen des Klimawandels sogar noch sinken, stellt ein Team um Anthony Fontanini von der Iowa State University und dem Fraunhofer-Zentrum für nachhaltige Energiesystem in Boston fest.

In ihrer Studie wollten die Forscher eigentlich den Effekt der Dachkonstruktion erkunden und haben sechs verschiedene Geometrien im Computer simuliert: vom Flach- über das Sattel- und Walm- bis zum Mansarden-Dach mit oder ohne Gauben. Sie werden in den USA ganz anders gebaut als hierzulande: aus leichten Materialien, ganzjährig belüftet. Die Isolationsschicht liegt (oder sollte liegen) zwischen der Decke der Wohnräume und dem Fußboden des Dachbodens.Dass die Bewohner unter dem Dach etwas lagern oder gar ein Zimmer einbauen, haben die Wissenschaftler dabei ignoriert.  Darum änderte die Konstruktion am Ende kaum etwas am Energiebedarf des 143-Quadratmeter-großen Bungalows darunter.

Aber es bewahrheitete sich wieder der alte Makler-Spruch, wonach es auf Lage, Lage und Lage ankommt. In diesem Fall ging es jedoch nicht um Stadtviertel oder gar Straßenseiten (wie bei der Hamburger Elbchaussee), sondern um geografische Regionen, als das Forscherteam die Städte Baltimore, Atlanta, Minneapolis, Seattle, Phoenix und Los Angeles verglichen. Die Metropole in Kalifornien schnitt dabei am besten ab, das heißt, hier floss am wenigsten unerwünschte Wärmeenergie durch die Decke des Wohnbereichs: im Sommer als Wärme nach unten, die weggekühlt werden muss, im Winter als Wärme nach oben, die entweicht und ersetzt werden muss.

Insgesamt ergab sich für den Bungalow in Los Angeles ein hochgerechneter Energiebedarf von gut 11 000 Kilowattstunden, das wäre auch im Vergleich mit relativ neuen Häusern in Deutschland ein guter Wert von 78 KWh/m2 ∙ a. Allerdings liegt das natürlich am milden Klima, nicht an der Bausubstanz. Die zweitplatzierte Stadt, Seattle, kam auf gut 15 000, Phoenix als Schlusslicht auf fast 22 000 Kilowattstunden. Seinen Spitzenplatz erreichte Los Angeles in der Summe über Heiz- und Kühlperiode. Nur in Phoenix muss man im Winter weniger heizen, dafür im Rest des Jahres viel mehr kühlen. In Minneapolis und Seattle wiederum läuft im Sommer seltener die Klimaanlage, dafür im Winter häufiger die Heizung.

Los Angeles hat zudem im Vergleich der amerikanischen Städte die besten Aussichten im Klimawandel: Abhängig vom Erwärmungsszenario sinkt in Südkalifornien der Energiebedarf des simulierten Hauses um zehn bis 23 Prozent. Einen kleineren Rückgang dürfen auch Baltimore, Minneapolis und Seattle erwarten, dafür steigt der Verbrauch in Phoenix um bis zu 19 Prozent und in Atlanta um bis zu 44 Prozent. Dort wird die Hitze schon heute oft unerträglich.

9710802780_6fcad6c268_kVon begrünten Dächern im Civic Center-Distrikt von San Francisco hat man  einen
guten Blick auf die Hügel und den markanten Sturm Tower. Quelle: Sergio Ruiz, Flickr,  Creative Commons License, unverändert

Und ein letzter Hinweis, der zwar aus Hongkong stammt, aber überall dort wichtig werden kann, wo Mücken zur Plage werden können. Zwei Geographen der Universität Hongkong haben untersucht, ob begrünte Dächer zum Brutplatz für Moskitos werden können. Ihre Antwort: eher nein. Sie konnten zumindest auf den drei Dachgärten weniger der stechenden Insekten fangen als auf zwei blanken Flachdächern, wo auch immer mal wieder Pfützen entstehen und als Kinderstube der Mücken dienen können. Auf dem begrünten Dach in Los Angeles (oder San Francisco) müssten aber wiederum dürre-tolerante Pflanzen wachsen, das ist wohl klar.

Das Zeitalter der Pilzwolken

Bekanntes Foto des Baker-Tests. Die durch die Druckwelle hervorgerufene Wilson-Wolke hat sich teilweise aufgelöst und gibt den Blick auf die Wassersäule und den blumenkohlförmigen Explosionspilz sowie die Flotte von Zielschiffen frei. Die Palmen am Strand wurden mit schwarzer und weißer Farbe angestrichen, um die Höhe der erwarteten Flutwelle messen zu können. Von United States Department of Defense (either the U.S. Army or the U.S. Navy)derivative work: Victorrocha (talk) - Operation_Crossroads_Baker_(wide).jpg, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=6931019Am 25. Juli 1946 ließen die Amerikaner auf dem Bikini-Atoll im Rahmen der „Operation Crossroads“ den Sprengsatz Baker 27 Meter unter Wasser detonieren. 93 ausgemusterte und erbeutete Schiffe und viele Versuchstiere wurden der Explosion ausgesetzt. Sie fiel so unerwartet heftig aus und verursachte solche Schäden, dass die Organisatoren den geplanten dritten Test absagten und später erst einmal wissenschaftliche Begriffe für die beobachteten Phänomene definieren mussten. Einige der radioaktiv verseuchten Schiffe wurden später im Pazifik von San Francisco versenkt. Quelle: United States Department of Defense/commons.wikimedia.org, gemeinfrei

Hamburg, 29. August 2016

There is now also an English translation of this entry

Hinweis: Dieser Blogbeitrag beruht auf zwei Artikeln von mir, die bei Spektrum.de und in der Süddeutschen Zeitung erschienen sind. Ich habe sie hier zusammengefasst und ergänzt, und bringe sie vor allem, weil ich die alten Bilder so toll finde. Es lohnt sich, besonders beim Aufmacher-Bild, dem Link zu folgen. 

Das Zeitalter der Pilzwolken begann am 16. Juli 1945, morgens um halb sechs. An jenem Tag hatte sich die Elite der amerikanischen Physiker in der Wüste von New Mexico versammelt, knapp 60 Kilometer südwestlich von Socorro. Es war der erste Praxistest des Manhattan-Projekts, die erste Explosion einer Atombombe; Robert Oppenheimer hatte der Operation den Codenamen „Trinity“ gegeben. Den Sprengsatz selbst nannten die Entwickler flapsig „Gadget“, also Gerät oder Vorrichtung. Er steckte in einem mannshohen ausgebeulten Zylinder mit wildem Kabelgewirr auf der Außenseite. Sein Herzstück waren sechs Kilogramm Plutonium, und er erreichte eine Sprengkraft von etwa 21 Kilotonnen. Die Physiker hatten noch gewettet, welche Wucht der nukleare Sprengsatz erreichen würde. Die meisten unterschätzten die Explosion, nur Edward Teller war übermäßig optimistisch, so schildert es der Historiker Richard Rhodes in seinem Buch „The making of the Atomic Bomb“. Diese Zahl, um die die Experten gewettet hatten, ist nun von Radiochemikern des Los Alamos Nationallabors noch einmal mit einer ganz neuen Methode bestätigt worden.

Noch immer bietet die Geschichte der amerikanischen Atombomben Wissenschaftlern Ansatzpunkt für ihre Projekte. Sie interessieren sich für die nukleare Hinterlassenschaft der Pilzwolken-Ära: Neue Methoden erlauben Einblicke in die Funktionsweise der Sprengkörper. Die Erkenntnisse könnten bei der Überwachung künftiger Abrüstungsverträge helfen. Andere Forscher liefern frische Daten von vernachlässigten Schauplätzen der Historie wie den Südseeatollen von Enewetak, Rongelap und Bikini, wo die US-Armee fast 20 Jahre nach dem Krieg ihre Bombentests noch oberirdisch durchführte. Oder von einer Basis auf Grönland, Camp Century, von der aus die Amerikaner im Ernstfall Raketen gen Sowjet-Union starten wollten. Der Klimawandel könnte einige der Hinterlassenschaften freisetzen.

Die Trinity-Explosion ist zwar fast ein Menschenleben her, Augenzeugen dürfte es daher nur noch wenige geben. Immerhin: Neben den Physikern waren auch viele junge Soldaten anwesend, und auch Kinder der normalen Bevölkerung von New Mexico erlebten den plötzlichen Blitz mit. Mit Geigerzählern oder anderen herkömmlichen Instrumenten ist das Ereignis noch heute an damaligen Ground Zero, den die Öffentlichkeit zweimal im Jahr besuchen kann, ohne weiteres nachvollziehbar. Die Strahlung ist etwa zehnmal so hoch wie sonst in den USA. Doch Einzelheiten der Bombe buchstäblich aus dem Sand zu lesen – das ist mal ein neuer Ansatz.

Die Forscher um Susan Hanson brauchten dafür nur fünf Stückchen Glas von der Explosionsstelle, nicht einmal zehn Gramm. Die intensive Hitze des Tests hatte hier den Sand geschmolzen und dabei auch Spaltprodukte der Kettenreaktion eingeschlossen. Und obwohl in den Proben 70 Jahre lang weiter unzählige radioaktive Zerfallsprozesse abgelaufen waren, konnten die Forscher Bauart und Effektivität der Bombe daraus bestimmen. Für die Sprengkraft brauchten sie nur die historisch überlieferte Menge Plutonium und kamen so auf 22,1 Kilotonnen, das deckt sich im Rahmen der Messgenauigkeit mit bisherigen Angaben. Die Wissenschaftler richten den Blick nun nach vorn. „Ein solches Verfahren könnte die Zeitspanne erweitern, in der man Daten für Inspektionen sammelt“, schließt das Team von Hanson aus dem Erfolg. „Das würde auf absehbare Zukunft die Überprüfung von Abrüstungs-Verträgen verbessern.“ Sie haben ihre Resultate in PNAS veröffentlicht.

TrinityGadget_10540204545_430c889902_o
Norris Bradbury, im Manhattan-Projekt zuständig für die Montage der „Gadget“ genannten ersten Atombombe, und seine Kreation. Quelle: US-Regierung, flickr

Im Fall Trinity war der Kniff, in den Proben nicht nach strahlenden Resten, sondern nach stabilen Atomen zu suchen, genauer nach Molybdän-Isotopen. Neun von ihnen sind bekannt, sieben davon sind stabil, ihr Atomgewicht liegt zwischen 92 und 100. Sie haben jeweils ihren festen Anteil am natürlichen Vorkommen, der zwischen neun und 24 Prozent liegt. Diese Verteilung hatte sich in den Glasproben allerdings verschoben. Die Isotope Mo-95 und Mo-97 nämlich stehen jeweils am Ende einer Zerfallskette, in denen sich die Reste der im Feuerball der Explosion gespaltenen Plutoniumatome immer weiter umwandeln, bis sie einen stabilen Atomkern formen können. Die beiden Isotope wurden also als Folge der radioaktiven Prozesse häufiger. Bei Molybdän-96 hingegen passierte das nur im Millionstel-Bereich, denn hier endet die Zerfallskette schon vorher. Das Team um Hanson konnte also aus den Relationen Mo-95/Mo-96 und Mo-97/Mo-96 ablesen, wie die Explosion abgelaufen war. Zusammen mit dem Plutoniumgehalt der Proben ließen sich so die Anzahl der gespaltenen Atome und die Sprengkraft von „Gadget“ errechnen.

Nach dem ersten Test in New Mexico hatten die Amerikaner im August 1945 zwei Bomben auf die japanischen Städte Hiroshima und Nagasaki geworfen. Danach folgten noch Dutzende weiterer Tests – zur Sicherheit nicht auf eigenem Staatsgebiet, sondern auf den Südseeatollen. Obwohl Jahrzehnte vergangen sind, bleiben viele der Inseln dort verstrahlt: Die Zeit wird schließlich nicht unbedingt nach den Maßstäben der Menschen gemessen, sondern in der Halbwertszeit des gefährlichsten verbliebenen Spaltprodukts der damaligen Detonationen: Cäsium-137, dessen Menge sich nur alle 30 Jahre halbiert. Wie viel Strahlung wirklich noch da ist, wussten offizielle Stellen aber offenbar nicht genau – bis ein Team um Autumn Bordner von der Columbia-University mal nachgeschaut hat. Die Forscher charteten sich im Sommer 2015 ein Boot und steuerten innerhalb von zwei Wochen im August 2015 sechs der Inselgruppen an. Ihre Daten haben sie ebenfalls bei PNAS veröffentlicht.

Es zeigte sich, dass zumindest die Insel Enewetak, wo bereits wieder fast 1000 Menschen leben, einigermaßen sicher ist. Die Forscher fanden Dosisraten von 0,04 bis 0,17 Millisievert pro Jahr (msv/a), die von außen, also aus Boden, Wasser und Pflanzen auf Bewohner der Insel einwirkten. Als Mittelwert nennen sie 0,08 msv/a; nur auf einem Fleck an der Südspitze zeigten die Mess-Instrumente deutlich mehr, nämlich 0,4 msv/a. Als Grenzwert der zusätzlichen Strahlenbelastung in Folge der Atomtests haben die USA und die Marshall-Inseln gemeinsam eine Dosis von einem Millisievert pro Jahr festgelegt; nach dieser Angabe sollte beurteilt werden, ob frühere Bewohner der Inseln oder ihre Nachkommen sie wieder bewohnen können. Das gleiche Limit gilt in Deutschland.

Allerdings sollten bei Messungen wie denen des Columbia-Teams nicht mehr als zehn oder 15 Prozent des Grenzwertes ausgeschöpft werden. Die äußere Umgebung ist ja nur ein Strahlungsfaktor, wenn die Menschen auch womöglich belastete, lokale Nahrungsmittel essen und Radioaktivität im Wasser zu sich nehmen. Diese Bedingung ist zumindest auf Enewetak weitestgehend erfüllt, wo die Umwelt im Mittel acht Prozent des Limits ausmacht. Die Strahlungswerte sind damit vergleichbar mit denen auf dem kaum belasteten Majuro-Atoll, wo in der Hauptstadt des Landes heute viele der Staatsbürger beengt leben.

Die Entwarnung gilt aber nicht für das berüchtigte Rongelap, das immer noch unter der Nuklear-Geschichte leidet. Die Insel war beim Atomtest Castle Bravo 1954 von einer Wolke von Fall-Out getroffen worden. Weil sowohl die Bombe als auch der Wind sich anders verhielten als vorausberechnet, hatte die US-Armee die 64 Bewohner nicht evakuiert. Als radioaktive Asche auf die Insel regnete, rieben Kinder sie sich im Spiel in die Haare, sie drang in alle Hütten ein und verseuchte die Zisternen. Viele Bewohner erkrankten an akuter Strahlenkrankheit, etliche starben daran, obwohl die Amerikaner bald alle Insulaner fortbrachten.

Schon 1957 aber transportierte man die Überlebenden zurück und beharrte trotz zahlreicher Krebsfälle bis 1982 darauf, die Insel sei sicher. Auch danach wurden die Bewohner aber nicht ungesiedelt, bis Greenpeace mit seinem Schiff Rainbow Warrior die Bevölkerung 1985 auf ein Nachbaratoll brachte. Danach begann ein umstrittenes Reinigungsprogramm für die Insel. 1994 empfahl der amerikanische Forschungsrat, die Bewohner sollten bei einer Rückkehr ihre Lebensmittel zum Beispiel nur im Süden des Atolls sammeln, doch bislang haben sich die Marshallesen noch nicht darauf eingelassen. Als jetzt die Forscher aus New York auf Rongelap landeten, lagen die Strahlungswerte zwischen 0,06 und 0,55 msv/a; als Mittelwert berechneten sie 0,2 msv/a. Auf vielen Teilen der Insel gab es also zu viel Strahlung für eine Wiederbesiedlung, sollten sich die Zurückgekehrten von Fisch und lokalen Früchten ernähren.

10561566153_5c67d58c37_oZehn Jahre nach den letzten Tests, also in den frühen 1970er-Jahren, durften
einige Einwohner von Bikini auf ihre Inseln zurückkehren. Doch die Strahlungswerte
waren damals – wie heute – zu hoch, so dass die Menschen schließlich doch
wieder evakuiert werden mussten. Quelle: Energy.gov, flickr

Noch schlimmer waren die Werte auf Bikini: Hier lag schon der Mittelwert bei 1,8, die Spitzen übertrafen 6,5 msv/a. Und auf beiden Inseln, so stellten die Wissenschaftler fest, hatte man die möglichen Belastungen deutlich unterschätzt. Die gängigen Angaben waren nämlich aus Messungen berechnet, die zum Teil 20 Jahre alt waren. Und sie beruhten auf Annahmen, wie viel Zeit die Bewohner wohl in ihren Häusern verbringen und wie oft sie im Freien sein würden. Die Forscher um Autumn Bordner lassen sich zu keinem Kommentar hinreißen, was sie von dieser Methode halten, sie stellen nur trocken fest: „Unsere Resultate stellen einen Widerspruch zu den Hochrechnungen auf Basis früherer Messungen dar.“ Auch die Historie, die sich vermeintlich nach einfachen Gesetzen der Physik weiterentwickelt, braucht eben ab und zu ein Update.

Die Wissenschaftler waren zudem auf der Insel Runit, die zum Enewetak-Atoll gehört. Hier haben die Amerikaner strahlende Abfälle ihrer Bomben in den Krater einer Explosion geschoben und unter einer dünnen Betonkuppel vergraben. Das Zeug basiert vor allem auf Plutonium-239, also eine Alpha-Strahler, und dafür war das Bordner-Team nicht gerüstet: Ihre Messgerät erfassten Gamma-Strahlung. Auch davon gab es auf Runit aber einiges: direkt neben dem Bunker zeigte das Instrument gut 0,4 msv/a. Die Werte seien aber keinesfalls repräsentativ, warnen die Forscher: Sie haben die Insel nicht komplett erfasst, wohl auch zur eigenen Sicherheit.

Runit nämlich ist „Amerikas vergessene Atom-Müllhalde“ sagt Michael Gerrard, Professor für Umwelt-Recht an der Columbia University. Es gebe nicht einmal Warnschilder, geschweige denn Wachen, berichtete der Wissenschaftler von einem Besuch 2010. Viele Abfälle haben die abrückenden Truppen einfach in die Lagune geschoben, andere, darunter die Trümmer eines atomaren Blindgängers (nur der konventionelle Sprengstoff zündete), in Plastiksäcken in den Krater geworfen, der bis unter den Meeresspiegel reicht und dessen Fels aus durchlässigen Korallen besteht. Eine richtige Säuberung der Insel hat die Supermacht verweigert, und sein Parlament dann sogar gegen die finanzielle Entschädigung für die Einheimischen gestimmt, die vorher vereinbart worden war, stellt Gerrard bitter fest. Eines Tages aber werde sich das Problem nicht mehr auf eine abgelegene Insel abschieben lassen: wenn die in den Fluten des Pazifik versinken, weil der Klimawandel den Meeresspiegel anhebt.

Runit_Dome_001
Der „Cactus Dome“, so benannt nach dem Atomtest, der auf Runit einen
mehr als hundert Meter großen Krater hinterlassen hat, verdeckt große
Mengen radioaktiven Mülls. Quelle: US Defense Special Weapons Agency/
Wikipedia, public domain

Das hat Runit mit Camp Century gemeinsam. Äußerlich verbindet die beiden Orte wenig: hier eine im Prinzip idyllische Südsee-Insel, dort ein im Prinzip unberührtes Stück im Norden des grönländischen Eispanzers. Und in Pazifik kommt das Wasser zum Atommülllager, während in der Arktis die Reste langsam ins Meer rutschen könnten.

In Grönland hatte die US-Armee 1959 eine geheime Basis acht Meter unter dem Eis errichtet (ein Film im Wochenschau-Stil aus der Zeit wurde offenbar erst Jahrzehnte später freigegeben). Bis zu 200 Soldaten wurden dort stationiert; sie erkundeten, ob sich Tunnel im Inlandeis als Standort für Mittelstrecken mit Atomsprengköpfen eigneten. Dazu kam es offenbar nie, weil sich das Eis innerhalb einiger Jahre schon damals als weniger stabil als erwartet erwies. Und als die Armee das „Project Iceworm“ und die Basis 1967 aufgab, ließ sie 200 000 Liter Diesel, 24 Millionen Liter Abwasser und beachtliche Mengen chemischer Abfallstoffe zurück. Sie nahm den damals im Camp installierten Nuklearreaktor mit, der Strom und Wärme geliefert hatte. Das verstrahlte Kühlwasser jedoch blieb in einer Eisgrube.

CampCentury1Am Anfang waren die Arbeiter noch optimistisch, dass die ins Eis gefrästen Tunnel
von Camp Century halten würden …

CampCentury2… doch bald drückte das Eis die „Wonderarch“ genannten Metallträger einfach ein.
Hier in einem Raum, der zum Kernreaktor der Basis gehörte.
Quelle: US-Army, Technical Report 174 von 1965

Noch versinken diese giftigen Hinterlassenschaften des Kalten Krieges immer weiter im Eis von Grönland, aber das Ende ist absehbar. „Es ist nicht mehr die Frage, ob Camp Century und die Schadstoffe darin eines Tages an die Oberfläche gelangen, sondern wann“, sagt Dirk van As vom Dänischen Geologischen Dienst in Kopenhagen. Der Klimawandel könnte die Verhältnisse im Norden Grönlands bis zum Ende dieses Jahrhunderts umkehren, und dann würden Abfälle der ehemaligen Basis vielleicht schon ab 2120 an die Oberfläche gelangen.

Van As und Kollegen aus Kanada, den USA und der Schweiz haben ein fast vergessenes Kapitel der amerikanischen Atombomben-Historie aufgeschlagen (Geophysical Research Letters, online). Was sie enthüllen, klingt ein wenig wie eine andere Auflösung für den Roman „Fräulein Smillas Gespür für Schnee“. Die Forscher haben inzwischen freigegebene Dokumente über die Basis ausgewertet. „Man war überzeugt, das Eis würde sich nicht bewegen und die Abfallstoffe blieben für die Ewigkeit eingeschlossen“, sagt van As. „Doch heute wissen wir, dass es ziemlich dynamisch ist.“

Weil Details in den Dokumenten fehlen, kann das Team nur spekulieren, dass die Basis „nicht triviale“ Mengen PCB (Polychlorierte Biphenyle) enthält. Die krebserregenden Chemikalien wurden als Frostschutz eingesetzt; Farbe aus jener Zeit, die in anderen Basen benutzt wurde, enthielt bis zu fünf Prozent PCB. Ihre Behälter und die Dieseltanks von Camp Century dürften längst zerdrückt worden sein. Der Inhalt, immer noch flüssig, ist nun vermutlich in Blasen eingeschlossen genau wie die damals deponierten flüssigen Abfälle.

Camp Century3Eine Skizze des Kernreaktors mit seinen Nebenanlagen, die die US-Army in den Eistunneln installiert hatte. Quelle: US-Army, Technical Report 174 von 1965

Die dafür angelegten Kavernen, ursprünglich 40 Meter tief, liegen inzwischen vermutlich 65 Meter unter der Oberfläche, weil diese durch Schneefall immer weiter aufsteigt. Den Simulationsrechnungen der Forscher zufolge geht das noch Jahrzehnte so weiter: einem Modell zufolge über 2100 hinaus, ein anderes sagt für 2090 eine Umkehr vorher. Schon einige Jahrzehnten danach könnten erste Risse und Spalten im Eis die ehemalige Basis erreichen und Abfallstoffe mobilisieren, falls der Klimawandel so weiter geht wie bisher. Sollte die Welt nach dem Vertrag von Paris die globale Erwärmung begrenzen, dürfte das die Freisetzung in Grönland verzögern, aber nicht verhindern.

Dass viele Details in ihrem Aufsatz fehlen, ist den Wissenschaftlern bewusst. „Wir wollten eigentlich den Ort besuchen und Messungen machen, aber wir haben keine Finanzierung bekommen“, sagt Dirk van As. Mehrmals wurde ihnen von Geldgebern bedeutet, das Thema sei politisch schwierig. Unter anderem bei der Nato hatten die Forscher nach eigener Aussage Geld beantragt. Die wissenschaftlichen Gutachten über das Projekt seien positiv gewesen, aber dann müsse mindestens ein Land sein Veto eingelegt haben. Van As’ Kollege William Colgan von der University of Toronto hat in Science das gleiche erzählt; Anfragen der US-Journalisten an die dänische und grönländische Regierung und das US-Militär um Stellungnahmen blieben danach unbeantwortet. „Vielleicht wird es nach der Studie und dem Echo in den Medien einfacher“, sagt Dirk van As. „Wir sollten Radarmessungen auf dem Eis machen, um festzustellen, wo was liegt.“

Paris und das Klima – im Großen und Kleinen

ParisSidewalkClean_cHenryLawford
Früher Morgen am Quai du Voltaire. Die Straßen, bemerkt der Paris-Reisende Henry Lawford, seien perfekt gesäubert. Und gekühlt. Foto: Flickr/Henry Lawford 

Hamburg, 22. April 2016

Paris geht heute einmal mehr in die Geschichte ein. Unter den Klimavertrag, der dort im vergangenen Herbst ausgehandelt wurde, setzen in New York bei den Vereinten Nationen die ersten Staaten ihre Unterschrift. Das Abkommen soll helfen, die Erwärmung der Welt tatsächlich auf zwei Grad Celsius zu begrenzen, womöglich aber auch auf 1,5 Grad.

Der französische Präsident François Hollande hat bei der Zeremonie als Erster zum Füller gegriffen. Barbara Hendricks, die deutsche Umweltministerin war um 18:40 Uhr deutscher Zeit dran. Der US-Außenminister der USA, John Kerry, hielt seine zweijährige Enkeltochter bei der Unterschrift auf dem Schoß. Für jeden der Regierungschefs oder Minister wird die entsprechende Seite in einem dicken Buch aufgeblättert; nach etwa 40 Sekunden ist dann schon der nächste dran. Insgesamt hatten 171 Länder angekündigt, den Vertrag schnell zu unterzeichnen. 13 Staaten, vor allem Inselstaaten aus der Gruppe der Entwicklungsländer, wollen sogar bereits die Ratifikationsurkunden hinterlegen (Länder wie Barbados, die Malediven, Mauritius, Fidschi und Tuvalu, aber auch Somalia, Palästina und Belize). Das reicht zwar noch nicht, damit der Vertrag völkerrechtliche Gültigkeit erhält, aber es ist ein wichtiger symbolischer Schritt. In Kraft treten kann der Vertrag nämlich erst, wenn ihn mindestens 55 Länder ratifizieren, die zusammen für mindestens 55 Prozent der Treibhausgas-Emissionen verantwortlich sind.

Da China und die USA angekündigt haben, den Vertrag schnell zu ratifizieren, wäre die zweite der Bedingungen schnell erfüllt – so schreibt es zumindest die Süddeutsche Zeitung. Bei aller Freundschaft: Ganz so einfach ist es nicht. Neben den beiden Klima-Supermächten müssten noch zum Beispiel die sechs größten EU-Länder und Indien ratifizieren (gemäß 2014er-Daten des CDIAC). Es könnte aber, angesichts der Euphorie nach dem Abschluss von Paris, tatsächlich schnell gehen.

Außerdem ist aber in den USA umstritten, wie dort der Prozess der Ratifikation laufen soll. Die Regierung erklärt den Vertrag für nicht rechtlich bindend, darum müsse der Senat nicht darüber befinden. Dort würde Barack Obama wohl auch schwerlich eine Mehrheit finden. So schreibt es zum Beispiel die Washington Post. Das ist natürlich ein Trick, aber einer mit einem schalen Nebengeschmack: Die Regierung erklärt ja offiziell, dass sie sich nicht an die Vereinbarung halten muss (die ja ohnehin vor allem auf Freiwilligkeit setzt). Jeder Nachfolger des scheidenden Präsidenten, auch die klimaskeptischen Republikaner (oder was dieser Tage für Politiker dieser Partei durchgeht), wäre aber zumindest einige Jahre an den Vertrag gebunden, wenn er vor ihrem oder seinem Amtsantritt Rechtskraft erlangt.

Dass diese Auslegung, welchen Status der Vertrag für die USA hätte, aber rechtlich umstritten ist, wissen auch die W-Post und behaupten natürlich die rechte Presse und die entsprechenden Vordenker der Klimawandelleugner. Obama aber scheint mit der beschleunigten Anerkennung sicherstellen zu wollen, dass der Paris-Vertrag überhaupt Gültigkeit erlangt. Das Signal, wenn ein weiteres Mal die USA einen Vertrag zwar unterschreiben, aber nicht ratifizieren, wäre auch fatal.

Paris Morning Music_cChristineAceboAm Morgen wird der Gehsteig in vielen Pariser Straßen geschrubbt. Aufnahme mit freundlicher Genehmigung von Christine Acebo, Ashford/CT. Foto: Flickr

Vielleicht ist dieser Tag daher auch der richtige, neben dem großen Beitrag von Paris zum Klima auch einen kleinen zu würdigen. Hier geht es nicht um das Weltklima, aber immerhin um das Stadtklima. Wer schon einmal morgens in der französischen Hauptstadt  unterwegs war, um irgendwo über Café Au Lait und Croissant den Tag zu planen, der hat bestimmt gesehen, was die Einheimischen mit ihren Gehsteigen machen: Sie wässern und fegen sie (und manche Besucher fotografieren das sogar, danke an die genannten Flickr-User). Tatsächlich ist das mehr als die Privatinitiative von einzelnen Bistro-Besitzern oder Concierges, es steht ein System dahinter. An vielen der Straßen und Boulevards läuft Wasser entlang. Und das hilft tatsächlich nicht nur der Sauberkeit, und erfreut die Tauben, sondern dämpft den sogenannten Wärmeinsel-Effekt, wonach Städte viel heißer werden als das umgebende Land.

ParisStreetCleaning_cJayt74Auch Profis wässern die Straßen. Foto: Flickr/Jamie Taylor

Ein Team um Martin Hendel von der Sorbonne hat nachgemessen: Die Lufttemperatur geht um bis zu 0,8 Grad zurück. Das bringt wahrscheinlich an einem heißen Nachmittag noch keine wirkliche Erleichterung, aber jedes bisschen hilft. Die Forscher haben echte Experimente gemacht und benachbarte Straßen-Abschnitte verglichen. Zum einen in der Rue du Louvre im Stadtzentrum, wo ein Sprühwagen der Stadtreinigung alle 30 Minuten durch einen Abschnitt fuhr und durch einen anderen eben nicht (zwischen 11:30 Uhr und 14 Uhr hatten die Angestellten offenbar Mittagspause, da sprühten sie nicht, aber sie waren immerhin zurück, als die Sonne in die Straßenschlucht fiel). Zum anderen die ungefähr parallel verlaufenden Rue Lesage und Rue Rampeneau in Belleville im 20. Arrondissement. Hier lag – nur in ersterer – ein Schlauch mit Sprühventilen im Rinnstein.

Die Autoren haben darüber immerhin ein 16-Seiten-Paper veröffentlicht (Urban Climate, doi: 10.1016/j.uclim.2016.02.003). Um fair zu sein: Es geht ihnen dabei auch um die korrekte statistische Auswertung der Befunde. Und manchmal muss man eben auch einfach mal Dinge beweisen, die man schon intuitiv als richtig erkannt hat. Oder – siehe den Vertrag – Dinge tun, auf die anhand überwältigender Belege schon die halbe Welt gewartet hat.

ParisTaubenIMG_3594Eine Badewanne für Tauben. Foto: Christopher Schrader

Update: Im Lauf der Zeremonie und danach habe ich einige der Formulierungen von „wird erwartet“ hin zu „ist geschehen“ angepasst.

Vorbild Schweiz

1999-Zürich – 03Münsterbrücke über die Limmat in Zürich, Foto: C. Schrader

26.10.2015

In fünf Wochen beginnt in Paris der 21. Klimagipfel der Vereinten Nationen. Die Delegationen aus Europa, China und den USA werden dort vermutlich mit breiter Brust auftreten, und davon schwärmen, was sie alles für den Klimaschutz tun wollen. Insgesamt 154 Staaten haben im Vorfeld der Konferenz ihre nationalen oder regionalen Pläne eingereicht (weil die EU sich intern abgestimmt hat, sind bisher 127 solcher INDCs registriert worden). Bei Fachleuten löst das noch keine Euphorie aus: „Wenn man sich anschaut, was die Staaten der Welt bislang für Paris auf den Tisch gelegt haben, so ist klar: Es reicht nicht, um die globale Erwärmung unter der international anerkannten Grenze von zwei Grad Celsius zu halten“, sagt Sebastian Oberthür von der Freien Universität Brüssel. Auch ein Konsortium von 16 anderen Forschungsinstituten hatte vergangene Woche die Zahlen im sogenannten Miles-Report als mangelhaft bewertet.

Das einzige Land, das wirklich stolz auf sich sein kann, ist die Schweiz. Nach einer neuen Berechnung tut die Eidgenossenschaft nicht nur mehr als genug gemessen an ihrer Größe; sie könnte auch als Vorbild alle anderen Nationen mitziehen, wenn sie nicht so klein wäre, schreiben Malte Meinshausen von der University of Melbourne, Sebastian Oberthür und weitere acht Kollegen in Nature Climate Change (online; doi: 10.1038/nclimate2826). „Die Schweiz hat in ihrem INDC eine 50-prozentige Reduktion (der Treibhausgas-Emissionen) bis 2030 versprochen. Das macht sie zum einzigen Staat, der eine Diversitäts-bewusste Führungsrolle übernimmt“, bescheinigen die Forscher dem Land.

Um die Argumentation und den sperrigen Begriff „Diversitäts-bewusste Führungsrolle“ zu verstehen, muss man etwas ausholen. Der Klimagipfel in Paris versucht mit einer anderen Strategie zu einem globalen Abkommen zu gelangen als das Treffen 2009 in Kopenhagen. Damals sollten verbindliche Quoten beschlossen werden, um die alle Länder ihre Emissionen senken sollten. Aber der Verteilungsschlüssel war höchst umstritten. Darum haben die Staaten für Paris nur freiwillige Zusagen gemacht: INDC heißt „Intended Nationally Determined Contribution“, also „beabsichtigter, national bestimmter Beitrag“. Niemand soll in Paris zu irgendetwas gezwungen oder gar überstimmt werden.

Das ist nicht nur pragmatisch, um überhaupt diesmal ein globales Abkommen zu erzielen, sondern übertüncht auch einen fundamentalen Widerspruch im Verständnis von Gerechtigkeit. Die Industriestaaten stoßen schließlich ganz allgemein gesprochen deutlich mehr Treibhausgase pro Einwohner aus als Schwellen- oder Entwicklungsländer. Wenn also irgendwann in der Zukunft für alle Menschen die gleiche Quote gelten soll – früher war mal die Rede von zwei Tonnen Kohlendioxid pro Person und Jahr -, dann bleibt immer noch die Frage, wie man dort hinkommt.

Es gibt zwei Vorschläge. Erste Möglichkeit: Alle Staaten nähern sich von ihrem augenblicklichen Niveau langsam diesem Ziel an. Die Deutschen reduzieren also ihre Emissionen von gut neun auf zwei Tonnen, während die Inder mit zurzeit 1,7 Tonnen noch Spielraum haben und Vietnam mit zwei Tonnen pro Person und Jahr auf der Stelle treten muss. Das wäre eine Methode, die man als Verteilungsgerechtigkeit bezeichnen könnte.

Zweite Möglichkeit: Das Verfahren der Zuweisung von Emissionen korrigiert die Geschichte. Dann würde die Staatengemeinschaft eine Zahl festlegen, wie viele Tonnen für jeden Menschen ein Land – seit sagen wir mal 1950 – ausgestoßen haben darf und in diesem Jahrhundert weiter ausstoßen darf. Das erlaubte ärmeren Staaten höhere Mengen und eine nachholende wirtschaftliche Entwicklung nach den Mustern der Industriestaaten, also zum Beispiel mit Kohlekraftwerken, während die reicheren Nationen schneller und deutlich stärker einsparen müssten.

Über diese Frage war zwischen den Nationen keine Einigkeit zu erzielen, und das ist vermutlich auch für die Zukunft utopisch. Und so orientieren sich die reicheren Staaten bei ihren INDCs in der Regel an der Verteilungsgerechtigkeit, die ärmeren an der korrigierenden Gerechtigkeit. Die Reichen wollen die Vergangenheit ignorieren, die Armen wollen sie berücksichtigt wissen. Das führt dazu, dass jedes Land seine Vorteile ausrechnet und sich die jeweils höhere Emissionsmenge bzw die niedrigere Reduktionsquote aussucht und nach Paris meldet. Unter anderem darum reicht die Summe der Versprechungen nicht aus.

Der Gedanke des Meinshausen-Teams war nun folgender: Dieser Mechanismus ist eigentlich einfach zu durchschauen und im Prinzip auch einfach zu korrigieren. Es muss sich ein Land A dieser Diversität im Gerechtigkeitsbegriff bewusst werden, diese tolerieren und dann auf dieser Basis den eigenen Beitrag neu kalkulieren. Und dabei eine Führungsrolle einnehmen. Land A könne sich dabei darauf verlassen, so behaupten die Forscher, dass seine Freunde und Handelspartner B bis Z seinem Vorbild folgen, und den gleichen Ehrgeiz an den Tag legen, wenn es mal jemand vorgemacht hat. Schließlich möchten die Länder vor allem nicht ins Hintertreffen geraten und zum Beispiel der eigenen Industrie Vorgaben machen, die Konkurrenz-Unternehmen woanders nicht erfüllen müssen. Sie wollen also Nachteile gegenüber anderen Nationen vermeiden, nicht unbedingt Vorteile erzielen. Ob man sich in der internationalen Politik allerdings darauf verlassen kann, ist sicherlich Stoff einer sehr langen Debatte.

 

GHGTargetsExampleSetting_Fig4a-c

Was passieren würde, wenn die USA sich als Vorbild für die Welt verstünde, illustriert das Forscherteam mit diesem bunten Tortendiagramm. Teil a ist die Legende, welche Farbe für welches Land oder Region steht. In Teil b sind die Beiträge aller Staaten berechnet, die sich an dem momentanen Reduktionsversprechen der USA orientieren. Es führt zu einem weiteren Anstieg der Treibhausgas-Emissionen bis 2030 von sechs Prozent. Sagt Amerika hingegen eine stärkere Senkung des Ausstoßes zu, dann folgen die restlichen Staaten, so dass am Ende eine tatsächlich das Klimaziel erreicht werden kann.
Quelle: Meinshausen et al: National post-2020 greenhouse gas targets and diversity-aware leadership, Nature Climate Change, online, doi: 10.1038/nclimate2826.

Malte Meinshausen als Sprecher der Forschungsteams argumentiert nun: „Wenn die Europäische Union oder die USA als Pionier der weltweiten Klimapolitik handeln würden, so könnte die Blockade der Verhandlungen über eine gerechte Lastenteilung aufgebrochen werden.“ Leicht wäre das allerdings nicht. Die EU und die USA müssten ihre Reduktionen praktisch verdoppeln. Amerika hat angekündigt, bis 2025 um 26 bis 28 Prozent weniger Treibhausgase auszustoßen als 2005. Um andere Nationen als Vorbild mitzuziehen, müsste das Land seine Vorgabe auf 54 Prozent erhöhen, haben die Forscher errechnet. Die EU wiederum hat beschlossen, bis 2030 um 40 Prozent weniger Treibhausgase auszustoßen als 1990; nach der Nature Climate Change-Studie müssten es minus 67 Prozent sein. Und China, das bisher nur versprochen hat, seine Emissionen ab 2030 nicht mehr steigen zu lassen, müsste als Vorbild dann schon den Ausstoß um 32 Prozent unter die Werte von 2010 gesenkt haben. Das hält das Forschungsteam für komplett unrealistisch.

Was in Paris auf dem Tisch liegt, genügt also auch in dieser Hinsicht noch nicht. Nur bei der Schweiz: Sie müsste als Vorbild ihre Emissionen bis 2030 um 44 Prozent senken, versprochen hat sie aber bereits 50 Prozent.

Man kann das für eine optimistische Botschaft halten; die Autoren der Studie tun es jedenfalls. „Diese Idee ist jedenfalls weniger utopisch, als sich auf eine universelle Verteilungsmethode zu einigen“, sagt Louise Jeffreys vom Potsdam-Institut für Klimafolgenforschung (PIK). „Aber sie stützt sich auf die Annahme, dass die wichtigsten Wirtschaftsmächte auf die eine oder andere Weise mitmachen.“

Je nach politischer Grundeinstellung kann man aber auch die Aussage des vergangene Woche veröffentlichten Miles-Reports für realistischer halten. Die 16 Institute unter Federführung des IDDRI in Frankreich (Institut du développement durable et des relations internationales) bezeichnen die bisher eingereichten INDCs immerhin als tragfähige Brücke in eine Zukunft, in der sich das bereits international vereinbarte Klimaziel erreichen lässt. Die nationalen Pläne würden einen breiten Umbau der Energieversorgung anstoßen, stellen die Wissenschaftler fest. „Die Beurteilung der INDCs sollte sich nach ihrem Potenzial richten, die umfassende Dekarbonisierung des Energiesektors auf den Weg zu bringen“, sagt die Projektleiterin Teresa Ribera. „Der Bericht macht deutlich, dass diese Transformation eingeleitet wird, allerdings zu langsam.“ In das Abkommen von Paris solle daher gleich einen Mechanismus eingebaut werden, die nationalen Pläne in Zukunft zu verschärfen.

Christopher Schrader, 26. Oktober 2015

Ergänzung, 30.10.2015: Malte Meinshausen hat neben seiner Stelle in Melbourne auch seine Verbindung zum PIK behalten.

 

Die Goldlöckchen-Temperatur

21.10.2015

Zusammenfassung: Eine Analyse von 166 Ländern zeigt, wie ihre Wirtschaft vermutlich auf den Klimawandel reagieren wird. Entscheidend ist dabei nicht, wie groß das Nationaleinkommen ist, sondern wie hoch die jährliche Durchschnittstemperatur liegt. Jenseits von 13 Grad Celsius bringt die globale Erwärmung auch reichen Nationen Verluste.

In Russland, Skandinavien oder Kanada können sich die Menschen eigentlich auf den Klimawandel freuen: Er dürfte ihnen großes Wirtschaftswachstum bringen. Viele Studien zeigen, wie Landstriche im Hohen Norden mit der globalen Erwärmung freundlichere Temperaturen erreichen, die verstärkte Agrarwirtschaft und generell eine intensivere Nutzung der Ressourcen und Bodenschätze erlauben. Die Schäden an der bisherigen Infrastruktur, die etwa in den sibirischen Weiten  im aufgeweichten Permafrostboden versinkt, bremsen den Aufschwung nur ein wenig. Wo eine neue Wirtschaftszone entsteht, lassen sich die Kosten für den Neubau einer Straße verschmerzen.

Doch solche Vorteile werden vermutlich nur wenige Staaten der Erde erleben. Drei Ökonomen aus Kalifornien haben jetzt ein verblüffend einfaches Kriterium dafür berechnet, wer dazu gehört: Wenn die jährliche Durchschnitts-Temperatur eines Landes bei bis zu 13 Grad Celsius liegt, kann es mindestens zunächst vom Klimawandel profitieren. Ist sie höher, dürfte der globale Wandel den Staat Wachstumsprozente kosten; bei den ärmsten Ländern in den heißesten Regionen kann es sogar zu einem Schrumpfen der Wirtschaft führen. „Die Reaktion der reichen Länder ist dabei sehr ähnlich wie die der armen“, schreibt Marshall Burke von der Stanford University, einer der drei Forscher, in einer E-Mail. Seine Kollegen Solomon Hsiang und Edward Miguel kommen von der UC Berkeley auf der gegenüberliegenden Seite der San Francisco Bay. „Der wichtigste Unterschied zwischen den Ländern“, so Burke, „ist ihre Durchschnittstemperatur, nicht ihr Durchschnittseinkommen.“

Wie sich die Welt nach dem 13-Grad-Kriterium in Gewinner und Verlierer aufteilt, zeigt eine Karte in dem Forschungsaufsatz der drei Ökonomen, der in Nature erschienen ist (online; doi: 10.1038/nature15725). Demnach dürfte es Vorteile auch für große Teile Europas geben (die deutsche jährliche Durchschnittstemperatur zum Beispiel hat 2014 zum ersten Mal die 10-Grad-Marke überstiegen). Sonst aber profitiert kaum ein Land, auf längere Sicht nicht einmal Wirtschafts-Supermächte wie die USA oder China, die beide heute schon nahe an der Idealtemperatur von 13 Grad Celsius liegen (die USA hatten in ihrem Rekordjahr 2012 eine Mitteltemperatur von 12,9 Grad; 2014 waren es 11,4 Grad).

GoldilocksTempEconCC_Fig4aDie Grafik zeigt, wie sich das Nationaleinkommen pro Kopf der Bevölkerung bis 2100 verändert, wenn zur angenommenen wirtschaftlichen Entwicklung ein ungebremster Klimawandel hinzukommt (IPCC-Szenario RCP8.5). Blautöne bedeuten ein Profitieren
vom Klimawandel, in rosa und rot gefärbten Ländern kostet die Erwärmung wirtschaftliches Wachstum.
Quelle: Burke et al: Global non-linear effect of temperature on economic production;
Nature online, doi: 10.1038/nature15725; Figure 4a

Wenn man es etwas poetischer mag, kann man diese 13 Grad Celsius als die Goldlöckchen-Temperatur der globalen Wirtschaft bezeichnen (die Nature-Pressestelle tut dies in ihrer Pressemitteilung). Goldlöckchen ist eine Märchenfigur, ein kleines Mädchen, das in das Haus der Familie Bär im Wald eindringt und dort drei Schüsseln Brei probiert: Die erste ist zu heiß, die zweite zu kalt, die dritte genau richtig.

Insgesamt wird der Klimawandel für die globale Wirtschaft damit zu einem Verlustgeschäft. Schreitet die Erwärmung ungebremst fort, dann ist mit einer globalen Erwärmung von vier Grad gegenüber der Zeit vor der Industrialisierung zu rechnen. Laut Burke und seinen Kollegen bleiben die durchschnittlichen globalen Einkommen dann um 23 Prozent hinter dem Wert zurück, der durch das angenommene Wirtschaftswachstum und ohne Erwärmung bis 2100 zu erreichen wäre.

Zudem könnte sich nach dieser Berechnung die Ungleichheit auf der Welt deutlich vergrößern. Ganze Regionen wie Afrika südlich der Sahara oder Südostasien könnte die globale Erwärmung fast das gesamte Wachstum kosten, das in diesem Jahrhundert noch zu erwarten ist. Und mindestens fünf Prozent der Staaten dürften 2100 sogar ärmer sein als heute. In dem Paper schreiben die drei Ökonomen: „Nach unserer Schätzung wird sich das durchschnittliche Einkommen der 40 Prozent ärmsten Länder bis 2100 um 75 Prozent gegenüber einer Welt ohne Klimawandel verringern, während die reichsten 20 Prozent leichte Gewinne erleben, weil sie im Allgemeinen kühler sind.“

Mit diesem letzten Halbsatz spricht das Team einen erwartbaren Einwand gegen ihre Studie aus: Reiche und arme Staaten sind auf der Welt nicht gleichmäßig verteilt. Die klassischen Industrieländer in Europa sowie die USA und Japan liegen in gemäßigten Klimazonen, die ärmsten Entwicklungsländer aber in einem breiten Gürtel um den Äquator. Über die Frage, warum das so ist, kann man lange und ideologische Debatten führen, die Stichworte wie protestantische Arbeitsethik oder Imperialismus enthalten. Jedenfalls ist der Abstand zwischen den Ländergruppen und Regionen im 19. und 20. Jahrhundert gewachsen, zeigen ökonomische Analysen. Die reichen Länder sind den ärmeren davongezogen. Es wäre also ziemlich einfach für das Burke-Team gewesen, in der Berechnung einen massiven Fehler zu machen.

Über diesen Fallstrick zu stolpern, haben die Ökonomen vermieden, indem sie die Staaten nicht miteinander, sondern immer nur mit sich selbst verglichen haben. Jedes der 166 Länder hat in dem untersuchten Zeitraum 1960 bis 2010 schließlich wärmere und kühlere Jahre erlebt, die die Forscher mit den jeweiligen Wirtschaftsdaten vergleichen konnten. Dabei haben sie die Effekte von Wirtschaftskrisen und plötzlich veränderter Wirtschaftspolitik herausgerechnet. Übrig blieben Grafiken für jedes Land, aus denen die Forscher die lokale Steigung ihrer globalen Wachstum-Temperatur-Relation bestimmt haben.

GoldilocksTempEconCC_FigED1a-fDie globale Kurve, wie das Wirtschaftswachstum mit der Temperatur zusammenhängt,
besteht aus lauter einzelnen Zahlenwerten, die für individuelle Länder bestimmt wurden
(die schwarze Linie zeigt jeweils eine lineare Approximation, der graue Bereich das
95-Prozent-Konfindenzintervall). Hier beispielhaft fünf Staaten.
Quelle: Burke et al: Global non-linear effect of temperature on economic production;
Nature online, doi: 10.1038/nature15725; Extended Data Figure 1a-f

Burke und seine Kollegen beschreiben das Verfahren so:
In an ideal experiment, we would compare two identical countries, warm the temperature of one and compare its economic output to the other. In practice, we can approximate this experiment by comparing a country to itself in years when it is exposed to warmer- versus cooler-than-average temperatures due to naturally occurring stochastic atmospheric changes.

Da sie also keine Experimente machen können, in denen sie eines von zwei identischen Ländern erwärmen und das andere nicht, ist dieser Vergleich der Staaten mit sich selbst eine vernünftige Methode. Das bestätigt der Autor eines begleitenden Kommentars in Nature, Thomas Sterner von der Universität Göteborg in Schweden: Gegenüber früheren Studien ähnlicher Art nutzten die kalifornischen Kollegen einen „anderen (und ich glaube verbesserten) Ansatz, mit Störvariablen umzugehen“. Und: „Die Autoren geben sich viel Mühe, die Robustheit ihrer Ergebnisse zu überprüfen, aber es wird zweifellos Versuche geben, nach anderen Daten und Ansätzen zu suchen, die abweichende Resultate erbringen könnten. So funktioniert der wissenschaftliche Fortschritt.“ Das neue Verfahren muss sich also noch bewähren.

Ähnlich sieht es Sabine Fuss vom Mercator-Institut für globales Gemeingut und Klimawandel in Berlin. „Das Paper ist klar und einleuchtend und enthält keinen methodischen Faux-Pas.“ Schon bei den kommenden Verhandlungen des Klimagipfels in Paris müsse man die möglichen Verluste durch den Klimawandel nun ganz anders bewerten. „Die Ergebnisse bedeuten nämlich auch, dass durch den ungebremsten Klimawandel global noch mehr umverteilt wird als bisher gedacht. Dieser wegweisende Artikel wird sicher die Basis für weitere Forschung in diese Richtung sein.“

Die Analyse von Marshall Burke und seinen Kollegen ist selbst ein Angriff auf die vorherrschende Meinung in der Ökonomie. Dass arme Länder wirtschaftliche Verluste durch den Klimawandel erleiden, ist schließlich kein wirklich neuer Gedanke. Aber bisherige Modelle nahmen an, dass reiche Länder wegen ihrer größeren Ressourcen und des einfachen Zugangs zu Technologie die Effekte einfach wegstecken. Die Folgen des Klimawandels würden demnach auch für all jene Länder immer geringer ausfallen, deren Wohlstand wächst, weil ihnen eine wirtschaftliche Entwicklung gelingt.

Die kalifornischen Ökonomen stellen das als falsche Interpretation dar: „Wir können nicht annehmen, dass reiche Länder von der künftigen Erwärmung unberührt bleiben, oder dass sich Konsequenzen der Erwärmung mit der Zeit abschwächen, wenn Länder wohlhabender werden.“ Staaten im Nahen Osten zum Beispiel sind schon heute deutlich über der 13-Grad-Schwelle und würden demnach wirtschaftlich unter dem Klimawandel leiden. Das gilt vermutlich auch für China, Japan und die USA, wenn sie die Erwärmung über den Gipfel der Kurve auf den absteigenden Ast treibt.

Dies alles setzt mehr oder weniger stillschweigend voraus, dass sich aus der Vergangenheit etwas für die Zukunft lernen lässt. Sollten Länder im Klimawandel plötzlich eine radikale Veränderung ihrer Wirtschaftsweise einleiten, wäre diese Annahme natürlich gefährdet. „Anpassungsmaßnahmen wie beispiellose Innovation oder defensive Investition könnten die errechneten Effekte reduzieren, aber soziale Konflikte oder gestörte Handelsbeziehungen sie auch verstärken“, heißt es in dem Nature-Paper.

Die Erkenntnis, dass selbst reiche Länder wirtschaftlichen Risken unterliegen, sollte auch politische Folgen haben, sagt Thomas Sterner. In vielen Staaten, vor allem in den USA wird schließlich heftig um den Begriff „Social costs of Carbon“ (also die sozialen Kosten der Kohlendioxid-Emissionen) gerungen. Sie könnten dazu dienen, einen vernünftigen Preis für den Ausstoß von Treibhausgasen zu definieren. Dem Burke-Ansatz zufolge müssten solche Kosten in Zukunft ganz anders und viel höher kalkuliert werden, so Sterner: „Ich habe das Gefühl, wir beginnen gerade erst zu verstehen, wie viel Schaden der Klimawandel anrichten kann.“
Christopher Schrader, alle Rechte vorbehalten

P.S.: Hsiang und Burke haben 2013 auch über die mögliche Zunahme von Gewalt mit der globalen Erwärmung geschrieben. Auch das war damals überraschend und kontrovers.

Ergänzung am 23.10.2015

Der Absatz mit den Kommentaren von Sabine Fuss vom Mercator-Institut wurde nachträglich eingefügt. Über das Thema berichten nun auch FAZ und Guardian.