Schlagwort-Archive: Klimaforschung

Von der Blümchenwiese zur Monokultur?

Hamburg,  5. Juli 2017

Soziale Medien in 25 Kategorien – fast alle sind auch für die Wissenschaft und Wissenschaftler relevant. Quelle: Ethority, Version 6

Die deutschen Akademien der Wissenschaften legen sich mit Facebook, Twitter und anderen sozialen Netzwerken an. Sie müssten „verstärkt unter publizistischen/medien-rechtlichen Gesichtspunkten reguliert werden und nicht, wie es bisher überwiegend der Fall ist, primär unter ökonomischen und kartellrechtlichen Aspekten“, fordern die Forscher. Eine 15-köpfige Arbeitsgruppe von Leopoldina, acatech und der Union der deutschen Akademien der Wissenschaften hat in Berlin die Stellungnahme „Social Media und digitale Wissenschaftskommunikation“ vorgestellt und mit Experten diskutiert.

Die Gruppe sehe „die freie Informationsverbreitung gefährdet“, sagte Holger Wormer von der Universität Dortmund, einer der Sprecher: „Wer anderen als Medium eine erhebliche Reichweite zur Verfügung stellt, muss für ein Minimum an Redaktion sorgen“ – dazu seien zum Beispiel auch Tageszeitungen auf ihren Leserbriefseiten verpflichtet.

Dass sozialen Medien gefälschte Meldungen, populistische Parolen und gezielte Diffamierungen verbreiten, ist kein originäres Problem der Wissenschaft. Den Verheißungen der Netzwerke auf bessere, schnellere und direkte Kommunikation folgte stets Enttäuschung, zeigt die Akademien-Arbeitsgruppe für die Gesellschaft als Ganze und für den eigenen Bereich: Freiheit, Gleichheit, Vielfalt und Transparenz zum Beispiel hätten sich eben nicht verbessert. Im öffentlichen Diskurs sei eine „Verflachung und Verrohung“ zu bemerken, die Güte der verbreiteten Information nehme ab: „Es entfällt oft die Sicherung der Qualität“, heißt es in dem 72-seitigen Papier.

„Ein Grundton, als ob wir noch eine Ausstiegsoption hätten“

Das wird gerade für die Wissenschaft zum Problem, wenn sich etwa Falschmeldungen über Klimawandel oder Impfungen im Netz verbreiten. Der Staat müsse daher mit Auflagen für die Konzerne „sowohl für die Garantie der allgemeinen Informationsversorgung als auch speziell für die Versorgung der Öffentlichkeit mit Informationen über die Wissenschaft“ sorgen, heißt es in der Stellungnahme.

Dem stimmte im Prinzip auch Staatssekretär Gerd Billen vom Bundesjustizministerium zu: „Wir haben nicht unbedingt den Anspruch, dass privatwirtschaftliche Unternehmen die Demokratie fördern, aber schon, dass sie ihr nicht schaden.“ Etliche andere Politiker, etwa CDU-Fraktionschef Volker Kauder und Bundestagspräsident Norbert Lammert, hatten bereits gefordert, soziale Medien stärker zu regulieren. Das zügige Löschen rechtswidriger Inhalte als ersten Schritt soll nun das Netzwerkdurchsetzungsgesetz erzwingen, das der Bundestag in seiner letzten Sitzung vor der Sommerpause beschlossen hat.

In der deutschsprachigen Wissenschaftskommunikation herrschten aber noch keine Zustände wie etwa in der Auseinandersetzung etwa über die Flüchtlingspolitik, sagte der Social-Media-Manager der Helmholtz-Gemeinschaft, Henning Krause. „Dagegen ist das wie eine Blümchenwiese.“ Und er kritisierte an der Stellungnahme den „Grundton, als ob wir noch eine Ausstiegsoption hätten“. Wie andere Experten warb er bei der Präsentation in Berlin dafür, neben den Risiken auch die Chancen der sozialen Medien zu sehen. Auch etliche Kommentare im Netz (eine gute Übersicht gibt es bei Marcus Anhäuser) bescheinigen der Stellungnahme, ihr Thema eher verfehlt zu haben. „Bei den zwei wichtigsten Empfehlungen an die Wissenschaft eineinhalb vertane Chancen“, schrieb Reiner Korbmann auf seinem Blog „Wissenschaft kommuniziert„.

Das Papier der Akademien enthält insgesamt zwölf Empfehlungen. Etliche betreffen die Nutzung sozialer Medien durch Wissenschaftsorganisationen und Forscher selbst. So sollen zum Beispiel keine falschen Anreize gesetzt werden, so dass Wissenschaftler und Pressestellen von Instituten ihren Erfolg nach Klicks und Likes messen. Ein Schwerpunkt ist aber auch die Förderung des Journalismus, speziell des Wissenschaftsjournalismus. Er wirke, so die Stellungnahme, bisher als „neutraler Beobachter, der es dem Rezipienten zuallererst erlaubt, sich aufgrund einer möglichst neutralen Darstellung ein eigenständiges Urteil zu bilden“.

Eine zentrale Institution für die Wahrheit?

Viele Medienunternehmen stecken aber in der Krise, weil ihre Einnahmequellen auch wegen der Kostenlos-Praktiken im Internet wegbrechen. Hier regt die Arbeitsgruppe an, über eine zentrale „redaktionell unabhängige bundesweite Wissenschaftskommunikations- und Informationsplattform“ nachzudenken. Sie solle Berichte über Forschungsergebnisse „aggregieren, redaktionell bewerten und hinsichtlich ihrer Urheberschaft transparent machen“, aber frei vom Einfluss des Staates und der Wissenschaftsorganisationen arbeiten können.

Eine solche „Deutschland-Redaktion stieß bei etlichen Experten auf Widerspruch. Solle das etwa eine „zentrale Institution der Wahrheit“ werden, fragte Markus Weißkopf von der Organisation „Wissenschaft im Dialog“ polemisch. Eigentlich sei das Ideal doch pluralistische Berichterstattung. Franziska Badenschier vom „Science Media Center“ in Köln mahnte, man solle doch lieber die noch arbeitenden Journalisten stärken als eine solche Institution zu schaffen. Und die freie Journalistin Tanja Krämer, Mitbegründerin von Riff-Reporter, warnte: „Da verschwimmen die Grenzen von unabhängigem Journalismus und Wissenschaftskommunikation.“ Letzteres ist für Journalisten ein Synonym für interessengeleitete Wissenschafts-PR. Die Akademien-Arbeitsgruppe sieht darin freilich einen neutralen Oberbegriff. Holger Wormer erwiderte darum: „Das Ziel, die Gesellschaft mit zuverlässigen Informationen zu versorgen, ist gefährdet. Darum ist es fast schon egal, mit welcher Koalition von Wissenschaftskommunikation und Journalisten man das macht.“

Insgesamt könne die Wissenschaft durchaus mutiger in ihren Ideen und Forderungen sein, fasste am Ende Gerd Billen zusammen. Er präsentierte einige Einfälle, wobei er betonte, das sei nicht die Meinung der Regierung, sondern seine private. Wie in der Umweltpolitik müsse man „Kosten internalisieren“. Dieses Stichwort wird zum Beispiel verwendet, wenn die Betreiber von Kohlekraftwerken für das bisher kostenfreie Entsorgen von Kohlendioxid eine Abgabe bezahlen müssen. Wer „geistige Umweltverschmutzung“ betreibe, den könne man zum Beispiel verpflichten, auf eigene Rechnung professionelle journalistische Inhalte in seinem Netzwerk zu verbreiten. Und analog zur Initiative etlicher Europa-Politiker, jedem 18-jährigen ein Interrail-Ticket für eine Reise über den Kontinent zu schenken, schlug Billen vor, jungen Leuten Zeitungsabonnements zu bezahlen. Das würde gleich mehrere Fliegen mit einer Klappe schlagen: Die Medienkompetenz der jungen Leser stärken und die Journalisten fördern.

Hinweis: Dieser Text ist zuerst auf der Plattform Riff-Reporter erschienen.

Quelle: Riff-Reporter

Der March for Science und das Mittelalter

Hamburg, 24. April 2017

Science March in Hamburg: Nach der ersten Kundgebung geht es vom Rathausmarkt los
in Richtung Jungfernstieg. Foto: C. Schrader 

Am Samstag waren etwa 1500 bis 2000 Menschen auf dem Hamburger Rathausmarkt beim hiesigen March for Science. Es war einer von 600 auf dem ganzen Planeten, die in Solidarität mit dem Protest der amerikanischen Wissenschaftler stattfanden. Diese marschierten in Washington, andere demonstrierten auch in der Antarktis, unter Wasser vor Hawaii und in etwa 20 deutschen Städten, darunter Heidelberg, Berlin und München.

Als ich vor dem Hamburger Rathaus stand und dort den Reden zuhörte, dachte ich an eine Passage aus dem Buch „Eine kurze Geschichte der Menschheit“ von Yuval Noah Harari. Er definiert die Entwicklung unserer Spezies als eine Abfolge von drei Revolutionen, der kognitiven vor 70000 Jahren, der landwirtschaftlichen vor 12000 Jahren und der wissenschaftlichen vor 500 Jahren. In dieser sind wir noch mitten drin, und der Anlass der Demos war, dass wir gerade eine Art Konterrevolution erleben: Der Einfluss der Wissenschaft auf das Denken und die Politik soll zurückgedrängt werden. Um dem entgegenzutreten, forderten die Veranstalter der Märsche – und damit die Teilnehmer – eine Art Evidenz-basierter Politik, also gesellschaftliche Entscheidungen, die sich auf wissenschaftliche Erkenntnisse stützen, zumindest dort, wo sie vorhanden sind.

Foto von twitter, Bearbeitung: cs

Es ist interessant, wie Harari das Wesen der wissenschaftlichen Revolution definiert. Sie habe mit dem Eingeständnis des Unwissens begonnen, sagt er. Im Mittelalter war die Menschheit, jedenfalls in Europa, aber auch in anderen Kulturkreisen, der Meinung, alles Wissenswerte sei schon bekannt. Wer sich bildete, nahm dieses vorhandene Wissen in sich auf, niemand sah die Notwendigkeit, darüber hinaus zu denken. Was nicht bekannt war, war unwichtig. Und Empirie, die dem scheinbaren Wissen widersprach, konnte daran auch nichts ändern, manchmal war sie sogar gefährlich.

Dieses Bewusstsein änderte sich zu Beginn der Neuzeit. Harari illustriert das am Beispiel der „Entdeckung“ Amerikas. Christopher Columbus segelte 1492 in der festen Erwartung los, den Seeweg nach Indien zu finden. Er betrachtete die Karibik-Inseln, auf denen er landete, als Teil Indiens (noch heute heißen sie westindische Inseln) und nannte ihre Bewohner Indios. Bis zu seinem Tod beharrte er auf dieser Postion. Und dann kam der „erste moderne Mensch“ Amerigo Vespucci, der um das Jahr 1500 nach Europa von einem unbekannten Kontinent berichtete, vor dessen Küste Columbus‘ Inseln lägen. Es war ein Kontinent, von dem die Gelehrten seiner Zeit nichts wussten, der in ihren Büchern nicht vorkam, den es nach mittelalterlichem Denken nicht geben konnte. Harari urteilt: „Im Grunde ist es nur gerecht, dass ein Viertel der Welt nach einem unbekannten Italiener benannt wurde, an den wir uns heute nur deshalb erinnern, weil er den Mut hatte zu sagen: ,Wir wissen es nicht.'“

Das Weltbild des Mittelalters war natürlich stark geprägt von heiligen Büchern. Und die Menschen lebten in Ehrfurcht davor. „Es war unvorstellbar“, schreibt Harari, „dass die Bibel, der Koran oder die Vedas ein entscheidendes Geheimnis des Universums übersehen haben könnten, und dass es an gewöhnlichen Sterblichen sein könnte, dieses Geheimnis zu lüften… Was die mächtigen Götter nicht offenbarten und was die Weisen der Vergangenheit nicht in ihre Schriften aufnahmen, war definitionsgemäß irrelevant.“

Und da – jetzt spinne ich Hararis Analyse weiter –  haben wir doch eine Erklärung für die Wissenschafts-Feindlichkeit, die uns zum Beispiel aus den USA entgegenschlägt. Die religiöse Rechte, die dort jetzt den Ton angibt, beharrt darauf, dass Gott die Geschicke der Welt bis ins Detail lenkt, und verlangt Unterordnung unter die himmlische Fügung (und ganz nebenbei kann man dann noch die eigenen Interessen der biblischen Botschaft unterjubeln): Am klarsten zeigt sich das bei der Opposition gegen die Evolutionsforschung und den Evolutionsunterricht in den Schulen. Es ist aber auch in den Debatten über den Klimawandel, Impfungen oder Gentechnik zu erkennen. In dieser Hinsicht führt der Gegenwind gegen die Wissenschaften sozusagen in das Mittelalter zurück nach dem Motto: Es ist nicht am Menschen, die Geheimnisse Gottes zu lüften und zu entweihen.

Es ist nötig, sich diese Positionen einmal auf diese Weise klar zu machen. Natürlich will von den Anhängern der Trump-Regierung niemand zurück ins Mittelalter. Aber die geistige Haltung, der Wissenschaft keinen zentralen Wert mehr in der Gesellschaft einzuräumen, hat viele Parallelen zur damals verbreiteten Position des Nicht-Wissen-Wollens.

PS: Zwei Bemerkungen noch. Erstens: Dass es der Wissenschaft erfolgreich gelingt, viele Geheimnisse zu lüften, nehmen manche als Beleg, dass es Gott gar nicht gibt. Das halte ich für eine unzulässige Verkürzung, außerdem tritt man damit den Menschen vor das Schienenbein, für deren Identität der Glauben an Gott zentral ist. Das ist nicht nur grundlos verletzend, sondern auch sinnlos und taktisch unklug, weil es Reaktionen wie die jetzige beschleunigen kann. Zudem gibt es in den Kirchen viele kluge Menschen, die zwischen Religion und Wissenschaft überhaupt keinen Widerspruch sehen, auch und gerade auf den Gebieten Evolution und Klimawandel.
Zweitens: Dass sich Politik auf wissenschaftliche Erkenntnisse stützt, unterstütze ich natürlich vollkommen. Doch das greift zu kurz, denn die Resultate der Wissenschaft können gesellschaftliche Entscheidungen ja nicht ersetzen. In der Klimadebatte zum Beispiel kann man sehr wohl verschiedene Kurse steuern, wenn sie alle die Leitplanken einhalten, die die Wissenschaft gesteckt hat. Insofern müsste man eigentlich fordern, dass Politik den Erkenntnissen der Forschung nicht widersprechen sollte, sie darüber hinaus aber ihren Gestaltungsfreiraum ausschöpfen kann – und dass sich jeder in einer Demokratie daran beteiligen kann. Das ist vielleicht nicht sexy genug für den Aufruf zu einer Demonstration, aber zentral für das Selbstverständnis des Wissenschaftlers als Bürger. Wie heißt es beim IPCC: policy relevant but not policy prescriptive.

Scientific method and so-called skeptics

This is an addendum to the answer I have tried to give to Scott Adams‘ (the creator of Dilbert)
question on why science can’t seem to persuade climate skeptics. The basic answer is: Because they don’t want to be convinced. Maybe I should leave it at that, but I feel that maybe some people could indeed benefit by discussing the finer points of the methods of science Adams is targeting with his post. So this is for those specialists (this post not being announced anywhere but at the end of the main answer I have given).

Dear Scott Adams, I’ll dip into some of your points 1 through 14 here. I’ll go at my own pace, I am not necessarily going to jump the hoops you hold up. If you want to skip ahead: I will be dealing with

For starters this business about supplying a number, a percentage of how much of global warming was man-made. The IPCC said in 2013: “It is extremely likely that human influence has been the dominant cause of the observed warming since the mid-20th century.“ The UN-body elsewhere defines “extremely likely” as 95 to 100 percent probability. But it doesn’t give a number for “dominant”.

Let’s figure this out. Since the only other category except human influence would be non-human or natural influence we have a two-way-split. I think it would be safe then to assume that dominant means decidedly more than 50 percent. And if you look at this figure from that same IPCC report, you would think it is closer to 100 percent, wouldn’t you? Without human influence there would be little to no warming, that’s those blue bands. Add human and natural together and you get the pinkish bands around the actual observations. It’s clearer in larger regions with more data: temperatures in North America, Europe, Asia, Australia show no overlap of the colored bands anymore. And it’s most clear in global averages. And there are literally 1000s of sources in the IPCC report.

Source: IPCC, AR5, WG1, Figure SPM.6 

Maybe well over 50 to 100 percent human influence is still too vague for you. Sorry, things are not as simple as we all would like them to be. Anyways: Any single number would most certainly be evidently wrong in the precision it radiates. And attack would be sure to follow. Another of the mock debates surrounding this issue.

Next: Why do you fight being told the rate of warming was a tell-tale sign of what is happening? Rates are often as important or even more so than absolute numbers in every day life, too. Consider the task of sending a message from New York to San Francisco: The distance has stayed the same since both cities are on the map. First you could send it via stage coach, then by train, plane, now e-mail. The amount of time went from weeks to seconds and that means the speed of transmission, the rate of transport went up by orders of magnitude. Not such a difficult concept, is it? And that doesn’t mean heat and cold records aren’t relevant information, too. In fact they are, and there are way more new heat records than new cold records. By 4:1, here is a source for the US.The point is, if there was no change, then there would randomly be new cold and heat records in about the same proportion.

Arctic vs Antarctic: The ice goes away in the north and grows in the south, you say, and accuse scientist of ignoring that. Well, they aren’t, there is lots of research trying to figure out what is happening in both areas. If you think scientist are hiding that ice is growing down south then maybe you are listening to somebody who wants you to think they are hiding it. You can, for instance, look here if you interested in sea ice. For land ice, this might be a good starting point – the question, it says, in under debate.
There are several big differences between the regions that make the simple comparison you demand difficult, to put it mildly. Antarctica is a continent surrounded by ocean and fierce circumpolar currents that basically give it its own independent weather. The Arctic is an ocean surrounded by continents and tightly coupled to what happens with storms, temperatures and precipitation in many countries around it including yours and mine. The northern polar region belongs to a hemisphere that contains two thirds of earth’s land mass – including the major industrial nations with their emission histories. The southern has one third of the land including Antarctica and is otherwise 81 percent water. Why would you expect the two regions to be mirror images? It’s also not as if they were shifting ice masses between them making the changes a zero-sum-game. It is a little like adding the scores of the Chicago Bears, Cubs, Bulls, Black Hawks and Red Stars and comparing them to a sum of clubs from Los Angeles to see which is the better sports town.

And just to finish up with details, your point number 11.

  • Why aren’t insurance companies paying attention to sea level rise? They are. The US flood insurance program is recognized to be in dire need of reform because of rising seas (here, here and here, the last being a report by the National Academy of Sciences). And internationally take the example of Munich Re. It says in its annual report (page 74) that “Climate change represents one of the greatest long-term risks of change for the insurance industry”. It quotes the cost of adapting to sea level rise as 1 trillion dollars for the US alone. And university analysts have given it thumbs up on its response.
  • Why do your beaches look the same? Well, Wikipedia has you living in California, the Eastern Bay area to be exact, and I assume you might be going to Santa Cruz or thereabouts. So let’s look at a map. Here is Santa Cruz with the inundation 2010, 2060 and 2100 (Source). The water has been progressing slowly (and presumably local authorities have taken care of their beaches) but changes will accelerate.
                              Source: Monterey Bay Sea Level Assessment by Noaa

    The numbers in one projection are: seven inches rise last century, six more until 2030, another six until 2050, and two more feet on top by 2100. So you are in the middle of the two-inches-per-decade phase between 2000 und 2030. That’s not easy to notice by naked eye especially when there is maintenance going on. The water will rise, your state authorities say.
  • Why are half the top hits in web searches debunking the rise? Are you honestly asking that? It’s not about the quantity of hits but about the quality of sources. Bloggers have made it their business to attack the science and since they get shared and linked across a parallel universe the Google algorithms think the sites are trustworthy. They get ranked high like science sources who often don’t spend as much time on search engine optimization. For fun try “aliens landing earth” or “Barack Obama muslim” to see the quota of reliable information.

Now for the grand finale, your major and indeed first point: models. Maybe you have been impatiently skipping down here (or maybe you have tuned out) because the IPCC-graph I showed earlier depends on models. How else would you be able to artificially switch off human contributions? That’s nothing we can do in real life.

But why do we need models, in plural, at all? Well, that’s a tenet of science. You make multiple measurements because each one could be flawed, and then you look at what the tendency, the average, the median is, or whatever statistical analysis of them tells you. It’s easy to make fun of that, I know. In everyday life one measurement usually suffices. Has your kid gained another inch, have you lost weight, are the panels of your strip all the right size, is there enough flour in the cookie dough, how many people are at the party, is there enough pressure in your tires, how many e-mails do you get in a single day? Nobody does multiple measurements and statistical analysis for those. Well, for the e-mails you might to eliminate the effect that there could be systematically higher numbers on single days, maybe Mondays and Fridays – just guessing.

In science the questions are usually a whole lot harder, so this multiple measurement habit has proved to be a good idea. As has trusting science as a whole for society, by the way. A consequence of doing this, if you do it right, is that you get two numbers. The result you are looking for and a measure of confidence that that is a figure you can depend on. Scientists being a little nerdy often call the confidence measure “uncertainty”. And that is what it is, too. It is a measure of how uncertain we need to be – or certain we can be. In everyday language that word “uncertainty” comes across badly, just like scientists don’t know their stuff. In fact it is not a weakness but a strength of the scientific method. It has established ways of quality control that are certainly lacking from many other parts of communication – like getting directions in a strange town, remembering the weather two years ago, indicating the size of fish you caught.

When there are no measurement values to be had, because you are talking about a future that hasn’t arrived yet, you need to construct models. They simplify reality in a way that makes it computable, usually leaving out big chunks of the complicated stuff. As the saying goes, they are all wrong, but some are useful. For them also it is a good idea to have several, ideally constructed from scratch in independent, competitive research groups. If they point in different directions, all but one must be getting it wrong. If, however, they point in the same direction that can boost confidence they are getting something right.

Of course they could in principle still all be wrong. Then they all would make the same mistakes and that points to the underlying science being wrong. It’s equations about how pressure and humidity and wind and rain work together and how CO2 and other greenhouse gases influence the radiation that enters and leaves the atmosphere. Complicated stuff but pretty well tested, so the criticism against models is usually not leveled there.

This graph comes from the IPCC. It shows there’s some work to be done but not total chaos. It is a comparison of a whole lot of climate models hindcasting global temperatures over roughly 150 years and through several large volcano eruptions. Black and bold are the observations, red and bold is the average of the models, the thin lines are individual ones, the yellowish shading marks the reference period against which all temperature differences are measured.
Source: AR5, WG1, Figure 9.8, 2013

To prove that the equations and the mechanisms in the models are working together well researchers do this thing called hindcasting that irritates you so. The models start their work at some point in the distant past, fed with the initial conditions from that point in time and then run unguided through the years up to the present. The results can be compared to what actually happened and give the model makers a measurement of how good they are doing. Only if they pass that test can anyone place any confidence in them getting the future right.

„It tells you nothing of their ability to predict the future“, you say. I wonder why you would think you are in the position to judge that. Yes, hindcasting indeed tells us something about the ability to project the future, because the models prove they get the underlying science right. They calculated a future from 1850 onwards based on first principles. It’s just that for us, that future is the past.

I think it is seriously wrong to equate climate models to the financial market. You are missing something rather important. In climate science people actually know what is happening and what causes what. Obviously the minute details of dealings at the Stock Exchange are NOT known even remotely as well. If you insist on that kind of simile: The only thing that would be comparable is if you have a set of publicly available rules and based on that not one financial genius but a whole bunch of them put their predictions of the future into sealed envelopes guarded by a trusted institution only to be opened when the end year envisioned has arrived and all the data are in. And you would only count it as a success if everyone of those guys got it reasonably right.

Anyways, hindcasting of course is not the primary product of the models. It is a necessary quality check, nothing more, nothing less, and should no more be advertised than race track results for a new car model that will never go 150 mph in traffic. The results should be there for the asking, sure. But not center stage. If you see hindcasting as a major part of science communication around climate models you are looking at the communication in a different way from me. It’s safe to assume that neither of us has the right way to look so we both should be careful about what we say about them. I’ll certainly look out for exaggerated hindcasting language in the future. Maybe you can look beyond that.

Remember though I said that models were “ideally constructed from scratch in independent, competitive research groups” – well, not all of them are. There are connections between some research groups but not others. So some researchers are wondering if all the models should be treated equally, they question the model democracy, as they put it. This is brand new stuff. The suggestion is to weight the models and then to do weighted averages. In real life you would be using that technique maybe to locate a sports arena that several clubs will be using – and you want to giving the club with a 100 actives more say than the clubs with 25, 33 or 50 players. So you weight their respective answers with the number of members. In the case of the models the categories that could be used for weighting are independence – the unique efforts get more say – and skill in hindcasting. So there still is not what you wanted, the single best model, but more of a unified voice of them.

Finally to put the whole business into a framing you might understand (and I find weird examples work best to get points across): If you were to hold the secret theory that creating Dilbert was inevitable given your life’s twists and turns – how would you test that? You could recruit a number of young, very young kids and subject about half of them to the same experiences you had to see if they came up with a similar syndicated cartoon series. You would have control groups that get different experiences to test correlates: Could a woman become Scott Adams? Would there be Dilbert if there hadn’t been Little Nemo, Peanuts or Doonesbury before?

And since this in reality would be impossible or inhumane to subject people to you would think of models to give you an answer. Models, in plural, because if you only relied on one you could so easily get it wrong and never even know about it.

If you are seriously interested, it is a good idea to do this in plural. Scientists are seriously interested. And as a citizen following science news you would be better off not pushing for answers that leave out the best science has to offer. And that doesn’t just apply to models, that goes for most of your demands.

Aerosole: Problem gelöst?

sphinx11

Das Sphinx-Observatorium auf dem Jungfraujoch ragt so eben noch aus den Wolken. Foto: Paul Scherrer Institut/ Julie Cozic

 

Update: Diesen Beitrag habe ich am 29. Juni 2016 um eine Stellungnahme von Wissenschaftler aus Leipzig ergänzt

Hamburg, 26. Mai 2016

Das Jungfraujoch in den Berner Alpen beherbergt nicht nur den höchsten Bahnhof Europas, sondern auch das „Sphinx“ genannte Observatorium in 3580 Metern über dem Meeresspiegel. Wenn es sich in Wolken hüllt, wie auf dem Foto, sind vielleicht die Touristen enttäuscht, aber Forscher wie Urs Baltensperger vom Paul-Scherer-Institut in Villigen im Kanton Aargau sind in ihrem Element. Baltensperger ist Atmosphären-Chemiker und Mitglied mehrerer internationaler Forschungsgruppen, die auf dem Jungfraujoch und am Forschungszentrum Cern in Genf die Entstehung von Wolken untersuchen. An den jüngsten Daten der Teams entzündet sich nun eine interessante forschungspolitische Diskussion (wer gleich dorthin springen möchte, findet sie auf der zweiten Seite; hier folgt zunächst eine Einbettung.)

Damit sich der Wasserdampf in der Luft zu kleinen Tröpfchen verflüssigen kann, die dann wie weiße Schleier oder Wattebausche über den Himmel driften oder später als Regentropfen zu Boden fallen, braucht er Kondensationskeime. Das sind kleine Partikel, die in der Luft schweben, 50 bis 100 Nanometer (Millionstel Millimeter) groß. Etwa die Hälfte von ihnen bestehen aus Staub, Sand, Russ oder Meersalz; seit kurzem weiß man auch, dass Pflanzenpollen oder Pilzsporen solche primären Kondensationskeime bilden können. Die andere Hälfte heißt sekundär, weil sie sich in der Atmosphäre neu bilden. Dazu müssen sich allerdings viele Moleküle wie Ammoniak oder ätherische Duftstoffe sowie deren oxidierte Folgeprodukte zu Clustern zusammenfinden. Sie sind zunächst, wenn sie nur aus zwei Partnern bestehen, oft instabil und brauchen einen guten Klebstoff, um noch zusammen zu sein, wenn die Moleküle 3, 4, 5 und so weiter angedriftet kommen.

Ein wichtiger Klebstoff ist Schwefelsäure (H2SO4). Sie bildet sich in der Atmosphäre aus Schwefeldioxid, das Vulkanausbrüche sowie allerhand industrielle Prozesse freisetzen. Die Menge dieses Luftschadstoffs hat derart zugenommen, dass sich Forscher gar nicht erklären konnten, wie sekundäre Kondensationskeime ohne Schwefelsäure überhaupt entstehen konnten. „Bislang dachten wir immer, wir bräuchten einen Zwei-Komponenten-Kleber zum Beispiel aus organischen Molekülen und Schwefelsäure“, sagt Joachim Curtius von der Universität Frankfurt/Main in einem Artikel von mir in der Süddeutschen Zeitung. „Jetzt zeigt sich: Die erste Komponente reicht, wenn kosmische Strahlung dazu kommt.“* Curtius, Baltensperger und viele andere Forscher haben in dieser Woche dazu gleich drei Studien in hochrangigen Journalen veröffentlicht. In Nature steht, wie sich die Molekül-Cluster im Laborexperiment ohne Schwefelsäure bilden und zu geeigneten Kondensationskeimen heranwachsen. Und in Science berichten die Wissenschaftler, dass ähnliche Prozesse auch in der freien Atmosphäre über dem Jungfraujoch zu beobachten sind. Die Redaktion in Washington hat dafür sogar ihre Sperrfrist um einen Tag verkürzt, damit das Paper zum gleichen Zeitpunkt erscheint wie die beiden in London.

Letztlich bedeutet das: Die industriellen Aerosole sind weniger bedeutend als die Wissenschaft lange befürchtet hatte. Diese Angst stammt aus einer früheren Zeit, als die Erwärmung der Atmosphäre noch nicht so deutlich zu messen war. Die Menge an Kohlendioxid war zwar gestiegen, aber es schwebte auch viel Schwefelsäure in der Luft. Forscher nahmen also an, dass eine deutliche Aufheizung durch CO2 durch eine ebenso deutliche Abkühlung wegen des H2SO4 mehr oder minder kompensiert würde. Oder sie konnten es jedenfalls nicht ausschließen – und so wurde der Ausblick in die Zukunft noch weniger zuverlässig. Es bedeutete nicht nur eine Komplikation für das Design von Klimamodellen, die die Entwickung der Temperaturen sowie von Niederschlägen berechnen sollten. Sondern hier lauerte auch die Gefahr, dass die erwünschte Reinigung der Luft von Industrieabgasen mit ihren Schwefelausdünstungen den fühlbaren Klimawandel plötzlich beschleunigen könnte. Diese Sorge ist gebannt, wenn Schwefelsäure weniger wichtig für die Wolkenbildung ist als lange angenommen.

Weiter auf Seite 2

 

 

 

* In diesem Beitrag soll es nicht um das eben gefallene Reizwort „kosmische Strahlung“ gehen: Wer sich dafür interessiert, kann das in meinem SZ-Artikel und/oder in dieser Fußnote nachlesen. Kosmische Strahlung ist vor allem in der Diskussion mit oft verbohrten Kritikern der etablierten Klimaforschung zum Streitpunkt geworden, ich nenne sie mal die Kalte-Sonne-Fraktion. Deren Argument geht so: Das Magnetfeld der Sonne lässt manchmal mehr und manchmal weniger kosmischen Strahlen durch. Da diese wiederum einen Einfluss auf die Wolkenbildung besitzen, könnten sie den Wärmehaushalt der Erde beeinflussen – weniger kosmische Strahlung, weniger Wolken, mehr Sonnenlicht erreicht die Oberfläche, höhere Temperaturen. So ungefähr. Manche Kritiker destillieren aus dieser Möglichkeit die Behauptung, kosmische Strahlen und nicht die Treibhausgase seien die eigentliche Ursache der globalen Erwärmung – sämtliche politischen Initiativen zum Klimaschutz also sinnlos.

Diese These ist aus vielen Blickwinkeln beleuchtet worden und nirgends fand sich ein Beleg. Auch das Labor-Experiment CLOUD von Curtius, Baltensperger und anderen hat in etlichen Versuchsreihen keine geliefert. So ist es auch diesmal. Zwar können kosmische Strahlen die Entstehung der ersten kleinen Cluster mit einer Größe von ein bis zwei Nanometern deutlich verbessern, aber auf das Wachstum zum Kondensationskeim von 50 bis 100 Nanometern haben sie nach Aussage der Forscher „keinen Einfluss“. Zudem gibt es seit Beginn der Industrialisierung so viel Schwefelsäure in der Atmosphäre, dass die Dienste der kosmischen Partikel kaum noch gebraucht werden. Sie können vielleicht erklären, warum die Erde in früheren Epochen stärker auf die Veränderungen im Strahlungseinfall reagiert hat, aber sicherlich nicht, warum sie sich in der jüngeren Vergangenheit erwärmt hat.

 

Aerosole: Problem gelöst? Seite 2

IMG_4252

Wolken über Berlin – bei Sonnenuntergang von unten beleuchtet. Schwefelsäure in der Atmosphäre hat bei der Bildung sicherlich mitgeholfen. Foto: C. Schrader 

 

Hamburg, 26. Mai 2016

Fortsetzung von Seite 1

Aus diesem wissenschaftlichen Erfolg entspinnt sich eine interessante forschungspolitische Diskussion, die ich in meinem SZ-Artikel nur anreiße, und hier vertiefen will. Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, verbindet sein Lob für die Ergebnisse aus der Schweiz mit einer Forderung, die den Autoren der Studien kaum gefallen dürfte. Da sich die Aerosole als wenig bedeutsam gezeigt haben, solle man sie gleich ganz aus den Simulationen nehmen und die Erforschung ihrer Effekte auf das Klima einstellen. „Insofern bedeuten die Messungen einen großen Sieg: Wir können das zur Seite legen und uns wichtigeren Dingen widmen.“

Zur genaueren Erklärung hat Stevens nach dem Interview noch eine E-Mail geschickt.

My point is that these studies support the assertion that we probably don’t need to better understand the aerosols to advance on what are some of the first rank problems related to understanding climate change.  As I mentioned yesterday, air pollution and human health are big issues, and science should work on problems that interest scientists (to some degree) so it would be unfair and incorrect to say that we should stop aerosol research.
I’m just trying to say that it is less central to understanding climate than we perhaps believed 10 or even a few years ago… or for that matter before this study.  And knowing what might be important (for a particular problem) is often a great step forward when researching something as complex as Earth’s climate.

Seine Position ist nicht ganz neu: Stevens hat das 2013 bereits in einen Kommentar in Nature geschrieben. Die damals besprochene Studie von Ken Carslaw (der auch zu dem Autoren der beiden neuen Nature-Studien gehört) und anderen in Leeds habe gezeigt, so Stevens, dass „wenn es einen Aerosol-Joker gab, dann wurde er bereits vor einem Jahrhundert gespielt und ist irrelevant für das Verständnis momentaner und künftiger Veränderungen des globalen Klimas geworden“.

Diese Logik leuchtete damals nicht unbedingt jedem ein, forderten doch die Autoren der Studie, man müsse mehr über die „unverdorbene vor-industrielle Umwelt“ erfahren. Die natürlichen Aerosole trügen 45 Prozent zur heutigen Unsicherheit über die Wirkung der Schwebteilchen bei, die industriellen nur 34 Prozent. So groß erschien der Unterschied nicht, als dass man den kleineren Part einfach ignorieren könnte.

Doch inzwischen haben die Forscher um Baltensperger und Curtius ja Daten über die Verhältnisse vor der Industrialisierung geliefert. Sie lassen den Einfluss der industriellen Aerosole geringer als befürchtet erscheinen, also kann Stevens seine Forderung mit Verve wiederholen.

Es ist wenig Wunder, dass die Autoren der neuen Studien die Schlussfolgerung des MPI-Direktors nicht teilen. Joachim Curtius hat mir geschrieben:

Durch unsere Untersuchungen verbessert sich genau unser Verständnis der früheren, nicht durch Menschen belasteten Atmosphäre, und wir erreichen damit eine wesentliche Verringerung der Unsicherheit und unser bisheriges „poor knowledge“ wird verbessert. Das ist genau das was auch nach Herrn Stevens’ Meinung bisher gefehlt hat. Damit können wir die Aerosoleffekte jetzt genauer beziffern. Die Verringerung dieser Unsicherheit (die gleichzeitig die Unsicherheit beim Gesamtstrahlungsantrieb inkl. Treibhausgase dominiert) ist eine der ganz großen Herausforderungen und genau da tragen wir zur Verringerung der Unsicherheit bei und es ist in  meinen Augen höchst sinnvoll diesen Fragen weiter nachzugehen.  Und, ja, die Effekte werden wohl kleiner, aber sie werden nicht null.

Und Urs Baltensperger hat sich so geäußert:

Es ist zwar richtig, dass bei der heutigen Situation mit höheren Aerosolkonzentrationen eine Änderung von sagen wir 10% eine kleinere Auswirkung hat als in der vorindustriellen Zeit. (…) Dies bedeutet aber nicht, dass die Auswirkungen völlig egal wären; wir sprechen ja über viel größere Änderungen als 10%. (…) Der Strahlungsantrieb der Aerosole durch Wechselwirkung mit den Wolken  ist damit nach wie vor relevant, aber schlecht quantifiziert, und benötigt deshalb weitere Forschung, unter anderem, um die Effekte der vorindustriellen Zeit und damit auch die Differenz besser quantifizieren zu können. (…) Daneben gibt es aber nach wie vor den direkten Effekt der Aerosolpartikel mit der Strahlung (in unseren Papern gar nicht angesprochen), und da gibt es diesen Sättigungseffekt nicht. Ich kann aus diesen Gründen die Schlussfolgerungen absolut nicht nachvollziehen. Sie werden auch durch ständige Wiederholungen nicht richtiger.

Diese Diskussion hat unter anderem Bedeutung für das Design künftiger Klimamodelle: Brauchen Sie die zusätzliche Komplexität, die das Nachstellen der Aerosol-Chemie bedeutet oder nicht? Piers Foster von der Universität Leeds, der wie Stevens ein Lead Author des entsprechenden Kapitels im fünften Bericht des IPCC war, nimmt eine Art Mittelposition ein und wirbt für Pragmatismus – vor allem weil die Aerosole viel Rechenzeit verbrauchen.

I think the wider climate community needs to move to suites of related climate models with different degrees of complexities, so you can choose your climate model depending on the question you want to answer. The new UK Earth system model which is just going online is a case in point. Colleagues at Leeds, led by Ken Carslaw (author of the Nature papers) led the development of the aerosol scheme within this model. It contains the complexities talked about in the Nature papers, so it is a good one.
However, they are very computational expensive models to run and around 75% of the computer time within the Earth system model is taken up by the interactive chemistry and aerosol scheme. This severely limits the experiments we can do with it. So I think we also need the stripped down models with simplistic aerosol schemes – and these simple models can be used to explore many other very important problems in climate change not related to aerosols.

In der Tat empfiehlt aber auch er seinen Kollegen, bei ihren Forschungsanträgen in Zukunft nicht mehr zu betonen, die Aerosole machten die größte Unsicherheit in der Klimaberechnung aus. Das stimme einfach nicht mehr. „Die Aerosol-Community hat großartige Arbeit geleistet und es gibt noch viele Fragen, denen sie sich widmen kann: Luftqualität und der Beitrag der Aerosole zur Klimavariabilität sind zwei interessante.“
 

Ergänzung am 29. Juni 2016

Mehrere Wissenschaftler des Leibniz-Instituts für Troposphärenforschung in Leipzig und von der dortigen Universität haben mich gebeten, hier auch ihre Stellungnahme zu der These von  Bjorn Stevens zu dokumentieren.

Dieser Aussage möchten wir ausdrücklich widersprechen. Generell ist es sehr problematisch, aus den Untersuchungsergebnissen zu einigen organischen Partikelbestandteilen direkt auf deren Auswirkung auf die Wolkenbildung auf klimarelevanten Skalen zu schließen. Klimamodelle können Aerosol-Wolkenprozesse noch nicht ausreichend realistisch abbilden. Daher kann die Bedeutung der neuen Ergebnisse für die Klimaentwicklung nicht ohne weiteres abgeleitet werden. Dass die Einflüsse atmosphärischer Aerosolpartikel auf das Klima im Allgemeinen nicht ignoriert werden sollten, wird auch in einer gerade erschienenen, thematisch relevanten Veröffentlichung in der renommierten amerikanischen Fachzeitschrift ‚Proceedings of the National Academy of Sciences’ verdeutlicht (Seinfeld et al 2016). Hier stellen die Autoren heraus, dass selbst bei einer Verringerung der Empfindlichkeit von Wolkeneigenschaften in Bezug auf Aerosolpartikeln, es in Zukunft, z.B. auf Grund der sinkenden Partikelkonzentrationen, nicht weniger wichtig wird, die von ihnen verursachten Modifikation des Treibhauseffekts und damit ihre Wirkung auf das Erdsystem besser zu verstehen.

Die Schlussfolgerung, dass die Rolle von Aerosolpartikeln im Klimasystem verstanden, ihre Auswirkungen hinreichend geklärt und quantifiziert wären und somit zu diesem Themenkomplex nicht weiter geforscht werden solle, ist also in keiner Weise nachvollziehbar.

gez. Ina Tegen, Hartmut Herrmann, Andreas Macke, Frank Stratmann, Ulla Wandinger, Alfred Wiedensohler (Leibniz-Institut für Troposphärenforschung); Johannes Quaas, Manfred Wendisch (Leipziger Institut für Meteorologie, Universität Leipzig)

Zurück zur Startseite

Paris und das Klima – im Großen und Kleinen

ParisSidewalkClean_cHenryLawford
Früher Morgen am Quai du Voltaire. Die Straßen, bemerkt der Paris-Reisende Henry Lawford, seien perfekt gesäubert. Und gekühlt. Foto: Flickr/Henry Lawford 

Hamburg, 22. April 2016

Paris geht heute einmal mehr in die Geschichte ein. Unter den Klimavertrag, der dort im vergangenen Herbst ausgehandelt wurde, setzen in New York bei den Vereinten Nationen die ersten Staaten ihre Unterschrift. Das Abkommen soll helfen, die Erwärmung der Welt tatsächlich auf zwei Grad Celsius zu begrenzen, womöglich aber auch auf 1,5 Grad.

Der französische Präsident François Hollande hat bei der Zeremonie als Erster zum Füller gegriffen. Barbara Hendricks, die deutsche Umweltministerin war um 18:40 Uhr deutscher Zeit dran. Der US-Außenminister der USA, John Kerry, hielt seine zweijährige Enkeltochter bei der Unterschrift auf dem Schoß. Für jeden der Regierungschefs oder Minister wird die entsprechende Seite in einem dicken Buch aufgeblättert; nach etwa 40 Sekunden ist dann schon der nächste dran. Insgesamt hatten 171 Länder angekündigt, den Vertrag schnell zu unterzeichnen. 13 Staaten, vor allem Inselstaaten aus der Gruppe der Entwicklungsländer, wollen sogar bereits die Ratifikationsurkunden hinterlegen (Länder wie Barbados, die Malediven, Mauritius, Fidschi und Tuvalu, aber auch Somalia, Palästina und Belize). Das reicht zwar noch nicht, damit der Vertrag völkerrechtliche Gültigkeit erhält, aber es ist ein wichtiger symbolischer Schritt. In Kraft treten kann der Vertrag nämlich erst, wenn ihn mindestens 55 Länder ratifizieren, die zusammen für mindestens 55 Prozent der Treibhausgas-Emissionen verantwortlich sind.

Da China und die USA angekündigt haben, den Vertrag schnell zu ratifizieren, wäre die zweite der Bedingungen schnell erfüllt – so schreibt es zumindest die Süddeutsche Zeitung. Bei aller Freundschaft: Ganz so einfach ist es nicht. Neben den beiden Klima-Supermächten müssten noch zum Beispiel die sechs größten EU-Länder und Indien ratifizieren (gemäß 2014er-Daten des CDIAC). Es könnte aber, angesichts der Euphorie nach dem Abschluss von Paris, tatsächlich schnell gehen.

Außerdem ist aber in den USA umstritten, wie dort der Prozess der Ratifikation laufen soll. Die Regierung erklärt den Vertrag für nicht rechtlich bindend, darum müsse der Senat nicht darüber befinden. Dort würde Barack Obama wohl auch schwerlich eine Mehrheit finden. So schreibt es zum Beispiel die Washington Post. Das ist natürlich ein Trick, aber einer mit einem schalen Nebengeschmack: Die Regierung erklärt ja offiziell, dass sie sich nicht an die Vereinbarung halten muss (die ja ohnehin vor allem auf Freiwilligkeit setzt). Jeder Nachfolger des scheidenden Präsidenten, auch die klimaskeptischen Republikaner (oder was dieser Tage für Politiker dieser Partei durchgeht), wäre aber zumindest einige Jahre an den Vertrag gebunden, wenn er vor ihrem oder seinem Amtsantritt Rechtskraft erlangt.

Dass diese Auslegung, welchen Status der Vertrag für die USA hätte, aber rechtlich umstritten ist, wissen auch die W-Post und behaupten natürlich die rechte Presse und die entsprechenden Vordenker der Klimawandelleugner. Obama aber scheint mit der beschleunigten Anerkennung sicherstellen zu wollen, dass der Paris-Vertrag überhaupt Gültigkeit erlangt. Das Signal, wenn ein weiteres Mal die USA einen Vertrag zwar unterschreiben, aber nicht ratifizieren, wäre auch fatal.

Paris Morning Music_cChristineAceboAm Morgen wird der Gehsteig in vielen Pariser Straßen geschrubbt. Aufnahme mit freundlicher Genehmigung von Christine Acebo, Ashford/CT. Foto: Flickr

Vielleicht ist dieser Tag daher auch der richtige, neben dem großen Beitrag von Paris zum Klima auch einen kleinen zu würdigen. Hier geht es nicht um das Weltklima, aber immerhin um das Stadtklima. Wer schon einmal morgens in der französischen Hauptstadt  unterwegs war, um irgendwo über Café Au Lait und Croissant den Tag zu planen, der hat bestimmt gesehen, was die Einheimischen mit ihren Gehsteigen machen: Sie wässern und fegen sie (und manche Besucher fotografieren das sogar, danke an die genannten Flickr-User). Tatsächlich ist das mehr als die Privatinitiative von einzelnen Bistro-Besitzern oder Concierges, es steht ein System dahinter. An vielen der Straßen und Boulevards läuft Wasser entlang. Und das hilft tatsächlich nicht nur der Sauberkeit, und erfreut die Tauben, sondern dämpft den sogenannten Wärmeinsel-Effekt, wonach Städte viel heißer werden als das umgebende Land.

ParisStreetCleaning_cJayt74Auch Profis wässern die Straßen. Foto: Flickr/Jamie Taylor

Ein Team um Martin Hendel von der Sorbonne hat nachgemessen: Die Lufttemperatur geht um bis zu 0,8 Grad zurück. Das bringt wahrscheinlich an einem heißen Nachmittag noch keine wirkliche Erleichterung, aber jedes bisschen hilft. Die Forscher haben echte Experimente gemacht und benachbarte Straßen-Abschnitte verglichen. Zum einen in der Rue du Louvre im Stadtzentrum, wo ein Sprühwagen der Stadtreinigung alle 30 Minuten durch einen Abschnitt fuhr und durch einen anderen eben nicht (zwischen 11:30 Uhr und 14 Uhr hatten die Angestellten offenbar Mittagspause, da sprühten sie nicht, aber sie waren immerhin zurück, als die Sonne in die Straßenschlucht fiel). Zum anderen die ungefähr parallel verlaufenden Rue Lesage und Rue Rampeneau in Belleville im 20. Arrondissement. Hier lag – nur in ersterer – ein Schlauch mit Sprühventilen im Rinnstein.

Die Autoren haben darüber immerhin ein 16-Seiten-Paper veröffentlicht (Urban Climate, doi: 10.1016/j.uclim.2016.02.003). Um fair zu sein: Es geht ihnen dabei auch um die korrekte statistische Auswertung der Befunde. Und manchmal muss man eben auch einfach mal Dinge beweisen, die man schon intuitiv als richtig erkannt hat. Oder – siehe den Vertrag – Dinge tun, auf die anhand überwältigender Belege schon die halbe Welt gewartet hat.

ParisTaubenIMG_3594Eine Badewanne für Tauben. Foto: Christopher Schrader

Update: Im Lauf der Zeremonie und danach habe ich einige der Formulierungen von „wird erwartet“ hin zu „ist geschehen“ angepasst.

Welche Pause?

NoaaJan-OctTempsSo sieht es aus, wenn die globale Erwärmung erlahmt, oder? Foto: Noaa

„Seepage“, das ist im Englischen ein technischer und geologischer Begriff, der etwas mit Ein- oder Durchsickern zu tun hat. Je nach den beteiligten Flüssigkeiten kann der Vorgang einigermaßen unappetitlich werden, und es ist anzunehmen, dass diese Assoziation Stephan Lewandowsky und Naomi Oreskes ganz willkommen war. Sie haben den Begriff nämlich ins Feld der Wissenschaftsgeschichte übertragen. In einem vielbeachteten Aufsatz monieren die beiden (er ist Psychologe von der Universität im britischen Bristol, sie Wissenschaftshistorikerin an der Harvard University), die Klimaforschung als Disziplin habe sich von ihren Kritikern die Agenda diktieren lassen. Regelrecht eingesickert ins Gewebe der Wissenschaft seien die ständigen Attacken der Lobbygruppen in Gestalt sogenannter Thinktanks und anderer Kritiker. Viele Forscher hätten versucht, Argumente der Kritiker mit ihrer Forschung inhaltlich zu entkräften, die sie eigentlich schon aus formalen Gründen als falsch hätten erkennen können. Aber dabei hätten sie eben die Prämisse der Angriffe akzeptiert und so legitimiert.

Lewandowsky, Oreskes und ihre Mitstreiter belegen ihre These anhand des Begriffs der sogenannten Erwärmungspause. Schon 2006 hatten die Kritiker damit begonnen, immer wieder zu behaupten, seit 1998 habe sich die Erde nicht mehr erwärmt. Dieses Anfangsjahr war offensichtlich mit Bedacht gewählt, denn es ragte als Rekordjahr weit über die bis dahin verfügbare globale Temperaturstatistik hinaus. Damals hatte zwar die Nasa schon für 2005 einen neuen Rekord ausgerufen, seither haben 2010 und 2014 jeweils Spitzentemperaturen erreicht, und auch 2015 ist der Platz Eins in der Statistik kaum noch zu nehmen. Aber solche Details haben die Kritiker nie groß interessiert.

Grundsätzlich ist ein Zeitraum von zunächst acht, inzwischen knapp 17 Jahren nicht lang genug, um Klimatrends zweifelsfrei zu belegen. Das Lewandowsky-Team listet dennoch 51 wissenschaftliche Aufsätze allein aus den Jahren 2013 und 2014 auf, die sich mit der angeblichen Pause befassten und Ursachen dafür suchten. Zudem übernahm der IPCC im Jahr 2013 das Argument und erklärte, die Erwärmung seit 1998 sei hinter den Erwartungen zurückgeblieben. Damals rätselte alle Welt, ob der Weltklimarat in seiner wichtigen Zusammenfassung für politische Entscheidungsträger sogar das Wort „Pause“ oder das verklausulierte, aber letztlich gleichbedeutende „Hiatus“ verwenden würde – er verzichtete darauf. Unter anderem die deutsche Delegation hatte sich dafür verwendet.

Es war jedoch anhand mehrerer Studien bald klar, dass an der Pause wenig dran ist; inzwischen belegen mehrere Untersuchungen sogar, dass es nicht einmal eine nennenswerte Verlangsamung der Erwärmung gegeben hat. „Das Einsickern passiert, wenn Wissenschaftler linguistische Ausdrücke übernehmen, die außerhalb der Wissenschaft aus politischen Gründen geschaffen wurden“, erläutert Lewandowsky. „Ironischerweise droht diese Gefahr auch dadurch, dass Forscher sich gegen den Ausdruck wenden, ihn aber dabei verwenden.“

Das alles ist einerseits nicht brandaktuell, denn die Seepage-Studie ist im Sommer 2015 erschienen. Andererseits aber doch. Denn eine Untersuchung, die mit wissenschaftlichen Methoden die Luft aus dem Hiatus-Gerede lassen wollte, ist gerade zum Gegenstand eines Streits in den USA geworden. Dort übt der republikanische Kongress-Abgeordnete Lamar Smith (aus Texas) Druck auf die Behörde für Ozeane und Atmosphäre Noaa aus. Sie solle alle Dokumente und E-Mails im Zusammenhang mit einem Science-Paper vom Juni herausgeben, weil Smith angeblichen Hinweisen auf Manipulationen von Daten nachgehen will. Die Behörde lehnt das ab und bekommt viel Unterstützung dafür.

Die Science-Studie von Thomas Karl, dem Direktor des Noaa-Zentrums für Umweltinformation, schlägt eine Rekalibrierung von Temperaturmessungen vor. Es geht um die Wassertemperaturen, die auf Schiffen gemessen wurden. Das Thema klingt langweilig, hat es aber in sich. Denn wird die Korrektur angewandt, dann verschwindet fast jedes Zeichen, dass sich die Erde zwischen 1998 und heute irgendwann langsamer erwärmt hat. Und Karl sagte, bzw schrieb mir, als ich in der SZ darüber berichtete, die neue Kalibrierung solle 2016 auch in den offiziellen Datensatz der Noaa einfließen – also in eines der beiden wichtigsten Zahlenwerke, die die globale Erwärmung dokumentieren.

Das konnten die organisierten Kritiker der Klimaforschung nicht zulassen. Die Attacke des Abgeordneten Smith folgt dabei einer geradezu lehrbuchhaften Taktik, die vor allem durch Joe McCarthy bei seiner Kommunistenhatz im Kalten Krieg perfektioniert wurde. Und weil es durchaus personelle Kontinuität zwischen den Falken von damals und den Thinktanks von heute gibt (siehe Oreskes’ Buch Merchants of Doubt), haben auch Klimaforscher diese Methode zu spüren bekommen. Zuerst Michael Mann von der Pennsylvania State University und jetzt eben Thomas Karl. Dessen These, dass es eigentlich überhaupt keine Erwärmungspause gegeben habe, ist übrigens schon vorher und nachher unabhängig aufgestellt und mit jeweils anderen Methoden und Daten begründet worden; die Zahl der entsprechenden Studien hatte zunächst vier, dann vierzig betragen. Das letztere Beispiel stammt wieder von dem Lewandowsky-Oreskes-Team.

Aktuell ist die Seepage-Diskussion auch deswegen, weil sie ein Beispielfall für Wissenschafts-Philosophen geworden ist. Ich habe vor einigen Tagen in der SZ darüber berichtet, dass sie über die Unterscheidung von schädlicher und produktiver Kritik an wissenschaftlichen Erkenntnissen debattieren. Einerseits ist ja klar, dass Einwände gegen neue Thesen geäußert werden dürfen und sollen, weil sie den Erkenntnisprozess oft vorantreiben. Auch wenn es nur dadurch geschieht, dass die Kritisierten sich ihrer Argumente klarer werden. Andererseits nutzten gerade die organisierten Lobbisten diesen Mechanismus, um Klimaforscher mit aufgebauschten oder erfundenen Einwänden zu bedrängen. Es reicht ihnen schon, den Anschein einer wissenschaftlichen Kontroverse zu erzeugen, dann können sie darauf verweisen und dringend davon abraten, sich auf die Wissenschaft zu verlassen, um irgendwas zu regulieren oder gar eine Abgabe auf den Ausstoß von Treibhausgasen zu beschließen.

Dennoch ist gerade bei der Diskussion über die angebliche Erwärmungspause sehr die Frage, ob das per se unwissenschaftlich ist. Lewandowsky und Oreskes meinen offenbar: ja. Doch die vielen Aufsätze, die dazu mittlerweile erschienen sind, haben die Wissenschaft ja auch weitergebracht. „Wenn das nicht der dumpfe Trommelschlag der Klimaskeptiker gewesen wäre, wüssten wir heute vielleicht viel weniger darüber, wo sich Wärme verstecken kann, zum Beispiel im tiefen Ozean“, sagt Mathias Frisch, ein deutscher Wissenschaft-Philosoph an der University of Maryland.

Ein pragmatisches Argument mit ähnlicher Zielrichtung hat Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Er sieht die Arbeit weder als verloren noch als sonderlich fremdbestimmt an: „Das gab uns die Gelegenheit, über natürliche Variationen im Klimasystem zu sprechen, ohne dass man uns angähnt.“ Schließlich ist das Weltklima ein komplexes System, dessen Stellgrößen man noch längst nicht komplett verstanden hat. Es gibt offenbar zyklische Vorgänge, die einen Erwärmungstrend eine Weile maskieren können.

Zum Verständnis stelle man sich einmal die Bewegung eines Jojos an der Hand eines Kindes vor, das in einem Fahrstuhl nach oben fährt. Auch hier ist es möglich, dass das Spielzeug für eine kurze Zeit sozusagen stehen bleibt, bevor es dann umso schneller aufsteigt. Diesen Mechanismus jetzt diskutiert und genauer zu untersucht zu haben, hält Marotzke für einen großen Gewinn. Wäre das erst später passiert, wenn ein globales Abkommen zum Klimaschutz bereits beschlossen ist und das Publikum auf seinen Effekt wartet, dann hätte der politische Rückschlag deutlich heftiger ausfallen können, so der Max-Planck-Forscher.

Einen Beleg, dass man solche Warnungen ernst nehmen sollte, liefert die Ozonschicht. Um sie zu schützen, gilt seit 25 Jahren das Montreal-Protokoll mit seinem Verbot von FCKWs. Doch eindeutiger Fortschritt ist nicht zu erkennen, das Ozonloch wird eben nicht stetig immer kleiner. Wissenschaftler müssen ihr Publikum dann immer wieder vertrösten und ernten so mindestens hämische Kommentare. Da kann man sich ausmalen, was bei einem weitaus kontroverseren Abkommen gegen Treibhausgase passieren würde.

Christopher Schrader, 24. November 2015, alle Rechte vorbehalten

PS1: Auf Twitter hatte ich vor der Konferenz der Philosophen in Karlsruhe verkündet, es solle dort auch darum gehen, den sogenannten Klimaskeptikern das Wort Skepsis wieder zu entwinden, weil die seriöse Wissenschaft nicht ernsthaft darauf verzichten kann. Ich habe das dort auch gefragt, aber leider keine guten Rezepte gehört. Ein Teilnehmer sagte, wahrscheinlich könne man das Wort nur befreien, wenn man einen anderen griffigen Ausdruck für die Kritiker findet. Bisher ist keiner in Sicht, ich selbst eiere da auch herum. „Kritiker der etablierten Klimaforschung“ hat schon mal sieben Silben mehr als „Klimaskeptiker“. Im Englischen wird oft das Wort „denialists“ verwendet, aber das geht im Deutschen nicht. „Leugner“ ist durch die Holocaust-Leugner besetzt, und deren Behauptungen sind dann doch noch etliche Stufen widerlicher.

PS2: Full Disclosure – die Veranstalter der Karlsruher Konferenz haben meine Reise- und Übernachtungskosten für die Teilnahme bezahlt. So weit ich weiß, hatten sie eine DFG-Finanzierung dafür. Und ich habe dort auch mit diskutiert, statt passiv am Rand zu sitzen und alles zu beobachten. Dazu bewegt mich das Thema auch zu stark.

 

Die Goldlöckchen-Temperatur

21.10.2015

Zusammenfassung: Eine Analyse von 166 Ländern zeigt, wie ihre Wirtschaft vermutlich auf den Klimawandel reagieren wird. Entscheidend ist dabei nicht, wie groß das Nationaleinkommen ist, sondern wie hoch die jährliche Durchschnittstemperatur liegt. Jenseits von 13 Grad Celsius bringt die globale Erwärmung auch reichen Nationen Verluste.

In Russland, Skandinavien oder Kanada können sich die Menschen eigentlich auf den Klimawandel freuen: Er dürfte ihnen großes Wirtschaftswachstum bringen. Viele Studien zeigen, wie Landstriche im Hohen Norden mit der globalen Erwärmung freundlichere Temperaturen erreichen, die verstärkte Agrarwirtschaft und generell eine intensivere Nutzung der Ressourcen und Bodenschätze erlauben. Die Schäden an der bisherigen Infrastruktur, die etwa in den sibirischen Weiten  im aufgeweichten Permafrostboden versinkt, bremsen den Aufschwung nur ein wenig. Wo eine neue Wirtschaftszone entsteht, lassen sich die Kosten für den Neubau einer Straße verschmerzen.

Doch solche Vorteile werden vermutlich nur wenige Staaten der Erde erleben. Drei Ökonomen aus Kalifornien haben jetzt ein verblüffend einfaches Kriterium dafür berechnet, wer dazu gehört: Wenn die jährliche Durchschnitts-Temperatur eines Landes bei bis zu 13 Grad Celsius liegt, kann es mindestens zunächst vom Klimawandel profitieren. Ist sie höher, dürfte der globale Wandel den Staat Wachstumsprozente kosten; bei den ärmsten Ländern in den heißesten Regionen kann es sogar zu einem Schrumpfen der Wirtschaft führen. „Die Reaktion der reichen Länder ist dabei sehr ähnlich wie die der armen“, schreibt Marshall Burke von der Stanford University, einer der drei Forscher, in einer E-Mail. Seine Kollegen Solomon Hsiang und Edward Miguel kommen von der UC Berkeley auf der gegenüberliegenden Seite der San Francisco Bay. „Der wichtigste Unterschied zwischen den Ländern“, so Burke, „ist ihre Durchschnittstemperatur, nicht ihr Durchschnittseinkommen.“

Wie sich die Welt nach dem 13-Grad-Kriterium in Gewinner und Verlierer aufteilt, zeigt eine Karte in dem Forschungsaufsatz der drei Ökonomen, der in Nature erschienen ist (online; doi: 10.1038/nature15725). Demnach dürfte es Vorteile auch für große Teile Europas geben (die deutsche jährliche Durchschnittstemperatur zum Beispiel hat 2014 zum ersten Mal die 10-Grad-Marke überstiegen). Sonst aber profitiert kaum ein Land, auf längere Sicht nicht einmal Wirtschafts-Supermächte wie die USA oder China, die beide heute schon nahe an der Idealtemperatur von 13 Grad Celsius liegen (die USA hatten in ihrem Rekordjahr 2012 eine Mitteltemperatur von 12,9 Grad; 2014 waren es 11,4 Grad).

GoldilocksTempEconCC_Fig4aDie Grafik zeigt, wie sich das Nationaleinkommen pro Kopf der Bevölkerung bis 2100 verändert, wenn zur angenommenen wirtschaftlichen Entwicklung ein ungebremster Klimawandel hinzukommt (IPCC-Szenario RCP8.5). Blautöne bedeuten ein Profitieren
vom Klimawandel, in rosa und rot gefärbten Ländern kostet die Erwärmung wirtschaftliches Wachstum.
Quelle: Burke et al: Global non-linear effect of temperature on economic production;
Nature online, doi: 10.1038/nature15725; Figure 4a

Wenn man es etwas poetischer mag, kann man diese 13 Grad Celsius als die Goldlöckchen-Temperatur der globalen Wirtschaft bezeichnen (die Nature-Pressestelle tut dies in ihrer Pressemitteilung). Goldlöckchen ist eine Märchenfigur, ein kleines Mädchen, das in das Haus der Familie Bär im Wald eindringt und dort drei Schüsseln Brei probiert: Die erste ist zu heiß, die zweite zu kalt, die dritte genau richtig.

Insgesamt wird der Klimawandel für die globale Wirtschaft damit zu einem Verlustgeschäft. Schreitet die Erwärmung ungebremst fort, dann ist mit einer globalen Erwärmung von vier Grad gegenüber der Zeit vor der Industrialisierung zu rechnen. Laut Burke und seinen Kollegen bleiben die durchschnittlichen globalen Einkommen dann um 23 Prozent hinter dem Wert zurück, der durch das angenommene Wirtschaftswachstum und ohne Erwärmung bis 2100 zu erreichen wäre.

Zudem könnte sich nach dieser Berechnung die Ungleichheit auf der Welt deutlich vergrößern. Ganze Regionen wie Afrika südlich der Sahara oder Südostasien könnte die globale Erwärmung fast das gesamte Wachstum kosten, das in diesem Jahrhundert noch zu erwarten ist. Und mindestens fünf Prozent der Staaten dürften 2100 sogar ärmer sein als heute. In dem Paper schreiben die drei Ökonomen: „Nach unserer Schätzung wird sich das durchschnittliche Einkommen der 40 Prozent ärmsten Länder bis 2100 um 75 Prozent gegenüber einer Welt ohne Klimawandel verringern, während die reichsten 20 Prozent leichte Gewinne erleben, weil sie im Allgemeinen kühler sind.“

Mit diesem letzten Halbsatz spricht das Team einen erwartbaren Einwand gegen ihre Studie aus: Reiche und arme Staaten sind auf der Welt nicht gleichmäßig verteilt. Die klassischen Industrieländer in Europa sowie die USA und Japan liegen in gemäßigten Klimazonen, die ärmsten Entwicklungsländer aber in einem breiten Gürtel um den Äquator. Über die Frage, warum das so ist, kann man lange und ideologische Debatten führen, die Stichworte wie protestantische Arbeitsethik oder Imperialismus enthalten. Jedenfalls ist der Abstand zwischen den Ländergruppen und Regionen im 19. und 20. Jahrhundert gewachsen, zeigen ökonomische Analysen. Die reichen Länder sind den ärmeren davongezogen. Es wäre also ziemlich einfach für das Burke-Team gewesen, in der Berechnung einen massiven Fehler zu machen.

Über diesen Fallstrick zu stolpern, haben die Ökonomen vermieden, indem sie die Staaten nicht miteinander, sondern immer nur mit sich selbst verglichen haben. Jedes der 166 Länder hat in dem untersuchten Zeitraum 1960 bis 2010 schließlich wärmere und kühlere Jahre erlebt, die die Forscher mit den jeweiligen Wirtschaftsdaten vergleichen konnten. Dabei haben sie die Effekte von Wirtschaftskrisen und plötzlich veränderter Wirtschaftspolitik herausgerechnet. Übrig blieben Grafiken für jedes Land, aus denen die Forscher die lokale Steigung ihrer globalen Wachstum-Temperatur-Relation bestimmt haben.

GoldilocksTempEconCC_FigED1a-fDie globale Kurve, wie das Wirtschaftswachstum mit der Temperatur zusammenhängt,
besteht aus lauter einzelnen Zahlenwerten, die für individuelle Länder bestimmt wurden
(die schwarze Linie zeigt jeweils eine lineare Approximation, der graue Bereich das
95-Prozent-Konfindenzintervall). Hier beispielhaft fünf Staaten.
Quelle: Burke et al: Global non-linear effect of temperature on economic production;
Nature online, doi: 10.1038/nature15725; Extended Data Figure 1a-f

Burke und seine Kollegen beschreiben das Verfahren so:
In an ideal experiment, we would compare two identical countries, warm the temperature of one and compare its economic output to the other. In practice, we can approximate this experiment by comparing a country to itself in years when it is exposed to warmer- versus cooler-than-average temperatures due to naturally occurring stochastic atmospheric changes.

Da sie also keine Experimente machen können, in denen sie eines von zwei identischen Ländern erwärmen und das andere nicht, ist dieser Vergleich der Staaten mit sich selbst eine vernünftige Methode. Das bestätigt der Autor eines begleitenden Kommentars in Nature, Thomas Sterner von der Universität Göteborg in Schweden: Gegenüber früheren Studien ähnlicher Art nutzten die kalifornischen Kollegen einen „anderen (und ich glaube verbesserten) Ansatz, mit Störvariablen umzugehen“. Und: „Die Autoren geben sich viel Mühe, die Robustheit ihrer Ergebnisse zu überprüfen, aber es wird zweifellos Versuche geben, nach anderen Daten und Ansätzen zu suchen, die abweichende Resultate erbringen könnten. So funktioniert der wissenschaftliche Fortschritt.“ Das neue Verfahren muss sich also noch bewähren.

Ähnlich sieht es Sabine Fuss vom Mercator-Institut für globales Gemeingut und Klimawandel in Berlin. „Das Paper ist klar und einleuchtend und enthält keinen methodischen Faux-Pas.“ Schon bei den kommenden Verhandlungen des Klimagipfels in Paris müsse man die möglichen Verluste durch den Klimawandel nun ganz anders bewerten. „Die Ergebnisse bedeuten nämlich auch, dass durch den ungebremsten Klimawandel global noch mehr umverteilt wird als bisher gedacht. Dieser wegweisende Artikel wird sicher die Basis für weitere Forschung in diese Richtung sein.“

Die Analyse von Marshall Burke und seinen Kollegen ist selbst ein Angriff auf die vorherrschende Meinung in der Ökonomie. Dass arme Länder wirtschaftliche Verluste durch den Klimawandel erleiden, ist schließlich kein wirklich neuer Gedanke. Aber bisherige Modelle nahmen an, dass reiche Länder wegen ihrer größeren Ressourcen und des einfachen Zugangs zu Technologie die Effekte einfach wegstecken. Die Folgen des Klimawandels würden demnach auch für all jene Länder immer geringer ausfallen, deren Wohlstand wächst, weil ihnen eine wirtschaftliche Entwicklung gelingt.

Die kalifornischen Ökonomen stellen das als falsche Interpretation dar: „Wir können nicht annehmen, dass reiche Länder von der künftigen Erwärmung unberührt bleiben, oder dass sich Konsequenzen der Erwärmung mit der Zeit abschwächen, wenn Länder wohlhabender werden.“ Staaten im Nahen Osten zum Beispiel sind schon heute deutlich über der 13-Grad-Schwelle und würden demnach wirtschaftlich unter dem Klimawandel leiden. Das gilt vermutlich auch für China, Japan und die USA, wenn sie die Erwärmung über den Gipfel der Kurve auf den absteigenden Ast treibt.

Dies alles setzt mehr oder weniger stillschweigend voraus, dass sich aus der Vergangenheit etwas für die Zukunft lernen lässt. Sollten Länder im Klimawandel plötzlich eine radikale Veränderung ihrer Wirtschaftsweise einleiten, wäre diese Annahme natürlich gefährdet. „Anpassungsmaßnahmen wie beispiellose Innovation oder defensive Investition könnten die errechneten Effekte reduzieren, aber soziale Konflikte oder gestörte Handelsbeziehungen sie auch verstärken“, heißt es in dem Nature-Paper.

Die Erkenntnis, dass selbst reiche Länder wirtschaftlichen Risken unterliegen, sollte auch politische Folgen haben, sagt Thomas Sterner. In vielen Staaten, vor allem in den USA wird schließlich heftig um den Begriff „Social costs of Carbon“ (also die sozialen Kosten der Kohlendioxid-Emissionen) gerungen. Sie könnten dazu dienen, einen vernünftigen Preis für den Ausstoß von Treibhausgasen zu definieren. Dem Burke-Ansatz zufolge müssten solche Kosten in Zukunft ganz anders und viel höher kalkuliert werden, so Sterner: „Ich habe das Gefühl, wir beginnen gerade erst zu verstehen, wie viel Schaden der Klimawandel anrichten kann.“
Christopher Schrader, alle Rechte vorbehalten

P.S.: Hsiang und Burke haben 2013 auch über die mögliche Zunahme von Gewalt mit der globalen Erwärmung geschrieben. Auch das war damals überraschend und kontrovers.

Ergänzung am 23.10.2015

Der Absatz mit den Kommentaren von Sabine Fuss vom Mercator-Institut wurde nachträglich eingefügt. Über das Thema berichten nun auch FAZ und Guardian.

Der Anfang und eine Erklärung

19.10.2015

Laufendes Gut

Was ist denn das für ein Titel für einen Blog – Laufendes Gut? Nun, der Begriff kommt aus der Schifffahrt und bezeichnet alles Tauwerk, alle Drahtseile oder Ketten, die nicht an beiden Enden befestigt sind und sich bewegen. Im Gegensatz zum stehenden Gut, das vor allem der Stabilität des Schiffs dient – wie Stage und Wanten, die einen Mast aufrecht halten –, ist das laufende Gut dazu da, ein Schiff zu steuern und anzutreiben. Auf dem Segelschiff, dem umweltfreundlichsten Transportmittel zur See, gehören zum laufenden Gut unter anderem:
• die Fallen, um Segel zu setzen,
• die Schoten, mit denen die Besatzung die Stellung der Segel reguliert,
• verschiedene Strecker und Reffleinen oder -taljen, um die Segelfläche zu trimmen und bei stärkerem Wind zu verkleinern,
• Brassen, mit den auf einem Windjammer die Rahen mit den großen rechteckigen Segeln seitlich bewegt und fixiert werden,
• Dirke, die einen Baum hochhalten,
• und wenn man es etwas weiter fasst (Segler werden jetzt den Kopf schütteln) auch die Ankerkette und Festmachleinen, die für eine sichere Abfahrt und Ankunft nötig sind.

Ohne laufendes Gut ist also das schönste Segelschiff nutzlos, weil man damit nicht dorthin kommt, wo man hinkommen möchte. Und das erscheint mir eine passende Metapher für die Klimaforschung im weitesten Sinne zu sein. Sie ist längst dem Stadium entwachsen, wo sie allein dokumentierte, welche Veränderungen der Anstieg der Treibhausgas-Emissionen in der Atmosphäre oder im Ozean bewirkt, was die globale Erwärmung für Mensch, Tier und Pflanze bedeutet. Die Basis dieses Wissens ist breit, und der Einfluss der Menschheit inzwischen unbestreitbar.

Spannender und mehr der offenen Diskussion unterworfen sind die Fragen, wie die Bewohner dieses Planeten die Auswüchse dieser Entwicklung mindern und sich den unvermeidbaren Veränderungen anpassen. Hier trifft die physikalische, biologische oder ökonomische Forschung auf Politik und Moral. Und dann gibt es eben keine Ergebnisse mit naturwissenschaftlicher Präzision, sondern eine Reihe von Optionen, die zwischen den Beteiligten ausgehandelt werden müssen (so argumentieren zum Beispiel der britische Forscher Mike Hulme und Ottmar Edenhofer vom Potsdam-Institut für Klimafolgenforschung (hier und hier)). Genau wie auf einem Segelschiff die Besatzung entscheiden muss, wie sie an ihr Ziel kommt, wenn der Wind nicht gerade optimal schräg von hinten („raumschots“) kommt. Und in der Klimadebatte weht einem der Wind ja eher direkt ins Gesicht.

Im Prinzip könnten wir als Menschheit uns ja auf den Standpunkt stellen, dass wir einfach dahin segeln, wohin der Wind uns treibt. Außerhalb der Metapher, die ich ja auch nicht überstrapazieren will, hieße das, die Risiken zu akzeptieren und es gleichgültig hinzunehmen, wenn arme Bauern in Afrika wegen veränderter Regenmuster ihre Existenzgrundlage verlieren. Oder Bewohner von Südsee-Inseln eine neue Heimat brauchen, weil die alte überspült wird oder zumindest alle Wasserquellen vom steigenden Meeresspiegel versalzt werden. Meine Position ist das nicht, um es klar zu sagen, und auch nicht die Linie, die Staaten bei Verhandlungen über einen globalen Klimavertrag wenigstens offiziell vertreten. Weil der Klimawandel die Armut der Menschen in vielen Entwicklungsländern enorm verschärfen wird, muss eine Strategie gegen die globale Veränderung auch gleichzeitig die soziale und ökonomische Situation von Milliarden Menschen mitdenken. Im besten Fall löst die Menschheit die Probleme Klimawandel und Armut gleichzeitig.

Klimaforschung kann uns auf dieser Reise in die Zukunft die Mittel in die Hand geben, den richtigen Weg zu finden. Wir werden ständig über den Kurs diskutieren und ihn womöglich anpassen müssen. Darüber soll dieser Blog berichten. Manche Beiträge werden einfache Meldungen sein, andere eher Einordnungen oder Kommentare. Als gelernter Journalist werde ich mich um eine Trennung von Nachricht und Meinung bemühen und es kenntlich machen, wenn ich etwas bewerte anstatt nur zu berichten. Ob das dann auch laufend gut ist, liegt im Urteil meiner Leser.

Hamburg, im Oktober 2015, Christopher Schrader

PS: Ein Detail zum laufenden Gut noch, das ich mir nicht verkneifen kann. Es heißt im Englischen running rigging und Wikipedia berichtet, dass es im Gegensatz zum stehenden Gut in der Vergangenheit nicht mit Teer zum Schutz gegen die Elemente bestrichen wurde, weil das Tauwerk ja flexibel bleiben sollte und man Umlenkrollen und Taljen (Flaschenzüge) nicht verkleben wollte. Teer ist ein Produkt aus Erdöl oder Kohle, und laufendes Gut war frei davon. Was will man mehr?