Archiv der Kategorie: Allgemein

Von der Blümchenwiese zur Monokultur?

Hamburg,  5. Juli 2017

Soziale Medien in 25 Kategorien – fast alle sind auch für die Wissenschaft und Wissenschaftler relevant. Quelle: Ethority, Version 6

Die deutschen Akademien der Wissenschaften legen sich mit Facebook, Twitter und anderen sozialen Netzwerken an. Sie müssten „verstärkt unter publizistischen/medien-rechtlichen Gesichtspunkten reguliert werden und nicht, wie es bisher überwiegend der Fall ist, primär unter ökonomischen und kartellrechtlichen Aspekten“, fordern die Forscher. Eine 15-köpfige Arbeitsgruppe von Leopoldina, acatech und der Union der deutschen Akademien der Wissenschaften hat in Berlin die Stellungnahme „Social Media und digitale Wissenschaftskommunikation“ vorgestellt und mit Experten diskutiert.

Die Gruppe sehe „die freie Informationsverbreitung gefährdet“, sagte Holger Wormer von der Universität Dortmund, einer der Sprecher: „Wer anderen als Medium eine erhebliche Reichweite zur Verfügung stellt, muss für ein Minimum an Redaktion sorgen“ – dazu seien zum Beispiel auch Tageszeitungen auf ihren Leserbriefseiten verpflichtet.

Dass sozialen Medien gefälschte Meldungen, populistische Parolen und gezielte Diffamierungen verbreiten, ist kein originäres Problem der Wissenschaft. Den Verheißungen der Netzwerke auf bessere, schnellere und direkte Kommunikation folgte stets Enttäuschung, zeigt die Akademien-Arbeitsgruppe für die Gesellschaft als Ganze und für den eigenen Bereich: Freiheit, Gleichheit, Vielfalt und Transparenz zum Beispiel hätten sich eben nicht verbessert. Im öffentlichen Diskurs sei eine „Verflachung und Verrohung“ zu bemerken, die Güte der verbreiteten Information nehme ab: „Es entfällt oft die Sicherung der Qualität“, heißt es in dem 72-seitigen Papier.

„Ein Grundton, als ob wir noch eine Ausstiegsoption hätten“

Das wird gerade für die Wissenschaft zum Problem, wenn sich etwa Falschmeldungen über Klimawandel oder Impfungen im Netz verbreiten. Der Staat müsse daher mit Auflagen für die Konzerne „sowohl für die Garantie der allgemeinen Informationsversorgung als auch speziell für die Versorgung der Öffentlichkeit mit Informationen über die Wissenschaft“ sorgen, heißt es in der Stellungnahme.

Dem stimmte im Prinzip auch Staatssekretär Gerd Billen vom Bundesjustizministerium zu: „Wir haben nicht unbedingt den Anspruch, dass privatwirtschaftliche Unternehmen die Demokratie fördern, aber schon, dass sie ihr nicht schaden.“ Etliche andere Politiker, etwa CDU-Fraktionschef Volker Kauder und Bundestagspräsident Norbert Lammert, hatten bereits gefordert, soziale Medien stärker zu regulieren. Das zügige Löschen rechtswidriger Inhalte als ersten Schritt soll nun das Netzwerkdurchsetzungsgesetz erzwingen, das der Bundestag in seiner letzten Sitzung vor der Sommerpause beschlossen hat.

In der deutschsprachigen Wissenschaftskommunikation herrschten aber noch keine Zustände wie etwa in der Auseinandersetzung etwa über die Flüchtlingspolitik, sagte der Social-Media-Manager der Helmholtz-Gemeinschaft, Henning Krause. „Dagegen ist das wie eine Blümchenwiese.“ Und er kritisierte an der Stellungnahme den „Grundton, als ob wir noch eine Ausstiegsoption hätten“. Wie andere Experten warb er bei der Präsentation in Berlin dafür, neben den Risiken auch die Chancen der sozialen Medien zu sehen. Auch etliche Kommentare im Netz (eine gute Übersicht gibt es bei Marcus Anhäuser) bescheinigen der Stellungnahme, ihr Thema eher verfehlt zu haben. „Bei den zwei wichtigsten Empfehlungen an die Wissenschaft eineinhalb vertane Chancen“, schrieb Reiner Korbmann auf seinem Blog „Wissenschaft kommuniziert„.

Das Papier der Akademien enthält insgesamt zwölf Empfehlungen. Etliche betreffen die Nutzung sozialer Medien durch Wissenschaftsorganisationen und Forscher selbst. So sollen zum Beispiel keine falschen Anreize gesetzt werden, so dass Wissenschaftler und Pressestellen von Instituten ihren Erfolg nach Klicks und Likes messen. Ein Schwerpunkt ist aber auch die Förderung des Journalismus, speziell des Wissenschaftsjournalismus. Er wirke, so die Stellungnahme, bisher als „neutraler Beobachter, der es dem Rezipienten zuallererst erlaubt, sich aufgrund einer möglichst neutralen Darstellung ein eigenständiges Urteil zu bilden“.

Eine zentrale Institution für die Wahrheit?

Viele Medienunternehmen stecken aber in der Krise, weil ihre Einnahmequellen auch wegen der Kostenlos-Praktiken im Internet wegbrechen. Hier regt die Arbeitsgruppe an, über eine zentrale „redaktionell unabhängige bundesweite Wissenschaftskommunikations- und Informationsplattform“ nachzudenken. Sie solle Berichte über Forschungsergebnisse „aggregieren, redaktionell bewerten und hinsichtlich ihrer Urheberschaft transparent machen“, aber frei vom Einfluss des Staates und der Wissenschaftsorganisationen arbeiten können.

Eine solche „Deutschland-Redaktion stieß bei etlichen Experten auf Widerspruch. Solle das etwa eine „zentrale Institution der Wahrheit“ werden, fragte Markus Weißkopf von der Organisation „Wissenschaft im Dialog“ polemisch. Eigentlich sei das Ideal doch pluralistische Berichterstattung. Franziska Badenschier vom „Science Media Center“ in Köln mahnte, man solle doch lieber die noch arbeitenden Journalisten stärken als eine solche Institution zu schaffen. Und die freie Journalistin Tanja Krämer, Mitbegründerin von Riff-Reporter, warnte: „Da verschwimmen die Grenzen von unabhängigem Journalismus und Wissenschaftskommunikation.“ Letzteres ist für Journalisten ein Synonym für interessengeleitete Wissenschafts-PR. Die Akademien-Arbeitsgruppe sieht darin freilich einen neutralen Oberbegriff. Holger Wormer erwiderte darum: „Das Ziel, die Gesellschaft mit zuverlässigen Informationen zu versorgen, ist gefährdet. Darum ist es fast schon egal, mit welcher Koalition von Wissenschaftskommunikation und Journalisten man das macht.“

Insgesamt könne die Wissenschaft durchaus mutiger in ihren Ideen und Forderungen sein, fasste am Ende Gerd Billen zusammen. Er präsentierte einige Einfälle, wobei er betonte, das sei nicht die Meinung der Regierung, sondern seine private. Wie in der Umweltpolitik müsse man „Kosten internalisieren“. Dieses Stichwort wird zum Beispiel verwendet, wenn die Betreiber von Kohlekraftwerken für das bisher kostenfreie Entsorgen von Kohlendioxid eine Abgabe bezahlen müssen. Wer „geistige Umweltverschmutzung“ betreibe, den könne man zum Beispiel verpflichten, auf eigene Rechnung professionelle journalistische Inhalte in seinem Netzwerk zu verbreiten. Und analog zur Initiative etlicher Europa-Politiker, jedem 18-jährigen ein Interrail-Ticket für eine Reise über den Kontinent zu schenken, schlug Billen vor, jungen Leuten Zeitungsabonnements zu bezahlen. Das würde gleich mehrere Fliegen mit einer Klappe schlagen: Die Medienkompetenz der jungen Leser stärken und die Journalisten fördern.

Hinweis: Dieser Text ist zuerst auf der Plattform Riff-Reporter erschienen.

Quelle: Riff-Reporter

Der March for Science und das Mittelalter

Hamburg, 24. April 2017

Science March in Hamburg: Nach der ersten Kundgebung geht es vom Rathausmarkt los
in Richtung Jungfernstieg. Foto: C. Schrader 

Am Samstag waren etwa 1500 bis 2000 Menschen auf dem Hamburger Rathausmarkt beim hiesigen March for Science. Es war einer von 600 auf dem ganzen Planeten, die in Solidarität mit dem Protest der amerikanischen Wissenschaftler stattfanden. Diese marschierten in Washington, andere demonstrierten auch in der Antarktis, unter Wasser vor Hawaii und in etwa 20 deutschen Städten, darunter Heidelberg, Berlin und München.

Als ich vor dem Hamburger Rathaus stand und dort den Reden zuhörte, dachte ich an eine Passage aus dem Buch „Eine kurze Geschichte der Menschheit“ von Yuval Noah Harari. Er definiert die Entwicklung unserer Spezies als eine Abfolge von drei Revolutionen, der kognitiven vor 70000 Jahren, der landwirtschaftlichen vor 12000 Jahren und der wissenschaftlichen vor 500 Jahren. In dieser sind wir noch mitten drin, und der Anlass der Demos war, dass wir gerade eine Art Konterrevolution erleben: Der Einfluss der Wissenschaft auf das Denken und die Politik soll zurückgedrängt werden. Um dem entgegenzutreten, forderten die Veranstalter der Märsche – und damit die Teilnehmer – eine Art Evidenz-basierter Politik, also gesellschaftliche Entscheidungen, die sich auf wissenschaftliche Erkenntnisse stützen, zumindest dort, wo sie vorhanden sind.

Foto von twitter, Bearbeitung: cs

Es ist interessant, wie Harari das Wesen der wissenschaftlichen Revolution definiert. Sie habe mit dem Eingeständnis des Unwissens begonnen, sagt er. Im Mittelalter war die Menschheit, jedenfalls in Europa, aber auch in anderen Kulturkreisen, der Meinung, alles Wissenswerte sei schon bekannt. Wer sich bildete, nahm dieses vorhandene Wissen in sich auf, niemand sah die Notwendigkeit, darüber hinaus zu denken. Was nicht bekannt war, war unwichtig. Und Empirie, die dem scheinbaren Wissen widersprach, konnte daran auch nichts ändern, manchmal war sie sogar gefährlich.

Dieses Bewusstsein änderte sich zu Beginn der Neuzeit. Harari illustriert das am Beispiel der „Entdeckung“ Amerikas. Christopher Columbus segelte 1492 in der festen Erwartung los, den Seeweg nach Indien zu finden. Er betrachtete die Karibik-Inseln, auf denen er landete, als Teil Indiens (noch heute heißen sie westindische Inseln) und nannte ihre Bewohner Indios. Bis zu seinem Tod beharrte er auf dieser Postion. Und dann kam der „erste moderne Mensch“ Amerigo Vespucci, der um das Jahr 1500 nach Europa von einem unbekannten Kontinent berichtete, vor dessen Küste Columbus‘ Inseln lägen. Es war ein Kontinent, von dem die Gelehrten seiner Zeit nichts wussten, der in ihren Büchern nicht vorkam, den es nach mittelalterlichem Denken nicht geben konnte. Harari urteilt: „Im Grunde ist es nur gerecht, dass ein Viertel der Welt nach einem unbekannten Italiener benannt wurde, an den wir uns heute nur deshalb erinnern, weil er den Mut hatte zu sagen: ,Wir wissen es nicht.'“

Das Weltbild des Mittelalters war natürlich stark geprägt von heiligen Büchern. Und die Menschen lebten in Ehrfurcht davor. „Es war unvorstellbar“, schreibt Harari, „dass die Bibel, der Koran oder die Vedas ein entscheidendes Geheimnis des Universums übersehen haben könnten, und dass es an gewöhnlichen Sterblichen sein könnte, dieses Geheimnis zu lüften… Was die mächtigen Götter nicht offenbarten und was die Weisen der Vergangenheit nicht in ihre Schriften aufnahmen, war definitionsgemäß irrelevant.“

Und da – jetzt spinne ich Hararis Analyse weiter –  haben wir doch eine Erklärung für die Wissenschafts-Feindlichkeit, die uns zum Beispiel aus den USA entgegenschlägt. Die religiöse Rechte, die dort jetzt den Ton angibt, beharrt darauf, dass Gott die Geschicke der Welt bis ins Detail lenkt, und verlangt Unterordnung unter die himmlische Fügung (und ganz nebenbei kann man dann noch die eigenen Interessen der biblischen Botschaft unterjubeln): Am klarsten zeigt sich das bei der Opposition gegen die Evolutionsforschung und den Evolutionsunterricht in den Schulen. Es ist aber auch in den Debatten über den Klimawandel, Impfungen oder Gentechnik zu erkennen. In dieser Hinsicht führt der Gegenwind gegen die Wissenschaften sozusagen in das Mittelalter zurück nach dem Motto: Es ist nicht am Menschen, die Geheimnisse Gottes zu lüften und zu entweihen.

Es ist nötig, sich diese Positionen einmal auf diese Weise klar zu machen. Natürlich will von den Anhängern der Trump-Regierung niemand zurück ins Mittelalter. Aber die geistige Haltung, der Wissenschaft keinen zentralen Wert mehr in der Gesellschaft einzuräumen, hat viele Parallelen zur damals verbreiteten Position des Nicht-Wissen-Wollens.

PS: Zwei Bemerkungen noch. Erstens: Dass es der Wissenschaft erfolgreich gelingt, viele Geheimnisse zu lüften, nehmen manche als Beleg, dass es Gott gar nicht gibt. Das halte ich für eine unzulässige Verkürzung, außerdem tritt man damit den Menschen vor das Schienenbein, für deren Identität der Glauben an Gott zentral ist. Das ist nicht nur grundlos verletzend, sondern auch sinnlos und taktisch unklug, weil es Reaktionen wie die jetzige beschleunigen kann. Zudem gibt es in den Kirchen viele kluge Menschen, die zwischen Religion und Wissenschaft überhaupt keinen Widerspruch sehen, auch und gerade auf den Gebieten Evolution und Klimawandel.
Zweitens: Dass sich Politik auf wissenschaftliche Erkenntnisse stützt, unterstütze ich natürlich vollkommen. Doch das greift zu kurz, denn die Resultate der Wissenschaft können gesellschaftliche Entscheidungen ja nicht ersetzen. In der Klimadebatte zum Beispiel kann man sehr wohl verschiedene Kurse steuern, wenn sie alle die Leitplanken einhalten, die die Wissenschaft gesteckt hat. Insofern müsste man eigentlich fordern, dass Politik den Erkenntnissen der Forschung nicht widersprechen sollte, sie darüber hinaus aber ihren Gestaltungsfreiraum ausschöpfen kann – und dass sich jeder in einer Demokratie daran beteiligen kann. Das ist vielleicht nicht sexy genug für den Aufruf zu einer Demonstration, aber zentral für das Selbstverständnis des Wissenschaftlers als Bürger. Wie heißt es beim IPCC: policy relevant but not policy prescriptive.

Dear Scott Adams,

you ask in your blog post why climate scientists can’t come up with good ways to convince skeptics that climate change is indeed a problem.

Just a screenshot (and a link). All rights lie with Scott Adams.

This might not be the answer you have been waiting for, but it is the answer I need to give. Let me introduce myself: I am a German science journalist, named Chris Schrader. I live in Hamburg. I am only writing this up because in the end of the post you say you’re interested in the psychology, not the science around the climate issue. So am I, that’s why I am bothering with this, but I do also know enough about the science, having worked as a journalist in the field for 15 years. And I am, this is the last of the preliminaries, assuming you have a genuine interest in the question and are, as you say, “on the side of the scientists”. I realize there is some debate about your motives in a related post but let’s go with the benefit of the doubt.

The simple answer to the question in the headline of your post is: There is no way to convince skeptics because they don’t want to be convinced. Indeed their identity and social status often depends on not being convinced. You make it sound as though everybody secretly wanted to believe climate change is real and a serious problem but just needs the right arguments to bring him- or herself to it. Or in a more neutral way of putting it: that everybody weighed the pros and cons in a rational matter and just needed enough good statements by scientists for the scales to come down on the right side. That is a concept the psychology around the issue debunked years ago: the information deficit model. It simply doesn’t work that way. More or better put information will not sway people’s views on contested topics. So if you propose to know  “what it would take to convince skeptics that climate science is a problem that we must fix”, as you say, I seriously beg to differ. This whole discussion is not about what science says or how it says it, it’s only about what people think they want to hear. You yourself seem to making the same point in the last two sentences but draw no conclusions from it.

Saying or thinking that science has to do anything at all before we finally can begin acting on climate change is nothing but a big smoke screen.

Especially on issues like climate change that are political and divisive, people tend to follow the hints in their social groups on what to think. Climate change is the prime example of that, especially in your country. It has become part of the political identity of people what they think about it. You should read up what researchers like Dan Kahan at Yale have to say on it. He does these tests that check peoples’ skills with numbers. When the subject is, say, the efficacy of a skin ointment in removing a rash and the task is comparing outcomes in subjects using it or not, people do okay. It’s a hard problem, but there are reasonable folks coming up with reasonable answers. But change the subject to climate change, or for that matter gun laws, and every evidence for numeracy people have goes out the window. Now they give the answer that falls on their political party’s line no matter the numbers. And the smarter they are and the better with numbers, the bigger the political spread becomes.

This situation is the result of a lot of hard work by some guys at conservative think tanks and other organisations. Read Naomi Oreskes’ book “The Merchants of Doubt” or see the documentary and you’ll get their names. Some of them had been falcons in the cold war, staunch missile-loving anti-communists, who then went on to defend the tobacco industry against the science saying smoking was really bad for you, defend the asbestos industry against science pointing to the risk of lung cancer the fibers posed, and so on: Acid rain, ozone hole, finally climate change, always on the side of industry against science based arguments supporting regulation.

The tactic was in every case an attack on the science and scientists, and spreading doubt was usually enough, hence Oreskes’ book title. They would say: the science is still out, there is no consensus, graphs hint at different explanations – sound familiar? The strategy was to defend the coveted American liberties against overreaching government or what these guys saw as it. They seemed to believe that if the state were allowed to regulate x then it would soon also want to deal with y and z and other letters. x in this instance being carbon emissions, y maybe cars,
z houses, and somewhere down the road gun control, health insurance and other concepts that are toxic and socialist in the view of the American right (and, just as an aside, that even rather conservative states in Europe have no problem with at all).

So these guys certainly didn’t and don’t want to be convinced climate change is a real problem. Maybe they really believe this theory about giving the state not a single ledge to step on, maybe they were and are also paid well by the industries making a profit in an underregulated business. And as long as they have a hold on their share of public opinion through political contacts, religious leaders, talk radio, TV stations like the Fox News network and bloggers they keep selling opposition to the science of climate change as an identity badge for millions of people in the country. So they don’t want to be convinced, either.

That also seriously deflates calling them skeptics. Skepticsm is a virtue in science but there you need enough of a background to voice specific objections and you have to be willing to let yourself be convinced your views are wrong. We could relax the first point to make this not into an elitist issue but the second is fundamental. And we have just seen there is no disposition by that group to be dissuaded of their criticsm.

One of the many signs held up at the February rally in Boston „Stand up for science“. It rightly says that acting on climate can be patriotic. Copyright: C. Schrader

If you take the psychology serious, and there is lots of research showing this, in order to “convince” the “skeptics” you need to embrace social strategies to get people out of the strangleholds they are in. Show them, demonstrate to them how it can be patriotic and christian to be concerned about climate change and that their neighbors, colleagues and friends think that way, too. Get them hooked on Katharine Hayhoe’s Global Weirding series of short videos: She is an evangelical climate scientists with credentials in both supposedly mutually exclusive communities. Even Trump voters don’t want him to dismantle the US climate change policy. They just don’t talk about it, because they think they are a minority. Well, they aren’t and they need to shown by someone they trust. If that’s you: welcome, get to work. Their political conviction is certainly valued. The questions we have to answer need everyone’s ideas, but it should come in at the stage where we discuss the solutions, not whether the problem is real.

Maybe then that only leaves you, Scott Adams: Do you want to be convinced? I mean, there must be some people willing and able to weigh arguments around climate change. Open mind to the question, good common sense, no patience for b/s but respect for clear arguments, willing to admit to change of opinion. It has been sort of the ideal of the western culture since enlightenment. Let’s assume you are, and further assume your questions or demands have anything to do with that. If that is correct, you show yourself as a guy with a no-nonsense-attitude that will not mind coming across gruff. Then presumably you will be able to handle a similar tone. So here goes: I think you are basically misunderstanding and misrepresenting what science is and does and supposedly owes you to a point that makes it hard to presume that all this happens in good faith.

Best, Chris Schrader

For specialists: Some answers to Adams‘ questions/demands.

 

Wettervorhersage für die Arktis

Hamburg, 18.11.2016

Ein kleiner Blick ganz nach Norden, wo zurzeit erstaunliche Dinge passieren. Sie lassen sich am besten mit einer Reihe von Grafiken erklären. Die erste stammt von der Seite Arctic News: Es ist eine Wettervorhersage für morgen, Samstag den 19.11.2016. Die Polarregion wird demnach gut sieben Grad Celsius wärmer sein als im Durchschnitt der Jahre 1979 bis 2000.

arctic-forecastWettervorhersage für die Arktis. Quelle: Arctic News

Und das ist kein Ausreißer, das ist seit Wochen so, wie das dänische Meteorologische Institut zeigt. Seit etwa zwölf Wochen ist es nördlich des 80. Breitengrades wärmer als im Durchschnitt und zuletzt waren es sogar fast 20 Grad zu viel. Das lässt sich allerdings nicht direkt mit der Vorhersage oben vergleichen, weil die Zeiträume für die Bildung des Mittelwerts unterschiedlich sind, hier geht es um die Jahre 1958 bis 2002. Bitte auch beachten, die Zahlenwerte sind bei der dänischen Grafik in Grad Kelvin angegeben. Der Nullpunkt der Celsius-Skala liegt bei 273,15 Kelvin. Die Arktis sei „wahnsinnige“ 20 Grad wärmer als normal, schrieb dazu die Washington Post.

arctictempsdmiTemperaturen nördlich des 80. Breitengrads. Quelle: Dänisches Meteorologisches Institut

Die nächste Grafik zeigt, dass die übermäßige Wärme nicht nur an der Oberfläche herrscht, sondern vor allem in der Höhe. Das ist hier verwirrend aufgezeichnet: Die Höhe ist unten, die Meeresoberfläche oben. Da war es im Oktober 2016 auch mal ein wenig kühler als üblich (gemeint hier: im Durchschnitt über 1981 bis 2010). Aber darüber und bis weit nach Süden ist es deutlich zu warm, schreibt das National Snow & Ice Data Center der USA, von dem die Grafik stammt.

t-anomalyDurchschnittstemperaturen im Norden im Oktober, aufgetragen gegen die Höhe.
Quelle: NSIDC

Die Wissenschaftler erklären das mit sehr ungewöhnlichen Druckverhältnissen, die sehr viel warme Luft nach Norden lenken. Man kann das gut auf dieser Kartendarstellung erkennen, wo die warme Luft fließt. Außerdem sei das Meer sehr warm, weil es dieses Jahr sehr lange frei war und viel Sonnenlicht absorbieren konnte. Das hier gezeigte Niveau von 925 Hekto-Pascal liegt bei ungefähr 2500 Fuß, also 750 Metern. Und der 60. Breitengrad aus der oberen Grafik bildet hier unten den Rand der Abbildung. Er führt ungefähr durch Oslo, die Südspitze Grönland und an der Südküste Alaskas entlang.

airtempanomaly-karteDer Einstrom warmer Luft nach Norden. Quelle: NSIDC

Diese übermäßige Wärme hatte es auch schon im Frühjahr 2016 gegeben, wie ein weiterer Blick auf die dänische Grafik zeigt. Nicht ganz so spektakulär, aber deutlich. Eine Parallele zeigt sich in der Ausdehnung des Meereises. Dessen Größe schwankt mit den Jahreszeiten, für gewöhnlich überdeckt es im März die größte Fläche und erreicht im September sein Minimum. Zu dem Zeitpunkt hat 2016 keinen Rekord aufgestellt, aber im Frühjahr etliche Wochen lang. Und seit Mitte Oktober gibt es wieder jeden Tag einen neuen Tiefstand in der Zeitreihe.

charctic-interactive-sea-ice-graph-arctic-sea-ice-news-and-analysisDie Ausdehnung des Meereises in der Arktis im Vergleich der Jahre. Quelle: NSIDC

Gestern, am 17.11.2016, waren 8,62 Millionen Quadratkilometer Meeresoberfläche zu mindestens 15 Prozent mit schwimmendem Eis bedeckt. Das sind gut 400 000 weniger als im Rekordjahr 2012 und eine Million Quadratkilometer weniger als am gleichen Tag 2015. Nur so zum Vergleich: Deutschland hat etwa 357 000 Quadratkilometer Fläche. Normal ist das nicht.

 

 

Klimatipps – nicht nur für Los Angeles

14338415117_c87efa21c6_kDas Lummis House in Los Angeles hat ein amerikanischer Journalist um die Jahrhundertwende zum 20. Jahrhundert im Norden der Stadt bauen lassen. Es ist heute ein Denkmal, und der Garten ist nach den Grundsätzen des „Drought-tolerant gardening“ angelegt. Quelle: Ken Lund, Flickr, Creative Commons Licence, unverändert

Hamburg, den 22. September 2016

Zur Abwechslung mal ein paar Klimatipps für Haus und Grundstück. Der erste erreicht uns aus Los Angeles in Kalifornien, wo die vergangenen fünf Jahre der trockenste solche Zeitraum waren, seit  das Wetter regelmäßig registriert wird – also seit 140 Jahren. Mehr noch: Eine Dürre wie 2012 bis 2014 sollte nur alle knapp 10 000 Jahre einmal eintreten, haben Wissenschaftler berechnet. Das hat an der Pazifikküste bereits ein Umdenken im Hinblick auf den Klimawandel verstärkt, von dem Deutschland noch weit entfernt ist. So will der Staat Kalifornien im Alleingang bis 2030 den Ausstoß von Treibhausgasen um 40 Prozent unter das Niveau von 1990 senken  – das rechtfertigt allemal den Blick in eine Region, die neun Zeitzonen von Deutschland entfernt liegt.

Die Behörden der südkalifornischen Metropole haben auf die Dürre zum Beispiel mit dem Cash for Grass-Programm reagiert und bieten Gartenbesitzern Zuschüsse an, wenn sie ihren Rasen durch eine wassersparende Landschafts-Gestaltung ersetzen: Mulch, Steine und vor allem genügsame Pflanzen. Dafür gibt es ein Handbuch, das zum Beispiel die Salbei-Art hummingbird sage anpreist, das im Südwesten heimische deergrass, diverse Büsche und Ranken oder natürlich die Staatsblume, den kalifornischen Mohn.

Der Sinn ist, den gewaltigen Wasserverbrauch beim Sprengen des Rasens  zu reduzieren. Er war ohnehin schon durch Verordnungen eingeschränkt: Sprinkler durften nur 15 Minuten alle zwei Tage angestellt werden, und nicht zwischen 9 und 17 Uhr. Doch was die weiteren Folgen über das Wassersparen hinaus wären, wenn alle Hausbesitzer in LA ihre Gärten umgestalteten, das war bisher noch nicht richtig klar. Viele konnten sich ja ausmalen, dass die Temperaturen in unmittelbarer Umgebung des Hauses ansteigen, wenn das verspritzte Wasser nicht mehr zu großen Teilen verdunstet.

Genau das bestätigt nun eine neue Studie, die in den Geophysical Research Letters erschienen ist – allerdings zeichnet sie ein differenziertes, durchaus interessantes Bild. Während sich die Region nämlich zunächst tatsächlich tagsüber aufheizt, wenn Gärten nicht mehr gesprengt werden, kühlt sie nachts um so stärker ab. Bemerkbar macht sich das den Berechnungen zufolge schon zu einer Uhrzeit, zu der die Bewohner abends von der Arbeit nach Hause kommen, nachdem sie den üblichen Rushhour-Stau bewältigt haben. Am deutlichsten ist der Effekt in den Abendstunden. Und falls der Umbau der Pflanzenwelt nur konsequent genug vollendet wird, schwindet auch die Erwärmung in der Mittagszeit wieder, weil die Brise vom Pazifik weiter ins Land hineinreicht.

Die Erklärung ist eigentlich einfache Physik: Wenn die Erde nicht mehr künstlich feucht gehalten wird, bremst das den Austausch von Energie zwischen Luft und Boden: Die von der Sonne erwärmte Erde kann die sich Luft nicht mehr so leicht daran hindern, sich abzukühlen.

Pouya Vahmani und George Ban-Weiss von der University of Southern California haben ein regionales Klimamodell für Los Angeles laufen lassen und in der virtuellen Metropole zuerst alle Gartenpflanzen, dann auch das ganze Grünzeug auf öffentlichen Flächen ausgetauscht. Das geht natürlich nicht wie zum Beispiel bei den „Sims“, wo man den Garten seines computeranimierten Hauses liebevoll neu bepflanzt: Die Datenpunkte im Modell waren zwei mal zwei Kilometer groß. Die Forscher haben darum Kenngrößen der Vegetation verändert, vor allem Angaben über die Stomata der Pflanzen (also die Spaltöffnungen, über die sie Gase wie Wasserdampf und Kohlendioxid mit der Umgebung austauschen) und die sogenannten Rauhigkeitslänge (die Höhe über dem Boden, auf der die Vegetation den Wind praktisch auf Null gebremst hat). Sie haben auch die Albedo (also die Menge an Sonnenlicht, die Pflanzen reflektieren) variiert, aber das hatte ihren Angaben zufolge nur wenig Effekt. Den weiteren Klimawandel, der Los Angeles bis zum Ende des Jahrhunderts um drei bis fünf Grad erwärmen könnte, ignorieren die Forscher zunächst, er lässt sich in Simulationsrechnungen einfach abschalten.

droughttolerancefig2Simulationsrechnung, wie der Umbau nur von privaten Gärten (Phase 1) oder auch von allen öffentlichen Flächen (Phase 2) die Temperaturen an einem Julitag in Los Angeles
um 14 und 22 Uhr verändern würde. Quelle: Vahmani/Ban-Weis,
Geophysical Research Letters, Figure 2

Konkret warf der Computer folgende Zahlen aus: In der Phase 1, bei der nur die privaten Rasenfläche umgewandelt wurden, erwärmte sich das Stadtgebiet an Julitagen mittags um zwei Uhr im Mittel um 0,7 Grad Celsius; Spitzenwerte erreichten die Regionen im San Fernando Valley nördlich der Hollywood Hills und Santa Monica Mountains sowie in Riverside am östlichen Ende des Beckens von Los Angeles: Hier wurde es mittags um 1,9 Grad wärmer, wenn die Gärten nicht mehr gewässert wurden. Nachts um 22 Uhr hingegen kühlte sich die Metropole deutlich ab, und zwar gerade in den tagsüber erhitzen Regionen fern des Meeres – im Mittel um etwas mehr als drei Grad. Das ist nicht nur vom Betrag her mehr, sondern auch wichtiger für die Gesundheit der Angelenos. Gesundheitsschäden drohen bei einer Hitzewelle vor allem, weil die Menschen nachts keine Abkühlung mehr finden und der Schlaf massiv gestört ist.

In der Phase 2, in der auch alles öffentliche Land virtuell umgemodelt wurde, blieb die nächtliche Abkühlung gleich, und sogar tagsüber sanken die Temperatur im Mittel nun um 0,2 Grad. Verantwortlich waren vor allem die küstennahen Regionen (siehe Grafik oben). Dass im Durchschnitt eine Abkühlung herauskam, hat die Forscher selbst überrascht, wie sie schreiben. Ganz trauen sie dem Wert auch nicht; je nach Wahl der Pflanzenparameter könnte es doch eine geringe Erwärmung geben. Entscheidend für den Unterschied zu Phase 1 war jedenfalls, dass die neuen Pflanzen die Seebrise besser passieren lassen, so dass sie weiter ins Land reicht.

Das letzte Wort ist allerdings nicht gesprochen: Das Umpflanzen könnte nämlich auch bedeuten, dass manche Bäume strubbeligen Büschen weichen müssten, und da würden vermutlich nicht nur die Umweltschützer – in den USA bisweilen als „Treehugger“ verspottet – protestieren.

24150210766_f5d47bf138_kDer Dachboden eines Hauses in Kalifornien. Der Boden ist gedämmt, die Unterseite des Daches jedoch nicht sonderlich isoliert. Foto: mit freundlicher Erlaubnis jimvancura.com

Der zweite Tipp für das Energiesparen kommt zwar nicht aus Kalifornien, aber er führt dorthin. Gerade die Metropole Los Angeles nämlich, oft das Sinnbild für Energieverschwendung, hat bei einem Vergleich von sechs Städten am besten abgeschnitten: Die Häuser dort verbrauchen am wenigsten für Heizen und Kühlen, und der Bedarf dürfte im Rahmen des Klimawandels sogar noch sinken, stellt ein Team um Anthony Fontanini von der Iowa State University und dem Fraunhofer-Zentrum für nachhaltige Energiesystem in Boston fest.

In ihrer Studie wollten die Forscher eigentlich den Effekt der Dachkonstruktion erkunden und haben sechs verschiedene Geometrien im Computer simuliert: vom Flach- über das Sattel- und Walm- bis zum Mansarden-Dach mit oder ohne Gauben. Sie werden in den USA ganz anders gebaut als hierzulande: aus leichten Materialien, ganzjährig belüftet. Die Isolationsschicht liegt (oder sollte liegen) zwischen der Decke der Wohnräume und dem Fußboden des Dachbodens.Dass die Bewohner unter dem Dach etwas lagern oder gar ein Zimmer einbauen, haben die Wissenschaftler dabei ignoriert.  Darum änderte die Konstruktion am Ende kaum etwas am Energiebedarf des 143-Quadratmeter-großen Bungalows darunter.

Aber es bewahrheitete sich wieder der alte Makler-Spruch, wonach es auf Lage, Lage und Lage ankommt. In diesem Fall ging es jedoch nicht um Stadtviertel oder gar Straßenseiten (wie bei der Hamburger Elbchaussee), sondern um geografische Regionen, als das Forscherteam die Städte Baltimore, Atlanta, Minneapolis, Seattle, Phoenix und Los Angeles verglichen. Die Metropole in Kalifornien schnitt dabei am besten ab, das heißt, hier floss am wenigsten unerwünschte Wärmeenergie durch die Decke des Wohnbereichs: im Sommer als Wärme nach unten, die weggekühlt werden muss, im Winter als Wärme nach oben, die entweicht und ersetzt werden muss.

Insgesamt ergab sich für den Bungalow in Los Angeles ein hochgerechneter Energiebedarf von gut 11 000 Kilowattstunden, das wäre auch im Vergleich mit relativ neuen Häusern in Deutschland ein guter Wert von 78 KWh/m2 ∙ a. Allerdings liegt das natürlich am milden Klima, nicht an der Bausubstanz. Die zweitplatzierte Stadt, Seattle, kam auf gut 15 000, Phoenix als Schlusslicht auf fast 22 000 Kilowattstunden. Seinen Spitzenplatz erreichte Los Angeles in der Summe über Heiz- und Kühlperiode. Nur in Phoenix muss man im Winter weniger heizen, dafür im Rest des Jahres viel mehr kühlen. In Minneapolis und Seattle wiederum läuft im Sommer seltener die Klimaanlage, dafür im Winter häufiger die Heizung.

Los Angeles hat zudem im Vergleich der amerikanischen Städte die besten Aussichten im Klimawandel: Abhängig vom Erwärmungsszenario sinkt in Südkalifornien der Energiebedarf des simulierten Hauses um zehn bis 23 Prozent. Einen kleineren Rückgang dürfen auch Baltimore, Minneapolis und Seattle erwarten, dafür steigt der Verbrauch in Phoenix um bis zu 19 Prozent und in Atlanta um bis zu 44 Prozent. Dort wird die Hitze schon heute oft unerträglich.

9710802780_6fcad6c268_kVon begrünten Dächern im Civic Center-Distrikt von San Francisco hat man  einen
guten Blick auf die Hügel und den markanten Sturm Tower. Quelle: Sergio Ruiz, Flickr,  Creative Commons License, unverändert

Und ein letzter Hinweis, der zwar aus Hongkong stammt, aber überall dort wichtig werden kann, wo Mücken zur Plage werden können. Zwei Geographen der Universität Hongkong haben untersucht, ob begrünte Dächer zum Brutplatz für Moskitos werden können. Ihre Antwort: eher nein. Sie konnten zumindest auf den drei Dachgärten weniger der stechenden Insekten fangen als auf zwei blanken Flachdächern, wo auch immer mal wieder Pfützen entstehen und als Kinderstube der Mücken dienen können. Auf dem begrünten Dach in Los Angeles (oder San Francisco) müssten aber wiederum dürre-tolerante Pflanzen wachsen, das ist wohl klar.

Das Zeitalter der Pilzwolken

Bekanntes Foto des Baker-Tests. Die durch die Druckwelle hervorgerufene Wilson-Wolke hat sich teilweise aufgelöst und gibt den Blick auf die Wassersäule und den blumenkohlförmigen Explosionspilz sowie die Flotte von Zielschiffen frei. Die Palmen am Strand wurden mit schwarzer und weißer Farbe angestrichen, um die Höhe der erwarteten Flutwelle messen zu können. Von United States Department of Defense (either the U.S. Army or the U.S. Navy)derivative work: Victorrocha (talk) - Operation_Crossroads_Baker_(wide).jpg, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=6931019Am 25. Juli 1946 ließen die Amerikaner auf dem Bikini-Atoll im Rahmen der „Operation Crossroads“ den Sprengsatz Baker 27 Meter unter Wasser detonieren. 93 ausgemusterte und erbeutete Schiffe und viele Versuchstiere wurden der Explosion ausgesetzt. Sie fiel so unerwartet heftig aus und verursachte solche Schäden, dass die Organisatoren den geplanten dritten Test absagten und später erst einmal wissenschaftliche Begriffe für die beobachteten Phänomene definieren mussten. Einige der radioaktiv verseuchten Schiffe wurden später im Pazifik von San Francisco versenkt. Quelle: United States Department of Defense/commons.wikimedia.org, gemeinfrei

Hamburg, 29. August 2016

There is now also an English translation of this entry

Hinweis: Dieser Blogbeitrag beruht auf zwei Artikeln von mir, die bei Spektrum.de und in der Süddeutschen Zeitung erschienen sind. Ich habe sie hier zusammengefasst und ergänzt, und bringe sie vor allem, weil ich die alten Bilder so toll finde. Es lohnt sich, besonders beim Aufmacher-Bild, dem Link zu folgen. 

Das Zeitalter der Pilzwolken begann am 16. Juli 1945, morgens um halb sechs. An jenem Tag hatte sich die Elite der amerikanischen Physiker in der Wüste von New Mexico versammelt, knapp 60 Kilometer südwestlich von Socorro. Es war der erste Praxistest des Manhattan-Projekts, die erste Explosion einer Atombombe; Robert Oppenheimer hatte der Operation den Codenamen „Trinity“ gegeben. Den Sprengsatz selbst nannten die Entwickler flapsig „Gadget“, also Gerät oder Vorrichtung. Er steckte in einem mannshohen ausgebeulten Zylinder mit wildem Kabelgewirr auf der Außenseite. Sein Herzstück waren sechs Kilogramm Plutonium, und er erreichte eine Sprengkraft von etwa 21 Kilotonnen. Die Physiker hatten noch gewettet, welche Wucht der nukleare Sprengsatz erreichen würde. Die meisten unterschätzten die Explosion, nur Edward Teller war übermäßig optimistisch, so schildert es der Historiker Richard Rhodes in seinem Buch „The making of the Atomic Bomb“. Diese Zahl, um die die Experten gewettet hatten, ist nun von Radiochemikern des Los Alamos Nationallabors noch einmal mit einer ganz neuen Methode bestätigt worden.

Noch immer bietet die Geschichte der amerikanischen Atombomben Wissenschaftlern Ansatzpunkt für ihre Projekte. Sie interessieren sich für die nukleare Hinterlassenschaft der Pilzwolken-Ära: Neue Methoden erlauben Einblicke in die Funktionsweise der Sprengkörper. Die Erkenntnisse könnten bei der Überwachung künftiger Abrüstungsverträge helfen. Andere Forscher liefern frische Daten von vernachlässigten Schauplätzen der Historie wie den Südseeatollen von Enewetak, Rongelap und Bikini, wo die US-Armee fast 20 Jahre nach dem Krieg ihre Bombentests noch oberirdisch durchführte. Oder von einer Basis auf Grönland, Camp Century, von der aus die Amerikaner im Ernstfall Raketen gen Sowjet-Union starten wollten. Der Klimawandel könnte einige der Hinterlassenschaften freisetzen.

Die Trinity-Explosion ist zwar fast ein Menschenleben her, Augenzeugen dürfte es daher nur noch wenige geben. Immerhin: Neben den Physikern waren auch viele junge Soldaten anwesend, und auch Kinder der normalen Bevölkerung von New Mexico erlebten den plötzlichen Blitz mit. Mit Geigerzählern oder anderen herkömmlichen Instrumenten ist das Ereignis noch heute an damaligen Ground Zero, den die Öffentlichkeit zweimal im Jahr besuchen kann, ohne weiteres nachvollziehbar. Die Strahlung ist etwa zehnmal so hoch wie sonst in den USA. Doch Einzelheiten der Bombe buchstäblich aus dem Sand zu lesen – das ist mal ein neuer Ansatz.

Die Forscher um Susan Hanson brauchten dafür nur fünf Stückchen Glas von der Explosionsstelle, nicht einmal zehn Gramm. Die intensive Hitze des Tests hatte hier den Sand geschmolzen und dabei auch Spaltprodukte der Kettenreaktion eingeschlossen. Und obwohl in den Proben 70 Jahre lang weiter unzählige radioaktive Zerfallsprozesse abgelaufen waren, konnten die Forscher Bauart und Effektivität der Bombe daraus bestimmen. Für die Sprengkraft brauchten sie nur die historisch überlieferte Menge Plutonium und kamen so auf 22,1 Kilotonnen, das deckt sich im Rahmen der Messgenauigkeit mit bisherigen Angaben. Die Wissenschaftler richten den Blick nun nach vorn. „Ein solches Verfahren könnte die Zeitspanne erweitern, in der man Daten für Inspektionen sammelt“, schließt das Team von Hanson aus dem Erfolg. „Das würde auf absehbare Zukunft die Überprüfung von Abrüstungs-Verträgen verbessern.“ Sie haben ihre Resultate in PNAS veröffentlicht.

TrinityGadget_10540204545_430c889902_o
Norris Bradbury, im Manhattan-Projekt zuständig für die Montage der „Gadget“ genannten ersten Atombombe, und seine Kreation. Quelle: US-Regierung, flickr

Im Fall Trinity war der Kniff, in den Proben nicht nach strahlenden Resten, sondern nach stabilen Atomen zu suchen, genauer nach Molybdän-Isotopen. Neun von ihnen sind bekannt, sieben davon sind stabil, ihr Atomgewicht liegt zwischen 92 und 100. Sie haben jeweils ihren festen Anteil am natürlichen Vorkommen, der zwischen neun und 24 Prozent liegt. Diese Verteilung hatte sich in den Glasproben allerdings verschoben. Die Isotope Mo-95 und Mo-97 nämlich stehen jeweils am Ende einer Zerfallskette, in denen sich die Reste der im Feuerball der Explosion gespaltenen Plutoniumatome immer weiter umwandeln, bis sie einen stabilen Atomkern formen können. Die beiden Isotope wurden also als Folge der radioaktiven Prozesse häufiger. Bei Molybdän-96 hingegen passierte das nur im Millionstel-Bereich, denn hier endet die Zerfallskette schon vorher. Das Team um Hanson konnte also aus den Relationen Mo-95/Mo-96 und Mo-97/Mo-96 ablesen, wie die Explosion abgelaufen war. Zusammen mit dem Plutoniumgehalt der Proben ließen sich so die Anzahl der gespaltenen Atome und die Sprengkraft von „Gadget“ errechnen.

Nach dem ersten Test in New Mexico hatten die Amerikaner im August 1945 zwei Bomben auf die japanischen Städte Hiroshima und Nagasaki geworfen. Danach folgten noch Dutzende weiterer Tests – zur Sicherheit nicht auf eigenem Staatsgebiet, sondern auf den Südseeatollen. Obwohl Jahrzehnte vergangen sind, bleiben viele der Inseln dort verstrahlt: Die Zeit wird schließlich nicht unbedingt nach den Maßstäben der Menschen gemessen, sondern in der Halbwertszeit des gefährlichsten verbliebenen Spaltprodukts der damaligen Detonationen: Cäsium-137, dessen Menge sich nur alle 30 Jahre halbiert. Wie viel Strahlung wirklich noch da ist, wussten offizielle Stellen aber offenbar nicht genau – bis ein Team um Autumn Bordner von der Columbia-University mal nachgeschaut hat. Die Forscher charteten sich im Sommer 2015 ein Boot und steuerten innerhalb von zwei Wochen im August 2015 sechs der Inselgruppen an. Ihre Daten haben sie ebenfalls bei PNAS veröffentlicht.

Es zeigte sich, dass zumindest die Insel Enewetak, wo bereits wieder fast 1000 Menschen leben, einigermaßen sicher ist. Die Forscher fanden Dosisraten von 0,04 bis 0,17 Millisievert pro Jahr (msv/a), die von außen, also aus Boden, Wasser und Pflanzen auf Bewohner der Insel einwirkten. Als Mittelwert nennen sie 0,08 msv/a; nur auf einem Fleck an der Südspitze zeigten die Mess-Instrumente deutlich mehr, nämlich 0,4 msv/a. Als Grenzwert der zusätzlichen Strahlenbelastung in Folge der Atomtests haben die USA und die Marshall-Inseln gemeinsam eine Dosis von einem Millisievert pro Jahr festgelegt; nach dieser Angabe sollte beurteilt werden, ob frühere Bewohner der Inseln oder ihre Nachkommen sie wieder bewohnen können. Das gleiche Limit gilt in Deutschland.

Allerdings sollten bei Messungen wie denen des Columbia-Teams nicht mehr als zehn oder 15 Prozent des Grenzwertes ausgeschöpft werden. Die äußere Umgebung ist ja nur ein Strahlungsfaktor, wenn die Menschen auch womöglich belastete, lokale Nahrungsmittel essen und Radioaktivität im Wasser zu sich nehmen. Diese Bedingung ist zumindest auf Enewetak weitestgehend erfüllt, wo die Umwelt im Mittel acht Prozent des Limits ausmacht. Die Strahlungswerte sind damit vergleichbar mit denen auf dem kaum belasteten Majuro-Atoll, wo in der Hauptstadt des Landes heute viele der Staatsbürger beengt leben.

Die Entwarnung gilt aber nicht für das berüchtigte Rongelap, das immer noch unter der Nuklear-Geschichte leidet. Die Insel war beim Atomtest Castle Bravo 1954 von einer Wolke von Fall-Out getroffen worden. Weil sowohl die Bombe als auch der Wind sich anders verhielten als vorausberechnet, hatte die US-Armee die 64 Bewohner nicht evakuiert. Als radioaktive Asche auf die Insel regnete, rieben Kinder sie sich im Spiel in die Haare, sie drang in alle Hütten ein und verseuchte die Zisternen. Viele Bewohner erkrankten an akuter Strahlenkrankheit, etliche starben daran, obwohl die Amerikaner bald alle Insulaner fortbrachten.

Schon 1957 aber transportierte man die Überlebenden zurück und beharrte trotz zahlreicher Krebsfälle bis 1982 darauf, die Insel sei sicher. Auch danach wurden die Bewohner aber nicht ungesiedelt, bis Greenpeace mit seinem Schiff Rainbow Warrior die Bevölkerung 1985 auf ein Nachbaratoll brachte. Danach begann ein umstrittenes Reinigungsprogramm für die Insel. 1994 empfahl der amerikanische Forschungsrat, die Bewohner sollten bei einer Rückkehr ihre Lebensmittel zum Beispiel nur im Süden des Atolls sammeln, doch bislang haben sich die Marshallesen noch nicht darauf eingelassen. Als jetzt die Forscher aus New York auf Rongelap landeten, lagen die Strahlungswerte zwischen 0,06 und 0,55 msv/a; als Mittelwert berechneten sie 0,2 msv/a. Auf vielen Teilen der Insel gab es also zu viel Strahlung für eine Wiederbesiedlung, sollten sich die Zurückgekehrten von Fisch und lokalen Früchten ernähren.

10561566153_5c67d58c37_oZehn Jahre nach den letzten Tests, also in den frühen 1970er-Jahren, durften
einige Einwohner von Bikini auf ihre Inseln zurückkehren. Doch die Strahlungswerte
waren damals – wie heute – zu hoch, so dass die Menschen schließlich doch
wieder evakuiert werden mussten. Quelle: Energy.gov, flickr

Noch schlimmer waren die Werte auf Bikini: Hier lag schon der Mittelwert bei 1,8, die Spitzen übertrafen 6,5 msv/a. Und auf beiden Inseln, so stellten die Wissenschaftler fest, hatte man die möglichen Belastungen deutlich unterschätzt. Die gängigen Angaben waren nämlich aus Messungen berechnet, die zum Teil 20 Jahre alt waren. Und sie beruhten auf Annahmen, wie viel Zeit die Bewohner wohl in ihren Häusern verbringen und wie oft sie im Freien sein würden. Die Forscher um Autumn Bordner lassen sich zu keinem Kommentar hinreißen, was sie von dieser Methode halten, sie stellen nur trocken fest: „Unsere Resultate stellen einen Widerspruch zu den Hochrechnungen auf Basis früherer Messungen dar.“ Auch die Historie, die sich vermeintlich nach einfachen Gesetzen der Physik weiterentwickelt, braucht eben ab und zu ein Update.

Die Wissenschaftler waren zudem auf der Insel Runit, die zum Enewetak-Atoll gehört. Hier haben die Amerikaner strahlende Abfälle ihrer Bomben in den Krater einer Explosion geschoben und unter einer dünnen Betonkuppel vergraben. Das Zeug basiert vor allem auf Plutonium-239, also eine Alpha-Strahler, und dafür war das Bordner-Team nicht gerüstet: Ihre Messgerät erfassten Gamma-Strahlung. Auch davon gab es auf Runit aber einiges: direkt neben dem Bunker zeigte das Instrument gut 0,4 msv/a. Die Werte seien aber keinesfalls repräsentativ, warnen die Forscher: Sie haben die Insel nicht komplett erfasst, wohl auch zur eigenen Sicherheit.

Runit nämlich ist „Amerikas vergessene Atom-Müllhalde“ sagt Michael Gerrard, Professor für Umwelt-Recht an der Columbia University. Es gebe nicht einmal Warnschilder, geschweige denn Wachen, berichtete der Wissenschaftler von einem Besuch 2010. Viele Abfälle haben die abrückenden Truppen einfach in die Lagune geschoben, andere, darunter die Trümmer eines atomaren Blindgängers (nur der konventionelle Sprengstoff zündete), in Plastiksäcken in den Krater geworfen, der bis unter den Meeresspiegel reicht und dessen Fels aus durchlässigen Korallen besteht. Eine richtige Säuberung der Insel hat die Supermacht verweigert, und sein Parlament dann sogar gegen die finanzielle Entschädigung für die Einheimischen gestimmt, die vorher vereinbart worden war, stellt Gerrard bitter fest. Eines Tages aber werde sich das Problem nicht mehr auf eine abgelegene Insel abschieben lassen: wenn die in den Fluten des Pazifik versinken, weil der Klimawandel den Meeresspiegel anhebt.

Runit_Dome_001
Der „Cactus Dome“, so benannt nach dem Atomtest, der auf Runit einen
mehr als hundert Meter großen Krater hinterlassen hat, verdeckt große
Mengen radioaktiven Mülls. Quelle: US Defense Special Weapons Agency/
Wikipedia, public domain

Das hat Runit mit Camp Century gemeinsam. Äußerlich verbindet die beiden Orte wenig: hier eine im Prinzip idyllische Südsee-Insel, dort ein im Prinzip unberührtes Stück im Norden des grönländischen Eispanzers. Und in Pazifik kommt das Wasser zum Atommülllager, während in der Arktis die Reste langsam ins Meer rutschen könnten.

In Grönland hatte die US-Armee 1959 eine geheime Basis acht Meter unter dem Eis errichtet (ein Film im Wochenschau-Stil aus der Zeit wurde offenbar erst Jahrzehnte später freigegeben). Bis zu 200 Soldaten wurden dort stationiert; sie erkundeten, ob sich Tunnel im Inlandeis als Standort für Mittelstrecken mit Atomsprengköpfen eigneten. Dazu kam es offenbar nie, weil sich das Eis innerhalb einiger Jahre schon damals als weniger stabil als erwartet erwies. Und als die Armee das „Project Iceworm“ und die Basis 1967 aufgab, ließ sie 200 000 Liter Diesel, 24 Millionen Liter Abwasser und beachtliche Mengen chemischer Abfallstoffe zurück. Sie nahm den damals im Camp installierten Nuklearreaktor mit, der Strom und Wärme geliefert hatte. Das verstrahlte Kühlwasser jedoch blieb in einer Eisgrube.

CampCentury1Am Anfang waren die Arbeiter noch optimistisch, dass die ins Eis gefrästen Tunnel
von Camp Century halten würden …

CampCentury2… doch bald drückte das Eis die „Wonderarch“ genannten Metallträger einfach ein.
Hier in einem Raum, der zum Kernreaktor der Basis gehörte.
Quelle: US-Army, Technical Report 174 von 1965

Noch versinken diese giftigen Hinterlassenschaften des Kalten Krieges immer weiter im Eis von Grönland, aber das Ende ist absehbar. „Es ist nicht mehr die Frage, ob Camp Century und die Schadstoffe darin eines Tages an die Oberfläche gelangen, sondern wann“, sagt Dirk van As vom Dänischen Geologischen Dienst in Kopenhagen. Der Klimawandel könnte die Verhältnisse im Norden Grönlands bis zum Ende dieses Jahrhunderts umkehren, und dann würden Abfälle der ehemaligen Basis vielleicht schon ab 2120 an die Oberfläche gelangen.

Van As und Kollegen aus Kanada, den USA und der Schweiz haben ein fast vergessenes Kapitel der amerikanischen Atombomben-Historie aufgeschlagen (Geophysical Research Letters, online). Was sie enthüllen, klingt ein wenig wie eine andere Auflösung für den Roman „Fräulein Smillas Gespür für Schnee“. Die Forscher haben inzwischen freigegebene Dokumente über die Basis ausgewertet. „Man war überzeugt, das Eis würde sich nicht bewegen und die Abfallstoffe blieben für die Ewigkeit eingeschlossen“, sagt van As. „Doch heute wissen wir, dass es ziemlich dynamisch ist.“

Weil Details in den Dokumenten fehlen, kann das Team nur spekulieren, dass die Basis „nicht triviale“ Mengen PCB (Polychlorierte Biphenyle) enthält. Die krebserregenden Chemikalien wurden als Frostschutz eingesetzt; Farbe aus jener Zeit, die in anderen Basen benutzt wurde, enthielt bis zu fünf Prozent PCB. Ihre Behälter und die Dieseltanks von Camp Century dürften längst zerdrückt worden sein. Der Inhalt, immer noch flüssig, ist nun vermutlich in Blasen eingeschlossen genau wie die damals deponierten flüssigen Abfälle.

Camp Century3Eine Skizze des Kernreaktors mit seinen Nebenanlagen, die die US-Army in den Eistunneln installiert hatte. Quelle: US-Army, Technical Report 174 von 1965

Die dafür angelegten Kavernen, ursprünglich 40 Meter tief, liegen inzwischen vermutlich 65 Meter unter der Oberfläche, weil diese durch Schneefall immer weiter aufsteigt. Den Simulationsrechnungen der Forscher zufolge geht das noch Jahrzehnte so weiter: einem Modell zufolge über 2100 hinaus, ein anderes sagt für 2090 eine Umkehr vorher. Schon einige Jahrzehnten danach könnten erste Risse und Spalten im Eis die ehemalige Basis erreichen und Abfallstoffe mobilisieren, falls der Klimawandel so weiter geht wie bisher. Sollte die Welt nach dem Vertrag von Paris die globale Erwärmung begrenzen, dürfte das die Freisetzung in Grönland verzögern, aber nicht verhindern.

Dass viele Details in ihrem Aufsatz fehlen, ist den Wissenschaftlern bewusst. „Wir wollten eigentlich den Ort besuchen und Messungen machen, aber wir haben keine Finanzierung bekommen“, sagt Dirk van As. Mehrmals wurde ihnen von Geldgebern bedeutet, das Thema sei politisch schwierig. Unter anderem bei der Nato hatten die Forscher nach eigener Aussage Geld beantragt. Die wissenschaftlichen Gutachten über das Projekt seien positiv gewesen, aber dann müsse mindestens ein Land sein Veto eingelegt haben. Van As’ Kollege William Colgan von der University of Toronto hat in Science das gleiche erzählt; Anfragen der US-Journalisten an die dänische und grönländische Regierung und das US-Militär um Stellungnahmen blieben danach unbeantwortet. „Vielleicht wird es nach der Studie und dem Echo in den Medien einfacher“, sagt Dirk van As. „Wir sollten Radarmessungen auf dem Eis machen, um festzustellen, wo was liegt.“

Schonzeit für Riffe

A Titan villager navigates a traditional melanesian outrigger over shallow corals that flank a small island in the Manus Province of Papua New Guinea. Mystery shrouds the densely vegetated island, as legend amongst the indigenous Mbuke people maintains that it is home to a "dinosaur" that has never been seen on any other island in the Archipeligo.

Auf einem traditionellen Ausleger-Boot gleitet ein Fischer in Papua-Neuguinea über
Korallen. Die Insel vor ihm beherbergt nach lokalen Legenden einen Dinosaurier. Solche Tabus können helfen, Ökosystem trotz Befischung gesund zu halten.
Foto: Tane Sinclair-Taylor

Hamburg, 29. Juni 2016

Vorbemerkung: Schon wegen der Bilder wollte ich diesen Blog-Beitrag unbedingt machen. Er ist aber auch inhaltlich  spannend, weil er zeigt, wie Menschen das Schicksal der Riffe mitbestimmen – und zwar nicht nur die anonymen Massen, also wir alle, die überall auf der Welt Treibhausgase in die Atmosphäre blasen und so zur Erwärmung und Versauerung der Ozeane beitragen. Sondern ganz besonders die Menschen, die in der Nähe der Riffe leben und entweder in Einklang mit ihnen oder eben nicht.

Wenn die Fische zu scheu wurden, gaben ihnen die Dorf-Ältesten eine Auszeit. In der Gemeinschaft der Muluk, wohnhaft an der Ostküste der Insel Karkar in Papua-Neuguinea, stoppten sie die Fischerei über einigen Dutzend Hektar Korallenriffen, wenn die Fänge zu stark zurück gingen. Nach ein oder zwei Jahren, so erzählte man sich in den Dörfern, würden die Fische wieder zahm sein und die Speerfischer nahe genug an sich heran lassen.

Diese Geschichte hat Joshua Cinner von der James Cook University in Townsville/Australien schon 2006 aufgeschrieben. Aber jetzt hat er sie mit vielen anderen Beispielen noch einmal verwendet, um zu erklären, warum es manchen Riffen besser geht als erwartet. Mit einem großen, internationalen Team vom Kollegen hat der Australier in Nature mehr als 2500 Riffe in 46 Ländern und Territorien untersucht. Dabei sind ihnen neben Karkar noch 14 weitere Beispiele aufgefallen, wo die Gemeinschaft von Korallen und Fischen deutlich gesünder und vielfältiger war als man annehmen konnte. Neben diesen „bright spots“ aber gab es auch 35 „dark spots“, wo der schlechte Zustand des Ökosystems nicht recht durch bekannte Einflussgrößen zu erklären war.

BrightSpotsReefsNatureFig2_Jun2016

Eine Übersicht, wo die „bright“ und „dark spots“ liegen und wie die Forscher sie definiert haben. Quelle: Cinner et al, Fig. 2, Nature  doi:10.1038/nature18607

Die Wissenschaftler haben über den Riffen die gesamte Biomasse erfasst und mit 18 bekannten Indikatoren verglichen, von denen sie abhängen können. Dazu gehören Faktoren wie die Größe und Umgebung des Riffs, aber auch die Nähe zu möglichen Abnehmern der gefangenen Fische, und die Fragen, ob das Riff geschützt ist und ein solcher Status auch beachtet wird, wie schnell die Bevölkerung der benachbarten Orte wächst und wie viele Touristen die Gegend besuchen. Mit diesen Variablen ließ sich die Biomasse für 2450 der Riffe einigermaßen erklären, aber die 50 „bright“ und „dark spots“ zeigten deutlich andere Werte als vorherberechnet (um mehr als zwei Standardabweichungen höher oder niedriger). „Die bright spots sind nicht unbedingt unberührt“, sagt Cinner, „sie haben nur mehr Fische als sie sollten, wenn man den Druck bedenkt, unter dem sie stehen.“ Tatsächlich liegen zehn der 15 positiven Beispiel in bewohnten Regionen und acht werden aktiv befischt.

Tane Sinclair-Taylor_Cinner_Media_5

A villager returns to his canoe with a unicornfish (Naso hexacanthus) he has speared using a handmade speargun. Spearfishing is popular in the Manus Province of Papua New Guinea as it is highly selective.

Speerfischen ist zwar für die einzelnen Fische genau so tödliche wie Netze. Doch für Ökosysteme als Ganzes ist die Methode viel schonender. Bilder aus Papua-Neuguinea. Fotos: Tane Sinclair-Taylor

Auf der Suche nach den Gründen haben die Forscher um Cinner einige weitere Faktoren untersucht und mit vielen Leuten aus  umliegenden Gemeinden gesprochen. So zeigte sich, dass es in etlichen der „bright spots“ lokale Tabus oder Vorschriften ähnlich wie auf Karkar gab. Nicht immer handelte es sich um etwas, das Bürger von Industriestaaten vermutlich als Aberglaube bezeichnen würde, wie die Sage, die die Insel auf dem Foto oben umgibt: Angeblich lebt dort ein Dinosaurier, den man vielleicht besser nicht stört. Etwas nüchterner ist die Aussage der Studie, dass in vielen der 15 Positiv-Beispiel die Anwohner in hohem Maß vom Fischfang abhängen und sich deswegen für die langfristige Erhaltung einsetzen. Hilfreich für die Gesundheit des Ökosystems ist auch die Nähe zu tiefem Wasser, weil es Fischpopulation widerstandsfähiger macht.

Bei den „dark spots“ wirkten sich vor allem der Einsatz von Motorbooten und Netzen negativ aus sowie die Verbreitung von Gefriertruhen, um Fänge vor dem Transport zu lagern.  „Die klassischen technischen Maßnahmen des Fischereimanagements entpuppen sich also als Fallen, die zu Ressourcenübernutzung führen“, sagt Sebastian Ferse vom Leibniz-Zentrum für marine Tropenökologie in Bremen, der ebenfalls zu Forscherteam gehörte.

Zudem gehörten zu den 35 einige Riffe, die schon Umwelt-Schocks erlebt hatten, sich also von einer Bleiche oder dem Einfall eines Zyklons erholten. Besonders das ist eine schlechte Nachricht, weil die Menge der gestressten Korallen inzwischen deutlich zunimmt. In Australien haben Wissenschaftler gerade dokumentiert, wie schlecht es vielen Teilen des Great Barrier Reef geht (hier und hier). Mehr als 2500 Wissenschaftler und Betroffene wenden sich darum gerade einen offenen Brief an den australischen Premierminister und fordern, die Kohlewirtschaft des Landes einzuschränken und keine neuen Bergwerke mehr zuzulassen. In den USA wiederum
erwartet die Meeresbehörde Noaa ein drittes Jahr mit überhöhten Temperaturen in Folge, die das Bleichen der Korallen auslösen können.

PS: Die Cinner-Studie ist jetzt auch von der Washington Post mit einem Videobeitrag aufgegriffen worden.

 

 

Aerosole: Problem gelöst?

sphinx11

Das Sphinx-Observatorium auf dem Jungfraujoch ragt so eben noch aus den Wolken. Foto: Paul Scherrer Institut/ Julie Cozic

 

Update: Diesen Beitrag habe ich am 29. Juni 2016 um eine Stellungnahme von Wissenschaftler aus Leipzig ergänzt

Hamburg, 26. Mai 2016

Das Jungfraujoch in den Berner Alpen beherbergt nicht nur den höchsten Bahnhof Europas, sondern auch das „Sphinx“ genannte Observatorium in 3580 Metern über dem Meeresspiegel. Wenn es sich in Wolken hüllt, wie auf dem Foto, sind vielleicht die Touristen enttäuscht, aber Forscher wie Urs Baltensperger vom Paul-Scherer-Institut in Villigen im Kanton Aargau sind in ihrem Element. Baltensperger ist Atmosphären-Chemiker und Mitglied mehrerer internationaler Forschungsgruppen, die auf dem Jungfraujoch und am Forschungszentrum Cern in Genf die Entstehung von Wolken untersuchen. An den jüngsten Daten der Teams entzündet sich nun eine interessante forschungspolitische Diskussion (wer gleich dorthin springen möchte, findet sie auf der zweiten Seite; hier folgt zunächst eine Einbettung.)

Damit sich der Wasserdampf in der Luft zu kleinen Tröpfchen verflüssigen kann, die dann wie weiße Schleier oder Wattebausche über den Himmel driften oder später als Regentropfen zu Boden fallen, braucht er Kondensationskeime. Das sind kleine Partikel, die in der Luft schweben, 50 bis 100 Nanometer (Millionstel Millimeter) groß. Etwa die Hälfte von ihnen bestehen aus Staub, Sand, Russ oder Meersalz; seit kurzem weiß man auch, dass Pflanzenpollen oder Pilzsporen solche primären Kondensationskeime bilden können. Die andere Hälfte heißt sekundär, weil sie sich in der Atmosphäre neu bilden. Dazu müssen sich allerdings viele Moleküle wie Ammoniak oder ätherische Duftstoffe sowie deren oxidierte Folgeprodukte zu Clustern zusammenfinden. Sie sind zunächst, wenn sie nur aus zwei Partnern bestehen, oft instabil und brauchen einen guten Klebstoff, um noch zusammen zu sein, wenn die Moleküle 3, 4, 5 und so weiter angedriftet kommen.

Ein wichtiger Klebstoff ist Schwefelsäure (H2SO4). Sie bildet sich in der Atmosphäre aus Schwefeldioxid, das Vulkanausbrüche sowie allerhand industrielle Prozesse freisetzen. Die Menge dieses Luftschadstoffs hat derart zugenommen, dass sich Forscher gar nicht erklären konnten, wie sekundäre Kondensationskeime ohne Schwefelsäure überhaupt entstehen konnten. „Bislang dachten wir immer, wir bräuchten einen Zwei-Komponenten-Kleber zum Beispiel aus organischen Molekülen und Schwefelsäure“, sagt Joachim Curtius von der Universität Frankfurt/Main in einem Artikel von mir in der Süddeutschen Zeitung. „Jetzt zeigt sich: Die erste Komponente reicht, wenn kosmische Strahlung dazu kommt.“* Curtius, Baltensperger und viele andere Forscher haben in dieser Woche dazu gleich drei Studien in hochrangigen Journalen veröffentlicht. In Nature steht, wie sich die Molekül-Cluster im Laborexperiment ohne Schwefelsäure bilden und zu geeigneten Kondensationskeimen heranwachsen. Und in Science berichten die Wissenschaftler, dass ähnliche Prozesse auch in der freien Atmosphäre über dem Jungfraujoch zu beobachten sind. Die Redaktion in Washington hat dafür sogar ihre Sperrfrist um einen Tag verkürzt, damit das Paper zum gleichen Zeitpunkt erscheint wie die beiden in London.

Letztlich bedeutet das: Die industriellen Aerosole sind weniger bedeutend als die Wissenschaft lange befürchtet hatte. Diese Angst stammt aus einer früheren Zeit, als die Erwärmung der Atmosphäre noch nicht so deutlich zu messen war. Die Menge an Kohlendioxid war zwar gestiegen, aber es schwebte auch viel Schwefelsäure in der Luft. Forscher nahmen also an, dass eine deutliche Aufheizung durch CO2 durch eine ebenso deutliche Abkühlung wegen des H2SO4 mehr oder minder kompensiert würde. Oder sie konnten es jedenfalls nicht ausschließen – und so wurde der Ausblick in die Zukunft noch weniger zuverlässig. Es bedeutete nicht nur eine Komplikation für das Design von Klimamodellen, die die Entwickung der Temperaturen sowie von Niederschlägen berechnen sollten. Sondern hier lauerte auch die Gefahr, dass die erwünschte Reinigung der Luft von Industrieabgasen mit ihren Schwefelausdünstungen den fühlbaren Klimawandel plötzlich beschleunigen könnte. Diese Sorge ist gebannt, wenn Schwefelsäure weniger wichtig für die Wolkenbildung ist als lange angenommen.

Weiter auf Seite 2

 

 

 

* In diesem Beitrag soll es nicht um das eben gefallene Reizwort „kosmische Strahlung“ gehen: Wer sich dafür interessiert, kann das in meinem SZ-Artikel und/oder in dieser Fußnote nachlesen. Kosmische Strahlung ist vor allem in der Diskussion mit oft verbohrten Kritikern der etablierten Klimaforschung zum Streitpunkt geworden, ich nenne sie mal die Kalte-Sonne-Fraktion. Deren Argument geht so: Das Magnetfeld der Sonne lässt manchmal mehr und manchmal weniger kosmischen Strahlen durch. Da diese wiederum einen Einfluss auf die Wolkenbildung besitzen, könnten sie den Wärmehaushalt der Erde beeinflussen – weniger kosmische Strahlung, weniger Wolken, mehr Sonnenlicht erreicht die Oberfläche, höhere Temperaturen. So ungefähr. Manche Kritiker destillieren aus dieser Möglichkeit die Behauptung, kosmische Strahlen und nicht die Treibhausgase seien die eigentliche Ursache der globalen Erwärmung – sämtliche politischen Initiativen zum Klimaschutz also sinnlos.

Diese These ist aus vielen Blickwinkeln beleuchtet worden und nirgends fand sich ein Beleg. Auch das Labor-Experiment CLOUD von Curtius, Baltensperger und anderen hat in etlichen Versuchsreihen keine geliefert. So ist es auch diesmal. Zwar können kosmische Strahlen die Entstehung der ersten kleinen Cluster mit einer Größe von ein bis zwei Nanometern deutlich verbessern, aber auf das Wachstum zum Kondensationskeim von 50 bis 100 Nanometern haben sie nach Aussage der Forscher „keinen Einfluss“. Zudem gibt es seit Beginn der Industrialisierung so viel Schwefelsäure in der Atmosphäre, dass die Dienste der kosmischen Partikel kaum noch gebraucht werden. Sie können vielleicht erklären, warum die Erde in früheren Epochen stärker auf die Veränderungen im Strahlungseinfall reagiert hat, aber sicherlich nicht, warum sie sich in der jüngeren Vergangenheit erwärmt hat.

 

Aerosole: Problem gelöst? Seite 2

IMG_4252

Wolken über Berlin – bei Sonnenuntergang von unten beleuchtet. Schwefelsäure in der Atmosphäre hat bei der Bildung sicherlich mitgeholfen. Foto: C. Schrader 

 

Hamburg, 26. Mai 2016

Fortsetzung von Seite 1

Aus diesem wissenschaftlichen Erfolg entspinnt sich eine interessante forschungspolitische Diskussion, die ich in meinem SZ-Artikel nur anreiße, und hier vertiefen will. Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, verbindet sein Lob für die Ergebnisse aus der Schweiz mit einer Forderung, die den Autoren der Studien kaum gefallen dürfte. Da sich die Aerosole als wenig bedeutsam gezeigt haben, solle man sie gleich ganz aus den Simulationen nehmen und die Erforschung ihrer Effekte auf das Klima einstellen. „Insofern bedeuten die Messungen einen großen Sieg: Wir können das zur Seite legen und uns wichtigeren Dingen widmen.“

Zur genaueren Erklärung hat Stevens nach dem Interview noch eine E-Mail geschickt.

My point is that these studies support the assertion that we probably don’t need to better understand the aerosols to advance on what are some of the first rank problems related to understanding climate change.  As I mentioned yesterday, air pollution and human health are big issues, and science should work on problems that interest scientists (to some degree) so it would be unfair and incorrect to say that we should stop aerosol research.
I’m just trying to say that it is less central to understanding climate than we perhaps believed 10 or even a few years ago… or for that matter before this study.  And knowing what might be important (for a particular problem) is often a great step forward when researching something as complex as Earth’s climate.

Seine Position ist nicht ganz neu: Stevens hat das 2013 bereits in einen Kommentar in Nature geschrieben. Die damals besprochene Studie von Ken Carslaw (der auch zu dem Autoren der beiden neuen Nature-Studien gehört) und anderen in Leeds habe gezeigt, so Stevens, dass „wenn es einen Aerosol-Joker gab, dann wurde er bereits vor einem Jahrhundert gespielt und ist irrelevant für das Verständnis momentaner und künftiger Veränderungen des globalen Klimas geworden“.

Diese Logik leuchtete damals nicht unbedingt jedem ein, forderten doch die Autoren der Studie, man müsse mehr über die „unverdorbene vor-industrielle Umwelt“ erfahren. Die natürlichen Aerosole trügen 45 Prozent zur heutigen Unsicherheit über die Wirkung der Schwebteilchen bei, die industriellen nur 34 Prozent. So groß erschien der Unterschied nicht, als dass man den kleineren Part einfach ignorieren könnte.

Doch inzwischen haben die Forscher um Baltensperger und Curtius ja Daten über die Verhältnisse vor der Industrialisierung geliefert. Sie lassen den Einfluss der industriellen Aerosole geringer als befürchtet erscheinen, also kann Stevens seine Forderung mit Verve wiederholen.

Es ist wenig Wunder, dass die Autoren der neuen Studien die Schlussfolgerung des MPI-Direktors nicht teilen. Joachim Curtius hat mir geschrieben:

Durch unsere Untersuchungen verbessert sich genau unser Verständnis der früheren, nicht durch Menschen belasteten Atmosphäre, und wir erreichen damit eine wesentliche Verringerung der Unsicherheit und unser bisheriges „poor knowledge“ wird verbessert. Das ist genau das was auch nach Herrn Stevens’ Meinung bisher gefehlt hat. Damit können wir die Aerosoleffekte jetzt genauer beziffern. Die Verringerung dieser Unsicherheit (die gleichzeitig die Unsicherheit beim Gesamtstrahlungsantrieb inkl. Treibhausgase dominiert) ist eine der ganz großen Herausforderungen und genau da tragen wir zur Verringerung der Unsicherheit bei und es ist in  meinen Augen höchst sinnvoll diesen Fragen weiter nachzugehen.  Und, ja, die Effekte werden wohl kleiner, aber sie werden nicht null.

Und Urs Baltensperger hat sich so geäußert:

Es ist zwar richtig, dass bei der heutigen Situation mit höheren Aerosolkonzentrationen eine Änderung von sagen wir 10% eine kleinere Auswirkung hat als in der vorindustriellen Zeit. (…) Dies bedeutet aber nicht, dass die Auswirkungen völlig egal wären; wir sprechen ja über viel größere Änderungen als 10%. (…) Der Strahlungsantrieb der Aerosole durch Wechselwirkung mit den Wolken  ist damit nach wie vor relevant, aber schlecht quantifiziert, und benötigt deshalb weitere Forschung, unter anderem, um die Effekte der vorindustriellen Zeit und damit auch die Differenz besser quantifizieren zu können. (…) Daneben gibt es aber nach wie vor den direkten Effekt der Aerosolpartikel mit der Strahlung (in unseren Papern gar nicht angesprochen), und da gibt es diesen Sättigungseffekt nicht. Ich kann aus diesen Gründen die Schlussfolgerungen absolut nicht nachvollziehen. Sie werden auch durch ständige Wiederholungen nicht richtiger.

Diese Diskussion hat unter anderem Bedeutung für das Design künftiger Klimamodelle: Brauchen Sie die zusätzliche Komplexität, die das Nachstellen der Aerosol-Chemie bedeutet oder nicht? Piers Foster von der Universität Leeds, der wie Stevens ein Lead Author des entsprechenden Kapitels im fünften Bericht des IPCC war, nimmt eine Art Mittelposition ein und wirbt für Pragmatismus – vor allem weil die Aerosole viel Rechenzeit verbrauchen.

I think the wider climate community needs to move to suites of related climate models with different degrees of complexities, so you can choose your climate model depending on the question you want to answer. The new UK Earth system model which is just going online is a case in point. Colleagues at Leeds, led by Ken Carslaw (author of the Nature papers) led the development of the aerosol scheme within this model. It contains the complexities talked about in the Nature papers, so it is a good one.
However, they are very computational expensive models to run and around 75% of the computer time within the Earth system model is taken up by the interactive chemistry and aerosol scheme. This severely limits the experiments we can do with it. So I think we also need the stripped down models with simplistic aerosol schemes – and these simple models can be used to explore many other very important problems in climate change not related to aerosols.

In der Tat empfiehlt aber auch er seinen Kollegen, bei ihren Forschungsanträgen in Zukunft nicht mehr zu betonen, die Aerosole machten die größte Unsicherheit in der Klimaberechnung aus. Das stimme einfach nicht mehr. „Die Aerosol-Community hat großartige Arbeit geleistet und es gibt noch viele Fragen, denen sie sich widmen kann: Luftqualität und der Beitrag der Aerosole zur Klimavariabilität sind zwei interessante.“
 

Ergänzung am 29. Juni 2016

Mehrere Wissenschaftler des Leibniz-Instituts für Troposphärenforschung in Leipzig und von der dortigen Universität haben mich gebeten, hier auch ihre Stellungnahme zu der These von  Bjorn Stevens zu dokumentieren.

Dieser Aussage möchten wir ausdrücklich widersprechen. Generell ist es sehr problematisch, aus den Untersuchungsergebnissen zu einigen organischen Partikelbestandteilen direkt auf deren Auswirkung auf die Wolkenbildung auf klimarelevanten Skalen zu schließen. Klimamodelle können Aerosol-Wolkenprozesse noch nicht ausreichend realistisch abbilden. Daher kann die Bedeutung der neuen Ergebnisse für die Klimaentwicklung nicht ohne weiteres abgeleitet werden. Dass die Einflüsse atmosphärischer Aerosolpartikel auf das Klima im Allgemeinen nicht ignoriert werden sollten, wird auch in einer gerade erschienenen, thematisch relevanten Veröffentlichung in der renommierten amerikanischen Fachzeitschrift ‚Proceedings of the National Academy of Sciences’ verdeutlicht (Seinfeld et al 2016). Hier stellen die Autoren heraus, dass selbst bei einer Verringerung der Empfindlichkeit von Wolkeneigenschaften in Bezug auf Aerosolpartikeln, es in Zukunft, z.B. auf Grund der sinkenden Partikelkonzentrationen, nicht weniger wichtig wird, die von ihnen verursachten Modifikation des Treibhauseffekts und damit ihre Wirkung auf das Erdsystem besser zu verstehen.

Die Schlussfolgerung, dass die Rolle von Aerosolpartikeln im Klimasystem verstanden, ihre Auswirkungen hinreichend geklärt und quantifiziert wären und somit zu diesem Themenkomplex nicht weiter geforscht werden solle, ist also in keiner Weise nachvollziehbar.

gez. Ina Tegen, Hartmut Herrmann, Andreas Macke, Frank Stratmann, Ulla Wandinger, Alfred Wiedensohler (Leibniz-Institut für Troposphärenforschung); Johannes Quaas, Manfred Wendisch (Leipziger Institut für Meteorologie, Universität Leipzig)

Zurück zur Startseite

Paris und das Klima – im Großen und Kleinen

ParisSidewalkClean_cHenryLawford
Früher Morgen am Quai du Voltaire. Die Straßen, bemerkt der Paris-Reisende Henry Lawford, seien perfekt gesäubert. Und gekühlt. Foto: Flickr/Henry Lawford 

Hamburg, 22. April 2016

Paris geht heute einmal mehr in die Geschichte ein. Unter den Klimavertrag, der dort im vergangenen Herbst ausgehandelt wurde, setzen in New York bei den Vereinten Nationen die ersten Staaten ihre Unterschrift. Das Abkommen soll helfen, die Erwärmung der Welt tatsächlich auf zwei Grad Celsius zu begrenzen, womöglich aber auch auf 1,5 Grad.

Der französische Präsident François Hollande hat bei der Zeremonie als Erster zum Füller gegriffen. Barbara Hendricks, die deutsche Umweltministerin war um 18:40 Uhr deutscher Zeit dran. Der US-Außenminister der USA, John Kerry, hielt seine zweijährige Enkeltochter bei der Unterschrift auf dem Schoß. Für jeden der Regierungschefs oder Minister wird die entsprechende Seite in einem dicken Buch aufgeblättert; nach etwa 40 Sekunden ist dann schon der nächste dran. Insgesamt hatten 171 Länder angekündigt, den Vertrag schnell zu unterzeichnen. 13 Staaten, vor allem Inselstaaten aus der Gruppe der Entwicklungsländer, wollen sogar bereits die Ratifikationsurkunden hinterlegen (Länder wie Barbados, die Malediven, Mauritius, Fidschi und Tuvalu, aber auch Somalia, Palästina und Belize). Das reicht zwar noch nicht, damit der Vertrag völkerrechtliche Gültigkeit erhält, aber es ist ein wichtiger symbolischer Schritt. In Kraft treten kann der Vertrag nämlich erst, wenn ihn mindestens 55 Länder ratifizieren, die zusammen für mindestens 55 Prozent der Treibhausgas-Emissionen verantwortlich sind.

Da China und die USA angekündigt haben, den Vertrag schnell zu ratifizieren, wäre die zweite der Bedingungen schnell erfüllt – so schreibt es zumindest die Süddeutsche Zeitung. Bei aller Freundschaft: Ganz so einfach ist es nicht. Neben den beiden Klima-Supermächten müssten noch zum Beispiel die sechs größten EU-Länder und Indien ratifizieren (gemäß 2014er-Daten des CDIAC). Es könnte aber, angesichts der Euphorie nach dem Abschluss von Paris, tatsächlich schnell gehen.

Außerdem ist aber in den USA umstritten, wie dort der Prozess der Ratifikation laufen soll. Die Regierung erklärt den Vertrag für nicht rechtlich bindend, darum müsse der Senat nicht darüber befinden. Dort würde Barack Obama wohl auch schwerlich eine Mehrheit finden. So schreibt es zum Beispiel die Washington Post. Das ist natürlich ein Trick, aber einer mit einem schalen Nebengeschmack: Die Regierung erklärt ja offiziell, dass sie sich nicht an die Vereinbarung halten muss (die ja ohnehin vor allem auf Freiwilligkeit setzt). Jeder Nachfolger des scheidenden Präsidenten, auch die klimaskeptischen Republikaner (oder was dieser Tage für Politiker dieser Partei durchgeht), wäre aber zumindest einige Jahre an den Vertrag gebunden, wenn er vor ihrem oder seinem Amtsantritt Rechtskraft erlangt.

Dass diese Auslegung, welchen Status der Vertrag für die USA hätte, aber rechtlich umstritten ist, wissen auch die W-Post und behaupten natürlich die rechte Presse und die entsprechenden Vordenker der Klimawandelleugner. Obama aber scheint mit der beschleunigten Anerkennung sicherstellen zu wollen, dass der Paris-Vertrag überhaupt Gültigkeit erlangt. Das Signal, wenn ein weiteres Mal die USA einen Vertrag zwar unterschreiben, aber nicht ratifizieren, wäre auch fatal.

Paris Morning Music_cChristineAceboAm Morgen wird der Gehsteig in vielen Pariser Straßen geschrubbt. Aufnahme mit freundlicher Genehmigung von Christine Acebo, Ashford/CT. Foto: Flickr

Vielleicht ist dieser Tag daher auch der richtige, neben dem großen Beitrag von Paris zum Klima auch einen kleinen zu würdigen. Hier geht es nicht um das Weltklima, aber immerhin um das Stadtklima. Wer schon einmal morgens in der französischen Hauptstadt  unterwegs war, um irgendwo über Café Au Lait und Croissant den Tag zu planen, der hat bestimmt gesehen, was die Einheimischen mit ihren Gehsteigen machen: Sie wässern und fegen sie (und manche Besucher fotografieren das sogar, danke an die genannten Flickr-User). Tatsächlich ist das mehr als die Privatinitiative von einzelnen Bistro-Besitzern oder Concierges, es steht ein System dahinter. An vielen der Straßen und Boulevards läuft Wasser entlang. Und das hilft tatsächlich nicht nur der Sauberkeit, und erfreut die Tauben, sondern dämpft den sogenannten Wärmeinsel-Effekt, wonach Städte viel heißer werden als das umgebende Land.

ParisStreetCleaning_cJayt74Auch Profis wässern die Straßen. Foto: Flickr/Jamie Taylor

Ein Team um Martin Hendel von der Sorbonne hat nachgemessen: Die Lufttemperatur geht um bis zu 0,8 Grad zurück. Das bringt wahrscheinlich an einem heißen Nachmittag noch keine wirkliche Erleichterung, aber jedes bisschen hilft. Die Forscher haben echte Experimente gemacht und benachbarte Straßen-Abschnitte verglichen. Zum einen in der Rue du Louvre im Stadtzentrum, wo ein Sprühwagen der Stadtreinigung alle 30 Minuten durch einen Abschnitt fuhr und durch einen anderen eben nicht (zwischen 11:30 Uhr und 14 Uhr hatten die Angestellten offenbar Mittagspause, da sprühten sie nicht, aber sie waren immerhin zurück, als die Sonne in die Straßenschlucht fiel). Zum anderen die ungefähr parallel verlaufenden Rue Lesage und Rue Rampeneau in Belleville im 20. Arrondissement. Hier lag – nur in ersterer – ein Schlauch mit Sprühventilen im Rinnstein.

Die Autoren haben darüber immerhin ein 16-Seiten-Paper veröffentlicht (Urban Climate, doi: 10.1016/j.uclim.2016.02.003). Um fair zu sein: Es geht ihnen dabei auch um die korrekte statistische Auswertung der Befunde. Und manchmal muss man eben auch einfach mal Dinge beweisen, die man schon intuitiv als richtig erkannt hat. Oder – siehe den Vertrag – Dinge tun, auf die anhand überwältigender Belege schon die halbe Welt gewartet hat.

ParisTaubenIMG_3594Eine Badewanne für Tauben. Foto: Christopher Schrader

Update: Im Lauf der Zeremonie und danach habe ich einige der Formulierungen von „wird erwartet“ hin zu „ist geschehen“ angepasst.