Klima + Soziales = KlimaSocial

Liebe Webseite, es tut mir leid, aber ich habe ’ne Neue. Ich werde nun mehr Zeit mit meinem Angebot bei riffreporter.de/klimasocial verbringen. Dort schreiben einige Kollegen und ich darüber, wie wichtig die sozialen Prozesse sind, um den Klimawandel zu bewältigen. Nach dem Motto: Klima + Soziales = KlimaSocial. Der erste exklusive Artikel dort beschreibt die seelischen Probleme, die Sturmopfer, Naturfreunde sowie Forscher und Aktivisten wegen der Klimawandels bekommen können. Er heißt:

Klimawandel essen Seele auf

(Foto: Martha Nigrella, US Army National Guard, Flickr, CC BY 2.0)

Hier gibt’s schon demnächst noch was Neues, aber meine Leidenschaft gilt jetzt der Neuen. Sorry.

 

Von der Blümchenwiese zur Monokultur?

Hamburg,  5. Juli 2017

Soziale Medien in 25 Kategorien – fast alle sind auch für die Wissenschaft und Wissenschaftler relevant. Quelle: Ethority, Version 6

Die deutschen Akademien der Wissenschaften legen sich mit Facebook, Twitter und anderen sozialen Netzwerken an. Sie müssten „verstärkt unter publizistischen/medien-rechtlichen Gesichtspunkten reguliert werden und nicht, wie es bisher überwiegend der Fall ist, primär unter ökonomischen und kartellrechtlichen Aspekten“, fordern die Forscher. Eine 15-köpfige Arbeitsgruppe von Leopoldina, acatech und der Union der deutschen Akademien der Wissenschaften hat in Berlin die Stellungnahme „Social Media und digitale Wissenschaftskommunikation“ vorgestellt und mit Experten diskutiert.

Die Gruppe sehe „die freie Informationsverbreitung gefährdet“, sagte Holger Wormer von der Universität Dortmund, einer der Sprecher: „Wer anderen als Medium eine erhebliche Reichweite zur Verfügung stellt, muss für ein Minimum an Redaktion sorgen“ – dazu seien zum Beispiel auch Tageszeitungen auf ihren Leserbriefseiten verpflichtet.

Dass sozialen Medien gefälschte Meldungen, populistische Parolen und gezielte Diffamierungen verbreiten, ist kein originäres Problem der Wissenschaft. Den Verheißungen der Netzwerke auf bessere, schnellere und direkte Kommunikation folgte stets Enttäuschung, zeigt die Akademien-Arbeitsgruppe für die Gesellschaft als Ganze und für den eigenen Bereich: Freiheit, Gleichheit, Vielfalt und Transparenz zum Beispiel hätten sich eben nicht verbessert. Im öffentlichen Diskurs sei eine „Verflachung und Verrohung“ zu bemerken, die Güte der verbreiteten Information nehme ab: „Es entfällt oft die Sicherung der Qualität“, heißt es in dem 72-seitigen Papier.

„Ein Grundton, als ob wir noch eine Ausstiegsoption hätten“

Das wird gerade für die Wissenschaft zum Problem, wenn sich etwa Falschmeldungen über Klimawandel oder Impfungen im Netz verbreiten. Der Staat müsse daher mit Auflagen für die Konzerne „sowohl für die Garantie der allgemeinen Informationsversorgung als auch speziell für die Versorgung der Öffentlichkeit mit Informationen über die Wissenschaft“ sorgen, heißt es in der Stellungnahme.

Dem stimmte im Prinzip auch Staatssekretär Gerd Billen vom Bundesjustizministerium zu: „Wir haben nicht unbedingt den Anspruch, dass privatwirtschaftliche Unternehmen die Demokratie fördern, aber schon, dass sie ihr nicht schaden.“ Etliche andere Politiker, etwa CDU-Fraktionschef Volker Kauder und Bundestagspräsident Norbert Lammert, hatten bereits gefordert, soziale Medien stärker zu regulieren. Das zügige Löschen rechtswidriger Inhalte als ersten Schritt soll nun das Netzwerkdurchsetzungsgesetz erzwingen, das der Bundestag in seiner letzten Sitzung vor der Sommerpause beschlossen hat.

In der deutschsprachigen Wissenschaftskommunikation herrschten aber noch keine Zustände wie etwa in der Auseinandersetzung etwa über die Flüchtlingspolitik, sagte der Social-Media-Manager der Helmholtz-Gemeinschaft, Henning Krause. „Dagegen ist das wie eine Blümchenwiese.“ Und er kritisierte an der Stellungnahme den „Grundton, als ob wir noch eine Ausstiegsoption hätten“. Wie andere Experten warb er bei der Präsentation in Berlin dafür, neben den Risiken auch die Chancen der sozialen Medien zu sehen. Auch etliche Kommentare im Netz (eine gute Übersicht gibt es bei Marcus Anhäuser) bescheinigen der Stellungnahme, ihr Thema eher verfehlt zu haben. „Bei den zwei wichtigsten Empfehlungen an die Wissenschaft eineinhalb vertane Chancen“, schrieb Reiner Korbmann auf seinem Blog „Wissenschaft kommuniziert„.

Das Papier der Akademien enthält insgesamt zwölf Empfehlungen. Etliche betreffen die Nutzung sozialer Medien durch Wissenschaftsorganisationen und Forscher selbst. So sollen zum Beispiel keine falschen Anreize gesetzt werden, so dass Wissenschaftler und Pressestellen von Instituten ihren Erfolg nach Klicks und Likes messen. Ein Schwerpunkt ist aber auch die Förderung des Journalismus, speziell des Wissenschaftsjournalismus. Er wirke, so die Stellungnahme, bisher als „neutraler Beobachter, der es dem Rezipienten zuallererst erlaubt, sich aufgrund einer möglichst neutralen Darstellung ein eigenständiges Urteil zu bilden“.

Eine zentrale Institution für die Wahrheit?

Viele Medienunternehmen stecken aber in der Krise, weil ihre Einnahmequellen auch wegen der Kostenlos-Praktiken im Internet wegbrechen. Hier regt die Arbeitsgruppe an, über eine zentrale „redaktionell unabhängige bundesweite Wissenschaftskommunikations- und Informationsplattform“ nachzudenken. Sie solle Berichte über Forschungsergebnisse „aggregieren, redaktionell bewerten und hinsichtlich ihrer Urheberschaft transparent machen“, aber frei vom Einfluss des Staates und der Wissenschaftsorganisationen arbeiten können.

Eine solche „Deutschland-Redaktion stieß bei etlichen Experten auf Widerspruch. Solle das etwa eine „zentrale Institution der Wahrheit“ werden, fragte Markus Weißkopf von der Organisation „Wissenschaft im Dialog“ polemisch. Eigentlich sei das Ideal doch pluralistische Berichterstattung. Franziska Badenschier vom „Science Media Center“ in Köln mahnte, man solle doch lieber die noch arbeitenden Journalisten stärken als eine solche Institution zu schaffen. Und die freie Journalistin Tanja Krämer, Mitbegründerin von Riff-Reporter, warnte: „Da verschwimmen die Grenzen von unabhängigem Journalismus und Wissenschaftskommunikation.“ Letzteres ist für Journalisten ein Synonym für interessengeleitete Wissenschafts-PR. Die Akademien-Arbeitsgruppe sieht darin freilich einen neutralen Oberbegriff. Holger Wormer erwiderte darum: „Das Ziel, die Gesellschaft mit zuverlässigen Informationen zu versorgen, ist gefährdet. Darum ist es fast schon egal, mit welcher Koalition von Wissenschaftskommunikation und Journalisten man das macht.“

Insgesamt könne die Wissenschaft durchaus mutiger in ihren Ideen und Forderungen sein, fasste am Ende Gerd Billen zusammen. Er präsentierte einige Einfälle, wobei er betonte, das sei nicht die Meinung der Regierung, sondern seine private. Wie in der Umweltpolitik müsse man „Kosten internalisieren“. Dieses Stichwort wird zum Beispiel verwendet, wenn die Betreiber von Kohlekraftwerken für das bisher kostenfreie Entsorgen von Kohlendioxid eine Abgabe bezahlen müssen. Wer „geistige Umweltverschmutzung“ betreibe, den könne man zum Beispiel verpflichten, auf eigene Rechnung professionelle journalistische Inhalte in seinem Netzwerk zu verbreiten. Und analog zur Initiative etlicher Europa-Politiker, jedem 18-jährigen ein Interrail-Ticket für eine Reise über den Kontinent zu schenken, schlug Billen vor, jungen Leuten Zeitungsabonnements zu bezahlen. Das würde gleich mehrere Fliegen mit einer Klappe schlagen: Die Medienkompetenz der jungen Leser stärken und die Journalisten fördern.

Hinweis: Dieser Text ist zuerst auf der Plattform Riff-Reporter erschienen.

Der March for Science und das Mittelalter

Hamburg, 24. April 2017

Science March in Hamburg: Nach der ersten Kundgebung geht es vom Rathausmarkt los
in Richtung Jungfernstieg. Foto: C. Schrader 

Am Samstag waren etwa 1500 bis 2000 Menschen auf dem Hamburger Rathausmarkt beim hiesigen March for Science. Es war einer von 600 auf dem ganzen Planeten, die in Solidarität mit dem Protest der amerikanischen Wissenschaftler stattfanden. Diese marschierten in Washington, andere demonstrierten auch in der Antarktis, unter Wasser vor Hawaii und in etwa 20 deutschen Städten, darunter Heidelberg, Berlin und München.

Als ich vor dem Hamburger Rathaus stand und dort den Reden zuhörte, dachte ich an eine Passage aus dem Buch „Eine kurze Geschichte der Menschheit“ von Yuval Noah Harari. Er definiert die Entwicklung unserer Spezies als eine Abfolge von drei Revolutionen, der kognitiven vor 70000 Jahren, der landwirtschaftlichen vor 12000 Jahren und der wissenschaftlichen vor 500 Jahren. In dieser sind wir noch mitten drin, und der Anlass der Demos war, dass wir gerade eine Art Konterrevolution erleben: Der Einfluss der Wissenschaft auf das Denken und die Politik soll zurückgedrängt werden. Um dem entgegenzutreten, forderten die Veranstalter der Märsche – und damit die Teilnehmer – eine Art Evidenz-basierter Politik, also gesellschaftliche Entscheidungen, die sich auf wissenschaftliche Erkenntnisse stützen, zumindest dort, wo sie vorhanden sind.

Foto von twitter, Bearbeitung: cs

Es ist interessant, wie Harari das Wesen der wissenschaftlichen Revolution definiert. Sie habe mit dem Eingeständnis des Unwissens begonnen, sagt er. Im Mittelalter war die Menschheit, jedenfalls in Europa, aber auch in anderen Kulturkreisen, der Meinung, alles Wissenswerte sei schon bekannt. Wer sich bildete, nahm dieses vorhandene Wissen in sich auf, niemand sah die Notwendigkeit, darüber hinaus zu denken. Was nicht bekannt war, war unwichtig. Und Empirie, die dem scheinbaren Wissen widersprach, konnte daran auch nichts ändern, manchmal war sie sogar gefährlich.

Dieses Bewusstsein änderte sich zu Beginn der Neuzeit. Harari illustriert das am Beispiel der „Entdeckung“ Amerikas. Christopher Columbus segelte 1492 in der festen Erwartung los, den Seeweg nach Indien zu finden. Er betrachtete die Karibik-Inseln, auf denen er landete, als Teil Indiens (noch heute heißen sie westindische Inseln) und nannte ihre Bewohner Indios. Bis zu seinem Tod beharrte er auf dieser Postion. Und dann kam der „erste moderne Mensch“ Amerigo Vespucci, der um das Jahr 1500 nach Europa von einem unbekannten Kontinent berichtete, vor dessen Küste Columbus‘ Inseln lägen. Es war ein Kontinent, von dem die Gelehrten seiner Zeit nichts wussten, der in ihren Büchern nicht vorkam, den es nach mittelalterlichem Denken nicht geben konnte. Harari urteilt: „Im Grunde ist es nur gerecht, dass ein Viertel der Welt nach einem unbekannten Italiener benannt wurde, an den wir uns heute nur deshalb erinnern, weil er den Mut hatte zu sagen: ,Wir wissen es nicht.'“

Das Weltbild des Mittelalters war natürlich stark geprägt von heiligen Büchern. Und die Menschen lebten in Ehrfurcht davor. „Es war unvorstellbar“, schreibt Harari, „dass die Bibel, der Koran oder die Vedas ein entscheidendes Geheimnis des Universums übersehen haben könnten, und dass es an gewöhnlichen Sterblichen sein könnte, dieses Geheimnis zu lüften… Was die mächtigen Götter nicht offenbarten und was die Weisen der Vergangenheit nicht in ihre Schriften aufnahmen, war definitionsgemäß irrelevant.“

Und da – jetzt spinne ich Hararis Analyse weiter –  haben wir doch eine Erklärung für die Wissenschafts-Feindlichkeit, die uns zum Beispiel aus den USA entgegenschlägt. Die religiöse Rechte, die dort jetzt den Ton angibt, beharrt darauf, dass Gott die Geschicke der Welt bis ins Detail lenkt, und verlangt Unterordnung unter die himmlische Fügung (und ganz nebenbei kann man dann noch die eigenen Interessen der biblischen Botschaft unterjubeln): Am klarsten zeigt sich das bei der Opposition gegen die Evolutionsforschung und den Evolutionsunterricht in den Schulen. Es ist aber auch in den Debatten über den Klimawandel, Impfungen oder Gentechnik zu erkennen. In dieser Hinsicht führt der Gegenwind gegen die Wissenschaften sozusagen in das Mittelalter zurück nach dem Motto: Es ist nicht am Menschen, die Geheimnisse Gottes zu lüften und zu entweihen.

Es ist nötig, sich diese Positionen einmal auf diese Weise klar zu machen. Natürlich will von den Anhängern der Trump-Regierung niemand zurück ins Mittelalter. Aber die geistige Haltung, der Wissenschaft keinen zentralen Wert mehr in der Gesellschaft einzuräumen, hat viele Parallelen zur damals verbreiteten Position des Nicht-Wissen-Wollens.

PS: Zwei Bemerkungen noch. Erstens: Dass es der Wissenschaft erfolgreich gelingt, viele Geheimnisse zu lüften, nehmen manche als Beleg, dass es Gott gar nicht gibt. Das halte ich für eine unzulässige Verkürzung, außerdem tritt man damit den Menschen vor das Schienenbein, für deren Identität der Glauben an Gott zentral ist. Das ist nicht nur grundlos verletzend, sondern auch sinnlos und taktisch unklug, weil es Reaktionen wie die jetzige beschleunigen kann. Zudem gibt es in den Kirchen viele kluge Menschen, die zwischen Religion und Wissenschaft überhaupt keinen Widerspruch sehen, auch und gerade auf den Gebieten Evolution und Klimawandel.
Zweitens: Dass sich Politik auf wissenschaftliche Erkenntnisse stützt, unterstütze ich natürlich vollkommen. Doch das greift zu kurz, denn die Resultate der Wissenschaft können gesellschaftliche Entscheidungen ja nicht ersetzen. In der Klimadebatte zum Beispiel kann man sehr wohl verschiedene Kurse steuern, wenn sie alle die Leitplanken einhalten, die die Wissenschaft gesteckt hat. Insofern müsste man eigentlich fordern, dass Politik den Erkenntnissen der Forschung nicht widersprechen sollte, sie darüber hinaus aber ihren Gestaltungsfreiraum ausschöpfen kann – und dass sich jeder in einer Demokratie daran beteiligen kann. Das ist vielleicht nicht sexy genug für den Aufruf zu einer Demonstration, aber zentral für das Selbstverständnis des Wissenschaftlers als Bürger. Wie heißt es beim IPCC: policy relevant but not policy prescriptive.

Scientific method and so-called skeptics

This is an addendum to the answer I have tried to give to Scott Adams‘ (the creator of Dilbert)
question on why science can’t seem to persuade climate skeptics. The basic answer is: Because they don’t want to be convinced. Maybe I should leave it at that, but I feel that maybe some people could indeed benefit by discussing the finer points of the methods of science Adams is targeting with his post. So this is for those specialists (this post not being announced anywhere but at the end of the main answer I have given).

Dear Scott Adams, I’ll dip into some of your points 1 through 14 here. I’ll go at my own pace, I am not necessarily going to jump the hoops you hold up. If you want to skip ahead: I will be dealing with

For starters this business about supplying a number, a percentage of how much of global warming was man-made. The IPCC said in 2013: “It is extremely likely that human influence has been the dominant cause of the observed warming since the mid-20th century.“ The UN-body elsewhere defines “extremely likely” as 95 to 100 percent probability. But it doesn’t give a number for “dominant”.

Let’s figure this out. Since the only other category except human influence would be non-human or natural influence we have a two-way-split. I think it would be safe then to assume that dominant means decidedly more than 50 percent. And if you look at this figure from that same IPCC report, you would think it is closer to 100 percent, wouldn’t you? Without human influence there would be little to no warming, that’s those blue bands. Add human and natural together and you get the pinkish bands around the actual observations. It’s clearer in larger regions with more data: temperatures in North America, Europe, Asia, Australia show no overlap of the colored bands anymore. And it’s most clear in global averages. And there are literally 1000s of sources in the IPCC report.

Source: IPCC, AR5, WG1, Figure SPM.6 

Maybe well over 50 to 100 percent human influence is still too vague for you. Sorry, things are not as simple as we all would like them to be. Anyways: Any single number would most certainly be evidently wrong in the precision it radiates. And attack would be sure to follow. Another of the mock debates surrounding this issue.

Next: Why do you fight being told the rate of warming was a tell-tale sign of what is happening? Rates are often as important or even more so than absolute numbers in every day life, too. Consider the task of sending a message from New York to San Francisco: The distance has stayed the same since both cities are on the map. First you could send it via stage coach, then by train, plane, now e-mail. The amount of time went from weeks to seconds and that means the speed of transmission, the rate of transport went up by orders of magnitude. Not such a difficult concept, is it? And that doesn’t mean heat and cold records aren’t relevant information, too. In fact they are, and there are way more new heat records than new cold records. By 4:1, here is a source for the US.The point is, if there was no change, then there would randomly be new cold and heat records in about the same proportion.

Arctic vs Antarctic: The ice goes away in the north and grows in the south, you say, and accuse scientist of ignoring that. Well, they aren’t, there is lots of research trying to figure out what is happening in both areas. If you think scientist are hiding that ice is growing down south then maybe you are listening to somebody who wants you to think they are hiding it. You can, for instance, look here if you interested in sea ice. For land ice, this might be a good starting point – the question, it says, in under debate.
There are several big differences between the regions that make the simple comparison you demand difficult, to put it mildly. Antarctica is a continent surrounded by ocean and fierce circumpolar currents that basically give it its own independent weather. The Arctic is an ocean surrounded by continents and tightly coupled to what happens with storms, temperatures and precipitation in many countries around it including yours and mine. The northern polar region belongs to a hemisphere that contains two thirds of earth’s land mass – including the major industrial nations with their emission histories. The southern has one third of the land including Antarctica and is otherwise 81 percent water. Why would you expect the two regions to be mirror images? It’s also not as if they were shifting ice masses between them making the changes a zero-sum-game. It is a little like adding the scores of the Chicago Bears, Cubs, Bulls, Black Hawks and Red Stars and comparing them to a sum of clubs from Los Angeles to see which is the better sports town.

And just to finish up with details, your point number 11.

  • Why aren’t insurance companies paying attention to sea level rise? They are. The US flood insurance program is recognized to be in dire need of reform because of rising seas (here, here and here, the last being a report by the National Academy of Sciences). And internationally take the example of Munich Re. It says in its annual report (page 74) that “Climate change represents one of the greatest long-term risks of change for the insurance industry”. It quotes the cost of adapting to sea level rise as 1 trillion dollars for the US alone. And university analysts have given it thumbs up on its response.
  • Why do your beaches look the same? Well, Wikipedia has you living in California, the Eastern Bay area to be exact, and I assume you might be going to Santa Cruz or thereabouts. So let’s look at a map. Here is Santa Cruz with the inundation 2010, 2060 and 2100 (Source). The water has been progressing slowly (and presumably local authorities have taken care of their beaches) but changes will accelerate.
                              Source: Monterey Bay Sea Level Assessment by Noaa

    The numbers in one projection are: seven inches rise last century, six more until 2030, another six until 2050, and two more feet on top by 2100. So you are in the middle of the two-inches-per-decade phase between 2000 und 2030. That’s not easy to notice by naked eye especially when there is maintenance going on. The water will rise, your state authorities say.
  • Why are half the top hits in web searches debunking the rise? Are you honestly asking that? It’s not about the quantity of hits but about the quality of sources. Bloggers have made it their business to attack the science and since they get shared and linked across a parallel universe the Google algorithms think the sites are trustworthy. They get ranked high like science sources who often don’t spend as much time on search engine optimization. For fun try “aliens landing earth” or “Barack Obama muslim” to see the quota of reliable information.

Now for the grand finale, your major and indeed first point: models. Maybe you have been impatiently skipping down here (or maybe you have tuned out) because the IPCC-graph I showed earlier depends on models. How else would you be able to artificially switch off human contributions? That’s nothing we can do in real life.

But why do we need models, in plural, at all? Well, that’s a tenet of science. You make multiple measurements because each one could be flawed, and then you look at what the tendency, the average, the median is, or whatever statistical analysis of them tells you. It’s easy to make fun of that, I know. In everyday life one measurement usually suffices. Has your kid gained another inch, have you lost weight, are the panels of your strip all the right size, is there enough flour in the cookie dough, how many people are at the party, is there enough pressure in your tires, how many e-mails do you get in a single day? Nobody does multiple measurements and statistical analysis for those. Well, for the e-mails you might to eliminate the effect that there could be systematically higher numbers on single days, maybe Mondays and Fridays – just guessing.

In science the questions are usually a whole lot harder, so this multiple measurement habit has proved to be a good idea. As has trusting science as a whole for society, by the way. A consequence of doing this, if you do it right, is that you get two numbers. The result you are looking for and a measure of confidence that that is a figure you can depend on. Scientists being a little nerdy often call the confidence measure “uncertainty”. And that is what it is, too. It is a measure of how uncertain we need to be – or certain we can be. In everyday language that word “uncertainty” comes across badly, just like scientists don’t know their stuff. In fact it is not a weakness but a strength of the scientific method. It has established ways of quality control that are certainly lacking from many other parts of communication – like getting directions in a strange town, remembering the weather two years ago, indicating the size of fish you caught.

When there are no measurement values to be had, because you are talking about a future that hasn’t arrived yet, you need to construct models. They simplify reality in a way that makes it computable, usually leaving out big chunks of the complicated stuff. As the saying goes, they are all wrong, but some are useful. For them also it is a good idea to have several, ideally constructed from scratch in independent, competitive research groups. If they point in different directions, all but one must be getting it wrong. If, however, they point in the same direction that can boost confidence they are getting something right.

Of course they could in principle still all be wrong. Then they all would make the same mistakes and that points to the underlying science being wrong. It’s equations about how pressure and humidity and wind and rain work together and how CO2 and other greenhouse gases influence the radiation that enters and leaves the atmosphere. Complicated stuff but pretty well tested, so the criticism against models is usually not leveled there.

This graph comes from the IPCC. It shows there’s some work to be done but not total chaos. It is a comparison of a whole lot of climate models hindcasting global temperatures over roughly 150 years and through several large volcano eruptions. Black and bold are the observations, red and bold is the average of the models, the thin lines are individual ones, the yellowish shading marks the reference period against which all temperature differences are measured.
Source: AR5, WG1, Figure 9.8, 2013

To prove that the equations and the mechanisms in the models are working together well researchers do this thing called hindcasting that irritates you so. The models start their work at some point in the distant past, fed with the initial conditions from that point in time and then run unguided through the years up to the present. The results can be compared to what actually happened and give the model makers a measurement of how good they are doing. Only if they pass that test can anyone place any confidence in them getting the future right.

„It tells you nothing of their ability to predict the future“, you say. I wonder why you would think you are in the position to judge that. Yes, hindcasting indeed tells us something about the ability to project the future, because the models prove they get the underlying science right. They calculated a future from 1850 onwards based on first principles. It’s just that for us, that future is the past.

I think it is seriously wrong to equate climate models to the financial market. You are missing something rather important. In climate science people actually know what is happening and what causes what. Obviously the minute details of dealings at the Stock Exchange are NOT known even remotely as well. If you insist on that kind of simile: The only thing that would be comparable is if you have a set of publicly available rules and based on that not one financial genius but a whole bunch of them put their predictions of the future into sealed envelopes guarded by a trusted institution only to be opened when the end year envisioned has arrived and all the data are in. And you would only count it as a success if everyone of those guys got it reasonably right.

Anyways, hindcasting of course is not the primary product of the models. It is a necessary quality check, nothing more, nothing less, and should no more be advertised than race track results for a new car model that will never go 150 mph in traffic. The results should be there for the asking, sure. But not center stage. If you see hindcasting as a major part of science communication around climate models you are looking at the communication in a different way from me. It’s safe to assume that neither of us has the right way to look so we both should be careful about what we say about them. I’ll certainly look out for exaggerated hindcasting language in the future. Maybe you can look beyond that.

Remember though I said that models were “ideally constructed from scratch in independent, competitive research groups” – well, not all of them are. There are connections between some research groups but not others. So some researchers are wondering if all the models should be treated equally, they question the model democracy, as they put it. This is brand new stuff. The suggestion is to weight the models and then to do weighted averages. In real life you would be using that technique maybe to locate a sports arena that several clubs will be using – and you want to giving the club with a 100 actives more say than the clubs with 25, 33 or 50 players. So you weight their respective answers with the number of members. In the case of the models the categories that could be used for weighting are independence – the unique efforts get more say – and skill in hindcasting. So there still is not what you wanted, the single best model, but more of a unified voice of them.

Finally to put the whole business into a framing you might understand (and I find weird examples work best to get points across): If you were to hold the secret theory that creating Dilbert was inevitable given your life’s twists and turns – how would you test that? You could recruit a number of young, very young kids and subject about half of them to the same experiences you had to see if they came up with a similar syndicated cartoon series. You would have control groups that get different experiences to test correlates: Could a woman become Scott Adams? Would there be Dilbert if there hadn’t been Little Nemo, Peanuts or Doonesbury before?

And since this in reality would be impossible or inhumane to subject people to you would think of models to give you an answer. Models, in plural, because if you only relied on one you could so easily get it wrong and never even know about it.

If you are seriously interested, it is a good idea to do this in plural. Scientists are seriously interested. And as a citizen following science news you would be better off not pushing for answers that leave out the best science has to offer. And that doesn’t just apply to models, that goes for most of your demands.

Dear Scott Adams,

you ask in your blog post why climate scientists can’t come up with good ways to convince skeptics that climate change is indeed a problem.

Just a screenshot (and a link). All rights lie with Scott Adams.

This might not be the answer you have been waiting for, but it is the answer I need to give. Let me introduce myself: I am a German science journalist, named Chris Schrader. I live in Hamburg. I am only writing this up because in the end of the post you say you’re interested in the psychology, not the science around the climate issue. So am I, that’s why I am bothering with this, but I do also know enough about the science, having worked as a journalist in the field for 15 years. And I am, this is the last of the preliminaries, assuming you have a genuine interest in the question and are, as you say, “on the side of the scientists”. I realize there is some debate about your motives in a related post but let’s go with the benefit of the doubt.

The simple answer to the question in the headline of your post is: There is no way to convince skeptics because they don’t want to be convinced. Indeed their identity and social status often depends on not being convinced. You make it sound as though everybody secretly wanted to believe climate change is real and a serious problem but just needs the right arguments to bring him- or herself to it. Or in a more neutral way of putting it: that everybody weighed the pros and cons in a rational matter and just needed enough good statements by scientists for the scales to come down on the right side. That is a concept the psychology around the issue debunked years ago: the information deficit model. It simply doesn’t work that way. More or better put information will not sway people’s views on contested topics. So if you propose to know  “what it would take to convince skeptics that climate science is a problem that we must fix”, as you say, I seriously beg to differ. This whole discussion is not about what science says or how it says it, it’s only about what people think they want to hear. You yourself seem to making the same point in the last two sentences but draw no conclusions from it.

Saying or thinking that science has to do anything at all before we finally can begin acting on climate change is nothing but a big smoke screen.

Especially on issues like climate change that are political and divisive, people tend to follow the hints in their social groups on what to think. Climate change is the prime example of that, especially in your country. It has become part of the political identity of people what they think about it. You should read up what researchers like Dan Kahan at Yale have to say on it. He does these tests that check peoples’ skills with numbers. When the subject is, say, the efficacy of a skin ointment in removing a rash and the task is comparing outcomes in subjects using it or not, people do okay. It’s a hard problem, but there are reasonable folks coming up with reasonable answers. But change the subject to climate change, or for that matter gun laws, and every evidence for numeracy people have goes out the window. Now they give the answer that falls on their political party’s line no matter the numbers. And the smarter they are and the better with numbers, the bigger the political spread becomes.

This situation is the result of a lot of hard work by some guys at conservative think tanks and other organisations. Read Naomi Oreskes’ book “The Merchants of Doubt” or see the documentary and you’ll get their names. Some of them had been falcons in the cold war, staunch missile-loving anti-communists, who then went on to defend the tobacco industry against the science saying smoking was really bad for you, defend the asbestos industry against science pointing to the risk of lung cancer the fibers posed, and so on: Acid rain, ozone hole, finally climate change, always on the side of industry against science based arguments supporting regulation.

The tactic was in every case an attack on the science and scientists, and spreading doubt was usually enough, hence Oreskes’ book title. They would say: the science is still out, there is no consensus, graphs hint at different explanations – sound familiar? The strategy was to defend the coveted American liberties against overreaching government or what these guys saw as it. They seemed to believe that if the state were allowed to regulate x then it would soon also want to deal with y and z and other letters. x in this instance being carbon emissions, y maybe cars,
z houses, and somewhere down the road gun control, health insurance and other concepts that are toxic and socialist in the view of the American right (and, just as an aside, that even rather conservative states in Europe have no problem with at all).

So these guys certainly didn’t and don’t want to be convinced climate change is a real problem. Maybe they really believe this theory about giving the state not a single ledge to step on, maybe they were and are also paid well by the industries making a profit in an underregulated business. And as long as they have a hold on their share of public opinion through political contacts, religious leaders, talk radio, TV stations like the Fox News network and bloggers they keep selling opposition to the science of climate change as an identity badge for millions of people in the country. So they don’t want to be convinced, either.

That also seriously deflates calling them skeptics. Skepticsm is a virtue in science but there you need enough of a background to voice specific objections and you have to be willing to let yourself be convinced your views are wrong. We could relax the first point to make this not into an elitist issue but the second is fundamental. And we have just seen there is no disposition by that group to be dissuaded of their criticsm.

One of the many signs held up at the February rally in Boston „Stand up for science“. It rightly says that acting on climate can be patriotic. Copyright: C. Schrader

If you take the psychology serious, and there is lots of research showing this, in order to “convince” the “skeptics” you need to embrace social strategies to get people out of the strangleholds they are in. Show them, demonstrate to them how it can be patriotic and christian to be concerned about climate change and that their neighbors, colleagues and friends think that way, too. Get them hooked on Katharine Hayhoe’s Global Weirding series of short videos: She is an evangelical climate scientists with credentials in both supposedly mutually exclusive communities. Even Trump voters don’t want him to dismantle the US climate change policy. They just don’t talk about it, because they think they are a minority. Well, they aren’t and they need to shown by someone they trust. If that’s you: welcome, get to work. Their political conviction is certainly valued. The questions we have to answer need everyone’s ideas, but it should come in at the stage where we discuss the solutions, not whether the problem is real.

Maybe then that only leaves you, Scott Adams: Do you want to be convinced? I mean, there must be some people willing and able to weigh arguments around climate change. Open mind to the question, good common sense, no patience for b/s but respect for clear arguments, willing to admit to change of opinion. It has been sort of the ideal of the western culture since enlightenment. Let’s assume you are, and further assume your questions or demands have anything to do with that. If that is correct, you show yourself as a guy with a no-nonsense-attitude that will not mind coming across gruff. Then presumably you will be able to handle a similar tone. So here goes: I think you are basically misunderstanding and misrepresenting what science is and does and supposedly owes you to a point that makes it hard to presume that all this happens in good faith.

Best, Chris Schrader

For specialists: Some answers to Adams‘ questions/demands.

 

Wettervorhersage für die Arktis

Hamburg, 18.11.2016

Ein kleiner Blick ganz nach Norden, wo zurzeit erstaunliche Dinge passieren. Sie lassen sich am besten mit einer Reihe von Grafiken erklären. Die erste stammt von der Seite Arctic News: Es ist eine Wettervorhersage für morgen, Samstag den 19.11.2016. Die Polarregion wird demnach gut sieben Grad Celsius wärmer sein als im Durchschnitt der Jahre 1979 bis 2000.

arctic-forecastWettervorhersage für die Arktis. Quelle: Arctic News

Und das ist kein Ausreißer, das ist seit Wochen so, wie das dänische Meteorologische Institut zeigt. Seit etwa zwölf Wochen ist es nördlich des 80. Breitengrades wärmer als im Durchschnitt und zuletzt waren es sogar fast 20 Grad zu viel. Das lässt sich allerdings nicht direkt mit der Vorhersage oben vergleichen, weil die Zeiträume für die Bildung des Mittelwerts unterschiedlich sind, hier geht es um die Jahre 1958 bis 2002. Bitte auch beachten, die Zahlenwerte sind bei der dänischen Grafik in Grad Kelvin angegeben. Der Nullpunkt der Celsius-Skala liegt bei 273,15 Kelvin. Die Arktis sei „wahnsinnige“ 20 Grad wärmer als normal, schrieb dazu die Washington Post.

arctictempsdmiTemperaturen nördlich des 80. Breitengrads. Quelle: Dänisches Meteorologisches Institut

Die nächste Grafik zeigt, dass die übermäßige Wärme nicht nur an der Oberfläche herrscht, sondern vor allem in der Höhe. Das ist hier verwirrend aufgezeichnet: Die Höhe ist unten, die Meeresoberfläche oben. Da war es im Oktober 2016 auch mal ein wenig kühler als üblich (gemeint hier: im Durchschnitt über 1981 bis 2010). Aber darüber und bis weit nach Süden ist es deutlich zu warm, schreibt das National Snow & Ice Data Center der USA, von dem die Grafik stammt.

t-anomalyDurchschnittstemperaturen im Norden im Oktober, aufgetragen gegen die Höhe.
Quelle: NSIDC

Die Wissenschaftler erklären das mit sehr ungewöhnlichen Druckverhältnissen, die sehr viel warme Luft nach Norden lenken. Man kann das gut auf dieser Kartendarstellung erkennen, wo die warme Luft fließt. Außerdem sei das Meer sehr warm, weil es dieses Jahr sehr lange frei war und viel Sonnenlicht absorbieren konnte. Das hier gezeigte Niveau von 925 Hekto-Pascal liegt bei ungefähr 2500 Fuß, also 750 Metern. Und der 60. Breitengrad aus der oberen Grafik bildet hier unten den Rand der Abbildung. Er führt ungefähr durch Oslo, die Südspitze Grönland und an der Südküste Alaskas entlang.

airtempanomaly-karteDer Einstrom warmer Luft nach Norden. Quelle: NSIDC

Diese übermäßige Wärme hatte es auch schon im Frühjahr 2016 gegeben, wie ein weiterer Blick auf die dänische Grafik zeigt. Nicht ganz so spektakulär, aber deutlich. Eine Parallele zeigt sich in der Ausdehnung des Meereises. Dessen Größe schwankt mit den Jahreszeiten, für gewöhnlich überdeckt es im März die größte Fläche und erreicht im September sein Minimum. Zu dem Zeitpunkt hat 2016 keinen Rekord aufgestellt, aber im Frühjahr etliche Wochen lang. Und seit Mitte Oktober gibt es wieder jeden Tag einen neuen Tiefstand in der Zeitreihe.

charctic-interactive-sea-ice-graph-arctic-sea-ice-news-and-analysisDie Ausdehnung des Meereises in der Arktis im Vergleich der Jahre. Quelle: NSIDC

Gestern, am 17.11.2016, waren 8,62 Millionen Quadratkilometer Meeresoberfläche zu mindestens 15 Prozent mit schwimmendem Eis bedeckt. Das sind gut 400 000 weniger als im Rekordjahr 2012 und eine Million Quadratkilometer weniger als am gleichen Tag 2015. Nur so zum Vergleich: Deutschland hat etwa 357 000 Quadratkilometer Fläche. Normal ist das nicht.

 

 

Klimatipps – nicht nur für Los Angeles

14338415117_c87efa21c6_kDas Lummis House in Los Angeles hat ein amerikanischer Journalist um die Jahrhundertwende zum 20. Jahrhundert im Norden der Stadt bauen lassen. Es ist heute ein Denkmal, und der Garten ist nach den Grundsätzen des „Drought-tolerant gardening“ angelegt. Quelle: Ken Lund, Flickr, Creative Commons Licence, unverändert

Hamburg, den 22. September 2016

Zur Abwechslung mal ein paar Klimatipps für Haus und Grundstück. Der erste erreicht uns aus Los Angeles in Kalifornien, wo die vergangenen fünf Jahre der trockenste solche Zeitraum waren, seit  das Wetter regelmäßig registriert wird – also seit 140 Jahren. Mehr noch: Eine Dürre wie 2012 bis 2014 sollte nur alle knapp 10 000 Jahre einmal eintreten, haben Wissenschaftler berechnet. Das hat an der Pazifikküste bereits ein Umdenken im Hinblick auf den Klimawandel verstärkt, von dem Deutschland noch weit entfernt ist. So will der Staat Kalifornien im Alleingang bis 2030 den Ausstoß von Treibhausgasen um 40 Prozent unter das Niveau von 1990 senken  – das rechtfertigt allemal den Blick in eine Region, die neun Zeitzonen von Deutschland entfernt liegt.

Die Behörden der südkalifornischen Metropole haben auf die Dürre zum Beispiel mit dem Cash for Grass-Programm reagiert und bieten Gartenbesitzern Zuschüsse an, wenn sie ihren Rasen durch eine wassersparende Landschafts-Gestaltung ersetzen: Mulch, Steine und vor allem genügsame Pflanzen. Dafür gibt es ein Handbuch, das zum Beispiel die Salbei-Art hummingbird sage anpreist, das im Südwesten heimische deergrass, diverse Büsche und Ranken oder natürlich die Staatsblume, den kalifornischen Mohn.

Der Sinn ist, den gewaltigen Wasserverbrauch beim Sprengen des Rasens  zu reduzieren. Er war ohnehin schon durch Verordnungen eingeschränkt: Sprinkler durften nur 15 Minuten alle zwei Tage angestellt werden, und nicht zwischen 9 und 17 Uhr. Doch was die weiteren Folgen über das Wassersparen hinaus wären, wenn alle Hausbesitzer in LA ihre Gärten umgestalteten, das war bisher noch nicht richtig klar. Viele konnten sich ja ausmalen, dass die Temperaturen in unmittelbarer Umgebung des Hauses ansteigen, wenn das verspritzte Wasser nicht mehr zu großen Teilen verdunstet.

Genau das bestätigt nun eine neue Studie, die in den Geophysical Research Letters erschienen ist – allerdings zeichnet sie ein differenziertes, durchaus interessantes Bild. Während sich die Region nämlich zunächst tatsächlich tagsüber aufheizt, wenn Gärten nicht mehr gesprengt werden, kühlt sie nachts um so stärker ab. Bemerkbar macht sich das den Berechnungen zufolge schon zu einer Uhrzeit, zu der die Bewohner abends von der Arbeit nach Hause kommen, nachdem sie den üblichen Rushhour-Stau bewältigt haben. Am deutlichsten ist der Effekt in den Abendstunden. Und falls der Umbau der Pflanzenwelt nur konsequent genug vollendet wird, schwindet auch die Erwärmung in der Mittagszeit wieder, weil die Brise vom Pazifik weiter ins Land hineinreicht.

Die Erklärung ist eigentlich einfache Physik: Wenn die Erde nicht mehr künstlich feucht gehalten wird, bremst das den Austausch von Energie zwischen Luft und Boden: Die von der Sonne erwärmte Erde kann die sich Luft nicht mehr so leicht daran hindern, sich abzukühlen.

Pouya Vahmani und George Ban-Weiss von der University of Southern California haben ein regionales Klimamodell für Los Angeles laufen lassen und in der virtuellen Metropole zuerst alle Gartenpflanzen, dann auch das ganze Grünzeug auf öffentlichen Flächen ausgetauscht. Das geht natürlich nicht wie zum Beispiel bei den „Sims“, wo man den Garten seines computeranimierten Hauses liebevoll neu bepflanzt: Die Datenpunkte im Modell waren zwei mal zwei Kilometer groß. Die Forscher haben darum Kenngrößen der Vegetation verändert, vor allem Angaben über die Stomata der Pflanzen (also die Spaltöffnungen, über die sie Gase wie Wasserdampf und Kohlendioxid mit der Umgebung austauschen) und die sogenannten Rauhigkeitslänge (die Höhe über dem Boden, auf der die Vegetation den Wind praktisch auf Null gebremst hat). Sie haben auch die Albedo (also die Menge an Sonnenlicht, die Pflanzen reflektieren) variiert, aber das hatte ihren Angaben zufolge nur wenig Effekt. Den weiteren Klimawandel, der Los Angeles bis zum Ende des Jahrhunderts um drei bis fünf Grad erwärmen könnte, ignorieren die Forscher zunächst, er lässt sich in Simulationsrechnungen einfach abschalten.

droughttolerancefig2Simulationsrechnung, wie der Umbau nur von privaten Gärten (Phase 1) oder auch von allen öffentlichen Flächen (Phase 2) die Temperaturen an einem Julitag in Los Angeles
um 14 und 22 Uhr verändern würde. Quelle: Vahmani/Ban-Weis,
Geophysical Research Letters, Figure 2

Konkret warf der Computer folgende Zahlen aus: In der Phase 1, bei der nur die privaten Rasenfläche umgewandelt wurden, erwärmte sich das Stadtgebiet an Julitagen mittags um zwei Uhr im Mittel um 0,7 Grad Celsius; Spitzenwerte erreichten die Regionen im San Fernando Valley nördlich der Hollywood Hills und Santa Monica Mountains sowie in Riverside am östlichen Ende des Beckens von Los Angeles: Hier wurde es mittags um 1,9 Grad wärmer, wenn die Gärten nicht mehr gewässert wurden. Nachts um 22 Uhr hingegen kühlte sich die Metropole deutlich ab, und zwar gerade in den tagsüber erhitzen Regionen fern des Meeres – im Mittel um etwas mehr als drei Grad. Das ist nicht nur vom Betrag her mehr, sondern auch wichtiger für die Gesundheit der Angelenos. Gesundheitsschäden drohen bei einer Hitzewelle vor allem, weil die Menschen nachts keine Abkühlung mehr finden und der Schlaf massiv gestört ist.

In der Phase 2, in der auch alles öffentliche Land virtuell umgemodelt wurde, blieb die nächtliche Abkühlung gleich, und sogar tagsüber sanken die Temperatur im Mittel nun um 0,2 Grad. Verantwortlich waren vor allem die küstennahen Regionen (siehe Grafik oben). Dass im Durchschnitt eine Abkühlung herauskam, hat die Forscher selbst überrascht, wie sie schreiben. Ganz trauen sie dem Wert auch nicht; je nach Wahl der Pflanzenparameter könnte es doch eine geringe Erwärmung geben. Entscheidend für den Unterschied zu Phase 1 war jedenfalls, dass die neuen Pflanzen die Seebrise besser passieren lassen, so dass sie weiter ins Land reicht.

Das letzte Wort ist allerdings nicht gesprochen: Das Umpflanzen könnte nämlich auch bedeuten, dass manche Bäume strubbeligen Büschen weichen müssten, und da würden vermutlich nicht nur die Umweltschützer – in den USA bisweilen als „Treehugger“ verspottet – protestieren.

24150210766_f5d47bf138_kDer Dachboden eines Hauses in Kalifornien. Der Boden ist gedämmt, die Unterseite des Daches jedoch nicht sonderlich isoliert. Foto: mit freundlicher Erlaubnis jimvancura.com

Der zweite Tipp für das Energiesparen kommt zwar nicht aus Kalifornien, aber er führt dorthin. Gerade die Metropole Los Angeles nämlich, oft das Sinnbild für Energieverschwendung, hat bei einem Vergleich von sechs Städten am besten abgeschnitten: Die Häuser dort verbrauchen am wenigsten für Heizen und Kühlen, und der Bedarf dürfte im Rahmen des Klimawandels sogar noch sinken, stellt ein Team um Anthony Fontanini von der Iowa State University und dem Fraunhofer-Zentrum für nachhaltige Energiesystem in Boston fest.

In ihrer Studie wollten die Forscher eigentlich den Effekt der Dachkonstruktion erkunden und haben sechs verschiedene Geometrien im Computer simuliert: vom Flach- über das Sattel- und Walm- bis zum Mansarden-Dach mit oder ohne Gauben. Sie werden in den USA ganz anders gebaut als hierzulande: aus leichten Materialien, ganzjährig belüftet. Die Isolationsschicht liegt (oder sollte liegen) zwischen der Decke der Wohnräume und dem Fußboden des Dachbodens.Dass die Bewohner unter dem Dach etwas lagern oder gar ein Zimmer einbauen, haben die Wissenschaftler dabei ignoriert.  Darum änderte die Konstruktion am Ende kaum etwas am Energiebedarf des 143-Quadratmeter-großen Bungalows darunter.

Aber es bewahrheitete sich wieder der alte Makler-Spruch, wonach es auf Lage, Lage und Lage ankommt. In diesem Fall ging es jedoch nicht um Stadtviertel oder gar Straßenseiten (wie bei der Hamburger Elbchaussee), sondern um geografische Regionen, als das Forscherteam die Städte Baltimore, Atlanta, Minneapolis, Seattle, Phoenix und Los Angeles verglichen. Die Metropole in Kalifornien schnitt dabei am besten ab, das heißt, hier floss am wenigsten unerwünschte Wärmeenergie durch die Decke des Wohnbereichs: im Sommer als Wärme nach unten, die weggekühlt werden muss, im Winter als Wärme nach oben, die entweicht und ersetzt werden muss.

Insgesamt ergab sich für den Bungalow in Los Angeles ein hochgerechneter Energiebedarf von gut 11 000 Kilowattstunden, das wäre auch im Vergleich mit relativ neuen Häusern in Deutschland ein guter Wert von 78 KWh/m2 ∙ a. Allerdings liegt das natürlich am milden Klima, nicht an der Bausubstanz. Die zweitplatzierte Stadt, Seattle, kam auf gut 15 000, Phoenix als Schlusslicht auf fast 22 000 Kilowattstunden. Seinen Spitzenplatz erreichte Los Angeles in der Summe über Heiz- und Kühlperiode. Nur in Phoenix muss man im Winter weniger heizen, dafür im Rest des Jahres viel mehr kühlen. In Minneapolis und Seattle wiederum läuft im Sommer seltener die Klimaanlage, dafür im Winter häufiger die Heizung.

Los Angeles hat zudem im Vergleich der amerikanischen Städte die besten Aussichten im Klimawandel: Abhängig vom Erwärmungsszenario sinkt in Südkalifornien der Energiebedarf des simulierten Hauses um zehn bis 23 Prozent. Einen kleineren Rückgang dürfen auch Baltimore, Minneapolis und Seattle erwarten, dafür steigt der Verbrauch in Phoenix um bis zu 19 Prozent und in Atlanta um bis zu 44 Prozent. Dort wird die Hitze schon heute oft unerträglich.

9710802780_6fcad6c268_kVon begrünten Dächern im Civic Center-Distrikt von San Francisco hat man  einen
guten Blick auf die Hügel und den markanten Sturm Tower. Quelle: Sergio Ruiz, Flickr,  Creative Commons License, unverändert

Und ein letzter Hinweis, der zwar aus Hongkong stammt, aber überall dort wichtig werden kann, wo Mücken zur Plage werden können. Zwei Geographen der Universität Hongkong haben untersucht, ob begrünte Dächer zum Brutplatz für Moskitos werden können. Ihre Antwort: eher nein. Sie konnten zumindest auf den drei Dachgärten weniger der stechenden Insekten fangen als auf zwei blanken Flachdächern, wo auch immer mal wieder Pfützen entstehen und als Kinderstube der Mücken dienen können. Auf dem begrünten Dach in Los Angeles (oder San Francisco) müssten aber wiederum dürre-tolerante Pflanzen wachsen, das ist wohl klar.

Das Zeitalter der Pilzwolken

Bekanntes Foto des Baker-Tests. Die durch die Druckwelle hervorgerufene Wilson-Wolke hat sich teilweise aufgelöst und gibt den Blick auf die Wassersäule und den blumenkohlförmigen Explosionspilz sowie die Flotte von Zielschiffen frei. Die Palmen am Strand wurden mit schwarzer und weißer Farbe angestrichen, um die Höhe der erwarteten Flutwelle messen zu können. Von United States Department of Defense (either the U.S. Army or the U.S. Navy)derivative work: Victorrocha (talk) - Operation_Crossroads_Baker_(wide).jpg, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=6931019Am 25. Juli 1946 ließen die Amerikaner auf dem Bikini-Atoll im Rahmen der „Operation Crossroads“ den Sprengsatz Baker 27 Meter unter Wasser detonieren. 93 ausgemusterte und erbeutete Schiffe und viele Versuchstiere wurden der Explosion ausgesetzt. Sie fiel so unerwartet heftig aus und verursachte solche Schäden, dass die Organisatoren den geplanten dritten Test absagten und später erst einmal wissenschaftliche Begriffe für die beobachteten Phänomene definieren mussten. Einige der radioaktiv verseuchten Schiffe wurden später im Pazifik von San Francisco versenkt. Quelle: United States Department of Defense/commons.wikimedia.org, gemeinfrei

Hamburg, 29. August 2016

There is now also an English translation of this entry

Hinweis: Dieser Blogbeitrag beruht auf zwei Artikeln von mir, die bei Spektrum.de und in der Süddeutschen Zeitung erschienen sind. Ich habe sie hier zusammengefasst und ergänzt, und bringe sie vor allem, weil ich die alten Bilder so toll finde. Es lohnt sich, besonders beim Aufmacher-Bild, dem Link zu folgen. 

Das Zeitalter der Pilzwolken begann am 16. Juli 1945, morgens um halb sechs. An jenem Tag hatte sich die Elite der amerikanischen Physiker in der Wüste von New Mexico versammelt, knapp 60 Kilometer südwestlich von Socorro. Es war der erste Praxistest des Manhattan-Projekts, die erste Explosion einer Atombombe; Robert Oppenheimer hatte der Operation den Codenamen „Trinity“ gegeben. Den Sprengsatz selbst nannten die Entwickler flapsig „Gadget“, also Gerät oder Vorrichtung. Er steckte in einem mannshohen ausgebeulten Zylinder mit wildem Kabelgewirr auf der Außenseite. Sein Herzstück waren sechs Kilogramm Plutonium, und er erreichte eine Sprengkraft von etwa 21 Kilotonnen. Die Physiker hatten noch gewettet, welche Wucht der nukleare Sprengsatz erreichen würde. Die meisten unterschätzten die Explosion, nur Edward Teller war übermäßig optimistisch, so schildert es der Historiker Richard Rhodes in seinem Buch „The making of the Atomic Bomb“. Diese Zahl, um die die Experten gewettet hatten, ist nun von Radiochemikern des Los Alamos Nationallabors noch einmal mit einer ganz neuen Methode bestätigt worden.

Noch immer bietet die Geschichte der amerikanischen Atombomben Wissenschaftlern Ansatzpunkt für ihre Projekte. Sie interessieren sich für die nukleare Hinterlassenschaft der Pilzwolken-Ära: Neue Methoden erlauben Einblicke in die Funktionsweise der Sprengkörper. Die Erkenntnisse könnten bei der Überwachung künftiger Abrüstungsverträge helfen. Andere Forscher liefern frische Daten von vernachlässigten Schauplätzen der Historie wie den Südseeatollen von Enewetak, Rongelap und Bikini, wo die US-Armee fast 20 Jahre nach dem Krieg ihre Bombentests noch oberirdisch durchführte. Oder von einer Basis auf Grönland, Camp Century, von der aus die Amerikaner im Ernstfall Raketen gen Sowjet-Union starten wollten. Der Klimawandel könnte einige der Hinterlassenschaften freisetzen.

Die Trinity-Explosion ist zwar fast ein Menschenleben her, Augenzeugen dürfte es daher nur noch wenige geben. Immerhin: Neben den Physikern waren auch viele junge Soldaten anwesend, und auch Kinder der normalen Bevölkerung von New Mexico erlebten den plötzlichen Blitz mit. Mit Geigerzählern oder anderen herkömmlichen Instrumenten ist das Ereignis noch heute an damaligen Ground Zero, den die Öffentlichkeit zweimal im Jahr besuchen kann, ohne weiteres nachvollziehbar. Die Strahlung ist etwa zehnmal so hoch wie sonst in den USA. Doch Einzelheiten der Bombe buchstäblich aus dem Sand zu lesen – das ist mal ein neuer Ansatz.

Die Forscher um Susan Hanson brauchten dafür nur fünf Stückchen Glas von der Explosionsstelle, nicht einmal zehn Gramm. Die intensive Hitze des Tests hatte hier den Sand geschmolzen und dabei auch Spaltprodukte der Kettenreaktion eingeschlossen. Und obwohl in den Proben 70 Jahre lang weiter unzählige radioaktive Zerfallsprozesse abgelaufen waren, konnten die Forscher Bauart und Effektivität der Bombe daraus bestimmen. Für die Sprengkraft brauchten sie nur die historisch überlieferte Menge Plutonium und kamen so auf 22,1 Kilotonnen, das deckt sich im Rahmen der Messgenauigkeit mit bisherigen Angaben. Die Wissenschaftler richten den Blick nun nach vorn. „Ein solches Verfahren könnte die Zeitspanne erweitern, in der man Daten für Inspektionen sammelt“, schließt das Team von Hanson aus dem Erfolg. „Das würde auf absehbare Zukunft die Überprüfung von Abrüstungs-Verträgen verbessern.“ Sie haben ihre Resultate in PNAS veröffentlicht.

TrinityGadget_10540204545_430c889902_o
Norris Bradbury, im Manhattan-Projekt zuständig für die Montage der „Gadget“ genannten ersten Atombombe, und seine Kreation. Quelle: US-Regierung, flickr

Im Fall Trinity war der Kniff, in den Proben nicht nach strahlenden Resten, sondern nach stabilen Atomen zu suchen, genauer nach Molybdän-Isotopen. Neun von ihnen sind bekannt, sieben davon sind stabil, ihr Atomgewicht liegt zwischen 92 und 100. Sie haben jeweils ihren festen Anteil am natürlichen Vorkommen, der zwischen neun und 24 Prozent liegt. Diese Verteilung hatte sich in den Glasproben allerdings verschoben. Die Isotope Mo-95 und Mo-97 nämlich stehen jeweils am Ende einer Zerfallskette, in denen sich die Reste der im Feuerball der Explosion gespaltenen Plutoniumatome immer weiter umwandeln, bis sie einen stabilen Atomkern formen können. Die beiden Isotope wurden also als Folge der radioaktiven Prozesse häufiger. Bei Molybdän-96 hingegen passierte das nur im Millionstel-Bereich, denn hier endet die Zerfallskette schon vorher. Das Team um Hanson konnte also aus den Relationen Mo-95/Mo-96 und Mo-97/Mo-96 ablesen, wie die Explosion abgelaufen war. Zusammen mit dem Plutoniumgehalt der Proben ließen sich so die Anzahl der gespaltenen Atome und die Sprengkraft von „Gadget“ errechnen.

Nach dem ersten Test in New Mexico hatten die Amerikaner im August 1945 zwei Bomben auf die japanischen Städte Hiroshima und Nagasaki geworfen. Danach folgten noch Dutzende weiterer Tests – zur Sicherheit nicht auf eigenem Staatsgebiet, sondern auf den Südseeatollen. Obwohl Jahrzehnte vergangen sind, bleiben viele der Inseln dort verstrahlt: Die Zeit wird schließlich nicht unbedingt nach den Maßstäben der Menschen gemessen, sondern in der Halbwertszeit des gefährlichsten verbliebenen Spaltprodukts der damaligen Detonationen: Cäsium-137, dessen Menge sich nur alle 30 Jahre halbiert. Wie viel Strahlung wirklich noch da ist, wussten offizielle Stellen aber offenbar nicht genau – bis ein Team um Autumn Bordner von der Columbia-University mal nachgeschaut hat. Die Forscher charteten sich im Sommer 2015 ein Boot und steuerten innerhalb von zwei Wochen im August 2015 sechs der Inselgruppen an. Ihre Daten haben sie ebenfalls bei PNAS veröffentlicht.

Es zeigte sich, dass zumindest die Insel Enewetak, wo bereits wieder fast 1000 Menschen leben, einigermaßen sicher ist. Die Forscher fanden Dosisraten von 0,04 bis 0,17 Millisievert pro Jahr (msv/a), die von außen, also aus Boden, Wasser und Pflanzen auf Bewohner der Insel einwirkten. Als Mittelwert nennen sie 0,08 msv/a; nur auf einem Fleck an der Südspitze zeigten die Mess-Instrumente deutlich mehr, nämlich 0,4 msv/a. Als Grenzwert der zusätzlichen Strahlenbelastung in Folge der Atomtests haben die USA und die Marshall-Inseln gemeinsam eine Dosis von einem Millisievert pro Jahr festgelegt; nach dieser Angabe sollte beurteilt werden, ob frühere Bewohner der Inseln oder ihre Nachkommen sie wieder bewohnen können. Das gleiche Limit gilt in Deutschland.

Allerdings sollten bei Messungen wie denen des Columbia-Teams nicht mehr als zehn oder 15 Prozent des Grenzwertes ausgeschöpft werden. Die äußere Umgebung ist ja nur ein Strahlungsfaktor, wenn die Menschen auch womöglich belastete, lokale Nahrungsmittel essen und Radioaktivität im Wasser zu sich nehmen. Diese Bedingung ist zumindest auf Enewetak weitestgehend erfüllt, wo die Umwelt im Mittel acht Prozent des Limits ausmacht. Die Strahlungswerte sind damit vergleichbar mit denen auf dem kaum belasteten Majuro-Atoll, wo in der Hauptstadt des Landes heute viele der Staatsbürger beengt leben.

Die Entwarnung gilt aber nicht für das berüchtigte Rongelap, das immer noch unter der Nuklear-Geschichte leidet. Die Insel war beim Atomtest Castle Bravo 1954 von einer Wolke von Fall-Out getroffen worden. Weil sowohl die Bombe als auch der Wind sich anders verhielten als vorausberechnet, hatte die US-Armee die 64 Bewohner nicht evakuiert. Als radioaktive Asche auf die Insel regnete, rieben Kinder sie sich im Spiel in die Haare, sie drang in alle Hütten ein und verseuchte die Zisternen. Viele Bewohner erkrankten an akuter Strahlenkrankheit, etliche starben daran, obwohl die Amerikaner bald alle Insulaner fortbrachten.

Schon 1957 aber transportierte man die Überlebenden zurück und beharrte trotz zahlreicher Krebsfälle bis 1982 darauf, die Insel sei sicher. Auch danach wurden die Bewohner aber nicht ungesiedelt, bis Greenpeace mit seinem Schiff Rainbow Warrior die Bevölkerung 1985 auf ein Nachbaratoll brachte. Danach begann ein umstrittenes Reinigungsprogramm für die Insel. 1994 empfahl der amerikanische Forschungsrat, die Bewohner sollten bei einer Rückkehr ihre Lebensmittel zum Beispiel nur im Süden des Atolls sammeln, doch bislang haben sich die Marshallesen noch nicht darauf eingelassen. Als jetzt die Forscher aus New York auf Rongelap landeten, lagen die Strahlungswerte zwischen 0,06 und 0,55 msv/a; als Mittelwert berechneten sie 0,2 msv/a. Auf vielen Teilen der Insel gab es also zu viel Strahlung für eine Wiederbesiedlung, sollten sich die Zurückgekehrten von Fisch und lokalen Früchten ernähren.

10561566153_5c67d58c37_oZehn Jahre nach den letzten Tests, also in den frühen 1970er-Jahren, durften
einige Einwohner von Bikini auf ihre Inseln zurückkehren. Doch die Strahlungswerte
waren damals – wie heute – zu hoch, so dass die Menschen schließlich doch
wieder evakuiert werden mussten. Quelle: Energy.gov, flickr

Noch schlimmer waren die Werte auf Bikini: Hier lag schon der Mittelwert bei 1,8, die Spitzen übertrafen 6,5 msv/a. Und auf beiden Inseln, so stellten die Wissenschaftler fest, hatte man die möglichen Belastungen deutlich unterschätzt. Die gängigen Angaben waren nämlich aus Messungen berechnet, die zum Teil 20 Jahre alt waren. Und sie beruhten auf Annahmen, wie viel Zeit die Bewohner wohl in ihren Häusern verbringen und wie oft sie im Freien sein würden. Die Forscher um Autumn Bordner lassen sich zu keinem Kommentar hinreißen, was sie von dieser Methode halten, sie stellen nur trocken fest: „Unsere Resultate stellen einen Widerspruch zu den Hochrechnungen auf Basis früherer Messungen dar.“ Auch die Historie, die sich vermeintlich nach einfachen Gesetzen der Physik weiterentwickelt, braucht eben ab und zu ein Update.

Die Wissenschaftler waren zudem auf der Insel Runit, die zum Enewetak-Atoll gehört. Hier haben die Amerikaner strahlende Abfälle ihrer Bomben in den Krater einer Explosion geschoben und unter einer dünnen Betonkuppel vergraben. Das Zeug basiert vor allem auf Plutonium-239, also eine Alpha-Strahler, und dafür war das Bordner-Team nicht gerüstet: Ihre Messgerät erfassten Gamma-Strahlung. Auch davon gab es auf Runit aber einiges: direkt neben dem Bunker zeigte das Instrument gut 0,4 msv/a. Die Werte seien aber keinesfalls repräsentativ, warnen die Forscher: Sie haben die Insel nicht komplett erfasst, wohl auch zur eigenen Sicherheit.

Runit nämlich ist „Amerikas vergessene Atom-Müllhalde“ sagt Michael Gerrard, Professor für Umwelt-Recht an der Columbia University. Es gebe nicht einmal Warnschilder, geschweige denn Wachen, berichtete der Wissenschaftler von einem Besuch 2010. Viele Abfälle haben die abrückenden Truppen einfach in die Lagune geschoben, andere, darunter die Trümmer eines atomaren Blindgängers (nur der konventionelle Sprengstoff zündete), in Plastiksäcken in den Krater geworfen, der bis unter den Meeresspiegel reicht und dessen Fels aus durchlässigen Korallen besteht. Eine richtige Säuberung der Insel hat die Supermacht verweigert, und sein Parlament dann sogar gegen die finanzielle Entschädigung für die Einheimischen gestimmt, die vorher vereinbart worden war, stellt Gerrard bitter fest. Eines Tages aber werde sich das Problem nicht mehr auf eine abgelegene Insel abschieben lassen: wenn die in den Fluten des Pazifik versinken, weil der Klimawandel den Meeresspiegel anhebt.

Runit_Dome_001
Der „Cactus Dome“, so benannt nach dem Atomtest, der auf Runit einen
mehr als hundert Meter großen Krater hinterlassen hat, verdeckt große
Mengen radioaktiven Mülls. Quelle: US Defense Special Weapons Agency/
Wikipedia, public domain

Das hat Runit mit Camp Century gemeinsam. Äußerlich verbindet die beiden Orte wenig: hier eine im Prinzip idyllische Südsee-Insel, dort ein im Prinzip unberührtes Stück im Norden des grönländischen Eispanzers. Und in Pazifik kommt das Wasser zum Atommülllager, während in der Arktis die Reste langsam ins Meer rutschen könnten.

In Grönland hatte die US-Armee 1959 eine geheime Basis acht Meter unter dem Eis errichtet (ein Film im Wochenschau-Stil aus der Zeit wurde offenbar erst Jahrzehnte später freigegeben). Bis zu 200 Soldaten wurden dort stationiert; sie erkundeten, ob sich Tunnel im Inlandeis als Standort für Mittelstrecken mit Atomsprengköpfen eigneten. Dazu kam es offenbar nie, weil sich das Eis innerhalb einiger Jahre schon damals als weniger stabil als erwartet erwies. Und als die Armee das „Project Iceworm“ und die Basis 1967 aufgab, ließ sie 200 000 Liter Diesel, 24 Millionen Liter Abwasser und beachtliche Mengen chemischer Abfallstoffe zurück. Sie nahm den damals im Camp installierten Nuklearreaktor mit, der Strom und Wärme geliefert hatte. Das verstrahlte Kühlwasser jedoch blieb in einer Eisgrube.

CampCentury1Am Anfang waren die Arbeiter noch optimistisch, dass die ins Eis gefrästen Tunnel
von Camp Century halten würden …

CampCentury2… doch bald drückte das Eis die „Wonderarch“ genannten Metallträger einfach ein.
Hier in einem Raum, der zum Kernreaktor der Basis gehörte.
Quelle: US-Army, Technical Report 174 von 1965

Noch versinken diese giftigen Hinterlassenschaften des Kalten Krieges immer weiter im Eis von Grönland, aber das Ende ist absehbar. „Es ist nicht mehr die Frage, ob Camp Century und die Schadstoffe darin eines Tages an die Oberfläche gelangen, sondern wann“, sagt Dirk van As vom Dänischen Geologischen Dienst in Kopenhagen. Der Klimawandel könnte die Verhältnisse im Norden Grönlands bis zum Ende dieses Jahrhunderts umkehren, und dann würden Abfälle der ehemaligen Basis vielleicht schon ab 2120 an die Oberfläche gelangen.

Van As und Kollegen aus Kanada, den USA und der Schweiz haben ein fast vergessenes Kapitel der amerikanischen Atombomben-Historie aufgeschlagen (Geophysical Research Letters, online). Was sie enthüllen, klingt ein wenig wie eine andere Auflösung für den Roman „Fräulein Smillas Gespür für Schnee“. Die Forscher haben inzwischen freigegebene Dokumente über die Basis ausgewertet. „Man war überzeugt, das Eis würde sich nicht bewegen und die Abfallstoffe blieben für die Ewigkeit eingeschlossen“, sagt van As. „Doch heute wissen wir, dass es ziemlich dynamisch ist.“

Weil Details in den Dokumenten fehlen, kann das Team nur spekulieren, dass die Basis „nicht triviale“ Mengen PCB (Polychlorierte Biphenyle) enthält. Die krebserregenden Chemikalien wurden als Frostschutz eingesetzt; Farbe aus jener Zeit, die in anderen Basen benutzt wurde, enthielt bis zu fünf Prozent PCB. Ihre Behälter und die Dieseltanks von Camp Century dürften längst zerdrückt worden sein. Der Inhalt, immer noch flüssig, ist nun vermutlich in Blasen eingeschlossen genau wie die damals deponierten flüssigen Abfälle.

Camp Century3Eine Skizze des Kernreaktors mit seinen Nebenanlagen, die die US-Army in den Eistunneln installiert hatte. Quelle: US-Army, Technical Report 174 von 1965

Die dafür angelegten Kavernen, ursprünglich 40 Meter tief, liegen inzwischen vermutlich 65 Meter unter der Oberfläche, weil diese durch Schneefall immer weiter aufsteigt. Den Simulationsrechnungen der Forscher zufolge geht das noch Jahrzehnte so weiter: einem Modell zufolge über 2100 hinaus, ein anderes sagt für 2090 eine Umkehr vorher. Schon einige Jahrzehnten danach könnten erste Risse und Spalten im Eis die ehemalige Basis erreichen und Abfallstoffe mobilisieren, falls der Klimawandel so weiter geht wie bisher. Sollte die Welt nach dem Vertrag von Paris die globale Erwärmung begrenzen, dürfte das die Freisetzung in Grönland verzögern, aber nicht verhindern.

Dass viele Details in ihrem Aufsatz fehlen, ist den Wissenschaftlern bewusst. „Wir wollten eigentlich den Ort besuchen und Messungen machen, aber wir haben keine Finanzierung bekommen“, sagt Dirk van As. Mehrmals wurde ihnen von Geldgebern bedeutet, das Thema sei politisch schwierig. Unter anderem bei der Nato hatten die Forscher nach eigener Aussage Geld beantragt. Die wissenschaftlichen Gutachten über das Projekt seien positiv gewesen, aber dann müsse mindestens ein Land sein Veto eingelegt haben. Van As’ Kollege William Colgan von der University of Toronto hat in Science das gleiche erzählt; Anfragen der US-Journalisten an die dänische und grönländische Regierung und das US-Militär um Stellungnahmen blieben danach unbeantwortet. „Vielleicht wird es nach der Studie und dem Echo in den Medien einfacher“, sagt Dirk van As. „Wir sollten Radarmessungen auf dem Eis machen, um festzustellen, wo was liegt.“

Schonzeit für Riffe

A Titan villager navigates a traditional melanesian outrigger over shallow corals that flank a small island in the Manus Province of Papua New Guinea. Mystery shrouds the densely vegetated island, as legend amongst the indigenous Mbuke people maintains that it is home to a "dinosaur" that has never been seen on any other island in the Archipeligo.

Auf einem traditionellen Ausleger-Boot gleitet ein Fischer in Papua-Neuguinea über
Korallen. Die Insel vor ihm beherbergt nach lokalen Legenden einen Dinosaurier. Solche Tabus können helfen, Ökosystem trotz Befischung gesund zu halten.
Foto: Tane Sinclair-Taylor

Hamburg, 29. Juni 2016

Vorbemerkung: Schon wegen der Bilder wollte ich diesen Blog-Beitrag unbedingt machen. Er ist aber auch inhaltlich  spannend, weil er zeigt, wie Menschen das Schicksal der Riffe mitbestimmen – und zwar nicht nur die anonymen Massen, also wir alle, die überall auf der Welt Treibhausgase in die Atmosphäre blasen und so zur Erwärmung und Versauerung der Ozeane beitragen. Sondern ganz besonders die Menschen, die in der Nähe der Riffe leben und entweder in Einklang mit ihnen oder eben nicht.

Wenn die Fische zu scheu wurden, gaben ihnen die Dorf-Ältesten eine Auszeit. In der Gemeinschaft der Muluk, wohnhaft an der Ostküste der Insel Karkar in Papua-Neuguinea, stoppten sie die Fischerei über einigen Dutzend Hektar Korallenriffen, wenn die Fänge zu stark zurück gingen. Nach ein oder zwei Jahren, so erzählte man sich in den Dörfern, würden die Fische wieder zahm sein und die Speerfischer nahe genug an sich heran lassen.

Diese Geschichte hat Joshua Cinner von der James Cook University in Townsville/Australien schon 2006 aufgeschrieben. Aber jetzt hat er sie mit vielen anderen Beispielen noch einmal verwendet, um zu erklären, warum es manchen Riffen besser geht als erwartet. Mit einem großen, internationalen Team vom Kollegen hat der Australier in Nature mehr als 2500 Riffe in 46 Ländern und Territorien untersucht. Dabei sind ihnen neben Karkar noch 14 weitere Beispiele aufgefallen, wo die Gemeinschaft von Korallen und Fischen deutlich gesünder und vielfältiger war als man annehmen konnte. Neben diesen „bright spots“ aber gab es auch 35 „dark spots“, wo der schlechte Zustand des Ökosystems nicht recht durch bekannte Einflussgrößen zu erklären war.

BrightSpotsReefsNatureFig2_Jun2016

Eine Übersicht, wo die „bright“ und „dark spots“ liegen und wie die Forscher sie definiert haben. Quelle: Cinner et al, Fig. 2, Nature  doi:10.1038/nature18607

Die Wissenschaftler haben über den Riffen die gesamte Biomasse erfasst und mit 18 bekannten Indikatoren verglichen, von denen sie abhängen können. Dazu gehören Faktoren wie die Größe und Umgebung des Riffs, aber auch die Nähe zu möglichen Abnehmern der gefangenen Fische, und die Fragen, ob das Riff geschützt ist und ein solcher Status auch beachtet wird, wie schnell die Bevölkerung der benachbarten Orte wächst und wie viele Touristen die Gegend besuchen. Mit diesen Variablen ließ sich die Biomasse für 2450 der Riffe einigermaßen erklären, aber die 50 „bright“ und „dark spots“ zeigten deutlich andere Werte als vorherberechnet (um mehr als zwei Standardabweichungen höher oder niedriger). „Die bright spots sind nicht unbedingt unberührt“, sagt Cinner, „sie haben nur mehr Fische als sie sollten, wenn man den Druck bedenkt, unter dem sie stehen.“ Tatsächlich liegen zehn der 15 positiven Beispiel in bewohnten Regionen und acht werden aktiv befischt.

Tane Sinclair-Taylor_Cinner_Media_5

A villager returns to his canoe with a unicornfish (Naso hexacanthus) he has speared using a handmade speargun. Spearfishing is popular in the Manus Province of Papua New Guinea as it is highly selective.

Speerfischen ist zwar für die einzelnen Fische genau so tödliche wie Netze. Doch für Ökosysteme als Ganzes ist die Methode viel schonender. Bilder aus Papua-Neuguinea. Fotos: Tane Sinclair-Taylor

Auf der Suche nach den Gründen haben die Forscher um Cinner einige weitere Faktoren untersucht und mit vielen Leuten aus  umliegenden Gemeinden gesprochen. So zeigte sich, dass es in etlichen der „bright spots“ lokale Tabus oder Vorschriften ähnlich wie auf Karkar gab. Nicht immer handelte es sich um etwas, das Bürger von Industriestaaten vermutlich als Aberglaube bezeichnen würde, wie die Sage, die die Insel auf dem Foto oben umgibt: Angeblich lebt dort ein Dinosaurier, den man vielleicht besser nicht stört. Etwas nüchterner ist die Aussage der Studie, dass in vielen der 15 Positiv-Beispiel die Anwohner in hohem Maß vom Fischfang abhängen und sich deswegen für die langfristige Erhaltung einsetzen. Hilfreich für die Gesundheit des Ökosystems ist auch die Nähe zu tiefem Wasser, weil es Fischpopulation widerstandsfähiger macht.

Bei den „dark spots“ wirkten sich vor allem der Einsatz von Motorbooten und Netzen negativ aus sowie die Verbreitung von Gefriertruhen, um Fänge vor dem Transport zu lagern.  „Die klassischen technischen Maßnahmen des Fischereimanagements entpuppen sich also als Fallen, die zu Ressourcenübernutzung führen“, sagt Sebastian Ferse vom Leibniz-Zentrum für marine Tropenökologie in Bremen, der ebenfalls zu Forscherteam gehörte.

Zudem gehörten zu den 35 einige Riffe, die schon Umwelt-Schocks erlebt hatten, sich also von einer Bleiche oder dem Einfall eines Zyklons erholten. Besonders das ist eine schlechte Nachricht, weil die Menge der gestressten Korallen inzwischen deutlich zunimmt. In Australien haben Wissenschaftler gerade dokumentiert, wie schlecht es vielen Teilen des Great Barrier Reef geht (hier und hier). Mehr als 2500 Wissenschaftler und Betroffene wenden sich darum gerade einen offenen Brief an den australischen Premierminister und fordern, die Kohlewirtschaft des Landes einzuschränken und keine neuen Bergwerke mehr zuzulassen. In den USA wiederum
erwartet die Meeresbehörde Noaa ein drittes Jahr mit überhöhten Temperaturen in Folge, die das Bleichen der Korallen auslösen können.

PS: Die Cinner-Studie ist jetzt auch von der Washington Post mit einem Videobeitrag aufgegriffen worden.

 

 

Aerosole: Problem gelöst?

sphinx11

Das Sphinx-Observatorium auf dem Jungfraujoch ragt so eben noch aus den Wolken. Foto: Paul Scherrer Institut/ Julie Cozic

 

Update: Diesen Beitrag habe ich am 29. Juni 2016 um eine Stellungnahme von Wissenschaftler aus Leipzig ergänzt

Hamburg, 26. Mai 2016

Das Jungfraujoch in den Berner Alpen beherbergt nicht nur den höchsten Bahnhof Europas, sondern auch das „Sphinx“ genannte Observatorium in 3580 Metern über dem Meeresspiegel. Wenn es sich in Wolken hüllt, wie auf dem Foto, sind vielleicht die Touristen enttäuscht, aber Forscher wie Urs Baltensperger vom Paul-Scherer-Institut in Villigen im Kanton Aargau sind in ihrem Element. Baltensperger ist Atmosphären-Chemiker und Mitglied mehrerer internationaler Forschungsgruppen, die auf dem Jungfraujoch und am Forschungszentrum Cern in Genf die Entstehung von Wolken untersuchen. An den jüngsten Daten der Teams entzündet sich nun eine interessante forschungspolitische Diskussion (wer gleich dorthin springen möchte, findet sie auf der zweiten Seite; hier folgt zunächst eine Einbettung.)

Damit sich der Wasserdampf in der Luft zu kleinen Tröpfchen verflüssigen kann, die dann wie weiße Schleier oder Wattebausche über den Himmel driften oder später als Regentropfen zu Boden fallen, braucht er Kondensationskeime. Das sind kleine Partikel, die in der Luft schweben, 50 bis 100 Nanometer (Millionstel Millimeter) groß. Etwa die Hälfte von ihnen bestehen aus Staub, Sand, Russ oder Meersalz; seit kurzem weiß man auch, dass Pflanzenpollen oder Pilzsporen solche primären Kondensationskeime bilden können. Die andere Hälfte heißt sekundär, weil sie sich in der Atmosphäre neu bilden. Dazu müssen sich allerdings viele Moleküle wie Ammoniak oder ätherische Duftstoffe sowie deren oxidierte Folgeprodukte zu Clustern zusammenfinden. Sie sind zunächst, wenn sie nur aus zwei Partnern bestehen, oft instabil und brauchen einen guten Klebstoff, um noch zusammen zu sein, wenn die Moleküle 3, 4, 5 und so weiter angedriftet kommen.

Ein wichtiger Klebstoff ist Schwefelsäure (H2SO4). Sie bildet sich in der Atmosphäre aus Schwefeldioxid, das Vulkanausbrüche sowie allerhand industrielle Prozesse freisetzen. Die Menge dieses Luftschadstoffs hat derart zugenommen, dass sich Forscher gar nicht erklären konnten, wie sekundäre Kondensationskeime ohne Schwefelsäure überhaupt entstehen konnten. „Bislang dachten wir immer, wir bräuchten einen Zwei-Komponenten-Kleber zum Beispiel aus organischen Molekülen und Schwefelsäure“, sagt Joachim Curtius von der Universität Frankfurt/Main in einem Artikel von mir in der Süddeutschen Zeitung. „Jetzt zeigt sich: Die erste Komponente reicht, wenn kosmische Strahlung dazu kommt.“* Curtius, Baltensperger und viele andere Forscher haben in dieser Woche dazu gleich drei Studien in hochrangigen Journalen veröffentlicht. In Nature steht, wie sich die Molekül-Cluster im Laborexperiment ohne Schwefelsäure bilden und zu geeigneten Kondensationskeimen heranwachsen. Und in Science berichten die Wissenschaftler, dass ähnliche Prozesse auch in der freien Atmosphäre über dem Jungfraujoch zu beobachten sind. Die Redaktion in Washington hat dafür sogar ihre Sperrfrist um einen Tag verkürzt, damit das Paper zum gleichen Zeitpunkt erscheint wie die beiden in London.

Letztlich bedeutet das: Die industriellen Aerosole sind weniger bedeutend als die Wissenschaft lange befürchtet hatte. Diese Angst stammt aus einer früheren Zeit, als die Erwärmung der Atmosphäre noch nicht so deutlich zu messen war. Die Menge an Kohlendioxid war zwar gestiegen, aber es schwebte auch viel Schwefelsäure in der Luft. Forscher nahmen also an, dass eine deutliche Aufheizung durch CO2 durch eine ebenso deutliche Abkühlung wegen des H2SO4 mehr oder minder kompensiert würde. Oder sie konnten es jedenfalls nicht ausschließen – und so wurde der Ausblick in die Zukunft noch weniger zuverlässig. Es bedeutete nicht nur eine Komplikation für das Design von Klimamodellen, die die Entwickung der Temperaturen sowie von Niederschlägen berechnen sollten. Sondern hier lauerte auch die Gefahr, dass die erwünschte Reinigung der Luft von Industrieabgasen mit ihren Schwefelausdünstungen den fühlbaren Klimawandel plötzlich beschleunigen könnte. Diese Sorge ist gebannt, wenn Schwefelsäure weniger wichtig für die Wolkenbildung ist als lange angenommen.

Weiter auf Seite 2

 

 

 

* In diesem Beitrag soll es nicht um das eben gefallene Reizwort „kosmische Strahlung“ gehen: Wer sich dafür interessiert, kann das in meinem SZ-Artikel und/oder in dieser Fußnote nachlesen. Kosmische Strahlung ist vor allem in der Diskussion mit oft verbohrten Kritikern der etablierten Klimaforschung zum Streitpunkt geworden, ich nenne sie mal die Kalte-Sonne-Fraktion. Deren Argument geht so: Das Magnetfeld der Sonne lässt manchmal mehr und manchmal weniger kosmischen Strahlen durch. Da diese wiederum einen Einfluss auf die Wolkenbildung besitzen, könnten sie den Wärmehaushalt der Erde beeinflussen – weniger kosmische Strahlung, weniger Wolken, mehr Sonnenlicht erreicht die Oberfläche, höhere Temperaturen. So ungefähr. Manche Kritiker destillieren aus dieser Möglichkeit die Behauptung, kosmische Strahlen und nicht die Treibhausgase seien die eigentliche Ursache der globalen Erwärmung – sämtliche politischen Initiativen zum Klimaschutz also sinnlos.

Diese These ist aus vielen Blickwinkeln beleuchtet worden und nirgends fand sich ein Beleg. Auch das Labor-Experiment CLOUD von Curtius, Baltensperger und anderen hat in etlichen Versuchsreihen keine geliefert. So ist es auch diesmal. Zwar können kosmische Strahlen die Entstehung der ersten kleinen Cluster mit einer Größe von ein bis zwei Nanometern deutlich verbessern, aber auf das Wachstum zum Kondensationskeim von 50 bis 100 Nanometern haben sie nach Aussage der Forscher „keinen Einfluss“. Zudem gibt es seit Beginn der Industrialisierung so viel Schwefelsäure in der Atmosphäre, dass die Dienste der kosmischen Partikel kaum noch gebraucht werden. Sie können vielleicht erklären, warum die Erde in früheren Epochen stärker auf die Veränderungen im Strahlungseinfall reagiert hat, aber sicherlich nicht, warum sie sich in der jüngeren Vergangenheit erwärmt hat.