Schlagwort-Archive: Nature

Schonzeit für Riffe

A Titan villager navigates a traditional melanesian outrigger over shallow corals that flank a small island in the Manus Province of Papua New Guinea. Mystery shrouds the densely vegetated island, as legend amongst the indigenous Mbuke people maintains that it is home to a "dinosaur" that has never been seen on any other island in the Archipeligo.

Auf einem traditionellen Ausleger-Boot gleitet ein Fischer in Papua-Neuguinea über
Korallen. Die Insel vor ihm beherbergt nach lokalen Legenden einen Dinosaurier. Solche Tabus können helfen, Ökosystem trotz Befischung gesund zu halten.
Foto: Tane Sinclair-Taylor

Hamburg, 29. Juni 2016

Vorbemerkung: Schon wegen der Bilder wollte ich diesen Blog-Beitrag unbedingt machen. Er ist aber auch inhaltlich  spannend, weil er zeigt, wie Menschen das Schicksal der Riffe mitbestimmen – und zwar nicht nur die anonymen Massen, also wir alle, die überall auf der Welt Treibhausgase in die Atmosphäre blasen und so zur Erwärmung und Versauerung der Ozeane beitragen. Sondern ganz besonders die Menschen, die in der Nähe der Riffe leben und entweder in Einklang mit ihnen oder eben nicht.

Wenn die Fische zu scheu wurden, gaben ihnen die Dorf-Ältesten eine Auszeit. In der Gemeinschaft der Muluk, wohnhaft an der Ostküste der Insel Karkar in Papua-Neuguinea, stoppten sie die Fischerei über einigen Dutzend Hektar Korallenriffen, wenn die Fänge zu stark zurück gingen. Nach ein oder zwei Jahren, so erzählte man sich in den Dörfern, würden die Fische wieder zahm sein und die Speerfischer nahe genug an sich heran lassen.

Diese Geschichte hat Joshua Cinner von der James Cook University in Townsville/Australien schon 2006 aufgeschrieben. Aber jetzt hat er sie mit vielen anderen Beispielen noch einmal verwendet, um zu erklären, warum es manchen Riffen besser geht als erwartet. Mit einem großen, internationalen Team vom Kollegen hat der Australier in Nature mehr als 2500 Riffe in 46 Ländern und Territorien untersucht. Dabei sind ihnen neben Karkar noch 14 weitere Beispiele aufgefallen, wo die Gemeinschaft von Korallen und Fischen deutlich gesünder und vielfältiger war als man annehmen konnte. Neben diesen „bright spots“ aber gab es auch 35 „dark spots“, wo der schlechte Zustand des Ökosystems nicht recht durch bekannte Einflussgrößen zu erklären war.

BrightSpotsReefsNatureFig2_Jun2016

Eine Übersicht, wo die „bright“ und „dark spots“ liegen und wie die Forscher sie definiert haben. Quelle: Cinner et al, Fig. 2, Nature  doi:10.1038/nature18607

Die Wissenschaftler haben über den Riffen die gesamte Biomasse erfasst und mit 18 bekannten Indikatoren verglichen, von denen sie abhängen können. Dazu gehören Faktoren wie die Größe und Umgebung des Riffs, aber auch die Nähe zu möglichen Abnehmern der gefangenen Fische, und die Fragen, ob das Riff geschützt ist und ein solcher Status auch beachtet wird, wie schnell die Bevölkerung der benachbarten Orte wächst und wie viele Touristen die Gegend besuchen. Mit diesen Variablen ließ sich die Biomasse für 2450 der Riffe einigermaßen erklären, aber die 50 „bright“ und „dark spots“ zeigten deutlich andere Werte als vorherberechnet (um mehr als zwei Standardabweichungen höher oder niedriger). „Die bright spots sind nicht unbedingt unberührt“, sagt Cinner, „sie haben nur mehr Fische als sie sollten, wenn man den Druck bedenkt, unter dem sie stehen.“ Tatsächlich liegen zehn der 15 positiven Beispiel in bewohnten Regionen und acht werden aktiv befischt.

Tane Sinclair-Taylor_Cinner_Media_5

A villager returns to his canoe with a unicornfish (Naso hexacanthus) he has speared using a handmade speargun. Spearfishing is popular in the Manus Province of Papua New Guinea as it is highly selective.

Speerfischen ist zwar für die einzelnen Fische genau so tödliche wie Netze. Doch für Ökosysteme als Ganzes ist die Methode viel schonender. Bilder aus Papua-Neuguinea. Fotos: Tane Sinclair-Taylor

Auf der Suche nach den Gründen haben die Forscher um Cinner einige weitere Faktoren untersucht und mit vielen Leuten aus  umliegenden Gemeinden gesprochen. So zeigte sich, dass es in etlichen der „bright spots“ lokale Tabus oder Vorschriften ähnlich wie auf Karkar gab. Nicht immer handelte es sich um etwas, das Bürger von Industriestaaten vermutlich als Aberglaube bezeichnen würde, wie die Sage, die die Insel auf dem Foto oben umgibt: Angeblich lebt dort ein Dinosaurier, den man vielleicht besser nicht stört. Etwas nüchterner ist die Aussage der Studie, dass in vielen der 15 Positiv-Beispiel die Anwohner in hohem Maß vom Fischfang abhängen und sich deswegen für die langfristige Erhaltung einsetzen. Hilfreich für die Gesundheit des Ökosystems ist auch die Nähe zu tiefem Wasser, weil es Fischpopulation widerstandsfähiger macht.

Bei den „dark spots“ wirkten sich vor allem der Einsatz von Motorbooten und Netzen negativ aus sowie die Verbreitung von Gefriertruhen, um Fänge vor dem Transport zu lagern.  „Die klassischen technischen Maßnahmen des Fischereimanagements entpuppen sich also als Fallen, die zu Ressourcenübernutzung führen“, sagt Sebastian Ferse vom Leibniz-Zentrum für marine Tropenökologie in Bremen, der ebenfalls zu Forscherteam gehörte.

Zudem gehörten zu den 35 einige Riffe, die schon Umwelt-Schocks erlebt hatten, sich also von einer Bleiche oder dem Einfall eines Zyklons erholten. Besonders das ist eine schlechte Nachricht, weil die Menge der gestressten Korallen inzwischen deutlich zunimmt. In Australien haben Wissenschaftler gerade dokumentiert, wie schlecht es vielen Teilen des Great Barrier Reef geht (hier und hier). Mehr als 2500 Wissenschaftler und Betroffene wenden sich darum gerade einen offenen Brief an den australischen Premierminister und fordern, die Kohlewirtschaft des Landes einzuschränken und keine neuen Bergwerke mehr zuzulassen. In den USA wiederum
erwartet die Meeresbehörde Noaa ein drittes Jahr mit überhöhten Temperaturen in Folge, die das Bleichen der Korallen auslösen können.

PS: Die Cinner-Studie ist jetzt auch von der Washington Post mit einem Videobeitrag aufgegriffen worden.

 

 

Aerosole: Problem gelöst?

sphinx11

Das Sphinx-Observatorium auf dem Jungfraujoch ragt so eben noch aus den Wolken. Foto: Paul Scherrer Institut/ Julie Cozic

 

Update: Diesen Beitrag habe ich am 29. Juni 2016 um eine Stellungnahme von Wissenschaftler aus Leipzig ergänzt

Hamburg, 26. Mai 2016

Das Jungfraujoch in den Berner Alpen beherbergt nicht nur den höchsten Bahnhof Europas, sondern auch das „Sphinx“ genannte Observatorium in 3580 Metern über dem Meeresspiegel. Wenn es sich in Wolken hüllt, wie auf dem Foto, sind vielleicht die Touristen enttäuscht, aber Forscher wie Urs Baltensperger vom Paul-Scherer-Institut in Villigen im Kanton Aargau sind in ihrem Element. Baltensperger ist Atmosphären-Chemiker und Mitglied mehrerer internationaler Forschungsgruppen, die auf dem Jungfraujoch und am Forschungszentrum Cern in Genf die Entstehung von Wolken untersuchen. An den jüngsten Daten der Teams entzündet sich nun eine interessante forschungspolitische Diskussion (wer gleich dorthin springen möchte, findet sie auf der zweiten Seite; hier folgt zunächst eine Einbettung.)

Damit sich der Wasserdampf in der Luft zu kleinen Tröpfchen verflüssigen kann, die dann wie weiße Schleier oder Wattebausche über den Himmel driften oder später als Regentropfen zu Boden fallen, braucht er Kondensationskeime. Das sind kleine Partikel, die in der Luft schweben, 50 bis 100 Nanometer (Millionstel Millimeter) groß. Etwa die Hälfte von ihnen bestehen aus Staub, Sand, Russ oder Meersalz; seit kurzem weiß man auch, dass Pflanzenpollen oder Pilzsporen solche primären Kondensationskeime bilden können. Die andere Hälfte heißt sekundär, weil sie sich in der Atmosphäre neu bilden. Dazu müssen sich allerdings viele Moleküle wie Ammoniak oder ätherische Duftstoffe sowie deren oxidierte Folgeprodukte zu Clustern zusammenfinden. Sie sind zunächst, wenn sie nur aus zwei Partnern bestehen, oft instabil und brauchen einen guten Klebstoff, um noch zusammen zu sein, wenn die Moleküle 3, 4, 5 und so weiter angedriftet kommen.

Ein wichtiger Klebstoff ist Schwefelsäure (H2SO4). Sie bildet sich in der Atmosphäre aus Schwefeldioxid, das Vulkanausbrüche sowie allerhand industrielle Prozesse freisetzen. Die Menge dieses Luftschadstoffs hat derart zugenommen, dass sich Forscher gar nicht erklären konnten, wie sekundäre Kondensationskeime ohne Schwefelsäure überhaupt entstehen konnten. „Bislang dachten wir immer, wir bräuchten einen Zwei-Komponenten-Kleber zum Beispiel aus organischen Molekülen und Schwefelsäure“, sagt Joachim Curtius von der Universität Frankfurt/Main in einem Artikel von mir in der Süddeutschen Zeitung. „Jetzt zeigt sich: Die erste Komponente reicht, wenn kosmische Strahlung dazu kommt.“* Curtius, Baltensperger und viele andere Forscher haben in dieser Woche dazu gleich drei Studien in hochrangigen Journalen veröffentlicht. In Nature steht, wie sich die Molekül-Cluster im Laborexperiment ohne Schwefelsäure bilden und zu geeigneten Kondensationskeimen heranwachsen. Und in Science berichten die Wissenschaftler, dass ähnliche Prozesse auch in der freien Atmosphäre über dem Jungfraujoch zu beobachten sind. Die Redaktion in Washington hat dafür sogar ihre Sperrfrist um einen Tag verkürzt, damit das Paper zum gleichen Zeitpunkt erscheint wie die beiden in London.

Letztlich bedeutet das: Die industriellen Aerosole sind weniger bedeutend als die Wissenschaft lange befürchtet hatte. Diese Angst stammt aus einer früheren Zeit, als die Erwärmung der Atmosphäre noch nicht so deutlich zu messen war. Die Menge an Kohlendioxid war zwar gestiegen, aber es schwebte auch viel Schwefelsäure in der Luft. Forscher nahmen also an, dass eine deutliche Aufheizung durch CO2 durch eine ebenso deutliche Abkühlung wegen des H2SO4 mehr oder minder kompensiert würde. Oder sie konnten es jedenfalls nicht ausschließen – und so wurde der Ausblick in die Zukunft noch weniger zuverlässig. Es bedeutete nicht nur eine Komplikation für das Design von Klimamodellen, die die Entwickung der Temperaturen sowie von Niederschlägen berechnen sollten. Sondern hier lauerte auch die Gefahr, dass die erwünschte Reinigung der Luft von Industrieabgasen mit ihren Schwefelausdünstungen den fühlbaren Klimawandel plötzlich beschleunigen könnte. Diese Sorge ist gebannt, wenn Schwefelsäure weniger wichtig für die Wolkenbildung ist als lange angenommen.

Weiter auf Seite 2

 

 

 

* In diesem Beitrag soll es nicht um das eben gefallene Reizwort „kosmische Strahlung“ gehen: Wer sich dafür interessiert, kann das in meinem SZ-Artikel und/oder in dieser Fußnote nachlesen. Kosmische Strahlung ist vor allem in der Diskussion mit oft verbohrten Kritikern der etablierten Klimaforschung zum Streitpunkt geworden, ich nenne sie mal die Kalte-Sonne-Fraktion. Deren Argument geht so: Das Magnetfeld der Sonne lässt manchmal mehr und manchmal weniger kosmischen Strahlen durch. Da diese wiederum einen Einfluss auf die Wolkenbildung besitzen, könnten sie den Wärmehaushalt der Erde beeinflussen – weniger kosmische Strahlung, weniger Wolken, mehr Sonnenlicht erreicht die Oberfläche, höhere Temperaturen. So ungefähr. Manche Kritiker destillieren aus dieser Möglichkeit die Behauptung, kosmische Strahlen und nicht die Treibhausgase seien die eigentliche Ursache der globalen Erwärmung – sämtliche politischen Initiativen zum Klimaschutz also sinnlos.

Diese These ist aus vielen Blickwinkeln beleuchtet worden und nirgends fand sich ein Beleg. Auch das Labor-Experiment CLOUD von Curtius, Baltensperger und anderen hat in etlichen Versuchsreihen keine geliefert. So ist es auch diesmal. Zwar können kosmische Strahlen die Entstehung der ersten kleinen Cluster mit einer Größe von ein bis zwei Nanometern deutlich verbessern, aber auf das Wachstum zum Kondensationskeim von 50 bis 100 Nanometern haben sie nach Aussage der Forscher „keinen Einfluss“. Zudem gibt es seit Beginn der Industrialisierung so viel Schwefelsäure in der Atmosphäre, dass die Dienste der kosmischen Partikel kaum noch gebraucht werden. Sie können vielleicht erklären, warum die Erde in früheren Epochen stärker auf die Veränderungen im Strahlungseinfall reagiert hat, aber sicherlich nicht, warum sie sich in der jüngeren Vergangenheit erwärmt hat.

 

Aerosole: Problem gelöst? Seite 2

IMG_4252

Wolken über Berlin – bei Sonnenuntergang von unten beleuchtet. Schwefelsäure in der Atmosphäre hat bei der Bildung sicherlich mitgeholfen. Foto: C. Schrader 

 

Hamburg, 26. Mai 2016

Fortsetzung von Seite 1

Aus diesem wissenschaftlichen Erfolg entspinnt sich eine interessante forschungspolitische Diskussion, die ich in meinem SZ-Artikel nur anreiße, und hier vertiefen will. Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, verbindet sein Lob für die Ergebnisse aus der Schweiz mit einer Forderung, die den Autoren der Studien kaum gefallen dürfte. Da sich die Aerosole als wenig bedeutsam gezeigt haben, solle man sie gleich ganz aus den Simulationen nehmen und die Erforschung ihrer Effekte auf das Klima einstellen. „Insofern bedeuten die Messungen einen großen Sieg: Wir können das zur Seite legen und uns wichtigeren Dingen widmen.“

Zur genaueren Erklärung hat Stevens nach dem Interview noch eine E-Mail geschickt.

My point is that these studies support the assertion that we probably don’t need to better understand the aerosols to advance on what are some of the first rank problems related to understanding climate change.  As I mentioned yesterday, air pollution and human health are big issues, and science should work on problems that interest scientists (to some degree) so it would be unfair and incorrect to say that we should stop aerosol research.
I’m just trying to say that it is less central to understanding climate than we perhaps believed 10 or even a few years ago… or for that matter before this study.  And knowing what might be important (for a particular problem) is often a great step forward when researching something as complex as Earth’s climate.

Seine Position ist nicht ganz neu: Stevens hat das 2013 bereits in einen Kommentar in Nature geschrieben. Die damals besprochene Studie von Ken Carslaw (der auch zu dem Autoren der beiden neuen Nature-Studien gehört) und anderen in Leeds habe gezeigt, so Stevens, dass „wenn es einen Aerosol-Joker gab, dann wurde er bereits vor einem Jahrhundert gespielt und ist irrelevant für das Verständnis momentaner und künftiger Veränderungen des globalen Klimas geworden“.

Diese Logik leuchtete damals nicht unbedingt jedem ein, forderten doch die Autoren der Studie, man müsse mehr über die „unverdorbene vor-industrielle Umwelt“ erfahren. Die natürlichen Aerosole trügen 45 Prozent zur heutigen Unsicherheit über die Wirkung der Schwebteilchen bei, die industriellen nur 34 Prozent. So groß erschien der Unterschied nicht, als dass man den kleineren Part einfach ignorieren könnte.

Doch inzwischen haben die Forscher um Baltensperger und Curtius ja Daten über die Verhältnisse vor der Industrialisierung geliefert. Sie lassen den Einfluss der industriellen Aerosole geringer als befürchtet erscheinen, also kann Stevens seine Forderung mit Verve wiederholen.

Es ist wenig Wunder, dass die Autoren der neuen Studien die Schlussfolgerung des MPI-Direktors nicht teilen. Joachim Curtius hat mir geschrieben:

Durch unsere Untersuchungen verbessert sich genau unser Verständnis der früheren, nicht durch Menschen belasteten Atmosphäre, und wir erreichen damit eine wesentliche Verringerung der Unsicherheit und unser bisheriges „poor knowledge“ wird verbessert. Das ist genau das was auch nach Herrn Stevens’ Meinung bisher gefehlt hat. Damit können wir die Aerosoleffekte jetzt genauer beziffern. Die Verringerung dieser Unsicherheit (die gleichzeitig die Unsicherheit beim Gesamtstrahlungsantrieb inkl. Treibhausgase dominiert) ist eine der ganz großen Herausforderungen und genau da tragen wir zur Verringerung der Unsicherheit bei und es ist in  meinen Augen höchst sinnvoll diesen Fragen weiter nachzugehen.  Und, ja, die Effekte werden wohl kleiner, aber sie werden nicht null.

Und Urs Baltensperger hat sich so geäußert:

Es ist zwar richtig, dass bei der heutigen Situation mit höheren Aerosolkonzentrationen eine Änderung von sagen wir 10% eine kleinere Auswirkung hat als in der vorindustriellen Zeit. (…) Dies bedeutet aber nicht, dass die Auswirkungen völlig egal wären; wir sprechen ja über viel größere Änderungen als 10%. (…) Der Strahlungsantrieb der Aerosole durch Wechselwirkung mit den Wolken  ist damit nach wie vor relevant, aber schlecht quantifiziert, und benötigt deshalb weitere Forschung, unter anderem, um die Effekte der vorindustriellen Zeit und damit auch die Differenz besser quantifizieren zu können. (…) Daneben gibt es aber nach wie vor den direkten Effekt der Aerosolpartikel mit der Strahlung (in unseren Papern gar nicht angesprochen), und da gibt es diesen Sättigungseffekt nicht. Ich kann aus diesen Gründen die Schlussfolgerungen absolut nicht nachvollziehen. Sie werden auch durch ständige Wiederholungen nicht richtiger.

Diese Diskussion hat unter anderem Bedeutung für das Design künftiger Klimamodelle: Brauchen Sie die zusätzliche Komplexität, die das Nachstellen der Aerosol-Chemie bedeutet oder nicht? Piers Foster von der Universität Leeds, der wie Stevens ein Lead Author des entsprechenden Kapitels im fünften Bericht des IPCC war, nimmt eine Art Mittelposition ein und wirbt für Pragmatismus – vor allem weil die Aerosole viel Rechenzeit verbrauchen.

I think the wider climate community needs to move to suites of related climate models with different degrees of complexities, so you can choose your climate model depending on the question you want to answer. The new UK Earth system model which is just going online is a case in point. Colleagues at Leeds, led by Ken Carslaw (author of the Nature papers) led the development of the aerosol scheme within this model. It contains the complexities talked about in the Nature papers, so it is a good one.
However, they are very computational expensive models to run and around 75% of the computer time within the Earth system model is taken up by the interactive chemistry and aerosol scheme. This severely limits the experiments we can do with it. So I think we also need the stripped down models with simplistic aerosol schemes – and these simple models can be used to explore many other very important problems in climate change not related to aerosols.

In der Tat empfiehlt aber auch er seinen Kollegen, bei ihren Forschungsanträgen in Zukunft nicht mehr zu betonen, die Aerosole machten die größte Unsicherheit in der Klimaberechnung aus. Das stimme einfach nicht mehr. „Die Aerosol-Community hat großartige Arbeit geleistet und es gibt noch viele Fragen, denen sie sich widmen kann: Luftqualität und der Beitrag der Aerosole zur Klimavariabilität sind zwei interessante.“
 

Ergänzung am 29. Juni 2016

Mehrere Wissenschaftler des Leibniz-Instituts für Troposphärenforschung in Leipzig und von der dortigen Universität haben mich gebeten, hier auch ihre Stellungnahme zu der These von  Bjorn Stevens zu dokumentieren.

Dieser Aussage möchten wir ausdrücklich widersprechen. Generell ist es sehr problematisch, aus den Untersuchungsergebnissen zu einigen organischen Partikelbestandteilen direkt auf deren Auswirkung auf die Wolkenbildung auf klimarelevanten Skalen zu schließen. Klimamodelle können Aerosol-Wolkenprozesse noch nicht ausreichend realistisch abbilden. Daher kann die Bedeutung der neuen Ergebnisse für die Klimaentwicklung nicht ohne weiteres abgeleitet werden. Dass die Einflüsse atmosphärischer Aerosolpartikel auf das Klima im Allgemeinen nicht ignoriert werden sollten, wird auch in einer gerade erschienenen, thematisch relevanten Veröffentlichung in der renommierten amerikanischen Fachzeitschrift ‚Proceedings of the National Academy of Sciences’ verdeutlicht (Seinfeld et al 2016). Hier stellen die Autoren heraus, dass selbst bei einer Verringerung der Empfindlichkeit von Wolkeneigenschaften in Bezug auf Aerosolpartikeln, es in Zukunft, z.B. auf Grund der sinkenden Partikelkonzentrationen, nicht weniger wichtig wird, die von ihnen verursachten Modifikation des Treibhauseffekts und damit ihre Wirkung auf das Erdsystem besser zu verstehen.

Die Schlussfolgerung, dass die Rolle von Aerosolpartikeln im Klimasystem verstanden, ihre Auswirkungen hinreichend geklärt und quantifiziert wären und somit zu diesem Themenkomplex nicht weiter geforscht werden solle, ist also in keiner Weise nachvollziehbar.

gez. Ina Tegen, Hartmut Herrmann, Andreas Macke, Frank Stratmann, Ulla Wandinger, Alfred Wiedensohler (Leibniz-Institut für Troposphärenforschung); Johannes Quaas, Manfred Wendisch (Leipziger Institut für Meteorologie, Universität Leipzig)

Zurück zur Startseite

Wie die Bäume leichter atmen

Image-2-RespirationFrühling im Winter: Wärmestrahler hielten die Flecken im Wald um gut drei Grad Celsius wärmer als die Umgebung. Foto: William Eddy

Hinweis: Dieser Text ist bereits bei Spektrum.de erschienen.

Hamburg, den 2.4.2016

Die Bäumchen wussten natürlich nicht, wie gut sie es eigentlich hatten. Während sonst überall noch Schnee lag, leuchteten die Setzlinge mit ihren flockenfreien Blättern bereits in vielen Grüntönen um die Wette. Acht Wärmestrahler an einem Gerüst über ihnen versetzten die Pflanzen sozusagen in die Zukunft – in eine Zeit, in der sich die Temperaturen wegen des Klimawandels permanent um gut drei Grad Celsius erhöht haben. Darum mussten die Bäumchen aber als Ausgleich für den milden Winter im Sommer stärker unter Hitze leiden als die Artgenossen im restlichen Wald.

Solche Wärmestrahler haben Forscher um Peter Reich von der University of Minnesota an insgesamt 24 Arealen in den Wäldern ihres Bundesstaats installiert. Drei bis fünf Jahre wuchsen Setzlinge von vier Nadel- und sechs Laubbaumarten unter einer solchen Wärmeglocke; Elektronik hielt den Temperaturunterschied zur Umgebung stets auf 3,4 Grad Celsius. Sonst aber hatten sie die gleichen Bedingungen wie der Rest des Waldes, genauso viel Regen, Wind, Insekten oder andere Tiere. Immer wieder haben die Forscher dann einzelne Blätter abgeschnitten und deren Stoffwechsel im Labor genau vermessen.

Nach diesem Langzeitexperiment ist Reich sicher: „Bäume passen sich besser an den Klimawandel an, als man bisher erwartet hat. Ihre Respiration dürfte auf Dauer nur um fünf Prozent zunehmen, nicht um 23 Prozent, wie kurzzeitige Laborexperimente nahegelegt hatten.“ Respiration oder Pflanzenatmung, das ist die weniger bekannte Seite des pflanzlichen Stoffwechsels. Das Grünzeug nimmt einerseits tagsüber Kohlendioxid für die Fotosynthese auf. Andererseits geben lebende Bäume, Büsche und Blumen es über ihre Wurzeln und nachts über die Blätter ab, und wenn sie nach dem Absterben verrotten, setzen auch die dafür verantwortlichen Bakterien das Gas frei.

Es geht um gewaltige Mengen

Ähnliche Messungen gab es bisher schon aus dem so genannten Fluxnet-System. Das ist ein globales Netzwerk von Messstationen in Wäldern und Naturgebieten, die den Gasaustausch der Bäume über die Jahreszeiten beobachten, allerdings ohne die Bedingungen zu manipulieren. Dabei hatten Forscher vom Max-Planck-Institut für Biogeochemie in Jena schon vor einigen Jahren festgestellt, dass die Pflanzenatmung bei Temperaturschwankungen weniger wächst als gedacht. Für eine Erwärmung um zehn Grad Celsius hatte man eine Verdopplung der CO2-Freisetzung erwartet, gemessen wurde aber nur eine Zunahme um 40 Prozent.

Hochgerechnet von der Pflanze auf die gesamte Landfläche geht es um gewaltige Mengen. Laut Weltklimarat IPCC nimmt die Biosphäre pro Jahr 123 Milliarden Tonnen Kohlenstoff in Form von Kohlendioxid auf und setzt 119 Milliarden Tonnen durch Respiration und Feuer wieder frei. Pflanzen tragen dazu etwa die Hälfte bei. Zum Vergleich: Die Menschheit emittiert pro Jahr knapp zehn Milliarden Tonnen Kohlenstoff durch das Verbrennen fossiler Energierohstoffe. Ein Drittel davon nimmt zurzeit die Biosphäre auf. Laut Fluxnet sind es 157 Gramm Kohlenstoff pro Quadratmeter und Jahr.

Die Wissenschaft fragt sich jedoch, ob die Biosphäre nicht eines Tages von einer Senke zu einer Quelle von Kohlenstoff wird. Zurzeit ist das noch nicht der Fall, die Nettoaufnahme von Kohlenstoff ist über die vergangenen Jahrzehnte sogar gewachsen. Doch die Verhältnisse könnten sich umkehren, wenn die Fotosynthese stagniert und die Respiration anwächst, wie die Erwärmungsexperimente zeigen. Die globalen Klimamodelle, mit denen die Temperaturen der Welt bis zum Ende des Jahrhunderts simuliert werden, enthalten darum Module für den Kohlenstoffkreislauf.

Gerade bei dieser Frage spielt die Anpassung der Pflanzen an höhere Temperaturen eine wichtige Rolle, sagt Julia Pongratz vom Max-Planck-Institut für Meteorologie in Hamburg, wo eines der vom IPCC verwendeten Klimamodelle gerechnet wird. Schon heute verwendeten etliche Klimamodelle eine Abschätzung der Akklimatisierung der Pflanzenrespiration; sie sehen die Biosphäre auch in Zukunft als Kohlenstoffsenke. „Diese Einschätzung wird durch die neuen Erkenntnisse noch bestärkt, denn die Respiration war bislang anscheinend eher überschätzt, die Senke also unterschätzt.“ Gerade deswegen seien Reichs Messungen aus Minnesota für die Modellierer sehr nützlich. „Die meisten Daten über die Veränderungen der Atmung stammen bislang aus kontrollierten Laborexperimenten; viel relevanter für die Modellierung sind aber echte Feldstudien wie die hier vorliegende, die natürliche Witterungsverhältnisse abbilden und die Pflanzen nicht isolieren“, sagt Pongratz. Nun fehlten noch ähnliche Daten für die tropischen Wälder, wo bisher die größten Kohlenstoffsenken liegen.

Ei-enn-di-ssie

2014-03 Paris und Rugby – 038Paris, der Eiffelturm, der in den kommenden Wochen vom Symbol für den Kampf gegen der Terror zum Symbol für das Ringen um Klimaschutz wird. Foto: C. Schrader

Vorbemerkung: Aus diesem Beitrag zum Start des Pariser Klimagipfels kann und will ich meine Meinung nicht heraushalten. Ich bemühe mich, die verschiedenen Auswertungen der freiwilligen Beiträge, die die Staaten der Welt bei der COP21 vortragen wollen, einigermaßen neutral zu analysieren, stufe diesen Text aber trotzdem als Kommentar ein.

Hamburg, 29. November 2015

Der einzige Erfolg, den die internationale Gemeinschaft bei ihren Verhandlungen bisher erzielt hat, ist die sogenannte Zwei-Grad-Grenze (und es ist eine Grenze, kein Ziel). Im mexikanischen Cancún, im Jahr 2010, haben die Staaten beschlossen, dass eine Erwärmung bis 2100 gegenüber der vorindustriellen Zeit um diesen Wert gefährlichen Klimawandel darstellt. Und am Anfang des ganzen Prozesses, 1992 in Rio de Janeiro, haben sie sich gegenseitig versprochen, dass sie einen gefährlichen Klimawandel verhindern wollen. Voilá. Voilá?

Weiteren Fortschritt hat es bisher nicht gegeben, aber für Paris erwarten ihn nun alle. Die Konferenz verfolgt einen anderen Ansatz als frühere Gipfel. Die Staaten versuchen nicht mehr, sich allesamt auf eine allgemeine Reduzierung der Treibhausgas-Emissionen (und auf eine Definition von Gerechtigkeit) zu einigen. Jeder einzelnes Land – und die EU als Gemeinschaft – legt einen Plan vor, wie es bis 2025 oder 2030 den Ausstoß bremsen will. Diese Pläne heißen INDC (Intended Nationally Determined Contributions). Es hat bereits etliche Bewertungen gegeben, was sie bewirken könnten, die zwischen mäßiger Erleichterung und vorsichtigem Optimismus schwanken. Extreme Äußerung der Zufriedenheit oder der Enttäuschung sind ausgeblieben. Klar ist, dass die Vorschläge nicht reichen, um die Erwärmung tatsächlich auf zwei Grad zu begrenzen. Aber wenn sich die Staaten tatsächlich an ihre Versprechen halten, dann laufen wir auch nicht mehr auf eine Vier-Grad-Welt zu.

Insofern ist vor Paris schon etwas Wichtiges geschehen: die zwangsläufige Erwärmung erscheint gebrochen, das sogenannte Business-as-usual (BAU) ist vom Tisch. Eine häufig verwendete Formulierung lautet daher, die INDCs und die Konferenz in Paris bauten eine Brücke zur Zwei-Grad-Grenze.

Es ist allerdings unklar, wie lang diese Brücke sein muss. Die meist gehandelte Zahl, was die INDCs bringen, lautet inzwischen 2,7 Grad Erwärmung. Sie stammt unter anderem von Christiana Figueres, der Leiterin des UN-Klimasekretariats UNFCCC in Bonn. Das gilt vielen als offizielle Stellungnahme, aber Figueres verweist im nächsten Absatz der Pressemitteilung darauf, dass die Zahl nicht von ihrer Organisation stammt, sondern von einer Reihe anderer Gruppen. Außerdem lautet das vollständige Zitat (meine Hervorhebung): „The INDCs have the capability of limiting the forecast temperature rise to around 2.7 degrees Celsius by 2100, by no means enough but a lot lower than the estimated four, five, or more degrees of warming projected by many prior to the INDCs.“ Es hängt also entscheidend davon ab, wie die Staaten ihre Politik in zehn bis 15 Jahren weiter entwickeln, das sagt Figueres auch deutlich. Und was das meint ist: wie die Staaten ihre Politik danach verschärfen.

Auf diesen Zusatz hat sehr eindeutig die amerikanische Umweltorganisation Climate Interactive hingewiesen. Demnach bringen die vorliegenden INDC die Welt nur auf den Kurs zu einer 3,5-Grad-Erwärmung bis 2100. Und das ist der wahrscheinlichste Wert: Wenn man sich eine Gaußverteilung um die 3,5 herum denkt, dann reicht nur ihr unterster Zipfel bis 2,0 Grad, aber der oberste dafür bis 4,6 Grad. Nur wenn die Staaten nach Ablauf der Pariser Vereinbarung deutlich nachlegen, wären überhaupt 2,7 Grad zu schaffen.

VergleichINDC-Wirkung_cWRI
Ein Vergleich, was verschiedene Organisationen aus den bisher vorgelegten INDCs machen. Quelle: World Resources Institute

Das sehen nicht alle Beobachter so. Das World Resources Institute hat mehrere Auswertungen auf seiner Webseite verglichen. Mit den Angaben in den Plänen zu rechnen ist nicht ganz einfach, weil viele Versprechen an Bedingungen gekoppelt sind: Entwicklungsländer fühlen sich an ihre Pläne nur gebunden, wenn die Industriestaaten ihren Beitrag leisten; manche Nationen machen die Emissionsreduktion auch von ihrem Wirtschaftswachstum abhängig. Oft wird der eigenen Beitrag als Abweichung vom Business-as-usual dargestellt.

Dem WRI zufolge ist 3,5 Grad einer der höheren Werte, aber er ragt auch nicht auffällig aus dem Feld heraus. Andererseits ist 2,7 Grad die niedrigste Zahl (wenn wir mal nur die roten Balken berücksichtigen). Ist es also ein gute Idee, diese ins Zentrum der Berichte zu stellen? Um es mal ganz offen und subjektiv zu sagen: Nein – ich finde das gefährlich.

Hier kommt ein psychologischer Effekt hinzu, mit dem zum Beispiel Supermärkte den Umsatz bestimmter Produkte steigern. Sie stellen neben den Wein oder die Nudeln oder die Butter eine billigere und eine teurere Alternaive: Wer keine Ahnung oder keine Vorliebe hat, greift dann meist zu dem mittleren Produkt, und fühlt sich einigermaßen gut, weil er ja eine Abwägung getroffen und die Extreme vermieden hat.

Dieser Mechanismus spielt auch in der Klimadebatte eine Rolle. Er führt zum Beispiel dazu, dass man 2,7 Grad, oder zur Not auch die 3,5 Grad, für einen brauchbaren Kompromiss zwischen den oft als unerreichbar bezeichneten zwei und dem Schreckgespenst mit vier bis fünf Grad Erwärmung hält. Oder dass man sich von den vier IPCC-Leitszenarien eines der mittleren aussucht, die beide auch über die Zwei-Grad-Grenze hinausführen. Diese Szenarien zeichnen die möglichen Entwicklung der Treibhausgase auf und haben merkwürdige Namen. Sie beginnen mit RCP (für Representative Concentration Pathway) und dann folgt eine Zahl: 2.6, 4.5, 6.0 oder 8.5. Sie beschreibt den sogenannten Strahlungsantrieb in Watt pro Quadratmeter, also die zusätzliche Heizleistung in der Lufthülle. Nur das RCP2.6 führt laut Weltklimarat einigermaßen sicher in eine Zukunft, in der die Staaten die Zwei-Grad-Grenze nicht reißen. RCP8.5 ist Business-as-usual, also praktisch überhaupt kein Klimaschutz. Der Mittelweg ist hier genauso fehl am Platz wie beim Urteil über die INDCs.

Allerdings hat vor Paris nicht zum ersten Mal die Debatte begonnen, ob die Zwei-Grad-Grenze nicht schon eine Illusion sei. So stellt es zum Beispiel der New-York-Times-Kolumnist Andrew Revkin dar und ähnlich steht es in Nature. Der Tenor ist, dass viele Szenarien, die die Erwärmung unter zwei Grad halten, negative Emissionen vorsehen, sprich es wird CO2 aktiv aus der Atmosphäre entnommen. Das gängigste – aber unerprobte – Verfahren heißt BECCS: Bioenergy with Carbon Capture and Sequestration. Dazu würde sehr viel Energie aus Holz oder Riesen-Chinaschilf oder Purgiernüssen oder anderen Pflanzen gewonnen, aber bei der Verbrennung das Kohlendioxid aufgefangen und unter der Erde verpresst. Da die Pflanzen zuvor CO2 aus der Atmosphäre entnommen hätten, das dann nicht zurückkehrt, hätte man negative Emissionen.

CCS hat nicht den besten Ruf, um es vorsichtig zu beschreiben. Vielleicht würde das ein wenig besser aufgenommen, wenn das CO2 aus Pflanzen statt aus Kohle stammt, aber sehr wahrscheinlich ist das angesichts des erbitterten Widerstandes nicht. Dennoch nennen zumindest zehn Staaten in ihren INDCs die Technik, darunter China, Kanada, Saudi-Arabien und Norwegen und Malawi.

In der Tat kann man bei den Szenarien – oder den INDCs, mindestens denen aus demokratisch regierten Staaten – Bedenken über die politische Durchsetzbarkeit haben. Aber erstens gibt es auch andere Wege unter die Zwei-Grad-Grenze, und zweitens ist das doch kein Glaubwürdigkeitsproblem für die Klimaforschung, wie der Autor in Nature formuliert. Die Vereinbarung von Cancún einzuhalten, wird sehr schwierig, keine Frage. Aber es ist besser, das Ziel mit ernsthaften Bemühungen knapp zu verfehlen, als es jetzt schon aufzugeben. „Wer kämpft, kann verlieren. Wer nicht kämpft, hat schon verloren.“ Das Zitat stammt entweder von Rosa Luxemburg oder von Berthold Brecht.

 

Wo das Meereis bleibt

Polar ice viewed from aboard the Norwegian Coast Guard vessel, "KV Svalbard", during Secretary-General Ban Ki-moon’s visit to the Polar ice rim to witness firsthand the impact of climate change on icebergs and glaciers. The visit is part of the UN Chief's campaign urging Member States to negotiate a fair, balanced and effective agreement at the UN Climate Change Conference in Copenhagen in December. 1/Sep/2009. Polar Ice Rim, Norway. UN Photo/Mark Garten. www.un.org/av/photo/

Meereis vor Spitzbergen im September 2009, aufgenommen vom norwegischen Küstenwachboot KV Svalbard bei einem Besuch des UN-Generalsekretärs Ban Ki-moon,
Foto: UN Photo, Mark Garten, www.un.org/av/photo, flickr, creative commons licence

3. November 2015

Auf Spitzbergen hat der Klimawandel kurz der Jahrtausendwende richtig angefangen. Der Osten der Inselgruppe war bis dahin fest im Griff des Meereises. Wenn es dort 15 eisfreie Tage im Jahr gab, war das schon eine Ausnahme; mehr als 50 kamen praktisch nicht vor. Das begann sich in den späten 1990er-Jahren zu ändern: Der Trend der Jahr für Jahr erfassten eisfreien Tage knickte plötzlich nach oben. Den Maximalwert der historischen natürlichen Schwankungen, also jene 50 Tage, dürfte Spitzbergen etwa 2020 verlassen, und Mitte des Jahrhunderts ist an seiner Ostküste mit 100 eisfreien Tagen im Jahr zu rechnen, haben amerikanische Polarforscher berechnet. Es gehört damit zu den vielen Orten und Regionen rund um die Arktis, die bald verlässlich offenes Wasser vor sich haben werden.

„2050 werden die gesamte arktische Küste und der Großteil des Polarmeers 60 zusätzliche Tage von offenem Wasser erleben, und an vielen Orten werden es sogar 100 Tage sein“, fasst das Team um Katharine Barnhart von der University of Colorado in Boulder ihre Studie zusammen (Nature Climate Change, online, doi: 10.1038/nclimate2848). Die vier haben mit einem Computermodell berechnet, wie ungebremster Klimawandel die Geographie des Hohen Nordens ändern würde: Schließlich war das Eis in vielen Regionen eine feste Größe, dazu gehörten neben Ost-Spitzbergen auch die Ostküste Grönlands, Teile der kanadischen Inseln am Rande des Polarmeers und natürlich das Meer über dem Nordpol. In der ganzen Region beginnt  die Schmelzsaison früher und endet später.

Zurzeit ist diese Phase etwa Mitte September zu Ende. Dann erreicht das Meereis über die gesamte Arktis betrachtet seine geringste Ausdehnung, danach frieren wieder zehntausende Quadratkilometer zu (genauer: sie sind wieder zu mehr als 15 Prozent mit Gefrorenem bedeckt und fallen so aus der Kategorie „eisfrei“ heraus). Neben der jährlichen Durchschnittstemperatur ist die Meereis-Fläche am Ende der Schmelzsaison die zweite Größe, an der unter großer öffentlicher Anteilnahme die von natürlichen Schwankungen überlagerte Veränderung des Klimas abgelesen werden kann (siehe zum Beispiel Noaa und Meereisportal.de). Doch die reine Zahl der Quadratkilometer Meereis ist nur eine sehr pauschale Größe.

Um eine Vorstellung davon zu bekommen, wann sich die Verhältnisse wo ändern, hat die Gruppe aus Boulder eine sogenannte Ensemble-Simulation ausgewertet. 30-mal wurde dafür das gleiche Klimamodell angeworfen, nachdem es mit jeweils leicht veränderten Ausgangswerten gefüttert worden war. Dieses Verfahren liefert eine Vorstellung davon, wie genau ein Ergebnis einer solchen Kalkulation bestimmt ist oder wie stark es von Zufällen abhängt . Das verleiht den Rechenwerten im besten Fall eine statistische Signifikanz. (Das Verfahren wird auch bei Wetterprognose verwendet: Wenn die Ergebnisse im Ensemble nahe beieinander liegen, und wenn auch die jeweils anderen Wetterdienste ähnliche Ergebnisse erzielen, getrauen sich Meteorologen, auch mal über längere Zeiträume als drei bis vier Tage eine Vorhersage zu machen.)

OpenWaterDaysArctic_Nov2015_Fig2Der Rückzug des ewigen Eises: Die Karte zeigt, in welchem Jahr eine Region der Arktis voraussichtlich zum letzten Mal für ein halbes Jahr von Eis bedeckt ist. Weiße Regionen hatten bisher stets offenes Wasser, das karierte Zentrum niemals. Grafik: Barnhart et al, Nature Climate Changeonline, doi: 10.1038/nclimate2848, Fig 2

Das Ergebnis ist zum Beispiel diese Karte. Sie zeigt, wann sich der Charakter einzelner Regionen der Arktis ändert, weil sie nun weniger als ein halbes Jahr von Eis eingeschlossen sind. In der kanadischen Hudson Bay (links unten) zum Beispiel ist der Prozess im Jahr 2040 abgeschlossen, entlang der grönländischen Küsten zieht sich das heute noch vorherrschende Eis ab 2025 nach Norden zurück. Mindestens 182 Tage Eis im Jahr gibt es dieser Simulation zufolge (sowie unter der Voraussetzung, dass die Staaten der Welt keinen wirksamen Klimaschutz beschließen) am Ende des Jahrhundert praktisch nur noch auf der grönländischen und ostkanadischen Seite des Polarmeeres, aber nicht mehr vor Alaska, und fast nicht mehr vor Sibirien.

Eine andere Studie hatte vor kurzem zudem gezeigt, dass der Arktis in den vergangenen Jahrzehnten sogar noch einiges erspart geblieben ist. Die Luftverschmutzung hat den Klimawandel in der Region abgemildert: 60 Prozent der Erwärmung, die Treibhausgase über das 20. Jahrhundert ausgelöst haben, wurden durch andere Emissionen abgepuffert, die in Form von Aerosolen in der Luft schweben. Die wichtigste Stoffgruppe dabei waren und sind Sulfate. Die Schwefel-Verbindungen, die auch bei Vulkanausbrüchen frei werden, kühlen das Klima ab, weil sie die Wolkenbildung verstärken. Ihnen entgegen wirken Rußpartikel, die in der Arktis niedergehen, und das Eis leicht grau färben. Es absorbiert dann eine Spur mehr Sonnenlicht und schmilzt schneller. Allerdings schützen die Sulfate das Eis stärker als Ruß es gefährdet.

Kanadische Forscher haben sich nun gefragt, wie das weitergeht. In den Zukunftszenarien, mit denen Klimaforscher gemeinhin rechnen, ist auch ein Rückgang der Luftverschmutzung eingeplant: Was aber passiert, wenn dieser Effekt trotz ansonsten leidlich effektiven Klimaschutzes (für Experten: RCP4.5) ausbleibt? Der Arktis, so ergibt die Rechnung von Marie-Ève Gagné und ihrer Kollegen vom kanadischen Umweltministerium, blieben dann die eisfreien Sommer ein weiteres gutes Jahrzehnt erspart: Statt 2045 passiert es erst 2057, dass die Meereis-Fläche im September unter die Grenze von einer Million Quadratkilometer fällt (Geophysical Research Letters, online, doi: 10.1002/2015GL065504). Das wäre deutlich weniger als zurzeit – 2014 waren es etwas mehr als fünf, im Jahr des Rekords 2012 immerhin 3,4 Millionen Quadratkilometer. Die schmutzige Luft wäre dann für das Meereis der Arktis sogar ein wenig vorteilhafter als ein insgesamt erfolgreicher Klimaschutz mit einer ehrgeizigen Senkung der Treibhausgas-Emissionen. „Die Studie bedeutet aber nicht, dass wir keine Gesetze für saubere Luft haben sollten“, sagte Nathan Gillett, Gagnés Kollegen und Ko-Autor, der Webseite Climate Central. „Viele Untersuchungen haben schließlich gezeigt, dass die Reduktion der Aerosole insgesamt große Vorteile bringt.“

Christopher Schrader, alle Recht vorbehalten

Vorbild Schweiz

1999-Zürich – 03Münsterbrücke über die Limmat in Zürich, Foto: C. Schrader

26.10.2015

In fünf Wochen beginnt in Paris der 21. Klimagipfel der Vereinten Nationen. Die Delegationen aus Europa, China und den USA werden dort vermutlich mit breiter Brust auftreten, und davon schwärmen, was sie alles für den Klimaschutz tun wollen. Insgesamt 154 Staaten haben im Vorfeld der Konferenz ihre nationalen oder regionalen Pläne eingereicht (weil die EU sich intern abgestimmt hat, sind bisher 127 solcher INDCs registriert worden). Bei Fachleuten löst das noch keine Euphorie aus: „Wenn man sich anschaut, was die Staaten der Welt bislang für Paris auf den Tisch gelegt haben, so ist klar: Es reicht nicht, um die globale Erwärmung unter der international anerkannten Grenze von zwei Grad Celsius zu halten“, sagt Sebastian Oberthür von der Freien Universität Brüssel. Auch ein Konsortium von 16 anderen Forschungsinstituten hatte vergangene Woche die Zahlen im sogenannten Miles-Report als mangelhaft bewertet.

Das einzige Land, das wirklich stolz auf sich sein kann, ist die Schweiz. Nach einer neuen Berechnung tut die Eidgenossenschaft nicht nur mehr als genug gemessen an ihrer Größe; sie könnte auch als Vorbild alle anderen Nationen mitziehen, wenn sie nicht so klein wäre, schreiben Malte Meinshausen von der University of Melbourne, Sebastian Oberthür und weitere acht Kollegen in Nature Climate Change (online; doi: 10.1038/nclimate2826). „Die Schweiz hat in ihrem INDC eine 50-prozentige Reduktion (der Treibhausgas-Emissionen) bis 2030 versprochen. Das macht sie zum einzigen Staat, der eine Diversitäts-bewusste Führungsrolle übernimmt“, bescheinigen die Forscher dem Land.

Um die Argumentation und den sperrigen Begriff „Diversitäts-bewusste Führungsrolle“ zu verstehen, muss man etwas ausholen. Der Klimagipfel in Paris versucht mit einer anderen Strategie zu einem globalen Abkommen zu gelangen als das Treffen 2009 in Kopenhagen. Damals sollten verbindliche Quoten beschlossen werden, um die alle Länder ihre Emissionen senken sollten. Aber der Verteilungsschlüssel war höchst umstritten. Darum haben die Staaten für Paris nur freiwillige Zusagen gemacht: INDC heißt „Intended Nationally Determined Contribution“, also „beabsichtigter, national bestimmter Beitrag“. Niemand soll in Paris zu irgendetwas gezwungen oder gar überstimmt werden.

Das ist nicht nur pragmatisch, um überhaupt diesmal ein globales Abkommen zu erzielen, sondern übertüncht auch einen fundamentalen Widerspruch im Verständnis von Gerechtigkeit. Die Industriestaaten stoßen schließlich ganz allgemein gesprochen deutlich mehr Treibhausgase pro Einwohner aus als Schwellen- oder Entwicklungsländer. Wenn also irgendwann in der Zukunft für alle Menschen die gleiche Quote gelten soll – früher war mal die Rede von zwei Tonnen Kohlendioxid pro Person und Jahr -, dann bleibt immer noch die Frage, wie man dort hinkommt.

Es gibt zwei Vorschläge. Erste Möglichkeit: Alle Staaten nähern sich von ihrem augenblicklichen Niveau langsam diesem Ziel an. Die Deutschen reduzieren also ihre Emissionen von gut neun auf zwei Tonnen, während die Inder mit zurzeit 1,7 Tonnen noch Spielraum haben und Vietnam mit zwei Tonnen pro Person und Jahr auf der Stelle treten muss. Das wäre eine Methode, die man als Verteilungsgerechtigkeit bezeichnen könnte.

Zweite Möglichkeit: Das Verfahren der Zuweisung von Emissionen korrigiert die Geschichte. Dann würde die Staatengemeinschaft eine Zahl festlegen, wie viele Tonnen für jeden Menschen ein Land – seit sagen wir mal 1950 – ausgestoßen haben darf und in diesem Jahrhundert weiter ausstoßen darf. Das erlaubte ärmeren Staaten höhere Mengen und eine nachholende wirtschaftliche Entwicklung nach den Mustern der Industriestaaten, also zum Beispiel mit Kohlekraftwerken, während die reicheren Nationen schneller und deutlich stärker einsparen müssten.

Über diese Frage war zwischen den Nationen keine Einigkeit zu erzielen, und das ist vermutlich auch für die Zukunft utopisch. Und so orientieren sich die reicheren Staaten bei ihren INDCs in der Regel an der Verteilungsgerechtigkeit, die ärmeren an der korrigierenden Gerechtigkeit. Die Reichen wollen die Vergangenheit ignorieren, die Armen wollen sie berücksichtigt wissen. Das führt dazu, dass jedes Land seine Vorteile ausrechnet und sich die jeweils höhere Emissionsmenge bzw die niedrigere Reduktionsquote aussucht und nach Paris meldet. Unter anderem darum reicht die Summe der Versprechungen nicht aus.

Der Gedanke des Meinshausen-Teams war nun folgender: Dieser Mechanismus ist eigentlich einfach zu durchschauen und im Prinzip auch einfach zu korrigieren. Es muss sich ein Land A dieser Diversität im Gerechtigkeitsbegriff bewusst werden, diese tolerieren und dann auf dieser Basis den eigenen Beitrag neu kalkulieren. Und dabei eine Führungsrolle einnehmen. Land A könne sich dabei darauf verlassen, so behaupten die Forscher, dass seine Freunde und Handelspartner B bis Z seinem Vorbild folgen, und den gleichen Ehrgeiz an den Tag legen, wenn es mal jemand vorgemacht hat. Schließlich möchten die Länder vor allem nicht ins Hintertreffen geraten und zum Beispiel der eigenen Industrie Vorgaben machen, die Konkurrenz-Unternehmen woanders nicht erfüllen müssen. Sie wollen also Nachteile gegenüber anderen Nationen vermeiden, nicht unbedingt Vorteile erzielen. Ob man sich in der internationalen Politik allerdings darauf verlassen kann, ist sicherlich Stoff einer sehr langen Debatte.

 

GHGTargetsExampleSetting_Fig4a-c

Was passieren würde, wenn die USA sich als Vorbild für die Welt verstünde, illustriert das Forscherteam mit diesem bunten Tortendiagramm. Teil a ist die Legende, welche Farbe für welches Land oder Region steht. In Teil b sind die Beiträge aller Staaten berechnet, die sich an dem momentanen Reduktionsversprechen der USA orientieren. Es führt zu einem weiteren Anstieg der Treibhausgas-Emissionen bis 2030 von sechs Prozent. Sagt Amerika hingegen eine stärkere Senkung des Ausstoßes zu, dann folgen die restlichen Staaten, so dass am Ende eine tatsächlich das Klimaziel erreicht werden kann.
Quelle: Meinshausen et al: National post-2020 greenhouse gas targets and diversity-aware leadership, Nature Climate Change, online, doi: 10.1038/nclimate2826.

Malte Meinshausen als Sprecher der Forschungsteams argumentiert nun: „Wenn die Europäische Union oder die USA als Pionier der weltweiten Klimapolitik handeln würden, so könnte die Blockade der Verhandlungen über eine gerechte Lastenteilung aufgebrochen werden.“ Leicht wäre das allerdings nicht. Die EU und die USA müssten ihre Reduktionen praktisch verdoppeln. Amerika hat angekündigt, bis 2025 um 26 bis 28 Prozent weniger Treibhausgase auszustoßen als 2005. Um andere Nationen als Vorbild mitzuziehen, müsste das Land seine Vorgabe auf 54 Prozent erhöhen, haben die Forscher errechnet. Die EU wiederum hat beschlossen, bis 2030 um 40 Prozent weniger Treibhausgase auszustoßen als 1990; nach der Nature Climate Change-Studie müssten es minus 67 Prozent sein. Und China, das bisher nur versprochen hat, seine Emissionen ab 2030 nicht mehr steigen zu lassen, müsste als Vorbild dann schon den Ausstoß um 32 Prozent unter die Werte von 2010 gesenkt haben. Das hält das Forschungsteam für komplett unrealistisch.

Was in Paris auf dem Tisch liegt, genügt also auch in dieser Hinsicht noch nicht. Nur bei der Schweiz: Sie müsste als Vorbild ihre Emissionen bis 2030 um 44 Prozent senken, versprochen hat sie aber bereits 50 Prozent.

Man kann das für eine optimistische Botschaft halten; die Autoren der Studie tun es jedenfalls. „Diese Idee ist jedenfalls weniger utopisch, als sich auf eine universelle Verteilungsmethode zu einigen“, sagt Louise Jeffreys vom Potsdam-Institut für Klimafolgenforschung (PIK). „Aber sie stützt sich auf die Annahme, dass die wichtigsten Wirtschaftsmächte auf die eine oder andere Weise mitmachen.“

Je nach politischer Grundeinstellung kann man aber auch die Aussage des vergangene Woche veröffentlichten Miles-Reports für realistischer halten. Die 16 Institute unter Federführung des IDDRI in Frankreich (Institut du développement durable et des relations internationales) bezeichnen die bisher eingereichten INDCs immerhin als tragfähige Brücke in eine Zukunft, in der sich das bereits international vereinbarte Klimaziel erreichen lässt. Die nationalen Pläne würden einen breiten Umbau der Energieversorgung anstoßen, stellen die Wissenschaftler fest. „Die Beurteilung der INDCs sollte sich nach ihrem Potenzial richten, die umfassende Dekarbonisierung des Energiesektors auf den Weg zu bringen“, sagt die Projektleiterin Teresa Ribera. „Der Bericht macht deutlich, dass diese Transformation eingeleitet wird, allerdings zu langsam.“ In das Abkommen von Paris solle daher gleich einen Mechanismus eingebaut werden, die nationalen Pläne in Zukunft zu verschärfen.

Christopher Schrader, 26. Oktober 2015

Ergänzung, 30.10.2015: Malte Meinshausen hat neben seiner Stelle in Melbourne auch seine Verbindung zum PIK behalten.

 

Die Goldlöckchen-Temperatur

21.10.2015

Zusammenfassung: Eine Analyse von 166 Ländern zeigt, wie ihre Wirtschaft vermutlich auf den Klimawandel reagieren wird. Entscheidend ist dabei nicht, wie groß das Nationaleinkommen ist, sondern wie hoch die jährliche Durchschnittstemperatur liegt. Jenseits von 13 Grad Celsius bringt die globale Erwärmung auch reichen Nationen Verluste.

In Russland, Skandinavien oder Kanada können sich die Menschen eigentlich auf den Klimawandel freuen: Er dürfte ihnen großes Wirtschaftswachstum bringen. Viele Studien zeigen, wie Landstriche im Hohen Norden mit der globalen Erwärmung freundlichere Temperaturen erreichen, die verstärkte Agrarwirtschaft und generell eine intensivere Nutzung der Ressourcen und Bodenschätze erlauben. Die Schäden an der bisherigen Infrastruktur, die etwa in den sibirischen Weiten  im aufgeweichten Permafrostboden versinkt, bremsen den Aufschwung nur ein wenig. Wo eine neue Wirtschaftszone entsteht, lassen sich die Kosten für den Neubau einer Straße verschmerzen.

Doch solche Vorteile werden vermutlich nur wenige Staaten der Erde erleben. Drei Ökonomen aus Kalifornien haben jetzt ein verblüffend einfaches Kriterium dafür berechnet, wer dazu gehört: Wenn die jährliche Durchschnitts-Temperatur eines Landes bei bis zu 13 Grad Celsius liegt, kann es mindestens zunächst vom Klimawandel profitieren. Ist sie höher, dürfte der globale Wandel den Staat Wachstumsprozente kosten; bei den ärmsten Ländern in den heißesten Regionen kann es sogar zu einem Schrumpfen der Wirtschaft führen. „Die Reaktion der reichen Länder ist dabei sehr ähnlich wie die der armen“, schreibt Marshall Burke von der Stanford University, einer der drei Forscher, in einer E-Mail. Seine Kollegen Solomon Hsiang und Edward Miguel kommen von der UC Berkeley auf der gegenüberliegenden Seite der San Francisco Bay. „Der wichtigste Unterschied zwischen den Ländern“, so Burke, „ist ihre Durchschnittstemperatur, nicht ihr Durchschnittseinkommen.“

Wie sich die Welt nach dem 13-Grad-Kriterium in Gewinner und Verlierer aufteilt, zeigt eine Karte in dem Forschungsaufsatz der drei Ökonomen, der in Nature erschienen ist (online; doi: 10.1038/nature15725). Demnach dürfte es Vorteile auch für große Teile Europas geben (die deutsche jährliche Durchschnittstemperatur zum Beispiel hat 2014 zum ersten Mal die 10-Grad-Marke überstiegen). Sonst aber profitiert kaum ein Land, auf längere Sicht nicht einmal Wirtschafts-Supermächte wie die USA oder China, die beide heute schon nahe an der Idealtemperatur von 13 Grad Celsius liegen (die USA hatten in ihrem Rekordjahr 2012 eine Mitteltemperatur von 12,9 Grad; 2014 waren es 11,4 Grad).

GoldilocksTempEconCC_Fig4aDie Grafik zeigt, wie sich das Nationaleinkommen pro Kopf der Bevölkerung bis 2100 verändert, wenn zur angenommenen wirtschaftlichen Entwicklung ein ungebremster Klimawandel hinzukommt (IPCC-Szenario RCP8.5). Blautöne bedeuten ein Profitieren
vom Klimawandel, in rosa und rot gefärbten Ländern kostet die Erwärmung wirtschaftliches Wachstum.
Quelle: Burke et al: Global non-linear effect of temperature on economic production;
Nature online, doi: 10.1038/nature15725; Figure 4a

Wenn man es etwas poetischer mag, kann man diese 13 Grad Celsius als die Goldlöckchen-Temperatur der globalen Wirtschaft bezeichnen (die Nature-Pressestelle tut dies in ihrer Pressemitteilung). Goldlöckchen ist eine Märchenfigur, ein kleines Mädchen, das in das Haus der Familie Bär im Wald eindringt und dort drei Schüsseln Brei probiert: Die erste ist zu heiß, die zweite zu kalt, die dritte genau richtig.

Insgesamt wird der Klimawandel für die globale Wirtschaft damit zu einem Verlustgeschäft. Schreitet die Erwärmung ungebremst fort, dann ist mit einer globalen Erwärmung von vier Grad gegenüber der Zeit vor der Industrialisierung zu rechnen. Laut Burke und seinen Kollegen bleiben die durchschnittlichen globalen Einkommen dann um 23 Prozent hinter dem Wert zurück, der durch das angenommene Wirtschaftswachstum und ohne Erwärmung bis 2100 zu erreichen wäre.

Zudem könnte sich nach dieser Berechnung die Ungleichheit auf der Welt deutlich vergrößern. Ganze Regionen wie Afrika südlich der Sahara oder Südostasien könnte die globale Erwärmung fast das gesamte Wachstum kosten, das in diesem Jahrhundert noch zu erwarten ist. Und mindestens fünf Prozent der Staaten dürften 2100 sogar ärmer sein als heute. In dem Paper schreiben die drei Ökonomen: „Nach unserer Schätzung wird sich das durchschnittliche Einkommen der 40 Prozent ärmsten Länder bis 2100 um 75 Prozent gegenüber einer Welt ohne Klimawandel verringern, während die reichsten 20 Prozent leichte Gewinne erleben, weil sie im Allgemeinen kühler sind.“

Mit diesem letzten Halbsatz spricht das Team einen erwartbaren Einwand gegen ihre Studie aus: Reiche und arme Staaten sind auf der Welt nicht gleichmäßig verteilt. Die klassischen Industrieländer in Europa sowie die USA und Japan liegen in gemäßigten Klimazonen, die ärmsten Entwicklungsländer aber in einem breiten Gürtel um den Äquator. Über die Frage, warum das so ist, kann man lange und ideologische Debatten führen, die Stichworte wie protestantische Arbeitsethik oder Imperialismus enthalten. Jedenfalls ist der Abstand zwischen den Ländergruppen und Regionen im 19. und 20. Jahrhundert gewachsen, zeigen ökonomische Analysen. Die reichen Länder sind den ärmeren davongezogen. Es wäre also ziemlich einfach für das Burke-Team gewesen, in der Berechnung einen massiven Fehler zu machen.

Über diesen Fallstrick zu stolpern, haben die Ökonomen vermieden, indem sie die Staaten nicht miteinander, sondern immer nur mit sich selbst verglichen haben. Jedes der 166 Länder hat in dem untersuchten Zeitraum 1960 bis 2010 schließlich wärmere und kühlere Jahre erlebt, die die Forscher mit den jeweiligen Wirtschaftsdaten vergleichen konnten. Dabei haben sie die Effekte von Wirtschaftskrisen und plötzlich veränderter Wirtschaftspolitik herausgerechnet. Übrig blieben Grafiken für jedes Land, aus denen die Forscher die lokale Steigung ihrer globalen Wachstum-Temperatur-Relation bestimmt haben.

GoldilocksTempEconCC_FigED1a-fDie globale Kurve, wie das Wirtschaftswachstum mit der Temperatur zusammenhängt,
besteht aus lauter einzelnen Zahlenwerten, die für individuelle Länder bestimmt wurden
(die schwarze Linie zeigt jeweils eine lineare Approximation, der graue Bereich das
95-Prozent-Konfindenzintervall). Hier beispielhaft fünf Staaten.
Quelle: Burke et al: Global non-linear effect of temperature on economic production;
Nature online, doi: 10.1038/nature15725; Extended Data Figure 1a-f

Burke und seine Kollegen beschreiben das Verfahren so:
In an ideal experiment, we would compare two identical countries, warm the temperature of one and compare its economic output to the other. In practice, we can approximate this experiment by comparing a country to itself in years when it is exposed to warmer- versus cooler-than-average temperatures due to naturally occurring stochastic atmospheric changes.

Da sie also keine Experimente machen können, in denen sie eines von zwei identischen Ländern erwärmen und das andere nicht, ist dieser Vergleich der Staaten mit sich selbst eine vernünftige Methode. Das bestätigt der Autor eines begleitenden Kommentars in Nature, Thomas Sterner von der Universität Göteborg in Schweden: Gegenüber früheren Studien ähnlicher Art nutzten die kalifornischen Kollegen einen „anderen (und ich glaube verbesserten) Ansatz, mit Störvariablen umzugehen“. Und: „Die Autoren geben sich viel Mühe, die Robustheit ihrer Ergebnisse zu überprüfen, aber es wird zweifellos Versuche geben, nach anderen Daten und Ansätzen zu suchen, die abweichende Resultate erbringen könnten. So funktioniert der wissenschaftliche Fortschritt.“ Das neue Verfahren muss sich also noch bewähren.

Ähnlich sieht es Sabine Fuss vom Mercator-Institut für globales Gemeingut und Klimawandel in Berlin. „Das Paper ist klar und einleuchtend und enthält keinen methodischen Faux-Pas.“ Schon bei den kommenden Verhandlungen des Klimagipfels in Paris müsse man die möglichen Verluste durch den Klimawandel nun ganz anders bewerten. „Die Ergebnisse bedeuten nämlich auch, dass durch den ungebremsten Klimawandel global noch mehr umverteilt wird als bisher gedacht. Dieser wegweisende Artikel wird sicher die Basis für weitere Forschung in diese Richtung sein.“

Die Analyse von Marshall Burke und seinen Kollegen ist selbst ein Angriff auf die vorherrschende Meinung in der Ökonomie. Dass arme Länder wirtschaftliche Verluste durch den Klimawandel erleiden, ist schließlich kein wirklich neuer Gedanke. Aber bisherige Modelle nahmen an, dass reiche Länder wegen ihrer größeren Ressourcen und des einfachen Zugangs zu Technologie die Effekte einfach wegstecken. Die Folgen des Klimawandels würden demnach auch für all jene Länder immer geringer ausfallen, deren Wohlstand wächst, weil ihnen eine wirtschaftliche Entwicklung gelingt.

Die kalifornischen Ökonomen stellen das als falsche Interpretation dar: „Wir können nicht annehmen, dass reiche Länder von der künftigen Erwärmung unberührt bleiben, oder dass sich Konsequenzen der Erwärmung mit der Zeit abschwächen, wenn Länder wohlhabender werden.“ Staaten im Nahen Osten zum Beispiel sind schon heute deutlich über der 13-Grad-Schwelle und würden demnach wirtschaftlich unter dem Klimawandel leiden. Das gilt vermutlich auch für China, Japan und die USA, wenn sie die Erwärmung über den Gipfel der Kurve auf den absteigenden Ast treibt.

Dies alles setzt mehr oder weniger stillschweigend voraus, dass sich aus der Vergangenheit etwas für die Zukunft lernen lässt. Sollten Länder im Klimawandel plötzlich eine radikale Veränderung ihrer Wirtschaftsweise einleiten, wäre diese Annahme natürlich gefährdet. „Anpassungsmaßnahmen wie beispiellose Innovation oder defensive Investition könnten die errechneten Effekte reduzieren, aber soziale Konflikte oder gestörte Handelsbeziehungen sie auch verstärken“, heißt es in dem Nature-Paper.

Die Erkenntnis, dass selbst reiche Länder wirtschaftlichen Risken unterliegen, sollte auch politische Folgen haben, sagt Thomas Sterner. In vielen Staaten, vor allem in den USA wird schließlich heftig um den Begriff „Social costs of Carbon“ (also die sozialen Kosten der Kohlendioxid-Emissionen) gerungen. Sie könnten dazu dienen, einen vernünftigen Preis für den Ausstoß von Treibhausgasen zu definieren. Dem Burke-Ansatz zufolge müssten solche Kosten in Zukunft ganz anders und viel höher kalkuliert werden, so Sterner: „Ich habe das Gefühl, wir beginnen gerade erst zu verstehen, wie viel Schaden der Klimawandel anrichten kann.“
Christopher Schrader, alle Rechte vorbehalten

P.S.: Hsiang und Burke haben 2013 auch über die mögliche Zunahme von Gewalt mit der globalen Erwärmung geschrieben. Auch das war damals überraschend und kontrovers.

Ergänzung am 23.10.2015

Der Absatz mit den Kommentaren von Sabine Fuss vom Mercator-Institut wurde nachträglich eingefügt. Über das Thema berichten nun auch FAZ und Guardian.