Schlagwort-Archive: ETH Zürich

Hohe Auszeichnung für ETH-Klimaforscher Knutti

Reto Knutti, Professor für Klimaphysik an der ETH Zürich, wird für seine Leistungen in der Erforschung des Klimawandels und für die Vermittlung seiner Erkenntnisse an die Öffentlichkeit mit dem Preis der Stiftung Dr. J.E. Brandenberger 2018 ausgezeichnet.

Von:  Simon Zogg

Der mit 200’000 Franken dotierte Preis zählt zu den höchsten Stiftungspreisen in der Schweiz. Dabei werden Persönlichkeiten ausgezeichnet, die sich der Verbesserung der Lebensbedingungen von Menschen verschrieben und sich dabei besondere Verdienste erworben haben. «Das trifft auf Reto Knutti in hohem Masse zu,» sagt Stiftungsratspräsident Carlo Schmid-Sutter, «unser Bewusstsein für den Klimawandel ist nicht erst nach diesem Hitzesommer gestiegen, dank den neuen Wegen in der Wissensvermittlung ist es Reto Knutti gelungen, neue Interessierte zu erreichen, die Ergebnisse seiner Forschung weit über die akademische Welt hinaus bekannt zu machen und für die Thematik politische Entscheidungsträger und das breite Publikum zu sensibilisieren.»

Reto Knutti beschäftigt sich mit grossen Fragen: Wie sollte unsere Welt in 20 bis 30 Jahren aussehen? Wie schärfen wir unser Bewusstsein für die Risiken des Klimawandels? Wie schaffen wir gesellschaftliche und politische Akzeptanz für die Klimaforschung? «Die Auszeichnung durch die Brandenberger-Stiftung freut mich besonders, weil er die gesellschaftliche Relevanz der Klimaforschung unterstreicht», sagt Reto Knutti. «Er motiviert mich, die Erkenntnisse meiner Forschung auch in Zukunft der Öffentlichkeit näher zu bringen.»

Reto Knutti
Bild: Giulia Marthaler / ETH Zürich
 

Als einer der Hauptautoren des Klimaberichts des Weltklimarates (IPCC) zeigt Reto Knutti die Auswirkung der Klimaerwärmung auf unseren Planeten. Er leitet die Gruppe für Klimaphysik am Institut für Atmosphäre und Klima des Departements für Umweltsystemwissenschaften an der ETH Zürich, ist Delegierter für Nachhaltigkeit der ETH und Präsident von ProClim.

Über die Auszeichnung freut sich auch ETH-Präsident Lino Guzzella: «Der Preis ist einerseits eine Auszeichnung für die tolle Arbeit von Reto Knutti. Andererseits ist er Beleg dafür, dass die ETH Zürich an gesellschaftlich höchst relevanten Themen forscht, Lösungen dafür entwickelt und sich in die öffentliche Diskussion einbringt.» Der Preis der Stiftung Dr. J.E. Brandenberger wird Reto Knutti am 24. November 2018 in Zürich verliehen. 

Über den Preis

Die Stiftung Dr. J.E. Brandenberger richtet jährlich einen mit 200’000 Franken dotierten Preis an Schweizerinnen und Schweizer, die sich unter grossem und anhaltenden Einsatz der Verbesserung der materiellen oder immateriellen Lebensbedingungen von Menschen verschrieben und sich dabei besondere Verdienste erworben haben. Der Preis soll insbesondere ohne Rücksicht auf die konfessionelle und politische Einstellung Frauen und Männern verliehen werden. Gegründet wurde die Stiftung von Irma Marthe Brandenberger, der Tochter des Cellophan-Erfinders Dr. J.E. Brandenberger.

Quelle: ETH Zürich

Kompromissfreudiger Klimarechner

ETH Climate Calculator

ETH Climate Calculator (Bild: Montage ETH Zürich / Colourbox)

Wenn es derzeit an der COP oder künftigen Klimaverhandlungen darum geht, das globale CO2-Budget gerecht unter den Staaten zu verteilen, sind Ansätze gefragt, die Vergleiche ermöglichen und einen fairen Kompromiss erlauben. Genau das bietet ein neuer Klimarechner der ETH Zürich, mit dem man länderspezifische CO2-Budgets berechnen kann. Von: Dr. Max Meulemann, ETH Zürich

Die grosse Herausforderung der laufenden Klimaverhandlungen ist, die Interessen der reichen, entwickelten Nationen und jene der Entwicklungsländer auf einen Nenner zu bringen. Da ein weltweites Klimaabkommen die verbleibende Menge an Emissionen (das CO2– oder Carbon Budget) festlegen wird, muss dieses Budget auch unter den teilnehmenden Ländern aufgeteilt werden. Prinzipien von Fairness und Gerechtigkeit können entscheidend dazu beitragen, ob Länder dem Abkommen zustimmen und sich in der Folge daran halten werden. Unser Lehrstuhl für Ökonomie/Ressourcenökonomie hat nun mit dem ETH Climate Calculator ein webbasiertes und frei zugängliches Werkzeug programmiert, das länderspezifische Carbon Budgets auf Basis dreier Verteilmethoden berechnet und die Konsequenzen dieser drei Ansätze visualisiert. Einer der genannten Verteilmechanismen ist die von Prof. Lucas Bretschger entwickelte Equity-Principles-Methode (siehe dazu auch den Autorenbeitrag von Lucas Bretschger im Economist [1]).

Emissionen fair verteilen mit Equity Principles

Das Kyoto Protokoll zeigte, dass ein weltweites Klimaabkommen durchaus möglich ist; doch waren die teilnehmenden Staaten nicht in der Lange, eine allgemeingültige Regel zur Verteilung der Emissionen zu finden. Obwohl Länder wie Norwegen und die Schweiz Verteilschlüssel auf Basis der wirtschaftlichen Leistungsfähigkeit (Ability to Pay) oder vergangener Emissionen (Polluter Pays oder Cost Sharing) vorschlugen [2], fand sich leider keine Mehrheit dafür. Unsere Equity-Principles-Methode greift diese Prinzipien wieder auf und bietet eine einfache Formel, um länderspezifische Carbon Budgets zu berechnen. Damit sollten Kompromisse möglich werden, die zur Lösung der Verteilungsfrage beitragen können.

Wahl von Temperaturziel und globalem Budget

Für den ökologischen Erfolg des Klimaabkommens muss zuerst ein weltweites Budget oder Temperaturziel gefunden werden. Der Konsens der Klimaverhandlungen der letzten Jahre ist das Zwei-Grad-Ziel, das den Anstieg der weltweiten Durchschnittstemperatur auf weniger als zwei Grad begrenzen will. Je nach angestrebter Wahrscheinlichkeit, das Ziel zu erreichen, sind verschiedene globale Budgets möglich (siehe Tabelle). Eines davon gilt es auszuwählen.

Tabelle Globales Carbon Budget
Drei Szenarien eines Globalen Carbon Budgets für das Zwei-Grad-Ziel. (Quelle: ETH Zürich / Max Meulemann)

Ein Klimarechner – drei Verteilmethoden

Ist der globale Kuchen einmal bestimmt, geht es ans Verteilen. Dabei möchten alle Länder ein möglichst grosses Stück. Unser Climate Calculator erlaubt es, folgende drei Verteilmethoden miteinander zu vergleichen:

  • die Equity-Principles-Methode berechnet einen Fairness Index an Hand von vier verschiedenen Gerechtigkeitsprinzipen: Wirtschaftliche Leistungsfähigkeit, Verdienstprinzip, Kostenteilung und technische Effizienz.
  • die Egalitaristische Methode verteilt das Carbon Budget proportional zur Bevölkerungsmenge.
  • und die Carbon Steuer, die weltweit die Energiepreise einheitlich erhöht, um die Emissionen auf das Carbon Budget zu begrenzen.

Aus ökonomischer Perspektive erreichen alle drei Methoden das Ziel effizient und effektiv, doch unterscheiden sich die länderspezifischen Carbon Budgets erheblich.

Die nachfolgende Grafik zeigt in vereinfachter Form, wie die Höhe der länderspezifischen Budgets von den aktuellen Pro-Kopf Emissionen abhängt. Auf Grund der Höhe das Budgets würden arme Ländern mit niedrigen Pro-Kopf Emissionen die Egalitaristische Verteilung (rote Linie) bevorzugen, weil ihnen das ein vergleichsweise hohes Budget bringt; reiche Länder mit hohen Pro-Kopf-Emissionen wählen entsprechend die Carbon Steuer (grüne Line). Die blaue Linie der Equity-Principles-Methode verläuft genau zwischen diesen Extremen, so dass sich entwickelte Länder und Entwicklungsländer annähern.

Drei Verteilmethoden graphisch dargestellt.
Der ETH Climate Calculator verent drei verschiedene Verteilmechanismen, um ein nationales Carbon Budget zu bestimmen. (Graphik: ETH Zürich / Lucas Bretschger)  

Beispiel: Die sieben grössten CO2-Emittenten

Um diese stilisierte Betrachtung zu verdeutlichen, zeigt die nächste Tabelle die berechneten Landes-Budgets in Gigatonnen (Gt) CO2 für die sieben grössten Emittenten (unter Annahme des mittleren Szenarios von 1440 Gt CO2 für das globale Budget). Die Budgets der Equity-Principles-Methode liegen dabei immer zwischen der Egalitaristischen Methode und der Carbon Steuer.

Länderspezifische Kohlenstoff-Budgets
Länderspezifische Kohlenstoff-Budgets in Gt CO2 für die sieben grössten Emittenten. (Quelle: ETH Climate Calculator)

Unser Climate Calculator kann also helfen, die verteilungspolitischen Konsequenzen verschiedener Vorschläge für ein Klimaabkommen zu vergleichen. Die von uns vorgeschlagene Equity-Principles-Methode vereint Flexibilität und Fairness in einer überprüfbaren Formel und erlaubt einen Kompromiss zwischen den Forderungen der verschiedenen Teilnehmer der internationalen Klimaverhandlungen.

Weiterführende Informationen

[1] Artikel von Lucas Bretschger im Economist: A calculated approach: To get a climate agreement, first set out principles for fair cost-sharing

[2] UNFCCC Report von J. Depledge (2000): TRACING THE ORIGINS OF THE KYOTO PROTOCOL , Artikel 184-214

Zum Autor

Max Meulemann

Weitere Klimaberichte, die Sie interessieren könnten:

myclimate Projekte erhalten an der COP21 den Ritterschlag

Schenken Sie Klimaschutz!

Vision Null: Warum wir langfristig kein CO2 mehr freisetzen dürfen

Headerbild Airial shot of a Coral-Reef in the Whitsunday Islands, Great Barrier Reef, Queensland, Australia. © GMC Photopress, Gerd Müller, gmc1@gmx.ch

El Nino wird diese Jahr wieder gravierende Auswirkungen auf die Südliche Hemisphäre und das Korallenriff Great Barrier Reef haben. © GMC Photopress, Gerd Müller

Jedes Klimaziel gewährt uns ein Budget an Emissionen. Um das Zwei-Grad-Ziel zu erreichen, braucht es eine vollständige Dekarbonisierung der Wirtschaft in den nächsten 50 Jahren. Dazu reicht es nicht aus, dass wir die existierenden Prozesse effizienter gestalten. Es braucht tiefgreifende Umwälzungen in fast allen Aspekten unserer Gesellschaft. Von: Prof. Nicolas Gruber, ETH Zürich

CO2-Absenkpfad
© Fotolia.com / stockWERK

Nächsten Mittwoch findet an der ETH Zürich die dritte «Klimarunde» statt. Sie dreht sich um das Thema «Vision Null» und fragt nach möglichen Wegen zu einer CO2-neutralen Gesellschaft. In diesem Beitrag möchte ich den wissenschaftlichen Hintergrund dieser Vision diskutieren.

Ein Etat an globalen CO2-Emissionen

Die Forschung der letzten zehn Jahre hat klar gezeigt, dass uns für jedes gewählte Klimaziel nur eine beschränkte Menge an CO2-Emissionen zur Verfügung steht. Wie viel das genau ist, bestimmen die so genannte Klimasensitivität und die Aufnahmekapazität von Wäldern und Ozeanen, also die Stärke von CO2-Senken. Die Klimasensitivität beschreibt, wie stark sich die Erde erwärmt, wenn die CO2-Konzentration in der Atmosphäre zunimmt. Und die Stärke der CO2-Senken bestimmt, wie stark CO2 in der Atmosphäre zunimmt bei einer gegebenen Menge an Emissionen.

Nehmen wir an, dass die Wälder und Ozeane wie bisher rund die Hälfte der CO2-Emissionen aufnehmen, und dass die Erde sich um ca. drei Grad Celsius erwärmt, wenn sich die CO2-Konzentration in der Atmosphäre im Vergleich zur vorindustriellen Zeit verdoppelt. Dann ergibt eine Abschätzung anhand einiger vereinfachender Annahmen (siehe Kasten am Ende des Beitrags), dass uns das Zwei-Grad-Ziel ein Budget von rund 800 Gigatonnen Kohlenstoff (Gt C) erlaubt. Das sind 800 Milliarden Tonnen C oder rund 3000 Milliarden Tonnen CO2. Simulationen mit den modernsten Klimamodellen, die auch Rückkopplungen zwischen dem Klima und dem Kohlenstoffkreislauf erlauben, ergeben eine sehr ähnliche Zahl. Die uns zustehenden Emissionen können wir uns als Kuchen vorstellen, den wir langsam aufessen dürfen. Der Kuchen scheint auf den ersten Blick lange zu reichen – schliesslich ist er ja dank den starken Senken im Meer und den Wäldern auch doppelt so gross, wie wenn diese uns nicht helfen würde, der Atmosphäre CO2 zu entziehen.

Schon mehr als die Hälfte weggegessen

Wenn wir aber nachrechnen, wie viel CO2 die Menschheit in den letzten 150 Jahren durch verbrannte fossile Energieträger und abgeholzte Wälder emittiert hat, dann bleibt leider nur noch weniger als die Hälfte des Kuchens übrig. Konkret haben wir von diesem Budget schon mehr als 500 Gt C verbraucht, so dass uns nur noch rund 300 Gt C bleiben [1]. Wenn wir von den heutigen Emissionen (ca. 10 Gt C pro Jahr) und deren Trends ausgehen, dann werden wir das Budget in weniger als drei Jahrzehnten aufgebraucht haben [2]. Danach darf netto kein weiteres CO2 in die Atmosphäre gelangen, ansonsten erhöhen wir die Wahrscheinlichkeit stark, dass wir übers Zwei-Grad-Ziel hinausschiessen.

Entwicklung der Emissionen und Illustration des CO2-Budgets für das Zwei-Grad-Ziel: Die schwarze Linie zeigt die Zunahme der Emissionen seit 1950. Die roten Flächen stellen die projizierten Emissionen in den IPCC Baseline Szenarien (ohne Klimaschutzmassnahmen) dar, während die grünen Flächen die Emissionen zeigen, die mit dem Zwei-Grad-Ziel vereinbar sind. Die verschiedenen Farben zeigen Unsicherheiten. (Figur aus Knutti und Rogelj (2015), modifiziert)

Das bedeutet, dass ab der zweiten Hälfte dieses Jahrhunderts die globalen CO2-Emissionen auf null gehen müssen. Demzufolge sollten wir uns nicht an einer CO2-armen, sondern an einer CO2-freien Zukunft orientieren.

Welche Reduktionsrate ist realistisch?

Ein schneller Absenkpfad würde es erlauben, dass auch zukünftige Generationen noch CO2 emittieren könnten. Solch schnelle Absenkpfade sind aber nur sehr schwierig zu erreichen. Wir haben einen starken «Lock-In»-Effekt, der dadurch zustande kommt, dass wir in den vergangenen Jahrzehnten weltweit stark in die fossil getriebene Infrastruktur investiert haben und es immer noch tun. Bei durchschnittlichen Laufzeiten von fossilen Kraftwerken von mehreren Jahrzehnten haben es die neuen Energiequellen nicht einfach, diesen Markt zu knacken, auch wenn mittlerweile die Preise durchaus kompetitiv sind (siehe Blogbeitrag von Tony Patt nächste Woche). Zudem müssen die Windturbinen, Solarpanels, und die ganze zugehörige Infrastruktur zuerst gebaut und installiert werden. Und das bedingt den Bau von neuen Fabriken, die Ausbildung von neuen Spezialisten, und substantielle Investitionen. Das braucht Zeit. Anhand der Geschwindigkeit der Marktdiffusion von neuen Technologien in der Vergangenheit kann man abschätzen, dass es sehr schwierig wird, eine Absenkrate von mehr als sechs Prozent pro Jahr zu erreichen.

Vision Null

Selbst wenn wir diesem optimistischen Absenkpfad folgen, werden wir das globale Budget noch vor Ende des Jahrhunderts aufgebraucht haben. Bei der Aufteilung der Emissionsrechte auf die einzelnen Staaten müssen wir aber noch berücksichtigen, dass den entwickelten Ländern aufgrund ihrer vergangenen Emissionen wohl künftig proportional weniger Emissionen zur Verfügung stehen werden [3]. Und falls wir die Trendwende bei den CO2-Emissionen global verschlafen, dann kann das Zwei-Grad-Ziel nur noch mit «negativen Emissionen» erreicht werden, d.h. dass wir netto CO2 aus der Atmosphäre entfernen müssen. Das ist technologisch heute schon möglich [5], aber es ist sehr teuer, und es bleibt unklar, wo das CO2 dann gelagert werden soll.

Fazit

Für die Schweiz sehe ich die Notwendigkeit einer vollständigen Dekarbonisierung unserer Gesellschaft in der zweiten Hälfte dieses Jahrhunderts [4]. Wir haben zwar fast 50 Jahre Zeit, diesen Prozess umzusetzen – aber es ist ein langer Weg, der nicht 2030 aufhört, sondern weiter führt bis die Emissionen auf null gesenkt sind.

Verdankung: Ich danke Prof. Reto Knutti für seinen wertvollen Beitrag zu diesem Text.

Weiterführende Informationen

[1] Aufgrund der grossen Unsicherheiten ist dieser Wert mit 500 Gt C bewusst vorsichtig gewählt. IPCC bezifferte die gesamten anthropogenen Emissionen auf 555 Gt C.

IPCC AR5, WG1, Summary for Policy Maker, schreibt: „From 1750 to 2011, CO2 emissions from fossil fuel combustion and cement production have released 375 [345 to 405] Gt C to the atmosphere, while deforestation and other land use change are estimated to have released 180 [100 to 260] GtC. This results in cumulative anthropogenic emissions of 555 [470 to 640] GtC.“

[2] CO2-Zähler: Link

[3] Beitrag zum CO2-Kuchen und dessen Aufteilung

[4] Beitrag zum Thema Vision Null

[5] Climeworks: CO2-Speicherung

(Quelle: ETH Zürich)

Weitere Klimaberichte, die Sie interessieren könnten:

Klimawandel bedroht Weinanbaugebiete mit Goldgelber Vergilbung

Bundesrat-Botschaft zum Klima- und Energielenkungssystem

Kohlenstoffrisiken: Erste Studie für den Schweizer Finanzplatz

ETH Zürich: Wie moderne Klimamodelle funktionieren

Alle Naturgefahren auf einen Blick in einer App des Bundes

Die 17 Ziele für nachhaltige Entwicklung

Bessere Einschätzung der Entwicklung von Naturgefahren

Migros und Bühler finanzieren Forschung gegen Food Waste

Hat die Klimaerwärmung nur scheinbar pausiert?

1260px Header Whitsundays

2015 könnte das El Nino Phänomen wieder verstärkt auftreten und zu einer weiteren globalen Erwärmung führen

Der Befund, dass es auf der Erde in den letzten Jahren trotz steigender CO2-Emissionen kaum wärmer wurde, prägt die Klimadiskussion seit geraumer Zeit. Nun behauptet eine Studie der amerikanischen Wetterbehörde NOAA, dass die «Klimapause» gar nicht existiert. Ein lehrreiches Beispiel dafür, was die «Realität» eigentlich ist, und wie Wissenschaft funktioniert.

Von: Prof. Reto Knutti, ETH Zürich

Ein oft genanntes Argument gegen den menschengemachten Klimawandel ist, dass sich die globale Oberflächentemperatur seit 1998 nicht erhöht hat, obwohl die CO2-Konzentration in der Luft weiter angestiegen ist. Das Phänomen der stagnierenden Erderwärmung ist gemeinhin als Klimapause bekannt und seit längerem Gegenstand einer heftigen Debatte. Skeptiker sahen sich in ihrem Zweifel am Klimawandel bestätigt, während Wissenschaftler auf der ganzen Welt nach plausiblen Erklärungen suchten – und solche auch fanden [1]. Nun sorgt eine neue Arbeit des amerikanischen Wetterdienstes NOAA (National Oceanic and Atmospheric Administration) in «Science» für Wirbel: Die Klimapause, englisch auch «hiatus» genannt, habe es gar nie gegeben – neue Messdaten zeigten, dass die Erdtemperatur seit 1998 kontinuierlich angestiegen sei. Die fehlende Erwärmung, zu der es Dutzende von Studien und Begründungen gibt, sei demnach ein Artefakt, also ein methodisch bedingtes falsches Ergebnis. Verschiedene Medien berichteten darüber [2][3].

Kein einheitliches Messnetz

Wie kam es dazu? Die Antwort ist simpel: Es ist schlicht ein komplexer Prozess, die globale Temperatur exakt über die Zeit zu bestimmen. Die Frage, wie genau Meteorologen und Klimaphysiker dabei vorgehen, und welche Schwierigkeiten sich ergeben, werde ich aus Platzgründen in meinem nächsten Beitrag vertiefen. Daher an dieser Stelle nur so viel: Die globale Temperatur kombiniert Daten von tausenden Messungen, welche die Lufttemperatur über Land und die Wassertemperatur im Ozean ermitteln. Um die verschiedenen Messresultate vergleichbar zu machen und zusammenzuführen, und um Fehler in Stationen zu finden, müssen die Daten immer wieder vereinheitlicht (homogenisiert) und aufeinander abgestimmt (kalibriert) werden. Genau das hatten die NOAA-Forscher gemacht: Sie überprüften die Daten des weltweiten Messnetzes und korrigierten sie.

Vergleichbare Daten und lange Zeiträume sind entscheidend

Die neue Studie kalibriert nun die verschiedenen Datentypen im Ozean besser. Zudem berücksichtigt sie mehr Datensätze und nimmt die letzten zwei Jahre seit dem Klimabericht IPCC von 2013 dazu. Das Resultat ist, dass der Trend über die letzten 15 bis 20 Jahre ähnlich ist wie die langfristige Erwärmung vorher. Effektiv unterscheiden sich die Daten aber wenig von den früheren Versionen der gleichen Institution. Das zeigt, dass Trends über kurze Zeiträume oft nicht robust genug und daher nicht repräsentativ sind, um daraus auf die langfristige Entwicklung zu schliessen. Hinzu kommt, dass viele alte Aussagen zum Hiatus auf Datensätzen basieren, die Gebiete ohne Messungen ignorieren, zum Beispiel die Arktis. Werden die fehlenden Daten durch Nachbarstationen, Satellitendaten oder typische Muster eingefüllt, wird auch die Erwärmung  grösser. Die Details sind hier entscheidend [4].

Umsonst die Pause erklärt?

Ob es die Klimapause gibt oder nicht, hängt also davon ab, welche Daten und welchen Zeitraum man betrachtet. Die Erwärmung des Ozeans beispielsweise, der am meisten Energie aufnimmt, hat nie pausiert. Auch sind unsere Erklärungen für die verlangsamte Erwärmung damit nicht vom Tisch, insbesondere wenn man die Konsistenz von Beobachtungen und Modellsimulationen betrachtet: Mit dem starken El Niño von 1998 und einer Tendenz zu La Niña bis 2012 haben die natürlichen Klimaschwankungen einen kühlenden Beitrag geliefert, und damit einher geht gemäss den Modellen eine leicht höhere Wärmeaufnahme der Ozeane. Ohne diesen kühlenden Effekt der natürlichen Klimaphänomene wäre der Erwärmungstrend seit 1998 also wahrscheinlich noch grösser gewesen, und damit völlig konsistent mit den Klimamodellen, wie wir letztes Jahr argumentiert haben (siehe Beitrag in ETH-News). Dass die lückenhaften Messdaten ein Teil des Problems sind, hatten wir damals auch schon betont. Die vielen Studien zur Klimapause waren nicht umsonst – im Gegenteil: Sie haben entscheidend zum besseren Verständnis von kurzfristigen Klimaschwankungen beigetragen, und sie erklären die Unterschiede zwischen Modellen und Beobachtungen.

Fazit für die Wissenschaft

Die Klimapause ist in verschiedener Hinsicht lehrreich. Es ist einfach, ein kurzes Stück aus einer Datenreihe herauszupicken und einen scheinbaren Widerspruch aufzuzeigen, und es verkauft sich gut. Die Realität halte sich hartnäckig nicht an die Modelle, kritisierten einschlägige Medien kürzlich wieder einmal. Aber was ist überhaupt die «Realität»? Die naive Annahme, dass ein Computermodell stets falsch und die Beobachtungen richtig sind, greift immer öfter zu kurz. Beobachtungsdaten über lange Zeiträume haben alle möglichen Tücken. Das Klima kann man nicht im Labor aufbauen und vermessen, und wir können die «Realität» nur näherungsweise bestimmen, vor allem wenn sie Jahrzehnte zurück liegt.

Wie so oft sind es verkettete Umstände und damit mehrere Faktoren, die zusammenspielen und zu einem unerwarteten Ereignis führen – zum Beispiel bei Fukushima oder der Finanzkrise. Bei der Klimapause sind es ein zufälliger Trend in El Niño, eine starke aber schlecht vermessene Erwärmung in der Arktis, ein paar kleinere Vulkane sowie eine schwächelnde Sonne, die die Modellsimulationen nicht voraussehen konnten. Saubere Wissenschaft braucht Zeit, um verschiedene Ideen zu testen, die wiederum von anderen reproduziert werden, bis ein robustes Bild entsteht. Und oft sind es etliche Puzzleteile, die erst zusammengefügt ein Phänomen erklären. In einem Tweet oder einem kurzen Artikel lässt sich so was meist schlecht vermitteln, aber sehr einfach verzerren.

Dass sich die Erde erwärmt, ist mit der neusten Studie noch klarer geworden. Aber dass damit nun alles klar ist, wäre falsch zu glauben, weil das unserer Grundhaltung als Wissenschaftler widerspricht. Andere Forschungsgruppen werden die neuen Resultate hinterfragen, kritisieren, und die Aussagen verfeinern. Wir müssen kritische Fragen stellen und Herausforderungen annehmen. Wir lernen aus Fehlern und aus unerwarteten Beobachtungen, und das wird auch in Zukunft so sein. (Quelle: ETH Zürich)

Weiterführende Informationen

[1] Beitrag in ETH-News

[2] NZZ: Artikel

[3] Tagesanzeiger: Artikel

[4] Realclimate: Article