Forschungsbericht 2014 - Max-Planck-Institut für Meteorologie

Das Plateau in der globalen Temperatur: kein systematischer Fehler der Klimamodelle

The hiatus in global temperature trends: No systematic error in climate models

Autoren
Marotzke, Jochem
Abteilungen
Ozean im Erdsystem (Jochem Marotzke)
Zusammenfassung
Beobachtungen deuten für die globale Oberflächentemperatur seit 1998 ein Plateau an, wohingegen die meisten Klimamodelle weiterhin eine Erwärmung simulieren. Woher kommt dieser Unterschied? Reagieren die Klimamodelle zu empfindlich auf die Erhöhung von Treibhausgaskonzentrationen wie der von CO2 und überschätzen somit den Klimawandel systematisch? Oder entsteht die Diskrepanz eher zufällig? Eine soeben erschienene Studie aus dem Max-Planck-Institut für Meteorologie (MPI-M) gibt eine klare Antwort: Es gibt keinen Beleg für einen systematischen Modellfehler.
Summary
Observations suggest a hiatus in global surface temperature since 1998, whereas most climate models simulate continued warming. What causes this difference? Do climate models respond too sensitively to the increase in greenhouse-gas concentrations such as that of CO2, and thus overestimate climate change systematically? Or has the discrepancy arisen by chance? A study just published by the Max Planck Institute for Meteorology (MPI-M) gives a clear answer: There is no evidence for systematic model error.

Prof. Jochem Marotzke, Direktor am MPI-M, und sein Kollege Prof. Piers Forster von der Universität Leeds in Großbritannien bestimmen in ihrer aktuellen Veröffentlichung in Nature erstmals, in welchem Umfang die simulierten globalen Temperaturtrends der Vergangenheit von den wichtigsten plausiblen Einflussfaktoren abhängen [1]. Letztere sind der Antrieb etwa aufgrund erhöhter Treibhausgaskonzentration, die Empfindlichkeit des Klimas gegenüber Veränderungen im Antrieb, die Wärmeaufnahme durch den Ozean sowie die spontane Variabilität des Klimas (die durch chaotische Prozesse im Klimasystem entsteht und daher keiner bestimmten Ursache zuzuordnen ist). Kann man auf diese Weise die simulierten Bandbreiten der vergangenen Temperaturtrends erklären, erhält man entscheidende Rückschlüsse darauf, warum sich Simulationen und Beobachtungen unterscheiden.

Die Autoren gehen in zwei Schritten vor. Zunächst vergleichen sie simulierte und beobachtete 15-Jahres-Temperaturtrends über den Gesamtzeitraum von 1900 bis 2012 (Abb. 1). Dadurch stellen sie den Kontext für den speziellen Zeitraum zwischen 1998 und 2012 her. In diesem Zeitraum gab es nämlich einige extreme regionale Klimatrends, zum Beispiel eine starke Abkühlung in Zentralsibirien im Winter oder eine beispiellose Verstärkung der Passatwinde im Pazifik, durch die kaltes Ozeanwasser an die Oberfläche gelangte. Solche zufallsbedingten Extremereignisse sind sehr selten und können von Modellen kaum wiedergegeben werden – so wie mit drei Würfeln eine Gesamtaugenzahl „drei“ nur sehr selten erreicht wird. Und da Trends über einen Zeitraum von 15 Jahren, der für klimatische Betrachtungen kurz ist, sehr stark von zufälligen Ereignissen beeinflusst sind, muss man simulierte 15-Jahrestrends so häufig wie möglich mit Beobachtungen vergleichen, um eine verlässliche Aussage über die Qualität der simulierten Trends zu gewinnen.

Abbildung 1 vergleicht für alle möglichen 15-Jahrestrends seit 1900 die Beobachtungen mit allen 114 verfügbaren Simulationen. Hierbei bedeutet ein Anfangsjahr 1900, dass der Trend über den Zeitraum 1900 bis 1914 berechnet wird, ein Anfangsjahr 1901, dass der Trend über den Zeitraum 1901 bis 1915 berechnet wird, und so weiter. Für jedes Anfangsjahr zeigt die Farbschattierung an, wie häufig welche Trendgröße im Ensemble der Simulationen vorkommt. Verglichen mit den Simulationen erscheinen die beobachteten Trends nicht in einer erkennbar bevorzugten Weise; manchmal kommen sie an der oberen und manchmal an der unteren Grenze des Ensembles der Simulationen vor. Die simulierten Trends sind also im Großen und Ganzen konsistent mit den Beobachtungen.

In einem zweiten Schritt untersuchen die Autoren, wodurch die Ensemblestreuung in den Simulationen entsteht. Hierzu isolieren sie mithilfe eines statistischen Verfahrens (multiple lineare Regression) die Beiträge verschiedener Prozesse. Aus theoretischen Überlegungen ergibt sich, dass die Streuung in den Temperaturtrends von den Trends im Strahlungsantrieb, von der Empfindlichkeit des Klimas in den einzelnen Modellen sowie von der Effektivität der ozeanischen Wärmeaufnahme in den einzelnen Modellen abhängen sollte. Zum Beispiel variiert die Empfindlichkeit des Klimas in den einzelnen Modellen um den Faktor drei (zwischen 0,6 und 1,7 °C Erwärmung für jedes W/m2 im Strahlungsantrieb; eine Verdoppelung der atmosphärischen CO2-Konzentration erzeugt einen Strahlungsantrieb von etwas weniger als 4 W/m2). Sollte also tatsächlich eine zu große Empfindlichkeit der Modelle für den zu großen Temperaturtrend der letzten 15 Jahre verantwortlich sein, müssten die Modelle mit einer großen Empfindlichkeit systematisch einen größeren Temperaturtrend aufweisen als die Modelle mit einer geringeren Empfindlichkeit.

Die Beiträge der drei erwähnten Prozesse (Trend im Strahlungsantrieb, Empfindlichkeit des Klimas, Effektivität der ozeanischen Wärmeaufnahme) werden kollektiv als deterministische Beiträge zur Ensemblestreuung interpretiert. Das Residuum der Regression, also der Betrag an Ensemblestreuung, der nicht durch deterministische Beiträge erklärt werden kann, wird als Beitrag der spontanen Klimavariabilität interpretiert. Analog zur Abbildung 1 wird auch die Regressionsanalyse für alle verfügbaren 15-Jahrestrends seit 1900 durchgeführt, um ein möglichst robustes Ergebnis zu erreichen.

Für alle 15-Jahrestrends in der Oberflächentemperatur seit 1900 tragen die deterministischen Effekte deutlich weniger zur Ensemblestreuung bei als die spontane Variabilität (Abb. 2b, c). Dies belegt, dass die zufällige spontane Klimavariabilität die Unterschiede zwischen einzelnen Simulationen dominiert und ebenso die Unterschiede zwischen den Beobachtungen und den Simulationen.

Die letzte Aussage lässt sich quantifizieren, indem man aus Abbildung 2c eine modellbasierte Abschätzung derjenigen Unsicherheit erstellt, die durch die spontane Variabilität entsteht. Addiert man diese Unsicherheit zu den Beobachtungen (Abb. 2a), liegt für fast alle Anfangsjahre das gesamte simulierte Ensemble im Rahmen der Beobachtungen einschließlich Unsicherheit. Ausnahmen ergeben sich lediglich für einige wenige Anfangsjahre, für die die Temperaturtrends von starken Vulkanausbrüchen geprägt sind, sowie die letzten zwei oder drei Anfangsfahre, die wie oben erwähnt von klimatischen Extremereignissen geprägt sind.

Zusammenfassend ergibt sich für die global gemittelte Temperatur am Boden, dass über den gesamten Zeitraum von 1900 bis 2012 die simulierten 15-Jahrestrends keine systematischen Abweichungen von den Beobachtungen zeigen. Die Unterschiede zwischen den simulierten und den beobachteten Trends werden von der spontanen Variabilität des Klimas dominiert. Insbesondere spielt die Empfindlichkeit des Klimas in den Modellen keine Rolle für den Unterschied zwischen simulierten und beobachteten Temperaturtrends. Letzteres ergibt sich, obwohl die Empfindlichkeit für verschiedene Modelle um bis zu einem Faktor drei unterschiedlich ausfällt. Die Behauptung, dass die Klimamodelle die Erwärmung aufgrund zunehmender Treibhausgaskonzentrationen systematisch überschätzen, ist also unzutreffend.

Literaturhinweise

Marotzke, J.; Forster, P. M.
Forcing, feedback, and internal variability in global temperature trends
Nature 517, 565-570 (2015)
DOI: 10.1038/nature14117
Zur Redakteursansicht