Klimamodelle Schon frühe Klimaprojektionen erstaunlich präzise
Hauptinhalt
05. Mai 2025, 08:36 Uhr
Mithilfe von Klimamodellen erstellen Forschende schon seit den 1970er Jahren Projektionen, um zu verstehen, wie das Klima sich verändern wird. Aber wie zutreffend waren die frühen Modelle? Der Abgleich mit den tatsächlichen Beobachtungen zeigt: Sie haben die Entwicklung gut getroffen – zumindest in einigen Punkten. Klimaforschende erstaunt das wenig, denn die physikalischen Grundlagen sind bis heute dieselben.
Welchen Einfluss Kohlenstoffdioxid auf das Klima hat, ist lange bekannt. Schon der schwedische Physiker und Nobelpreisträger Svante Arrhenius prognostizierte um 1900, wie sich die Erde durch CO2 erwärmen würde. Zuvor hatte bereits der Begründer des Physikalischen Instituts an der Universität Leipzig, Heinrich Wilhelm Brandes, belegt, dass sich Wetter und Klimageschehen in lösbaren Gleichungen ausdrücken lassen, erzählt Johannes Quaas, der ebendort heute Professor für Theoretische Meteorologie ist.
Doch erst mit dem Aufkommen der Computertechnologie begannen Forschende Klimamodelle zu entwickeln, die die atmosphärischen Bedingungen auf dem Planeten simulieren konnten. "Klimamodelle, wie wir sie heute verwenden, hatten ihre Anfänge in den 70er Jahren", erklärt Christian Steger, Leiter der Abteilung für Klimaprojektionen beim Deutschen Wetterdienst. Erst 2021 sei der Physik-Nobelpreis dafür an Klaus Hasselmann und Syukuro Manabe verliehen worden, so Steger. "Mittlerweile gibt es weltweit etwa 25 Gruppen, die globale Klimamodelle entwickeln und betreiben." Und damit lassen sich Vorhersagen über die zukünftige Entwicklung des Klimas treffen.
"Das Klimasystem ist ein sehr komplexes System, das aus verschiedenen Komponenten besteht wie Atmosphäre, Ozean, Landoberfläche, Eisschilde, vieles andere mehr. Die folgen physikalischen Gesetzen und können mit physikalischen Gleichungen beschrieben werden", so Steger. Und im Klimamodell würden die einfach in Programmiersprache für den Computer übersetzt, damit der das Ganze mit verschiedenen Rahmenbedingungen durchrechnen kann – unter anderem zu Emissionen, Landnutzung oder Bevölkerungsentwicklung.
So entstehen dann mehrere sogenannte Szenarien, erklärt Klimaforscher Jakob Zscheischler vom Helmholtz-Zentrum für Umweltforschung (UFZ). "Das sind keine eindeutigen Vorhersagen, sondern die Szenarien basieren auf Annahmen, die wir über die Zukunft machen." Ein Klimamodell sei also letztendlich eine Art digitaler Zwilling des Klimasystems, sagt Thomas Jung, Experte für Klimamodellierung am Alfred-Wegener-Institut. "Ein Zwilling, den wir im Computer gebaut haben und der im Prinzip einen Großteil der wesentlichen Prozesse, die für das Klima entscheidend sind, abbildet und Naturgesetze und Gesetze der Physik anwendet."
Physikalische Grundlagen unverändert
Aber wie gut waren die ersten Projektionen? "Erstaunlicherweise waren diese ersten Modelle, zumindest was die globale Temperatur angeht, sehr gut", sagt DWD-Experte Steger. Die Realität gibt den Modellierern der ersten Jahre Recht: Die Temperatur sei nahe an dem gewesen, was seitdem gemessen wurde, so Steger. "Betrachten wir die globale oberflächennahe Temperatur, dann sieht man, dass das Szenario 'Business as usual' bzw. pessimistische Szenarien weitgehend das waren, was tatsächlich eingetroffen ist", sagt der Leipziger Quaas. Es gebe leichte Abweichungen, aber im Wesentlichen seien die Vorhersagen korrekt gewesen. "Das ist schon erstaunlich", lautet auch die Einschätzung von AWI-Experten Jung.
Dass Projektion und Observation gut zusammenpassen, ist nicht nur eine Beobachtung der Klimaforscher. Es gibt auch mehrere Studien dazu. Eine Analyse eines Forschungsteams unter Leitung von Zeke Hausfather von der University of California, Berkeley, die im Fachmagazin Geophysical Research Letters erschienen ist, zeigt, dass die meisten Modelle ziemlich zutreffende Vorhersagen getroffen haben. Die Forschenden haben die Projektionen von 17 Modellen, die zwischen 1970 und 2007 entwickelt wurden, mit den tatsächlichen Messungen der globalen Temperatur verglichen. Das Ergebnis: 14 Modelle stimmten teils eng mit der Beobachtung überein. Hinweise darauf, dass die Klimamodelle die Erwärmung im Projektionszeitraum systematisch über- oder unterschätzt hätten, fanden die Forschenden keine.
DWD-Experte Steger überrascht dieses Analyseergebnis nicht. "Die physikalischen Zusammenhänge wurden schon zu dieser Zeit gut genug dargestellt, um den grundsätzlichen Temperaturanstieg zu prognostizieren", sagt er. Ähnlich sieht es auch die Klimaforscherin mit Schwerpunkt Klimamodellierung von der Universität Hamburg, Johanna Baehr. Sie sagt, insbesondere die Berechnung, wie sich die globale Temperatur in Abhängigkeit der Emissionen verändert, sei eine einfache. "Die Rechnung für den menschgemachten Klimawandel, passt auf einen Bierdeckel", sagt Modelliererin Baehr. "In der Frage, wie gut wir die global gemittelte Temperatur abbilden können, dazu gab es in den letzten 50 Jahren keine signifikanten Fortschritte." Die Unsicherheiten lägen in diesem Punkt nicht bei den Klimamodellen, sondern bei der Frage, wie sich die Treibhausgasemissionen künftig entwickelten.
Die Rechnung, die zeigt, dass der Klimawandel menschgemacht ist, passt auf einen Bierdeckel.
"Ich finde das schon ziemlich beeindruckend", erklärt UFZ-Forscher Zscheischler mit Blick auf den Abgleich der frühen Projektionen mit der Realität. Auch deshalb, weil Klimaskeptiker immer behaupteten, die Modelle seien schlecht und unzureichend. "Man kann aber schon ziemlich genau zeigen, dass auch die ersten Modelle schon relativ gut waren, weil es physikalische Zusammenhänge sind, die wir gut verstehen."
Die Unsicherheiten bestünden eher bei der Frage, wie genau sich der Klimawandel wann und wo auswirken wird, ergänzt die Hamburgerin Baehr. "Da besteht tatsächlich auch zwischen verschiedenen Modellen teilweise eine Diskrepanz." Deshalb versuchten moderne Modelle, das Geschehen engmaschiger darzustellen – auf der Ebene nur weniger Kilometer. "Um auch den Unterschied zwischen Pinneberg und Bergedorf um Hamburg simulieren zu können und nicht nur den Unterschied zwischen Hamburg und München.
Komplexe Modelle stellen Klimaforscher vor Herausforderungen
Bis heute haben sich die Klimamodelle immer weiterentwickelt, immer mehr Aspekte des Erdsystems fließen in die Berechnungen ein. Das Ergebnis sind hoch komplexe Anwendungen, die auf Supercomputern laufen müssen und deshalb noch immer viele Ressourcen brauchen.
UFZ-Klimaforscher Zscheischler weist jedoch auf einen Effekt hin, mit dem die Modellierer immer mehr zu kämpfen haben. Denn wenn man tief einsteige in die Modelle und diese Ergebnisse auf regionaler Ebene mit den Beobachtungen vergleiche, dann gebe es immer wieder beobachtete Veränderungen, die Modelle entweder gar nicht oder verzerrt abbildeten. "Und das ist im Moment eine offene Frage, inwieweit wir jetzt die Modelle entwickeln oder vielleicht auch unsere Theorie und wie wir über die Welt nachdenken ein bisschen revidieren müssen."
Auch AWI-Experte Jung verweist auf die Herausforderungen für heutige Modelle. Die grundsätzliche Physik des Wandels der globalen Mitteltemperatur sei noch relativ einfach. Schwieriger sei es dagegen, darzustellen, was der Klimawandel für Extremereignisse bedeute. "Da kommt dann deutlich mehr dazu: die Zirkulation, Stürme, Hitzewellen, der Boden und die Flüsse fangen an, eine Rolle zu spielen. Dann wird das Ganze viel komplexer." Aber Klimamodelle könnten ohnehin nicht perfekt sein und an vielen Stellen nur Wahrscheinlichkeiten ausspucken, sagt Klimaforscherin Baehr. "An manchen Stellen fehlt uns weiterhin das physikalische Verständnis", ergänzt sie und verweist etwa auf die Faktoren Wolken und Bodenfeuchte. "Wie setzt man dieses Zusammenspiel dann so um, dass ein Computer das ausrechnen kann?"
Modelle, die an Grenzen geraten, mögliche Fehler und Chaos im System: Bei allen Problemen, mit denen die Modellierer heute zu kämpfen haben, lohnt sich der Blick zurück auf die zutreffenden frühen Ergebnisse, meint AWI-Forscher Jung. "Das stärkt unser Vertrauen in Klimamodelle und zeigt: Wir Menschen müssen etwas tun."
Dieses Thema im Programm: MDR AKTUELL | 03. Mai 2025 | 08:20 Uhr
MDR-Team vor 4 Tagen
Hallo ludwig_777,
neue Messmethoden und mehr Datenquellen können tatsächlich die Vergleichbarkeit erschweren. Genau deshalb werden Klimadaten systematisch homogenisiert: Das heißt, sie werden so aufbereitet, dass Veränderungen in der Messmethode, -technik oder -standort erkannt und korrigiert werden. So bleibt die Langzeitvergleichbarkeit erhalten.
Zudem ist es gerade ein Vorteil, dass wir heute viele verschiedene, unabhängige Datenquellen haben – von Wetterstationen über Satelliten bis hin zu Bojen im Ozean. Wenn alle diese Systeme übereinstimmend eine Erwärmung zeigen, spricht das für die Robustheit der Ergebnisse, nicht gegen sie.
Freundliche Grüße vom MDR WISSEN-Team
MDR-Team vor 4 Tagen
Hallo ludwig_777,
die Auswahl der 17 Klimamodelle basiert laut Veröffentlichung auf Modellen, für die sowohl Projektionen als auch reale Temperaturdaten im Nachhinein verfügbar waren. Die Autoren haben also nur Modelle einbezogen, deren Vorhersagen sich mit späteren Messwerten vergleichen ließen. Details zur Auswahl und zur Methodik (z. B. Metriken für die Genauigkeit) und vertiefte Informationen finden sich in der Originalpublikation, die im Artikel auch verlinkt ist: https://www.researchgate.net/publication/337753937_Evaluating_the_Performance_of_Past_Climate_Model_Projections
Freundliche Grüße vom MDR WISSEN-Team
ludwig_777 vor 4 Tagen
@MDR: Wo kann man nachlesen, nach welchen Kriterien die Auswahl erfolgte? Von wieviel Klimamodellen wurden die 17 ausgewählt? Wieweit waren die Abweichungen der anderen Modelle?