KLIMAMODELLE

Die Diagnosewerkzeuge

© CNRS Photothèque/Françoise Guichard, Laurent Kergoat
© CNRS Photothèque/Françoise Guichard, Laurent Kergoat

Burning embers (glühende Kohlen)
Von schwachem Gelb bis zum kräftigen Rot zeigt diese Grafik des IPCC den Aufstieg von fünf Risikokategorien, die mit verschiedenen Stufen der Erwärmung des Planeten zusammenhängen. Diese Grafik wurde zum ersten Mal 2001 veröffentlicht. 2007 wurde sie aktualisiert, wobei die Alarmstufe erheblich angehoben wurde.
  1. Risiken für bestimmte Ökosysteme (Korallenriffe, Gletscher, Lebewesen usw.).
  2. Extreme Wetterrisiken (Hitzewellen, Überschwemmungen, Trockenheit, Brände, Orkane usw.).
  3. Ausweitung der Folgen der Disparitäten und der regionalen Gefährdung (in Gelb: gewisse Bereiche, die von der Erwärmung profitieren, können im Kontrast zu denen stehen, die darunter leiden; doch im roten Bereich sind die negativen Auswirkungen generell spürbar).
  4. Risiken mit Auswirkungen auf Wirtschaft und Märkte (siehe Bemerkung oben).
  5. Risiken großer Veränderungen (beschleunigter Anstieg der Meere, Versauerung der Ozeane, extreme Hitze).
Source: IPCC
Voraussichtlicher Temperaturanstieg im letzten
Jahrzehnt des Jahrhunderts (2090-2099) nach dem
IPCC-Szenario, dass das Wirtschaftswachstum ansteigt
und auf einen Energiemix aus fossilen und nicht
fossilen Brennstoffen zurückgegriffen wird. Quelle: IPCC
Voraussichtlicher Temperaturanstieg im letzten Jahrzehnt des Jahrhunderts (2090-2099) nach dem IPCC-Szenario, dass das Wirtschaftswachstum ansteigt und auf einen Energiemix aus fossilen und nicht fossilen Brennstoffen zurückgegriffen wird.
Quelle: IPCC

Angesichts der verrücktesten Katastrophenszenarien, die zurzeit zirkulieren, benötigen wir ausgefeilte Techniken zur Klimavoraussage, wenn wir die richtigen Entscheidungen treffen wollen. Durch ein neues großes Klimamodell ist es heute möglich, gewisse Unsicherheiten über das Klima im Europa des 21. Jahrhunderts aus dem Weg zu räumen. Es liefert das bislang genaueste Bild unserer Klimazukunft.

Im Umweltfilm The Age of Stupid (deutsch: Das Zeitalter der Dummheit), der 2009 in die Kinos kam, spielt Pete Postlethwaite die Rolle des letzten Überlebenden einer Klimakatastrophe im Jahr 2055. Vom letzten Stockwerk eines Hochhauses aus betrachtet er eine zerstörte Welt, umgeben von klassischen Denkmälern und Kulturschätzen, die riesige Überschwemmungen überlebt haben. Und er fragt sich, warum ein halbes Jahrhundert vorher die Menschen sich nicht zusammengetan haben, um diese Katastrophe zu verhindern. Auch wenn der Film die Fantasie der Zuschauer stark beflügelt, würden zahlreiche Wissenschaftler sicherlich den gewählten Zeitpunkt des Weltuntergangs kritisieren.

Das Ende der Welt im Jahr 2055?

Die jüngsten Voraussagen des Weltklimarats (IPCC) – der vierte Bericht aus dem Jahr 2007 – liefern Klimamodelle, die von der Vorstellung des Filmproduzenten gar nicht so weit entfernt liegen. Sie stellen eine mögliche Temperaturerwärmung auf der Grundlage der besonderen Emissionsbedingungen dar, die unter anderem von der erfolgreichen Durchführung der Strategien für den Umweltschutz und die grünen Energieformen sowie vom Bevölkerungswachstum abhängen. Ein Modell ist ein Computerprogramm, welches die Entwicklung des Klimas ab einem bestimmten Zeitpunkt sowie eine Reihe von Szenarien, die mit den Emissionsbedingungen zusammenhängen, simuliert. Je komplizierter die Daten umso komplexer auch die Modelle. Sie können aus bis zu 30 Parametern wie etwa Windgeschwindigkeit, Luft- und Bodenfeuchtigkeit oder Taupunkt bestehen. Ein Modell kann Millionen Zeilen Quellcode enthalten, für die mehrere Monate Entwicklungszeit benötigt werden, zu denen noch längere Analysezeiten hinzukommen, was auch erklärt, weshalb weltweit nur 25 globale Modelle existieren.

In seinem günstigsten Szenario (schwacher Treibhausgasausstoß) rechnet der IPCC besten Schätzungen zufolge mit einer Temperaturerhöhung von 1,8 °C in den Jahren 2090-2100 im Vergleich zu 1990 (die Temperatur ist seit dem Beginn der industriellen Revolution um 0,7 °C gestiegen) und einem Anstieg des Meeresspiegels um 18 bis 38 Zentimeter. Das ungünstigste Szenario (hohe Emissionen) sieht nach dem heutigen Stand des Wissens eine Temperaturerhöhung von 4 °C und einen Anstieg der Meere um 26 bis 59 Zentimeter voraus. Unabhängig vom Szenario sagt der IPCC mehr Schäden durch Überschwemmungen und Stürme voraus. Ein Anstieg von 3 °C würde damit einem Verlust von 30 % der Küstenfeuchtgebiete entsprechen. Doch nirgendwo ist die Rede von einer globalen Überschwemmung im Jahr 2055.

Ein europäisches Megamodell

Diese Form der Klimamodellierung wird ständig verbessert. Sie ist sehr nützlich, wenn alarmierende Nachrichten zu widerlegen sind, aber auch, um gegen jene Stimmen anzugehen, die behaupten, dass es keinen Klimawandel gebe, sodass die Öffentlichkeit korrekt informiert werden kann. In den vergangenen Jahrhunderten wurden die Mess- und Modellierungstechniken immer weiter verbessert. Die ältesten Daten stammen von einem Klimathermometer, das im Zentrum Englands Ende des 17. Jahrhunderts stand. Im 19. Jahrhundert waren meteorologische Beobachtungen überall verbreitet. In den 1920er Jahren ließ man Ballons, die mit zahlreichen Messinstrumenten ausgestattet waren, in die Luft aufsteigen. Dreißig Jahre später wurden Flugzeuge zur Messung der Atmosphäre benutzt und am Nord- und am Südpol wurden Wetterstationen aufgebaut. Heute erfolgt die Datensammlung per Satellit.

Das Projekt ENSEMBLES, das mit 15 Mio. EUR aus dem 6. Rahmenprogramm (RP6) finanziert wird, bedient sich einer Reihe neuer aufwändiger Klimamodelle. Seine Voraussagen besitzen ein größeres Maß an Sicherheit, weniger aufgrund der Genauigkeit der Beobachtungen als aufgrund der Qualität und Tiefe der Modellbildung. Die Klimaforscher bestätigen damit, dass sie im Vergleich zu vorangegangenen Modellen, die aus Daten von globalen Klimamodellen entwickelt worden waren, das genauste und detaillierteste Bild von Europa zum Ende des Jahrhunderts gezeichnet haben.

So zeigen etwa die mittleren Ergebnisse einer Prognose von ENSEMBLES, die auf dem Emissionsszenario A1B basieren – gleichgewichtete Verwendung fossiler Brennstoffe und anderer Energieformen, darunter auch erneuerbarer –, dass zwischen 2080 und 2090 die Temperaturen während der Sommermonate im Südwesten Frankreichs im Vergleich zum Referenzzeitraum 1961 bis 1990 um 6 °C höher und die Niederschläge um 50 % niedriger liegen werden. Die Detailgenauigkeit der neuen Modelle gehört zu den wichtigen Beiträgen des Projekts zur Klimamodellierung. „Wir erreichen eine weit höhere Auflösung als alle bisherigen Modelle. Das ist ein riesiger Sprung nach vorne“, bestätigt Paul van der Linden, Leiter von ENSEMBLES, das im Hadley-Zentrum für Klimaänderungen in Exeter (UK) untergebracht ist. Es sind die Resultate aus fünf Jahren harter Arbeit in einer recht undurchsichtigen Wissenschaft.

Die Geschichtsprüfung bestehen

Derzeit werden sechs (von 40) Szenarien des IPCC in den Modellen verwendet. Sie beschreiben verschiedene künftige Emissionsniveaus und wurden aufgrund von sozio-ökonomischen Hypothesen und Vermutungen zur Handhabung des Klimaproblems aufgestellt. Einige gehen von Business-as-usual aus und präsentieren sich eher negativ. Andere gründen auf fruchtbareren Energiestrategien. Sie berücksichtigen auch Einschätzungen zur Sonnenstrahlung und zu den Aerosolen. Ihre Reichweite variiert je nachdem, ob sie die Daten für einen, zwei oder zehn bis fünfzehn Schadstoffe einbeziehen.

Die Modelle sind im Laufe mehrerer Jahrzehnte in 12 verschiedenen Forschungszentren entwickelt worden. Die sieben europäischen Zentren wurden in ENSEMBLES zusammengeführt. Unter den 66 Partnern befinden sich auch außereuropäische Institute. Die Forscher rastern die Weltkugel zunächst grob. Anschließend werden die Modelle auf Weltebene hochgerechnet und die Werte jedes Rasters oder jeder Zelle werden rekonstruiert. Je nach Forschungsziel werden unterschiedliche Modelle verwendet: entweder nur für die Atmosphäre, den Ozean oder beides. Über die globalen Merkmale des Klimawandels hinaus können die Wissenschaftler auch die Folgen modellieren.

Alte und neue Daten zu Temperaturen und Niederschlägen werden verwendet, um das Modell anhand des als „Hindcasting“ (rückwirkende Simulation) bezeichneten Verfahrens im Hinblick auf die Klimageschichte zu testen. „Wir wollen wissen, wie leistungsfähig das Modell ist, und es im Zusammenhang mit den Klimabeobachtungen sowie den Treibhausgasmessungen der Vergangenheit bewerten“, erklärt Paul van der Linden. Sollte der Test von den historischen Daten stark abweichen, so ist das Modell schwach. Da die Erstellung eines globalen Modells sehr viel Zeit kostet, können nur bestimmte Teile für einen eingegrenzten Zeitraum getestet werden.

Unzählige Simulationen

Eine einzige Prognose aus einem Modell reicht nicht aus. Um die Genauigkeit zu verbessern, lassen die Klimaforscher dasselbe Model Tausende Male mit jeweils unterschiedlichen Daten laufen, oder mehrere Modelle mehrmals mit denselben Daten. Mit diesem sogenannten Gesamtmodell wird ein zuverlässigeres Ergebnis erzielt, weil die Mittelwerte mehrerer Modelle genauer sind als das Ergebnis eines einzigen. Das ist auch der Punkt, in dem sich ENSEMBLES von vorangegangenen Projekten unterscheidet.

„Es ist das größte Projekt seiner Art“, bestätigt Paul van der Linden. Die Prognostiker aus ganz Europa haben ein enormes Mehrfachmodell erstellt, das sieben europäische Gesamtmodelle miteinander kombiniert. Durch seine Größe kann es eine Detailgenauigkeit liefern, die jeden vorangegangenen Versuch übertrifft. Außerdem unterscheidet es sich von seinen Vorläufern, weil es ein Gesamtmodell aus 15 regionalen Modellen zusammenstellt, die in den sieben globalen Modellen untergebracht sind. Die Forscher haben die möglichen Folgen des Klimawandels an 14 Standorten in Europa untersucht. Sie können auch die Auswirkungen einer durchschnittlichen Erwärmung um 2 °C in Europa auf die Landwirtschaft, die Gesundheit, Energie, Wasserressourcen und auf die Versicherungen simulieren. „Unser Ansatz ist eher horizontal als vertikal“, erklärt Paul van der Linden.

Eine weitere Innovation: die Entwicklung eines neuen Szenarios mit dem Namen E1, das mithilfe einer Gruppe globaler Klimamodelle getestet wurde. Es geht davon aus, dass die politischen Anstrengungen zur Emissionssenkung greifen und die Emissionsziele erreicht werden. Dieser Ansatz nimmt sich Szenarien des IPCC in umgekehrter Form vor. Er geht also von den erzielten Temperaturen aus, um die Emissionen zu berechnen. So gelangt er zu einem CO2-Niveau, das sich auf 450 ppm im Jahr 2140 stabilisiert hat – dieser Betrag wurde von den Entscheidungsträgern als höchster Schwellenwert festgelegt, damit die Temperaturen um nicht mehr als 2 °C steigen. Die Ergebnisse implizieren, dass die Emissionen bis Ende des Jahrhunderts auf null fallen müssen, nachdem sie 2010 eine Spitze von ungefähr 12 Gigatonnen Kohlenstoffäquivalent erreicht haben. Der nächste IPCC-Bericht sollte ein Modell enthalten, das nach dem E1-Szenario funktioniert.

Ausgefeilte Wahrscheinlichkeiten

Jedenfalls sollte man nicht vergessen, dass unabhängig von der Anzahl der Durchläufe diese Modelle auch weiterhin Projektionen bleiben und niemals Sicherheit liefern können. Doch auch in dieser Hinsicht ist der Forschungsgruppe von ENSEMBLES eine Premiere gelungen. Das Projekt erstellt eine Reihe von Prognosen, anhand derer entschieden werden kann, welche Ergebnisse wahrscheinlicher sind als andere. Die Forscher bestätigen, dass sie die Wahrscheinlichkeit der Genauigkeit einer bestimmten Prognose messen können und zwar dank des Mehrfachmodells dieses Projektes. „Vorher konnte man etwa sagen, dass die Zahl der Stürme bis zu einem bestimmten Datum um 20 % ansteigen werde. Heute können wir sagen, dass 95 % der Ergebnisse zeigen, dass sich die Stürme um 5 % bis 20 % vermehren werden“, erklärt Gregor Leckebusch, Klimaforscher am Institut für Meteorologie der
Freien Universität Berlin.

Für Paul van der Linden stellt dieses Modell einen großen Fortschritt für die Gemeinschaft der Klimamodellierer dar. „Zum ersten Mal verfügen wir über Wahrscheinlichkeiten und die Forscher können nunmehr auf diese Datenbank zurückgreifen, um ihre eigenen Modelle laufen zu lassen.“

Nur die Realität wird jetzt noch die besten Modelle infrage stellen. Der in den letzten Jahren festgestellte Rückgang des arktischen Schelfeises während der Sommermonate würde bei den früheren Modellen erst ganz zum Schluss berücksichtigt werden. Das lässt befürchten, dass die Entwicklung des Klimas wahrscheinlich unterschätzt wurde und dass wir neue Prognosen aufstellen müssen.

Elisabeth Jeffries


TOP

Mehr Einzelheiten

Sturmwarnung

Sturmtief Kyrill, Anfang 2007. © Eumetsat
Sturmtief Kyrill, Anfang 2007.
© Eumetsat

Am Nachmittag des 18. Januars 2007 wütete ein schwerer Orkan über Europa. Der Wind fegte mit bis zu 202 km/h über Deutschland hinweg und steigerte sich, bis er die Tschechische Republik erreichte. Bei den Versicherungen wurden Schäden in Millionenhöhe angemeldet, die an Gebäuden und durch umgestürzte Bäume verursacht worden waren. Im Vereinigten Königreich und in Deutschland waren Tausende Haushalte ohne Strom. Der Orkan Kyrill hatte seinen Anfang über Neufundland in Kanada genommen, bevor er den Atlantik überquerte, um anschließend über die Britischen Inseln und dann über Nord- und Mitteleuropa hinwegzuziehen. Der Weg und die Form von Kyrill sind typisch für Winterorkane, die sich nicht über tropischen Regionen bilden.

Diese Orkane entstehen in Regionen mit großen Temperaturunterschieden, wie zwischen Florida und Grönland, und beginnen in der Regel an der nordamerikanischen Küste. Durch die Temperaturunterschiede werden Luftmassen bewegt und es entstehen Winde, die sich zu einem starken Sturm entwickeln können. Seit 40 Jahren lassen sich etwa fünf Orkane pro Jahrzehnt beobachten. Es stellt sich die Frage, ob diese wegen der Temperaturveränderungen vermehrt auftreten werden, was für die Wirtschaft und die Regierungen nicht unproblematisch wäre. Laut ENSEMBLES liegt unter Berücksichtigung des Emissionsszenarios A1B die Wahrscheinlichkeit bei 90 %, dass in Süddeutschland die Schäden, die zwischen 2017 und 2100 durch Stürme verursacht werden, um 13 % bis 37 % im Vergleich zum Zeitraum 1961 bis 2000 ansteigen werden.


TOP