Skip to main content
European Commission logo
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Inhalt archiviert am 2024-04-22

Article available in the following languages:

Feature Stories - Supercomputer bringen Klimamodelle auf Touren

Finnische Wissenschaftler haben die von EU-finanzierten Forschern entwickelte Hochleistungsrechner-Infrastruktur angewendet, um die Richtigkeit von Klimamodellen innerhalb kontinuierlicher Anstrengungen zur Verbesserung von deren Genauigkeit und Relevanz einer Analyse zu unterziehen.

Digitale Wirtschaft icon Digitale Wirtschaft

Klimamodelle sind unerlässlich, um unsere Gesellschaft auf die möglichen Auswirkungen des Klimawandels vorzubereiten, aber die wissenschaftliche Seite dieser Angelegenheit ist ungeheuer komplex und birgt immer noch wesentliche Unsicherheiten. Aktuelle Prognosen behaupten, dass die Temperatur im Zeitraum 1990 bis 2095 überall auf der Erde zwischen 1,1 und 6,4 °C ansteigen könnte: Das ist eine ziemlich große Schwankungsbreite! "Der wichtigste einzelne Unsicherheitsfaktor bei Klimamodellen ist die wechselnde Bewölkung", erläutert Petri Räisänen vom finnischen Institut für Meteorologie und am MillCli-Projekt beteiligter Forscher. "Sollten tiefer liegende Wolkenschichten zukünftig weiter zunehmen, wird mehr Sonnenstrahlung in den Weltraum reflektiert - was dann der globalen Erwärmung entgegenwirkt. Sollten wiederum tiefhängende Wolken eher zurückgehen, wird die globale Erwärmung eskalieren", befürchtet Dr. Räisänen. So nutzte das MillCli-Projekt die von der DEISA-Infrastruktur ("Distributed European infrastructure for supercomputing applications") zur Verfügung gestellten Hochleistungsrechnerressourcen, um zwei der wichtigsten Unsicherheitsfaktoren in Klimamodellen zu untersuchen: Wolken und deren Wechselwirkung mit der Strahlung. DEISA ist eine ungemein wichtige Ressource für europäische Wissenschaftler wie Dr. Räisänen. Über etwa fünf Jahre und zwei Projektphasen hinweg hat DEISA Europas leistungsstärkste Supercomputer über ein Netzwerk zusammengefügt sowie auch Werkzeuge entwickelt, mit deren Hilfe die Forscher diese massive Rechenleistung nutzen können - ganz egal, von wo aus sie darauf zugreifen. Das Team bot außerdem Unterstützung und Beratung an, damit die Forscher sicher sein konnten, den größten Nutzen aus der verfügbaren Ausrüstung zu ziehen. So können jetzt zum Beispiel irische Wissenschaftler deutsche Hochleistungscomputer nutzen, die von niederländischen Programmierer optimiert wurden und von spanischen, französischen oder italienischen Technikexperten Support erhalten: Das ist eine wahrlich gesamteuropäische Supercomputer-Plattform. Ein Teil der Arbeit von DEISA führte zum Start der DECI- Initiative ("DEISA Extreme Computing Initiative"), die den europäischen Wissenschaftlern, die mit den wirklich zähen wissenschaftlichen Problemen zu kämpfen haben, Ressourcen auf Weltklasseniveau zugängig macht. DECI konnte tatsächlich bereits europaweit zahlreiche Forschungsinitiativen zum Thema Klimawandel unterstützen - vor allem in Bezug auf Modellierung und Simulation - und hat für die MillCli-Arbeit geradezu unschätzbaren Wert. "Obwohl unsere Berechnungen lediglich 12% des MillCli zugeteilten CPU-Kontingents verbrauchten, wären sie zu umfangreich gewesen, um auf auf den am finnischen Meteorologischen Institut zur Verfügung stehenden Rechenressourcen ausgeführt zu werden", erklärt Dr. Räisänen. MillCli benötigte extrem leistungsfähige Computer, um Wissen über Wolken und Strahlung und wie diese in modernen Modellen darzustellen sind zu verarbeiten. "Das wichtigste Problem ist hier die unzureichende Auflösung", erläutert Dr. Räisänen. "Die Modellatmosphäre besteht aus Gitterzellen mit einer typischen Fläche von 200x200 km und einer Höhe von einem halben bis zu einem Kilometer. Viele Prozesse, die die Erzeugung und die Eigenschaften der Wolkenbildung beeinflussen, geschehen in einem viel kleineren Maßstab." Hochgeschätzt MillCli wendete ein globales atmosphärisches Zirkulationsmodell - das ECHAM (General circulation model, globales Klimamodell, GCM) - an, um das in Frage gestellte Problem zu untersuchen. ECHAM5 ist bereits die fünfte Generation des Modells, das vom Max-Planck-Institut für Meteorologie entwickelt wurde. Hierbei handelt es sich um ein höchstanerkanntes Modell innerhalb der Klimaforschung - es war eines der vom Weltklimarat IPCC zur Vorhersage der Geschwindigkeit der globalen Erwärmung für dieses Jahrhundert eingesetzten globalen Klimamodelle. "Unser Ziel war zu untersuchen, auf welche Weise der Einsatz einer weiterentwickelteren Bearbeitung einer subgridskaligen Wolkenstruktur, bei der die Bestandteile kleiner als das Modell mit 200 km Gitterabstand sind, das mittels ECHAM5 simulierte Klima beeinflussen - insbesondere seine Empfindlichkeit gegenüber dem Anstieg des atmosphärischen CO2." Das Team verwendete drei Varianten des ECHAM5-Modells. Bei der ersten handelte es sich um ein einfaches Schema der relativen Luftfeuchtigkeit (Relative humidity, RH) zum Herleiten des Wolkenanteils in jeder Gitterzelle. Die zweite Version setzte auf eine ausgeklügeltere Bearbeitung der Bewölkung auf Grundlage eines innovativen Wolkenschemas, das von Adrian Tompkins entwickelt wurde. Dieses sogenannte Tompkinsschema schätzt den Wolkenanteil und auch die subgridskalige Variabilität des Wolkenwassergehalts, basierend auf der Wahrscheinlichkeitsverteilungsfunktion des Wassergehalts innerhalb einer Gitterbox. Ein drittes Modell beinhaltete die Tompkinsfunktion und ersetzte das ECHAM5-Standardstrahlungsschema durch ein weiterentwickeltes Schema, das die untergitterskalige Wolkenstruktur direkt bearbeitet. Die Forscher testeten jede Modellversion mit Läufen über 100 Jahre - einmal für eine vorindustrielle CO2-Konzentration von 286,2 "Teilen pro Million pro Volumen" (Parts per million by volume, (ppmv) sowie für einen erhöhten Wert von 450 ppmv. Außerdem wurde eine große Anzahl kleinerer Läufe durchgeführt, um die Interpretation der Ergebnisse zu unterstützen. Die Berechnungen wurden auf einem SGI Altix 4700-Computer am Leibniz-Rechenzentrum (LRZ) in München, Deutschland, durchgeführt. Bei den MillCli-Berechnungen wurden für jeden Lauf 28 Prozessoren eingesetzt. Ein simuliertes Jahr dauerte ungefähr 6 bis 7 Stunden. Es wurden mehrere Simulationen parallel durchgeführt. "Aus der Perspektive der Simulation des gegenwärtigen Klimas betrachtet, waren die Unterschiede zwischen den drei Modellvarianten relativ klein. Wurden die Strukturen der simulierten Wolkenfelder mit aus Satellitenbildern abgeleiteten Beobachtungsdaten verglichen, fanden sich in den verschiedenen Modellvarianten ähnliche systematische Fehler", sagt Dr. Räisänen. Ein völlig anderes Bild ergab sich jedoch, sobald die Forscher ihre Berechnungen fortsetzten: Innerhalb der verschiedenen Modellversionen zeigten sich deutliche Unterschiede in den Klimawandelsimulationen über die Zeit, ungeachtet der ähnlichen Funktionsweise bei der Simulation des gegenwärtigen Klimas. "Die als Ausgangspunkt dienende erste Version ergab eine Klimaerwärmung, die geringer als die von den beiden anderen Versionen produzierte ausfiel. Die dritte Version zeigte die heftigste Reaktion auf das zunehmende CO2 und eine Erwärmung, die um fast 50 Prozent stärker als bei der ersten Version war", verrät Dr. Räisänen. Im Einzelnen betrug die durch den CO2-Anstieg von 286,2 ppmv auf 450 ppmv verursachte mittlere globale Erwärmung für das erste Modell 2,02 Kelvin (K), für das zweite Modell 2,73 K und für das dritte 3,01 K. "Das Resultat beruht auf der Tatsache, dass die globale Erwärmung bei den beiden auf dem Tompkinswolkenschema basierenden Versionen die tieferliegende Bewölkung reduziert. Dies bedeutet, dass in den Weltraum zurückreflektierte Sonnenstrahlung abnimmt, aber die Menge an von der Erde abstrahlender Wärme sich nicht sehr verändert", merkt Dr. Räisänen an. "Daher wird ein positives Feedbackphänomen erzeugt, das die globale Erwärmung verstärkt. Aber derzeit ist nicht bekannt, was eigentlich für die Abnahme der tieferen Wolkenschichten verantwortlich ist." Dr. Räisänen zufolge untermauerten die Ergebnisse die Schlussfolgerung, dass, obgleich die Modelle recht ähnliche Simulationen unseres gegenwärtigen Klimas zu liefern scheinen, sie dennoch deutliche Unterschiede in der Stärke des Klimawandels im Zeitenlauf ergeben können. Es sei schwierig, die Zuverlässigkeit der Vorhersagen für den Klimawandel lediglich auf der Grundlage dessen zu beurteilen, wie gut das Modell die Simulation des gegenwärtigen Klimas hinbekommt. Es sei ratsam, mehr als nur einfache Mittelwerte über die Zeit zu untersuchen, so sein Vorschlag. Eine allgemeine Frage, für die es immer noch keine ausreichende Antwort gebe, ist laut Dr. Räisänen, welche Besonderheiten bei Simulationen des heutigen Klimas entscheidend für eine Simulation zukünftiger Klimaänderungen seien. So bleiben Unsicherheiten, was die globale Erwärmung angeht, aber die Forschung im Zeichen von MillCli konnte zeigen, dass eine reduzierte Bewölkung in tieferen Schichten einen großen Einfluss auf Temperatur und die Geschwindigkeit des Klimawandels hat. DEISA2 wurde mit Mitteln in Höhe von 10,24 Mio. EUR (Gesamtbudget: 18,65 Mio. EUR) im Unterprogramm "e-Science grid infrastructures" des Siebten EU-Rahmenprogramm für Forschung (RP7) finanziert. Nützliche Links: - "Distributed European infrastructure for supercomputing applications" - DEISA2-Projektdatensatz auf CORDIS - E-Infrastructurprogramme/-projekte - MillCli-Projekt Weiterführende Artikel: - Vereinte Supercomputer simulieren Sonne, Klima und den Körper des Menschen - Supercomputer nehmen HIV ins Visier - Supercomputing beruhigt aufgewühlte See - Supercomputing gets its own superhero - The grid: a new way of doing science - Europas Fusionsforscher erschließen Supercomputer-Ressourcen