Bürgerwissenschaft und verbesserte Modellierungen für ein besseres Verständnis der Klimadynamik
CLARITY ((Uncovering information in fluctuating CLimate systems: An oppoRtunity for solving climate modeling nodes and assIst local communiTY adaptation measures) hatte das Ziel, mit Hilfe der zwei bekanntesten Lieferanten von globalen Datensätzen zur Beobachtung von Temperaturanomalien Informationen über Datenfluktuationen in Klimaaufzeichnungen aufzudecken. Diese Daten wurden als Grundlage für eine bayessche Modellierungsstrategie verwendet, um die Verlässlichkeit von Modellierungen zu verbessern. Das Team fand heraus, dass selbst wenn die von diesen beiden Produkten bereitgestellten Daten aus denselben Quellen kamen – Aufzeichnungen von meteorologischen Bodenstationen der ganzen Welt –, ihre unterschiedlichen Methodiken dazu führten, dass sie voneinander verschiedene Bilder der Langzeitdynamik globaler Temperaturanomalien zeichneten. Die Forscher empfehlen daher, dass zukünftige Untersuchungen solche statistischen Analysen mit entsprechenden Ergebnissen aus tatsächlichen Beobachtungen abgleichen sollten. Sie schlagen auch vor, dass aussagekräftige Analysen die zur Datenaufbereitung verwendete Methodik berücksichtigen sollten. Zu diesem Zweck sammelte das Projekt via Crowdsourcing aktuelle Klimaaufzeichnungen aus Venedig. Statistik und Modellierung Die meisten grundlegenden statistischen Charakterisierungen sind linear –das heißt, sie beschreiben Transformationen deterministisch im Laufe der Zeit, wobei ein Datenpunkt zwangsläufig zu einem weiteren führt. Allerdings können dynamische Systeme wie Klimamuster einfach nicht angemessen auf diese Analysemethode heruntergebrochen werden. Eine der größten Herausforderungen beim Treffen von Vorhersagen bezüglich des Klimawandels ist, Fluktuationen und Anomalien in längerfristigen Trends zu berücksichtigen. Die zwei zu diesem Zweck im Rahmen von CLARITY eingesetzten statistischen Methoden, die „trendbereinigende Fluktuationsanalyse“ (detrended fluctuation analysis, DFA) und die Analyse mittels „Wavelet-Transformationen“ (WT), wurden in der Vergangenheit bereits in ähnlich komplexen Systemen erfolgreich eingesetzt. Diese Methoden werden im Allgemeinen verwendet, um die sogenannte langfristige Persistenz (long-term persistence, LTP), die auch als langfristige Korrelation bekannt ist, von Aufzeichnungen in komplexen Systemen zu beschreiben. Sie messen zu diesem Zweck entlang einer bestimmten Trendlinie in unterschiedliche langen Zeitspannen Fluktuationen in der Aufzeichnung. Diese Methoden wurden auf globale Temperaturanomalien und andere Klimadaten angewandt, wie der Projektleiter Professor Angelo Rubino genauer erklärt: „Weil DFA und WT systematisch lineare Trends in den Daten beseitigen, ermöglichen sie gemeinsam eine Bewertung der Art und Weise, wie sich Systeme – in diesem Fall Klimamuster –über längere Zeit hinweg verhalten, und verschaffen uns so einen vollständigeren Überblick.“ Um Ungewissheiten oder Fehler zu reduzieren, wurden die Daten dann in ein bayessches Modell eingespeist, das eine Formel anwendet, um ein optimales Modell zur Darstellung der Daten zu finden. Prof. Rubino erklärt: „Das Einzigartige an dieser Modellierung ist, dass nicht nur Daten, sondern auch zusätzliche Quellen, wie Expertenmeinungen, als weitere Kriterien einbezogen werden, um das am besten geeignete Modell zu finden.“ Crowdsourcing für alle Daten dieser Erde Das Projekt sammelte darüber hinaus aktuelle Klimadaten via Crowdsourcing in Venedig und umliegenden Städten. Diese gemeinschaftlichen Bemühungen umfassten auch die Messung des UV-Indexes mit statischen Sensoren, die auf Terrassen, Höfen und Dächern von Schulen, Universitäten und einem Krankenhaus sowie an verschiedenen anderen, den Mitwirkenden des Projektes zugänglichen Orten im Freien installiert wurden. Darüber hinaus wurden die solare UV-A und UV-B Strahlung sowie die persönliche Exposition gegenüber solarer UV-Strahlung (pUVR) kontinuierlich von Freiwilligen, die mit Sensoren ausgestattet waren, gemessen, darunter auch Touristen. Die DFA- und WT-Analyse der UV-Daten steht noch aus. Das Team hat diese Methoden jedoch bereits auf die pUVR-Daten angewandt und ein besseres Verständnis von Verhaltensmustern bezüglich der Sonnenexposition erlangt, wie zum Beispiel die allgemeine Expositionsdauer und die Dauer der draußen verbrachten Zeit. Von den Einsichten zum Handeln Die wissenschaftlichen Ergebnisse von CLARITY vertiefen unser Verständnis der komplexen Interaktionen, die zum Klimawandel beitragen, was im Sinne der europäischen Verpflichtung gegenüber dem Übereinkommen von Paris zur effizienteren Durchsetzung von Anpassungs- und Reduzierungsmaßnahmen führen könnte. Die Verwendung von statistischen DFA- und WT-Analysen, um Klimadaten zu durchdringen, ist ein Ansatz, der auch auf andere Klimasysteme oder Datensätze angewandt werden kann, um sowohl spezifische Maße für Datendynamiken zu entwickeln als auch um diese zur Untersuchung der Genauigkeit von Klimamodellen zu verwenden. Prof. Rubino legt ebenfalls Wert darauf, die Chancen für die Bürgerwissenschaft aufzuzeigen: „Der gemeinschaftsorientierte Ansatz von CLARITY trägt zur sozial relevanten Klimawissenschaft bei, indem öffentliche Daten für einen stärker integrativen Dialog über die Anpassung an den Klimawandel gesammelt wurden. Man könnte diesen Ansatz auf die Planung zukünftiger öffentlicher Projekte und Politik erweitern, um Endnutzer in alle Phasen der Datenbewertung einzubinden.“
Schlüsselbegriffe
CLARITY, Modellierung, statistische Analysen, Klimawandel, Fluktuationen, Anpassung, Reduzierung, Bürgerwissenschaft, Daten, Venedig, UV