Hitzewellen, Unwetter oder Hochwasser sind Beispiele für extreme Ereignisse. Diese mit mathematischen Methoden statistisch zu untersuchen, ist spannend und herausfordernd zugleich. Auf der einen Seite ist es wichtig, die Stärke und Häufigkeit derartiger Ereignisse möglichst gut vorhersagen zu können – schließlich haben extreme Ereignisse oft besonders starke, meist negative, Auswirkungen, sind gefährlich für Menschen, verursachen Schäden an der Infrastruktur oder führen zu großen wirtschaftlichen Verlusten – auf der anderen Seite wird diese Aufgabe dadurch erschwert, dass extreme Ereignisse nur sehr selten auftreten. In einigen Fällen kommt es sogar vor, dass man Wahrscheinlichkeiten von Ereignissen einschätzen möchte, die man bisher gar nicht beobachtet hat: Wie groß ist die Gefahr, dass eine Stadt trotz Schutzmaßnahmen vom einem Fluss überflutet wird? Wie häufig muss man im Sommer mit neuen Rekordtemperaturen rechnen? Um solche oder ähnliche Fragen zu beantworten, muss man über den Bereich der bisher beobachteten Werte hinaus „extrapolieren“. Das Gebiet der Extremwerttheorie bzw. -statistik liefert die Grundlagen, um dies auf eine mathematisch fundierte Art und Weise zu tun.
Für welche Arten von extremen Ereignissen interessieren Sie sich besonders?
Besonders reizvoll ist für mich die statistische Analyse von Ereignissen, die nicht nur isoliert zu einem bestimmten Zeitpunkt an einem einzigen Ort auftreten, sondern eine zeitliche und räumliche Struktur aufweisen. Dies trifft insbesondere auf Extremereignisse in der Umwelt zu - seien es Stürme, Starkniederschläge, Hochwasser, Hitzewellen oder Dürreperioden. Bei all diesen Ereignissen kann man sich fragen, wie sie zeitlich verlaufen, wie lange sie andauern oder wie groß das betroffene Gebiet ist. Um dies zu beantworten, müssen räumlich-zeitliche Abhängigkeiten berücksichtigt werden. Zu diesem Zweck lassen sich Modelle der Extremwertstatistik auf vielfältige Weise anwenden.
Wo liegen besondere Herausforderungen?
In vielen Anwendungsgebieten werden inzwischen große Datenmengen erhoben. Eine Vielzahl relevanter Größen und Parameter werden gemessen, oft in hohen räumlich-zeitlichen Auflösungen. Somit liegt zu einem einzelnen extremen Ereignis nicht nur eine einzelne gemessene Zahl, sondern ein hoch-dimensionales Raum-Zeit-Feld an Messdaten vor. Um diese effizient analysieren zu können, werden geeignete rechenintensive Verfahren und Modelle benötigt. Die Modelle sind so komplex, dass sich viele Fragen zu den statistischen Eigenschaften extremer Ereignisse nicht mehr mit Hilfe analytischer Rechnungen lösen lassen. Stattdessen sind möglichst genaue und effiziente Simulationen erforderlich. Dies sind Themen, die meine Arbeitsgruppe in den kommenden Jahren besonders beschäftigen werden. Dabei werden sich sicherlich neue interessante Kooperationen geben. Neben der Zusammenarbeit innerhalb des Fachbereichs spielt dabei auch die Interdisziplinarität eine große Rolle – schließlich sollen in unserer Arbeit auch die speziellen Anforderungen einzelner Anwendungen Berücksichtigung finden. Hier bietet gerade die Anbindung an das Exzellenzcluster SimTech tolle Möglichkeiten.
Vielen Dank für das Interview.
Jun.-Prof. Marco Oesting
Leiter der Arbeitsgruppe für Computational Statistics
Stuttgarter Zentrum für Simulationswissenschaft (SC SimTech)
& Institut für Stochastik und Anwendungen
News der Universität Stuttgart über Jun.-Prof. Marco Oesting: Statistik für komplexe Simulationen