Der Klimaforscher Jakob Zscheischler vom Helmholtz-Zentrum für Umweltforschung (UFZ) in Leipzig über Extremwetterereignisse, Attributionsforschung, und warum auch in Mitteleuropa künftig mit höheren Temperaturen und mehr Starkregen zu rechnen ist.
Professor Zscheischler, der prognostizierte Hitzesommer hat in Deutschland nicht so wirklich stattgefunden. In Berlin etwa lagen die Temperaturen Mitte Juli kurzzeitig über 36 Grad Celsius, danach lagen die Temperaturen längere Zeit um die 20 Grad Celsius mit viel Niederschlag und teils auch mit Starkregen. Waren das typische Julitage in Mitteleuropa oder schon klimawandelbedingte Extremwetterereignisse?
Das ist ein einzelnes Ereignis, aber man kann wahrscheinlich schon sagen, dass die 36 Grad und auch die 20 Grad ohne den Klimawandel zwei Grad kälter wären. Im Mittelwert ist alles wärmer geworden. Aber diese Variation zwischen sehr heißen Tagen und kälteren Tagen wird es auch in Zukunft geben, allerdings mit immer höheren Temperaturen. Zu den einzelnen Ereignis müsste man eine detaillierte Studie machen. Generell erwarten wir, dass mit dem Klimawandel Starkregen zunimmt, weil die Atmosphäre wärmer wird, damit mehr Wasserdampf speichern kann und es dann auch mehr regnet.
Der Bundesgesundheitsminister hat kürzlich seinen Hitzeschutzplan vorgestellt. Zahlen aber zeigen, dass weltweit viel mehr Menschen an Kälte als an Hitze sterben. Ist die Hitzewarnung von Karl Lauterbach möglicherweise zu alarmistisch?
Es in der Tat so, dass mehr Leute an Kälte sterben. Das wird in den mittleren Breiten im Moment und wahrscheinlich in nächster Zukunft auch noch eine Weile so bleiben. Wir wissen aber, dass es in Zukunft sehr viel heißer wird, und dass wir vor allem in Ländern wie in Deutschland relativ schlecht an so extreme Hitze angepasst sind. Länder, in denen sie häufiger vorkommt – zum Beispiel in Australien – sind ganz anders ausgestattet mit Klimaanlagen, und es gibt dort ein ganz anderes Bewusstsein. Deswegen ist es wichtig, dass wir auch in Deutschland darüber nachdenken, wie wir uns da vorbereiten.
2003 gab es historisch die erste richtig extreme Hitzewelle, die ein Bewusstsein dafür geschaffen hat. In ganz Europa sind über 50.000 Menschen im Zusammenhang mit der Hitze gestorben. Der Hitzeschutzplan geht daher auf jeden Fall in die richtige Richtung, da es durch den Klimawandel immer wärmer wird. Wir nehmen daher auch an, dass in Zukunft weniger Menschen an Kälte sterben werden und immer mehr an Hitze.
In Nordamerika und anderen Regionen der Nordhalbkugel stiegen die Temperaturen im Juli teilweise auf mehr als 45 Grad Celsius. Laut einer aktuellen Studie der Forschungsinitiative „World Weather Attribution“ war die Hitze kein Zufall, sondern von den Menschen selbst verschuldet. Wie kommen die Attributionsforscher zu solchen direkten kausalen Zusammenhängen?
Bei einer Attribution vergleicht man Simulationen von Klimamodellen, die das jetzige Klima und ein Klima ohne menschengemachten Klimawandel widerspiegeln. Dort sucht man nach solchen Hitzewellen und vergleicht eine Simulation, aus der der menschliche Klimawandel herausgerechnet wird – zum Beispiel aus einer Zeit, in der die CO2-Konstellationen viel niedriger waren, etwa im Jahr 1850. Man guckt sich an, wie stark sich Hitzewellen in diesen zwei Simulationen unterscheiden. Eine Simulation ohne Klimawandel könnte zum Beispiel mit der CO2-Konzentration von 1850 angetrieben werden. So kann man sagen, ohne den menschengemachten Klimawandel wäre die Hitzewelle so häufig oder so stark gewesen. Die erwähnten Hitzewellen wären in einem vorindustriellen Klima in dieser Intensität gar nicht vorgekommen. Man hätte vielleicht eine ähnliche Hitzewelle mit der gleichen Dynamik erlebt, aber solche Extremtemperaturen hätte man nicht erreicht. Diese Art von Klimasimulation, bei der man eine Welt ohne den menschengemachten Einfluss auf das Klima simuliert, nennt man auch counterfactual oder kontrafaktische Simulation.
Das heißt, auch in der Attributionsforschung nimmt man Messungen aus früheren Jahrhunderten zum Vergleich?
Genau. In diesem Fall die atmosphärische CO2-Konzentration. Wir wissen ja, wie viel wir emittiert haben. Man treibt die Modelle ohne die Emissionen an und guckt sich dann die Unterschiede an. Die eine Modellsimulation simuliert unsere jetzige Welt mit recht hoher CO2-Konzentration. Dann macht man die gleiche Simulation mit einer früheren CO2-Konzentration, wie es sie zum Beispiel 1850 gab und guckt sich das Klima an. Dann macht man den Vergleich.
Unterscheidet sich die Attributionsforschung von der klassischen Klimaforschung?
Die Attributionsforschung ist ein Teil der Klimaforschung. Man nutzt die gleichen Daten, die gleichen Modelle, teilweise auch die gleichen Methoden. Die Simulationen der Attributionsforschung sind oft sehr aufwendig. Deshalb greift man oft auch auf existierende Simulationen zurück, weil es für viele Fragestellungen schon Simulationen gibt.
Wenn man da sehr lange Beobachtungsdaten hat – wie etwa lange Zeitreihen von Niederschlag und Temperatur –, kann man schauen, ob es über die Zeit Trends gibt und wie sie mit der globalen Mitteltemperatur zusammenhängen. Attributionsforschung hilft auch einzuschätzen, ob in Zukunft solche Ereignisse noch schlimmer werden.
Ein Ziel ist, dass man schon kurz, nachdem ein Ereignis passiert ist, eine Attributionsstudie machen und sie in den Medien kommunizieren kann. Dadurch kann man Bewusstsein in der Bevölkerung fördern, welche Effekte der Klimawandel haben kann.
Welche Rolle spielt die Attributionsforschung bei der Bewertung von Extremwetterereignissen wie zum Beispiel bei der Flutkatastrophe im Ahrtal?
Für Ereignisse wie extremes Hochwasser wie beim Ahrtal-Ereignis ist es technisch ein bisschen komplizierter als für Hitzewellen. Die Studie der „World Weather Attribution“ hat gezeigt, dass der extreme Niederschlag in dieser bestimmten Region in Deutschland drei bis 19 Prozent höher liegt im Vergleich zu vor 100 Jahren. Da guckt man sich allerdings nicht direkt die Flut an – das Hochwasser müsste man dann noch einmal separat simulieren –, sondern man guckt sich den extremen Niederschlag an, der zu dem Hochwasser geführt hat.
Wo liegen die Grenzen in der Attributionsforschung?
Die Klimamodelle sind der beste Stand der Forschung, den wir haben, aber sie können auch nicht alles simulieren, was wir beobachten. Temperaturextreme kann man damit gut erfassen. Aber Extremniederschläge zum Beispiel sind manchmal sehr kleinskalig und oft nicht aufgelöst in Klimamodellen, weil die Modelle zu grob sind.
Es gibt auch Regionen, in denen wir keine guten Beobachtungsdaten haben. Dann wissen wir gar nicht, ob die Modelle die Extremereignisse in der Region gut abbilden und damit können wir auch nicht wirklich sagen, ob sie die Realität abbilden. Eine Attribution von komplexeren Ereignissen ist auch oft schwieriger, zum Beispiel von Dürren. Sie können sich über einen längeren Zeitraum hinziehen und wir haben oft nicht genügend Beobachtungen zur Bodenfeuchte, vor allem in tiefen Bodenschichten.
Welche Lösungsansätze sehen Sie, um Extremwetterereignisse einzudämmen?
Das Beste wäre natürlich, die Emissionen auf null zu bringen. Damit würden Extremereignisse nicht noch extremer. Jede und jeder Einzelne kann versuchen, sich politisch einzusetzen, dass man auch zu dieser Reduktion kommt.
Mit gewissen Ereignissen müssen wir auch lernen zu leben und uns anpassen, vor allem da sich mit weiterschreitendem Klimawandel bestimmte Ereignisse noch weiter verstärken werden. Denn so schnell werden die Emissionen wahrscheinlich nicht zurückgehen. Wenn wir zum Beispiel häufiger Hochwasser wegen häufigeren Starkregenereignissen bekommen, dann sollten wir darüber nachdenken, höhere oder andere Dämme zu bauen oder Wasserressourcen anders managen. Der vorher erwähnte Hitzeplan ist auch eine nötige Anpassungsstrategie.