Das Buch „Klima: Unsicherheit und Risiko: Unsere Reaktion überdenken“ von Judith Curry gibt wieder einiges zum Nachdenken mit und beinhaltet doch auch einige kontroverse Ansichten. 

Hier wieder einige Auszüge:

Trotz der wahrgenommenen Dringlichkeit des Problems und internationaler Klimaverträge und -vereinbarungen, die erstmals 1992 unterzeichnet wurden, steigen die weltweiten CO2-Emissionen weiter an, während Ziele und Fristen weiterhin verfehlt werden. Die meisten Menschen sind der Meinung, dass der Klimawandel ein sehr ernstes Problem ist. Je nach Sichtweise und Wertvorstellungen wird es in Zukunft viele Verluste und Schäden geben, entweder durch den Klimawandel selbst oder durch die Maßnahmen, die den Klimawandel verhindern sollen. Die Konflikte im Zusammenhang mit dem Klimawandel wurden durch eine zu starke Vereinfachung sowohl des Problems als auch seiner Lösungen verschärft.

Das Anerkennen von Meinungsverschiedenheiten ist nicht gleichbedeutend mit der Ablehnung des Klimawandels als wichtiges Problem.

In den IPCC-Bewertungsberichten wird das Konzept einer unmittelbar bevorstehenden globalen Katastrophe im Zusammenhang mit der globalen Erwärmung nicht unterstützt. Eine Minderheit von Wissenschaftlern, von denen einige sehr lautstark auftreten, ist jedoch der Meinung, dass Katastrophenszenarien realistischer sind als die wahrscheinlichen Szenarien des IPCC. Auch unter Journalisten und Politikern gibt es eine sehr lautstarke Gruppe, die das Katastrophenszenario unterstützt.

Alles, was schiefläuft, bestärkt die Überzeugung, dass es nur eine Sache gibt, die wir tun können, um gesellschaftliche Probleme zu verhindern – die Verbrennung fossiler Brennstoffe einzustellen. Diese große Erzählung verleitet uns zu der Annahme, dass, wenn wir das Problem der Verbrennung fossiler Brennstoffe lösen, auch die anderen Probleme verschwinden. Dieser Glaube führt uns von einer tieferen Untersuchung der wahren Ursachen dieser anderen Probleme ab. Das Endergebnis ist eine Verengung der Sichtweisen und der politischen Optionen, die wir bereit sind, bei der Bewältigung komplexer Probleme wie der öffentlichen Gesundheit, der Wasserressourcen, der Wetterkatastrophen und Sicherheitsaspekten in Betracht zu ziehen.

Der mit steigenden CO2-Konzentrationen in der Atmosphäre verbundene Klimawandel ist eine Theorie, deren grundlegender Mechanismus gut verstanden ist, deren Ausmaß jedoch höchst ungewiss ist.

Das Goldlöckchen-Prinzip besagt, dass etwas Wünschenswertes innerhalb bestimmter Grenzen liegen muss und nicht in die Extreme gehen darf. Das Goldlöckchen-Prinzip geht auf die Kindergeschichte „Die drei Bären“ zurück. Jeder Bär hat seine eigene Vorliebe für Essen, Betten und Zimmergröße. Nachdem er alle drei Dinge getestet hat, stellt Goldlöckchen fest, dass eines von ihnen immer in einem Extrem zu viel ist (zu heiß, zu groß), eines im entgegengesetzten Extrem zu viel (zu kalt, zu klein) und eines „genau richtig“ ist.

Der IPCC und das UNFCCC gehen implizit davon aus, dass unser Klima vor den Eingriffen des Menschen „genau richtig“ war, und messen die gefährliche Erwärmung als Temperaturveränderung seit der vorindustriellen Zeit. Die vorindustrielle Zeit wird im Allgemeinen als Zeit vor 1750 und dem Beginn der industriellen Revolution angesehen.

Welches Klima wollen wir also? Nur wenige würden das vorindustrielle Klima des 18. Jahrhunderts wählen, das war nämlich während der Kleinen Eiszeit und eines der kältesten Jahrhunderte der letzten Jahrtausende.

Der Klimawandel wird voraussichtlich Auswirkungen haben, die geografisch ungleich verteilt sind. Abgesehen von den vermuteten Regionen, in denen sich das Klima verschlechtert, könnten Gebiete auf der Welt, die derzeit nicht ohne weiteres Bevölkerung und Landwirtschaft ernähren können (z. B. Nordchina, Sibirien, Nordkanada), in einem künftigen wärmeren Klima begehrter werden. Kurz gesagt, wir können bei jedem globalen oder regionalen Klimawandel sowohl Gewinner als auch Verlierer erwarten. Das Goldlöckchen-Dilemma lautet: gefährlich für wen, wo und wann?

Jedes einzelne vom IPCC AR5 untersuchte Katastrophenszenario wird als sehr unwahrscheinlich oder außerordentlich unwahrscheinlich eingestuft und / oder hat ein geringes Vertrauen [„low confidence“].

Der einzige Kipppunkt, den der IPCC AR5 im 21. Jahrhundert für wahrscheinlich hält, ist das Verschwinden des arktischen Meereises im Sommer, das sich selbst unter extremen Erwärmungsszenarien jeden Winter neu bildet.

Es gibt keinen tatsächlichen großräumigen Schwellenwert (oder Kipppunkt) im Klima, der eindeutig mit einer globalen Erwärmung von 2 °C verbunden ist. Die durchschnittliche globale Erwärmung ist nicht die einzige Art des Klimawandels, die potenziell gefährlich ist, und Treibhausgase wie CO₂ sind nicht die einzige Ursache für einen gefährlichen Klimawandel. Einige potenzielle Schwellenwerte können nicht sinnvoll mit der globalen Temperaturveränderung in Verbindung gebracht werden und sind eher regionaler Natur; andere sind empfindlich gegenüber der Geschwindigkeit des Klimawandels, und einige sind besonders empfindlich gegenüber räumlichen Gradienten der Temperaturveränderung.

In der ersten Hälfte des 20. Jahrhunderts gab es mehr extreme Wetterereignisse als in der zweiten Hälfte, in der die vom Menschen verursachte globale Erwärmung hauptsächlich für den beobachteten Klimawandel verantwortlich gemacht wird.

Für die Wahrnehmung, dass Unwetterereignisse in den letzten zehn Jahren häufiger und heftiger auftraten, sind mehrere Faktoren verantwortlich. Der erste ist die zunehmende Anfälligkeit und Gefährdung im Zusammenhang mit der wachsenden Bevölkerung und der Konzentration des Wohlstands in Küsten-und anderen katastrophengefährdeten Regionen. Der zweite Faktor ist die natürliche Klimavariabilität. Viele extreme Wetterereignisse stehen nachweislich im Zusammenhang mit natürlichen Klimaschwankungen. In den Vereinigten Staaten von Amerika waren extreme Wetterereignisse (z. B. Dürren, Hitzewellen und Wirbelstürme) in den 1930er- und 1950er-Jahren deutlich schlimmer. Eine aktuelle Analyse, die viele Studien zusammenfasst, findet keine Belege für die Behauptung, dass ein Teil des Gesamtanstiegs der weltweiten wirtschaftlichen Verluste durch Wetter-und Klimakatastrophen auf die globale Erwärmung zurückgeführt werden kann.

Naturereignisse werden zu Katastrophen, wenn die Bevölkerung zahlreich und unvorbereitet ist, die Infrastruktur exponiert ist und der Mensch in Ökosysteme eingegriffen hat, die eine natürliche Sicherheitsbarriere darstellen (z. B. Abholzung von Wäldern, Trockenlegung von Feuchtgebieten, Zerstörung von Mangroven an der Küste).

Eine kürzlich durchgeführte Studie quantifizierte die Veränderungen der sozioökonomischen Anfälligkeit für klimabedingte Gefahren zwischen 1980 und 2016, ausgedrückt als Todesfälle im Verhältnis zur exponierten Bevölkerung und wirtschaftliche Verluste. Es wurde ein klarer Abwärtstrend sowohl bei der menschlichen als auch bei der wirtschaftlichen Anfälligkeit festgestellt, wobei die durchschnittlichen Sterblichkeits- und wirtschaftlichen Verlustraten im Vergleich zu ihren Werten im Jahr 1980 weltweit um das 6,5-fache bzw. fast um das Fünffache gesunken waren. Es gab eine klare negative Korrelation zwischen der Anfälligkeit für Wetter-/Klimagefahren und dem Wohlstand, wobei die Anfälligkeit bei den niedrigsten Einkommensstufen am größten war. Das heißt, die Armen leiden am meisten unter Wetter-und Klimakatastrophen.

„Ich weiß, dass die meisten Menschen, auch diejenigen, die sich mit den kompliziertesten Problemen auskennen, selten auch nur die einfachste und offensichtlichste Wahrheit akzeptieren können, wenn sie dadurch gezwungen wären zuzugeben, dass ihre Schlussfolgerungen falsch sind, die sie mit Freude ihren Kollegen erklärt haben, die sie mit Stolz anderen beigebracht haben, und die sie Faden für Faden in ihr Leben eingewoben haben. Russischer Schriftsteller Leo Tolstoi

„Wissenschaft wird immer als Tatsache verkauft, aber das ist sie nicht, sie ist ein Prozess. Und dieser Prozess besteht hauptsächlich aus Argumenten.“

Der Confirmation Bias kann sogar noch stärker werden, wenn Menschen mit Fragen konfrontiert werden, die moralische Gefühle und Bedenken hinsichtlich der Gruppenidentität auslösen. Die Überzeugungen der Menschen werden stärker und extremer, wenn sie von gleichgesinnten Kollegen umgeben sind. Sie gehen davon aus, dass ihre Meinungen nicht nur die Norm, sondern auch die Wahrheit sind – und schaffen so das, was der Sozialpsychologe Jonathan Haidt eine „moralische Stammesgemeinschaft“ nennt, mit ihren eigenen heiligen Werten darüber, was es wert ist, untersucht zu werden, und was tabu ist.

„Ich denke, dass der Fünfte Sachstandsbericht in den ersten Entwürfen der Zusammenfassung für politische Entscheidungsträger, die meiner Meinung nach sehr deutlich geworden ist, die neue Erkenntnis enthält, dass viele der dramatischeren Auswirkungen des Klimawandels in Wirklichkeit Symptome von Misswirtschaft und Armut sind, und kontrolliert werden können, wenn wir eine bessere Regierungsführung und mehr Entwicklung hätten.“

Ein Konsens ist eine starke Behauptung, und sie eröffnet einen weiten Raum für Argumente. Indem der IPCC seine Arbeit als Konsens darstellte, delegitimierte er im Wesentlichen die Einwände derjenigen, die gemeinhin als Skeptiker oder Leugner bezeichnet werden, und entschied sich für einen fortlaufenden, jahrzehntelangen Prozess, in dem er entweder auf sie einging oder versuchte, sie an den Rand zu drängen.

„In dem Glauben zu handeln, dass wir das Wissen und die Macht besitzen, die es uns ermöglichen, die Prozesse der Gesellschaft ganz nach unseren Wünschen zu gestalten, ein Wissen, das wir in Wirklichkeit nicht besitzen, wird uns wahrscheinlich viel Schaden zufügen.“ Ökonom und Nobelpreisträger Friedrich Hayek

Die Herausforderung des Klimawandels wird oft als einfach dargestellt: Der Anstieg der CO₂-Emissionen verursacht Probleme, also muss der Ausstoß fossiler Brennstoffe gestoppt werden. Unser Versagen, die Emissionen fossiler Brennstoffe nach Jahrzehnten internationaler Politik zu stoppen, wird oft dem mangelnden politischen Willen angelastet. Nun, der politische Wille fehlt zumindest teilweise, weil die CO₂-Emissionen das Nebenprodukt einer zuverlässigen Energieversorgung durch fossile Brennstoffe sind, die zwei Jahrhunderte menschlicher und wirtschaftlicher Entwicklung untermauert hat.

In einem von der UNFCCC in Auftrag gegebenen Sonderbericht von 2018 hat der IPCC einen Weg zur Begrenzung des Temperaturanstiegs im Jahr 2100 auf 1,5 °C über dem vorindustriellen Niveau aufgezeigt. Die Begrenzung der Erwärmung auf 1,5 °C würde eine drastische Reduzierung der Emissionen bis zum Jahr 2030 und vollständige Kohlenstoffneutralität bis etwa 2050 erfordern. Dies würde eine noch nie dagewesene Umstellung der Energie-, Verkehrs-, Landwirtschafts-, Stadt- und Industriesysteme mit sich bringen. Es wurde jedoch noch kein praktikabler und wirksamer Weg gefunden, um eines dieser Ziele in einem so kurzen Zeitraum zu erreichen.

Das Pariser Abkommen hat eine große Kluft zwischen Ehrgeiz und Verpflichtung geschaffen, indem es ehrgeizige Temperaturziele verabschiedet hat, ohne die Mittel zu deren Erreichung zu nennen. Was wir uns wünschen, ist etwas ganz anderes als das, was auf der Grundlage einer rationalen Prüfung von Wirtschaft und Technologie möglich ist.

„Für jedes menschliche Problem gibt es immer eine bekannte Lösung – hübsch, plausibel und falsch.“ (Der amerikanische Journalist H.L. Mencken)

Während die Nachhaltigkeit darauf abzielt, die Welt in ein stationäres Gleichgewicht zu bringen, sucht die Resilienz nach Wegen, um in einer ständig unausgeglichenen Welt zurechtzukommen. Resilienz ist die Fähigkeit, sich angesichts von Schocks wieder zu erholen. Sie ist die Fähigkeit einer sozialen Gruppe, Störungen zu absorbieren und sich neu zu organisieren, um im Wesentlichen dieselbe funktionale Struktur beizubehalten.

Mögliche Szenarien einer schrittweisen Verschlechterung der Wetter- und Klimaextreme im Laufe des 21. Jahrhunderts ändern nichts an dieser grundlegenden Tatsache: Die meisten Regionen der Welt, einschließlich der Vereinigten Staaten von Amerika und Europa, sind nicht gut an die aktuelle Bandbreite der Wetterereignisse oder an die Bandbreite der Ereignisse des letzten Jahrhunderts angepasst.

Die Befürworter des Nachhaltigkeitsparadigmas haben oft gezögert, Resilienz und Anpassung im Hinblick auf den Klimawandel zuzulassen. Wenn wir uns an unerwünschte Veränderungen anpassen, so die Argumentation, geben wir den Verursachern des Problems (Produzenten und Emittenten fossiler Brennstoffe) einen Freibrief, und wir verlieren die moralische Autorität, sie zum Aufhören zu zwingen. Es besteht jedoch ein unausgewogenes Verhältnis zwischen Klimaschutz und Anpassung. Die Abschwächung durch Emissionsreduzierungen hilft niemandem auf Jahrzehnte hinaus, während den Menschen durch lokal konzipierte und umgesetzte Anpassungsmaßnahmen zur Bewältigung realer Anfälligkeiten sowohl kurzfristig als auch in der Zukunft geholfen wird.

Thrivability ist ein Begriff, der das Konzept der Nachhaltigkeit erweitert. Es geht darum, Strategien zu entwickeln, die das Wohlergehen aller Beteiligten fördern und gleichzeitig die Umwelt und die Ressourcen schonen. Der Unterschied zur Nachhaltigkeit besteht darin, dass Thrivability ein dynamischeres und ambitionierteres Konzept ist, das auf Wachstum und Fortschritt abzielt, während Nachhaltigkeit ein passives Konzept zur Erhaltung des Status quo ist.

Thrivability fördert den Fortschritt und die Verbesserung unseres Handelns. Anstelle des Rückpralls der Resilienz ist die Lebensfähigkeit

Antifragilität bedeutet nicht nur, dass wir uns wieder erholen, sondern auch, dass wir dadurch noch besser werden, Herausforderungen zu begegnen und zu bewältigen. Antifragile Systeme sind eher dynamisch als statisch, sie gedeihen und entwickeln sich in neue Richtungen, anstatt einfach den Status quo beizubehalten.

Biologische Systeme in der Natur sind per se antifragil – sie entwickeln sich ständig weiter und werden durch Zufallsereignisse stärker. Im Gegensatz dazu sind vom Menschen geschaffene Systeme eher zerbrechlich und haben es schwer, mit zufälligen Ereignissen fertig zu werden. Taleb weist auf ein zentrales Paradoxon hin: Unsere Konzentration auf die Beseitigung oder Minimierung des Zufalls in der heutigen Zeit hat den perversen Effekt, dass die Fragilität zunimmt.

Zusammenfassend lässt sich sagen, dass eine ausschließliche Fokussierung auf die Nachhaltigkeit die Widerstandsfähigkeit und Lebensfähigkeit sowie den allgemeinen Wohlstand von Gesellschaften beeinträchtigen kann.

Das Problem des Klimawandels wurde eng gefasst, da es durch einen Überschuss an Kohlendioxid in der Atmosphäre verursacht wird, der durch die Beseitigung der Emissionen fossiler Brennstoffe gelöst werden kann.

In ihrem Aufsatz „Wrong Trousers“ (Falsche Hosen) argumentieren die Sozialwissenschaftler Gwythian Prins und Steve Rayner, dass wir bei unseren Versuchen, das Problem des Klimawandels und seine Lösung in einem engen Rahmen zu definieren, die falschen kognitiven Entscheidungen getroffen haben, indem wir uns auf Strategien verlassen haben, die früher bei „zahmen“ Problemen funktioniert haben. Ein zahmes Problem ist gut definiert, gut verstanden, und man ist sich über die geeigneten Lösungen einig. Kosten-Nutzen-Analysen und Techniken zur Abschwächung des Klimawandels sind für „zahme“ Probleme geeignet, und der potenzielle Schaden durch Fehleinschätzungen ist begrenzt.

Komplexe Probleme erfordern einen viel größeren Rahmen, um Unsicherheit, Mehrdeutigkeit, Chaos und Widersprüche zu berücksichtigen. Jede Rahmung eines komplexen Problems ist vorläufig und erfordert die Anerkennung dessen, was außerhalb des Rahmens liegt, sowie dessen potenzielle Bedeutung.

Ein „wicked problem“ ist gekennzeichnet durch eine Vielzahl von Problemdefinitionen, umstrittene Methoden des Verständnisses, chronische Unwissenheit und die mangelnde Fähigkeit, sich künftige Eventualitäten sowohl des Problems als auch der vorgeschlagenen Lösungen vorzustellen. Das komplexe Geflecht von Kausalitäten kann zu überraschenden unbeabsichtigten Folgen von Lösungsversuchen führen, die neue Schwachstellen schaffen oder den ursprünglichen Schaden verschlimmern. Darüber hinaus macht es die „Wickedness“ schwierig, Punkte zu identifizieren, an denen die Wissenschaft oder die Politik unwiderlegbar versagt oder Erfolg hat.

Der Umgang mit „wicked“-Problemen fördert eine Konzentration auf die Betrachtung von Schwierigkeiten aus mehreren Perspektiven, die Gestaltung von Programmen, die Komplexität und Mehrdeutigkeit berücksichtigen, Managementstrategien, die Krisen und Überraschungen Rechnung tragen, die Verbesserung von Politik- und Evaluierungskapazitäten und die Stärkung der Kooperationskapazitäten des politischen Systems.

Wissenschaftliches Wissen hat immer blinde Flecken und ist vorläufig. Die Politik ist bei komplexen Fragen immer mehr auf Wissen angewiesen, während die Wissenschaft bei den komplexesten Problemen der Gesellschaft immer weniger Gewissheit liefern kann. Dieses Spannungsverhältnis schafft ein Paradoxon, das normalerweise durch politische Entscheidungen und nicht durch die Verbreitung von „Wahrheit“ im Sinne von unbestrittenem Wissen gelöst wird.

Wissenschaft ist nicht dazu da, Fragen darüber zu beantworten, wie die Welt sein sollte; das ist die Domäne der Politik.

Die Phrase „Folge der Wissenschaft“ hat einen tugendhaften Klang. Die Wissenschaft führt jedoch nirgendwo hin. Sie kann verschiedene Handlungsoptionen aufzeigen und die Risiken und Kompromisse quantifizieren. Aber die Wissenschaft kann keine Entscheidungen für uns treffen. Indem sie der Wissenschaft folgen, entziehen sich die Entscheidungsträger der Verantwortung für die von ihnen getroffenen Entscheidungen.

Die Wissenschaft bringt keine absolute Sicherheit hervor, sondern ist vorläufig und kann sich angesichts neuer Erkenntnisse ändern.

Wissenschaftler neigen dazu, naiv und unrealistisch zu sein, wenn es um die Umsetzung ihrer wissenschaftlichen Erkenntnisse in die Politik geht, und erwarten, dass die öffentliche Politik wissenschaftlich ist. Wissenschaftler gehen oft davon aus, dass sich wichtige Verbesserungen in der Politikgestaltung ergäben, wenn die politischen Entscheidungsträger nur das Wissen der Forscher einbeziehen würden. In dem Maße, in dem sie die politische Entscheidungsfindung ausschließlich auf wissenschaftliche Erkenntnisse stützen wollen, haben Wissenschaftler ein falsches Verständnis von politischer Entscheidungsfindung und Politik, bei der es immer darum geht, Abwägungen zwischen verschiedenen Zielen zu treffen.

Aktivistische Klimawissenschaftler haben ihre privilegierte Position genutzt, um eine klare politische Agenda zu verfolgen. Diese Machtpolitik aktivistischer Wissenschaftler hat die Debatte über den Klimawandel angeheizt und polarisiert.

Es gibt auch indirekten politischen Druck, der aus der wissenschaftlichen Gemeinschaft und den Institutionen, die die Wissenschaft unterstützen, kommt. Druck zur Unterstützung des Klimakonsenses und grüner Politik kommt von Universitäten und Berufsverbänden, von Wissenschaftlern, die selbst grüne Aktivisten sind, von Journalisten und von stattlichen Finanzierungsquellen in Bezug auf die Prioritäten der Forschungsfinanzierung. Da die Beurteilung durch die Kollegen so wichtig für den Erfolg in der Wissenschaft ist, kann man leicht Angst vor sozialen Sanktionen haben, wenn man Ideen äußert, die zwar nicht unbedingt faktisch oder wissenschaftlich falsch, aber weithin unpopulär sind.

Dieser politische Aktivismus erstreckt sich auch auf die Berufsverbände, die Fachzeitschriften herausgeben und Konferenzen organisieren. Dieser Aktivismus hat einen Gatekeeping-Effekt darauf, was veröffentlicht wird, wer auf Konferenzen gehört wird und wer berufliche Anerkennung erhält. Praktisch alle Fachgesellschaften, deren Mitglieder in irgendeiner Weise mit der Klimaforschung zu tun haben, haben politische Erklärungen zum Klimawandel abgegeben. Diese Erklärungen spiegeln den IPCC-Konsens wider und enthalten Aufrufe zum Handeln.

Wie viele Studien mit qualitativ hochwertigen Daten und Analysen, die für die Klimakontroverse relevant sind, wurden nicht veröffentlicht, weil die Forscher Konsequenzen fürchteten, den Wert einer Veröffentlichung nicht sahen oder nicht wollten, dass die Ergebnisse allgemein bekannt werden? Wie viele skeptische Arbeiten wurden von aktivistischen Redaktionen nicht veröffentlicht? Wie viele veröffentlichte Arbeiten haben Resultate unterschlagen, um zu vermeiden, dass Ergebnisse, die mit den bevorzugten Darstellungen in Konflikt stehen, hervorgehoben werden?

Es ist indes sehr schwierig, staatliche Finanzmittel für klimawissenschaftliche Forschungen zu erhalten, die das bestehende Paradigma in Frage stellen.

Im linearen Modell des Fachwissens und der Entscheidungsfindung sind Unsicherheit und Zweifel Feinde des Handelns.

„Wer mit Ungeheuern kämpft, muss aufpassen, dass er nicht selbst zum Ungeheuer wird.“ (Friedrich Nietzsche, deutscher Philosoph des 19. Jahrhunderts).

Monster verstecken.

Das Verstecken von Unsicherheit oder die Strategie „niemals Fehler zugeben“ kann durch eine politische Agenda motiviert sein oder durch die Angst, dass unsichere Wissenschaft von der Außenwelt als schlechte Wissenschaft beurteilt wird. Das Monster kann jedoch zu groß sein, um sich zu verstecken, und das Verstecken macht das Monster wütend. Strategien, mit denen versucht wird, abweichende Meinungen zum Schweigen zu bringen, sind Beispiele für das Verstecken von Monstern; die Climategate-E-Mails lieferten zahlreiche Beispiele.

Monster-Exorzismus.

Der Ungewissheitsmonster-Exorzist konzentriert sich auf die Verringerung der Ungewissheit, indem er für mehr Forschung eintritt. Die Monstertheorie sagt jedoch voraus, dass sich die Hoffnung auf die Verringerung der Ungewissheit bei komplexen Problemen auf lange Sicht als vergeblich erweisen wird. Für jeden Kopf des Unsicherheitsmonsters, den die Wissenschaft abschlägt, werden aufgrund unvorhergesehener Komplexität mehrere neue Monsterköpfe auftauchen, in Analogie zum Ungeheuer Hydra in der griechischen Mythologie. In der Klimawissenschaft gab es in den 1990er-Jahren die Hoffnung, dass die Unsicherheit der Klimamodellvorhersagen durch weitere Forschung verringert werden könnte. Mit dem zunehmenden Verständnis werden dem Problem jedoch weitere Dimensionen hinzugefügt, was die Unsicherheit erhöht.

Monster-Anpassung.

Monsteranpassungen versuchen, das Monster zu transformieren, indem sie die Bewertung der Unsicherheit subjektiv quantifizieren und vereinfachen. Die Monsteranpassung wurde vom IPCC im Zusammenhang mit der Charakterisierung der Unsicherheit in einem Konsensansatz formalisiert (z. B. Moss und Schneider 2000). Diese Strategie hat zu einem übermäßigen Vertrauen in die Schlussfolgerungen des IPCC geführt.

Aufdeckung von Monstern.

Wie in dem Abschnitt über Skeptiker beschrieben, ist der erste Typus des Unsicherheitsdetektivs ein Wissenschaftler, der bestehende Thesen in Frage stellt und daran arbeitet, die Grenzen des Wissens zu erweitern. Ein zweiter Typus ist ein Überwachungsauditor, dessen Hauptanliegen die Rechenschaftspflicht, Qualitätskontrolle und Transparenz der Wissenschaft ist. Ein dritter Typus ist ein Händler des Zweifels, der Unsicherheiten verzerrt und vergrößert, um Untätigkeit zu entschuldigen.

Monster-Assimilierung.

Bei der Assimilation von Monstern geht es darum, zu lernen, mit dem Monster zu leben und der Ungewissheit einen ausdrücklichen Platz bei der Betrachtung und dem Management von Umweltrisiken einzuräumen. Die Bewertung und Kommunikation von Ungewissheit und Unwissenheit sowie erweiterte Peer-Gemeinschaften sind für die Assimilierung von Monstern unerlässlich. Die Herausforderung bei der Assimilierung von Monstern besteht darin, dass sich das Monster ständig verändert und neue Monster entstehen.

„Wahres Wissen besteht darin, das Ausmaß der eigenen Unwissenheit zu kennen.“ (Chinesischer Philosoph Konfuzius).

„Manche Dinge werden geglaubt, weil sie nachweislich wahr sind. Aber viele andere Dinge werden einfach deshalb geglaubt, weil sie wiederholt behauptet wurden – und die Wiederholung wurde als Ersatz für Beweise akzeptiert.“ (Wirtschaftswissenschaftler Thomas Sowell).

Die mit dem komplexen, nichtlinearen und chaotischen Klimasystem verbundenen Unsicherheiten zu verstehen, geschweige denn, sie zu bewältigen, ist ein sehr schwieriges Unterfangen. Daher ist es für Wissenschaftler und politische Entscheidungsträger verlockend, die Unsicherheit zu vereinfachen, um den Anschein zu erwecken, dass die entsprechenden Überlegungen angestellt wurden.

Zu den Symptomen eines wütenden Unsicherheitsmonsters gehören ein erhöhtes Maß an Verwirrung, Unklarheit, Unbehagen und Zweifel. Anzeichen dafür, dass das Monster derzeit wütend ist, sind die Schärfe der öffentlichen Debatte über den Klimawandel, die beinahe militante Durchsetzung des Konsenses und die Zweifel, die hinsichtlich der Durchführbarkeit und der Auswirkungen einer raschen Emissionsreduzierung geäußert werden.

„Details, die Ihre Interpretation in Frage stellen könnten, müssen angegeben werden, wenn Sie sie kennen. Wenn Sie eine Theorie aufstellen [… ], dann müssen Sie auch alle Fakten aufschreiben, die nicht mit ihm übereinstimmen, als auch diejenigen, die ihm zustimmen. Zusammenfassend lässt sich sagen, dass Sie versuchen sollten, alle Informationen zu geben, die anderen helfen, den Wert Ihres Beitrags zu beurteilen, und nicht nur die Informationen, die zu einem Urteil in die eine oder andere Richtung führen.“

Die Komplexität von Klimamodellen ergibt sich aus der Nichtlinearität der Gleichungen, der hohen Dimensionalität (Millionen von Freiheitsgraden) und der Verknüpfung mehrerer Teilsysteme.

„Ob Klimawissenschaftler es nun zugeben wollen oder nicht, fast jedes Modell wurde genau auf die Klimaaufzeichnungen des 20. Jahrhunderts geeicht – andernfalls wäre es auf dem Müll gelandet. Man kann mit Fug und Recht behaupten, dass alle Modelle darauf abgestimmt sind“, sagt Isaac Held, ein Wissenschaftler am Geophysical Fluid Dynamics Laboratory.

Mit zunehmender Komplexität eines Modells wird die Modellkalibrierung ein immer wichtigeres Thema.

Die Übereinstimmung zwischen Modell und Beobachtungsdaten bedeutet keineswegs, dass das Modell aus den richtigen Gründen die richtige Antwort gibt.

Der Schmetterlingseffekt hat gezeigt, dass bei deterministischen nichtlinearen dynamischen Systemen geringfügige Unterschiede in den Anfangsbedingungen zu stark unterschiedlichen Ergebnissen führen können, was Bedenken hinsichtlich der Auswirkungen von Beobachtungsfehlern bei den Anfangsbedingungen für eine Modellsimulation aufkommen lässt.

Kurz gesagt, wenn man dem Modell mehr Details hinzufügt, kann es weniger genau werden, und komplexe Modelle können weniger informativ sein als einfache Modelle.

„Es ist eine bedauerliche Tatsache, dass man, wenn man die Frage nach der Zuverlässigkeit vieler Simulationen stellt, oft gesagt bekommt, wie viel Arbeitskraft dafür aufgewendet wurde, wie groß und schnell der Computer ist, wie wichtig das Problem ist, und solche Dinge, die für die gestellte Frage völlig irrelevant sind.“ (Mathematiker Richard Hamming).

„Alle Modelle sind falsch, aber einige sind nützlich.“ (Statistiker George Box).

Alle Modelle sind unvollkommen; wir brauchen kein perfektes Modell, nur eines, das seinen Zweck erfüllt.

„Klimamodellprojektionen sind in der Lage, viele Aspekte des Klimasystems zu erfassen, sodass man sich auf sie verlassen kann, um Pläne zur Eindämmung des Klimawandels und breit angelegte Anpassungsstrategien zu entwickeln, aber die Verwendung dieser Modelle zur Steuerung lokaler, praktischer Anpassungsmaßnahmen ist nicht gerechtfertigt. Klimamodelle sind nicht in der Lage, künftige Bedingungen mit dem Grad an räumlicher, zeitlicher und wahrscheinlichkeitsbezogener Präzision darzustellen, mit dem Projektionen oft geliefert werden, was den Nutzern von Informationen über den Klimawandel einen falschen Eindruck von Vertrauen vermittelt.“

Unter Szenarien versteht man „eine plausible, umfassende, integrierte und konsistente Beschreibung, wie sich die Zukunft entwickeln könnte, wobei auf eine konkrete Wahrscheinlichkeitsaussage verzichtet wird.“ 2 Szenarien der Klimazukunft spielen eine grundlegende Rolle bei der Beschreibung gesellschaftlicher Risiken und politischer Reaktionsmöglichkeiten.

Die Wasserdampf-Rückkopplung ist positiv: eine wärmere Atmosphäre kann mehr Wasserdampf enthalten, der selbst ein starkes Treibhausgas ist. Die Wasserdampf-Rückkopplung wird teilweise durch die Tatsache aufgehoben, dass die atmosphärische Temperatur mit zunehmender Höhe über der Erdoberfläche langsamer abnimmt, wenn der Wasserdampf in der Atmosphäre zunimmt. Wärmere Temperaturen führen auch zu einer geringeren Schnee- und Meereisbedeckung, wodurch die Erde mehr Sonnenstrahlung absorbieren kann.

Es ist von Bedeutung, was in der Zusammenfassung für politische Entscheidungsträger nicht erwähnt wird. In den Kapiteln elf und zwölf des IPCC AR6 werden die folgenden Ereignistypen genannt, für die es entweder keine Veränderung oder ein geringes Vertrauen in eine Veränderung gibt. Es gibt keinen beobachteten signifikanten Trend bei meteorologischen oder hydrologischen Dürren, keine Trends bei außertropischen Stürmen, keine Trends bei der Gesamtzahl tropischer Wirbelstürme und keine Trends bei Tornados, Hagel oder Blitzen in Verbindung mit schweren konvektiven Stürmen.

Jedes extreme Wetterereignis wird nun in den Medien mit der vom Menschen verursachten globalen Erwärmung in Verbindung gebracht. Jegliche Veränderung der Intensität oder Häufigkeit extremer Wetterereignisse ist allenfalls inkrementell; selbst wenn in den letzten 50 oder mehr Jahren eine Veränderung der Art des Ereignisses festgestellt wurde, ist es überhaupt nicht einfach, eine Veränderung auf die durch Emissionen verursachte Erwärmung zurückzuführen, und eine quantitative Vorhersage jeglicher Veränderungen ist höchst unsicher.

„Die Illusion, dass wir die Vergangenheit verstehen, fördert das übermäßige Vertrauen in unsere Fähigkeit, die Zukunft vorherzusagen. (Wirtschaftswissenschaftler Daniel Kahneman, Autor von Thinking, Fast and Slow).

Es setzt sich zunehmend die Erkenntnis durch, dass die globalen Klimamodelle nicht geeignet sind, die Klimaschwankungen und -veränderungen des 21. Jahrhunderts vorherzusagen, insbesondere auf dekadischer und regionaler Ebene. Klimamodell-Simulationen unter der Schirmherrschaft des CMIP-Programms und des IPCC liefern nicht die gesamte Bandbreite an Szenarien für plausible Klimaergebnisse. Die CMIP-Simulationen enthalten nur sehr begrenzte Szenarien für Vulkanausbrüche und Sonnenvariabilität. Außerdem stellen die Klimamodelle die indirekten Auswirkungen der Sonne und die mehrdekadischen bis jahrhundertelangen Schwankungen in den großräumigen Ozeanzirkulationen nur unzureichend dar. Die natürliche interne Klimavariabilität ist von besonderer Bedeutung für Szenarien regionaler Klimaschwankungen.

Globale Klimamodelle sind jedoch unzureichend für die Vorhersage des regionalen Klimawandels und der Häufigkeit und Intensität extremer Wetterereignisse.

Die atlantische multidekadische Oszillation ist eine kohärente Form der natürlichen Variabilität der Meeresoberflächentemperaturen im Nordatlantik, mit einem geschätzten Zeitraum von 60 bis 80 Jahren.

Auf der regionalen Skala ist die Bedeutung der internen Variabilität größer und die Unsicherheiten sind größer als auf der globalen Skala. Außerdem gibt es Prozesse und Rückkopplungen regionaler Art, die das lokale Klima und extreme Wetterereignisse beeinflussen. Daher stellen Projektionen des regionalen Klimawandels eine zusätzliche Herausforderung dar.

Temperatur- und niederschlagsbedingte Ereignisse müssen auch im Zusammenhang mit Landnutzungsänderungen (Verstädterung, Entwaldung, Anbau) bewertet werden. Sobald ein Ereignistyp identifiziert ist, der sich mit der Erwärmung zu verschlimmern scheint, können physikalische Prozessmodelle und theoretische Analysen verwendet werden, um Veränderungen in den potenziellen Ausmaßen der Extremereignisse im Vergleich zu den historischen Daten zu bewerten.

In allen von mir erstellten Analysen regionaler Szenarien für Extremereignisse in den nächsten drei Jahrzehnten übersteigen die mit der natürlichen Klimavariabilität verbundenen Schwankungen bei Weitem die durch die globale Erwärmung zu erwartenden Veränderungen. Dennoch kann es unter bestimmten Umständen vertretbar sein, davon auszugehen, dass die Erwärmung ein bestimmtes Extremereignis inkrementell verschlimmert haben könnte.

Beispielsweise ereigneten sich viele der schlimmsten Wetterkatastrophen in den USA in den 1930er- und 1950er-Jahren, also in einem Zeitraum, der nicht wesentlich durch die vom Menschen verursachte globale Erwärmung beeinflusst wurde.

Eine andere Klasse von Überraschungen sind bekannte Ereignisse oder Prozesse, die aus irgendeinem Grund ignoriert oder von der wissenschaftlichen Gemeinschaft als unbedeutend eingestuft wurden. Diese werden oft als Rosa Flamingos bezeichnet (auch als unbekannte Bekannte oder bekannte Vernachlässigte bezeichnet).

Um auf das Unerwartete vorbereitet zu sein, ist es notwendig, Einschätzungen darüber zu treffen, was plausiblerweise passieren kann.

Im Gegensatz zu probabilistischen Zukunftsprognosen werden bei plausiblen Prognosen Zukunftsszenarien untersucht, die zwar unwahrscheinlich sind, aber dennoch eintreten könnten und bei denen die Vorhersagefähigkeit aufgrund von hoher Unsicherheit, Unwissenheit oder Komplexität begrenzt ist. So würde beispielsweise ein Ereignis wie der Supersturm Sandy, der 2012 New York heimsuchte, in Zukunftsszenarien, die nach ihrer Wahrscheinlichkeit bewertet werden, nicht berücksichtigt werden, da die Wahrscheinlichkeit eines solchen Sturms aufgrund der Seltenheit des Ereignisses unbestimmt ist.

Die Formulierung plausibler Szenarien ist von besonderer Bedeutung in Situationen mit großen Unsicherheiten, in denen die Wissensbasis, auf die sich die Bewertung stützt, schwach ist und das Potenzial für Überraschungen im Vergleich zu diesem Wissen groß ist. Was bedeutet nun Plausibilität im Kontext von Risiko und Unsicherheit? Plausibilität wurde definiert als die Eigenschaft eines Szenarios, genügend Beweise zu enthalten, um als „eintreffbar“ eingestuft zu werden, was ausdrücklich auch Szenarien einschließt, die nicht die wahrscheinlichsten sind. Eine ähnliche Definition hält den Begriff plausibel für gleichbedeutend mit „ernsthaft möglich.“

Die Formulierung plausibler Szenarien bietet einen Weg von Vorhersagen und probabilistischem Denken, der eine fruchtbarere Grundlage für die Entscheidungsfindung bei komplexen Problemen mit großen Unsicherheiten schafft.Der Schwerpunkt liegt auf der Charakterisierung der Stärke des Wissens, das ein Szenario unterstützt, sowie auf der Identifizierung potenzieller Überraschungen. Die Plausibilität stellt kein Maß für die Wahrscheinlichkeit an sich dar, sondern bildet einen Teil der Grundlage für Wahrscheinlichkeitszuweisungen, indem sie Überlegungen zu dem zugrunde liegenden Wissen und den Annahmen liefert, auf denen die Urteile beruhen.

Zusammenfassend lässt sich sagen, dass Szenarien für einen Anstieg des Meeresspiegels im 21. Jahrhundert von mehr als 1,8 Metern Bedingungen voraussetzen, für die es keine natürlichen interglazialen Vorläufer gibt. Diese extremen Szenarien erfordern eine Kaskade von extrem unwahrscheinlichen Ereignissen und Parametern. Die gemeinsame Wahrscheinlichkeit dieser extrem unwahrscheinlichen Ereignisse überschreitet wohl die Schwelle zur Unwahrscheinlichkeit.

Der Klimawandel ist ein Risiko, weil er Wohlstand und Sicherheit beeinträchtigen kann und weil seine Folgen ungewiss sind. Die Art und Weise, wie wir ein Risiko verstehen und beschreiben, hat einen starken Einfluss auf die Art und Weise, wie es analysiert wird, was sich auf das Risikomanagement und die Entscheidungsfindung auswirkt. Durch die Charakterisierung des Klimawandels als ein gut verstandenes Problem mit einem starken Konsens gehen die traditionellen Risikomanagementansätze davon aus, dass der Klimawandel auf rationale Weise bewältigt oder zumindest eingedämmt und vorzugsweise beseitigt werden kann und sollte. Die Vielfalt der klimabezogenen Einflussfaktoren und ihre komplexen Zusammenhänge, verschiedene inhärente und nicht reduzierbare Unsicherheiten, Unklarheiten über die Folgen des Klimawandels und die ungleiche Verteilung der Exposition und der Auswirkungen über Geografie und Zeit hinweg erschweren jedoch jede einfache oder unbestrittene Anwendung traditioneller Risikomanagementansätze.

Risikobewertung und -management als wissenschaftlicher Bereich sind erst etwa 40-50 Jahre alt.

Ein Risiko kann positive oder negative Folgen haben oder einfach mit Unsicherheit verbunden sein.

Die meisten Anwendungen der Risikoanalyse konzentrieren sich jedoch auf negative Ergebnisse.

Der Klimawandel stellt eine Herausforderung für die Risikobewertung dar, die einzigartig komplex, unsicher und mehrdeutig ist.

Das Klimarisiko wird im Allgemeinen als ein Gefahrenrisiko betrachtet, obwohl es auch positive Auswirkungen haben kann.

Die Gefahr kann etwas sein, das unmittelbar bevorsteht, oder etwas, das wahrscheinlich oder lediglich möglich ist.

Das Risiko wird oft als eine Art statistische Varianz beschrieben – das Produkt aus Eintrittswahrscheinlichkeit und Auswirkung im Falle des Eintretens. Eine solche Charakterisierung ist jedoch nur für einfache oder harmlose Probleme angemessen.

Unabhängig davon, wie stark wir unsere Risikowahrnehmung einschätzen, liegen wir mit dem Risiko oft falsch. Die Menschen machen sich über manche Dinge mehr Sorgen, als die Belege dies rechtfertigen (z. B. nukleare Strahlung, gentechnisch veränderte Lebensmittel), und über andere Bedrohungen weniger, als die Beweise es nahelegen (z. B. Fettleibigkeit, Benutzung von Mobiltelefonen beim Autofahren). Diese Lücke in der Risikowahrnehmung führt zu einer Sozialpolitik, die uns mehr vor dem schützt, wovor wir Angst haben, als vor dem, was uns tatsächlich am meisten bedroht. Das Verständnis der Psychologie der Risikowahrnehmung ist wichtig für einen rationalen Umgang mit den Risiken, die entstehen, wenn unser subjektives Risikowahrnehmungssystem gefährliche Fehler macht.

Risiken, die häufig vorkommen, die man selbst kontrollieren kann und die freiwillig sind, wie z. B. das Autofahren, lösen in der Öffentlichkeit die geringste Besorgnis aus. Seltene und aufgezwungene Risiken ohne potenzielle Vorteile, wie Terrorismus, rufen die größte Furcht hervor.

Die Menschen neigen dazu, ihre Position auf dem Spektrum der Umweltrisiken damit in Verbindung zu bringen, wie sie die Natur wahrnehmen. Risikofreudige sehen die Natur als robust an, während Risikovermeider die Natur als zerbrechlich betrachten. Dazwischen finden sich Risikoregulierer, die eine robuste Natur mit Grenzen sehen. Diejenigen, die dem Risiko gleichgültig gegenüberstehen, sehen die Natur als unberechenbar an und betrachten das Risiko tatsächlich nur als Zufall.

Die Reaktion auf das Klimarisiko, die durch Alarmismus und „Aussterbe“-Rhetorik angetrieben wird, hat wohl die Schwelle zur tatsächlichen Erhöhung des mit dem Klimawandel verbundenen sozialen Risikos überschritten.

Einfache Risiken sind durch geringe Komplexität, wenig Unsicherheit und kaum Mehrdeutigkeit gekennzeichnet. Die beunruhigendsten Risiken sind jedoch nicht mit einfachen Problemen verbunden. Wilde Risiken sind mit hoher Unsicherheit und sogar Unwissenheit verbunden. Komplexität führt zu einem systemischen Risiko. Im Zusammenhang mit dem Begriff „Durcheinander“ bedeutet „Mehrdeutigkeit“, dass es verschiedene legitime Standpunkte gibt, von denen aus beurteilt werden kann, ob es nachteilige Auswirkungen gibt oder geben könnte, und ob diese Risiken tolerierbar sind. Mehrdeutigkeit resultiert aus unterschiedlichen und umstrittenen Sichtweisen über die Rechtfertigung, den Schweregrad oder die breitere Bedeutung, die mit einer wahrgenommenen Bedrohung.

Das Konzept des Emerging Risk – also des neu aufkommenden und sich verstärkenden Risikos – gewinnt zunehmend an Aufmerksamkeit.

Die globale Erwärmung ist eindeutig ein neu auftretendes Risiko. Ein wichtiger Gesichtspunkt bei der Betrachtung neu auftretender Risiken ist die Geschwindigkeit, mit der sie signifikant werden können, was als Risikogeschwindigkeit bezeichnet wird.

Direkte Risiken können nichtlinear sein – während sich die durchschnittlichen Bedingungen allmählich ändern, können die Risiken schneller ansteigen, wenn kritische Schwellenwerte für die Anfälligkeit überschritten werden.

Systemische Risiken sind durch ein hohes Maß an Komplexität, Ungewissheit und Mehrdeutigkeit gekennzeichnet. Viele Probleme, die als „wicked mess“ (böse) eingestuft werden, können auch als systemische Risiken eingeordnet werden.

Die größten Risiken im Zusammenhang mit dem Klimawandel sind systemischer Natur. Systemische Risiken sind viel schwieriger zu bewerten als direkte Risiken. Systemische Risiken können durch einen lokal auftretenden Stressfaktor wie ein extremes Wetterereignis ausgelöst werden, dessen Auswirkungen weit über den betroffenen Ort hinausgehen können. Ein Beispiel aus dem Bereich der nationalen und internationalen Sicherheit: Systemische Risiken werden durch regionale Dürren ausgelöst, die zu Migration und Vertreibung, Preissteigerungen bei Lebensmitteln, Unruhen, Staatszerfall, Terrorismus, humanitären Krisen und grenzüberschreitenden Wasserstreitigkeiten führen.

Gefährdungsereignisse, die früher vielleicht nur lokale Auswirkungen hatten, können nun kaskadenartige und sogar globale Auswirkungen haben.

Die Risikobewertung ist ein systematischer Prozess, bei dem es darum geht, Risikoquellen, Bedrohungen, Gefahren und Chancen zu identifizieren, zu verstehen, wie diese sich verwirklichen bzw. eintreten können, spezifische auslösende Ereignisse und Ereignisabläufe sowie deren mögliche Folgen zu identifizieren, Unsicherheiten darzustellen und auszudrücken und die Bedeutung des Risikos zu bestimmen. Die Aufgabe der Risikobewertung besteht darin, Verständnis, Kommunikation und Entscheidungsprozesse zu unterstützen.

Die herkömmliche Risikobewertung basiert auf historischen Daten, d. h. auf der Bewertung der Wahrscheinlichkeit von Schweregrad, Häufigkeit und Auswirkungen aufgrund von Erfahrungen aus der Vergangenheit. In Zeiten des globalen Wandels ist dieser Ansatz nicht mehr ausreichend, um zukünftige Risiken zu erfassen.

Neben der Wahrscheinlichkeit und den Auswirkungen des Risikos sollten auch Werte und Nebenaspekte, die zur Risikowahrnehmung beitragen, in die Risikobewertung einbezogen werden. Darüber hinaus erfordert die Risikobewertung Risiko/Nutzen- und Risiko / Risiko-Abwägungen. Risiken müssen im Zusammenhang mit allen relevanten Dimensionen bewertet werden, die für die betroffenen Bevölkerungsgruppen von Bedeutung sind.

Enge Risikobewertungen von gut verstandenen Phänomenen mit einer Fülle von Daten können unumstritten sein. Bei umstrittenen Themen kann das Ergebnis einer Risikobewertung jedoch stark von den vielen inhärenten Werturteilen beeinflusst werden, die der Analytiker (oft unbewusst) trifft. Wissenschaftliche Studien haben Schwierigkeiten, Differenzen zu klären, wenn der Prozess der Wertannahme undurchsichtig ist. Kluge politische Entscheidungsträger werden wahrscheinlich allzu sichere Einschätzungen zurückweisen, wenn sie ihre Voreingenommenheit oder Naivität richtig einschätzen. Ein offener Dialog über Wertannahmen schafft Vertrauen und verringert die Sorge vor versteckten Absichten.

„Die Zeit heilt nichts. Sie bringt nur andere Probleme und Gewebe mit sich und nimmt das, was unheilbar oder inakzeptabel ist, aus dem Zentrum unserer Aufmerksamkeit.“

Normale Risiken zeichnen sich durch geringe Komplexität, geringe statistische Unsicherheit und ein geringes Katastrophenpotenzial aus (Knight’sches oder mildes Risiko). Sie werden von der Wissenschaft sehr gut verstanden und sind durch Regulierungsmechanismen leicht in den Griff zu bekommen.

Die Risiken des Klimawandels werden von unterschiedlichen Personen und Gruppen als akzeptabel, tolerierbar oder untragbar eingestuft – eine eindeutig zweideutige Situation.

Am Beispiel der extremen Wetterrisiken wird die relativ routinemäßige Zerstörung durch Hurrikane in bestimmten Küstenregionen im Allgemeinen als tolerierbar eingestuft, wobei einige Orte daran arbeiten, die Anfälligkeit im Laufe der Zeit zu verringern, indem sie die Bauvorschriften verbessern und zudem die Küste so gestalten, dass die Auswirkungen der Sturmflut minimiert werden.

Im Gegensatz dazu wurde ein seltenes, aber extremes Ereignis wie der Supersturm Sandy, der New York City heimsuchte, als nicht tolerierbares Risiko und großes Anpassungsdefizit eingestuft, da die Bevölkerung und die Immobilienwerte stark betroffen waren und sich die Infrastruktur als sehr anfällig erwies.

Bei komplexen Problemen lassen sich oftmals weder die Risiken noch die Vorteile klar erkennen oder vereinbaren. Mehrere Dimensionen und Werte müssen berücksichtigt werden. Eine stark umstrittene Bewertung der (Un -) Verträglichkeit oder Akzeptanz von Risiken stellt im Zusammenhang mit der Mehrdeutigkeit des Risikos einen äußerst wichtigen Beitrag zum Entscheidungsprozess dar.

Bei den meisten Problemen des systemischen Risikos gibt es zahlreiche unklare und unbekannte Unwägbarkeiten. Aufgrund der Komplexität des systemischen Risikos und des begrenzten Verständnisses der Risikoausbreitungswege bestehen erhebliche Unsicherheiten in Bezug auf die Kaskadenwirkung des systemischen Risikos auf den Einflussbereich.

Die Hauptmerkmale des Systemrisikos lassen sich grob in fünf Kategorien einteilen: die Größe des Systems, die Beziehung zwischen den Elementen innerhalb eines Systems, die Ebene des Systemverständnisses, die grenzüberschreitenden Auswirkungen und die Folgen des Systemrisikos.

Angesichts der großen Ungewissheit über den künftigen Zustand komplexer Systeme stützt sich eine Bewertung des Systemrisikos auf die Instrumente der Szenarien und des Wargamings, die dabei helfen, uns vorzustellen, was passieren könnte. Eine zentrale Herausforderung für das systemische Risiko bei der Bewertung besteht darin, die wichtigsten Zusammenhänge und das Potenzial für kritische Übergänge zu ermitteln, und zwar im Zusammenhang damit, wie systemische Risiken durch voneinander abhängige Netzwerke in physischen und sozialen Systemen kaskadenartig wirken. Komplexe Herausforderungen wie Pandemien oder der Klimawandel sollten im globalen Kontext von Megatrends wie Urbanisierung, Bevölkerungswachstum, demografischen Veränderungen, Umweltzerstörung und technologischem Wandel bewertet werden.

Die Verdrehung der Klimawissenschaft und die Herstellung eines Konsenses über den vom Menschen verursachten Klimawandel (Kapitel zwei) haben nicht nur die wissenschaftlichen und sozialen Herausforderungen zu sehr vereinfacht, sondern auch zur Annahme einer „Vorhersage- und dann Handlungsstrategie“ zur Steuerung und Kontrolle des Klimas geführt. Diese Strategie beruht auf der Überzeugung, dass der Klimawandel ein einfaches oder zahmes Problem ist, bei dem die Wissenschaft mit all ihren Unwägbarkeiten alle praktischen Fragen und widersprüchlichen Werte und Ziele übertrumpft.

Das Endergebnis ist, dass wir nach 30 Jahren UNFCCC / IPCC immer noch nur auf die Treibhausgasemissionen und das abstrakte und unmöglich lösbare Problem der Begrenzung der atmosphärischen CO₂-Konzentration fixiert sind, während wir sowohl die natürlichen Klimaschwankungen ignorieren als auch die menschlichen Auswirkungen und Reaktionen drastisch vereinfachen.

„Ein gut formuliertes Problem ist halb gelöst.“ (Philosoph John Dewey).

Systemische Risiken, die durch den Klimawandel verursacht werden, weisen drei grundlegende Merkmale auf: (1) das große Ausmaß der Auswirkungen, die ein breites Spektrum natürlicher, wirtschaftlicher und sozialer Systeme betreffen ; (2) die lange Dauer der Auswirkungen ; und (3) die Kumulierung dieser Auswirkungen, die im Laufe der Zeit zunehmen.

Die Ereignisse mit geringer Wahrscheinlichkeit/hoher Auswirkung sind mit den größten Risiken verbunden, vorausgesetzt, die Ereignisse werden als plausibel eingestuft oder sind in der Vergangenheit eingetreten. Dennoch können auch die kumulativen Auswirkungen schwächerer Ereignisse erheblich sein.

Die scheinbar überwältigende Herausforderung der Klimarisikobewertung und die damit verbundenen politischen Konflikte lassen sich besser bewältigen, wenn man das inkrementelle, sich abzeichnende Risiko von dem mit Wetter- und Klimaextremen verbundenen Notfallrisiko trennt.

Durch die Regionalisierung der Risikobewältigung hängt der Managementansatz nicht von einem unmöglichen globalen Abkommen für eine zweifelhafte „perfekte“ Lösung ab, die moralischen und politischen Zwang erfordert. Der regionale Ansatz bietet einen gangbaren Weg, der die bestehenden Interessen und Werte der betroffenen Menschen respektiert. Dieser Ansatz funktioniert innerhalb unserer bestehenden politischen Institutionen und bietet transparente Argumente für Maßnahmen innerhalb unseres derzeitigen Werterahmens, anstatt von uns allen zu verlangen, eine neue und enge Reihe von Werten anzunehmen.

„Es gibt keine größere Kraft für Veränderungen als eine Gemeinschaft, die entdeckt, was ihr wichtig ist.“ (Schriftstellerin Margaret Wheatley).

„Die bedauerliche Realität ist, dass die Bemühungen um die Regulierung eines Risikos andere, oft gefährlichere Risiken schaffen können.“ (Rechtswissenschaftler Jonathan Adler)

Der ALARP-Grundsatz (As Low As Reasonably Practical, so niedrig wie vernünftigerweise möglich) besagt, dass die Exposition gegenüber Gefahren (Risiken) auf ein so geringes Maß wie vernünftigerweise möglich reduziert werden muss. Kontinuierliche Verbesserung ist ein Schlüsselelement von ALARP.

Es gibt drei Hauptstrategien für das Risikomanagement bzw. die Risikosteuerung: 21 (I) Risikoinformierte Strategien – Kosten / Nutzen und erwarteter Nutzen für gut charakterisierte Risiken ; (II) Vorsichts-/ Vorsichtsstrategien – Vorsorgeprinzip ; Robustheit und Widerstandsfähigkeit bei Risiken mit Ungewissheit, Komplexität und Überraschungspotenzial ; (III) Diskursive Strategien – Zweideutigkeit der verschiedenen Ansichten in Bezug auf die relevanten Werte.

Einfache Risiken mit relativ geringer Ungewissheit und geringem Einsatz sind eine bequeme Domäne für angewandte Wissenschaft und Technik, in der die Anwendung von Kosten-Nutzen- und Erwartungsnutzen-Analysen einfach ist. Wenn die Ungewissheit groß ist und / oder viel auf dem Spiel steht, ist das Entscheidungsumfeld viel unbeständiger, und verschiedene Risikomanagementkonzepte können widersprüchliche Empfehlungen geben. Viele Risiken der Kategorien (II) oder (III) werden jedoch so behandelt, als gehörten sie zur Kategorie (I). Die Folgen dieses Missmanagements reichen von sozialer Verstärkung oder unverantwortlicher Abschwächung des Risikos, anhaltenden Kontroversen, Blockaden, Legitimitätsproblemen, Konflikten und teuren Abhilfemaßnahmen. 22 Wir sehen alle diese Folgen im Zusammenhang mit dem Missmanagement von Klimarisiken, wenn wir davon ausgehen, dass es sich um ein einfaches Risiko der Kategorie (I) handelt.

Wenn Komplexität vorherrscht und Ungewissheit und Mehrdeutigkeit gering sind, oder bei Risikoproblemen, die sehr mehrdeutig sind, ist ein diskursbasiertes Management sinnvoll. Diskursive Strategien beruhen auf einem partizipativen Prozess, der sowohl Interessengruppen als auch die betroffene Öffentlichkeit einbezieht. Ziel eines solchen Prozesses ist es, ein kollektives Verständnis darüber zu schaffen, wie die Situation zu interpretieren ist und wie Verfahren zur Rechtfertigung kollektiv verbindlicher Entscheidungen über Akzeptanz und Tolerierbarkeit zu gestalten sind. Die Aufgabe der Risikomanager besteht darin, eine Situation zu schaffen, in der diejenigen, die der Meinung sind, dass es sich lohnt, das Risiko einzugehen, und diejenigen, die der Meinung sind, dass die drohenden Folgen den potenziellen Nutzen nicht rechtfertigen, bereit sind, Strategien zu entwickeln, die für die verschiedenen Interessen akzeptabel sind.

Die Meinungsverschiedenheiten über die Tolerierbarkeit von Klimarisiken und die vorgeschlagenen Lösungen machen diskursive Strategien erforderlich, obwohl die Polarisierung auf beiden Seiten der Klimarisikodebatte die Suche nach einer gemeinsamen Basis sehr schwierig macht.

Vorsichtsprinzip: „Wenn die Folgen einer Tätigkeit schwerwiegend und mit Unsicherheiten behaftet sein könnten, sollten Vorsichtsmaßnahmen ergriffen oder die Tätigkeit nicht durchgeführt werden.“- Vorsorgeprinzip: „Wenn die Folgen einer Tätigkeit schwerwiegend sein könnten und mit wissenschaftlichen Unsicherheiten behaftet sind, sollten Vorsorgemaßnahmen ergriffen werden oder die Tätigkeit sollte nicht durchgeführt werden. „

Das Vorsorgeprinzip beruht auf der Annahme, wonach eine falsche Vorhersage, dass eine menschliche Tätigkeit nicht zu erheblichen Umweltschäden führen wird, in der Regel schädlicher für die Gesellschaft ist als eine falsche Vorhersage, dass sie zu erheblichen Umweltschäden führen wird.

Das Vorsorgeprinzip macht uns blind für viele Aspekte von Risikosituationen und konzentriert sich nur auf einen engen Ausschnitt dessen, was auf dem Spiel steht.

Vor COVID-19 war das Vorsorgeprinzip noch nie so umfassend angewandt worden und wirkte sich in beinahe jeder Hinsicht auf das Privatleben der Bevölkerung aus.

Die Tragödie besteht darin, dass, als sich die schlimmsten Vermutungen über das Virus als falsch herausstellten, die Abriegelungsmaßnahmen weiterhin durchgesetzt wurden.

Wir müssen für die nächste Pandemie planen und Risikomanagementstrategien entwickeln, die wirksamer sind als eine panische Anwendung des Vorsorgeprinzips.

„Keine Vorsichtsmaßnahme und kein Vorsorgeprinzip kann Probleme vermeiden, die wir noch nicht absehen können. Daher brauchen wir eine Haltung der Problembehebung, nicht nur der Problemvermeidung.“ (Physiker David Deutsch)

Die Risikobewertung ist nur begrenzt in der Lage, alle Aspekte des Risikos und der Ungewissheiten zu erfassen, insbesondere unter Bedingungen mit einem hohen Maß an Zufälligkeit und Komplexität (einschließlich möglicher Überraschungen), und muss daher durch Maßnahmen der Robustheit und Widerstandsfähigkeit ergänzt werden. Resilienz und Robustheit fallen unter die Kategorie der Vorsichts- und Vorsorgemaßnahmen des Risikomanagements.

Die Resilienz kann weiter unterteilt werden in eine allgemeine und eine spezifische Resilienz. Die allgemeine Resilienz eines Systems ermöglicht es ihm, auf jede Art von Schock oder Stress wirksam zu reagieren, auch auf unerwartete oder unbekannte Ereignisse auftreten. Die spezifische Resilienz hingegen spiegelt die Fähigkeit des Systems wider, mit einer ganz bestimmten Belastung oder einem spezifischen Schock umzugehen und gleichzeitig eine bestimmte Funktion aufrechtzuerhalten. Der Aufbau einer allgemeinen Resilienz, die sich darauf konzentriert, das System auf unbekannte Störungen vorzubereiten, ist besonders vorteilhaft in Situationen mit großer Zufälligkeit oder hoher Komplexität innerhalb des Systems.

Ein belastbares System oder eine belastbare Organisation sind gekennzeichnet durch: Sensibilisierung für Veränderungen im externen und internen Umfeld sowie im Bereich des Risikomanagements, sodass eine ständige Beachtung der Widerstandsfähigkeit gewährleistet ist ; „Vorbeugen, schützen und vorbereiten“ in Bezug auf alle Arten von Ressourcen ; und „Reagieren, wiederherstellen und überprüfen“ in Bezug auf störende Ereignisse, einschließlich der Fähigkeit, rasch zu reagieren, die gewonnenen Erkenntnisse zu überprüfen und sich anzupassen.

Robustheit ist die Eigenschaft, stark zu sein und nicht versagen zu können – das Gegenteil von Anfälligkeit. Im Zusammenhang mit einem System bezieht sich Robustheit auf die Fähigkeit, Störungen zu tolerieren, die die Funktion des Systems beeinträchtigen könnten. Robustheit kann definiert werden als „die Fähigkeit eines Systems, Veränderungen zu widerstehen, ohne seine stabile Ausgangskonfiguration zu verändern“.

Es ist vernünftig, ein System, eine Politik, eine Maßnahme oder eine Entscheidung als sehr robust zu betrachten, wenn die meisten oder alle der folgenden Attribute vorhanden sind, und als unzureichend robust, wenn sie in allen Attributen schwach sind: Die Widerstandsfähigkeit eines Systems ist die Eigenschaft der schnellen Wiederherstellung kritischer Funktionen. Ein System oder eine Regelung sind robust gegenüber Ungewissheit, wenn es / sie sich schnell von einer negativen Überraschung erholen und wesentliche Ergebnisse erzielen kann. Redundanz ist die Eigenschaft, mehrere alternative Lösungen anzubieten. Robustheit gegenüber Überraschungen kann dadurch erreicht werden, dass alternative Antworten zur Verfügung stehen. Flexibilität ist die Fähigkeit zur schnellen Änderung von Verfahren und Methoden. Anpassungsfähigkeit ist die Fähigkeit, Ziele und Methoden mittel- bis langfristig anzupassen. Ein System ist robust, wenn es angepasst werden kann, sofern sich Informationen und Erkenntnisse ändern. Die Universalität eines Systems oder einer Regulierung ist die interdisziplinäre, systemweite Kohärenz, mit der die vielschichtige Natur des Problems angegangen wird. Ein System ist robust, wenn es relevante Überlegungen aus den Bereichen Technologie, Organisationsstruktur und -fähigkeiten, kulturelle Einstellungen und Überzeugungen, historischer Kontext, wirtschaftliche Mechanismen und andere Faktoren integriert.

Die Stabilisierung der Treibhausgaskonzentrationen auf einem Zielniveau ist eine nicht robuste Strategie in einem Umfeld, das extrem unsicher und nichtlinear ist. Das Stabilisierungskonzept geht implizit davon aus, dass ein hohes Vertrauen in die Festlegung des Zielniveaus besteht, und mit einem Zielniveau keine oder nur geringe Risiken verbunden sind. Außerdem geht es davon aus, dass die Risiken, die mit einer Sicherheitsmarge in Höhe des Zielwerts verbunden sind, geringer sind als die mit der Einhaltung des Ziels verbundenen Risiken und Kosten. Das Konzept der Robustheit in Bezug auf den Klimawandel spricht für den Aufbau eines breiten technologischen Portfolios von Abschwächungs- und Anpassungsmaßnahmen, die angesichts der Unsicherheiten der physikalischen und sozioökonomischen Systeme nützlich und wirksam sein könnten.

Die Bewältigung systemischer Risiken und komplexer Probleme wird nicht nur durch die hohe Komplexität erschwert, sondern auch durch das Fehlen eines bestimmbaren Endpunkts der Stabilität. Angesichts der äußerst komplizierten Abhängigkeiten zwischen den vielen beweglichen Komponenten innerhalb eines komplexen dynamischen Systems kann die Lösung eines Teils eines Problems an anderer Stelle im System tatsächlich mehr Probleme schaffen.

Die Bewältigung systemischer Risiken erfordert die Entwicklung verbesserter Ansätze zur Förderung von Systemdenken und Systemansätzen.

Systemdenken beinhaltet Folgendes:

  • Herstellung sinnvoller Verbindungen innerhalb und zwischen Systemen;
  • Das große Ganze verstehen wollen;
  • Perspektivenwechsel für mehr Verständnis: Bewertung, wie unsere mentalen Modelle unsere Ansichten und Handlungen prägen;
  • Beobachten, wie sich Elemente innerhalb von Systemen im Laufe der Zeit verändern;
  • Hinterfragen unserer Überzeugungen und Annahmen;
  • Erkennen, dass die Struktur eines Systems sein Verhalten erzeugt;
  • Erkennen des zirkulären Charakters und der Rückkopplungen in komplexen Ursache-Wirkungs-Beziehungen;
  • Verständnis für die Auswirkungen von Zeitverzögerungen bei der Untersuchung von Ursache- und Wirkung-Beziehungen;
  • Berücksichtigung kurzfristiger, langfristiger und unbeabsichtigter Folgen von Maßnahmen;
  • Umfassende Prüfung der Frage und dabei dem Impuls zu widerstehen, zu einem schnellen Ergebnis kommen zu wollen;
  • Nutzung des Verständnisses der Systemstruktur zur Ermittlung möglicher Hebelwirkungen;
  • Überprüfung der Ergebnisse und ggf. Änderung der Maßnahmen.

Entscheidungsfindung unter großer Ungewissheit – Decision Making Under Deep Uncertainty (DMDU)

Im Gegensatz zu Strategien wie der Kosten-Nutzen-Analyse basiert die Entscheidungsfindung im Kontext großer Ungewissheit nicht auf Vorhersagen über die Zukunft – dem „predictthen-act“-oder „agree-on-assumptions“-Paradigma. DMDU kehrt die Entscheidungsfindung um. Dieser Ansatz strebt eine solide Entscheidung an – eine Entscheidung, die sich in einem breiten Spektrum möglicher Zukünfte, Präferenzen und Weltanschauungen bewährt, auch wenn sie für eine bestimmte nicht optimal ist. Der Ansatz der „Einigung auf eine Entscheidung“ verschiebt die Einigung, bis die Optionen unter vielen verschiedenen Annahmen bewertet worden sind.

Ein ergänzendes Element von DMDU ist die Vorbereitung auf ungewisse Ereignisse oder Bedingungen, indem beobachtet wird, wie sich die Zukunft entwickelt, und indem im Laufe der Zeit Anpassungen vorgenommen werden können, wenn neue Erkenntnisse gewonnen werden. „Überwachen und Anpassen“ erkennt ausdrücklich die weitgehende Ungewissheit an, die die Entscheidungsfindung über lange Zeitfenster hinweg umfasst, in denen ungewisse Ereignisse auftreten können.

Die Entscheidungsfindung in komplexen und unsicheren Systemen erfordert in der Regel die Einigung mehrerer Akteure. Dies erfordert einen iterativen Ansatz, der das Lernen über alternative Problemstellungen, Präferenzen der Beteiligten und Kompromisse erleichtert, und zwar im Kontext des Möglichen.

Robuste Entscheidungsfindung (Robust Decision Making, RDM) beginnt mit einer Reihe von Entscheidungsalternativen und zielt darauf ab, die Ungewissheiten so zu beschreiben, dass die Kompromisse zwischen ihnen sinnvoll herausgestellt werden. Dieser umgekehrte Entscheidungsfindungsprozess fördert den Konsens über robuste Entscheidungen und hilft bei der Bewältigung von Unsicherheiten und Meinungsverschiedenheiten.

Entscheidungen mit umgekehrten Prozessen zu treffen, die zuerst die Optionen analysieren und dann eine Einigung anstreben, hat folgende Vorteile:

  • Schaffung von Akzeptanz durch Einbeziehung unterschiedlicher Überzeugungen und transparente Analysen;
  • Identifizierung robuster Strategien, die in jedem Zukunftsszenario erfolgreich sein können;
  • Die Entscheidungsträger müssen sich auf die Kompromisse zwischen den verfügbaren Optionen konzentrieren;
  • Bemühung um eine Einigung in den wichtigsten Fragen: Maßnahmen, nicht Annahmen;
  • Sicherstellung, dass die Entscheidungsträger und nicht die Experten und Analysten die Entscheidung treffen.

Der Prozess der Entscheidungsvereinbarung beginnt mit einem Stresstest der Entscheidungsoptionen unter einer breiten Palette plausibler Bedingungen. Die Entscheidungsoptionen werden wiederholt unter vielen verschiedenen Annahmen bewertet – eine Einigung über diese Annahmen ist nicht erforderlich. Diese Analyse zeigt, welche der Optionen robust sind, d. h. den Anforderungen unter einer Vielzahl von Bedingungen entsprechen und nicht nur unter einigen wenigen gut funktionieren

Zu den robusten Entscheidungsoptionen gehören:

  • No- und Low-Regret-Entscheidungen [Entscheidungen, die man nicht oder kaum bereuen wird],
  • Umkehrbare und flexible Entscheidungen,
  • Entscheidungen über die Sicherheitsmarge,
  • Entscheidungen mit verkürzten Zeithorizonten.

No- und Low-Regret-Entscheidungen sind sehr nützlich, egal, was die Zukunft bringt. Das Aufspüren bestehender Mängel in Systemen oder Prozessen kann No-regret-oder Low-regret-Strategien für eine ungewisse Zukunft aufzeigen. So sind beispielsweise die Steigerung der Energieeffizienz, die Beseitigung von Wasser- und Methanlecks und die Begrenzung der Entwicklung in überschwemmungsgefährdeten Gebieten gute Investitionen, unabhängig davon, wie sich das Klima und andere Faktoren verändern. Solche Strategien sind kurzfristig vorteilhaft, leicht umsetzbar und bieten Vorteile unter einer Vielzahl zukünftiger Bedingungen.

Reversible und flexible Entscheidungen sind im Allgemeinen robuster als irreversible Entscheidungen, da sie eine Anpassung der Entscheidungen an neue Informationen ermöglichen, was dazu beiträgt, ggf. das Bedauern zu verringern. Jährliche Anpassungen der Versicherung werden als Reaktion auf neue Informationen über aufkommende Risiken vorgenommen, was ein Beispiel für Flexibilität ist. Die Verzögerung eines Infrastrukturprojekts, während Umwelt- und Klimarisiken weiter untersucht werden, ist ein Beispiel für eine reversible Entscheidung – die Entscheidung, nicht sofort zu bauen, kann leicht rückgängig gemacht werden, nachdem eine positive Analyse ergeben hat, dass der Standort geeignet und sicher ist. Während des Entscheidungsprozesses ist es wichtig, den Wert der Umkehrbarkeit einer Strategie (den Optionswert) zu berücksichtigen.

Strategien für Sicherheitsmargen sind eine relativ kostengünstige Möglichkeit, das Risiko von Infrastrukturentscheidungen zu verringern und die Robustheit zu erhöhen.

Strategien mit Sicherheitsmargen sind gerechtfertigt, wenn es relativ kostengünstig ist, die Infrastruktur so zu gestalten, dass sie erhöhten Belastungen, wie dem Anstieg des Meeresspiegels standhält. Eine nachträgliche Änderung des Systems kann schwierig und teuer sein.

Sicherheitsmargen sind besonders wichtig für Anpassungsmaßnahmen, die nicht reversibel oder flexibel sind, wie z. B. eine Brücke. Plausible Worst-Case-Szenarien (Kapitel Neun) liefern einen wichtigen Beitrag zur Planung von Sicherheitsmargen.

Die Verringerung der mit einer Entscheidung verbundenen Unsicherheit kann auch durch eine Verkürzung der Lebensdauer von Investitionen erreicht werden. Wenn Häuser und andere Gebäude in einem hurrikangefährdeten Küstengebiet oder in anderen überschwemmungsgefährdeten Gebieten gebaut werden sollen, besteht eine Strategie darin, billigere Gebäude mit kürzerer Lebensdauer zu bauen, anstatt hochwertige Gebäude, die auf eine Lebensdauer von einem Jahrhundert ausgelegt sind.

Robustheit wird zu einem wichtigen Entscheidungskriterium, wenn die Folgen einer falschen Entscheidung hoch sind.

Die adaptive Planung macht deutlich, wie wichtig die Überwachung und Anpassung an zeitliche Veränderungen ist, um zu verhindern, dass die ursprünglichen Maßnahmen scheitert.

In der internationalen Klimapolitik setzt sich allmählich die Erkenntnis durch, dass es aufgrund der Trägheit des Klimasystems keine Garantie für einen schnellen Nutzen gibt, selbst wenn die Emissionen relativ bald gestoppt werden. Außerdem sind Länder und Kommunen bereits jetzt anfällig für Wetter- und Klimaextreme, was für den Aufbau anpassungsfähiger, widerstandsfähiger Kommunen spricht.

Mit dem Finger auf den Klimawandel zu zeigen, schafft ein politisch bequemes Krisennarrativ, das von einer schlechten Politik ablenkt, die soziale und physische Anfälligkeit geschaffen und aufrechterhalten hat.

Die klimazentrierte Darstellung von Katastrophen und anderen sozialen Problemen blendet genau diejenigen sozioökonomischen und politischen Faktoren aus, die tatsächlich Anfälligkeit und Leid infolge von Wetter- und Klimaextremen verursachen. Das klimazentrierte Katastrophen-Framing ist politisch nützlich für Politiker, die die Aufmerksamkeit von lokalem, nationalem und internationalem Politikversagen ablenken wollen.

Einige Systeme sind so konzipiert, dass sie bereits in der Planungs- und Bauphase auf Ausfälle vorbereitet sind, wie z. B. Kernkraftwerke. „Safe-to-fail“ ist ein aufkommendes Paradigma, das im weitesten Sinne Anpassungsstrategien beschreibt, die ein Versagen der Infrastruktur zulassen, aber die Folgen des Versagens unter Kontrolle halten oder minimieren.

„Safeto-fail“-Ansätze umfassen Technologien, die die Folgen eines Infrastrukturversagens in den Entwicklungsprozess einbeziehen. Die Planung und Gestaltung einer ausfallsicheren Infrastruktur unterstützt den Umgang mit Unvorhersehbarkeiten und die Anpassung der Infrastruktur an eine Vielzahl von Schocks, Überraschungen und Umweltgefahren, einschließlich veränderter Klimabedingungen.

Stromausfälle im Zusammenhang mit extremen Wetterereignissen kosten die US-Unternehmen schätzungsweise mehr als 27 Milliarden US-Dollar pro Jahr, und die Tendenz ist steigend.

Safe-to-Fail-Strategien können den Schaden eines Extremereignisses minimieren, selbst wenn die physische Strominfrastruktur unzureichend ist. Die betriebliche Widerstandsfähigkeit wird ermöglicht durch:

  • Lernen aus vergangenen Systemausfällen und Wiederherstellungen;
  • System- und Situationsbewusstsein, das durch Überwachungssensoren, fortschrittliche Kommunikation und Analysen ermöglicht wird;
  • fortschrittliches Anlagenmanagement und Ausfallmanagementsysteme;
  • Vorpositionierung von Geräten, Ersatzkomponenten und Personal für eine schnelle Systemwiederherstellung vor dem Ereignis;
  • und die Nutzung innovativer Technologien, um Verbrauchern, Kommunen und Institutionen dabei zu helfen, ein gewisses Maß an normaler Funktion ohne vollständigen Zugang zu ihren normalen Stromquellen aufrechtzuerhalten.
  • Stresstests für das gesamte System werden anhand von Szenarien für extreme Ereignisse durchgeführt.

Der US-Bundesstaat Florida wurde in der Vergangenheit von 41 Prozent aller in den USA landenden Hurrikane heimgesucht.

Bei Hurrikan Irma (2017) beschäftigte FPL 28.000 Mitarbeiter, darunter fast 20.000 Mitarbeiter aus 30 US-Staaten und Kanada, um die Ausfälle bei 4,8 Millionen Kunden zu beheben. Diese Mitarbeiter wurden zusammen mit mobilen Kommandoeinheiten bereits mehrere Tage vor dem Eintreffen des Hurrikans in Stellung gebracht.

Die schnelle Wiederherstellung der Stromversorgung nach einem Wirbelsturm hat eindeutig nichts mit Glück zu tun.

Anpassung ist grundsätzlich lokal – auf bestimmte Standorte zugeschnitten, damit Kommunen flexible und schrittweise Lösungen annehmen können. Es gibt kein allgemeingültiges Patentrezept, das sich auf alle Länder und Kommunen übertragen lässt. Wenn sie effektiv durchgeführt wird, überwiegen die Vorteile der lokalen Anpassung die geschätzten Kosten. Die Vermeidung von Verlusten und Schäden durch Wetter- und Klimastressoren erschließt wirtschaftliches Potenzial für die Region.

Überstürzte Investitionen in langlebige Anpassungsmaßnahmen sind zu vermeiden, es sei denn, diese sind gegenüber einer Vielzahl von klimatischen Entwicklungen robust oder der Grad der Ungewissheit hinsichtlich zukünftiger Wetterschwankungen und des Klimas hat sich verringert. Am besten beginnt man mit Maßnahmen mit geringem Risiko, die auch ohne den Klimawandel vorrangig wären – insbesondere in den Bereichen Wasserversorgung und Hochwasserschutz.

Die Anpassungsmaßnahmen, die am wenigsten wahrscheinlich zu einer Fehlanpassung führen, sind diejenigen, die auf eine Verbesserung der Anpassungsfähigkeit abzielen, während diejenigen, die sich auf die Verringerung der Exposition konzentrieren, das größte Risiko einer Fehlanpassung bergen.

Eine Überbetonung der Erholung ohne Berücksichtigung der Transformation führt zu Resilienzfallen, bei denen die Erholung eine positive Transformation verhindert und wenig adaptive Zustände aufrechterhält.

Katastrophen entstehen durch das Zusammentreffen von Gefahren, Anfälligkeit und Exposition von Menschen und Vermögenswerten. Katastrophen sind die Auswirkungen menschlicher Entscheidungen und entstehen durch eine Kombination aus menschlichen Eingriffen in natürliche Prozesse, der sozialen Erzeugung von Anfälligkeit und der Vernachlässigung von Reaktionsmöglichkeiten

Armut trägt zu einer erhöhten Katastrophenanfälligkeit und einer geringeren Fähigkeit bei, Katastrophen zu bewältigen und sich davon zu erholen. Katastrophen wiederum verstärken die Armut erheblich, indem sie die Bewältigungskapazitäten einschränken oder beseitigen. Die Hilfe nach einer Katastrophe kann zu einer Resilienzfalle führen, wenn keine Anstrengungen unternommen werden, um die zugrunde liegende Armut zu lindern.

Eine gute Katastrophenvorsorge zielt darauf ab, die Entstehung von Anfälligkeit und Gefährdung zu vermeiden, indem die Ursachen und Triebkräfte des Risikos bekämpft werden.

Allein in Indien werden jedes Jahr durchschnittlich sechs Millionen Hektar Land überschwemmt, wovon 35-40 Millionen Menschen betroffen sind.

Das Sendai-Rahmenwerk der Vereinten Nationen zur Verringerung des Katastrophenrisikos 2015-2030 konzentriert sich auf die Annahme von Maßnahmen, die alle Dimensionen des Katastrophenrisikos – Gefahr, Exposition, Anfälligkeit und Bewältigungskapazitäten – berücksichtigen.

Nach der Hälfte der Laufzeit des Sendai-Rahmens (2015-30), ist keines der Ziele auf dem Weg, bis 2030 erreicht zu werden. Stattdessen haben die direkten wirtschaftlichen Verluste und Schäden an kritischen Infrastrukturen in den letzten zehn Jahren erheblich zugenommen. Die Einführung von Frühwarnsystemen für mehrere Gefahren ist möglicherweise das erfolgreichste Element des Rahmens, auch wenn diese Bemühungen noch ausgeweitet und effektiver gestaltet werden müssen. Die Finanzierung von Katastrophen hat zwar seit 2010 zugenommen, aber die meisten Mittel wurden für die Reaktion auf und die Erholung von Katastrophen eingesetzt.

Die Schaffung von mehr Widerstandsfähigkeit in armen Ländern erfordert energieintensive Investitionen in Wohnraum, Verkehrsinfrastruktur und landwirtschaftliche Technologien. Wirtschaftliche Entwicklung erfordert die Verfügbarkeit von billiger, zuverlässiger und reichlich vorhandener Energie.

Entwicklungshilfe und Armutsbekämpfung erfordern reichlich und billige Energie, und Erdgas gilt für die meisten Länder als die beste kurzfristige Lösung.

Die Begrenzung von Projekten für fossile Brennstoffe behindert die Entwicklung in Afrika erheblich. Afrika leidet unter Energiemangel; die eine Milliarde Menschen in Subsahara-Afrika haben eine Stromerzeugungskapazität, die geringer ist als die Großbritanniens mit 67 Millionen Menschen.

Man kann die Bedeutung von Erdgas als Übergangskraftstoff in Entwicklungsländern, insbesondere in Afrika, gar nicht hoch genug einschätzen. Die Ironie besteht darin, dass selbst eine Verdreifachung des Energieverbrauchs und der Emissionen in den afrikanischen Ländern südlich der Sahara, die durch Erdgas angetrieben werden, die globalen Gesamtemissionen um lediglich 0,6 Prozent erhöhen würde. Die IEA (International Energy Agency) geht davon aus, dass Afrika bis 2050 unabhängig vom Energieszenario nicht mehr als 4 Prozent der globalen CO₂-Emissionen ausmachen wird.

Und schließlich wird die Verlagerung für die drei Milliarden Menschen, die darum kämpfen, dem Elend zu entkommen, katastrophal sein, denn jeder Dollar, der für die Reduzierung der Kohlenstoffemissionen ausgegeben wird, kann eine wesentlich größere Wirkung haben, wenn er in Bildung, medizinische Versorgung, Ernährungssicherheit und kritische Infrastrukturen fließt. Um das Wohlergehen und die Lebensqualität der Menschen zu fördern, sollten sich die Klimaschutzmaßnahmen in den ärmsten Ländern auf die Verringerung der Armut, die Verbesserung des Zugangs zu Energie und den Aufbau der Widerstandsfähigkeit durch Investitionen in Wohnraum, Transport, Infrastruktur und landwirtschaftliche Technologien konzentrieren.

Die Reduzierung der CO₂-Emissionen ist zu einem Selbstzweck geworden, wobei implizit davon ausgegangen wird, dass die Verringerung der CO₂-Emissionen zu einem raschen Rückgang des CO₂ in der Atmosphäre führt und das Klima verbessert. Es wird jedoch sehr schwierig sein, die Auswirkungen selbst sehr starker Emissionsminderungsbemühungen auf das Klima genau zu erkennen und zuzuordnen. Das Auftreten eines Klimasignals, das über die natürliche Variabilität hinausgeht, kann nie nachgewiesen werden, da wir es mit einer unbekannten, kontrafaktischen Welt vergleichen würden. Die Herausforderung besteht darin, zu verstehen, wie sich der atmosphärische Kohlenstoff als Reaktion auf die Emissionsreduzierung entwickeln wird und wie die schnellen und langsamen Komponenten des Klimasystems reagieren werden.

50 Jahre nach einer sofortigen Einstellung der CO₂-Emissionen zeigten die Modelle eine Temperaturänderung zwischen-0,36 und 0,29 °C. Die Modelle wiesen eine große Vielfalt an Verhaltensweisen auf, wobei sich einige Modelle über Jahrzehnte bis Jahrtausende hinweg erwärmen, während andere abkühlen.

Die Quintessenz ist, dass es eine erhebliche Trägheit im globalen Kohlenstoffkreislauf und im Klimasystem gibt. Selbst wenn die Emissionen erfolgreich reduziert oder gar beseitigt werden, dauert es eine gewisse Zeit, bis die CO₂-Konzentration in der Atmosphäre auf die Emissionsreduzierung reagiert, und es dauert eine gewisse Zeit, bis das Klima auf die Veränderung der atmosphärischen CO₂-Konzentration reagiert. Es besteht eine erhebliche Unsicherheit darüber, wie lange dies dauern wird – möglicherweise werden wir vor dem 21. Jahrhundert keine positive Veränderung des Klimas sehen, selbst wenn die Emissionen erfolgreich beseitigt werden.

Ein Risikomanagement, das sich auf un- und unterentwickelte Technologien stützt, stellt keine robuste Strategie dar und trägt ein hohes Risiko des Scheiterns in sich.

Viele HFKW sind starke Treibhausgase mit einer relativ kurzen Lebensdauer in der Atmosphäre von 15 bis 29 Jahren. Obwohl HFKW nur etwa 1 Prozent der gesamten Treibhausgase ausmachen, sind sie hundert- bis tausendmal wirksamer als CO₂. Es gibt Prognosen, denen zufolge sich die Verwendung von FKW zwischen 2010 und 2020 verdoppeln wird, was bis Mitte des Jahrhunderts erheblich zum Strahlungsantrieb beitragen könnte.

Im Jahr 2020 stammten 82 Prozent der weltweit neu erzeugten Elektrizität aus Wind- und Sonnenenergie. Obwohl der Einsatz erneuerbarer Energien rasch zunimmt, verdrängen sie aufgrund der kontinuierlich steigenden Elektrizitätsnachfrage die Erzeugung aus fossilen Brennstoffen insgesamt nicht.

Es setzt sich immer mehr die Erkenntnis durch, dass Länder erhebliche wirtschaftliche und geopolitische Risiken eingehen, wenn sie die Produktion fossiler Brennstoffe in der Annahme reduzieren, dass erneuerbare Energien sie schnell ersetzen können. Die vorzeitige Stilllegung von Grundlastkraftwerken wie Kohle- und Kernkraftwerken in Verbindung mit der Unbeständigkeit von Wind- und Solarenergie hat die Belastbarkeit und Zuverlässigkeit der Stromnetze in einigen Regionen und Ländern erheblich beeinträchtigt. Der Erfolg der erneuerbaren Energien hängt von Investitionen in Übertragungskapazitäten, synchroner Notstromversorgung für Zeiten geringer erneuerbarer Erzeugung und verbesserter Energiespeicherung ab.

Der Flächenbedarf für erneuerbare Energien stellt ein Thema von wachsender Bedeutung dar, dem erstaunlich wenig Aufmerksamkeit geschenkt wird. Das derzeitige globale Energiesystem kommt mit einer relativ kleinen Landfläche aus (nur 0,4 Prozent der eisfreien Fläche), was zwei Größenordnungen weniger ist als die von der Landwirtschaft genutzte Fläche. Pläne für ein vollständig erneuerbares Energiesystem für den gesamten Globus werden den Flächenbedarf für die Energieerzeugung erheblich steigern, insbesondere angesichts des zunehmenden Energieverbrauchs und der weitverbreiteten Elektrifizierung von Heizung, Verkehr und Industrie.

Ein weiterer Aspekt von zunehmender Bedeutung ist der Wunsch von Haushalten, Unternehmen, Gemeinden und Ländern nach größtmöglicher Autonomie, Zuverlässigkeit und Sicherheit bei der Energieversorgung. Dies bedeutet, dass die Energie größtenteils auf lokaler bzw. regionaler Ebene erzeugt werden soll und nicht in erster Linie auf Brennstoffe oder Übertragungen aus anderen Ländern angewiesen ist. Ein hierarchisches Übertragungsnetz, das an das zentrale Hochspannungsnetz angeschlossene Microgrids (Mikronetze) umfasst, kann die Zuverlässigkeit, die Effizienz, die Sicherheit und auch die Nachhaltigkeit der Stromversorgung erhöhen und eine hohe Autonomie bieten.

Microgrids sind vergleichsweise kleine Stromsysteme, die aus einer oder mehreren Erzeugungseinheiten bestehen, die mit benachbarten Verbrauchern verbunden sind. Sie können in Verbindung mit oder unabhängig von zentralen Übertragungsnetzen betrieben werden. Microgrids unterstützen ein flexibles und effizientes Stromnetz, indem sie die Integration dezentraler Energieressourcen wie Solarenergie ermöglichen. Microgrids mit lokaler Versorgung tragen dazu bei, die Energieverluste bei der Übertragung zu verringern und die Effizienz des Stromversorgungssystems zu erhöhen. Microgrids leisten auch einen Beitrag, um die Belastung des zentralen Übertragungsnetzes in Zeiten von Nachfragespitzen zu verringern. Microgrids können kritische Einrichtungen mit Strom versorgen, wenn wetter- oder sicherheitsbedingte Ausfälle das allgemeine Netz beeinträchtigen. Microgrids können zudem die Wiederherstellung des zentralen Netzes unterstützen, indem sie die von den Wiederherstellungsteams benötigten Dienste aufrechterhalten und dabei helfen, das zentrale Netz wieder mit Energie zu versorgen.

Aufgrund der Rolle der Elektrizität als Rückgrat der Gesellschaft sind die Risiken für das Stromversorgungssystem systemische Risiken. Die Risiko- und Ungewissheitswissenschaften bieten Struktur und Logik für das Denken und Handeln in Bezug auf Risiken und Ungewissheiten (Kapitel 11 und 12).

Die Konzentration auf eine einzige Gruppe von Risiken – die CO₂-Emissionen – kann andere, potenziell gefährlichere Risiken nach sich ziehen. Wenn die Bemühungen zur Verringerung der CO₂-Emissionen dazu führen, dass weniger Strom im Überfluss vorhanden, weniger zuverlässig und weniger sicher ist, dann wird der Übergang die Menschheit heute und sehr wahrscheinlich auch in Zukunft schlechter stellen.

Die Risikobewertung sollte umfassend sein, sodass die Initiativen alle Aspekte des gefährdeten Systems berücksichtigen. Bei der Bewertung verschiedener Stromquellen ist eine ganzheitliche Abschätzung aller relevanten Faktoren erforderlich:

  • Lebenszykluskosten der Stromerzeugung, -übertragung und der erforderlichen Infrastruktur,
  • Landnutzungsanforderungen,
  • Kosten der Unzuverlässigkeit der Stromversorgung und Umweltauswirkungen während des gesamten Lebenszyklus, einschließlich CO₂-Emissionen.

Allzu oft werden nur die Kosten der Stromerzeugung und die CO₂-Emissionen berücksichtigt.

Der pragmatische Ansatz ist nicht davon abhängig, dass man sich weltweit auf eine angeblich perfekte Lösung einigt, die moralischen und politischen Zwang erfordert. Der Klimapragmatismus empfiehlt eine Abkehr von zentralisierten Top-Down-Ansätzen wie internationalen Verträgen und Abkommen zugunsten einer Aufteilung des Problems in kleinere, für den Menschen relevante Probleme und Lösungen und deren Priorisierung nach der Bedeutung des Problems und der Machbarkeit und den Kosten der Lösung.

„Es gibt eigentlich zwei Arten von Optimismus. Es gibt den selbstgefälligen Pollyanna-Optimismus, der sagt: ‚Mach dir keine Sorgen – alles wird gut‘, und der es einem erlaubt, sich zurückzulehnen und nichts gegen die Probleme um einen herum zu unternehmen. Dann gibt es das, was wir dynamischen Optimismus nennen. Das ist ein Optimismus, der auf Handeln basiert.“ (Ramez Naam, Technologe und Science-Fiction-Autor)