Hier wieder eine Buchzusammenfassung mit den für mich wichtigsten Zitaten aus dem noch nicht erschienenen Buch „Hexenmeister oder Zauberlehrling?“ von Alexander Schatten (Betreiber des sehr empfehlenswerten Podcasts „Zukunft Denken„). Ich durfte das Buch bereits in der Entstehungsphase lesen und jetzt auch zitieren. 🙏
Zusammenfassung
meiner herausgestrichenen Zitate mit mistral.ai
„Hexenmeister oder Zauberlehrling“ bietet eine tiefgehende Analyse der modernen Wissenschaft und Technik, wobei es sowohl die Errungenschaften als auch die Herausforderungen und Risiken beleuchtet. Hier sind die wichtigsten Punkte, die in dem Text behandelt werden:
Die Geschichte der Wissenschaft und Technik
Die Reise der Menschheit von der Antike bis zur Moderne ist geprägt von wissenschaftlichen Durchbrüchen und technologischen Innovationen. Charles Darwin’s Reise um die Welt und seine bahnbrechende Arbeit „On the Origin of Species“ sind Beispiele für die langfristigen Auswirkungen wissenschaftlicher Forschung. Die Geschichte der Menschheit kann auch als Geschichte der Energie betrachtet werden, wobei die Fähigkeit, Energie effizient zu nutzen, ein entscheidender Faktor für den Fortschritt war.
Komplexität und Unsicherheit in der Wissenschaft
Ein zentrales Thema des Buches ist die Komplexität und Unsicherheit in der Wissenschaft. Wissenschaftliche Erkenntnisse sind selten eindeutig und endgültig, sondern unterliegen ständiger Veränderung und Ambiguität. Die Mertonian Norms – Gemeinschaftlichkeit, Universalismus, Uneigennützigkeit und organisierte Skepsis – sind grundlegende Prinzipien, die die wissenschaftliche Praxis leiten sollten.
Herausforderungen und Risiken moderner Technik
Die moderne Technik hat unser Leben grundlegend verändert, aber sie bringt auch neue Risiken und Herausforderungen mit sich. Die zunehmende Komplexität technischer Systeme führt zu einer höheren Anfälligkeit für Fehler und Katastrophen. Die Notwendigkeit, diese Systeme zu warten und weiterzuentwickeln, wird besonders betont.
Kritik an der aktuellen Wissenschaftspraxis
Alexander Schatten kritisiert die aktuelle Praxis der Wissenschaft, einschließlich der Politisierung und Ideologisierung vieler Fachrichtungen. Die Qualität wissenschaftlicher Arbeiten wird oft durch bürokratische und politische Einflüsse beeinträchtigt. Die Replikationskrise in verschiedenen Disziplinen, einschließlich Psychologie und Medizin, wird als Beispiel für die systemischen Probleme in der Wissenschaft angeführt.
Die Rolle der Energie
Energie ist ein zentrales Thema, das durch das gesamte Buch hindurch verfolgt wird. Die Fähigkeit, Energie effizient zu nutzen, hat den Lebensstandard der Menschen erheblich verbessert. Allerdings stellen die Abhängigkeit von fossilen Energieträgern und die Herausforderungen der Energiewende große Herausforderungen dar.
Resilienz und Antifragilität
Das Konzept der Resilienz und Antifragilität wird eingeführt, um zu erklären, wie Systeme auf Störungen reagieren können. Ein resilientes System kann Störungen widerstehen und seine Funktionen aufrechterhalten, während ein antifragiles System durch Störungen gestärkt wird.
Kritik an der aktuellen politischen und wirtschaftlichen Praxis
Alexander Schatten kritisiert die aktuelle politische und wirtschaftliche Praxis, einschließlich der Tendenz zur Zentralisierung und Planwirtschaft. Die Notwendigkeit dezentraler, polyzentrischer Ansätze und evolutionärer Prinzipien wird betont.
Fazit
„Hexenmeister oder Zauberlehrling“ bietet eine kritische und umfassende Analyse der modernen Wissenschaft und Technik. Es betont die Notwendigkeit, die Komplexität und Unsicherheit wissenschaftlicher Erkenntnisse anzuerkennen und die Herausforderungen und Risiken moderner Technik zu bewältigen. Die Bedeutung von Resilienz, Antifragilität und evolutionären Prinzipien wird hervorgehoben, um nachhaltige und widerstandsfähige Systeme zu schaffen
Aus meiner Sicht besonders wichtige Zitate
- Auch wenn es manchmal schwer zu glauben ist – zwei Dinge können gleichzeitig wahr sein: Wir leben in der besten aller Zeiten, was die Lebensqualität der meisten Menschen betrifft, und gleichzeitig haben wir globale Risiken und Unsicherheiten geschaffen, die existenzielle Bedrohungen für die Menschheit darstellen.
- Moderne Gesellschaften und ihre Technologie sind dynamisch, stabilisiert. Jede technische Infrastruktur, z.B. die Energieversorgung, das Internet oder Lieferketten, funktionieren nicht einfach über lange Zeit, nur weil man sie einmal in Betrieb genommen hat. Sie müssen permanent gewartet, mit Energie und Rohstoffen versorgt, erneuert, kontrolliert und geregelt werden.
- Fortschritt ist nicht immer nur Neues in die Welt zu bringen. Bestehende Infrastruktur muss gewartet und das Neue integriert werden. Die Fähigkeit, elementare Infrastrukturen wie Eisenbahnen, Brücken, Kanalisation oder Kernkraftwerke schnell und in angemessener Qualität zu bauen und zu warten, ist für eine moderne Gesellschaft von größerer Bedeutung, als ein neues iPhone auf den Markt zu bringen.
- Mit dem Aussterben einer Technologie stirbt natürlich auch die Fähigkeit aus, diese Technik zu schaffen, zu warten und zu betreiben.
- Wir laufen als Menschheit, getrieben von Aktivismus, populistischer Politik und oftmals hysterischen Medien, immer einem gerade modischen Risiko hinterher. Wir sind dann aber weder auf dieses gut vorbereitet noch auf das Risiko, das dann tatsächlich als Nächstes schlagend wird.
- Sehr hoch auf der Liste steht eine Gefahr, die viele nicht auf dem Radar haben, nämlich den Zusammenbruch kritischer Infrastrukturen.
- „Das wichtigste ist es, all jenen großen Propheten zu misstrauen, die eine Patentlösung in der Tasche haben, und euch sagen, wenn ihr mir nur volle Gewalt gebt, dann werde ich euch in den Himmel führen. Die Antwort darauf ist: Wir geben niemandem volle Gewalt über uns, wir wollen, dass die Gewalt auf ein Minimum reduziert wird. Gewalt ist selbst von Übel. Und wir können nicht ein Übel mit einem anderen austreiben.“, Karl Popper
- Die Via Negativa, also das Erkennen von Dingen, die nicht funktionieren, ist immer einfacher als das Formulieren einer Problemlösung. Es gibt viel mehr Wege, die nicht zum Ziel führen, als Wege, die erfolgreich sind. Der Vorwurf, man wäre nur negativ, ist daher nicht zielführend.
- Wartung ist in diesem Sinne eine universelle Notwendigkeit aller komplexen, dynamisch stabilisierten Systeme. Im Körper sind Zellen ständig damit beschäftigt, Reparaturmaßnahmen vorzunehmen, das Immunsystem versucht, Schäden vom Organismus abzuwenden oder zu beheben. Dasselbe trifft auf alle Aspekte unserer komplexen Gesellschaft zu. Technik ist in diesem Sinne niemals fertig, sondern ein ewiger Prozess.
- Die meisten neuen Technologien, besonders dann, wenn es sich um Infrastruktur handelt, benötigen Jahrzehnte, um zu skalieren. Die Prozesse müssen sich anpassen, Nachfrage geschaffen, Lieferketten eingerichtet werden. Nicht zuletzt verbessern sich diese Prozesse ständig, auch wenn das von der Gesellschaft kaum wahrgenommen wird.
- Die kurzfristigen Wirkungen neuer Technologie werden oftmals überschätzt, während die langfristigen unterschätzt werden.
- Ein prinzipielles Problem von Warnungen. Werden sie ernst genommen und die Krise vermieden, kann danach nicht leicht beurteilt werden, ob die Warnung übertrieben oder schlicht die Maßnahmen so erfolgreich waren.
- Führt ein Risiko, das schlagend wird, zu unserem Ruin oder Tod, so gibt es keinen Weg mehr zurück. Solche existenziellen Risiken sind anders zu betrachten, als Risiken, von deren Folgen man sich erholen kann.
- Was erhöht und was reduziert Komplexität? In von Menschen gemachten Systemen gibt es Prozesse und architektonische Pfade, die Komplexität erhöhen: Skalierung: komplexe Systeme, die wachsen, aus mehr Teilen bestehen, verändern ihre Eigenschaften grundsätzlich und erhöhen damit oft ihre Komplexität. Damit verbunden sind meist mehr Nutzer, mehr Akteure, mehr Systeme, die miteinander interagieren. mehr Verbindungen und Vernetzungen zwischen Akteuren, Beschleunigung der Prozesse, Design von großen Systemen am grünen Tisch durch Komitees statt evolutionärem und organischem Wachstum, Design unter starker Einwirkung von Juristen oder Bürokraten. Jede nur erdenkliche juristische Gefahr wird thematisiert und kleinste Bedenken machen jede neue Idee zum Ungetüm, bevor sie noch das Licht der Welt erblickt haben.
- Die Erhöhung der Komplexität eines Systems ist immer möglich, die Reduktion ist hingegen viel schwieriger und stößt bei anspruchsvollen Anforderungen schnell an Grenzen.
- So scheitert Planwirtschaft und Zentralisierung nicht nur in der Praxis, am Ende steht häufig ein erfolgloses, aber totalitäres System.
- „via negativa: der Grundsatz, dass wir mit größerer Klarheit wissen, was falsch ist, als, was richtig ist, und dass das Wissen durch Subtraktion wächst. Außerdem ist es einfacher zu wissen, dass etwas falsch ist, als die Lösung zu finden. Maßnahmen, die etwas entfernen, sind robuster als solche, die etwas hinzufügen, weil die Hinzufügung unbemerkte, komplizierte Rückkopplungsschleifen haben kann.“, Nassim Taleb
- Resilienz ist also eine „dynamischere“ Eigenschaft als Robustheit.
- Der Erfolg einer resilienten Strategie hängt auch nicht davon ab, dass jeder Teil des Systems „hält“.
- Die Intention dahinter ist, dass ein großes System, z.B. das Software-System, das wesentliche Banktransaktionen steuert, oder die Stromversorgung, bei negativen äußeren Einwirkungen (Hacker-Angriffen, technischen Fehlern, Krankheit von Mitarbeitern usw.) niemals als Ganzes kollabieren darf. Domino-Effekte müssen vermieden werden. Trotz großer Schäden darf die Leistung niemals komplett verloren gehen, sondern wird in Schritten reduziert.
- Tatsächlich legt ein „Null-Fehler“ Ansatz schon die Basis für die Katastrophe, denn es ist ein nicht-resilientes Verhalten. Die besten Techniker können nie zu 100 % garantieren, dass alle Komponenten zu jeder Zeit funktionieren. Warum dann nicht das Gegenteil machen: Davon ausgehen, dass jede Komponente zu jeder Zeit ausfallen kann. Wenn dies die zugrundeliegende Forderung ist, dann sollte diese auch konsequent geprüft werden. Man schaltet folglich im laufenden Betrieb regelmäßig zufällig ausgewählte Komponenten ab. Denn nur die Realität ist der richtige Test, nicht Katastrophenpläne in der Schublade.
- Chaos Monkey. Der „Chaos-Affe“ ist eine Komponente, die im laufenden Betrieb immer wieder zufällige technische Komponenten abschaltet. Was sich nach einer verrückten Idee anhört, führt zu einem resilienten Systemverhalten.
- Wenn es überlebensnotwendig ist, dass ein System mit Störungen umgehen kann, dann sollte man dieses System regelmäßig solchen Störungen aussetzen. Denn in der Theorie bewältigt man jede Krise, in der Realität nicht.
- Die Aufwände, die man sich durch unkluge Effizienzmaßnahmen eingespart hat, bezahlt man bei der nächsten Krise somit mehrfach zurück.
- Kleinere Strukturen, die in der Lage sind, wesentliche Fähigkeiten aufrechtzuerhalten, sind großen, zentralisierten Systemen langfristig immer überlegen. Handelt es sich um Systeme wie Energie-, Lebensmittelversorgung oder Finanzsystem, ist dies eine Überlebensfrage, da jeder großflächige Ausfall einer Katastrophe gleichkommt, von der wir uns unter Umständen kaum mehr erholen können.
- Antifragilität: Im besten Fall ist ein System also nicht nur in der Lage, bei Stress seine Fähigkeiten aufrechtzuerhalten, sondern besser zu werden.
- Gute Ideen gibt es wie Sand am Meer – wenige taugen für die Praxis.
- Auch hier geht es wieder um die Etablierung von Feedback-Schleifen. Denn erst im Einsatz zeigen sich Nebenwirkungen, die nicht erwünscht sind und nicht vorhergesehen werden konnten. Es bedarf dann auch größerer gesellschaftlicher Flexibilität, bereits eingeführte Praktiken auch wieder zu ändern, wenn sie sich als schädlich herausstellen.
Zitate
Charles Darwin: Nach der Reise um die Welt, kehrte er mit einem 770-seitigen Journal zurück, aus dem nach vielen weiteren Jahren der Arbeit im Jahr 1859 sein Hauptwerk, On the Origin of Species wurde. Eines der bis heute bestimmenden Werke moderner Wissenschaft.
Energie und Technik hilft es, Menschen vom Elend zu befreien.
Pessimistische Bücher haben sich über die Geschichte der Menschheit immer besser verkaufen lassen als realistische.
„Wir waren immer verrückt, aber wir hatten nicht die Fähigkeiten, die Welt zu zerstören. Jetzt haben wir sie.“, Nassim Taleb
Auch wenn es manchmal schwer zu glauben ist – zwei Dinge können gleichzeitig wahr sein: Wir leben in der besten aller Zeiten, was die Lebensqualität der meisten Menschen betrifft, und gleichzeitig haben wir globale Risiken und Unsicherheiten geschaffen, die existenzielle Bedrohungen für die Menschheit darstellen.
Wir hören runde Geschichten, geschrieben oder erzählt von erfolgreichen Menschen (oder solchen, die sich selbst so darstellen). Alles ist klar, nur wir sind ignorant und noch nicht erleuchtet oder zu schwach, dem richtigen Weg zu folgen. Wenn Sie eine solche einfache Geschichte erwarten, legen Sie das Buch wieder ins Regal zurück. So funktioniert unsere Welt nicht und daher auch nicht dieses Buch. Weder gibt es den Experten, der die Welt versteht und weiß, wie die Probleme zu lösen sind, noch helfen uns einfache Ideen oder Prozesse. Soren Kierkegaard schreibt: „Das Leben wird vorwärts gelebt und rückwärts verstanden“ und Milan Kundera ergänzt einen wichtigen Aspekt in diesem Bild: „Der Mensch schreitet im Nebel voran. Aber wenn er zurückblickt, um die Menschen der Vergangenheit zu beurteilen, sieht er keinen Nebel auf ihrem Weg. Von seiner Gegenwart aus, die ihre ferne Zukunft war, sieht ihr Weg für ihn völlig klar aus, gute Sicht auf den ganzen Weg. Wenn er zurückblickt, sieht er den Weg, er sieht die Menschen, die voranschreiten, er sieht ihre Fehler, aber nicht den Nebel.“
In der Rückschau wirken die Dinge oftmals klar und einfach, oder werden so dargestellt. Der richtige Pfad und die Irrtümer sind doch so offensichtlich! Die Vielen, die andere Wege probiert haben und gescheitert sind, von denen wir die meisten gar nicht mehr kennen, verblassen vor den »Genies« die dem Anschein nach schlafwandlerisch den richtigen Weg erkannt haben. Fortschritt ist aber der Weg, den wir nach hinten blickend erkennen. Aber die Wahrheit ist: in die Zukunft gedacht ist der richtige Weg unklar. Es gibt kein Genie, das den Weg fehlerfrei findet, keinen Computer und keine »künstliche Intelligenz«. Im Nachhinein erklären uns »Experten«, Kommentatoren und Ökonomen, warum es offensichtlich war, dass die Google-Aktie so gestiegen ist, und warum der Finanz-Crash 2008 unvermeidbar war. Nur: warum sind eben diese »Experten« nicht Milliardäre, sondern reden im Fernsehen oder in einem YouTube-Kanal in der Rückschau?
Wissenschaft stellt weniger die Frage nach der Lösung konkreter praktischer Probleme, sondern eher nach den zugrundeliegenden, von konkreten Einzelfällen und Problemen abstrahierten Mechanismen. Die Schaffung einer wissenschaftlichen Kultur setzt die Möglichkeit voraus, Erkenntnisse zuverlässig über räumliche und zeitliche Distanz weitergeben zu können.
Auch ein Zahlensystem ist in Verwendung. Heute verwenden wir ein Zahlensystem auf der Basis von 10 (sowie auf der Basis von 2 für Computer), in Babylonien allerdings wird ein Zahlensystem auf der Basis von 60 verwendet. Die Folgen dieses Systems finden wir bis in die heutige Zeit. Man denke an die 60 Minuten einer Stunde oder das Winkelsystem mit 360∘.
Das europäische Mittelalter (von etwa 500 – 1500) wird häufig als dunkel und unterentwickelt dargestellt. Nach dem Untergang des römischen Reiches ist in Mitteleuropa der Lebensstandard für alle Bevölkerungsgruppen gefallen. „Die Fähigkeit, mit Materialien umzugehen und die Massenproduktion verschwanden. Wo man früher aus Steinen und Ziegeln baute, musste man nun aus Holz und mit Lehmböden bauen. Wo früher sogar Lager- und Viehhäuser Ziegeldächer hatten, konnten sich dies bald nur noch Bischöfe und Könige leisten.“
In der geschichtlichen Betrachtung wird aber gerne der Fehler begangen, frühere Überlegungen mit heutigem Wissen (oder Moralvorstellungen) im Hinterkopf zu bewerten. Für uns ist es heute sonnenklar – wir lernen das bereits als Kleinkinder –, dass sich die Erde um die Sonne dreht und sind alles andere als neutrale Beobachter in einem historischen Diskurs.
Galileo ist – trotz fehlendem Abschluss – einer der Universalgelehrten, der sich mit nahezu allen Bereichen der Wissenschaft intensiv auseinandersetzt. So wird aus einem Studienabbrecher der Vater der modernen Wissenschaft.
Die Geschichte der Menschheit lässt sich auch als Geschichte der Energie betrachten. Ein wesentlicher Indikator ist das Verhältnis der nutzbaren Energie zum Aufwand, der notwendig ist, um diese Energie zu gewinnen (Energy Returned on Energy Invested).
Die Römer hatten hier ein Verhältnis von ca. 2:1. Für eine Einheit an Energie konnten zwei Einheiten Energie für Arbeit genutzt werden.
Vom Mensch zum Tier, zu Biomasse, Wind, Kohle, Gas, Öl und Kernkraft nimmt die Energiedichte und damit die Fähigkeit immer mehr Arbeit mit immer weniger Einsatz an menschlicher Kraft und Zeitaufwand zu leisten stetig zu.
Um 1800 benötigt es eine menschliche Arbeitszeit von etwa 10 Minuten, um zwei Laib Brot zu produzieren, die Energie kommt dabei von der Sonne. Um 1900 brauchen wir ca. 1,5 Minuten menschlicher, 2 Minuten tierischer Arbeitskraft für diese Aufgabe und 2021 weniger als zwei Sekunden! Von 1800 bis 2021 haben wir die menschliche Arbeit um mehr als 98 Prozent reduziert. Allerdings benötigen wir heute ein Äquivalent von rund 250ml Diesel für die Herstellung von einem Kilo Sauerteigbrot.
In westlichen Industrienationen können wir uns die Situation bildlich so vorstellen: rund um die Uhr arbeitet ein Äquivalent von 60 bis 240 Menschen für jeden von uns, um unseren Lebensstandard zu ermöglichen.
Wissenschaft, Kultur, Freizeit und ein Lebensstandard, wie wir ihn heute in westlichen Nationen kennen, und den der Rest der Welt anstrebt, ist unter einer Energiedichte von 10:1 kaum denkbar.
Davon abgesehen, dass es die Methode nicht gibt, zeigt ein Blick in die Geschichte sehr klar, dass Wissenschaft und Innovation nicht planbar sind. Die Installation von Innovations-Management ist daher meist eher ein bürokratisches Symptom institutionellen Stillstands. Keine große Innovation der Vergangenheit hat Innovationsmanager benötigt, sondern vielmehr, dass Bürokraten den kreativen Prozess nicht behindern. Es gibt Bedingungen, unter denen Erkenntnis und Innovation besser entstehen können, sie lassen sich aber nicht erzwingen oder planen.
Ein tieferes Verständnis oder Reflexion, warum gerade diese Praktiken Wissenschaft konstituieren würden, fehlt größtenteils und wird nicht unterrichtet. Dieser Mangel an fundamentalen Überlegungen, Reflexion und Qualitätssicherung der Wissenschaftspraxis an den meisten Universitäten ist vermutlich auch ein Grund dafür, dass wir an vielen Instituten und Fachrichtungen in den letzten Jahrzehnten eine starke Politisierung und Ideologisierung erleben, die ganz klar im Widerspruch zu erfolgreicher Wissenschaft und Wahrheitssuche steht.
In der Wissenschaft ist nichts sicher und wenig ist beständig. Veränderung und Ambiguität sind ein steter Begleiter. Daher gibt es auch nicht „die Wissenschaft“, „die wissenschaftliche Erkenntnis“, sondern immer einen Prozess der Findung.
Ein guter Anfang, um Wissenschaft besser zu verstehen, sind die immer wieder zitierten, vier Mertonian Norms, im Deutschen vielleicht als Mertonsche Regeln oder Maßstäbe zu übersetzen, die auf einen Artikel aus dem Jahr 1942 des US-Sozioologen Robert Merton zurückgehen. Keine der vier Regeln wird uns überraschen, denn sie sind im Grunde keine Regeln, sondern Erfolgsfaktoren, die wir bereits im vorigen Kapitel kennengelernt haben. Nach Merton sind das:
- Gemeinschaftlichkeit (Communism/Communality)
- Universalismus (Universalism)
- Uneigennützigkeit (Disinterestedness)
- Organisierte Skepsis (Organized skepticism).
Wir stoßen hier allerdings auf ein interessantes Problem, das vermutlich vielen Wissenschaftern bis ins 20. Jahrhundert gar nicht klar war: Das Verständnis der Einzelteile eines komplexen Systems ist wichtig, aber nicht ausreichend, um die nächste Systemebene zu verstehen. Denn das Verhalten eines komplexen Systems (z.B. das Klima der Erde oder menschliches Sozialverhalten) lässt sich meist nicht aus den Eigenschaften der Teile ableiten. Dies wird von Philosophen auch emergentes Verhalten genannt, oder populär: Das Ganze ist mehr als die Summe seiner Teile. Der Umgang mit komplexen Systemen wird zu einer der größten Herausforderungen unserer Zeit.
Das Sparsamkeitsprinzip sagt nichts anderes, als dass für ein beobachtetes Phänomen die einfachste mögliche Erklärung heranzuziehen ist. Stehen also zwei Erklärungsmodelle zur Auswahl, ist das einfachere mit großer Wahrscheinlichkeit das richtige.
Wissenschafter suchen nach der Lösung eines Problems und scheitern daran, finden aber durch Zufall die Lösung eines anderen Problems. In dieser Hinsicht ist Wissenschaft oder das Finden neuer Ideen kreativen Prozessen wie der Komposition oder Dichtung ähnlich sein. Gute Wissenschaft ist stark von Zufällen abhängig und daher nicht planbar oder vorhersagbar.
Rudolf Carnap bringt dies treffsicher auf den Punkt: „Dem Suchenden sind alle Mittel erlaubt; das Gefundene aber muss der Nachprüfung standhalten.“
Denn die Anzahl der Möglichkeiten, der Ideen ist unbegrenzt, die Zahl der richtigen oder nützlichen Ideen aber ist klein. Somit ist gerade in einer Zeit komplexer Herausforderungen entscheidend, die Qualität von (wissenschaftlichen) Aussagen bewerten zu können.
Die Unterscheidung zwischen den Begriffen Theorie und Modell ist wie so häufig nicht scharf. In der Praxis spricht man meist von einer Theorie als dem Ergebnis einer Abstraktion, die ein natürliches Phänomen möglichst allgemeingültig beschreibt. Unter einem Modell versteht man heute häufig eine vereinfachte Repräsentation der Realität, die uns entweder hilft, die Realität besser zu verstehen oder gar Vorhersagen zu machen. Wettermodelle sind z.B. Computerprogramme, die in vereinfachter Weise versuchen, die notwendigen Systeme der Welt zu simulieren, um das Wetter der nächsten Stunden oder der nächsten Tage vorherzusagen.
Bei Modellen komplexer Systeme ist es häufig so, dass die Vorhersagen über einen bestimmten Zeitpunkt einigermaßen korrekt sind, dann aber beginnen dramatisch abzuweichen. Da es in vielen Fällen gar nicht möglich ist, das Problem vollständig zu modellieren, versucht man Szenarien darzustellen. Denken wir an Klimamodelle. Das Weltklima wird von einer Vielzahl von Faktoren beeinflusst. Zahlreiche dieser Faktoren versucht man direkt im Modell abzubilden, etwa die Atmosphäre, Meeresströmungen, Sonneneinstrahlung usw. Schon bei diesen Parametern müssen Vereinfachungen vorgenommen werden. Es ist natürlich nicht möglich, jedes Sauerstoff-, Stickstoff- und Kohlendioxid- und Wasser-Molekül zu simulieren.
Confirmation Bias hat auch die Kehrseite, dass Menschen eher ungern aktiv nach Informationen suchen, die unsere Thesen widerlegen könnten. Außerdem neigen wir dazu, ein Mehr an bestätigenden Informationen als Beleg zu werten, dass unsere Theorie oder Idee immer besser bestätigt wird, auch wenn dies in der Praxis nicht zutrifft.
Einer prominenten und intellektuell verstörenden Form des Bestätigungsfehlers begegnen wir immer häufiger in der populärwissenschaftlichen Literatur. Ein Buch verkauft sich leider schlechter, wenn der Autor intellektuell redlich versucht, verschiedene Aspekte komplexer Ideen gegeneinander abzuwiegen. Daher findet man Bücher mit Titeln, die oft einem Slogan gleichen. Liest man diese Bücher, verstärkt sich der Eindruck, dass die Autoren das Pferd von hinten aufzäumen: zunächst eine knackige These entwickeln, die sich einfach verkauft, danach Beispiele suchen, die diese These vermeintlich „belegen“. Das liest sich gut, hat aber mit Erkenntnis wenig zu tun.
Wir Menschen sind nicht dazu gemacht, die Welt objektiv wahrzunehmen, sondern unsere Idee der Welt beeinflusst unsere Wahrnehmung der Welt. Machen Sie den Wahrnehmungstest auf der Seite der Psychologen Christopher Chabris und Daniel Simons, und den unterhaltsamen Whodunnit-Test.
Es gibt keinen Menschen, der neutral, rein rational und logisch lebt und arbeitet, auch keine Wissenschafter. Und die, die es behaupten, sind möglicherweise die gefährlichsten unter uns.
„Wenn du denkst, dass du zu schlau bist, um einer Gehirnwäsche unterzogen zu werden, wenn du denkst, dass du zu klug bist, um ausgetrickst zu werden, dann bist du am verwundbarsten von allen“, Laura Dodsworth, Patrick Fagan
Auch wenn sich dieser Prozess vernünftig anhört, stellt sich in der Praxis heraus, dass die an den Peer-Review-Prozess gestellten Erwartungen häufig nicht erfüllt werden. Man könnte sehr verkürzt sagen: viel Aufwand, wenig Nutzen. Die Art und Weise, wie Publikationen bewertet werden, und wie entschieden wird, ob eine Publikation überhaupt angenommen wird, ist nicht nur für den einzelnen Wissenschafter aus Karrieregründen von Bedeutung, sondern auch für den wissenschaftlichen Fortschritt von größter Bedeutung. Wenn der Publikationsprozess etwa dazu führt, dass bestimmte Arbeiten systematisch geringere Chancen haben, angenommen zu werden, so richten sich Wissenschafter danach und dies kann Wissenschaft dramatisch verzerren.
Wissenschaft ist keine Demokratie und die Betonung von Konsens ist entweder ein Zeichen von Inkompetenz oder ein rhetorischer Trick, um Menschen zu beeindrucken, die vom wissenschaftlichen Prozess wenig verstehen. Die langfristig etablierten Prinzipien sind in ihrer Wirkung und Einschränkung (denken wir an Relativitätstheorie, Evolution) allgemein bekannt und benötigen keinen Ruf nach Konsens, und die aktuellen Studien in komplexen Systemen (Klima, Energiepolitik) haben viele Perspektiven und Schwächen. Konsens ist ein Hindernis für Wissenschaft, selbst für etablierte Ideen, denn auch diese müssen immer wieder energisch hinterfragt werden. Jedes Publikationssystem, das Konsens fördert, ist daher ein Feind guter Wissenschaft.
Es findet aber auch eine immer stärkere Spezialisierung statt. Innerhalb hoch spezialisierter Fachgebiete sind viele Wissenschafter auf sehr enge Themenbereiche fokussiert. Man kann sagen, immer mehr Wissenschafter wissen immer mehr über immer weniger. Dabei geht auch gerne einmal die Übersicht verloren.
Die Gesamtausgaben für Forschung und Entwicklung (F&E) weltweit belaufen sich im Jahr 2022 auf fast 2,5 Billionen US-Dollar. Die USA und China investieren dabei mit F&E-Ausgaben von rund 680 Milliarden US-Dollar bzw. 550 Milliarden US-Dollar im Jahr 2022 mit Abstand am meisten.
Tim Urban angelangt: „Das Gute wird im nächsten Jahrhundert noch besser werden, als es jemals war, aber das Schlechte könnte noch viel schlechter sein.“
Nach allem, was wir in diesem Kapitel über die Mechanismen von Wissenschaft besprochen haben, sollte die moderne Universität und das Studium im Kern darin bestehen, dass Studenten in kleinen Gruppen mit Wissenschaftern lernen, radikal reflektieren, einander kritisieren und in ständigem kreativem Dialog das aktuelle Wissen hinterfragen und verbessern. Die Universität nach Bologna ist allerdings das ziemlich genaue Gegenteil davon: eine Massenuniversität, die Ausbildung und akademische Grade verwaltet, statt Bildung und wissenschaftliche Neugier zu vermitteln.
Was für die Untersuchung und Beschreibung von Fragen der Vergangenheit funktioniert hat, muss für die komplexeren Probleme der Gegenwart nicht mehr in derselben Weise gültig sein. Die Untersuchung und Beschreibung elementarer mechanischer Prinzipien sind mit anderen Mitteln möglich als die Suche nach dem Higgs-Boson oder die Beschreibung eines komplexen biologischen Ökosystems. Aber die Tatsache, dass wir heute komplexe globale Ökosysteme oder Klimasysteme überhaupt untersuchen können, ist erst durch die grundlegenderen Vorarbeiten in Physik, Chemie, Biologie usw. möglich geworden. Dies betrifft sowohl die Theorien als auch das methodische Vorgehen.
Veränderung ist also die einzige Konstante in der Art und Weise, wie wir Wissenschaft betreiben und was die Erkenntnisse dieser Wissenschaft sind. Nicht nur wissenschaftliche Theorien, auch wissenschaftliche Praxis muss stetig geprüft, hinterfragt und verbessert werden. Wir befinden uns in einer stetigen Rekursion: Das System, das das aktuelle Wissen erzeugt hat, ist möglicherweise nicht mehr gut genug, um das Wissen der Zukunft zu produzieren.
Es ist gerade auch bei aktuellen Problemen eben nicht so, dass Wissenschaft kühl, distanziert und rational arbeitet. Vielmehr gibt es häufig Gruppendenken, ideologische „Blasen“, die einander versichern, auf der richtigen Seite der Geschichte zu stehen und alles zu verstehen, während die jeweiligen Gegner alles falsch verstehen. Nur ist der Glaube, etwas zu verstehen und tatsächliches Verständnis nicht dasselbe. Und wer unter den derzeitigen Anreizsystemen der Wissenschaft Karriere machen möchte, reiht sich in die Gruppe der aktuellen „Sieger“ ein und äußert sich nicht allzu kritisch.
Pointiert formuliert: je komplexer das betrachtete System ist – egal, ob es sich um ein Problem oder ein funktionierendes System handelt – desto unschärfer ist unser Wissen darüber. Diese Tatsache wird uns als Thema das ganze Buch begleiten. Denn es ist alles andere als offensichtlich, wie wir mit solchen Systemen als Gesellschaft umgehen sollen. Hier liegt noch ein großer Lernprozess vor uns. Da gute Wissenschaft sich immer an den Rändern des Wissens bewegt und immer mehr komplexe Systeme ins Zentrum der Betrachtung rücken, ist Wissenschaft fehlerträchtig und langsam. Erkenntnis bewährt sich über Zeit, nicht über Konsens oder Abstimmung. Dies dauert manchmal lange Zeit und muss viele Irrtümer überwinden.
Was bedeutet das für die Rezeption von Wissenschaft? Ein einzelner Artikel ist für die Meinungsbildung in jedem komplexen Fachbereich völlig unerheblich. Wird er isoliert in der Öffentlichkeit diskutiert (wie das Wissenschaftsjournalisten gerne machen), stiftet er im Wesentlichen Verwirrung. Wissenschaftliche Publikation dient im Kern der internen fachlichen Diskussion. Aufgrund der Lawine an Fachartikeln lässt sich zu jeder Idee eine „wissenschaftliche Studie“ finden, die diese vermeintlich belegt oder widerlegt, je nach Motivationslage.
Der Ruf nach vermeintlichem Konsens ist autoritär und von mangelndem wissenschaftlichem Verständnis getrieben.
Als Bürger müssen wir lernen, dass es bei komplexen, neuen Herausforderungen selten einfache Antworten gibt, und diejenigen, die sie versprechen, in der Regel Scharlatane sind.
In den 1930er-Jahren ist der Aufstieg der Nationalsozialisten stark von akademischem Rückenwind begleitet und es stellt sich dann heraus, dass Menschen mit Universitätsabschluss (wie Professoren, Juristen oder Ärzte) sowie Studenten überproportional häufig NSDAP-Mitglieder sind.
Wir stecken heute wieder in einer kritischen Phase der Wissenschaft, die sich über die letzten Jahrzehnte langsam aber stetig verschlechtert hat.
Man muss im Grunde von einer tiefen Stagnation und Krise sowie Politisierung von Wissenschaft sprechen, deren Dimension in der Öffentlichkeit kaum diskutiert wird. Die tatsächlichen Leistungen der Wissenschaft stehen in vielen Fällen mit den Aussagen des global professionalisierten Wissenschaftsmarketings in keiner Relation. Man könnte polemisch sagen: *Es gibt immer weniger Fortschritt (vor allem, wenn man die eingesetzten Mittel berücksichtigt), über den aber immer lauter und unkritischer berichtet wird.*
Präsident Eisenhower macht deutlich, dass ökonomische Interessen oder Abhängigkeiten in der Wissenschaft großen Schaden anrichten können. Eine richtige Vorhersage, aber auch ein zweites Problem sieht Eisenhower voraus: Wissenschaftliche Eliten können politische Prozesse kapern oder in einer Weise beeinflussen, die weder ihrer Kompetenz noch ihrer Rolle in einem demokratischen Staat angemessen ist. Sie führen damit nicht nur politischen Entscheidungen, die letztlich undemokratisch sind, sie beschädigen aufgrund der Rückwirkung auch die Wissenschaft: wenn kleine wissenschaftliche Eliten übermäßigen Einfluss auf die Politik bekommen, verändert dies auch die wissenschaftliche Förderlandschaft und die Auswahlprozesse des Nachwuchses.
Ist die Sprache unklar, verworren und mehrdeutig, so lassen sich Aussagen nicht leicht prüfen und kritisieren. Wissenschaft, die zu hochgestochenem Geschwätz verkommt, wichtigtuerische große Worte verwendet, um aber in der Substanz wenig auszusagen, kritisiert Popper in mehreren Büchern.
Wir stehen heute jedenfalls vor der Situation, die Karl Popper vor 50 Jahren richtig vorhergesehen hat: immer weniger relevante wissenschaftliche Arbeiten guter Qualität versinken in einer Flut des Unsinns.
Eine der wichtigen Studien ist von Iain Chalmers und Paul Glasziou. Die beiden Wissenschafter fassen eine ganze Reihe von anderen Untersuchungen zur Qualität der medizinischen Forschung zusammen und kommen zu der Erkenntnis, dass mehr als 85 Prozent der untersuchten Forschungsergebnisse von minderer Qualität sind. Hier gilt dasselbe wie bei der Ioannidis-Studie. Wir sprechen nicht von „normalen“ Problemen in der Forschung, etwa, dass ein Medikament sich entgegen der Erwartung in einer gut gemachten Studie nicht als wirksam erweist. Solche negativen Ergebnisse wären den 15 Prozent zuzuordnen. Nochmals, wir sprechen von Studien, die so schlecht durchgeführt werden, dass sie als wertlos gelten. Die Autoren schreiben, dass dies zu einer Verschwendung von mehreren zehn Milliarden Dollar an Investitionen jedes Jahr führt.
Nicht nur die Medizin im engeren Sinne ist betroffen, sondern auch Disziplinen im Umfeld. Einer der problematischsten Fachbereiche ist wohl die Ernährungswissenschaft, deren Behauptungen sich als herausragend unzuverlässig herausstellen. In der Praxis kann man davon ausgehen, dass die Tipps, die Konsumenten als wissenschaftlich verkauft werden, weitgehend beliebig sind.
Den bisher vielleicht größten Aufruhr hat eine umfangreiche Studie des Jahres 2015 des Center for Open Science in den USA, angeleitet durch den Psychologen Brian Nosek ausgelöst. Das Team versucht, einhundert psychologische Studien, die in hochrangigen wissenschaftlichen Journalen publiziert wurden, zu replizieren. Sie versuchen also, die Studien gemäß der methodischen Beschreibung in den Artikeln zu wiederholen und zu prüfen, ob sie zu vergleichbaren Ergebnissen wie die Autoren kommen. Eine zweite Studie wird 2018 publiziert. Was ist das Ergebnis? Kurz gesagt: kaum 50 Prozent der hochrangigen Arbeiten können repliziert werden. Dies löst zu Recht eine tiefe Krise in der Psychologie aus. Dies ist jedoch nicht nur die Blamage einer Forschungsrichtung.
„Trotz oder gerade wegen ihrer Popularität wird praktisch jede Erkenntnis der positiven Psychologie angezweifelt, sowohl von Insidern als auch von Außenstehenden. […] Wichtige Schlussfolgerungen wurden in Frage gestellt, verändert oder sogar aufgegeben.“
Wer nun hofft, dieses Problem wäre auf die Psychologie beschränkt, irrt leider. Die Replikations- und Qualitätskrise betrifft die meisten Wissenschaftsdisziplinen. Ganze Bücher werden zu den Qualitätsproblemen der Forschung geschrieben,
„In vielen wissenschaftlichen Disziplinen haben übliche Forschungspraktiken zu unzuverlässigen und übertriebenen Belegen über wissenschaftliche Phänomene geführt.“
Die Folge ist, dass Wissenschafter ihre Ergebnisse entsprechend „tunen“, um veröffentlicht zu werden. Denn Ergebnisse, die nicht ins ideologische Bild oder in den aktuellen Zeitgeist passen, haben geringere Chancen zur Veröffentlichung. Die Situation ist vermutlich deutlich problematischer, als es diese Studie vermuten lässt. Man muss bedenken, dass die untersuchten Artikel alle aus hochrangigen Magazinen (darunter Nature und Science) stammen, nicht von den zweit- und drittklassigen Zeitschriften und Konferenzen, die einen Großteil der heutigen Publikationslandschaft ausmachen. Dies dürfte folglich eher die Spitze des Eisberges sein.
Auch die (ebenfalls stark politisierte) Klimaforschung ist von diesen Problemen nicht verschont.
„Die Wissenschaft zum Klimawandel zeigt ein unterschätztes dynamisches System von Interessenkonflikten zwischen Klimaforschern, Interessenverbänden und der Finanzindustrie.“
Es kommt in diesen politisch und aktivistisch „heißen“ Themen auch zu einer immer engeren Verschränkung zwischen politischem Aktivismus und Wissenschaft. Dies ist weder der Qualität der Wissenschaft noch der Glaubwürdigkeit des Aktivismus zuträglich. Werden Erkenntnisse aus dem Kontext gerissen, Unsicherheiten verschwiegen oder übertrieben, so zerstört dies zu Recht das Vertrauen in die wissenschaftliche Praxis.
„Ich bin insbesondere darüber beunruhigt, dass eine wachsende Zahl an Klimaforschern zu Aktivisten werden. Denn Wissenschafter sollten keine a priori Interessen haben, welche Ergebnisse ihrer Studien liefern.“
Ein weiteres Missverständnis liegt in der Idee, dass Wissenschaft heute besser und genauer wird, weil wir ja Zugriff auf viel mehr Daten haben, ist eine viel zu oberflächliche Einschätzung des Sachverhaltes. Mehr Daten bedeutet nicht automatisch bessere Entscheidungen, oftmals sogar das Gegenteil. Wir haben es hier mit zwei Problematiken zu tun: Die Menge an Daten ist für sich genommen wertlos, wenn nicht sichergestellt werden kann, dass die Qualität der Daten stimmt und diese Daten tatsächlich die relevanten Dimensionen unseres Problems abbilden. Beides ist in vielen Fällen nicht gegeben. Der heute häufig zu beobachtende banale Trend zu datenbasierter Wissenschaft führt zu einer Suche dort, wo Licht (Daten) ist, nicht wo es tatsächlich Sinn ergibt zu suchen. Die Covid-Krise und die langsame Aufarbeitung, die in verschiedenen Ländern stattfindet, macht klar, dass selbst vermeintlich einfache Fragestellungen – etwa wie viele Menschen sind an Covid gestorben, oder was ist die Übersterblichkeit in den Jahren 2020-2023 – sich als alles andere als trivial darstellt. Experten diskutieren alleine über die Qualität und Interpretation verschiedener Statistiken, ohne zu einer gemeinsamen Sicht der Dinge zu kommen. Daten in ein Modell oder eine mathematische Software zu importieren und Analysen beliebiger Art oder Modelle zu rechen ist einfach und lässt sich häufig auch leicht veröffentlichen. Ob diese Modelle und Statistiken auch einen relevanten Bezug zur Realität haben, ist eine gänzlich andere Frage. „Die Evangelisten von Big Data implizieren, dass groß gleich gut ist, doch daraus folgt keineswegs, dass mehr Daten zu besseren oder ethischeren und gerechteren Entscheidungen führen.“, Rory Sutherland
Es wäre eine zu große Abschweifung, an dieser Stelle viel tiefer in das Thema einzutauchen; es soll nur sehr deutlich gemacht werden, dass wir es hier nicht mit ein paar „schwarzen Schafen“, mit einem Randphänomen zu tun haben. Es handelt sich um ein tiefgreifendes und systemisches Problem in der heutigen Forschungslandschaft. Ein Problem, das zutiefst besorgniserregend ist. Denn, wenn ein Blick in die wissenschaftliche Literatur mit großer Wahrscheinlichkeit Artikel schlechter Qualität, Fälschungen sowie irrelevante oder ideologisch gefärbte Artikel bringt, so beschädigt dies mittelfristig das Vertrauen in Wissenschaft und die wissenschaftlichen Institutionen. Erschwerend kommt hinzu, dass die Situation seit Jahrzehnten eher schlechter als besser wird.
In den letzten Jahren beobachten wir als weiteres Symptom der Krise eine Hyper-Ideologisierung vieler gesellschaftlicher Strukturen. Diese ist teilweise eine Folge der bisher genannten Qualitätsprobleme. Wenn mangelnde Standards in der universitären Bildung toleriert werden, führt dies zu schlecht ausgebildeten Absolventen. Umgekehrt wirkt die Ideologisierung zahlreicher politischer und medialer Strukturen wieder negativ auf die Universität zurück. Der Begriff Wokeness hat sich für eine Gruppe von Ideen eingebürgert, deren Ursprung teilweise vernünftig war. Eine Motivation war es etwa, soziales Unrecht zu verringern und etablierte, manchmal problematische Machtstrukturen zu hinterfragen. Über die Zeit hat sich aber ein Ideenkomplex entwickelt, der marxistische Ideen inkludiert, eine immer extremere Definition von (vermeintlich) benachteiligten Gruppen, und das Ganze gepaart mit der post-modernen Idee des Relativismus. Aus der Diskussion wird Diskurs, dann Narrativ und letztlich wird behauptet, alles sei konstruiert und es wäre Wissenschaft, diese Narrative zu dekonstruieren.
Wenn es aber keine Realität und keine Fakten mehr gibt, so folgt recht schlüssig daraus, dass Menschen auch nicht mehr nach ihren Leistungen und ihrem Charakter bewertet werden können. Aus Wissenschaft wird nun Religion, in der die jeweiligen Meinungsführer definieren, was Worte bedeuten und nach welchen Kriterien gesellschaftliche Gruppen und Identitäten definiert werden. Man ist dann auch nicht mehr schwarz, wenn die Hautfarbe schwarz ist, sondern wenn man das Gedankengut des aktuellen Zeitgeistes unterstützt. Oder andersherum: wenn ein schwarzer Intellektueller konservativ ist, so gilt er unter den Aktivisten nicht als Schwarz.
Dies ist eine oft zu beobachtende Strategie dieser Art von Aktivismus. Worte werden nach Belieben umdefiniert, gefolgt vom harten Kampf gegen alle, die die neue Definition nicht sofort kritiklos akzeptieren wollen. Das macht auch vor harten naturwissenschaftlichen Fakten nicht halt. So ist letztlich eine autoritäre und gänzlich intolerante Bewegung entstanden, die keinen Widerspruch duldet und ideologische Ideen geradezu in Form von Setzungen definiert. Es handelt sich dabei um ein Machtinstrument, nicht um den Versuch, im ehrlichen Diskurs voranzukommen.
Alle 13 Jahre halbiert sich die Forschungsproduktivität. Oder andersherum ausgedrückt – die Wirtschaft muss die Forschungsaufwände alle 13 Jahre verdoppeln, um dasselbe Wirtschaftswachstum aufrechtzuerhalten. Während es heute im Vergleich zu den 1930er-Jahren ca. 30-mal so viele Wissenschafter gibt, ist die Forschungsproduktivität etwa um das gleiche Maß gesunken.
Aber da eine Vielzahl an Studien im Kern dieselbe Botschaft liefert und der Rückgang der Produktivität so groß und eindeutig ist, gibt es eigentlich keinen Zweifel: Wir investieren immer mehr Ressourcen in Forschung und die Ergebnisse werden gleichzeitig immer dünner. In der breiteren Öffentlichkeit ist die Problematik kaum angekommen.
Optimisten weisen häufig darauf hin, dass viele Probleme der Zukunft sich durch Durchbrüche in Wissenschaft und Technik (also durch Innovation) lösen lassen. Wenn diese Durchbrüche aber eher im Reich des Wissenschaftsmarketings in sozialen Medien als in der Realität erfolgen, dann ist dies nicht nur unerfreulich, sondern ein großes Problem für unsere Zukunft. Nicht nur woker Aktivismus beschädigt unsere Zukunft, sondern auch szientistische Überheblichkeit, die akute Probleme der Wissenschaft ignoriert.
Aber Universitäten haben auch noch andere Funktionen. Sie bilden junge Menschen aus und informieren Politik und Gesellschaft. Wenn es gravierende Qualitätsprobleme gibt, so schlägt sich dies nicht folglich nur in den wissenschaftlichen Ergebnissen nieder, sondern auch in der Qualität der Absolventen und der politischen Beratung. Auch dies sind Phänomene, die wir sehr eindeutig beobachten können.
Die Kombination aus sinkender Qualität der Universitäten mit einem Übermaß an Studenten, die schulisch ausgebildet werden wollen, führt zu einer Gemengelage, die die Idee der Universität zerstört. Dies ist für unsere Gesellschaft nicht wünschenswert. Wir benötigen keine 20 Prozent mittelmäßig bis schlecht ausgebildete Akademiker, sondern eine kleine Zahl an hochklassigen Wissenschaftern. Für die Wirtschaft lassen sich Menschen wesentlich besser, schneller und billiger abseits der Universitäten ausbilden.
Skalierung ist dabei mit Sicherheit ein wesentlicher Aspekt. Ein System, das mindestens um den Faktor 20 über die letzten 100 Jahre gewachsen ist, verändert sein Verhalten sehr grundlegend. Dies trifft selbst dann zu, wenn die zugrundeliegenden Prozesse oder Herausforderungen dem Anschein nach dieselben bleiben. Jede wachsende Struktur erfährt solche Veränderungen, unabhängig davon, ob es sich um Unternehmen, Verwaltungen, Vereine oder eben die Wissenschaft handelt. Man hat es mit mehr Akteuren zu tun, die viel mehr Interaktionsmöglichkeiten miteinander haben. Gleichzeitig wird das gesamte System anonymer, weil es nicht mehr möglich ist, die meisten Akteure persönlich zu kennen. Budgets wachsen, ebenso wie die Zahl an Universitäten, Forschungszentren, die Spezialisierung nimmt zu usw. Dies erfordert neue Strukturen, Bürokratien, Qualitätssicherung.
Spezialisierung und Arbeitsteilung sind grundsätzlich ein Erfolgsprinzip moderner Gesellschaften. Dies betrifft z.B. Industrie, Handel, Verwaltung, Gesundheitsversorgung ebenso wie die Wissenschaft. Hier ist es allerdings zu einer Hyperspezialisierung gekommen, die fallweise schon ein pathologisches Maß angenommen hat. Es gilt vielfach sogar als arrogante Grenzüberschreitung, wenn Wissenschafter versuchen, ein größeres Bild zu zeichnen und die Grenzen ihres sehr engen Fachgebietes zu überschreiten. Einerseits ist Fortschritt ohne Detailwissen kaum möglich, andererseits gerät zunehmend die Sicht auf „das Ganze“, auf inhaltliche Zusammenhänge zwischen den Details, aber auch auf die gesellschaftlichen Effekte, unerwünschte Konsequenzen und Gefahren verloren.
Welche Organisation hat sich jemals von innen heraus selbst beendet, weil sich der gewünschte Erfolg nicht eingestellt hat oder ihr Sinn nicht mehr gegeben ist?
Detailwissen muss in einen größeren Kontext gesetzt werden, um Wirkung zu entfalten und in einem tiefen Sinne kritisiert werden zu können. Somit stehen Spezialisten mit Generalisten, die in den vergangenen Jahrzehnten ins Abseits geraten sind, in einer wichtigen Wechselbeziehung, einer Balance: Die einen versuchen Details zu klären, die anderen, die Übersicht zu bewahren, Verbindungen herzustellen, aber auch Relevanz, sowie Folgen für Technik und Gesellschaft einzuschätzen und zu kommunizieren.
Ein oft gehörter Management-Leitsatz lautet: Nur was gemessen wird, wird gemanagt. Da ist etwas dran, aber noch wichtiger ist – wie Rory Sutherland so treffend formuliert – Was falsch gemessen wird, wird falsch gemanagt. Und dann passiert in der Regel das Gegenteil des gewünschten Effektes.
In der Wissenschaft herrscht heute – ebenso wie in Wirtschaft und Politik – eine Form von angst-getriebenem Management. Kaum jemand hat mehr den Mut sich zu exponieren, eine qualitative Entscheidung für oder gegen einen Kandidaten oder eine Sache vorzutragen. Man versteckt sich lieber hinter vermeintlich objektiven Messwerten, auch wenn diese tatsächlich von eher fragwürdiger Qualität sind und wenig Aussagekraft haben. Für schwache Manager und Politiker ist dies hilfreich, weil man sich hinter „objektiver“ Mathematik und Statistik verstecken kann. Bewertet man die Leistung eines Projektes oder eine Person aber qualitativ, so kann die eigene Urteilskraft leichter angezweifelt werden. Gute Manager, die es natürlich immer noch gibt, sehen sich immer häufiger gezwungen, für Entscheidungen, die sie längst getroffen haben, irgendwelche „hart wirkende“, in der Realität aber recht beliebige Indikatoren, Studien und Parameter zu suchen, um zumindest den Eindruck zu erwecken, man hätte „objektiv“ entschieden. Im schlimmsten Fall führt dies zu einem Phänomen, das der deutsche Psychologe Gerd Gigerenzer defensives Entscheiden nennt: „Eine Einzelperson oder eine Gruppe hält A für die beste Option, entscheidet sich aber für die schlechtere Option B, um sich für den Fall eines Misserfolges abzusichern.“
Aktivisten sind politische Gruppierungen, die von wissenschaftlichen Erkenntnissen motiviert sein können. Sie neigen aber (wie alle politischen Akteure) dazu, sich die „Fakten“ herauszugreifen, die ihrem jeweiligen Zweck dienlich sind. Follow the Science ist somit in der Regel Unfug, besonders wenn es aus dem Mund von Aktivisten oder Politikern stammt. In einer Demokratie ist Aktivismus ein wesentlicher Teil der Meinungsbildung. Man sollte nur die Verweise auf vermeintlich wissenschaftliche Fakten nicht allzu ernst nehmen. Schwieriger ist die Frage, ob Wissenschaft und Aktivismus in einer Person zusammenpassen, oder allgemeiner gesagt: Soll Wissenschaft sich politisieren? Auf den ersten Blick wirkt es wie ein natürlicher Schritt, der von Erkenntnis zum Handeln führt. Wir mögen erkennen, dass es Klimawandel gibt und folgern daraus notwendige Aktivitäten. Das Problem dabei ist, der erste Teil des Satzes ist Wissenschaft, der zweite ist Politik. Wissenschaft operiert immer mit Unsicherheiten und ist noch dazu auf enge Aspekte der Welt fokussiert. Gute Politik hingegen muss mit der Breite der Welt umgehen und alle möglichen Aspekte berücksichtigen und gegeneinander abwägen.
Ein Wissenschafter, der sich aktivistisch betätigt, wird in der Regel sowohl zum schlechten Wissenschafter als auch zum schlechten Aktivisten.
Klar ist nur eines: Je enger finanzielle Anreize oder Abhängigkeiten mit Wissenschaft verknüpft sind, desto genauer müssen die Ergebnisse unter die Lupe genommen werden. Diese Qualitätssicherung kann nicht nur innerhalb des Systems erfolgen, sondern die Zivilgesellschaft ist ebenso gefordert, Wissenschaft hart zu befragen und zu hinterfragen. Dasselbe gilt natürlich auch für politische und ideologische Einflussnahmen, zumal diese oft über dieselben Mechanismen ablaufen.
Wer keine Kritik verträgt, hat in der Wissenschaft nichts verloren.
Der moderne Mensch ist ein Cyborg. Es gibt für ihn keine Möglichkeit mehr, ohne moderne Technik zu existieren. Elektrizität, Mobilität, moderne Landwirtschaft, Logistik und Computer sind von Bequemlichkeiten zu Bedingungen des Überlebens geworden. Die Zukunft der Menschheit wird zu einer Co-Evolution von Mensch und Technik. Und es ist eine komplexe Co-Evolution, die nicht einfach zu durchdringen und noch weniger einfach zu steuern ist. Etwas im Detail, isoliert vom Rest der Welt zu verstehen, bedeutet in keiner Weise, dass wir es auch in der Realität, im komplexen Zusammenspiel mit zahlreichen anderen Systemen begreifen. Dies
Global betrachtet ist vor dem 19. Jahrhundert jedes zweite Kind gestorben, während wir heute bei unter 5 Prozent liegen.
Es wird Darwin klar, dass auch andere, wie eben Wallace, sehr ähnliche Theorien haben und eine schnelle Publikation nun notwendig ist. Auch hier erkennen wir ein immer wiederkehrendes Muster: Neue Erkenntnisse oder Erfindungen geschehen selten alleine. In den meisten Fällen ist die Zeit reif und zahlreiche Erfinder oder Wissenschafter kommen zur selben Zeit auf sehr ähnliche Ideen, wie wir noch am Beispiel der Patentierung des Telefons sehen werden.
„In Großbritannien, der um 1900 am stärksten industrialisierten Nation der Welt, erreichte der Einsatz von Pferden als Transportmittel seinen Höhepunkt nicht im frühen neunzehnten Jahrhundert, sondern in den ersten Jahren des zwanzigsten Jahrhunderts. […] Im Jahr 1924 verfügte die größte und fortschrittlichste britische Eisenbahngesellschaft, die London, Midland and Scottish, über ebenso viele Pferde wie Lokomotiven – 10.000. Im Gegensatz dazu besaß sie nur etwas mehr als 1.000 Kraftfahrzeuge.“, David Edgerton
„Das 19. Jahrhundert stellt in der Stadtgeschichte die Periode dar, in der sich die Struktur der Stadt, wie wir sie heute kennen, formierte. War sie zu dessen Beginn im Kern noch mittelalterlich, so ist Wien am Ende dieses langen Jahrhunderts eine moderne Großstadt.“
So schreibt etwa Karl Popper in den 1980er-Jahren über seine Jugend zu Beginn des 20. Jahrhunderts: „Die Intellektuellen scheinen sich geradezu verschworen zu haben, uns immer wieder zu erzählen, wie schlecht die Welt ist, in der wir leben. Ich halte das für einen fürchterlichen Unsinn, eine wirkliche Lüge, die aber fast allgemein geglaubt wird. In der Zeit meiner Jugend gab es in Deutschland, Österreich, Frankreich, England noch Sklaverei. Vor allem Frauen waren damals versklavt – als Haushaltsgehilfinnen, Köchinnen, Wäscherinnen usw. […] Daneben hat es fürchterliches Elend gegeben.“
Wien, die Stadt, in der Frisch geboren wird, wächst von rund 230.000 Einwohnern um 1800 auf rund 2 Millionen im Jahr 1900 an. Die Bevölkerung in Wien wächst also innerhalb eines Jahrhunderts auf fast die zehnfache Größe. Dies führt zwangsläufig zu großen Problemen und erfordert vollkommen neue Infrastruktur, bauliche und politische Maßnahmen.
Das erste Kernkraftwerk, die Calder Hall Nuclear Power Station, geht 1956 in Betrieb.
Der Messmer Plan in Frankreich. Zwischen 1975 und 1990, also in nur 15 Jahren, werden 52 neue Kernkraftwerke gebaut, von denen viele bis heute grünen Strom liefern.
Trotz zweier schrecklicher Weltkriege gehört danach die erdrückende Armut der Vergangenheit an und fast alles, war wir heute als modernes (und in der Geschichte der Menschheit einzigartig sicheres) Leben wahrnehmen, geschieht in dieser Zeit.
Wenn wir dem gängigen Narrativ folgen, ist unsere Zeit auch eine von ungeheuren Durchbrüchen; alles überschlägt sich und das Wissen verdoppelt sich alle paar Jahre. Zu letzterer Behauptung können wir auf die früheren Kapitel verweisen, denn eine Verdopplung von „Wissen“ ist natürlich nur dann von Relevanz, wenn es sich tatsächlich um Wissen handelt. Stellt es sich aber heraus, dass die Verdopplung zu einem großen Maße aus Irrtümern oder irrelevanten Erkenntnissen besteht, so ist weniger zu feiern. Dann haben wir nur das Rauschen erhöht und damit die Gefahr, vor der schon Karl Popper gewarnt hat, dass wir die wenigen guten und relevanten Ideen im Rauschen verlieren.
Nun sind Prognosen und Modelle immer mit höchster Skepsis zu betrachten. Das ist eine der zentralen Erkenntnisse,
Prognosen und Science-Fiction-Literatur sagen meist mehr über die Zeit aus, in der sie erstellt werden, als über die prognostizierte Zeit.
Fortschritt bleibt nur eine Seite der Medaille. Es hat nur etwas mehr als ein Jahrzehnt gedauert, bis es zu äußerst widersprüchlichen Entwicklungen kommt. Smartphone, Cloud-Technologie, soziale Netzwerke, Kartendienste, Messenger und dergleichen sind definitiv Innovationen, die unser Leben verändert haben. Sie wirken auch in einem unerwarteten Sinne global und werden zum genauen Gegenteil dessen, was wir versucht haben, mit dem Internet der 1990er- und 2000er-Jahre zu erreichen. Die Vision war, ein resilientes und verteiltes Netz aufzubauen. Jeder soll seine eigenen Dienste einfach einbinden können und dies auf Basis offener und frei verfügbarer Technologien und technischer Protokolle. Die Idee war aber nicht, dass alle wesentlichen Dienste wieder auf eine Handvoll kommerzieller Anbieter (noch dazu fast alle in den Vereinigten Staaten beheimatet) zentralisiert werden. Dies führt nicht nur zu weniger resilienten technischen Systemen, sondern auch zu Systemen, wo es wieder möglich wird, zentral, politisch und inhaltlich zu steuern. All dies sollte eigentlich verhindert werden.
Aber für mich persönlich macht es schon sehr stark den Eindruck, dass aus „anarchischer“ Freiheit, Selbstbestimmung und Selbstorganisation vielmehr Ablenkung, Manipulation und global wirksame Zensur geworden ist. Manipulation noch dazu, die nach kleinlichen und lokalen kulturellen Befindlichkeiten funktioniert. Dazu kommt ein deutlich merkbarer Rückgang der Qualität in zahlreichen IT- und Web-Services.
Was viele außerdem überrascht hat, ist, dass wir in der Umsetzung vieler Infrastruktur-Projekte in Industrie oder öffentlicher Hand sogar deutliche Rückschritte machen. Ich verbringe einen großen Teil meines beruflichen Lebens damit, gescheiterte Projekte zu analysieren und zu versuchen, diese wieder auf Schiene zu setzen.
Zahlreiche Projekte, die im 19. und frühen 20. Jahrhundert in bemerkenswerter Effizienz umgesetzt werden, scheitern heute, wie der Bau von Kraftwerken, Flughäfen, Konzertsälen, Eisenbahnstrecken oder Krankenhäusern.
Was hat sich in der Welt verändert? In manchen Bereichen sehen wir beängstigend schnelle Änderungen (wie in der künstlichen Intelligenz oder der synthetischen Biologie) und in anderen Bereichen, die wir bereits vor 100 Jahren gemeistert hatten, stecken wir fest und scheitern an Projekten, die Unternehmer im 19. Jahrhundert umgesetzt haben?
Factfulness von Hans Rosling. Hans Rosling war ein schwedischer Mediziner und Statistiker. Er schreibt dieses Buch, weil er zu der Ansicht gelangt, dass die Wahrnehmung vieler Menschen über den Zustand der Welt und der Menschen zu negativ ist und dies nicht mit den Tatsachen übereinstimmt.
Im 19. Jahrhundert konnten noch weniger als 20 Prozent der Weltbevölkerung lesen und schreiben, während dies heute mehr als 80 Prozent
Die Angabe von Durchschnittswerten ist in vielen Fällen problematisch und irreführend, beispielsweise wenn die darunterliegende statistische Verteilung nicht homogen ist, wie in diesem Beispiel. Vor dem 20. Jahrhundert stirbt jedes zweite Kind, und die Sterblichkeit junger Frauen ist besonders bei Geburten sehr hoch. Viele Menschen sind also deutlich vor der „durchschnittlichen Lebenserwartung“ gestorben. Wer Kindheit und Jugend überlebt hat, konnte aber deutlich älter werden. Der Wert der „durchschnittlichen Lebenserwartung“ ist für diese Zeit also eher ein statistisches Artefakt, das wenig konkrete Bedeutung hat.
Auch ist es natürlich erfreulich, wenn es aktuell weniger Kriegstote pro Jahr als in der ersten Hälfte des 20. Jahrhunderts gibt. Sollte jedoch ein Weltkrieg ausbrechen, wären die Effekte ungleich verheerender als je zuvor. Hinter einer auf den ersten Blick guten Nachricht schlummert in Wahrheit ein dramatisch größer gewordenes Risiko, ein sogar für die Menschheit existenzielles Risiko.
Katastrophen sind Teil des Lebens und wir Menschen sind herausragend schlecht, diese vorherzusagen. Die nächste Katastrophe überrascht mit großer Wahrscheinlichkeit wieder alle. Daran hat sich auch mit der modernen Wissenschaft nur wenig verändert.
Daten und Analysen der Vergangenheit sind ohne Kontext und qualitative Betrachtung meist problematisch, und Vorhersagen des Verhaltens komplexer Systeme sind generell von geringer Qualität und treffen fast nie ins Ziel. Selbst wenn sie eintreffen, sind etablierte Strukturen oftmals nur schlecht darauf vorbereitet, wie man an der Reaktion auf die Covid-Pandemie leicht erkennen kann. Bedeutet das Nichteintreffen einer Warnung vor einem existenziellen Risiko allerdings, dass dieses nicht existiert? Natürlich nicht. Die Tatsache etwa, dass wir nicht im dritten Weltkrieg durch Atomwaffen gestorben sind, ist eher dem Zufall als dem klugen Handeln von Politikern zu verdanken.
Im Jahr 2005 wird ein einflussreicher Bericht des Ökonomen Nicholas Stern in Anwesenheit des Premierministers Tony Blair vorgestellt. Die ökonomischen Folgen des Klimawandels werden prognostiziert und sehen sehr schlecht aus. Sechzehn Jahre später lohnt es sich, einen Blick auf die Prognosen zu werfen. Es stellt sich heraus, über diesen Zeitraum hat die Realität nur einmal die Prognosen übertroffen, aber liegt in allen anderen Jahren deutlich darunter. Anders ausgedrückt: Der Schaden in dieser Zeit wurde um eine Billion Dollar überschätzt.
Bemerkenswert ist nun, dass das Risiko an einem extremen Wetterereignis zu sterben in den letzten 100 Jahren um 99 Prozent zurückgegangen ist. Auch die Kosten sind global um rund ein Viertel über die letzte drei Jahrzehnte zurückgegangen. Dies trotz des schon genannten starken Bevölkerungswachstums. Gründe dafür sind im Kern, dass wir reicher sind als früher und über bessere Technologie und Prozesse verfügen. Schnellere und genauere Vorhersagen, bessere Bauweisen von Gebäuden und Infrastruktur sowie Katastrophenschutz beziehungsweise Rettungsorganisationen haben unsere Anfälligkeit auf Naturkatastrophen massiv reduziert.
Dazu kommt, dass wesentlich mehr Menschen an Kälte als an Hitze sterben. Global sind mehr als 90 Prozent der durch Temperatur verursachten Todesfälle auf Kälte und weniger als 10 Prozent auf Hitze zurückzuführen.
Je ökonomisch entwickelter eine Nation ist und je mehr politische Freiheit es gibt, umso geringer ist das Risiko an Katastrophen, Hunger oder Krankheiten zu sterben.
John Stuart Mill, der argumentiert, dass staatliche Macht sehr eng eingehegt werden muss. Er spricht von einem Kampf zwischen Freiheit und Autorität und warnt nicht nur von der Tyrannei der Mächtigen, sondern vor den Gefahren, dass die Mehrheitsmeinung die Ideen von Minderheiten unterdrücken können und damit der Gesellschaft Schaden zufügen. Ein Gedanke, der genauso gut ins 21. Jahrhundert passt.
„Wir müssen uns hier für einen Augenblick in die Zeit unmittelbar vor der Unterdrückung der Demokratie und der Einführung des totalitären Regimes zurückversetzen. Dieses Stadium wird beherrscht von dem allgemeinen Verlangen nach schnellem und entschlossenem Handeln der Regierung und von der Unzufriedenheit mit dem langsamen und schwerfälligen demokratischen Geschäftsgang, was dazu führt, dass ein Handeln unter allen Umständen gefordert wird.“
Die Verfügbarkeit von Energie. Sie ist die Basis des modernen Lebens und damit unseres Lebensstandards. Die größte Rolle spielen seit der industriellen Revolution bis heute fossile Energieträger. In Industrienationen arbeiten durch diese Form an Energie und damit ermöglichten Maschinen für jeden Menschen das Äquivalent von 60 menschlichen Arbeitskräften. Ständig. Tag und Nacht. Ohne Wochenende.
Luftverschmutzung in Innenräumen wird von der WHO als eines der größten globalen Gesundheitsrisiken bezeichnet und ist für rund 1,6 Millionen Todesfälle pro Jahr verantwortlich. Auch haben rund drei Milliarden Menschen weniger Elektrizität zur Verfügung, als ein üblicher US-amerikanischer Kühlschrank verbraucht. Verdichtung, Effizienzsteigerung und bessere Produktivität sind weitere Faktoren, die für einen höheren Lebensstandard bei niedrigeren Emissionen und Ressourcenverbrauch sorgen. Ein Beispiel dafür ist das Leben in der Stadt. Entgegen romantischen Bildern in Werbetexten fördert das Leben in der dichten Stadt nicht nur Innovation und Fortschritt, sondern ist in der Regel auch deutlich ökologischer als das Leben am Land. Dies ist nicht schwer zu verstehen, zumal alle möglichen Infrastrukturmaßnahmen wie Kanalisation, Lebensmittelversorgung, Wasserversorgung, Energieversorgung, Medizin, Abfallentsorgung bei gleichem Aufwand viel mehr Menschen versorgen. Auch leben Menschen in der Stadt im Schnitt auf kleineren Wohnflächen, was sich wieder günstig auf Ressourcen- und Energieverbrauch auswirkt.
Zwischen 1800 und 2020 hat sich die menschliche Arbeitskraft, die notwendig ist, um einen Kilogramm Weizen zu produzieren, vor zehn Minuten auf unter zwei Sekunden verringert.
Trotz der steten Rhetorik von einer wachsenden Kluft zwischen „Arm“ und „Reich“ in den entwickelten Nationen, stellt sich die Situation in der Realität anders dar.
Wir leben mit dem Paradoxon, dass die Welt zwar für die meisten Menschen wesentlich sicherer und lebenswerter geworden ist, dass sich gleichzeitig aber vollkommen neue systemische Herausforderungen ergeben haben, die wir nicht ignorieren dürfen. Auch sind einmal erzielte Erfolge nicht automatisch von Dauer, sondern bedürfen ständiger Arbeit, um sie zu erhalten.
„Die Welt, die Sie überall um sich herum sehen, hätte niemals von den Menschen erschaffen werden können, die Sie jetzt in ihr leben.“, Eric Weinstein
Wir haben vieles erreicht, aber Fortschritt ist fragil. Moderne Gesellschaften und ihre Technologie sind dynamisch, stabilisiert. Jede technische Infrastruktur, z.B. die Energieversorgung, das Internet oder Lieferketten, funktionieren nicht einfach über lange Zeit, nur weil man sie einmal in Betrieb genommen hat. Sie müssen permanent gewartet, mit Energie und Rohstoffen versorgt, erneuert, kontrolliert und geregelt werden. Außerdem sind sie einem steten ökonomischen Druck unterworfen, und wenig effiziente Systeme sterben aus. Wenn wir Technik in die Welt bringen, so muss diese fast wie ein Lebewesen oder ein Ökosystem umsorgt werden. Technik altert auch und neue Technik muss alte ablösen, und diese neue Technik mit alter zusammenspielen. Stillstand bedeutet Rückschritt und Verlust bereits erlernter Fähigkeiten. Technik und Menschen bilden ein technosoziales System, das miteinander wächst und voneinander abhängig ist.
1941: Der Bau des Suezkanals in der Mitte des 19. Jahrhunderts und der Bau des Panamakanals zu Beginn des 20. Jahrhunderts dauern jeweils rund 10 Jahre. Erinnern wir uns daran, dass es Mitte des 19. Jahrhunderts keine modernen Baumaschinen gibt und auch die Technik zur Zeit des Panamakanals weit hinter der Technik der heutigen Zeit zurückliegt.
Die erste Wiener Hochquellenwasserleitung für die wachsende Stadt Wien wird mit den begrenzen technischen Möglichkeiten des 19. Jahrhunderts in nur vier Jahren gebaut! Sie hat eine Länge von rund 100 km.
Das große Staukraftwerk Kaprun wird – direkt nach den Zerstörungen des Zweiten Weltkriegs – in acht Jahren zwischen 1947 und 1955 gebaut. Kaprun ist bis heute, siebzig Jahre später, eines der wesentlichen Kraftwerke Österreichs
In den 1970er-Jahren baut Frankreich im Rahmen des Messmer-Plans innerhalb von 15 Jahren 52 Kernkraftwerke, von denen viele noch immer zuverlässig und umweltfreundlich Strom liefern.
Wir benötigen hier für den Bau einer Konzerthalle im 21. Jahrhundert die gleiche Zeit wie unsere Vorfahren für den Bau des Panama- oder Suezkanals. Was aber noch wesentlicher ist, es gibt tausende Konzertsäle auf der ganzen Welt, von denen man lernen kann, wie man Konzertsäle baut. Der Panamakanal hingegen war ein zu seiner Zeit noch nie dagewesenes Bauwerk.
Im Gegensatz zu unserer Wahrnehmung, dass sich die Informations- und Kommunikationstechnologie (IKT) rasend schnell verändert und sich ständig neu erfindet, ist dies hinter den Kulissen oftmals nicht der Fall.
Der dänische Ökonom Bent Flyvberg hat eine Datenbank mit über 16.000 Projekten aus mehr als 20 verschiedenen Bereichen und mehr als 100 Ländern zusammengetragen. Seine empirischen Daten legen ebenfalls nahe, dass wir hier einen für unsere moderne Welt sehr kritischen Trend beobachten und nicht nur wenige „Ausreißer“. Sie zeigen auch, dass es Erfolgs- und Misserfolgsfaktoren in großen Projekten gibt, die häufig ignoriert werden.
Zwischen 1900 und 1970 gibt es dramatische Fortschritte. Die Lebenserwartung verdoppelt sich nahezu von ca. 40 auf 70 Jahre. Dann benötigt es weitere 60 Jahre, um noch ein Jahrzehnt zuzulegen. In den letzten Jahren aber sinkt die Lebenserwartung wieder! Diese Zahlen erzählen aber nicht die ganze Geschichte, dazu müssen wir wieder einen Blick auf die Aufwände (in Europa und den Vereinigten Staaten) werfen. Die Ausgaben für das Gesundheitssystem liegen bis in die 1940er-Jahre unter einem Prozent des BSP. Zwischen 1960 und 1970 – wo wir die Lebenserwartung fast verdoppelt haben – liegen die Ausgaben zwischen einem und vier Prozent. Heute, wo wir sogar leichte Rückschritte verzeichnen, geben wir in den Vereinigten Staaten mehr als 15 Prozent und in Deutschland und Österreich ca. 10 Prozent des BSP für Gesundheit aus. Die Aufwände sind also drei- bis fünfmal so hoch wie in den 1960er- und 1970er-Jahren.
Stecken wir nur in einem Zwischentief?
Werden wir die KI so wahrnehmen, wie unsere Großeltern, Fließwasser und Elektrizität? Oder wird sie eher Produkte von hoher Qualität durch eine Flut von billigen Produkten mittlerer und schlechter Qualität ersetzen?
Es herrscht weitgehend Einigkeit darüber, dass fossile Energieträger abgelöst oder reduziert werden sollten. Weniger Einigkeit herrscht, in welchem Tempo und welcher Form das geschehen soll oder geschehen kann. Es gibt jenseits der Kernkraft keine Erfahrung mit der großflächigen Veränderung der Stromerzeugung, geschweige denn der Transformation des gesamten Energiesystems, weg von fossiler Energie.
Deutschland hat eines der größten Transformationsprojekte seiner Geschichte gestartet; eines, das weitgehend experimentell ist und auf ungeprüften Annahmen basiert und macht dies auch noch ohne transparente Kostenkontrolle. Einzelne Studien legen nahe, dass bis 2024 Kosten zwischen 500 und 1.000 Milliarden Euro angefallen sind. Klar ist auch, dass alle weiteren Schritte noch wesentlich teurer werden. Die niedrig hängenden Früchte sind geerntet.
Global sinkt zwischen 1997 und 2023 der relative Anteil von fossilen Energieträgern an der Gesamtenergieversorgung nur von 86 auf 82 Prozent. Schon das ist kaum als Erfolg zu verbuchen. Da der Energieverbrauch aber stark gestiegen ist, steigt der absolute Verbrauch an fossilen Energieträgern in diesem Zeitraum um 55 Prozent. Mit anderen Worten, wir erleben keine Dekarbonisierung, sondern das Gegenteil. Dies wird sich auf absehbare Zeit nicht ändern.
Dieses Beispiel ist von sehr grundsätzlicher Bedeutung, weil es zeigt, dass die Veränderung oder Verbesserung von komplexen technischen Systemen äußerst schwierig sein kann. Der naive Glaube, dass neue und ungeprüfte Technologien („Innovation“) solche Herausforderungen schnell und billig lösen, erweist sich immer wieder als teurer und gefährlicher Irrtum.
Fortschritt ist nicht immer nur Neues in die Welt zu bringen. Bestehende Infrastruktur muss gewartet und das Neue integriert werden. Die Fähigkeit, elementare Infrastrukturen wie Eisenbahnen, Brücken, Kanalisation oder Kernkraftwerke schnell und in angemessener Qualität zu bauen und zu warten, ist für eine moderne Gesellschaft von größerer Bedeutung, als ein neues iPhone auf den Markt zu bringen.
Wir erleben zudem Überbürokratisierung und Kompetenzverlust in wesentlichen technischen Bereichen – erinnern wir uns an die Stagnation in der Wissenschaft –, gepaart mit politischer Schwäche und schwerwiegenden strategischen Fehlentscheidungen. In Projekten haben, wie in der Wissenschaft, immer mehr Bürokraten und immer weniger Experten das Sagen, mit den erkennbaren Folgen.
Stecken wir also in einer Steampunk-Welt fest? In einer Welt, in der wir keine zuverlässige und leistbare Energieversorgung mehr haben, medizinische Versorgung stetige Rückschritte und jeder neue Bahnkilometer Aufwände wie eine Mondlandung erzeugt? In einer Welt aber, wo jeder mittelmäßig begabte Student neue Viren oder andere Lebensformen in der Küche schaffen kann, KI und Robotik wesentliche Teile der Welt neu definieren? Jedenfalls im Westen sollten wir uns diese Frage stellen, denn es gibt erhebliche geografische Unterschiede. Blickt man in den Nahen Osten, etwa nach Saudi-Arabien oder nach Asien, so erkennt man eine völlig andere Geisteshaltung, Technik und Innovation gegenüber. China hat mittlerweile in nahezu allen industriellen, militärischen und infrastrukturellen Produktionen die Fähigkeiten und Geschwindigkeit westlicher Industrienationen überholt. Die Hyper-Selbstkritik und der Wunsch, jede Gefahr und jedes Risiko sofort im Keim zu ersticken, sind dort nicht zu finden. Auch ist das Interesse an Technik und Wissenschaft ungebrochen.
Fortschritt muss nicht von Dauer sein. Rückschritte sind jederzeit möglich – selbst dramatische Rückschritte –, wenn man als Gesellschaft die falschen Entscheidungen trifft, nachlässig und selbstgefällig wird.
Die Frage, ob wir (in den entwickelten Ländern) überhaupt noch in der Lage sind, den Lebensstandard zu halten, weil wir uns auf unseren Lorbeeren ausruhen, oder aus anderen Gründen die Fähigkeit verloren haben, Technik zu betreiben, die wir bereits vor 100 Jahren im Griff hatten, ist nur ein Dilemma, mit dem wir zu kämpfen haben. Es gibt noch eine zweite, mindestens ebenso wichtige Frage: wie sieht es mit den (unerwünschten) Nebenwirkungen aus, die Technologie und Wissenschaft in die Welt gebracht haben? Welche neuen Risiken haben wir uns eingehandelt? Risiken, die vor allem auch Innovation beruht immer auf bestehender Technik und bestehendem Know-how. Ohne Elektrizität, ohne moderne Materialien, ohne moderne Fertigungstechniken, ohne Computer gibt es keine Mikrochirurgie. Sobald die Innovation zum erfolgreichen Produkt oder Service wird, muss es mit dem übrigen technosozialen System erfolgreich interagieren, sich einpassen und über die gesamte Lebenszeit gewartet werden.
Mit dem Aussterben einer Technologie stirbt natürlich auch die Fähigkeit aus, diese Technik zu schaffen, zu warten und zu betreiben.
Denn nahezu jede Technologie, die wir als Menschen entwickelt und in unser Leben integriert haben, zeigt über die Zeit drei Effekte: (1) Die geplanten und erwünschten Eigenschaften (die nicht immer als Fortschritt zu werten sein müssen), (2) unerwartete Eigenschaften, die sich aber als positiv herausstellen sowie (3) unerwartete Eigenschaften oder Begleiterscheinung, die sich negative auf uns oder unsere Umwelt auswirken. Das Problem komplexer Systeme ist, wie wir später noch sehen werden, dass Planung und Vorhersage nur in äußerst beschränktem Umfang möglich sind. Mit anderen Worten, wir haben keine Möglichkeit, alle Effekte neuer Technologien und Produkte vorherzusagen und müssen immer mit unerwarteten Folgen rechnen.
Ein Mensch benötigt in Ruhe ungefähr 90 Watt an Energie. Ein einzelner Mensch, der im Lebensstil der Vereinigten Staaten lebt, hat einen ständigen Energiebedarf von 11.000 Watt. Dies entspricht dem Energieverbrauch des größten Lebewesens, das je gelebt hat, dem Blauwahl.
Nutztiere machen heute rund 60 Prozent der Biomasse aller Säugetiere aus, Menschen über 30 Prozent und wild lebende Säugetiere nur mehr 4 Prozent.
Wir Menschen sind Teil der Natur und von technischen Systemen abhängig; durch diese Wechselwirkungen lassen sich Menschen-, Technik- oder Umwelt nicht mehr abgrenzen. Weder eine Zerstörung der Natur noch der technischen noch der sozialen und wirtschaftlichen Systeme würden wir als Menschheit überleben.
Unter dem Strich ist die wesentliche Lehre für alle komplexen Risiken mit denen wir konfrontiert sind: Wir wissen in der Regel viel weniger über das mittel- oder langfristigen Verhalten diese Systeme und deren Folgewirkungen auf die Gesellschaft, als von manchen Experten und Medien dargestellt wird. In diesem Unwissen steckt natürlich selbst wieder ein Risiko.
„Für jede mögliche Katastrophe gibt es mindestens eine plausible Kassandra. Nicht alle Prophezeiungen können beherzigt werden. In den letzten Jahren haben wir vielleicht zugelassen, dass ein Risiko – nämlich der Klimawandel – unsere Aufmerksamkeit von den anderen ablenkt.“, Niall Ferguson
Wir laufen als Menschheit, getrieben von Aktivismus, populistischer Politik und oftmals hysterischen Medien, immer einem gerade modischen Risiko hinterher. Wir sind dann aber weder auf dieses gut vorbereitet noch auf das Risiko, das dann tatsächlich als Nächstes schlagend wird.
Natürliche oder künstlich erzeugte Pathogene, also etwa Viren und Bakterien, eröffnen extreme Risiken für die Menschheit in den kommenden Jahrzehnten. Die Fortschritte in der synthetischen Biologie und Gentechnik zeigen, dass mittlerweile begabte Studenten in der Lage sind, „in der Garage“ neue Lebensformen zu erzeugen.
Sehr hoch auf der Liste steht eine Gefahr, die viele nicht auf dem Radar haben, nämlich den Zusammenbruch kritischer Infrastrukturen. Wir sind im Westen mit einer bemerkenswerten Zuverlässigkeit wesentlicher Infrastruktur wie Elektrizität, Wasser, Treibstoff oder Nahrungsmittelversorgung aufgewachsen. Die ständige Zunahme der Vernetzung, Effizienzsteigerungen und die Steigerung der Komplexität dieser Systeme erhöht aber auch die Risiken großer und dominoartiger Ausfälle. Dazu kommt, dass in den vergangenen Jahrzehnten versucht wird, einzelne Systeme (wie die Energieversorgung) auf bemerkenswert ungeschickte Weise in kürzester Zeit umzustellen. Die Reserven, die über lange Zeit der kompetenten Wartung und Weiterentwicklung im System waren, sind nun aufgebraucht.
Jedenfalls ist eines sicher, je mehr Systeme wir automatisieren (z.B. kontinentale Energienetze, Finanzsysteme, Lieferketten, Internet-Dienste), je mehr diese vernetzt sind und je schneller diese autonom wichtige Entscheidungen treffen, desto größer ist das Risiko für unvorhersehbare, großflächige, und auch existenzielle Krisen.
Ein solarer Supersturm (auch Carrington-Ereignis genannt) bedroht moderne Infrastruktur und ist gleichzeitig in der Öffentlichkeit nahezu unbekannt.
Rund 30 Prozent der Fläche der Erde sind Landflächen, davon rund drei Viertel bewohnbar. Knapp die Hälfte der bewohnbaren Landfläche wird für Landwirtschaft genutzt, 40 Prozent für Wälder und nur rund ein Prozent für Städte.
Die Dichte der Stadt ist aus Risikosicht jedoch wieder ein zweischneidiges Schwert. Die Stadt ist ökologisch günstig, innovativ und liberal, aber Menschen in einer Stadt sind von moderner Technik wie Elektrizität, Kanalisation, Wasserversorgung, Lieferketten für alle möglichen Produkte viel stärker abhängig als ländliche Bevölkerung. Ein Kollaps wesentlicher Infrastruktur in großen Städten bedroht sofort das Leben von Millionen Menschen in immer größer werdenden Städten.
Ein Paradoxon und gemeinsames Merkmal vieler moderner Technologien scheint zu sein, die Kluft zwischen Nutzen und (katastrophalem) Risiko immer schärfer zu machen. Manchmal reicht ein falscher Schritt aus, um aus einer nützlichen Technologie ein Desaster zu machen.
„Die Anti-GMO-Bewegung setzte sich bei wohlhabenden Menschen durch, die über reichlich und billige Lebensmittel verfügten. Für sie war die Steigerung der Ernteerträge nicht dringlich und relevant. Diejenigen, die die Opportunitätskosten des Verbots zahlten, waren die Kranken und Hungernden, die keine Stimme hatten.“, Matt Ridley
Luxury Beliefs oder Luxus-Glaubenssätze. Sie sind so etwas, wie ein neuartiges Statussymbol einer übersättigten, wohlhabenden Schicht und vermeintlich intellektuellen Eliten. Wir finden sie in unausgegorenen Ideen des Umweltschutzes ebenso wieder, wie in anderen Gesellschaftstheorien, die als „woke“ bezeichnet werden. Gut gemeint ist also, wie so oft, das Gegenteil von gut gemacht.
Der Klimaforscher und Geologe Bill McGuire hofft auf einen Virus, der einen großen Teil der Menschheit tötet, um die Emissionen (nach seiner Vorstellung) hinreichend zu senken.
Weder gibt es ein Zurück zu einem Leben ohne Technik – jedenfalls keines, das für die Menschheit in wünschenswert sein könnte – noch zu einem Leben ohne Natur und Ökosysteme. In der Natur, in der Menschheit, in Kunst und Kultur und auch in Technik steckt ein Wert, den es für lange Zeit zu erhalten gilt.
Die Technik, die Infrastruktur, die unser Leben ermöglicht, am Laufen hält, steht in ständiger Wechselwirkung mit Menschen. Einerseits natürlich, weil sie für Menschen geschaffen wird. Elektrizität ist kein Selbstzweck, sondern dient uns. Andererseits ist eine große Zahl an Menschen mit sehr speziellen Fähigkeiten erforderlich, um diese Infrastruktur und Dienste zu betreiben, zu warten und weiterzuentwickeln. Technosoziale Systeme sind dynamisch, immer in Bewegung und überleben nur, wenn sie sich ständig weiterentwickeln. Infrastruktur, die nicht gewartet wird, stirbt.
An dieser Stelle werden zwei Dinge klar. Innovation beruht immer auf bestehender Technik und bestehendem Know-how. Ohne Elektrizität, ohne moderne Materialien, ohne moderne Fertigungstechniken, ohne Computer gibt es keine Mikrochirurgie. Sobald die Innovation zum erfolgreichen Produkt oder Service wird, muss es mit dem übrigen technosozialen System erfolgreich interagieren, sich einpassen und über die gesamte Lebenszeit gewartet werden.
Wir können uns weniger vorstellen, als wir herstellen können, meint also, wir sind in der Lage, eine bemerkenswerte Vielfalt an technischen Systemen herzustellen und zu betreiben. Aber wir scheitern regelmäßig daran, die Dinge, die wir selbst gebaut haben, zu beschreiben oder deren Effekte korrekt zu erklären oder vorherzusagen.
Die meisten Phänomene der Welt fallen in drei Kategorien: Erstens solche, die auf lange Zeit stabil wirken und von uns langfristig präzise vorhersagbar sind. Zweitens Phänomene, die zwar im Einzelfall wenig oder keine Vorhersagbarkeit erlauben, jedoch in der Summe wiederkehrende Muster zeigen. Die dritte Kategorie ist eine eigenartige. Sie verhält sich fallweise stabil und vorhersagbar, dann wieder nicht, dann macht sie „Sprünge“ im Verhalten und überrascht uns damit – manchmal sehr positiv oder sehr negativ.
Die dritte Kategorie sind komplexe Systeme. Sie sind im Verhalten nicht mit klassischen mechanischen oder stochastischen Prozessen vergleichbar.
Komplexe Systeme bestehen aus einer größeren Zahl an Teilen oder Akteuren, die auf vielfältige Weise miteinander interagieren. Diese Teile können sich durch die Interaktionen auch verändern, aneinander anpassen.
Wie sich ein komplexes System verhält, hängt in starkem Maße davon ab, welche positiven und negativen Rückkopplungseffekte dieses System kennt. Man könnte auch sagen, das Dazwischen ist wichtiger für das Verständnis eines komplexen Systems als die Akteure selbst.
Komplexe Systeme sind dynamisch stabilisiert, sie sind zumeist nicht im thermodynamischen Gleichgewicht. Lebewesen benötigen stete Zufuhr von Energie und diese Energie wird durch selbstorganisierendes Verhalten genutzt, um die Lebensform (Mensch, Tier, Pflanze oder Mikrobe) zu erhalten. Thermodynamisches Gleichgewicht bedeutet Tod. Die Lebensform kämpft, bildlich gesprochen, ständig gegen diese Form des Gleichgewichtes, gegen den eigenen Tod an.
Technische Systeme benötigen Energie und ständige Wartung und Steuerung, um somit ebenfalls dynamisch stabilisiert ihre Aufgabe zu erfüllen. Derartige stabile Zonen werden von Komplexitätsforschern auch als Attraktoren bezeichnet. Dies sind Zustände, die nicht in einem simplen Sinne stabil sind, sondern über die Zeit eine gewisse Ordnung, wiederkehrende Muster zeigen.
Ebenso werden juristische Regularien, die versuchen Systeme zu kontrollieren (etwa den Finanzmarkt) unnötig komplex gemacht und erreichen damit das Gegenteil des erwünschten Effektes. Es ist einfacher, immer neue Regeln zu erfinden, die im Zusammenspiel mit alten Regeln eine explosive Komplexität entfalten. Es ist sehr schwierig, einfache Regeln zu entwickeln und anzupassen, um komplexe Probleme angemessen und effektiv zu regulieren.
Die meisten Phänomene der Welt fallen in drei Kategorien. Zunächst solche, die auf lange Zeit stabil wirken und von uns gut vorhersagbar sind. Dies sind häufig simple Systeme, die auch mit klassischer Physik oder mathematischen Gleichungen beschrieben werden können. Dazu gehören mechanische Systeme. Auch planetare Systeme, obwohl sie im Grunde komplexe Systeme sind, zeigen eine langfristige Stabilität, die sie berechenbar machen. Zweitens Systeme, die zwar im Einzelfall wenig oder keine Vorhersagbarkeit erlauben, aber in der großen Zahl Muster erkennen lassen. Dies sind stochastische Prozesse, Glücksspiel wie Roulette, aber auch alle Vorgänge, die sich klassisch versichern lassen. Beim Roulette etwa, sofern der Tisch korrekt funktioniert, ist jedes einzelne Ergebnis zufällig und nicht vorhersagbar. Über einen ganzen Abend (oder besser noch einen ganzen Monat) lassen sich klare Wahrscheinlichkeiten angeben. So kommen Rot und Schwarz nahezu im Verhältnis 1:1 vor (abzüglich der Wahrscheinlichkeit von Zero, also genau gesagt, 1,06:1).
Menschen verhalten sich als Individuen wenig vorhersagbar, aber in großer Zahl erkennen wir bestimmte Regelmäßigkeiten. Niemand kann vorhersagen, wann eine bestimmte Person stirbt, die heute geboren wird. Niemand weiß, ob ein bestimmter Autofahrer morgen einen Unfall hat und welcher Schaden dadurch verursacht wird. Dennoch gibt es Lebens- und Kfz-Versicherungen. Die große Zahl der Menschen beziehungsweise Kfz-Fahrten zeigt Muster, die es erlauben, Sterbetafeln oder Unfallstatistiken aufzustellen. Das durchschnittliche Risiko ist damit für den Versicherer über bestimmte Zeiträume vorhersagbar. Was aber für die Gruppe gilt, hat für das Individuum keine konkrete Bedeutung.
Die dritte Klasse sind, wie zuvor erwähnt, komplexe Systeme. Viele der wesentlichen Herausforderungen, mit denen wir in der Welt konfrontiert sind, fallen in diese Kategorie. Dazu zählt die individuelle Entscheidung, einen Job anzunehmen, zu heiraten, aber auch Management-Entscheidungen in kritischen unternehmerischen Situationen, sowie politische Entscheidungen, etwa in Fragen der Migration, Regulierung von wirtschaftlichen Fragen oder geopolitischen Krisen fallen in diese Kategorie. Komplexität ist eine fundamentale und systemische Eigenschaft und komplexe Systeme zeigen in vielen Fällen radikale Unsicherheiten, die sich auch durch bessere Methoden, bessere Mathematik, bessere Computer oder gar künstliche Intelligenz nicht überwinden lassen.
In dem Artikel unterscheiden sie zwischen zwei Arten von Problemen. Die eine Art nennen sie Tame Problems (zahme Probleme) und die andere Art Wicked Problems. Die zahmen Probleme fallen in die ersten beiden oben genannten Kategorien. Dazu zählen das Lösen einer Gleichung, die Analyse der Struktur eines organischen Moleküls, das Reparieren einer Uhr oder eines Motors, das Lösen eines Puzzles.
Fast alle wichtigen Herausforderungen in unserer Welt (im Privaten, in Unternehmen oder in der Politik) fallen in die Kategorie der Wicked Problems. Sie tauchen in komplexen Sachverhalten auf und zeigen eine Reihe von besonderen Eigenschaften:
- Es gibt keine eindeutige Definition eines Wicked Problems.
- Es gibt keine einfache Beschreibung der Lösung oder des gewünschten Endzustandes und damit kein klares Kriterium, wann man mit der Problemlösung fertig ist.
- Jedes Wicked Problem ist im Grunde einzigartig.
- Ein Wicked Problem greift in andere Probleme über, es verbreitet sich in Organisationen und über Hierarchieebenen.
Wicked Problems: Es gibt bei dieser Art von Problemen keine zählbare Menge an Lösungen (damit sind wir wieder bei der Definition radikaler Unsicherheit) und daher auch keinen einfach beschreibbaren Test, der klar anzeigt, wann das Problem gelöst wäre. Häufig scheitert man schon daran, eine klare Beschreibung des Problems zu finden, der alle Beteiligten zustimmen. Wenn dies aber nicht gegeben ist, kann man nicht von einem klaren Ziel sprechen. Auch ist in den meisten Fällen völlig unklar, ob der im Augenblick erwünschte Zielzustand tatsächlich die Eigenschaften hat, die man ihm aktuell zuschreibt; ganz nach dem alten Sprichwort: Be careful, what you wish for, lest you get it. (Sei vorsichtig mit deinen Wünschen, sie könnten dir erfüllt werden.)
Aufgrund der Tatsache, dass es weder eine eindeutige Beschreibung des Problems noch der möglichen Lösungsoptionen gibt, sind auch klassische Formen der Problemlösung, der Bewertung, der Optimierung nicht anwendbar. Auch Versuch und Irrtum funktionieren nicht gut.
Jeder Versuch also, ein Wicked Problem zu lösen, verändert das Problem. Man kommt nie wieder an den Anfang zurück, um eine andere Lösung unter gleichen Bedingungen zu versuchen. Daraus folgt auch, dass sich Maßnahmen, die bei der Verbesserung eines Problemfalls funktioniert haben, nicht ohne Weiteres auf einen anderen Fall übertragen lassen.
Schon die Verwendung des Begriffs „Problem“ ist im Grunde irreführend und sollte vermieden werden. Es handelt sich bei diesen Herausforderungen eher um Dilemmata. (Wer es ganz präzise mag, kann sie Polylemma nennen, denn es gibt in der Regel mehr als zwei mögliche Maßnahmen.) Jede aber „löst“ das Problem nicht, sondern verbessert es im besten Fall. Jede Maßnahme bringt gleichzeitig Nachteile mit sich.
Ab einem bestimmten Grad an Vernetzung und einer bestimmten Zahl an Elementen tritt komplexes, emergentes Verhalten an den Tag.
Skalierung verändert das Verhalten eines komplexen Systems grundsätzlich.
Damit soziale Systeme überhaupt skalieren können, sind völlig neue Strukturen der Interaktion und Verwaltung notwendig.
Größere Datenmengen oder bessere Datenqualität oder KI können hilfreich sein, um Probleme besser zu verstehen. Die fundamentale Unsicherheit können sie nicht eliminieren.
Dem britischen Statistiker George Box wird das folgende Zitat zugeschrieben: „Alle Modelle sind falsch, aber manche sind nützlich.“
„Da alle Modelle falsch sind, kann der Wissenschaftler nicht durch übermäßige Ausarbeitung ein richtiges Modell erhalten. Vielmehr sollte er sich in Anlehnung an William von Occam um eine ökonomische Beschreibung der Naturphänomene bemühen. So wie die Fähigkeit, einfache, aber aussagekräftige Modelle zu entwickeln, das Markenzeichen eines großen Wissenschaftlers ist, so sind Überarbeitung und Überparametrisierung oft das Zeichen von Mittelmäßigkeit.“
Die Wirtschaftskrise 2008 hat deutlich gemacht, dass die Wirtschaftswissenschaft weder in der Lage war, diese Krise vorherzusagen, noch waren die Banken und Regulatoren fähig, sie mit ihren Modellen und darauf aufbauenden „Risikomanagement“ zu verhindern.
„Die Unfähigkeit der Experten, die Krise zu antizipieren, war nicht einfach das Ergebnis von Inkompetenz oder absichtlicher Blindheit, sondern spiegelte viel tiefer gehende Probleme beim Verständnis von Risiken und Unsicherheit wider.“
Modelle beruhen immer auf Daten, und Daten haben zwei wesentliche Eigenschaften: (1) sie stammen aus der Vergangenheit und (2) sie sind fehlerhaft.
Reduzierbare Unsicherheit ist eine, die durch genauere Untersuchung, durch mehr Daten entfernt oder eingegrenzt werden kann. Was aber übrig bleibt, ist radikal und prinzipiell unsicher. Eine Unsicherheit also, mit der wir leben und als solche umgehen lernen müssen.
Organisationen aller Art neigen dazu, ein Eigenleben zu entwickeln, das sich vom ursprünglichen Zweck entfernt. Selbsterhalt und Machtstrukturen werden wichtiger als der eigentliche Zweck der Organisation oder Abteilung. Dazu kommt, dass bestimmte Fächer, besonders in den Geisteswissenschaften, keinen unmittelbar erkennbaren Nutzen für die Gesellschaft haben. In einigen Fällen steckt die Wissensproduktion in einem selbstreferenziellen Zirkel fest. Die Arbeit dieser Institute und Forschungseinrichtungen ist sozusagen in großem Maße auf die Selbsterhaltung gerichtet.
Das Vertrauen in wissenschaftliche Institutionen kann nur wachsen, wenn diese Prozesse so etabliert sind, dass die Menschen das Gefühl haben, dass auf allen Seiten ehrlich gespielt wird. Es darf nicht mehr behauptet werden, als man weiß. Das Eingestehen von Irrtümern muss als wichtiger Teil des Erkenntnisgewinns begriffen werden. Die Qualität der Institutionen muss sich in einem vernünftigen Rahmen bewegen.
Erkenntnisgewinn ist ein evolutionärer Prozess. Gute Argumente werden in harter Auseinandersetzung besser, ausgefeilter und überzeugender, schlechte verlieren an Glanz.
Die Ideen der Aufklärung und der modernen Demokratie können nur funktionieren, wenn wir davon ausgehen, dass erwachsene Menschen in der Lage sind, für sich und ihr eigenes Leben zu entscheiden und Verantwortung zu übernehmen. Diese Entscheidungen sind dann auch zu akzeptieren, selbst wenn sie den eigenen Ansichten widersprechen. Hier besteht jedoch wieder das Risiko, einen Rückkopplungseffekt auszulösen. Behandelt man Menschen wie Kinder, so besteht die Gefahr, dass sie sich irgendwann einmal auch wie Kinder und nicht wie verantwortungsbewusste Erwachsene benehmen. Dann haben wir aber keine Demokratie mehr. Dann haben wir eine Herrschaft einer kleinen Zahl von Menschen, die sich für erwählt oder erleuchtet halten und lautstark erklären, welche Ansichten richtig und falsch, zulässig oder unzulässig sind.
Der Weg in die Hölle ist von guten Vorsätzen gepflastert. An dieser Stelle sind wir im Totalitären angelangt. Eine kleine Gruppe von Experten soll für die Welt entscheiden. Wer beurteilt, ob diese Experten wirklich die notwendige Expertise haben? Wer beurteilt, ob diese Experten andere Interessen oder ideologische Vorlieben haben, die nicht „rein faktisch“ begründet sind? Mit anderen Worten, woher wissen wir, dass diese Experten wissen, was in einer komplexen Sachlage „das Richtige“ ist. Wir wissen es eben nicht.
Wenn eine Elite sich selbst davon überzeugt hat, „die Wahrheit“ zu kennen, die Bevölkerung davon aber nicht überzeugt ist, so liegt die Verlockung nahe, mehr Macht anzusammeln und Entscheidungen durchzudrücken. Solcher Paternalismus ist eine große Gefahr für jede Gesellschaft. Karl Popper hat dies schon vor einem halben Jahrhundert in aller Deutlichkeit ausgedrückt: „Das wichtigste ist es, all jenen großen Propheten zu misstrauen, die eine Patentlösung in der Tasche haben, und euch sagen, wenn ihr mir nur volle Gewalt gebt, dann werde ich euch in den Himmel führen. Die Antwort darauf ist: Wir geben niemandem volle Gewalt über uns, wir wollen, dass die Gewalt auf ein Minimum reduziert wird. Gewalt ist selbst von Übel. Und wir können nicht ein Übel mit einem anderen austreiben.“, Karl Popper
Fakten fallen nicht vom Himmel, finden sich nicht unumstritten in der Natur, sondern werden auf eine bestimmte Weise gemacht.
Das Machen von Fakten hat noch eine weitere Perspektive. Wo Menschen am Werk sind, werden illegitime Mittel angewandt, um den eigenen Ansichten zum Durchbruch zu verhelfen. Daten werden gefälscht, es wird gelogen und Propaganda betrieben. Dies geschieht fallweise, um sich einen persönlichen Vorteil zu verschaffen, fallweise mit „guter Intention“ – zumindest reden sich die Menschen das ein.
Daher sind auch sogenannte Fact-Checker oder Desinformations-Experten sehr problematisch. Es gibt keine letzte Instanz, um Wahrheit festzustellen, keine Experten, die unmittelbaren Zugang zu Wahrheit haben, und keine Abkürzung für Erkenntnis
Es wird aber offen skurril, wenn traditionelle Medien plötzlich Abteilungen für „Fact-Checking“, für das Prüfen von Fakten einführen, wie etwa die BBC im Jahr 2023. Was soll das bedeuten? Das aggressive und hartnäckige Prüfen und Hinterfragen von Behauptungen war schon immer das Kerngeschäft jedes Nachrichtenunternehmens, das seine Aufgabe ernst nimmt – seit der Gründung der ersten Zeitungen. Was soll also das lautstarke Einführen von \“`Fact-Checking\“-Einheiten bedeuten?
Aktivismus ist letztlich nur ein anderes Wort für das Bewerben einer Agenda. Wissenschaft ist aber keine Agenda, sondern der möglichst neutrale Versuch, die Welt zu verstehen.
Der Punkt, um den es geht, ist, dass hochrangige und qualifizierte Wissenschafter in dieser Zeit sehr gegensätzliche Ansichten vertreten. Dies ist geradezu normal und selbstverständlich, in einer komplexen Krise. Dieser Konflikt aber wird von Politik, Wissenschaftsbürokratie und Medien aktiv unterdrückt und eine Seite als „wahr“ deklariert.
Ließen sich Moratorien also überhaupt durchsetzen? Nehmen wir an, die künstliche Intelligenz wäre in der Tat eine Technologie, die ein enormes Gefahrenpotenzial birgt. Wäre es überhaupt politisch denkbar und machbar, die weitere Entwicklung dieser Technologie global zu begrenzen? Dies ist nicht einmal bei der Kerntechnik zum Bau von Atombomben gelungen. KI ist aber im Wesentlichen Software und kaum zu kontrollieren. Dazu kommt immer wieder dieselbe Frage: Wer sollte diese Entscheidungen treffen und verantworten? Wer repräsentiert Wissenschaft und Erkenntnis?
Wir müssen diesen Abschnitt bescheiden beenden. Wenn es keine einfache Antwort gibt, sollte man auch nicht versuchen, eine solche zu geben. Das macht die Situation nur schlimmer. Diese Fragen betreffen alle Menschen, und zwar nicht nur Menschen, die heute leben, sondern auch die Menschen, die erst geboren werden. Sollen solche weitreichenden Entscheidungen von Individuen getroffen werden oder doch von der Gemeinschaft?
Kritische Medien spielen hier, wie zuvor erwähnt, natürlich eine wichtige Rolle. Da traditionelle Medien in den letzten Jahrzehnten oft den Ball nicht aufgegriffen haben, sind eine ganze Reihe von sogenannten „alternativen“ Medien auf den Plan getreten. Der Begriff „alternativ“ ist jedoch irreführend, denn diese neuen Medien haben in vielen Fällen bereits deutlich mehr Zuschauer oder Zuhörer als traditionelle. Die Ablösung der traditionellen Medien steht unmittelbar bevor. Es ist folglich nicht zu erwarten, dass die Situation in der Zukunft einfacher wird. Wir alle haben eine zunehmende Zahl an Informationsquellen zur Verfügung. Welche davon glaubwürdig und welche nicht glaubwürdig sind, hat immer weniger damit zu tun, ob es sich um traditionelle, staatlich subventionierte oder neue, privat finanzierte Formate handelt.
Am Ende des Tages liegt die Verantwortung bei uns als Individuen. Man kann, oder sollte das vielleicht sogar härter, als Forderung formulieren: Wer die Früchte der komplexen modernen Welt ernten und genießen möchte, kauft sich damit auch Verantwortung ein. Die Verantwortung, sich selbst weiterzubilden und jede Information kritisch zu reflektieren. Für Bürger bedeutet dies, um mit Kant zu sprechen, aus der selbstverschuldeten Unmündigkeit heraustreten zu müssen, ist keine Option, sondern eine Notwendigkeit.
Niemand vertritt Wissenschaft und für Wissenschafter und Experten bedeutet dies, dass sie bereit sein müssen, in einen ständigen kritischen Diskurs zu treten. Dieser ist langwierig und mühsam. Erkenntnis ist immer eine schwere Geburt, an der viele mitwirken. Verweise auf Autorität oder die Aussage „95 Prozent der Wissenschafter sagen dieses oder jenes“, sind von geringer Relevanz. Argumente zählen. Wissenschaft ist keine Abstimmung, sondern ständige Verhandlung aktueller Erkenntnis und Abwägung verschiedener gegensätzlicher Standpunkte. Dieser ständige Austausch und die Rechtfertigung von Wissenschaft der Gesellschaft gegenüber sind nicht nur ein nice to have, ein Wohlwollen, es ist Bedingung von Wissenschaft. Sie hat sich dem Steuerzahler und Bürger gegenüber darzustellen und zu rechtfertigen, möchte sie nicht in selbstreferenzieller Bedeutungslosigkeit als reiner Kostenfaktor untergehen.
„Menschen verwechseln Wissenschaft und Wissenschaftler. Wissenschaft ist großartig, aber einzelne Wissenschaftler sind gefährlich.“, Nassim Taleb
Große Teile des Wissens, das unsere Gesellschaft treibt, ist Erfahrungswissen und Praktiken, die man über die Jahre erlernt oder die fallweise auch über Generationen weitergegeben hat.
Die Suche im Licht Analogie lässt sich auch hier anwenden. Für akademische Studien und Theorien ist alles, was sich explizit ausdrücken und beschreiben lässt, viel einfacher fassbar als implizites und praktisches Wissen. Denken wir an den erfahrenen Arzt, der einem Patienten ansieht, wie es ihm geht, das aber nicht in Worten beschreiben kann; den Techniker, der nach langjähriger Praxis Fehler findet, den junge Kollegen nicht lokalisieren können, weil er viel mehr vom Kontext versteht und seine „Mustererkennung“ längere Zeit gelernt hat. All das ist schwer zu formalisieren.
„Expertise ist die Fähigkeit, Veränderungen in der Welt zuverlässig vorauszusagen oder herbeizuführen.“
Jemand, der sein Leben an der Universität verbringt, hat im besten Falle Wissen, aber selten Expertise, selbst in den Bereichen, in denen man Expertise haben kann. Expertise kann daher nicht an Universitäten oder mit vorwiegend theoretischem Zugang aufgebaut, sondern im besten Fall begründet werden.
Der deutsche Physiker und Kabarettist Vince Ebert beschreibt diese Situation in einem launigen Artikel mit dem Titel Vor Theoretikern wird gewarnt.
„Wissenschaftler sind sehr gut darin, ein bestimmtes Phänomen zu untersuchen und darüber zu grundsätzlichen Erkenntnissen zu gelangen. […] Geht es jedoch um ein vielschichtiges Szenario, wie etwa den Umbau unseres gesamten Energiesystems, sind ihre Erkenntnisse und Schlussfolgerungen mit Vorsicht zu genießen.“
Kurz gesagt, das relevante Wissen, um die Systeme unserer Welt am Leben zu halten – von der Landwirtschaft, Bauwesen, Kanalisation und Elektrizität über die Medizin bis zum Internet, aber auch Verwaltung, Militär, Versicherungen, Lieferketten – liegt weit verbreitet in den Köpfen und Händen von Milliarden Menschen. Wir erzielen nur dann Fortschritt in unserer komplexen Gesellschaft, wenn wir alles verfügbare Wissen integrieren. Dies ist auch einer der zahlreichen Gründe, warum Planwirtschaft in komplexen Gesellschaften zum Scheitern verurteilt ist. Selbst wenn es gelänge, eine Gruppe der „klügsten“ Menschen der Welt zusammenzubringen, würde diese dennoch nur einen Bruchteil der Fähigkeit abdecken, die erforderlich ist, um die moderne Welt am Laufen zu halten oder weiterzuentwickeln.
Damit stellt sich die Frage, ob wir im Westen nicht in einer Zeit der Post-Expertise angelangt sind, weil wir zu viel Fokus auf akademisches und zu wenig auf praktisches und explizites Wissen und Expertise gelegt haben. Wir erinnern uns an die Beschreibung der Stagnation in den vorigen Kapiteln, der zahlreichen Projekte, die unsere Eltern- und Großelterngeneration noch effizient umsetzen konnten, an denen wir heute aber scheitern.
Erfolgreiche Gesellschaften folgen daher nicht selbst-definierten intellektuellen Eliten, sondern streben Meritokratie an – eine Gesellschaft, in der die Fähigsten führen.
Wenn es um das Erkennen von Experten geht, ist ein Blick in die Vergangenheit zentral: Wie häufig hat die Person bereits erfolgreich die behauptete Expertise dargelegt?
Der Karrierepfad eines Experten ist ebenfalls von Interesse. Handelt es sich um eine stromlinienförmige, opportunistische Karriere, wo alle „Todos abgehakt“ sind, vielleicht nur in einer sehr engen Kompetenz; nur an der Universität? Dann kann diese Person möglicherweise enge und klar fokussierte Probleme lösen. Haben wir es aber mit komplexeren Fragestellungen zu tun, ist es von Vorteil, wenn der Experte breite Erfahrungen in unterschiedlichen Kontexten gesammelt hat.
Bei jemandem, der Politiker über eine Energiewende berät und diese in Medien bewirbt, muss ebenso die Frage gestellt werden, wie viele Nationen oder große Regionen er bereits erfolgreich auf die neuen Energieformen umgestellt hat. Lautet die Antwort: Keine – er hat dies nur auf Basis bestimmter Annahmen oder Modelle gemacht –, dann darf er nicht als Experte gelten. Vermutung und Wunschdenken, selbst wenn sie gelehrt vorgetragen werden, dürfen nicht mit Expertise verwechselt werden. Das bedeutet nicht, dass man nur Projekte durchführen darf, die schon zuvor erfolgreich umgesetzt wurden. Das würde jeden Fortschritt ad absurdum führen. Aber es handelt sich dann um Hochrisiko-Projekte oder Wicked Problems in komplexem Umfeld. Diese sind vollkommen anders zu behandeln als der Bau des zehn-tausendsten Skilifts oder Aufzugs.
Es gibt einige weitere Charakteristiken, die tatsächliche Experten auszeichnen. Dazu zählen intellektuelle Offenheit und Bescheidenheit, gepaart mit Selbstkritik. In Diskussionen zeigen sie Bereitschaft, anderen Argumenten zuzuhören und sich mit diesen konstruktiv auseinanderzusetzen. Die aktive Suche nach Widerspruch, also Fehlern und Lücken in den eigenen Ideen, ist sozusagen die Königsklasse von Expertise. Nun erkennt man auch, warum solche Experten nicht häufig in den Medien zu finden sind. Dort sind klare Schwarz-Weiß-Aussagen gefragt; Sicherheit muss ausgestrahlt und in Diskussionen der Gegner „vernichtet“ werden.
Auch Aktivisten sind meist weder Experten noch Gelehrte. Aktivismus ist der Definition nach vereinfachend und orientiert sich daran, bestimmte Gruppen anzusprechen. Differenzierte Aussagen, Pro und Contra-Argumente sind nicht gefragt. Dies steht im Gegensatz zu guter Expertise oder Wissen.
Monokausale Erklärungen und klare und einfache Lösungsvorschläge sind folglich fast immer ein Warnsignal, da sie auf Inkompetenz oder unzulässige Vereinfachung schließen lassen.
Die Via Negativa, also das Erkennen von Dingen, die nicht funktionieren, ist immer einfacher als das Formulieren einer Problemlösung. Es gibt viel mehr Wege, die nicht zum Ziel führen, als Wege, die erfolgreich sind. Der Vorwurf, man wäre nur negativ, ist daher nicht zielführend. In guten Projekten wird sogar einer Person die Rolle zugewiesen, aktiv nach Schwachstellen und Problemen zu suchen und damit das Team zu konfrontieren. Das kann helfen, das Gruppendenken in Teams zu reduzieren. Auch Manager oder Politiker, die sich mit Claqueuren umgeben, werden mit größerer Wahrscheinlichkeit und zum Schaden aller scheitern.
Auch einfache und klare Sprache ist ein wichtiges Kriterium. Als gute Faustregel kann gelten: Wer kompliziert und verworren spricht, hat entweder das Thema selbst nicht durchdrungen oder versucht, die Zuhörer mit orakelnden Phrasen zu beeindrucken.
Damit sind wir bei den drei wichtigsten Sätzen angelangt, die von jedem Experten immer wieder zu hören sind:
- „Das Problem ist komplex, es hat mehrere Seiten, und zwar folgende …“
- „Ich habe mich geirrt, und zwar deshalb …“
- „Ich weiß es nicht“.
Menschen, die sich nie irren, haben entweder nie etwas Relevantes gedacht oder unternommen oder versuchen, vergangene Fehler zu verschleiern. Auch gibt es keinen Experten, der zu jedem Thema etwas Glaubwürdiges zu sagen hat. „Ich weiß es nicht, aber wenn es wichtig ist, kann ich es recherchieren.“ ist ein Satz, der Vertrauen aufbaut. Zu jedem Thema eine schnelle und überzeugend klingende Antwort zu haben, ist es nicht.
„Innovation ist die Einführung von etwas Neuem.“
Die aktuelle Diskussion scheint geprägt von drei Sichtweisen zu sein. Die erste ist eine „romantisch“ nach hinten gerichtete. Sie ist oftmals von Ängsten getrieben und ist geradezu eine Anti-Vision, die darin besteht, möglichst nichts zu verändern, vielleicht sogar einige Jahre oder Jahrzehnte zurückzudrehen. Der Soziologie Zygmunt
Bauman nennt dies auch Retrotopia als Gegensatz zur Utopie, die eine nach vorn gerichtete Vision darstellt. Bei der Retrotopia wird eine vermeintliche Vergangenheit (die es so meist nie gegeben hat) idealisiert und als Wunschbild verklärt. Die zweite Sichtweise ist eine sehr stark von technischen Eliten und Investoren getragene techno-optimistische Perspektive. Vertreter dieser Ansicht anerkennen zwar mögliche Probleme und Rückschritte. Sie gehen aber davon aus, dass es wissenschaftlich/technische Innovation sein wird, die zukünftige Herausforderungen bewältigt. Die dritte Sicht ist eine, die bestimmten Fortschritt anerkennt, aber stark bezweifelt, dass die Welt sich alleine oder vorzugsweise durch technische Innovationen in eine bessere Richtung entwickeln kann.
Es gibt immer wieder Phasen in der jüngeren Geschichte, in denen Politik oder Eliten die Ansicht vertreten haben, man könne Innovation und Fortschritt planen oder gar verordnen. In manchen Fällen wurden diese Ideen (glücklicherweise) nicht umgesetzt, in anderen haben sie Millionen Menschenleben und unendliches Leid gekostet. Denken wir an die Folgen der Politik Stalins in Russland, der Nazis in ganz Europa oder Maos in China und anderer Sozialisten oder Diktatoren in zahlreichen anderen Staaten der Welt.
Wenn wir in einer Demokratie leben wollen, so ist auch über Innovation und Fortschritt ein offener gesellschaftlicher Diskurs zu führen. Sofern Menschen als Individuen betroffen sind, sollte wohl jeder Erwachsene die Freiheit haben, für sich selbst zu entscheiden. Innovationen allerdings, die eine große Zahl an Menschen betreffen, müssen ausgehandelt werden.
Blockiert man einfach diese Experimente, aus Angst vor jeder möglichen negativen Entwicklung, so nimmt man sich die Möglichkeiten, die in Innovationen stecken können.
Möchte man Innovation und Fortschritt in einer Gesellschaft ermöglichen, gibt es noch einen Aspekt, über den kaum gesprochen wird, weil er als langweilig gilt. Dennoch zählt er zu den wichtigsten Prozessen unserer Gesellschaft, ja der Welt: Wartung. Ein Großteil der Tätigkeiten, die in einer technosozialen Gesellschaft zu leisten sind, fällt in diese Kategorie. Wartung bedeutet das Instandhalten existierender Systeme und Prozesse. Vernachlässigen wir dies, stürzen Brücken ein, gibt es Blackouts, wird unsere IT-Infrastruktur kompromittiert und sterben Menschen im Gesundheitssystem.
Wartung, in diesem Sinne, ist eine universelle Notwendigkeit aller komplexen, dynamisch stabilisierten Systeme. Im Körper sind Zellen ständig damit beschäftigt, Reparaturmaßnahmen vorzunehmen, das Immunsystem versucht, Schäden vom Organismus abzuwenden oder zu beheben. Dasselbe trifft auf alle Aspekte unserer komplexen Gesellschaft zu. Technik ist in diesem Sinne niemals fertig, sondern ein ewiger Prozess.
Wartung hat aber noch eine weitere, weniger offensichtliche Dimension. Möchte man neue Dinge in die Welt setzen, also Innovationen und Fortschritt ermöglichen, dann geschieht dies immer im Kontext bestehender Technik und Systeme. Das neue Smartphone mit noch schnellerem Internet, besserer Kamera und künstlicher Intelligenz, funktioniert nur dann außerhalb des Labors, wenn es zuverlässige Stromversorgung gibt, breite Versorgung mit mobilen Sendern, eine Bandbreite, die es erlaubt die Videos und Fotos hochzuladen, sowie die Leistungsfähigkeit und Verfügbarkeit der Rechenzentren im Hintergrund, die zahlreiche Dienste erst ermöglichen.
Vernachlässigen wir also die Wartung bestehender Systeme, beschädigen wir nicht nur den aktuellen Lebensstandard, sondern auch die Innovationsfähigkeit der Gesellschaft und damit den Pfad in die Zukunft. Stillstand ist in einer Gesellschaft wie der unseren, die dynamisch stabilisiert ist, keine Option.
Von Erkenntnis zu Technik zu einem Produkt, das skaliert und von vielen Menschen verwendet wird, ist der Weg viel weiter als oftmals angenommen. Techno-Optimisten gehen davon aus, dass „Innovation“ Probleme löst, übersehen aber immer wieder die ungeheuren Schwierigkeiten, die vom Weg aus dem Labor, dem Prototypen hin zu einem breit verwendbaren Produkt zu bewältigen sind.
Die meisten neuen Technologien, besonders dann, wenn es sich um Infrastruktur handelt, benötigen Jahrzehnte, um zu skalieren. Die Prozesse müssen sich anpassen, Nachfrage geschaffen, Lieferketten eingerichtet werden. Nicht zuletzt verbessern sich diese Prozesse ständig, auch wenn das von der Gesellschaft kaum wahrgenommen wird.
„Kluge Leute an der Wall Street denken im Allgemeinen … dass, wenn man erst einmal einen Prototyp entwickelt hat, das der schwierige Teil und alles andere danach triviales Kopieren ist. Das stimmt aber nicht. Es ist vielleicht ein Prozent des Problems. Die Herstellung in großem Maßstab, insbesondere bei einer neuen Technologie, ist zwischen 1.000 und 10.000 Prozent schwieriger als der Prototyp.“, Elon Musk
Das bedeutet folglich, dass die Ablöse alter Technologien viel länger dauern kann, als man das annehmen könnte. Wir haben die alte Technologie viel besser im Griff, sie ist hochoptimiert und alle Prozesse sind bekannt. Die neue Technologie hingegen hat noch alle Kinderkrankheiten vor sich. Ablöse ist daher in fast allen Fällen eine langsame und graduelle Angelegenheit.
Die meisten Studenten technischer Hochschulen erfahren davon nicht viel. Sie lernen nicht, dass die wenigsten von ihnen neue iPhones oder Satelliten entwickeln, sondern bestehende Technik warten werden.
Die kurzfristigen Wirkungen neuer Technologie werden oftmals überschätzt, während die langfristigen unterschätzt werden.
Wir sollten aber im KI-Hype eine elementare Problematik nicht aus dem Blick verlieren: Der Kontrollverlust tritt nicht erst durch die neue Intelligenz der Computer ein. Die stetig zunehmende Komplexität der Welt führt zu einem inhärenten Kontrollverlust, den wir bereits seit längerer Zeit erleben. Natürlich können KI und Robotik dies weiter verschärfen.
Aktuell baut KI immer auf der Vergangenheit menschlichen Verhaltens und menschlicher Artefakte (Daten) auf. Dies ist aus zwei Gründen, die wir bisher ausführlich diskutiert haben, durchaus nicht unproblematisch. Einerseits ist vieles von dem, was wir als Menschen schaffen, von schlechter Qualität. Andererseits ist vieles an wesentlichem Wissen eben nicht explizit ausgedrückt und formalisiert – und somit nicht in Dokumenten und Datenbanken zu finden. Damit hat die KI nur einen Zugriff auf ein eingeschränktes Wissen der Menschheit. Explizites, praktisches Wissen wird weitgehend ignoriert. Hinter manchen Trends in der KI steckt auch die falsche Annahme, man könne kluges Handeln auf intellektuelle und rationale Prozesse reduzieren.
Eine Sache ist allerdings klar: Auch KI kann prinzipielle Grenzen komplexer Systeme nicht aushebeln. Sie mag in der Lage sein, etwas bessere Modelle zu erzeugen, als wir bisher in der Lage sind. Die prinzipielle Unsicherheit und nicht-Reduzierbarkeit der Welt wird – da sie eben prinzipiell ist – auch von KI nicht überwunden werden.
Die Welt, die wir über die letzten Jahrhunderte geschaffen haben, hat unsere Lebensqualität ungeheuer erhöht, aber auch, wie wir gezeigt haben, völlig neue und zum Teil existenzielle Risiken eröffnet. Mit anderen Worten, Dinge, die wir tun, um unser Leben zu verbessern, zeigen häufig Effekte, die entweder das Ziel ganz vereiteln können oder Schäden in anderen Bereichen anrichten können.
Es gibt eine Reihe von psychologischen Faktoren, die unsere Risikowahrnehmung stark beeinflussen. Paul Slovic und Dan Gardner fassen einige wesentliche Faktoren zusammen, die auf viele Menschen zutreffen:
Potenzial für Katastrophen: einzelne große Ereignisse (mit wenigen Opfern) machen uns viel mehr Angst als viele kleinere Schadensfälle mit (in Summe) viel mehr Opfern.
- Vertrautheit: Risiken, Handlungen, Technologien, mit denen wir nicht vertraut sind, machen uns mehr Angst.
- Verständnis: Was wir nicht verstehen, fürchten wir mehr
- (Vermeintliche) Kontrolle: Wenn wir der Ansicht sind, etwas selbst zu kontrollieren (Auto) haben wir weniger Angst, als wenn wir die Kontrolle abgeben müssen (Flugzeug).
- Freiwilligkeit: Sind wir einem Risiko unfreiwillig ausgesetzt, so fürchten wir es mehr.
- Identität der Opfer: Kennen wir die Opfer, sind es Landsleute oder gar aus der Nachbarschaft, fürchten wir Risiken. Abstrakte Opferzahlen und Statistiken lassen uns kalt.
- Vertrauen in Organisationen: Sind Organisationen oder Firmen involviert, denen wir nicht vertrauen, so schätzen wir Risken höher ein.
- Medien: Je mehr eine Sache in den Medien auftaucht, desto mehr fürchten wir sie.
- Vorteile: sind die Vorteile einer Technologie nicht klar, oder profitiert eine Gruppe und eine andere hat die Nachteile, so schätzen wir das Risiko höher ein. Menschengemachte kleine Risiken (Gentechnik) fürchten wir mehr als größere natürliche (Radon).
- Zeit: Risiken in der nahen Zukunft wirken bedrohlicher als solche in weiter zeitlicher Entfernung.
Es gibt noch ein anderes häufig zitiertes Beispiel für „typische Irrationalität“ bei der Einschätzung von Risiken, den sogenannten naturalistischen Fehlschluss (naturalistic fallacy). Hier wird korrekt darauf hingewiesen, dass die Tatsache, dass etwas natürlich oder künstlich ist, zunächst wenig Gewicht dafür hat, ob etwas gefährlich oder riskant ist. Es gibt hochpotente Gifte, die künstlich hergestellt werden, und solche, die in der Natur vorkommen. Ja, die Natur als solche ist für uns Menschen alles andere als risikolos. Daher ist ja die Entwicklung der Moderne und die heutige Lebensqualität gerade durch eine weite Entfernung von der Natur und ihren Gefahren verbunden. Natürlich ist sicher und harmonisch, künstlich gefährlich und bedrohlich – so einfach ist es natürlich nicht.
Risikowahrnehmung ist also ein Minenfeld, wo es keine einfachen Regeln gibt. In vielen Fällen ist es sinnvoll, auf Basis empirischer Daten zu entscheiden oder diese jedenfalls zu berücksichtigen. In komplexen Fragestellungen kann man jedoch leicht in die Irre gehen und dort sind einfachere Heuristiken, die jedoch ständig hinterfragt und verbessert werden, oftmals robuster und erfolgreicher. Damit sind wir bei einem der wesentlichsten Grundsätze angelangt: zur Reduktion von Risiken ist aus Fehlern vergangener Risikoeinschätzung zu lernen. Sowohl empirisch als auch strukturell. Dabei darf aber keinesfalls ein Rückschaufehler begangen werden. Informationen, die zur Zeit der Analyse bekannt sind, aber zum Zeitpunkt der Risikoeinschätzung nicht, dürfen nicht zur Bewertung der damaligen Entscheidungen herangezogen werden. Risiken, die sich langfristig entfalten und auf komplexen Systemzusammenhängen beruhen, lassen sich in der Regel weder einfach „lösen“ noch mit schnellen Maßnahmen verbessern. Apokalyptische Hysterie ist ebenso wenig hilfreich wie Ignoranz.
Ein prinzipielles Problem von Warnungen. Werden sie ernst genommen und die Krise vermieden, kann danach nicht leicht beurteilt werden, ob die Warnung übertrieben oder schlicht die Maßnahmen so erfolgreich waren.
Systemische Risiken sind also oftmals besonders kritisch, weil sich die Folgen über Systeme ausbreiten und auch weit entfernt vom Auslöser auftreten können. Kleine Auslöser können große Wirkung haben.
Führt ein Risiko, das schlagend wird, zu unserem Ruin oder Tod, so gibt es keinen Weg mehr zurück. Solche existenziellen Risiken sind anders zu betrachten, als Risiken, von deren Folgen man sich erholen kann.
Wir dürfen daher auch niemals mit Mittelwerten arbeiten, wenn es eine Chance auf irreversiblen Schaden gibt. Mittelwerte können Ausschläge verdecken, die Irreversibel sind. So gibt es den klugen Sinnspruch, man solle niemals durch einen Fluss gehen, der im Durchschnitt einen halben Meter tief ist. Etwas kann im Durchschnitt funktionieren und dennoch in der Realität zu unwiederbringlichen Verlusten führen.
Die zahlreichen und manchmal schwer zu durchblickenden Risiken in der Welt können uns übermäßig verängstigen und dazu führen, dass wir versuchen überhaupt keine Risiken mehr eingehen. Dies ist allerdings für uns Menschen die gefährlichste Option. Individuen sollen und müssen Risiken eingehen, denn nur so kommen wir voran. Scheitern muss möglich, darf aber nicht existenzgefährdend sein.
Safetyism, also Sicherheit um jeden Preis, ist eine Katastrophe für die Gesellschaft. Sie kann zu totaler Lähmung führen.
Es wird nie eine sichere Zukunft geben und der Versuch, eine sichere Zukunft herzustellen, muss im Totalitarismus münden.
In der komplexen Welt, in der wir leben, werden wir immer wieder aufs Neue überrascht. Wir wollen mit besten Absichten ein Problem „lösen“, müssen aber feststellen, dass unsere Eingriffe in das System nicht die erwarteten Folgen zeigen.
Was erhöht und was reduziert Komplexität? In von Menschen gemachten Systemen gibt es Prozesse und architektonische Pfade, die Komplexität erhöhen: Skalierung: komplexe Systeme, die wachsen, aus mehr Teilen bestehen, verändern ihre Eigenschaften grundsätzlich und erhöhen damit oft ihre Komplexität. Damit verbunden sind meist mehr Nutzer, mehr Akteure, mehr Systeme, die miteinander interagieren. mehr Verbindungen und Vernetzungen zwischen Akteuren, Beschleunigung der Prozesse, Design von großen Systemen am grünen Tisch durch Komitees statt evolutionärem und organischem Wachstum, Design unter starker Einwirkung von Juristen oder Bürokraten. Jede nur erdenkliche juristische Gefahr wird thematisiert und kleinste Bedenken machen jede neue Idee zum Ungetüm, bevor sie noch das Licht der Welt erblickt haben.
Es gibt auch Wege, Komplexität zu reduzieren: kleinere, relativ autonome Einheiten mit einfachen Schnittstellen und Interaktionen nach außen Entkopplung, also weniger Abhängigkeiten, weniger Interaktionen, weniger Akteure, Standardisierung (von Prozessen, Teilen, Interaktionen), simples Design von wenigen kompetenten Menschen gemacht, das organisch wächst stete Wartung und Verbesserung.
Die Erhöhung der Komplexität eines Systems ist immer möglich, die Reduktion ist hingegen viel schwieriger und stößt bei anspruchsvollen Anforderungen schnell an Grenzen.
Räumen wir zunächst noch einmal mit einem stetig wiederkehrenden Missverständnis auf: Sobald ein Problem diagnostiziert wird, wird häufig eine mehrteilige Strategie verfolgt oder gefordert (etwa von Medien, Aktivisten), um dieses Problem zu \“`lösen\“:
- Genaue Beschreibung des Problems,
- Definition des Zielzustandes,
- Beschreibung des Lösungsweges,
- Planung der Umsetzung
- Umsetzung nach Plan
Wobei je nach Hybris des jeweiligen Mediums, Aktivisten oder Experten oft auch schon behauptet wird, die Schritte eins bis vier genau beschreiben zu können. Nur an Schritt fünf, der Umsetzung, würde es scheitern. Eine Aussage, die wir ständig hören, kommt in der Form daher: „Wir wissen ja genau, was zu tun ist, es scheitert nur am politischen Willen und der Umsetzung.“ Tatsächlich ist es in den meisten Fällen so, dass wir eben nicht genau wissen, was zu tun wäre. Bei Wicked Problems, und das sind die meisten komplexen Probleme unserer Zeit, sind alle fünf Schritte mit großen und prinzipiellen Unsicherheiten belastet und wirken aufeinander zurück.
Keiner dieser fünf Aspekte ist daher eindeutig und klar beschreibbar oder gar planbar. Akteure, die dies behaupten, haben entweder eine extrem eingeschränkte Sicht auf die Situation oder versuchen eine ganz bestimmte, meist sehr einseitige Agenda oder Weltanschauung voranzutreiben. Tragischerweise führen die genannten Lösungsvorschläge zumeist nicht zu dem gewünschten Zielzustand.
„Ein großer Teil der Strategiearbeit besteht darin, herauszufinden, was vor sich geht. […] Die richtige Reaktion auf radikale Ungewissheit besteht nicht darin, unsere Anstrengungen zu verdoppeln, um eine ungewisse Zukunft vorherzusagen, sondern Strategien zu entwickeln, die robust und widerstandsfähig gegenüber Ereignissen sind, die wir nicht vorhersehen können.“
Der Ansatz, die Zukunft besser vorherzusagen, ist keine sinnvolle Strategie. Das Ziel muss vielmehr sein, mit der unvermeidlichen Unsicherheit umgehen zu lernen. Der Versuch, bessere Vorhersagen zu machen, kann das Risiko sogar deutlich erhöhen. Denn Modelle, auch wenn sie größte Unsicherheiten aufweisen, werden von Entscheidungsträgern und der Öffentlichkeit immer noch zu ernst genommen.
Welche typischen Strategien werden häufig eingesetzt, von denen wir aber wissen, dass sie nicht funktionieren: Zunächst der Versuch, den wir gerade schon erwähnt haben; nämlich das Problem rational zu durchdringen und dann eine Lösung zu entwerfen, zu planen und umzusetzen. Es scheitern folglich langfristige Planungen und Vorhersagen sowie Planwirtschaft und klassische militärische Generalstabsplanung. Dies ist spätestens seit Mitte des 20. Jahrhunderts bekannt. Es schlicht unmöglich, alle für die Entscheidung relevanten Informationen und das notwendige Wissen und die Expertise sowie die Handlungsmacht schnell und detailliert genug zu zentralisieren und zu verarbeiten.
So scheitert Planwirtschaft und Zentralisierung nicht nur in der Praxis, am Ende steht häufig ein erfolgloses, aber totalitäres System.
Eine weitere Vorgehensweise, die zum Scheitern verurteilt ist, ist banaler Versuch und Irrtum sowie das Ausprobieren aller möglichen Varianten. Dies funktioniert nur bei Problemen, wo es nicht zu viele Möglichkeiten gibt und sich der Grundzustand wiederherstellen lässt. In der Realität gibt es viel zu viele Freiheitsgrade und Pfade. Der „Suchraum“ ist also zu groß. Außerdem stehen Ursache und Wirkung in keinem einfachen Zusammenhang oder wirken über längere Zeiträume. Damit lässt sich auch nicht leicht feststellen, ob eine bestimmte Maßnahme wirkt oder unerwartete Effekte zeigt. Mehr oder weniger planloses Herumspielen ist also keine Erfolgsstrategie. Geplante, von Expertise unterfütterte Experimente hingegen schon.
Das Problem ignorieren. Die meisten Menschen würden eine solche „Strategie“ rundweg ablehnen. Tatsächlich funktioniert Nichtstun in einigen Fällen hervorragend. Es fällt gerade Politikern und Managern schwer, zunächst einmal nichts zu tun und zu beobachten. Systeme sind oftmals so, wie sie sind, weil sie mit verschiedenen Situationen umgehen können. Aktionistische Veränderungen, wie die nächste Umstrukturierung, weil ein neuer Manager kommt, oder ständig neue Anlassgesetzgebung, füllen Schlagzeilen, verbessern aber das Problem nicht unbedingt. In vielen Fällen führt das längerfristige Ignorieren aber dazu, dass Probleme schlimmer werden. Die Kunst ist es, nicht sofort in Aktionismus zu verfallen und zunächst zu beobachten und nachzudenken, Probleme aber nicht außer Kontrolle geraten zu lassen. Gute Manager oder Politiker zeichnen sich durch den Instinkt aus, zu erkennen, wann Abwarten die bessere Strategie ist, auch wenn alle um sie herum in Aktionismus verfallen.
Die Rede ist vom Reduzieren des Problems auf wenige, einfache Kriterien.
Fortschritt ist ohne Risiko nicht zu haben. Wird überlegt eingegangenes Risiko bestraft, so wird defensiv entschieden und die Organisation stagniert.
Intuition ist eine Form der komplexen Mustererkennung; eine Fähigkeit, die wir als Menschen hervorragend beherrschen und im Alltag ständig anwenden. Viele unserer Entscheidungen erfolgen intuitiv und werden erst, nachdem wir sie getroffen haben, „rationalisiert.“ Wir entscheiden uns „aus dem Bauch heraus“ für den neuen Job und finden danach „gute Argumente“, um die Entscheidung zu begründen und es Freunden und Familie als rationalen und objektiven Prozess darzustellen.
Es ist aber von großer Bedeutung, die Grenzen von Intuition zu verstehen. Diese Form der Mustererkennung funktioniert nur, wenn die Welt, an der sie geschult wurde, noch dieselbe ist, in der sie angewandt wird.
Wild Ducks: In Unternehmen gibt es darüber hinaus nur eine kleine Zahl an Mitarbeitern, die das Unternehmen im Kern treiben und die befähigt sind, wirklich neue Dinge zu schaffen. Viele andere sind für (radikale) Innovation im besten Fall hinderlich, im schlechtesten Fall versuchen sie diese aktiv zu sabotieren. Ganz besonders trifft dies auf Hierarchien und Manager der defensiven Sorte zu. Neues gefährdet etablierte Strukturen und Machtgefüge.
Nichtstun ist eine Strategie, die vielen Managern und Politikern schwerfällt, noch schwieriger ist in der Praxis Subtraktion, also das Entfernen von Regeln und Strukturen. In der Gesellschaft herrscht oftmals ein naives Verständnis von „Handeln“ vor. Es muss etwas Neues geschaffen, etwas ergänzt, eine neue Abteilung, ein neues Ministerium gegründet, neue Gesetze erlassen werden. Dazu kommt, dass große Strukturen und viele Regeln auch als Machtinstrument betrachtet werden.
Subtraktion, Reduktion kann Komplexität effizient reduzieren und damit gerade bei aufgeblähten und überregulierten Strukturen die Leistung erheblich verbessern.
Die Via Negativa, also das Erkennen von Dingen, die nicht funktionieren, ist immer einfacher als das Formulieren einer Problemlösung. Es gibt viel mehr Wege, die nicht zum Ziel führen, als Wege, die erfolgreich sind. Der Vorwurf, man wäre nur negativ, ist daher nicht zielführend.
„via negativa: der Grundsatz, dass wir mit größerer Klarheit wissen, was falsch ist, als, was richtig ist, und dass das Wissen durch Subtraktion wächst. Außerdem ist es einfacher zu wissen, dass etwas falsch ist, als die Lösung zu finden. Maßnahmen, die etwas entfernen, sind robuster als solche, die etwas hinzufügen, weil die Hinzufügung unbemerkte, komplizierte Rückkopplungsschleifen haben kann.“, Nassim Taleb
Ein System ist somit robust, wenn es Änderungen von Außen widersteht, ohne seine Eigenschaft nennenswert zu verändern.
Allgemein kann man sagen, dass der Versuch, Systeme robuster zu machen, in vielen Fällen vernünftig ist. Insbesondere in Situationen, in denen die Bedrohungslage klar und vorhersehbar ist.
Vielen der Bedrohungen aber, denen wir in komplexen Systemen ausgesetzt sind, können mit solchen einfachen „Härtungen“ nicht begegnet werden. Das Problem bei robusten Strategien ist, dass sie unter Umständen völlig scheitern, wenn sich die Bedrohungslage verändert. Das bedeutet nicht, dass wir auch in der heutigen Zeit nicht vieles robust gestalten sollten.
Das Gegenteil zu robusten Systemen sind fragile Systeme. Diese sind gegenüber äußeren Einwirkungen empfindlich und erfüllen ihre Funktion nicht mehr, wenn sie beschädigt werden.
Fragilität ist keine Option bei solchen Systemen. Dennoch entwickeln sich viele dieser Systeme in unseren Nationen in diese Richtung.
Robustheit ist daher systemisch betrachtet gar kein möglicher oder gar erstrebenswerter Zustand einer Gesellschaft. Denn Robustheit bedeutet das Erhalten des Status quo, wo aber dynamische Veränderung notwendig ist.
Resilienz ist also eine „dynamischere“ Eigenschaft als Robustheit.
Der Erfolg einer resilienten Strategie hängt auch nicht davon ab, dass jeder Teil des Systems „hält“.
Graceful Degradation. Dieser Begriff ist etwas schwer ins Deutsche zu übersetzen, er bedeutet in etwa sanfter Verfall. Die Intention dahinter ist, dass ein großes System, z.B. das Software-System, das wesentliche Banktransaktionen steuert, oder die Stromversorgung, bei negativen äußeren Einwirkungen (Hacker-Angriffen, technischen Fehlern, Krankheit von Mitarbeitern usw.) niemals als Ganzes kollabieren darf. Domino-Effekte müssen vermieden werden. Trotz großer Schäden darf die Leistung niemals komplett verloren gehen, sondern wird in Schritten reduziert.
Nassim Taleb: Risikomanagement in komplexen Systemen darf niemals darauf aufbauen, die Zukunft zu prognostizieren oder alle möglichen Fehler vorherzusehen. Modelle dürfen somit nie die Basis von systemischer Planung sein, sondern nur ergänzend eingesetzt werden.
Große Teile des Finanzsystems sind also ein Paradebeispiel dafür, wie man Systeme nicht gestalten darf. Resilienz bedeutet daher im Gegensatz dazu, dass Dezentralität, Redundanz und Vielfalt im System gegeben sein müssen. Veränderungen müssen in der richtigen Geschwindigkeit erfolgen und Risiken an der richtigen Stelle verantwortet werden. Dabei ist zu bedenken, dass es auf unterschiedlichen Ebenen unterschiedliche Risiken gibt.
Tatsächlich legt ein „Null-Fehler“ Ansatz schon die Basis für die Katastrophe, denn es ist ein nicht-resilientes Verhalten. Die besten Techniker können nie zu 100 % garantieren, dass alle Komponenten zu jeder Zeit funktionieren. Warum dann nicht das Gegenteil machen: Davon ausgehen, dass jede Komponente zu jeder Zeit ausfallen kann. Wenn dies die zugrundeliegende Forderung ist, dann sollte diese auch konsequent geprüft werden. Man schaltet folglich im laufenden Betrieb regelmäßig zufällig ausgewählte Komponenten ab. Denn nur die Realität ist der richtige Test, nicht Katastrophenpläne in der Schublade.
Chaos Monkey. Der „Chaos-Affe“ ist eine Komponente, die im laufenden Betrieb immer wieder zufällige technische Komponenten abschaltet. Was sich nach einer verrückten Idee anhört, führt zu einem resilienten Systemverhalten.
Wenn es überlebensnotwendig ist, dass ein System mit Störungen umgehen kann, dann sollte man dieses System regelmäßig solchen Störungen aussetzen. Denn in der Theorie bewältigt man jede Krise, in der Realität nicht.
Ein Gegenspieler dieser Form von Resilienz ist (unkluge) Optimierung. Vielfalt, Dezentralisierung und Redundanz sind natürlich auch Kostenfaktoren. Optimierung bedeutet vereinfacht gesagt, dass bestimmte Standardprozesse effizienter gemacht werden. Alles, was nicht unbedingt notwendig ist, um diesen Prozess, z.B. die Lieferung eines Lebensmittels oder eines Medikamentes zu leisten, wird aus dem System entfernt.
Die Aufwände, die man sich durch unkluge Effizienzmaßnahmen eingespart hat, bezahlt man bei der nächsten Krise somit mehrfach zurück.
Die ursprüngliche Architektur des Internets ist geradezu ein Meisterstück, wie man resiliente, verteilte Systeme gestaltet. Die zugrundeliegende (technische) Netzwerkstruktur ist heute noch weitgehend dieselbe. Stark verändert hat sich aber die darauf aufbauende Anwendungs-Infrastruktur. Die meisten Services werden heute von einer kleinen Zahl an Unternehmen übernommen. Was als verteiltes, resilientes System begonnen hat, hat sich unter dem Druck heutiger Anreizsysteme zu einem System weniger Spieler verengt. Was als Meisterstück resilienten Designs begonnen hat, wird der Bequemlichkeit und der kurzfristigen Effizienz geopfert.
Kleinere Strukturen, die in der Lage sind, wesentliche Fähigkeiten aufrechtzuerhalten, sind großen, zentralisierten Systemen langfristig immer überlegen. Handelt es sich um Systeme wie Energie-, Lebensmittelversorgung oder Finanzsystem, ist dies eine Überlebensfrage, da jeder großflächige Ausfall einer Katastrophe gleichkommt, von der wir uns unter Umständen kaum mehr erholen können.
Ein Blick in die Natur zeigt uns die unfassbare Komplexität globaler Ökosysteme. Diese weisen allerdings eine herausragende Resilienz auf. Wäre dem nicht so, würden wir nach den zahlreichen Eingriffen des Menschen in verschiedenste Ökosysteme viel mehr Schäden und Zusammenbrüche sehen.
In diesem Zusammenhang sollte man auch bedenken, dass es bei jeder Problemstellung eine inhärente und eine externe Komplexität gibt. Anders ausgedrückt, es gibt eine Komplexität des Problems und eine Komplexität der Lösung oder der Umsetzung. Die Umsetzung kann niemals niedrigere Komplexität aufweisen, als das Problem vorgibt, sie kann aber wesentlich größer sein.
Antifragilität: Im besten Fall ist ein System also nicht nur in der Lage, bei Stress seine Fähigkeiten aufrechtzuerhalten, sondern besser zu werden.
„Antifragilität ist mehr als Resilienz oder Robustheit. Das Resiliente widersteht Schocks und bleibt gleich; das Antifragile wird besser. Diese Eigenschaft steckt hinter allem, was sich mit der Zeit verändert: Evolution, Kultur, Ideen, Revolutionen, politische Systeme, technologische Innovationen.“
Stillstand ist in einem dynamisch stabilisierten System automatisch Rückschritt und führt zum Tod. Gelingt es uns nicht, diese alten Systeme klug zu warten und weiterzuentwickeln und neue zu entwerfen, wird die nächste Generation schwer darunter zu leiden haben.
Wir haben auch gesehen, dass der naive Versuch, Risiken zu vermeiden, das Gegenteil zur Folge haben kann. Aus vielen kleinen, überschaubaren Risiken, von deren Folgen man lernen könnte, wird ein großes systemisches Risiko, das enorme Schäden verursachen kann. Wenn man etwas nicht weiß, wenn etwas fundamental unsicher ist, so wird die Situation nicht besser, wenn man diese Unsicherheit verdrängt oder mit vermeintlicher Sicherheit überspielt.
Der Umgang mit Risiken hat eine weitere Dimension: Wer eine Krise ausrufen kann, wer ein existenzielles Risiko deklarieren kann, hat Macht über weitreichende Entscheidungen. Oft folgt dann das in seltenen Fällen tatsächlich plausible Argument: Man hätte keine Zeit und alles müsse schnell entschieden werden. Wenn diejenigen, die eine Krise ausrufen, auch behaupten, schon die geeigneten Lösungen an der Hand zu haben, ist besondere Vorsicht geboten. Denn eine Krise ist definitionsgemäß eine Situation, in der große Veränderung ansteht, und dies mit der Möglichkeit von sehr ungünstigen Folgen verbunden ist. Es handelt sich dabei nicht um eine Situation, für die es große Erfahrung aus der Vergangenheit gibt.
Aus der Geschichte haben wir gelernt, dass der einzelne Bürger vor dem Staat zu schützen ist, nicht der Staat vor dem Bürger.
Zentrale Planwirtschaft scheitert zwangsläufig, weil sie nicht die notwendigen Anreize und Möglichkeiten schafft und es nicht gelingt, auf die Expertise, das Wissen und die Motivation aller Menschen zuzugreifen.
Wenn es nicht gelingt, Unsicherheit und Fehler zu vermitteln, so geht das Vertrauen in die Prozesse wichtiger Institutionen verloren. Der wichtigste Prozess dabei ist die Lernfähigkeit und Selbstreflexion dieser Institutionen selbst. Die betrifft unter anderem Behörden, Notfallorganisationen, aber auch die Wissenschaft, die uns in einer Krise bestmöglich informieren sollte.
Es ist in der Praxis von großer Bedeutung, Prognosen und Szenarien nicht miteinander zu verwechseln. Eine Prognose hat das Ziel, die Zukunft mit einer gewissen (bekannten) Genauigkeit vorherzusagen, etwa das Wetter des nächsten Tages, oder das Wirtschaftswachstum im kommenden Quartal. Ein Szenario ist keine Prognose, sondern vielmehr ein Planspiel. Man überlegt sich wesentliche Rahmenbedingungen und versucht unter unterschiedlichen Annahmen zu entwickeln, wie sich das System entwickeln könnte, z.B. die Geschäftsentwicklung eines Unternehmens. Szenarien fallen dabei häufig in eine von vier Klassen: weiter wie bisher, Grenzen, Zusammenbruch oder Transformation.
Gute Ideen gibt es wie Sand am Meer – wenige taugen für die Praxis. Man könnte es auch polemisch formulieren: Es gibt in einer naiven Betrachtung der Welt kaum etwas Gefährlicheres als eine gute Idee. Wir erleben es so häufig, dass gut gemeint das Gegenteil von gut gemacht ist. Der Wunsch, Gutes zu tun, ist ehrenhaft, nur aus einem Wunsch folgen noch keine klugen Entscheidungen oder Strategien, die funktionieren. Oftmals passiert das Gegenteil des gewünschten Effekts. Es ist zudem einfacher, aktivistisch Dinge ins Rollen zu bringen als konsequent und kritisch zu prüfen, ob die erhofften Erfolge auch eintreten.
Eine wesentliche Erkenntnis war, dass einer zentralen Steuerung komplexer Systeme enge Grenzen gesetzt sind. Das dafür notwendige Wissen lässt sich nicht in der notwendigen Form zusammenführen.
Komplexe Herausforderungen lassen sich häufig durch kluge Dezentralisierung, verteilte Entscheidung (Subsidiarität), schrittweises Vorgehen und Arbeitsteilung am besten bewältigen.
Innovation lässt sich nicht von oben nach unten managen oder gar verordnen.
Bei der Anwendung evolutionärer Prinzipien ist zu bedenken, dass positive evolutionäre Effekte auf höheren Ebenen (etwa der Gesellschaft) wirken, sich aber für Individuen erhebliche Risiken ergeben können.
Bemerkenswert ist, dass eine Zirkularität bei steigender Komplexität zu beobachten ist.
Marktwirtschaft mit Arbeitsteilung ist eines der erfolgreichsten Prinzipien, die wir als Menschheit erarbeitet haben. Sie führt zu Anreizsystemen, die Neues hervorbringen, die Bedürfnisse der Menschen am besten bedienen, zu Risiken motivieren und gleichzeitig das Koordinationsproblem über Märkte lösen. In Unternehmen oder anderen Organisationen gibt es auch kleinteiligere Strategien wie die genannte Seed, Select, Amplify Strategie. In Software- oder Produktions-Unternehmen werden Kanban oder agile Praktiken mit ähnlichen Motiven erfolgreich eingesetzt. Marktwirtschaft kann aber nur im klaren Rahmen politischer Strukturen erfolgreich operieren. Es braucht klare Spielregeln, Vertragsrecht und dergleichen. Des Weiteren gibt es bestimmte Probleme, für die ein Gemeinwesen Vorgaben geben muss. Es darf beispielsweise nicht sein, dass Unternehmen negative Externalitäten (z.B. Umweltverschmutzung oder systemische Risiken) auf die Gesellschaft abwälzen, während die Gewinne privatisiert werden.
Polyzentrische Ansätze: Besser ist es, das lokale Wissen zu nutzen, Rückkopplungsschleifen einzurichten, um aus Fehlern zu lernen. Anreizsysteme müssen geschaffen werden, die zu einer möglichst eigenständigen Verwaltung dieser Ressourcen durch die Menschen vor Ort führen.
Diversität: Ein zu hohes Maß an Diversität ist ebenfalls nicht sinnvoll, da Diversität und Kohärenz einen Widerspruch darstellen.
Redundanz: Hochoptimierte Prozesse zeigen optimale Leistung unter engen, sich wenig verändernden Rahmenbedingungen. Werden diese aber verlassen, kommt es zu einer Krise.
Freiheit im Denken, Sprechen und Handeln, ja die Aufforderung zum Widerspruch, sind die Grundlage für eine lebhafte und fortschrittliche Gesellschaft.
Kluge Politiker und Manager lassen Konflikt und den Widerspruch also nicht nur zu, sondern suchen ihn sogar aktiv. Solche Formen der Entscheidungsfindung werden manchmal auch Red-Teaming genannt: Bestimmte Personen oder Teams bekommen explizit die Aufgabe, bestehende Systeme oder Ideen zu hinterfragen oder auch anzugreifen.
Die Rolle von Politikern und in vielen Fällen auch von Managern ist es nicht, die besten Experten zu sein. Auch die Idee, Experten in die Regierung zu entsenden, ist selten erfolgreich. Die Aufgabe von Politikern und Managern ist vielmehr, solche Prozesse zu moderieren, zu leiten und dann die Entscheidung zu treffen und die Verantwortung zu übernehmen. Dabei schadet Fachkenntnis natürlich nicht. Aber Management oder Politik benötigen andere Qualifikationen als Expertentum in einer bestimmten Sache.
Das exakte Gegenteil ist, wie im vorigen Teil beschrieben, die Umsetzung der Energiewende in Deutschland. Hier werden nahezu alle denkbaren Fehler begangen. Es wurden keine Feedback-Mechanismen eingeführt und Transparenz geradezu blockiert. Zudem liegt der Fokus auf einer ideologischen, von oben vorgegebenen „Lösung“ anstelle von generellen Zielvorgaben.
Vorsorgeprinzip: Analysiert man das Vorsorgeprinzip jedoch etwas genauer, so stellt es sich als inkohärent dar oder führt in der Praxis gar zum Gegenteil dessen, was beabsichtigt ist. Bei starker Auslegung folgt, dass neue Technologien nicht eingesetzt werden dürfen, wenn nicht sichergestellt ist, dass diese keine negativen Konsequenzen haben. Wir haben einen großen Teil des Buches dafür verwendet, um zu zeigen, dass die meisten systemisch relevanten Folgen komplexer neuer Technologien eben nicht vorhersehbar sind. Ebenso wenig vorhersehbar sind alle möglichen positiven Effekte, die man nicht nutzen würde, wenn man die Technologie verbietet (also die Opportunitätskosten).
Legen wir das Vorsorgeprinzip dogmatisch aus, so ist die logische Konsequenz das Ende jeder Innovation, jedes neuen Produkts. Sicherheit in der Zukunft kann nie bewiesen werden. Legt man das Vorsorgeprinzip aber weich und pragmatisch aus, so wird es zum “Gummiparagraphen“. Es ist dann ein beliebiges Kriterium, das je nach politischer Opportunität in die eine oder andere Richtung interpretiert werden kann.
Auch hier geht es wieder um die Etablierung von Feedback-Schleifen. Denn erst im Einsatz zeigen sich Nebenwirkungen, die nicht erwünscht sind und nicht vorhergesehen werden konnten. Es bedarf dann auch größerer gesellschaftlicher Flexibilität, bereits eingeführte Praktiken auch wieder zu ändern, wenn sie sich als schädlich herausstellen. Auch wenn manche es nicht gerne hören: Neue Technologien – die wir in vielen Bereichen dringend benötigen – bringen immer Unsicherheiten mit sich. Der Wunsch nach völliger Sicherheit ist naiv und führt zu noch viel größeren Risiken.
Skin in the Game ist ein wichtiger Teil eines Anreizsystems, das dafür sorgen soll, dass Menschen nicht Risiken auf Kosten anderer eingehen, ohne selbst betroffen zu sein. Wenn Bänker das Finanzsystem der Welt gefährden, ihre eigenen Boni aber nicht, dann ist im Anreizsystem etwas grundfalsch.
Anreizsysteme agieren wie Filter in einem System, das sowohl Strategien als auch Personen betrifft. Schlechte Anreizsysteme können narzisstische oder gar psychopathische Manager bevorzugen. Unter solchen Bedingungen ist wenig erreicht, einen bestimmten Manager zu feuern.
Gelingt es nicht, funktionierende evolutionäre Systeme mit geeigneten Feedback-Mechanismen und Bewertung an der Realität zu etablieren, so passiert das, was in vielen länger existierenden Organisationen zu beobachten ist: sie degenerieren und versteinern.
Dieser Verfall kann bemerkenswert lange Zeit anhalten, wenn keine ernsthafte Konkurrenz gegeben ist. Am Ende gewinnt immer die Wirklichkeit und der Zusammenbruch kommt uns teuer zu stehen.
Wir haben – wie der Zauberlehrling – Erkenntnis gerochen. Aber wirkliche Erkenntnis und Fortschritt benötigen Zeit und Reflexion, sonst besteht die Gefahr, Monster zu erschaffen, die man nicht mehr los wird.
Ideologie und Wunschdenken sind zu jeder Zeit destruktive Kräfte. Manche Menschen lassen sich eine Zeit lang beeindrucken, die Realität hingegen nicht. Die Folgen der Verleugnung von Realität bekommen wir über kurz oder lang zu spüren.