Letzte Aktualisierung am 13. November 2014.

Das Buch von Nassim Taleb, „Antifragilität – Anleitung für eine Welt, die wir nicht verstehen„, bietet wieder zahlreiche Denkanstöße für den Umgang mit komplexen Systemen.

Nassim Nicholas Taleb ist ein philosophischer Essayist und Forscher in den Bereichen Statistik, Zufall und Epistemologie und ehemaliger Finanzmathematiker.

Es ist sehr viel leichter, sich zu überlegen, ob eine Sache fragil ist, als das Eintreten eines für diese Sache potenziell gefährlichen Ereignisses vorherzusagen. Fragilität ist messbar; Risiken sind nicht messbar.

Schwarze Schwäne sind große, unvorhersehbare, irreguläre Ereignisse mit massiven Folgen – unvorhergesehen von einem bestimmten Beobachter.

Von Menschen gemachte komplexe Systeme haben die Tendenz, nicht mehr kontrollierbare Reaktions-Kaskaden und -Ketten zu entwickeln, die jegliche Vorhersehbarkeit herabsetzten, ja eliminieren und ihrerseits gravierende Ereignisse zur Folge haben. Die moderne Welt schreitet also zwar hinsichtlich des technischen Wissens fort, aber das führt paradoxerweise dazu, dass alles sehr viel unvorhersehbarer wird.

Antifragil ist ein Begriff, der in Relation zu einer bestimmten Situation steht. Ein Boxer kann physisch robust sein, kerngesund, und mit jedem Kampf besser und stärker werden; andererseits ist er womöglich emotional fragil und zerfließt in Tränen, wenn seine Freundin ihm den Laufpass gibt.

Es ist nicht unbedingt sinnvoll und gut, Systeme von Stressoren – lebensnotwendigen Stressoren – zu befreien, im Gegenteil: Das kann geradezu einer Schädigung gleichkommen.

Risikomanagementprofis/Worst-Case-Szenario: Ihnen entgeht aber völlig die Widersprüchlichkeit, dass dieser so genannte schlimmste Fall zu der Zeit, da er sich ereignete, schlimmer war als der damals geltende „schlimmste Fall“.

Die Vermeidung von kleinen Fehlern verschlimmert die größeren.

Man kann an der Truthan-Geschichte auch die Urform aller fatalen Fehlschlüsse ablesen: das Verwechseln der Abwesenheit eines Beweises (für eine Gefahr) mit dem Beweis für die Abwesenheit, das heißt die Nichtexistenz (dieser Gefahr).

Es ist schwer, datenhörigen Menschen zu erklären, dass die Risiken sich in der Zukunft befinden, nicht in der Vergangenheit.

Menschen, die technisch orientiert denken, neigen dazu, alles um sich herum als technisches Problem wahrzunehmen.

Experimente zeigen, dass die Wachsamkeit nachlässt, wenn man die Kontrolle einem System übergeben kann (auch hier fehlende Überkompensation). Autofahrer brauchen die Stressoren und die Spannung, die aus dem Gefühl von Gefährdung resultieren, um permanent aufmerksam zu sein und die Risiken unter Kontrolle zu behalten, und kein externes Regulierungssystem.

Vom Mikromanagement zum Chaos: In der Geschäftswelt und bei ökonomischen Entscheidungsprozessen verursacht die Abhängigkeit von Daten gravierende Nebenwirkungen – Daten gibt es heute dank der allgemeinen Vernetzung im Überfluss, und der Anteil an Störgeräuschen nimmt zu, je tiefer man in den Informationsfluss eindringt. Eine eher selten aufgegriffene Eigenschaft von Daten: Sie sind in großen, ja schon in durchschnittlichen Mengen toxisch. Rauschen und Zufälligkeit vermag auch von einem selbst Besitz ergreifen, vor allem die ganz und gar unnatürlichen Daten, die aus dem Netz oder überhaupt den Medien stammen. Je häufiger man sich mit Daten befasst, desto unverhältnismäßig mehr Geräusche bekommt man ab (anstelle des wertvollen Teils, dem Signal).

Im Zeitalter des Internets ist das gar nicht so einfach. Immer wieder fällt es mir äußerst schwer zu erklären, dass man desto weniger weiß, was vor sich geht, je mehr Daten man bekommt – und dass entsprechend desto mehr schädliche Nebenwirkungen erzeugt werden.

Es ist viel einfacher Antifragilität aufzuspüren, als Vorhersagen zu treffen und die Dynamik von Ereignissen zu verstehen. Aus diesem Grund reduziert sich die Aufgabe darauf, das zentrale Prinzip zur Minimierung der Schäden von Prognose-Irrtümern herauszuarbeiten, sich als auf Bereiche zu konzentrieren, die nicht scheitern, sondern im Gegenteil womöglich sogar davon profitieren, wenn wir einen Fehler machen.

Der erste Schritt in Richtung Antifragilität besteht darin, die Nachteile abzubauen, bevor man sich an den Aufbau der Vorteile macht. Die Entschärfung von Fragilität ist keine Option, sondern eine Notwendigkeit. Das hört sich wie eine Selbstverständlichkeit an, allerdings wird der Punkt gerne übersehen. Fragilität geht nur in eine Richtung, ein Schaden ist irreversibel.

Die Fragilität, die als Folge einer Pfadabhängigkeit auftritt, wird häufig von Geschäftsleuten ignoriert, welche aufgrund ihres soliden Trainings in statistischem Denken zu der Überzeugung neigen, ihre oberste Mission bestehe darin, Profit zu machen, und Überleben und Risikokontrolle seien etwas, das man vielleicht irgendwann einmal in Betracht ziehen könnte – sie übersehen, dass Überleben dem Erfolg logisch unbedingt vorgeordnet ist.

Dem Fragilen fügen Schocks desto größeren Schaden zu, je mehr die Intensität ansteigt (bis zu einer bestimmten Grenze). Ihr Auto ist fragil. Wenn Sie es mit 80 Stundenkilometer gegen eine Mauer fahren, richten Sie größeren Schaden an, als wenn Sie es zehnmal mit 8 Stundenkilometer gegen dieselbe Mauer fahren. Der Schaden bei 80 Stundenkilometer ist mehr als zehnmal so groß wie der Schaden bei 8 Stundenkilometern.

Die Welt wird zunehmend unvorhersagbar, und wir verlassen uns mehr und mehr auf Technologien, die irrtumsbehaftet sind und schwer abzuschätzende Wechselwirkungen hervorrufen, ganz zu schweigen davon, dass sie vorhersagbar wären.

Wir wissen wesentlich besser, was falsch, als was richtig ist, oder – formuliert vor dem Hintergrund der Fragil/Robust-Klassifikation – negatives Wissen (Was ist falsch? Was funktioniert nicht?) ist robuster gegen Irrtümer als positives Wissen (Was ist richtig? Was funktioniert?). Wissen wächst also wesentlich eher durch Subtraktion als durch Addition: Was wir heute wissen, kann sich morgen als falsch erweisen, aber etwas, von dem wir wissen, dass es falsch ist, kann sich nicht – jedenfalls nicht so ohne Weiteres – als richtig herausstellen. Falsifikation ist schlüssiger als Bestätigung.

Aber die Leute wollen einfach noch mehr Daten, um Probleme zu lösen. Die Beteiligten wollten das Paradoxon nicht sehen, dass wir nie zuvor mehr Daten hatten, als uns gegenwärtig zu Verfügung stehen, und dass gleichzeitig die Lage nie zuvor weniger prognostizierbar war.

Das Nicht-Natürliche muss seinen Nutzen beweisen, nicht das Natürliche.

Wir müssen Redundanz einbauen, einen Sicherheitspuffer, indem wir Optimierung vermeiden und Asymmetrien in unserer Risikoanfälligkeit abmildern, wenn nicht gar ganz entfernen.

Dieser Effekt, dass man von Daten in die Irre geführt wird, beschleunigt sich immer mehr. Es gibt das höchst unerfreuliche Phänomen der „Big Data“, bei dem die Forschung das Rosinenpicken im industriellen Maßstab betreibt.

Immer häufiger können Daten Wissen lediglich nach der Via-Negativa-Methode vermitteln – man sollte sie dafür einsetzen, etwas zu widerlegen, nicht aber, um etwas zu bestätigen.

Der Schlüssel zum Erstellen guter Karten besteht genau darin, Informationen wegzulassen.