Letzte Aktualisierung am 23. Oktober 2015.

Das Buch „Fallstricke: Die häufigsten Denkfehler in Alltag und Wissenschaft“ beleuchtet aus einer sehr interessanten und nicht-technischen Perspektive, warum wir Menschen große Probleme im Umgang mit komplexen Systemen haben. Damit werden auch einige Entwicklungen im Cyber-Bereich, aber auch in vielen anderen Bereichen wo es um eine unkontrollierte Komplexitätsausweitung geht, nachvollziehbarer. Gleichzeitig sollten die Erkenntnisse aus diesem Buch Denkanstöße geben, um gegenwärtige und zukünftige Sackgassen früher zu erkennen, bzw. überhaupt zu verhindern.

Die Geschichte der Wissenschaft zeigt immer wieder, dass Forscher meist auch dann von sehr einfachen Mechanismen ausgehen, wenn sie mit neuen Gebieten in Kontakt kommen. Erst im Laufe der Zeit stellt sich heraus, dass fast alle vereinfachenden Annahmen falsch sind.

Menschen lösen Probleme oft linear.

Da uns als Ausgangsbasis stets Altes und Vertrautes dient, kommt es trotz veränderter Fakten oft zu Fehlschlüssen und Fehleinschätzungen zukünftiger Entwicklungen. (…) Es waren alle Fakten bekannt, das Resultat somit ‚eigentlich‘ vorhersehbar. Letztendlich wurde jedoch einmal mehr eine altbekannte, aber nicht mehr passende Struktur neu zugewiesen.

Nichtbeachtung von Fern- und Nebenwirkungen.

Sehr große, intransparente und komplizierte Systeme werden in ihrer Komplexität grundsätzlich unterschätzt, selbst wenn man weiß, dass sie komplex sind. (…) Versuchspersonen scheitern häufig daran, komplexe Systeme in den Griff zu bekommen, was nicht selten zur Katastrophe führt. Maßnahmen, die für einfache Probleme funktionieren, werden unverändert auf komplexe Systeme übertragen. Ein möglicher Grund für dieses Versagen ist eine fehlende evolutionäre Anpassung. Wirklich komplexe Systeme kamen in den Habitaten der Jäger-und-Sammler-Gruppen extrem selten vor.

Warum aber achten wir nicht auf diese Warnungen? Einer der Hauptgründe dafür ist unser fehlerhafter Umgang mit komplexen Systemen. Wir sind schlichtweg überfordert; und wir bemerken es nicht. Die Probleme werden gar nicht als Probleme erkannt. Stattdessen glauben wir, es sei alles ganz einfach, und wir könnten mit linearen Problemlösungsversuchen dynamische, intransparente und vernetzte komplexe Systeme beherrschen.

Die besten Absichten führten oft zu den größten Katastrophen. (…) ‚Wussten wir ja nicht‘ – Das Wissen war da; man hat es nur nicht beachtet oder beachten wollen.

In vernetzten, rückgekoppelten Systemen gibt es kein Allheilmittel.

Der Mensch vereinfacht komplexe Sachverhalte radikal und ordnet einer Wirkung auch nur eine Ursache zu. Die Vereinfachung auf einen einzigen Aspekt ist typisch für lineares Problemlösen (ein Problem hat eine Lösung).

Auch heute glaubt man, alles besser zu wissen, und weigert sich hartnäckig, aus früheren Fehlern zu lernen.

Außerdem neigen wir zum mechanischen Anwenden bekannter Methoden und erzeugen durch bewusst hervorgerufene Routine (vermeintliche) Sicherheit und gewinnen Zeit.

Dabei übersehen wir allerdings auch offensichtlich einfachere Alternativen.

Die Fehler sind oftmals unverhüllt sichtbar und weisen exakt die empirisch nachgewiesenen Strukturen auf.

In Wissenschaft und Technik allerdings sind solche Irrwege für die gesamte Gesellschaft langwierig, teuer und schädlich. Denn richtiges wissenschaftliches Know-how sichert uns funktionierende Technik und daraus resultierende Lebensqualität.

Besonders ernüchternde Erfahrungen aus einem anderen Sektor:

Einführung neuer biologischer Arten (Bioinvasoren): Die Erfolgsquote ist extrem niedrig: Nur bei 6% der Einführungen war man vollständig zufrieden, bei 18% verzeichnete man einige positive Effekte, die restlichen 76% versagten völlig. Trotzdem hören wir nicht auf.

Eine umfangreichere Zusammenfassung finden Sie hier.