Hintergrundthemen

Antizipation

Antizipation ist in der Psychologie und Soziologie die vorwegnehmende gedankliche Erwartung oder Erwartungshaltung. Ein Ereignis zu antizipieren heißt, in Betracht zu ziehen, dass ein Ereignis eintreten kann. Wikipedia

Die beste Vorbereitung auf unerwartete Ereignisse ist die geistige Beschäftigung mit der Tatsache, dass die Ereignisse überhaupt eintreten können. Wer in der Lage ist, eine unerwartetes Ereignis oder auch eine unangenehme Situation gedanklich durchzuspielen und die Handlungsalternativen vorab durchzudenken, ist in der Situation besser vorbereitet. Daher: Wie gehe ich persönlich mit subjektiver Unsicherheit um? Thomas Müller, Kriminalpsychologe

Antizipation ist daher auch für die Blackout-Vorsorge ganz besonders wichtig! Auch hier müssen Dinge durchgedacht werden, wofür es kaum Erfahrungswissen gibt. Im Sinne von Resilienz geht es dabei vor allem um ein Lernen vor dem Ereignis, also einer Vorwegnahme von möglichen negativen Entwicklungen. Dies aus einem ganz einfachen Grund: Das Erfahrungslernen aus einem Blackout ist unbezahlbar und daher unbedingt zu vermeiden.

Autarkie/Autarkiegrad

Nachdem mit den aufkommenden Speichern auch immer häufiger von Autarkiegraden/Individuelle Autarkie/Hoher Autarkiegrad oder ähnlichem die Rede ist, möchten wir hierzu ein paar klare Worte finden, um dieser Selbsttäuschung und den möglichen Marketingtricks entgegenzuwirken. Dazu einmal zwei verkürzte Definitionen gem. Wikipedia:

Autarkie im allgemeinen Sinne bedeutet, dass Organisationseinheiten oder Ökosysteme alles, was sie ver- oder gebrauchen, aus eigenen Ressourcen selbst erzeugen oder herstellen. Autarke Systeme sind u. a. wirtschaftliche Einheiten (Volkswirtschaften, Wirtschaftsregionen, Haushalte), die sich ausschließlich mit eigenen wirtschaftlichen Gütern (Lebensmittel, Rohstoffe, Waren, Dienstleistungen, Produktionsfaktoren), Energie (Inselsystem) versorgen und von Importen unabhängig sind.
Als Autonomie bezeichnet man den Zustand der Selbstbestimmung, Unabhängigkeit (Souveränität), Selbstverwaltung oder Entscheidungsfreiheit.

Daraus lässt sich sehr rasch erkennen, dass hier wohl der falsche Begriff verwendet wird. Das was häufig erreicht werden soll, ist wohl Autonomie!

Eine Energieautarkie ist nur dann gegeben, wenn ein reines Inselnetz/-versorgung betrieben wird, etwa auf einer Almhütte. Auch eine Energieautarkie übers Jahr gerechnet gibt es nicht, da ja weiterhin auf externe Ressourcen zurückgegriffen werden muss. Ganz abgesehen davon, dass im Stromversorgungssystem zu jedem Augenblick das Gleichgewicht zwischen Erzeugung und Verbrauch hergestellt sein muss, damit das System überhaupt funktioniert. So produziert zwar das Burgenland mehr Strom, als die BürgerInnen in einem Jahr verbrauchen. Das Burgenland wäre jedoch das ganze Jahr finster, gebe es nicht dahinter das österreichische/europäische Verbundsystem, dass auch für die notwendige Stabilität sorgt.

Zum anderen möchten wir auch darauf hinweisen, dass wenn jemand auch zu 60 oder sogar 99 Prozent eigenversorgungsfähig ist, er wahrscheinlich dennoch erwartet, dass er den restlichen Teil – bei 99 Prozent immerhin noch fast 90 Stunden des Jahres – eine funktionierende stabile Stromversorgung zur Verfügung hat. Es ist zwar verständlich, dass jene dafür nur wenig bezahlen wollen, da sie ja den Rest selbst stemmen, aber das kann nicht funktionieren, wenn man nur die  tatsächlichen Energiekosten dafür berechnet (siehe auch Überlegungen zum Netznutzungsentgelt). Denn das teure Restsystem muss ja nicht nur in den 90 Stunden, sondern während der gesamten 8.760 Stunden zur Verfügung stehen, um jederzeit einspringen zu können. Das wird leider häufig vergessen.

Die Energie-/Stromversorgung wird daher auch in Zukunft nur als Gemeinschaftsaufgabe sinnvoll zu bewerkstelligen sein, aber kleinteiliger und dezentraler in Form von Energiezellen.

Die drei Phasen eines Blackouts

Um die tatsächlichen Auswirkungen eines Blackouts erfassen zu können, muss das Gesamtszenario betrachtet werden. Die meisten Menschen denken nur an einen Stromausfall, also an die Phase 1. Das greift jedoch deutlich zu kurz und führt zu einer massiven Unterschätzung. Denn auch in der Phase 2, also wenn noch kaum ein Telefon, Handy oder das Internet funktionieren, wird auch sonst kaum etwas funktionieren. Weder eine Produktion, Logistik noch Treibstoffversorgung. Auch kein Tanken oder Einkaufen. Nur die Wasserver- und Abwasserentsorgung sollten wieder funktionieren. Erst in der Phase 3 kann dann der Wiederanlauf der Versorgung mit lebenswichtigen Gütern beginnen. Und das kann dauern. Denken Sie nur an mögliche Ausfälle in der industrialisierten Tierhaltung oder Glashausproduktion. Es wird zum Teil Jahre dauern, bis sich wieder eine Normalisierung einstellt. 

Die drei Phasen eines Blackouts

Domino-, Schneeball-, Kaskadeneffekt oder Kettenreaktion

 

Ein Domino-, Schneeball-, Kaskadeneffekt oder eine Kettenreaktion bezeichnen eine Abfolge von Ereignissen, von denen jedes einzelne Ereignis zugleich wieder Ursache für das nachfolgende ist. Alle Ereignisse sind dabei auf ein und dasselbe Anfangsereignis zurückzuführen. Die Reichweite und Auswirkung lässt sich speziell bei Kaskaden-/Schneeballeffekten oder Kettenreaktionen kaum vorhersagen, da hier exponentielle Entwicklung (selbst verstärkend) eine zentrale Rolle spielen. Daher können auch leicht kleine Ursachen zu großen Auswirkungen („Schmetterlingseffekt“) führen. Ein klassisches Beispiel ist eine Lawine, welche durch eine kleine, sich selbst verstärkende Störung ausgelöst wird.

Foto Lawine: Scientif38/Wikipedia

 

 

EVA: Studie "Ernährungsvorsorge in Österreich"

Besonders problematisch sind die Erkenntnisse aus der Studie Ernährungsvorsorge in Österreich“: Demnach erwarten hochgerechnet rund drei Millionen Menschen, oder ein Drittel der Bevölkerung, dass sie sich maximal vier Tage selbst versorgen können. Nach sieben Tagen betrifft das bereits rund sieben Millionen Menschen, oder zwei Drittel der Bevölkerung. Dafür gibt es keinerlei Vorsorgen. Rund 1,5 Millionen Menschen verfügen demnach auch über keinerlei Wasservorräte.

Erst diese leichtfertige Ausgangssituation führt dann in eine wirkliche Katastrophe!

Exponentielle Entwicklung

Darstellung einer exponentiellen Entwicklung

grün = exponentielles Wachstum
rot
= lineares Wachstum
blau= kubisches Wachstum
Quelle: Wikipedia

Ein Faktor, der häufig unterschätzt wird, sind exponentielle Entwicklungen. Dabei steigen ab einer bestimmten Größenordnung (siehe auch s-förmiges Wachstum) die Schäden bzw. die Wechselwirkungen rasant an. Damit steigt auch die Dynamik des Ereignisses. Eine „Beherrschung“ im herkömmlichen Sinne ist kaum möglich.

Zur Illustration dient folgende Legende: Der Erfinder des Schachspiels, Sissa, wünschte sich von seinem König folgende Belohnung. Für das erste Feld des Schachbrettes ein Korn, für das zweite zwei Körner, für das dritte vier Körner und bei jedem weiteren Feld doppelt so viele wie auf dem vorherigen Feld. Der König wunderte sich über die Bescheidenheit. Insgesamt wären dies jedoch mehr als 18 Trillionen Weizenkörner (oder rund 100 Milliarden LKW-Ladungen) gewesen, und sämtliche Welternten seit Beginn des Getreideanbaus hätten hierzu nicht ausgereicht. Die Legende drückt die Schwierigkeit aus, das Wachstum von Exponentialfunktionen richtig einzuschätzen. Auch bei der Zinseszinzentwicklung im Finanzsystem bzw. bei den Kreditzinsen kommt ein exponentielles Wachstum zum Tragen.

Kausalität versus Korrelation

Unser Gehirn ist dafür ausgelegt, Muster zu vervollständigen und wieder zuerkennen. Das bedeutet, das Gehirn versucht Eindrücke mit bereits bekannten und „gespeicherten“ Eindrücken zu vergleichen und zu kombinieren und eine Einordnung durchzuführen. Das ermöglicht schnellere Entscheidungen. Aber das kann genauso gut zu Falscheinschätzungen führen. Das führt dann auch zu bekannten optischen Täuschungen. Dieser Sachverhalt ist wichtig, um auch den Unterschied zwischen Kausalität und Korrelation zu verstehen. Denn wir Menschen neigen dazu, auch dort Zusammenhänge (Kausalität) zu sehen, wo es keine gibt. Siehe etwa das Video https://youtu.be/L5QHyL823Xw.

Kausalität (Ursache oder Wirkungsbeziehung)

Kausalität (lateinisch causa, „Ursache“) ist die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse und Zustände. Demnach ist ein Ereignis oder der Zustand A die Ursache für die Wirkung B, wenn B von herbeigeführt wird. (Quelle: Wikipedia)

Kausalkette Beispiel: Dominosteine: Das Umfallen des ersten Steins bewirkt das Umfallen des zweiten Steins; dieses Umfallen bewirkt wiederum das zeitlich darauffolgende Umfallen des dritten usw. – bis der letzte Stein umgefallen ist.

 

 

Siehe auch das Video: https://youtu.be/lvKLsTTVzb4

Korrelation („Wechselbeziehung“)

Eine Korrelation (mittellat. correlatio für „Wechselbeziehung“) beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen, Zuständen oder Funktionen. Die Beziehung muss keine kausale Beziehung sein: manche Elemente eines Systems beeinflussen sich gegenseitig nicht, oder es besteht eine stochastische, also vom Zufall beeinflusste Beziehung zwischen ihnen (Quelle: Wikipedia).

Das bedeutet, das Verhalten ist rein zufällig oder entsteht über eine weitere Variable, die häufig nicht wahrgenommen wird. Wir Menschen neigen jedoch dazu, darin eine Kausalität – also eine Wirkungsbeziehung – zu erkennen, was zu falschen Rückschlüssen und Entscheidungen führen kann.

Korrelation vs Kausalität: So lassen sich Statistiken manipulieren

Siehe auch das Video: https://youtu.be/YgFJRrvp3Nc oder APL 031: Warum leben verheiratete Männer länger? Der Unterschied zwischen Korrelation und Kausalität

Dieser Beitrag wird noch bearbeitet.In Berarbeitung. Bitte um etwas Geduld.

Kleine Ursache, große Wirkung - "Schmetterlingseffekt"

Als Schmetterlingseffekt (englisch butterfly effect) bezeichnet man den Effekt, dass in komplexen, nichtlinearen dynamischen Systemen eine große Empfindlichkeit auf kleine Abweichungen in den Anfangsbedingungen besteht. Geringfügig veränderte Anfangsbedingungen können im langfristigen Verlauf zu einer völlig anderen Entwicklung führen. Es gibt hierzu eine bildhafte Veranschaulichung dieses Effekts am Beispiel des Wetters, welche namensgebend für den Schmetterlingseffekt ist: „Kann der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas auslösen?“ Quelle: Wikipedia

Gerade in komplexen Systemen können kleine Veränderungen zu ganz großen und meist nicht vorhergesehenen Entwicklungen/Nebenwirkungen führen. Aber auch umgekehrt, große Anstrengungen und Ressourcenaufwände führen zu keinen Ergebnissen.

Die Chaosforschung macht darauf aufmerksam, dass entgegen dem Kausalitätsprinzip gleiche Ursachen nicht gleiche Folgen haben müssen und kleine Änderungen unverhältnismäßig weit reichende Folgen nach sich ziehen können (Schmetterlingseffekt). Demnach erlaubt keine noch so genaue Systemanalyse eine Prognose des künftigen Systemverhaltens.

Momentanreserve

Grafik: Swissgrid - Gleichgewicht StromnetzDie bewegten Drehmassen der Synchrongeneratoren in Kraftwerken enthalten durch die Drehung eine mechanische Energie. Die Summe der elektrischen Energie und der mechanischen Energie bleiben gemäß Energieerhaltungssatz in einem abgeschlossenen System konstant. Deren Anteile erfahren aber durch Änderung der Energieeinspeisung und des Bedarfs ebenfalls Änderungen. Ein Bedarf an elektrischer Energie (weil z. B. eine Erzeugungseinheit ausgefallen ist) wird durch einen Entzug an mechanischen Energie ausgeglichen. Die bewegten Drehmassen wirken wie ein Energiepuffer. Dieser Energieanteil im Gesamtsystem wird „Momentanreserve“ genannt. Im ersten Moment eines solchen Ausfalles ändern sich also nur die Energieanteile. Das führt instantan (also sofort und ohne weitere Maßnahmen) zu Änderungen der Drehzahl aller am Netz befindlichen Synchrongeneratoren. Das ist keine „Dämpfung“ der Frequenz, sondern die Folge des Änderns der Energieanteile. Diese Änderung der Drehzahl gleicht die gestörte Leistungsbilanz so lange aus, bis wieder die durch den Ausfall fehlende Leistung durch die Wirkung der Primärregelung ersetzt werden kann. Die Frequenz ist bei Synchrongeneratoren übereinstimmend mit der Drehzahl.

Damit ist die Frequenz des erzeugten Wechselstromes die Kenngröße für die Leistungs-Frequenz-Regelung. Der Unterschied von der gemessenen Frequenz zur Sollfrequenz (50 Hz im europäischen Stromsystem) ist der Maßstab für die Primärregelung, die so rasch wie möglich den Abfall der Drehzahl durch zusätzliche Energieeinspeisung (positive Regelenergie) stoppen soll. Diese zusätzlich notwendige Energieeinspeisung kann auch durch Batteriespeichersysteme geliefert werden. Dazu muss die aktuelle Frequenz und die Sollfrequenz bekannt sein und die den Batteriesystemen zu entnehmende Leistung bestimmen. Dann erst folgen weitere Maßnahmen, welche die abgefallene Drehzahl wieder auf Nenndrehzahl bringen.

Die gesamte Regelung ist demnach ein relativ komplexer Vorgang, der nur im Einklang mit den Naturgesetzen beherrscht werden kann. „Flexibilität“ reicht dafür nicht! Das Thema „Stabilität darf im Übrigen nicht nur auf Energiemangelsituationen beschränkt werden. Auch Energieüberschuss muss in gleicher Weise beherrscht werden. Immer ist die Frequenz der Dreh- und Angelpunkt.

Damit kommt der Momentanreserve eine ganz besondere und vor allem unverzichte Bedeutung für die Systemsicherheit des europäischen Stromversorgungssystems zu.

Unterschied zur Regelleistung

Siehe Wikipedia.

Quelle: Wikipedia

Was ist Momentanreserve?

Weiterführende Informationen

Anmerkungen Franz Hein: Ersatz durch Leistungselektronik

Das mit der Momentanreserve wird mehr und mehr zum heißen Eisen, weil es (Fach?)Leute gibt, die felsenfest der Überzeugung sind, dass mit einer schnellen P(f)-Regelung (mittels Leistungselektronik) die Bedeutung der Momentanreserve abnimmt bzw. diese ganz ersetzt werden kann. Man meint, dass eine genügend schnell reagierende Leistungselektronik so rasch wieder das Leistungsgleichgewicht herstellen kann, dass damit Lastsprünge beherrschbar bleiben. Es ist nur so, dass auch da die Frequenz als Kenngröße unverzichtbar ist, dass sie gemessen werden muss, dass eine beliebig genaue Frequenzmessung Zeit braucht und dass bei abnehmender Momentanreserve die Frequenz im Gesamtsystem immer „steiler“ auf einen Leistungssprung reagiert. Damit bleibt der „Schnellen“ P(F)-Regelung immer weniger Zeit für ihr Eingreifen. Das kann nicht ad infinitum so weiter getrieben werden.

Ich halte auch die schnelle P(f)-Regelung für einen großen Gewinn, nur braucht die eben doch die Momentanreserve, weil im Energieerhaltungssatz der eigentliche Hebel steckt und der inhärent erfolgende Energie“transport“ (eigentlich eine „Umbenennung“ von Energieinhalten) zwischen „mechanischem“ Energieinhalt in den Schwungmassen und dem „elektrischen“ Energieinhalt im Stromsystem sich in der Frequenz äußert und damit die Kenngröße für die Regelung erzeugt. Die Frequenz ist eben die ideale Kenngröße für das Ausregeln.

Weiter Anmerkung zum Artikel Vattenfall, Nordex und CC4E wollen mit erneuerbaren Energien Netze stabilisieren:

Zunehmend drängen erneuerbare Energien fossile Brennstoffe aus dem Energiemix und mit ihnen die rotierenden Massen, die das Netz stabilisieren. Energieversorger und Netzbetreiber sind daher auf der Suche nach preisgünstigen und erneuerbaren Alternativen. Ein neuer Ansatz von Vattenfall, Nordex Energy und CC4E will nun erneuerbare Energien in verlässliche Stabilisatoren verwandeln. Dafür installierten sie an einem 12,6-Megawatt-Windpark in Curslack in Norddeutschland einen Lithium-Batteriespeicher mit 720 Kilowatt Leistung und 792 Kilowattstunden Kapazität. Die Batterie ist aus Lithium-Ionen-Akkus aufgebaut, wie sie auch in Elektroautos verwendet werden. Batteriespeicher und Windpark interagieren mittels einer intelligenten Regeleinheit miteinander und speisen Strom in das öffentliche Stromnetz ein. Entscheidend dabei sei, dass die beiden Komponenten eine Einheit bilden und gemeinsam in den Netzanschlusspunkt einspeisen, betont Vattenfall. Mit dem Speicherregelkraftwerk sollen verschiedene Anwendungsfälle zur Spannungs- und Frequenzhaltung erprobt werden, wie auch die Bereitstellung lokaler Blindleistung, Redispatch und anderes. Dabei sollen die Systemdienstleistungen nicht nur nacheinander, sondern auch gleichzeitig (gestapelt) ausgeführt werden, was eine Neuheit darstelle.

Noch weiter in die Zukunft geblickt, versucht das Team auch die Momentanreserve zu ersetzen, wobei dafür bisher noch keine Geschäftsmodelle existieren. Da die benötigte Energie für Systemdienstleistungen wie die Momentanreserve künftig nicht mehr automatisch vorgehalten wird, muss nun erarbeitet werden, zu welchen Bedingungen sie zukünftig bereitgestellt und vergütet werden kann, schreibt Vattenfall.

Es ist sicher nicht verkehrt, dass Speicher für die Bereitstellung von Energie zum Ausregeln von Leistungsmangelsituationen eingesetzt werden. Auch nicht verkehrt ist, dass Speicher in Leistungsüberschusssituationen aus dem System Energie in die Speicher überführen. Aber das allein als Ersatz für die rotierenden Massen zu „verkaufen“, das ist falsch. Da liegt der Hund begraben. Es muss zunächst ein Leistungsungleichgewicht so erkannt werden, dass das zu einer Regelgröße führt. Ein Synchrongenerator stellt mit seiner rotierenden Schwungmasse eben exakt mit der Drehgeschwindigkeit und damit mit der erzeugten Frequenz des Wechselstromes die Kenngröße her, aus der sich das Leistungsungleichgewicht aufgrund von physikalischen Gesetzen ergibt. Dann erst ist für die Speicher diese Kenngröße nutzbar, um das System wieder in das Leistungsgleichgewicht zu überführen.

Das Leistungsungleichgewicht kann natürlich auch durch die Bestimmung des Randintegrales erfolgen. Das aber setzt eine quasi gleichzeitig erfolgende und entsprechend genaue Messung der Leistung an allen Übergabestellen am Rand einer Energiezelle voraus. Bei mehreren Übergabestellen ist das sehr schwer machbar. Die Thematik der Gleichzeitigkeit von Messungen führt immer zu Überlegungen, in denen die küpfmüllersche Unbestimmtheitsrelation greift. Siehe bei Wikipedia: Um eine Frequenz von 1 Hz zu bestimmen, muss das Signal mindestens 1 s lang gemessen werden.

Zu all dem kommt noch folgendes: Jede Messung kostet Zeit. Jede Informationsübertragung auch. Aber auch die Energiezufuhr (bei Leistungsmangel) und das Wegspeichern von Energie (bei Leistungsüberschuss) braucht Zeit. Wenn das System schneller instabil wird, als die vorgenannten Maßnahmen greifen, dann ist der Weg in die Instabilität nicht mehr aufzuhalten. Das Energiesystem hat einen Kipppunkt. Wird der überschritten, dann führt kein Weg mehr zurück. Da hilft dann auch keine Leistungselektronik nicht mehr.

Wir haben es bei diesem Thema mit der Notwendigkeit des Sowohl-als-auch-Denkens zu tun. Wir brauchen eine Kenngröße. Um diese zu erhalten brauchen wir Zeit. In dieser Zeit bewegt sich das System weiter aus dem Ungleichgewicht heraus. Dann brauchen wir rasch reagierende Stützungsmaßnahmen. Je rascher diese reagieren, um so eher kann die Bewegung aus dem Ungleichgewicht gestoppt werden. Ein System, das keine Momentanreserve mehr hat, bewegt sich beliebig schnell aus dem Ungleichgewicht. Dann kann auch eine noch so rasch reagierende Stützungsmaßnahme nicht mehr greifen.

Ich bleibe dabei: Wir brauchen eine ausreichende Energiepufferung in den rotierenden Massen, damit die erzeugte Frequenz bei einem Leistungshub sich so „langsam“ verändert, dass eine „schnelle“ Regelung in den Gleichgewichtszustand wieder zurückführen kann. Die rotierenden Massen müssen nicht in konventionellen Kraftwerken installiert sein. Es genügen am Netz zugeschaltete Synchrongeneratoren mit insgesamt ausreichender Speicherung „mechanischer“ Energie. Dann folgt aus dem Satz der Erhaltung der Energie in einem abgeschlossenen System „automatisch“ der inhärent ablaufende Prozess einer Neuverteilung der Energieanteile.

Zusätzliche Anmerkung: Auch hier befinden wir uns am Beginn einer Testphase mit wahrscheinlich negativem Ausgang. Die erforderlichen Ersatzlösungen müssten aber bereits jetzt installiert werden. Als Draufgabe wird dann auch noch mit „es gibt dafür keine Geschäftsmodelle“, obwohl ohne Momentanreserve das System gar nicht funktioniert!

s-förmiges Wachstum

Eine wichtige Rolle bei diesen Anpassungszyklen spielt das universelle s-förmige Wachstum. In der Natur findet man nur ein s-förmiges Wachstum. Eine Weiterentwicklung erfolgt immer durch eine Adoption. Der einzige Gegenversuch – der medizinische Krebs – ist bislang erfolglos geblieben. Die künstliche Hinauszögerung einer Anpassung und das Festhalten am Wachstum führte bisher immer zum Kollaps. Siehe hierzu etwa auch unter dem Tag The Limits to Growth“.

Die Wachstumsfalle

(c) Frederic Vester

Dieses s-förmige Wachstum kann auch in der Wirtschaft beobachtet werden. Beispielsweise: Festnetztelefone – Mobiltelefone – Smart-Phone; Die Anpassungszyklen wurden dabei immer kürzer.

Entwicklung von Technologien - S-Kurven

Auch in vielen anderen Bereichen kann man diese zyklischen Entwicklungen beobachten. Vieles deutet darauf hin, dass wir uns derzeit am Beginn des 6. Kondratieff-Zykluses befinden. Auch die Entwicklung der Netzwerkgesellschaft scheint den exponentiellen Ast erreicht zu haben, womit steigt die Geschwindigkeit und Dynamik der Veränderungen, also die Turbulenzen.

„Schöpferischen Zerstörung“

„Schöpferischen Zerstörung“ und Innovation

„Schöpferischen Zerstörung“ und Innovation

Ein Begriff aus der Makroökonomie, der vom österreichisch/amerikanischen Ökonomen Joseph Schumpeter entwickelt wurde. Die Kernaussage dazu lautet: 

Jede ökonomische Entwicklung (im Sinne von nicht bloß quantitativer Entwicklung) baut auf dem Prozess der schöpferischen bzw. kreativen Zerstörung auf. Durch eine Neukombination von Produktionsfaktoren, die sich erfolgreich durchsetzt, werden alte Strukturen verdrängt und schließlich zerstört. Die Zerstörung ist also notwendig − und nicht etwa ein Systemfehler −, damit Neuordnung stattfinden kann. Quelle: de.wikipedia.org

Daher ist der Ruf nach Innovation auch immer ein zweischneidiges Schwert. Ob das den Rufern so klar ist, darf bezweifelt werden.

Schwarzer Schwan

Schwarzer SchwanWenn plötzlich völlig neue und bisher unbekannte Ereignisse auftreten, dann werden diese auch gerne als „Schwarz Schwäne“ bezeichnet. Der „Schwarze Schwan“ steht für äußerst seltene, völlig überraschend eintretende Ereignisse mit extremen Auswirkungen. Dabei lassen sie sich im Nachhinein leicht erklären – und dann haben es eh schon immer alle gewusst. Der Begriff wurde durch Nassim Nicholas Taleb geprägt, dem Autor von:

Schwarze Schwäne führen zu strategischen Schocks.

Wir sollten daher nicht zu selbstgefällig werden und uns um Achtsamkeit bemühen. Nicht das etwas schief gehen kann ist schlimm, sondern wenn wir das ausschließen und uns nur darauf verlassen, dass schon nichts passieren wird. Einige wichtige Gedankenanstöße dazu liefert etwa das Buch „Das Unerwartete managen„.

Seneca-Effekt

Aus: Bardi, Ugo: Der Seneca-Effekt – Warum Systeme kollabieren und wie wir damit umgehen können. Erfurt: SEUME Publishing Services GmbH, 2017

»Der Seneca-Effekt« beschreibt ein Phänomen in komplexen Systemen, wonach diese zum Kollaps neigen, bzw. das eine Eigenschaft und kein Defekt ist, um eine Erneuerung sicherzustellen. Siehe dazu auch die „Schöpferische Zerstörung“ in der Ökonomie. Demnach gibt es immer einen langsamen Anstieg, der jedoch mit einem relativ abrupten Ende endet. Das kann sowohl bei Gesellschaften als auch in der Materialwissenschaft beobachtet werden.

Abbildung 1: Der »Seneca-Effekt«, dargestellt mit der Methode der »Systemdynamik«. Diese Kurve ist ein allgemeines Modell und beschreibt viele physikalische Phänomene, die langsam anwachsen und schnell wieder zurückgehen. S. 13

„Die Tendenz komplexer Systeme zum Zusammenbruch lässt sich unter anderem unter dem Aspekt der »Kipppunkte« betrachten. Der Begriff verweist darauf, dass ein Kollaps kein sanfter Übergang ist, sondern eine drastische Veränderung, die das System von einem Zustand in einen anderen überführt („Phasenübergang“), wobei es kurzzeitig einen instabilen Zustand durchläuft.“ S. 14

„Tatsächlich ist der Seneca-Effekt meist die Folge des Versuchs, sich einer Veränderung zu widersetzen, statt sie anzunehmen. Je mehr Widerstand man gegen eine Veränderung leistet, desto mehr schlägt diese Veränderung zurück und überwindet schließlich diesen Widerstand. Und oft geschieht dies plötzlich. Letztlich ist dies das Ergebnis des zweiten Hauptsatzes der Thermodynamik: Die Entropie nimmt zu.“ S. 15

Resilienz: die Akzeptanz des Unvermeidlichen.“ S. 209
Damit wird einmal mehr unterstrichen, dass Resilienz nicht nur ein neuer Modebegriff ist, sondern komplimentär zu unserem heutigen Sicherheits- und Risikodenken zu sehen ist. Es geht nicht um die Verhinderung, sondern um die Bewältigung von nicht verhinderbarem! „Erholung ist die andere Seite von Resilienz: Ist ein Zusammenbruch unvermeidlich, kann man wenigstens versuchen, aus den Trümmern wieder aufzusteigen. Wie schwer oder einfach dies ist, liegt an der jeweiligen Struktur des Systems.“ S. 210f

Vertiefende Einsichten liefert die Buchzusammenfassung.

Sowohl-als-auch statt entweder-oder

Wir denken sehr häufig in den ausschließlichen Kategorien „entweder–oder“  (schwarz/weiß). Dabei übersehen wir das mögliche Dritte, Vierte, oder Fünfte (Grauschattierungen). Bisher hat sich das zweiwärtige/monokausale/logische Denken durchaus bewährt. Etwa bei Fragestellungen wie “gut – böse”, “essbar – nicht essbar”, “gefährlich – nicht gefährlich”, “sicher – nicht sicher”, “Beute – nicht Beute”, “Angreifer – kein Angreifer”, etc. Das hilft grundsätzlich beim Überleben. Jedoch zeigt auch gerade das Beispiel “gut – böse”, dass sich die Realität häufig nicht so einfach darstellt, wie wir das gerne hätten. Durch die steigende – von Menschen geschaffene Vernetzung und Komplexität – ergeben sich zusätzliche neue Herausforderungen, die sich nicht mehr alleine mit dieser einfachen (Silo-)Logik bewältigen lassen. Komplexe Systeme verhalten sich nicht-linear, daher gibt es auch mehr als zwei Möglichkeiten, was wiederum ein komplementäres, vernetztes Denken erfordert. Zum anderen erleichtert das Verständnis, dass das eine ohne dem anderen nicht möglich ist, den Umgang damit. Ein sowohl-als-auch-Denken führt zu einem kooperativen inkluderenden Verhalten, während ein entweder-oder-Denken polarisiert und Konfrontation schafft.

Weiterführende Gedanken finden Sie dazu etwa auch im Blogbeitrag von Conny  Dethloff: “Unser Denkrahmen hat sich seit dem Mittelalter nicht weiter entwickelt” 

Strategische Schocks

Strategische Schocks - TurbulenzenBezeichnen Ereignisse, die in der Lage sind, unser Zusammenleben nachhaltig, langfristig und erheblich zu verändern („Game-Changer“). Ein Blackout stellt etwa ein mögliches strategisches Schockereignis dar. Die Basis für strategische Schocks bilden systemische Risiken bzw. „Schwarze Schwäne„.

„Während eine Störung tendenziell häufiger, mit einer geringeren Destruktionskraft und einer längeren Verweildauer bei gleichzeitigem Systemfortbestand in Erscheinung tritt, ist ein Schock durch eine geringe und unregelmäßige Häufigkeit einhergehend mit einer hohen Existenzgefährdung des Systems gekennzeichnet. Beide Phänomene sind als krisenhafte Phänomene zu verstehen, die jeweils das Potential einer Veränderung hin zu einem katastrophischen Zustand beinhalten. Das hauptsächliche Unterscheidungskriterium zwischen einer Krise und einer Katastrophe ist das Vorhandensein von Kapazitäten und Ressourcen zur entsprechenden Zustandsbewältigung. Sind diese Bewältigungskompetenzen in einem adäquaten Ausmaß und Passungsverhältnis verfügbar, verbleibt das System noch in einem Zustand relativer Sicherheit – mangelt es an ihnen, verfällt es in einen katastrophischen Zustand, der mit jenem der Unsicherheit gleichzusetzen ist. Unter einer Krise soll daher ein Systemzustand verstanden werden, der durch Irritationen unterschiedlicher Qualität ausgelöst wird und mit einer Beeinträchtigung der Systemfunktionalitäten einhergeht. Die Verweildauer in einem solchen krisenhaften Zustand kann stark variieren, beeinflusst den Fortbestand des Systems jedoch nicht: Trotz eines zunehmenden Handlungsdrucks bei abnehmendem Handlungsspielraum sind insgesamt ausreichend Unsicherheitsbewältigungskapazitäten vorhanden, um das System in einen sicheren Zustand zurückzuführen. Eine Katastrophe als mögliche Entwicklungsform einer Krise ist im Vergleich dazu durch die zeitweise Nicht-Verfügbarkeit von Bewältigungsmechanismen gekennzeichnet. Die Dauer eines katastrophischen Zustands richtet sich danach, wie schnell eine (Wieder-)Herstellung von Handlungsfluidität gelingt;“ Daniela Giebel, Integrierte Sicherheitskommunikation, S 61f.

Siehe etwa auch Beyond data breaches: global interconnections of cyber risk bzw. X-Events von John Casti – Der plötzliche Kollaps von allem: Wie extreme Ereignisse unsere Zukunft zerstören können.

Too-big-to-fail – eine Gefahr für die Systemsicherheit

In diesem Beitrag werden aktuelle Beispiele für Firmenfussionen gesammelt, die zu einem System führen, das “too-big-to-fail” ist und daher eine zunehmende gesellschaftliche Gefahr darstellen.

Too big to fail: Als systemrelevant oder too big to fail (englisch: „Zu groß, um zu scheitern“) werden Unternehmen bezeichnet, die eine derart wichtige wirtschaftliche Rolle spielen, dass ihre Insolvenz nicht hingenommen werden kann. Droht diese dennoch, wird sie in der Regel mit öffentlichen Mitteln (sog. Bail-outs) abgewendet. Von besonderer Relevanz ist die „too big to fail“-Problematik für Banken, Versicherungen oder sonstige Finanzinstitute, deren Insolvenz die Stabilität des gesamten Finanzsystems bedrohen kann. Angesichts der Sonderrolle des Finanzsektors für die Realwirtschaft kann diese Insolvenz auch zu massiven Verwerfungen in der Realökonomie führen. Quelle: wikipedia

Bisher wurde dieses Phänomen vor allem im Banken- und Finanzsektor beobachtet bzw. angesprochen. Dabei spielt too-big-to-fail auch in vielen anderen Bereichen eine entscheidende Rolle, was aber noch selten so angesprochen wird. Dass es hier in den nächsten Jahren zu massiven Gegenbewegungen bzw. disruptiven Entwicklungen kommen könnte, zeichnet sich ab, wie auch die Beispiel weiter unten zeigen.

Eine Geschichte aus der rabbinischen Tradition erzählt Folgendes. Ein König, der über das Verhalten seines Sohnes erbost war, schwor, er werde ihn mit einem Felsbrocken zermalmen. Nachdem er sich beruhigt hatte, stellte er fest, dass er sich in einer Zwickmühle befand, denn ein König, der seinen Eid bricht, ist als Herrscher ungeeignet. Sein weiser Ratgeber wusste einen Ausweg: Zerschlage den Brocken in viele winzige Kieselsteinchen und bewerft damit den nichtsnutzigen Sohn. Der Unterschied zwischen tausend Kieselsteinen und einem großen Felsbrocken gleichen Gewichts ist eine gute Illustration dafür, dass Fragilität auf nichtlineare Effekte zurückzuführen ist. S. 366, Antifragilität.

Dieses Beispiel kann auch umgekehrt gesehen werden. Der Ausfall vieler kleiner Einheiten ist für die Gesellschaft bei weitem nicht so schädlich, wie der Ausfall einer großen Einheit. Auch wenn es ineffizienter ist.

Das europäische Stromversorgungssystem

Auch das europäische Stromversorgungssystem ist mittlerweile too-big-to-fail, auch wenn es sich hier um kein einzelnes Unternehmen handelt. Die Gefahr wird durch die Marktliberalisierung und der vorwiegenden Marktorientierung unter der Vernachlässigung von physikalischen Gesetzen und Grenzen, sowie durch die missachtung von regionalen Rahmenbedingungen (Gestehungs- und Infrastrukturkosten) zunehmend größer. Etwa, indem Österreich zum großen Stromimporteur geworden ist, obwohl wir selber einen sehr hohen regenerativen Erzeugungsanteil haben und was dazu führt, dass noch notwendige flexible fossile Reservekraftwerke stillgelegt werden.

Wobei bei allen Beispielen ein sowohl-als-auch-Denken erforderlich und eine Effizienzsteigerung nicht per se negativ ist. Die hauptsächliche Marktorienterung führt jedoch zu einer zunehmenden Destabilisierung des Gesamtsystems. Siehe dazu etwa Stromnetze an der BelastungsgrenzeAlarm auf dem Strommarkt oder Ein robuster Strommarkt sieht anders aus.

Weitere Beispiele aus anderen Sektoren, bei denen die Gefahr entsteht, dass sie sich zukünftig disruptiv auf die Weltwirtschaft auswirken könnten:

EU genehmigte größte Fusion der Chipbranche

Die europäische Kartellbehörde hat der jüngsten Elefantenhochzeit in der US-Halbleiterbranche zugestimmt: Der Hersteller Avago darf den Konkurrenten Broadcom für 37 Milliarden Dollar (34,62 Mrd. Euro) ohne Auflagen übernehmen, teilte die EU-Kommission heute in Brüssel mit.

Es ist der bisher größte Zukauf in der zersplitterten Halbleiterbranche. Der Industriezweig wird in diesem Jahr von einer beispiellosen Übernahmewelle erfasst, weil die Unternehmen nach Einsparmöglichkeiten suchen. Treibende Kraft ist die Nachfrage nach günstigeren Chips und neuen Produkten für Geräte mit mobilem Internetempfang. Quelle: orf.at

Natürlich kann durch die Fussion auch effizienter und billiger produziert werden. Aber es entstehen auch Monopole, wie wir sie bereits aus der Softwareindustrie oder anderen Bereichen kennen. Zudem kommt es zu einer Abnahme der lebenswichtigen Diversität. Die Störanfälligkeit steigt. Kommt es zu einem Problem, steigt die Gefahr von Dominoeffekten rassant (exponentiell) an. Oder bildlich dargestellt:

Diversität Bsp Taleb

Quelle: Nassim Taleb

Mega-Fusion in Pharmabranche

Um von der niedrigen irischen Körperschaftssteuer zu profitieren, will US-Gigant Pfizer für 160 Milliarden Dollar (150 Mrd. Euro) den Botox-Hersteller Allergan kaufen und den gemeinsamen Firmensitz nach Dublin verlegen. Der kombinierte Konzern mit rund 110.000 Mitarbeitern hätte einen Marktwert von etwa 320 Milliarden Dollar bei einem Jahresumsatz von 63,5 Milliarden Dollar und würde am derzeitigen Marktführer Johnson & Johnson vorbeiziehen.

Sollte der Zusammenschluss gelingen, wäre die Ersparnis erheblich. Auf der grünen Insel liegt die Körperschaftssteuer seit Jahren bei 12,5 Prozent, aller internationalen Kritik zum Trotz. Die bereinigte Steuerquote dürfte bei 17 bis 18 Prozent liegen, Pfizer also mehrere Milliarden Dollar sparen. Quelle: Der Standard

Nach dem Fusionsrekordjahr 2015 rechnet die Beratungsgesellschaft KPMG auch im laufenden Jahr mit zahlreichen Übernahmen in der Pharma- und Chemiebranche. Im vergangenen Jahr war es im Pharmasektor zu so vielen Fusionen und Übernahmen gekommen wie noch nie zuvor. Quelle: orf.at

Steuerschonende Maßnahmen gehen immer zu Lasten der Allgemeinheit. Zudem war bei bisherigen Fusion in dieser Branche zu beobachten, dass eine solche gerne zu Lasten der teuren Forschung geht.

Lieferprobleme bei Medikamenten

In Österreich häufen sich laut Österreichischer Ärztekammer (ÖÄK) die Lieferschwierigkeiten bei Impfstoffen (etwa auch für Diphtherie, Keuchhusten, Tetanus und Kinderlähmung). Auch viele andere Medikamente seien zunehmend nicht verfügbar; viele ohne gleichwertige Alternative. Quelle: orf.at

Die Ursache für die Lieferschwierigkeiten ist hier nicht klar ersichtlich. Möglicherweise gibt es einen Zusammenhang mit der Machtkonzentration in der Pharmabranche. Dazu möchte ich einen Auszug aus dem Beitrag Der Kollaps des Marktes von Thomas Grüter (Offline!) vom 28.02.14 verweisen. Thomas Grüter ist selbst Arzt.

Arzneimittelversorgung ist gefährdet

Ein funktionierender Markt regelt sich selbst. Je höher die Nachfrage, desto mehr steigt der Preis, und dann werden findige Händler einen Weg finden, die Produkte zu beschaffen. Soweit die Theorie. Aber die Praxis sieht anders aus.

In meinem Buch Offline! habe ich davor gewarnt, dass uns eventuell ein Engpass bei der Belieferung mit digitalen High-Tech-Komponenten bevorsteht. Der ständige Sparzwang führt zu einer Konzentration auf immer weniger Anbieter, die ihre Fabriken fast alle in Asien betreiben. Gleichzeitig werden die Werke immer größer, und die Anfangsinvestition höher. Wenn ein Anbieter aufgibt oder die Werke aus irgendeinem Grund ausfallen, kann kurzfristig kein Konkurrent mehr einspringen.

In einem anderen Wirtschaftszweig besteht seit einigen Jahren aber genau dieses Problem, wenn es auch noch niemand so recht wahrgenommen hat. Apotheken, Krankenhäuser und Patienten kämpfen mit Lieferproblemen bei Arzneimitteln. Das beschränkt sich keineswegs auf exotische Arzneistoffe, sondern betrifft auch gängige und lebenswichtige Medikamente wie z.B. Schilddrüsenpräparate, Hochdruckmittel oder Antibiotika [siehe auch vorherigen Beitrag]. Derzeit ist ein wichtiger Impfstoff nicht lieferbar und der Engpass wird noch einige Wochen anhalten. Es gibt weltweit nur noch zwei Lieferanten (GlaxSmithKline und Sanofi Pasteur MSD) dafür. Sie können Produktionsprobleme gegenseitig nicht ausgleichen.

Die Produktion von Impfstoffen dauert sehr lange, 12 bis 18 Monate sind die Regel. Sollte eine Charge verunreinigt werden, kann niemand auf die Schnelle Ersatz beschaffen. Das Vorhalten von Impfstoffen ist ebenfalls nicht einfach, weil sie nur begrenzt haltbar sind.

Bei anderen Präparaten wirkt sich der Sparzwang aus. Der größte Teil der Antibiotika kommt aus Indien und China. Eine Produktion in Europa lohnt sich nicht mehr. Die Hersteller tun sich aber schwer, die europäischen Qualitätsstandards einzuhalten. Ferner steigt die Nachfrage steil an, weil sich in den Schwellenländern immer mehr Menschen eine gute Behandlung leisten können. In Deutschland kommt für jedes Medikament immer nur ein Hersteller zum Zug. Damit können die Krankenkassen hohe Rabatte aushandeln. Andere Hersteller liefern dann nicht mehr nach Deutschland oder stellen die Produktion gleich ein. Nur eine Massenproduktion in größten Mengen für den Weltmarkt lohnt sich überhaupt noch. Die Margen sind aber teilweise so gering, dass sich Investitionen in modernere Fabriken nicht mehr lohnt. Die Entwicklung neuer Antibiotika kommt nicht voran, weil sich die Forschung nicht mehr lohnt und die Markteinführung zu teuer ist.

Gefährliche Lieferungen

Damit Antibiotika billig bleiben, bestellen Pharmahersteller Wirkstoffe in China und Indien. Und produzieren so ungewollte Nebenwirkungen: Lieferengpässe und Resistenzen.

… ein Penicillinpulver zum Auflösen, sei auf unbestimmte Zeit nicht mehr lieferbar. Man habe den Wirkstoffproduzenten gewechselt und der neue Lieferant konnte nicht schicken.

Es ist nicht so sehr der Ausfall selbst, der aufhorchen lässt, als vielmehr die Gründe, die zu ihm führten. Denn sie sind symptomatisch für eine ganze Branche. InfectoPharm, so lernt man erstens, stellt sein Penicillin gar nicht selbst her, sondern bezieht es von einem anderen Unternehmen. Zweitens ist spritzbares Penicillin in Europa derzeit auch von weiteren Firmen nicht mehr zu haben, mit Ausnahme eines spanischen Herstellers.

Wie aber kann es sein, dass in ganz Europa dieses bestimmte Penicillin ausgeht?

“In Deutschland müssen drei Unternehmen die gesamte Versorgung mit wichtigen Antibiotika absichern”, sagt Bork Bretthauer, Sprecher des Herstellerverbandes Pro Generika. Der Kostendruck sei so hoch, dass sich nur noch wenige Unternehmen die Produktion der Bakterienkiller leisten würden.

Tatsächlich sind herkömmliche Antibiotika zumindest auf dem deutschen Markt kein lohnendes Geschäft.

Unbemerkt von der Öffentlichkeit sei ein ganzer Industriezweig von der europäischen Landkarte verschwunden: Die Wirkstoffsynthese und Produktion, vor allem für Antibiotika. “Bis in die neunziger Jahre kamen etwa 80 Prozent aller Wirkstoffe aus Europa und den USA und wurden von den Pharmaherstellern selbst weiterverarbeitet”, schätzt Rudolph. Heute kämen vier von fünf Substanzen aus China und Indien.

Auch das von InfectoPharm so dringend benötigte Penicillin gibt es fast nur noch in China. Nach Recherchen von McKinsey wurden im Jahr 2009 weltweit 59.000 Tonnen produziert. Den größten Teil davon benötigt die Lebensmittelindustrie. Er wird vor allem in Mastanlagen für Schweine und Hühner verbraucht. 95 Prozent dieser Menge lieferten wenige Großhändler aus China.

Doch China steht in der Arzneimittelbranche nicht nur für billige Preise, sondern auch für Qualitätsprobleme.

Doch kann ein Pharmaunternehmen überhaupt wissen, woher die “Einzelteile” seiner Mittel kommen? Das ist zu bezweifeln. Die Zulieferkette der Arzneimittelindustrie ist höchst intransparent. Dass ein europäischer Hersteller ganz ohne asiatische Bestandteile auskommen könnte, gilt in Branchenkreisen als unwahrscheinlich. Quelle: Die Welt, 2014

Es scheitert nicht an den verfügbaren Informationen, sondern an der Verknüpfung dieser (“unsichtbare Fäden“).

Glencore: Crash-Gefahr beim größten Rohstoff-Händler der Welt

Glencore, der größte Rohstoff-Händler der Welt, befindet sich in Existenz-Gefahr: Die Aktie stürzt ab, die Kreditausfallversicherungen (CDS) haben sich in den vergangenen Monaten vervielfacht. Sollte Glencore einen Crash hinlegen, hätte das signifikante Auswirkungen auf das weltweite Finanzsystem.

Zweifel an den Erfolgsaussichten des bisherigen Sanierungskurses haben am Montag einen erneuten Ausverkauf beim Schweizer Rohstoff-Händler Glencore ausgelöst. Die Aktien brachen um 28 Prozent auf ein Rekordtief von 70,71 Pence ein. Damit summiert sich das Minus der vergangenen Monate auf etwa 75 Prozent.

Die hohe Verschuldung könnte zu einem existenzbedrohenden Problem werden, wenn sich die Rohstoffpreise nicht erholten und der Konzern nicht umfassend umgebaut werde, warnten die Analysten von Investec in einem Kommentar.

Investec warnt davor, dass bei der hohen Überschuldung von Glencore die Anleger mit einem Totalverlust rechnen müssen.

Eines der größten Probleme im Fall eines Glencore-Crashs sind die Derivate. Diese sind im Rohstoffbereich besonders wichtig. Die Derivate würden die Banken massiv treffen. Eine genaue Summe ist nicht bekannt, doch man geht davon aus, dass das Derivate-Risiko bei mindestens 70 Milliarden Dollar liegt.

Seit Monaten zeichnet sich ein Rohstoff-Schock in der Weltwirtschaft ab: Die Preise fallen bei allen wichtigen Rohstoffen faktisch ohne Unterbrechung. Ausgelöst wurde die Rohstoff-Krise durch den Absturz der Ölpreise. Dadurch entstand eine Spirale, die in ihren Folgen viel gravierender sei kann als alle bisherig bekannten Faktoren, die die Märkte destabilisieren. Quelle: deutsche-wirtschafts-nachrichten.de

An diesem Beispiel zeichnet sich bereits das hohe Schadenspotenzial von Konstruktionen ab, die too-big-to-fail sind. In der Natur hat sich daher small-is-beautiful durchgesetzt. So lange stabile Verhältnisse bestehen, funktioniert auch in der Regel alles gut. Doch ändern sich die Rahmenbedingungen, sind große Organisationen oft zu schwerfällig um flexibel und agil darauf zu reagieren. Kleine Störungen werden viel leichter verkraftet, sind diese aber größer oder länger andauernd, dann können auch Riesen ins Wanken kommen.

USA: Supermärkte rationieren Eier

Die Vogelgrippe hat in den USA Millionen Hühner getötet, Eier sind knapp und teuer geworden. Erstmals seit 2002 werden sogar Importe aus den Niederlanden erlaubt.

Rund ein Drittel der Eierprodukte, die industriell zu Lebensmitteln verarbeitet werden, sind binnen weniger Wochen wegen der Seuche vom Markt verschwunden.

Diese Krise wird durch eine Industrialisierung der Landwirtschaft verschärft, die in den USA gegenüber der in Europa vielerorts auch ziemlich intensivierten Tierhaltung noch einmal größer ist und von einer Handvoll großer Agrarkonzerne kontrolliert wird. Auf dem Geflügelmarkt gibt es als Folge einer langjährigen Oligopolisierung zusehends nur mehr große Produzenten, die Zucht, Futtermittelherstellung und Vertrieb in vertikalen Wertschöpfungsketten integrieren.

Dazu kommt, dass die amerikanische Eierproduktion in wenigen Teilstaaten konzentriert ist, allen voran in Iowa und Minnesota. Diese Marktbedingungen sorgen dafür, dass Tierkrankheiten schnell große Schäden verursachen.

Biobetriebe nicht betroffen. Kleinere und auf ökologische Kriterien setzende Eierproduzenten sind bisher von der Vogelgrippe verschont geblieben. Quelle: Die Presse

Auch hier. Große Konzentrationen sind zwar in der Regel betriebswirtschaftlicher Effizienter, jedoch führen größere Störungen zu deutlich höheren Auswirkungen (exponentielle Entwicklungen). Es steigen die systemischen Risiken und damit die Gefahr von Schwarzen Schwänen und strategischen Schocks.

Agrarriesen spielen Zusammenschlüsse durch

Unter dem Druck der niedrigen Getreidepreise könnte es im Agrarmarkt zu einer Elefantenhochzeit kommen: Der US-Großkonzern DuPont verhandelt mit dem Branchenriesen Syngenta über eine Zusammenlegung der Agrargeschäfte

Übernahmespekulationen haben am Freitag die Aktie des Schweizer Pflanzenschutz- und Saatgutherstellers Syngenta beflügelt.

Der weltweite Markt für Pflanzenschutzmittel und Saatgut wird mit Syngenta, Monsanto, Bayer, DuPont Pioneer, Dow Chemical und BASF nur von einer guten handvoll Unternehmen kontrolliert. Die Branche steht angesichts fallender Getreidepreise unter Druck .

Der US-Agrarchemiekonzern Monsanto, der für Syngenta 47 Milliarden Dollar auf den Tisch legen wollte, machte im abgelaufenen Geschäftsjahr deutlich weniger Gewinn und streicht 2600 Stellen. Quelle: www.wirtschaftsblatt.at

Der “kranke” Finanzmarkt steckt auch die Realwirtschaft an. Oder anders ausgedrückt: “Systeme, die nur dann lebensfähig sind, wenn sie permanent wachsen, sind langfristig zum Tode verurteilt – und zwar ab dem Moment, wo ein weiteres Wachstum nicht mehr möglich ist.” S. 52, Das Metanoia-Prinzip.

Mega-Schiffe – Maga-Risiken?

2014: 2.772 Schiffsunglücke weltweit, davon 75 Totalverluste Unfallhotspots: Östliches Mittelmeer und schwarzes Meer Neue Risiken: Megaschiffe und Cyberangriffe

Der langfristige Abwärtstrend bei den Schiffsverlusten hat sich 2014 mit 75 gemeldeten Großschäden weltweit fortgesetzt. Damit war das vergangene Jahr das sicherste Jahr für die Schifffahrt seit zehn Jahren.

Sicherheit auf Passagierschiffen durch Personalmangel gefährdet

Während der langfristige Abwärtstrend bei den Schiffsverlusten zuversichtlich stimmt, haben aktuelle Fährunglücke wie die der Sewol und der Norman Atlantic drei Jahre nach der Costa Concordia-Katastrophe erneut erhebliche Bedenken bezüglich der Qualität von Trainings- und Notfallmaßnahmen auf Passagierschiffen ausgelöst.

In vielen Fällen ist die Konstruktion der Schiffe nicht der einzige Schwachpunkt, wie die Studie zeigt: Die beiden Fährunglücke decken besorgniserregende Defizite bei der Notfallvorbereitung der Besatzungen von Autofähren und Passagierschiffen auf. Eine nur Minimalanforderungen genügende Personalstärke lässt nach Ansicht der AGCS-Experten kaum Spielraum für Schulungen an Bord und sollte daher nicht zur allgegenwärtigen Praxis auf Schiffen werden.

Ausblick: Megaschiffe und Hackerangriffe als neue Risiken

Die Branche sollte sich laut Studie für die Zukunft auf Großschäden von über 1 Mrd. US-Dollar einstellen, insbesondere wenn große Containerschiffe oder schwimmende Offshore-Anlagen beteiligt sind. Das maximale Risiko in diesem Zusammenhang betrifft nicht nur die Schäden an Schiff und Fracht, sondern auch Umweltschäden oder Betriebsunterbrechungen. Megaschiffe können nur wenige Tiefwasserhäfen ansteuern, zudem bestehe weltweit ein Mangel an qualifizierten Fachkräften. Die Bergung und Beseitigung von Schiffen ist ebenfalls eine Herausforderung. Wie die Bergung des Wracks der Costa Concordia zeigt, können die Kosten leicht ein Vielfaches des Kaskowerts des Schiffes betragen.

Zusätzlich stellen Cyberrisiken eine weitere neue Gefahr für die Schifffahrtindustrie dar, die stark vernetzt ist und zunehmend auf Automatisierung setzt. Künftig könnten Schiffe und Häfen zu verlockenden Zielen für Hacker werden. Ein Cyberangriff auf die Technik an Bord, insbesondere auf die elektronischen Navigationssysteme, könnte zu einem Totalverlust führen oder sogar mehrere Schiffe einer Reederei betreffen. Andere Szenarien sind zum Beispiel Cyberangriffe auf große Häfen, die Terminals außer Betrieb setzen oder Containerladungen oder vertrauliche Daten manipulieren. Solche Angriffe könnten zu erheblichen Betriebsunterbrechungsschäden oder zu Reputationsverlusten führen.

Weitere Schifffahrtsrisiken aus der “Safety and Shipping Review 2015”:

“Blindes” Vertrauen auf elektronische Navigation: Die Kollision des Containerschiffs Rickmers Dubai mit einem unbemannten Kranschiff im Jahr 2014 zeigt die Gefahren von automatisierter E-Navigation auf. Schulungsstandards für Systeme wie das Electronic Chart Display & Information System (ECDIS) sind uneinheitlich. “Offiziere benötigen eine solide Ausbildung, um Fehlinterpretationen von ECDIS und Bedienfehler zu vermeiden, die zu teuren Katastrophen führen können. Darüber hinaus sind manuelle Navigationsinstrumente und -fähigkeiten weiterhin unverzichtbar”, so Khanna. Quelle: www.ots.at und www.risknet.de

Größere Schiffe führen zur Risikokonzentration

Anbei finden Sie einige relevante Informationen und Statistiken des Schifffahrtversicherers Allianz Global Corporate & Specialty (AGCS), die im Zusammenhang mit der Evakuierung der Viking Sky von Interesse sind. Generell sei angemerkt, dass Schiffsverluste in den letzten zehn Jahren um mehr als ein Drittel (38 Prozent) zurückgegangen sind, was auf ein verbessertes Schiffsdesign, neue Technologie und Fortschritte im Bereich Risikomanagement und Sicherheit zurückzuführen ist. Es kommt jedoch weiterhin zu Unglücken, wie das Beispiel der „Viking Sky“ zeigt. Quelle und weitere Details: www.risknet.de

Hier verbirgt sich ein klassischer Schwarzer Schwan sowie das Verletzlichkeitsparadox. Durch die steigende Effizienzsteigerung (weniger Personal, größere Schiffe) steigt jedoch auch der Schaden bei einem Zwischenfall. Die zunehmende Digitalisierung führt zudem zur steigenden Gefahr von Cyber-Angriffen. Aber es muss nicht immer ein Angriff sein – auch Softwarefehler oder -ausfälle können zu weitreichenden Folgen führen. Aus systemischer Sicht durchaus zu hinterfragende Entwicklungen. Darüber hinaus stellt sich die Frage, was passiert, wenn die kleineren Schiffe/Rederer unrentable werden und vom Markt verschwinden und es dann zu einem wirtschaftlichen Einbruch kommt. Sind dann die Großschiffe auch noch retable zu betreiben, oder muss dann einfach der Kunde die Kosten für das Wachstum schlucken? Wir werden es wahrscheinlich noch erfahren.

Truthahn-Illusion - Rückspiegel-Effekt - Titanic-Phänomen

Truthahn-Illusion

Truthahn-Illusion

Ein Truthahn, der Tag für Tag von seinem Besitzer gefüttert wird, nimmt aufgrund seiner täglichen positiven Erfahrungen (Fütterung) an, dass es der Besitzer nur gut mit ihm meinen kann. Im fehlt nämlich die wesentlichste Information, dass die Fütterung nur einem Zweck dient. Am Tag vor Thanksgiving, bei dem die Truthähne traditionell geschlachtet werden, erlebt er daher eine fatale Überraschung.

Rückspiegel-EffektRückspiegel-Effekt

Ein andere Darstellung für die Truthahn-Illusion ist der Rückspiegel-Effekt. Gerne wird auf die bisherige Erfolgsgeschichte verwiesen und damit quasi suggeriert, dass das auch linear in die Zukunft fortgeschrieben werden kann. Ohne der Berücksichtigung der sich verändernden Umgebungsvariablen kann das aber fatal enden. Das kann man wiederum mit einer Autofahrt vergleichen, wo der Fahrer ausschließlich in den Rückspiegel blickt, um nach vorne zu fahren, da die bisherige Fahrt ja auch so erfolgreich war. Auf einer geraden, verkehrsarmen Strecke kann das durchaus längere Zeit gut gehen, ändern sich aber die Umgebungsvariablen – Verkehrsdichte, Gegenverkehr, Straßenbreite – wie wir das gerade in der europäischen Stromversorgung erleben (Umfangreiche Netzeingriffe wegen Überlastung und Engpässen, die dezentralen Stromerzeuger speisen ins Netz zurück, wo bisher ein Einbahnverkehr geherrscht hat, gibt es plötzlich Gegenverkehr, der Markt nimmt keine Rücksicht auf die Leistungsfähigkeit der Infrastruktur, u.s.w.), dann kann das ins Auge gehen.

Titanic Phänomen

Quelle: http://www.zukunftsforum-oeffentliche-sicherheit.de

Beim Autofahren ist uns das sofort klar, da haben wir den Überblick. Beim europäischen Stromversorgungssystem, mit vielen Fahrern und Beifahrern ist das leider nicht so klar. Bereits heute ist die volle Aufmerksamkeit des Netzsteuerungspersonals gefordert, um auch mit möglichen kritischen Situationen fertig zu werden. Das machen sie auch hervorragend. Aber es wird immer schwieriger, trotz technischer Unterstützungsmöglichkeiten, die es vor wenigen Jahren noch gar nicht gab. 

Titanic-Phänomen

Eine weitere Beschreibungsmöglichkeit ist das Titanic Phänomen. Auch die Titanic galt als unsinkbar, wie dies der Kaptän vor der ersten Fahrt ausgedrückt hat: „Ich kann mir keine Situation vorstellen, die ein Schiff zum Sinken bringen könnte. Ich halte es für unmöglich, dass dieses Schiff ernsthaft beschädigt werden könnte. Dazu ist der moderne Schiffsbau schon zu weit fortgeschritten.“ Captain: John Edward Smith

Verletzlichkeits- oder Sicherheitsparadox

Penrose-Dreieck - Tobias R. - Wikipedia

Penrose-Dreieck – Tobias R. – Wikipedia

“Je besser etwas funktioniert, desto gravierender sind die Folgen, wenn es zu einer Störung kommt.”

Dieses Phänomen beschreibt den Widerspruch zwischen Risikowahrnehmung und Realität. Durch das gute Funktionieren nehmen die Handlungskompetenzen, um mit Störungen umgehen zu können, ab. Im betriebswirtschaftlichen Umfeld neigt man durch den generell steigenden Kostendruck zu ungesunden “Effizienzsteigerungen”, wo “totes Kapital” eingespart wird. Das betrifft mittlerweile in vielen Bereichen für die Systemsicherheit unverzichtbare Reserven und Redundanzen. Dadurch nimmt die Störsicherheit ab und die Verwundbarkeit steigt. Dieses Phänomen betrifft mittlerweile fast alle Lebensbereiche. Siehe dazu auch Schwarmdumm – So blöd sind wir nur gemeinsam oder Wenn betriebswirtschaftliche Optimierungen systemgefährdend werden

Vernetztes Denken

Unter “vernetztem Denken” (Englisch: Systems Thinking) wird ein Denken über Systemgrenzen hinaus, ein Querdenken und hinterfragen von gängigen Konventionen bzw. ein “zu Ende denken” verstanden. Wichtige Inputs hierzu haben Frederic Vester mit “Die Kunst vernetzt zu denken”, Dietrich Dörner mit “Die Logik des Misslingens” oder Jürg Honegger mit “Vernetztes Denken und Handeln in der Praxis geliefert. Er versteht etwa darunter die Fähigkeit:

  • auf einer bestimmten Betrachtungsebene in Zusammenhängen zu denken,
  • relevante externe Einflüsse zu berücksichtigen,
  • Zielkonflikte zu erkennen und bewusst zu optimieren sowie
  • zielorientiert zu handeln.

Grundsätzlich wird damit eine Abkehr von “der Konzentration auf das Wesentliche” bzw. der isolierten Betrachtung/Analyse von Einzelelementen („Silodenken“) angestrebt, wenngleich auch hier eine sowohl-als-auch-Betrachtung erforderlich ist. Die Kunst besteht darin, zu erkennen, wann bzw. in welchem Kontext welche Methode sinn- und wirkungsvoll ist.

Vernetztes Denken” bedeutet die Erfassung von Mustern, Beziehungen, Zusammenhängen und (Wechsel-)Wirkungen zwischen Systemelementen.

Ziel ist es “unsichtbare Fäden” zu erkennen und zu adressieren, was durch die steigende Vernetzung eine immer größere Herausforderung wird. Darüber hinaus ist zu beachten, dass unter Stress nur spontan intuitives Denken möglich ist und das rationale Denken blockiert wird. Die Sinnesorgane fokussieren evolutionär nur noch punktuell auf die Beute, den Feind oder die Gefahr. Es entsteht der Tunnelblick. Dabei überfordert Komplexität grundsätzlich das menschliche Gehirn, egal ob es mehr oder weniger komplex ist (siehe dazu etwa Komplexität im Management von Maria Pruckner). Daher sind Hilfsmittel, wie etwa die Visualisierung von Zusammenhängen notwendig, da unser Gehirn nur die Wechselwirkungen von 3-4 Faktoren ohne Unterstützung erfassen kann. Damit kann ein Abbild der Realität geschaffen  bzw. die Einschränkung auf einzelne Aspekte (“Silodenken”) vermieden werden.

 

Grafik: Frederic Vester - Das zerissene Netz

Grafik: Frederic Vester

„Unsichtbare Fäden“

Ein anderes Beispiel ist, wenn man ein Kuchenrezept und alle Zutaten hat, bedeutet das noch lange nicht, dass der Kuchen auch gut wird. Das Selbe gilt für ein Orchester.Frederic Vester hat den Begriff der “unsichtbaren Fäden” geprägt. Damit soll zum Ausdruck gebracht werden, dass es in Systemen vor allem auf die “Beziehungen” zwischen den Systemelementen und weniger auf die einzelnen Elemente selbst ankommt und dass wir diese gerne vernachlässigen, wie viele praktische Beispiele zeigen. In unserem Hirn gibt es Milliarden von Nervenzellen. Die Gedankenleistung hängt aber nicht so sehr von den Nervenzellen, als vielmehr von den Verbindungen ab. Entscheidend ist die Qualität der Beziehungen!

Das Ganze ist mehr als die Summe seiner Teile.

Analytischer vs.Systemansatz – Zwei Ansätze zur Erfassung der Wirklichkeit

Analytischer Ansatz und Systemansatz

Da der Mensch vorwiegend linear und monokausal denken möchte, wird die Problembewältigung mit traditionellen Wissensschemata in einer dynamischen Umwelt (VUCA) immer schwieriger. Komplexität und die Dynamik machen uns zu schaffen. Das Gefühl der Überforderung stellt sich ein.

Systemische Betrachtung

bb_systemische_betrachtungenBei einer systemischen Betrachtung wird im Gegensatz zu einer Analyse ein System nicht in seine Einzelteile zerlegt und dann analysiert und wieder zusammengsetzt, sondern versucht, die Zusammenhänge zu beschreiben. Dies auch deshalb, da sich komplexe Systeme nicht in ihre Einzelteile zerlegen und dann wieder zusammensetzen lassen. Eine systemische Betrachtung adressiert die “unsichtbaren Fäden” und Wechselwirkungen zwischen den Systemelementen. Wesentlich ist dabei, dass nicht eine “Konzentration auf das Wesentliche” erfolgt, sondern “das ganze Muster erfasst” wird. Siehe auch Resilienz.

Systemische Betrachtung vs. Analyse

 

Unser Denkrahmen

Wir alle sind durch unser Umfeld und durch unsere Geschichte geprägt und haben dadurch einen gewissen Denkrahmen aufgebaut, der sich gut mit nachfolgendem Beispiel darstellen lässt. Die Aufgabe besteht darin, 9 quadratisch angeordnete Punkte mit einem Stift durch vier gerade Linien zu verbinden, ohne den Stift abzusetzen. Sollten Sie die Lösung nicht finden, klicken Sie einfach auf das Bild.

Neun-Punkte-Problem

In Experimenten wurde die Herangehensweise von Versuchspersonen an dieses Problem untersucht. Versuchspersonen, die diese Aufgabe lösen, brauchen oft sehr lange, bis sie zu einer Lösung des Problems gelangen. Dies liegt daran, dass Personen oft dazu neigen, zusätzliche Einschränkungen bei der Lösung von Problemen vorzunehmen. Beispielsweise versuchen Versuchspersonen oft, beim Zeichnen der Striche nicht das Quadrat zu verlassen. Erst wenn diese Einschränkung aufgegeben wird, ist eine Lösung des Problems möglich, indem man über das Quadrat hinaus zeichnet. Das Neun-Punkte-Problem ist somit ein gutes Beispiel für den englischen Begriff thinking outside the box (zu deutsch etwa: außerhalb des vorgegebenen Rahmens denken) oder des im deutschen gebräuchlichen Über den Tellerrand schauen, der im Bereich des Problemlösens eine wichtige Rolle spielt. Quelle: Wikipedia

Dieses Beispiel dient auch dazu, klar zu machen, dass wenn man ein neuartiges Problem lösen möchte (“Innovativ sein will/muss”), man den bestehenden Denkrahmen verlassen muss. Etwa, indem bestehende Konventionen und Regeln gebrochen werden. Nur so kann sich etwas Neues entwickeln. Zum anderen sind bei unkonventionellen Problemen oder in einer Katastrophensituation (“Blackout”) unkonventionelle Lösungen und Herangehensweisen notwendig.

VUCA - Volatilität, Unsicherheit, Komplexität und Ambiguität

Die Abkürzung VUCA steht für Volatility, Uncertainty, Complexity und  Ambiguity also Volatilität, Unsicherheit, Komplexität und Ambiguität und wird in Managementkreisen für die Beschreibung der aktuellen Entwicklungen/Zeit herangezogen.

  • Volatilität (volatility) beschreibt die Schwankungsintensität und -breite über den zeitlichen Verlauf. Dieser Begriff wird auch häufig im Zusammenhang mit der fluktuierenden Einspeisung von Windstrom- und PV-Anlagen verwendet, wo es innerhalb kürzester Zeit zu erheblichen Schwankungen kommen kann, was die Netzsteuerung zunehmend herausfordert.
  • Unsicherheit (uncertainty) beschreibt die Nicht-Vorhersagbarkeit von Ereignissen (siehe auch Das Unerwartete managen)
  • Komplexität (complexity) wird durch die Anzahl von Einflussfaktoren und deren gegenseitiger Abhängigkeit (Vernetzung und „unsichtbare Fäden„) bzw. Interaktion beeinflusst. Je mehr Interdependenzen (wechselseitige Abhängigkeiten) ein System enthält, desto komplexer ist es. Der Begriff „komplex“ ist dabei vom Begriff „kompliziert“ zu differenzieren – auch wenn beide oft fälschlicherweise äquivalent benutzt werden. Ein kompliziertes System kann man vereinfachen, ohne die interne Struktur des Systems zu zerstören (Beispiel: ein unübersichtlicher mathematischer Bruch wird durch Kürzen vereinfacht). Ein komplexes System hingegen wird zerstört bzw. es entsteht etwas Neues, wenn man versucht, dieses zu vereinfachen – z.B. durch Zerlegen (siehe auch Emergenz). Der Organisationspsychologe Peter Kruse dazu:

05 Wie reagieren Menschen auf wachsende Komplexität ?

Dieses Video ansehen auf YouTube.
  • Ambiguität (ambiguity) beschreibt die Mehrdeutigkeit oder auch Widersprüchlichkeit einer Situation oder Information. Daher gibt es nicht nur eine Wahrheit oder Wirklichkeit, sondern viele. Daher stellt ein Sowohl-als-auch-Denken einen wichtigen Beitrag zum Umgang mit Ambiguität dar.

Die Wiener Kybernetikerin Maria Pruckner bezeichnet den Begriff nicht zu unrecht als Marketingbegriff:

Aber VUCA klingt einfach besser. Was macht es schon, wenn volatility, uncertainty, ambiguity im selben Atemzug mit complexity genannt werden, obwohl dies nur untergeordnete Eigenschaften von complexity sind.