Fail #4: Systematische Fehlleistungen

Häufige Fehler im Umgang mit komplexen dynamischen Systemen

Nachdem wir im vorigen Blog die einzelnen Systemelemente und –eigenschaften kennen gelernt haben, können wir auf dieser Grundlage die Fehler ins Auge fassen, die uns Menschen besonders häufig unterlaufen, weil wir die Reaktion des Systems nicht richtig einschätzen. Wir legen dafür das Modell einer vollständigen Handlung zugrunde, welches so aussieht (vgl. Grafik 3):

Handlung_Prinzip Grafik 3

Ausgehend von einer Annahme über die Folgen unseres Handelns an dem System planen wir unsere Eingriffe. Das komplexe System reagiert aufgrund seiner ihm innewohnenden Gesetzmäßigkeit. Diese Reaktion (Ist) vergleichen wir mit unserer Hypothese (Soll), bewerten das Ergebnis und korrigieren unsere Hypothese entsprechend, ehe wir weitere Handlungen planen. Fehler können sich nun auf jeder Stufe dieser Abfolge einschleichen.

 

1.1       Hypothesenfehler

Handlungshypothese

Lineares Denken:

Der erste Fehler ist schon gleich der am leichtesten nachvollziehbare: Weil komplexe Systeme aufgrund der Menge und Vernetzung ihrer Elemente oft so intransparent sind, versuchen wir dadurch eine sichere Grundlage für unser Handeln zu finden, dass wir die Komplexität reduzieren. Wir entwickeln also eine unvollständige und mangelhafte Vorstellung von dem System, indem wir beispielsweise nur lineare Zusammenhänge bedenken anstatt quer vernetzter. Dies kommt unserem mehr oder weniger angeborenen Ursache-Wirkungs-Denken entgegen.

Ein eindrucksvolles Beispiel für lineares Denken wird von Frey und Frey präsentiert:

Ab 1954 wurde begonnen, einzelne Exemplare des Nilbarsches – eines fleischreichen Raubfisches von etwa zwei Metern Länge und bis zu 200 kg Gewicht – in den Viktoriasee einzuführen. Man versprach sich davon (= Hypothese: Ursache – Wirkung) eine Steigerung der Fischernte. Ab etwa 1977 explodierte die Population (= positive Rückkoppelung) und machte bald 90 Prozent der gefangenen Biomasse aus. Der zunächst erwünschte Effekt trat tatsächlich ein, und die Fischer konnten ihren Fang tonnenweise nach Europa und Amerika absetzen.

Als erste Nebenwirkung war es nötig, die traditionelle Sonnentrocknung der Fische durch Holzräucherung zu ersetzen. Dies hatte nun eindeutig negative Effekte, nämlich Abholzung von Wäldern und als Folge davon wiederum Bodenerosion. Dies hätte man nur schwer voraussehen können, andere Konsequenzen aber schon: Die Nilbarsche rotteten alle ihre Beutefische fast oder ganz aus, darunter auch Arten, die ausschließlich im Viktoriasee vorkamen! Die Population des Nilbarsches brach dann aber entgegen der Erwartungen nicht ein, weil er auf seine eigenen Jungen und auf Garnelen auswich. Inzwischen scheint sich die Situation auf einem ökologisch niedrigem Niveau – nach dem endgültigen Verlust von etwa 200 Buntbarscharten – eingependelt zu haben.

Fixierung auf die Gegenwart:

KKWIn die Kategorie der Hypothesenfehler gehört auch die menschliche Neigung, nur die Gegenwart zu beachten und mögliche zukünftige Entwicklungen aus den Augen zu verlieren. So reagieren wir Mitteleuropäer auf unseren gegenwärtigen Energiebedarf dadurch, dass wir endliche Ressourcen aufbrauchen (Öl und Gas) und Atomenergie ausbauen. Zukünftige Generationen werden in vielleicht schon 50, vielleicht „erst“ in 200 Jahren konsequenter Weise ohne fossile Energieträger auskommen müssen und haben die nächsten 50 000 Jahre oder länger mit unserem radioaktiven Nachlass zu leben, den manche unserer gegenwärtigen Experten für handhabbar halten. Da sehe ich insgesamt doch allzu menschliches Wunschdenken am Werk; die Studien des Club of Rome („Die Grenzen des Wachstums“) haben uns 1972 möglicherweise nicht nachhaltig genug wachgerüttelt.

Komplexitätsreduktion und Beharren auf Überzeugungen:

Dietrich Dörner gibt noch einen Hinweis darauf, warum vereinfachte Hypothesen so standfest und zuweilen faszinierend sein können:

„Die Tatsache, dass solche reduktiven Hypothesen Welterklärungen aus einem Guss bieten, erklärt vielleicht nicht nur ihre Beliebtheit, sondern auch ihre Stabilität. Wenn man einmal weiß, was die Welt im Innersten zusammenhält, so gibt man ein solches Wissen ungern auf, um wieder in die unübersichtlichen Gefilde eines nichthierarchisch gegliederten Netzes wechselweiser Abhängigkeiten zu geraten.“

1.2 Planungsfehler

Planung

Augenfälligkeit:

Wenn wir nicht in der Lage sind, ein komplexes dynamisches System zu „dekomponieren“ (so Dörner), dann entwickeln wir auf der Planungsebene bestimmte Ausweichstrategien. Wir orientieren uns dann nicht an dem, was für einen kompetenten Eingriff in das System notwendig wäre, sondern zunächst einmal an dem, was uns gerade ins Auge fällt. Dörners Versuchspersonen in der Simulation „Lohhausen“ reagierten als Bürgermeister dann auf zufällige Begegnungen und Beschwerden und dokterten im Grunde nichtwissend am System herum, sie verfielen dem „Aktionismus“.

Methodenfixierung:

Zum andern greifen wir im Falle des mangelnden Durchblicks gern auf das uns bekannte Methodenrepertoire zurück. Eine Versuchsperson beispielsweise stieß bei der Sichtung der Probleme in Lohhausen darauf, dass viele Schüler in der Schule Schwierigkeiten hatten. Da er selbst über Erfahrungen auf diesem Gebiet verfügte, konzentrierte – eigentlich müsste man sagen: kaprizierte – sich dieser Proband auf Schulschwierigkeiten, dann auf eine bestimmte Schulklasse und schließlich sogar auf einen bestimmten Schüler. Alle anderen Probleme der Kommune verlor er aus dem Blickfeld.

Sie werden vielleicht sagen, das seien eben die Probleme, wenn Laien mit komplexen Systemen umgehen. Aber weit gefehlt! Auch die Experten, welche die Blue-Mountains-Wälder nachhaltig bewirtschaften wollten, zeigten dieses Verhalten, nämlich Rückzug in bekannte, beherrschbare Teilgebiete. So kam es zu dem allseits bekannten „Mehr desselben!“ unter Umständen auch dann, wenn sich die Wirkungslosigkeit oder die negativen Folgen der Maßnahme bereits gezeigt hatten.

1.3       Fehldosierung

badewanneHaben Sie kleine Kinder? Falls ja, dann kennen Sie das Badewannen-Problem: Sie überlegen sich vorher, wie weit Sie die Badewanne für Ihr Kind in etwa füllen wollen. Und Sie wollen eine Temperatur von möglichst genau 37 Grad erreichen. Wenn Sie das Badewasser laufend auf seine Temperatur kontrollieren, kann es Ihnen passieren, dass Sie ständig am Wasserhahn drehen, mal heißer, mal kälter, um möglichst am Ideal zu bleiben. Sie haben es sicher auch schon geschafft, zu weit in die eine oder andere Richtung zu drehen, so dass Sie dann heftig ausgleichen mussten und am Ende viel mehr Wasser in der Wanne hatten als beabsichtigt.

Jetzt werden Sie vielleicht fragen: „Seit wann ist das Füllen von Badewannen ein komplexes System?“ Also bitte: Es verändert sich erst mal die Temperatur des Wassers auch bei gleich bleibender Stellung des Wasserhahns, weil sich noch abgekühltes Wasser in der Leitung befindet, ehe die Pumpe im Keller heißes nachgepumpt hat. Dann kühlt die Wannenwand das Wasser wieder ab und zwar abhängig von Material, Größe und Isolierung. Schließlich spielen natürlich die Temperatur der Raumluft und die Durchlüftung des Badezimmers ebenso eine Rolle wie die absolute Menge des Wassers, das bereits in der Wanne ist. All diese Elemente, und vermutlich noch mehr, wechselwirken miteinander.

1.4       Zielfehler

Zielzustand

Einfache Ziele:

Die Fehler bei der Zielfindung korrespondieren häufig mit den Hypothesen­fehlern: Mangelnde Aufschlüsselung des komplexen Systems führt zunächst zu linearem Ursache-Wirkungs-Denken und dann dazu, dass man sich zu einfache Ziele setzt. Dazu sagt Dörner: „Man kann in komplexen Realitäten nicht nur eine Sache machen. Man kann daher auch nicht nur ein Ziel anstreben. Strebt man nur ein Ziel an, so kann es sein, dass man dadurch unversehens andere Missstände erzeugt, also neue Probleme schafft.“

Globale Ziele:

Es gibt sehr allgemein formulierte Zielsetzungen, die in spezifische Schwierigkeiten hinein führen. „Der Stadtteil soll attraktiver werden!“ „Unsere Schule muss besser werden!“ „Wir müssen kundenfreundlicher agieren!“ Wenn es nicht gelingt, diese Globalziele auf spezifische Teilziele herunterzubrechen, kann es leicht sein, dass man ins Blaue hinein agiert. Was macht denn einen Stadtteil attraktiv? Die Beschäftigungsmöglichkeiten oder die Verkehrssituation, die Infrastruktur oder die Bevölkerungszusammensetzung, die Architektur oder die Vereine? Es gibt hier viele Möglichkeiten anzusetzen, und jeder Ansatzpunkt wird andere Folgen für das Gesamtsystem haben.

Unklare Ziele:

Wenn einem die Globalität seiner Zielsetzung nicht bewusst ist, hat man keinen Anlass, spezifische Zielen heraus zu destillieren. Dann kann es sein, dass man das Handeln beginnt ohne auf klare Ziele zuzusteuern, deren Erreichung oder Verfehlung anhand eindeutiger Kriterien erkannt werden könnte. Wer „irgendwie“ kundenfreundlicher agieren will und dies nicht in genauen Teilzielen ausformuliert, wird recht zufällig das tun, was ihm spontan in den Sinn kommt oder was die Situation gerade hergibt.

Vermeidungsziele:

Während auch Anstrebungsziele recht global formuliert sein können, ist dies bei Vermeidungszielen logischerweise noch viel mehr der Fall. Man will dann nicht mehr so viele Kunden verlieren oder nicht mehr so viel Lagerfläche brauchen. Das sind allerdings noch keine konkreten Handlungsziele, denn an dieser Stelle fängt die Denkarbeit erst an. autobahnEin Beispiel: Wenn man nicht mehr so viele Unfälle auf einem bestimmten Autobahnteilstück haben möchte, muss man erst noch sehr genau hinsehen, wo denn die Unfallursachen liegen. Erst dann kann man spezifische Anstrebungsziele daraus machen: Wir müssen die Geschwindigkeit beschränken und häufiger kontrollieren oder Warnschilder (Nässe, Nebel…) aufstellen oder die Sichtlinien von Bewuchs befreien oder die parallele Bahnlinie stärker bewerben und so weiter.

Implizite Ziele:

Wir übersehen gern implizite Ziele; das sind solche, die wir zwar nicht direkt anstreben und die uns gar nicht bewusst sind, die sich aber aus den Zusammenhängen des komplexen Systems zwangsläufig ergeben. Aus dem Bereich der Pädagogik wissen wir, dass Eltern, die ihren Kindern einen Nachhilfelehrer organisieren, um schulische Mängel auszugleichen, ihrem Nachwuchs signalisieren: „Wir kümmern uns!“ Dieses Signal kann dazu führen, dass der Jugendliche sich zu sehr auf die elterliche Fürsorge verlässt und es verpasst, rechtzeitig seine Selbstständigkeit und Unabhängigkeit vom Elternhaus zu entwickeln – etwas, das Eltern aber jederzeit als Ziel angeben würden, wenn man sie danach fragte.

1.5       Bewertungsfehler

Bewertung

Schönrechnen:

Dass zu Beginn eines Projekts häufig von sehr optimistischen Bedingungen ausgegangen wird, daran haben wir uns gewöhnt. In Deutschland wurde bei den Versuchen, der Bevölkerung den Transrapid schmackhaft zu machen, der Nutzen in rosigen Farben beschrieben und die Kosten ursprünglich viel zu niedrig angesetzt; sie mussten nachträglich und Schritt für Schritt höher angesetzt werden, was letztlich das Aus für dieses Projekt bedeutete. Auch die mit der Nutzung der Blue-Mountains-Wälder befassten Experten gingen erst mal von bis dato nie erreichten Wachstumsraten aus. Als diese nicht eingehalten werden konnten, rechneten die Fachleute später sogar mit potenziellem, nicht mehr mit realem Wachstum! Die Begründung dafür war, dass man ja die bekannten früheren Fehler nicht wiederholen müsste. Erstaunlicherweise passierten dann aber doch immer und immer wieder dieselben Fehler.

Fehlendes Bemühen um Falsifikation:

Wenn Menschen ihr Weltbild gefährdet sehen, reagieren sie in der Regel nicht freudig und offen für neue Erkenntnisse, sondern mit Abwehr. Dann werden widersprechende Befunde zunächst einmal ignoriert. Wenn sich dieses Vorgehen nicht durchhalten lässt, dann werden die Ergebnisse so lange hin und her oder weginterpretiert, bis sie wieder in das eigene – in der Regel lineare und monokausale – Weltbild hinein passen. Dietrich Dörner beschreibt dieses Phänomen so:

„Ein hervorragendes Mittel, Hypothesen ad infinitum aufrechtzuerhalten, ist die ‚hypothesengerechte Informationsauswahl‘. Informationen, die nicht der jeweiligen Hypothese entsprechen, werden einfach nicht zur Kenntnis genommen.“

Japan EarthquakeKönnen Sie sich vorstellen, dass der verantwortliche Schichtleiter von Tschernobyl, Aleksandr Akimow, als das System bereits auf die Katastrophe zusteuerte, Mitarbeiter zusammenstauchte, weil sie warnend ihre Stimmen erhoben, und dass er dann auch noch das Warnsystem mit der Begründung abschalten ließ: „Bei dem Lärm und dem Geblinke kann ja kein Mensch arbeiten“?! Noch als tödlich verstrahlte Mitarbeiter in den Kontrollraum kamen und berichteten, dass der Reaktor explodiert sei, geriet Akimow „gänzlich außer sich, brüllte und tobte und tat schließlich alles als Unsinn ab“ (zitiert nach einem Augenzeugenbericht in Frey und Frey). Die überall vorhandenen Messgeräte zeigten Werte über das Maximum der Skala hinaus an, weshalb man meinte, sie wären kaputt gegangen. Die tatsächlich Strahlendosis war aber 5000-mal so hoch wie das – bereits tödliche – Maximum der Skala! Es kann eben nicht sein, was nicht sein darf.

1.6       Korrekturfehler

Korrektur

Mangelnde Selbstkritik:

Dieses Problem zeigte sich ebenfalls der Steuerzentrale des Reaktors von Tschernobyl. Als die Ereignisse nach und nach außer Kontrolle gerieten, schalteten die Techniker ein Sicherheitssystem nach dem anderen ab – es störte ja bloß die geplanten Abläufe. Die entscheidenden Personen brachten eben das Selbstbewusstsein mit, sie verstünden die Abläufe und könnten den Reaktor beherrschen. So waren sie blind gegenüber den Warnzeichen und bestätigten sich gegenseitig in ihrer Selbstüberschätzung. Die Übermittler der schlechten Nachricht wurden selbst dann noch niedergeschrieen, als sie verstrahlt und dem Tode geweiht berichteten, was sie mit eigenen Augen gesehen hatten.

Die normative Kraft des Faktischen:

Ein fehlerhaftes Handeln wird häufig auch deswegen nicht zugegeben, weil damit das Eingeständnis verbunden wäre, dass man sehr viel Geld, Energie oder Zeit in einen falschen Plan investiert hätte. „Jetzt haben wir seit Jahren schon viele Millionen in die Planungskosten investiert; drum muss das Autobahnteilstück (die Startbahn, der Bahnhof) jetzt auch gebaut werden!“ Aber diese Fehlhaltung gibt es nicht nur bei großen politischen Projekten, sondern auch im privaten Haushalt: Wer schon seit Jahren ohne größere Gewinne Lotto spielt, wird sich schwer tun, damit aufzuhören, weil das Geld sonst als völlige Fehlinvestition erscheinen würde.

1.7       Zeitdruck

Wenn Sie einen Blick auf die Gesamtgrafik werfen, dann fällt Ihnen vielleicht auf, dass das Element „Zeitdruck“ auf alle Phasen der vollständigen Handlung wirken kann und auch oft wirkt. Dabei kann man zwei Fälle unterscheiden.

Handlung_gesamt

Durch den Kontext induzierter Zeitdruck:

Überlegen Sie einmal selbst, wie oft es vorkommt, dass Sie Ihre Handlungen planen müssen ohne das System vollständig zu durchblicken, auf das Sie einwirken wollen. Wer setzt Sie in diesen Fällen unter Zeitdruck? Doch häufig wohl die Konkurrenz, die Kunden, Lieferfristen, Zahlungsziele usw. Aber manches mag auch an Ihnen selbst liegen – wenn Sie zu den Menschen gehören, denen es nicht schnell genug gehen kann, die noch schnell dieses oder jenes mitnehmen wollen, die sich selbst und andere ständig unter Druck setzen.

Zeitdruck durch das System:

Dynamische Systeme sind, wie der Name schon sagt, in Bewegung. Das heißt, sie verändern sich auch ohne unser Zutun. Eine Klasse von Schülern oder ein Saal voller Zuhörer kann sehr dynamisch werden, wenn unser Handeln zu lange auf sich warten lässt. Eine Kommune ist selten im Gleichgewicht: Entweder die Bevölkerung wächst oder sie nimmt ab, sie ist zufrieden oder unzufrieden, sie arbeitet am Ort oder pendelt aus; oder genauer: Dies alles geschieht gleichzeitig an verschiedenen Stellen. Ein Rathaus, das dabei nur zusieht, wird im Nichtstun und Warten vieles falsch machen.

Umgang mit Zeitdruck:

Wenn wir Dörners Simulationen nachvollziehen, dann erweisen sich erfolgreiche Versuchspersonen dadurch, dass sie auch unter Zeitdruck noch genügend Fragen stellen. Die anderen Personen reagierten auf Zeitdruck mit Informationsverweigerung und Aktionismus. Diese waren aber auch dann nicht erfolgreicher, wenn sie genügend Zeit zur Verfügung hatten. Dann zeigten sie nämlich eine Tendenz zu exzessiver Informationssammlung mit einer daraus resultierenden verstärkten Unsicherheit, welche weitere Informationssammlung und schließlich Entscheidungsunvermögen zur Folge hatte.

2         Der Kreis schließt sich

Die Qualität der eigenen Bewertung und der Selbstkorrektur bestimmt die Qualität der neuen Handlungshypothese, und damit beginnt der Kreis von vorne mit den entsprechenden Planungen, Handlungen und Reaktionen des Systems. Wenn es uns nicht gelingt, selbstkritisch auf die Folgen unseres Handelns zu sehen und uns durch die Reaktionen des Systems gewissermaßen einen Spiegel vor Augen halten zu lassen, wird sich die Wahrheit des Ausspruches erweisen: „Wer nicht aus der Geschichte lernt, ist gezwungen sie zu wiederholen.“ Das trifft nicht nur auf große politische Entscheidungen zu, sondern ebenso auf unser alltägliches Handeln. Hier nun im Anschluss an Dietrich Dörner ein paar Aspekte wie dieses Lernen aussehen könnte.

2.1       Gute Strategien

Gegen Hypothesenfehler:

  • Vorsicht vor einfachen Ursache-Wirkungs-Ketten und vor „zentralen Ursachen“!
  • Besondere Vorsicht, wenn solche zentralen Ursachen dazu dienen, das eigene Weltbild zu zementieren!
  • Stattdessen intensiv nachforschen, mehr Details in Erfahrung bringen, Zusammenhänge zu erkennen versuchen, vernetzte Strukturschemata erstellen und weiterdenken!
  • Mögliche Fern- und Nebenwirkungen antizipieren!

Gegen Planungsfehler:

  • Nicht nach Sinnenfälligkeit handeln und nicht von zufälligen Einstiegspunkten aus!
  • Stattdessen versuchen, aus einem Verständnis für das Gesamtgefüge heraus zu handeln!
  • Vorsicht vor zu geringer, aber auch vor ausufernder Informationssuche!
  • Entscheidungen treffen, nicht ewig aufschieben!

Gegen Fehldosierung hilft vermutlich nur Versuch und Irrtum, also viel Übung!

Gegen falsche Zielstellungen:

  • Vorsicht vor globalen Zielen und am meisten vor globalen Vermeidungs-Zielen!
  • Stattdessen übergreifende Zielstellungen herunterbrechen und Zwischenziele setzen!
  • Ziele müssen operationalisierbar sein, das heißt, das Erreichen oder Verfehlen muss anhand eindeutiger Kriterien erkennbar sein!

Gegen Bewertungsfehler:

  • Vorsicht, wenn Sie gewisse Fehler oder Misserfolge gar nicht sehen wollen!
  • Stattdessen möglichst schonungsloses Überprüfen der Reaktionen des Systems und der eigenen Hypothesen!
  • Zahlen nicht schönrechnen!

Gegen Korrekturfehler:

  • Vorsicht, wenn der Druck der Gruppe oder ein großes Selbstbewusstsein die Symptome des komplexen Systems außer Acht lassen oder gering schätzen will!
  • Sich fragen: Welche gemeinsamen Merkmale hatten alle bisher versuchten erfolglosen Methoden?
  • Vorsicht, wenn das Argument auftaucht: „Jetzt haben wir schon so viel (Geld / Zeit / Energie…) investiert – darum müssen wir auf diesem Wege weiter machen!“

2.2       Schlusswort

Komplexe dynamische Systeme sind nur schwer zu beherrschen, und wir werden Fehler nicht vermeiden können. Die Fehler werden allerdings immer größer, wenn wir nicht aus ihnen lernen. Und die Hände in den Schoß zu legen, wäre der allergrößte Fehler. Deshalb soll der griechische Philosoph Demokrit das Schlusswort haben:

„Mut steht am Anfang des Handelns, Glück am Ende.“

 

2 comments On Fail #4: Systematische Fehlleistungen

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Site Footer

Sliding Sidebar

Pro-Truth-Pledge


I signed the Pro-Truth Pledge:
please hold me accountable.

Blog per E-Mail folgen

Gib deine E-Mail-Adresse ein, um diesem Blog zu folgen und per E-Mail Benachrichtigungen über neue Beiträge zu erhalten.

Entdecke mehr von Pädagokick

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen