„Eggerts, wir müssen reden!“ -Heute: Warum Schulleitungen und Berater sich in Tanaland umsehen sollten
Spiele wie Tanaland vermittelten in den 1970er Jahren dramatisch in der Simulation, wieso Hilfsprojekte in Entwicklungsländern so oft eine erschreckend andere Wirkung haben als beabsichtigt. Tanaland ist ein fiktives Szenario, das in den 1970er Jahren von Dietrich Dörner und seinen Kollegen an der Universität Bamberg entwickelt wurde, um zu erforschen, wie Menschen komplexe Systeme verstehen und managen. In diesem Szenario müssen die Teilnehmer als virtuelle Manager oder Entscheidungsträger agieren, um die Entwicklung eines imaginären Landes namens Tanaland zu steuern. Sie müssen dabei verschiedene Aspekte wie Wirtschaft, Umwelt und Sozialstruktur berücksichtigen, um langfristig positive Ergebnisse zu erzielen. Das Ziel des Experiments war es, Einblicke in die menschliche Problemlösungsfähigkeit und Entscheidungsfindung unter Unsicherheit und Komplexität zu gewinnen.
Die Systemtheorie, ein interdisziplinärer Ansatz zur Analyse und Beschreibung komplexer Systeme, bietet ein nützliches Rahmenwerk, um das Tanaland-Szenario und die Herausforderungen, denen sich die Teilnehmer gegenübersehen, zu verstehen. Die Systemtheorie betont, wie verschiedene Teile eines Systems in Wechselwirkung stehen und wie diese Wechselwirkungen das Gesamtverhalten des Systems beeinflussen. Sie hilft zu verstehen, dass lokale Optimierungen oder Eingriffe in einem Teil des Systems unerwartete und oft unerwünschte Auswirkungen auf andere Teile des Systems oder das Gesamtsystem haben können. Dieses Prinzip wird als "Systemdynamik" bezeichnet.
In Bezug auf Tanaland zeigt die Systemtheorie auf, dass Entscheidungsträger die Komplexität und Vernetztheit der verschiedenen Systemelemente berücksichtigen müssen. Sie müssen verstehen, dass Eingriffe in ein komplexes System wie Tanaland sorgfältig abgewogen und auf ihre potenziellen langfristigen Auswirkungen hin untersucht werden müssen, um negative Rückkopplungsschleifen oder unerwünschte Nebeneffekte zu vermeiden. Die Systemtheorie und das Tanaland-Szenario lehren uns, dass komplexe Probleme eine ganzheitliche Betrachtung und interdisziplinäre Ansätze erfordern, die über einfache Ursache-Wirkungs-Beziehungen hinausgehen.
Das Tanaland-Szenario und die daraus gewonnenen Erkenntnisse haben direkte Implikationen für die Organisationsberatung, insbesondere in Bezug auf das Management komplexer Systeme, Entscheidungsfindung, Problemlösung und Change Management. In Organisationen, ähnlich wie in Tanaland, müssen Führungskräfte und Berater mit einer Vielzahl von miteinander verbundenen Faktoren umgehen, darunter menschliche Ressourcen, Organisationsstrukturen, Technologien, Marktbedingungen und externe Umwelteinflüsse. Hier sind einige spezifische Aspekte, wie das Tanaland-Szenario auf die Organisationsberatung angewendet werden kann:
Systemdenken
Das Verständnis für Systemdynamik und die Fähigkeit, in Systemen zu denken, ist für Organisationsberater von entscheidender Bedeutung. Sie müssen erkennen, wie verschiedene Elemente einer Organisation miteinander interagieren und wie Veränderungen in einem Bereich Auswirkungen auf andere Bereiche haben können. Das Tanaland-Szenario zeigt, dass Eingriffe in ein System unbeabsichtigte Konsequenzen haben können, was in der Organisationsberatung bedeutet, dass Berater eine ganzheitliche Sicht auf Veränderungsinitiativen haben müssen, um negative Rückkopplungen oder unerwünschte Nebeneffekte zu minimieren.
Umgang mit Komplexität und Unsicherheit
Organisationsberater werden oft mit komplexen und unsicheren Situationen konfrontiert, in denen einfache Lösungen nicht ausreichen. Das Tanaland-Szenario lehrt, dass erfolgreiche Strategien in solchen Kontexten eine sorgfältige Analyse der Situation, eine vorausschauende Planung und die Bereitschaft erfordern, Pläne anzupassen, wenn neue Informationen verfügbar werden oder sich die Umstände ändern. Dies betont die Notwendigkeit adaptiver und flexibler Ansätze in der Organisationsberatung.
Förderung von Lern- und Anpassungsfähigkeit
Die Erfahrungen aus Tanaland unterstreichen die Bedeutung von Lern- und Anpassungsfähigkeit in Organisationen. Organisationsberater können dazu beitragen, Lernkulturen zu entwickeln, in denen kontinuierliches Feedback, Experimentieren und das Teilen von Wissen gefördert werden. Diese Kulturen ermöglichen es Organisationen, sich effektiv an Veränderungen anzupassen und aus Erfahrungen zu lernen, um zukünftige Herausforderungen besser zu bewältigen.
Change Management
Veränderungsprozesse in Organisationen ähneln oft den Herausforderungen, die im Tanaland-Szenario vorgestellt werden. Organisationsberater können Change-Management-Strategien entwickeln, die die Komplexität und Vernetztheit von Organisationssystemen anerkennen und sich auf die schrittweise Einführung von Veränderungen, das Management von Stakeholder-Erwartungen und die Minimierung von Widerständen konzentrieren.
Zusammenfassend bietet das Tanaland-Szenario wertvolle Einsichten für die Organisationsberatung, indem es die Bedeutung von Systemdenken, strategischer Entscheidungsfindung und Anpassungsfähigkeit in komplexen und dynamischen Umgebungen hervorhebt.
Dazu beschriebt Frederic Vester sechs klassische Fehler:
“1. Fehler: Mangelhafte Zielerkennung. Das System wird abgetastet, bis ein Missstand gefunden wird. Dieser wird beseitigt, dann der nächste Missstand gesucht (Reparaturdienstverhalten). Wie bei einem Anfänger im Schachspiel geschieht die Planung ohne große Linie.
2. Fehler: Man beschränkt sich auf Ausschnitte der Gesamtsituation. Große Datenmengen werden gesammelt, die zwar enorme Listen ergeben, jedoch kaum Beziehungen aufzeigen. Dadurch sind sie in keine Ordnung zu bringen, und die Dynamik des Systems bleibt unerkannt.
3. Fehler: Einseitige Schwerpunktsbildung. Man versteift sich auf einen Schwerpunkt, der richtig erkannt wurde. Hierdurch bleiben jedoch gravierende Konsequenzen in anderen Bereichen unbeachtet.
4. Fehler: Unbeachtete Nebenwirkungen. In eindimensionalem Denken befangen, geht man bei der Suche nach geeigneten Maßnahmen zur Systemverbesserung sehr »zielstrebig«, d.h. geradlinig und ohne Verzweigungen vor. Nebenwirkungen werden nicht analysiert.
5. Fehler: Tendenz zur Übersteuerung. Häufig wird zunächst sehr zögernd vorgegangen. Wenn sich dann im System nichts tut, greift man kräftig ein, um bei der ersten unbeabsichtigten Rückwirkung wieder komplett zu bremsen.
6. Fehler: Tendenz zu autoritärem Verhalten. Die Macht, das System verändern zu dürfen, und der Glaube, es durchschaut zu haben, führt zum Diktatorverhalten, das jedoch für komplexe Systeme völlig ungeeignet ist. Für diese ist ein »anschmiegsames Verhalten«, welches mit dem Strom schwimmend verändert, am wirkungsvollsten.”
Ausführlichere Version zum Versuch:
TANALAND – ein Ausflug in das Denken unter Unsicherheit
Wenn man sich auf die Suche macht nach dem, was menschliches Denken ausmacht, dann begegnet man schnell dem Namen Dietrich Dörner. Psychologe, Systemdenker, Forscher. Und ein bisschen auch ein Abenteurer in den unbekannten Gebieten unseres Verstandes. In den achtziger Jahren plante er ein ziemlich eigenwilliges, dabei aber geniales Experiment: Er wollte herausfinden, wie Menschen sich verhalten, wenn sie ein komplexes System steuern müssen – ohne klare Regeln, ohne perfekte Informationen, unter Unsicherheit, mit vielen kleinen Überraschungen.
Tanaland war kein echtes Land, keine geografische Realität. Es war eine virtuelle Welt, lange bevor es Computerspiele wie „SimCity“ oder „Civilization“ gab. Aber der Ansatz war ähnlich: Dörner baute eine Computersimulation, in der Versuchspersonen ein kleines Entwicklungsland managen mussten. Die Teilnehmer sollten als „Entwicklungshelfer“ dafür sorgen, dass es Tanaland gut ging: Wirtschaft aufbauen, Bildung verbessern, Gesundheit sichern, politische Stabilität erreichen. Ein bisschen naiv, könnte man denken: Wie schwer kann das schon sein? Sehr schwer, zeigte sich. Und genau darin lag Dörners brillante Beobachtung.
Das Setting: Ein Land voller Ungewissheiten
Tanaland war detailreich modelliert. Die Bevölkerung war arm. Es gab eine Infrastruktur, die bestenfalls rudimentär war: ein paar Straßen, ein paar Schulen, wenig medizinische Versorgung. Die Wirtschaft bestand aus Landwirtschaft, ein wenig Handwerk, kaum Industrie. Die Ressourcen waren begrenzt: wenig Wasser, anfällige Ernten, fragile politische Strukturen. Und die Teilnehmer hatten Budgets zur Verfügung. Aber nicht unbegrenzt. Sie mussten entscheiden: Investieren wir in Bewässerung? In Schulen? In Krankenhäuser? In Straßen? Unterstützen wir die Landwirtschaft oder die Industrialisierung? Informationen gab es – aber nie vollständig. Man konnte Berichte anfordern, Zahlen erfragen. Aber manches war unsicher, manches falsch. Manchmal änderte sich die Lage schneller, als die Informationen es abbildeten. Dörners Idee war: das Denken, das Planen, das Entscheiden in einer komplexen, dynamischen Umwelt zu beobachten. Und zu sehen: Wo denken wir zu kurz? Wo scheitern wir daran, Nebenfolgen zu bedenken? Wo unterschätzen wir die Wechselwirkungen?
Typische Phänomene: Wo es schiefgeht
Dietrich Dörner und sein Team beobachteten in ihren Experimenten immer wieder dieselben Muster.
1. Kurzschlusshandeln
Viele Teilnehmer machten genau das, was auch in der Realität oft passiert: Sie versuchten, ein akutes Problem schnell zu lösen, ohne die Nebenwirkungen zu bedenken. Wenn Ernteausfälle drohten, pumpten sie sofort Geld in Bewässerungssysteme – ohne zu fragen, ob die Bauern das Wasser überhaupt nutzen konnten oder ob das Wassermanagement funktionierte. Ergebnis: Ressourcen wurden sinnlos verschwendet, neue Probleme entstanden.
2. Reparaturbetrieb
Statt sich um die Ursachen der Probleme zu kümmern, arbeiteten viele Teilnehmer im „Feuerwehrmodus“: Symptome bekämpfen, möglichst schnell, möglichst sichtbar. Wenn Kindersterblichkeit stieg, wurde ein Krankenhaus gebaut – aber niemand kümmerte sich darum, ob es Ärzte oder Medikamente gab. Man betrieb Flickschusterei – das System stabilisierte sich nicht.
3. Ketten von Nebenfolgen
Fast jede Aktion hatte nicht nur eine direkte Wirkung, sondern löste Wellen von Nebenfolgen aus. Wer Industrialisierung förderte, löste Landflucht aus. Wer Straßen baute, brachte neue Gesundheitsprobleme durch rasche Urbanisierung. Die Teilnehmer rechneten selten damit. Und die Überraschung über die Folgen lähmte oft ihr weiteres Handeln.
4. Überforderung und Erschöpfung
Die Komplexität des Systems, die Vielzahl der kleinen Ereignisse, die Unsicherheit der Effekte – all das führte dazu, dass viele Teilnehmer irgendwann kapitulierten. Manche wurden passiv. Andere fällten hektische Entscheidungen ohne Plan. Komplexe Systeme, so zeigte sich, können Menschen geistig und emotional schnell überfordern.
5. Zielverfehlung und Sinnkrise
Am Anfang hatten die Teilnehmer klare Ziele: Wachstum, Gesundheit, Bildung. Mit der Zeit verloren viele den Überblick. Was war jetzt noch wichtig? Was war eigentlich das Ziel? Man agierte im Nebel. Ohne Leitbild, ohne echte Strategie.
Was Dörner daraus schloss
Tanaland war mehr als ein Experiment: Es war ein Spiegel. Ein Spiegel dafür, wie wir denken, wenn die Welt nicht so einfach ist, wie sie scheint. Dörner zeigte mit Tanaland, dass menschliches Denken in komplexen Systemen bestimmte Schwächen hat:
Wir unterschätzen Dynamik.
Wir ignorieren Nebenwirkungen.
Wir denken zu linear in einer nicht-linearen Welt.
Wir handeln impulsiv statt strategisch.
Wir verlieren schnell unsere Ziele aus den Augen.
Er fasste diese Beobachtungen später in seinem Buch „Die Logik des Misslingens“ zusammen – ein Klassiker der Psychologie, ein Standardwerk über das Versagen von Planung und Steuerung. Und er zog daraus auch praktische Schlussfolgerungen:
Gutes Entscheiden braucht Systemdenken.
Man muss lernen, Nebenfolgen zu antizipieren.
Man muss die eigenen Modelle ständig überprüfen und korrigieren.
Man braucht die Demut, nicht alles steuern zu können.
Tanaland heute: Eine bleibende Lektion
Man könnte meinen, Tanaland sei eine Spielerei aus der Frühzeit der Computersimulation gewesen. Aber in Wahrheit hat Dörners Experiment an Aktualität nichts verloren. Im Gegenteil: Unsere Welt ist voller „Tanalands“ geworden.
Klimawandel? Ein hochkomplexes, dynamisches System mit zahllosen Nebenfolgen.
Internationale Politik? Wechselwirkungen, Unsicherheiten, unvollständige Informationen.
Wirtschaftskrisen, Pandemien, Migration? Komplexe Felder voller dynamischer Rückkopplungen.
Und immer wieder erleben wir, wie politische Entscheidungen, Unternehmensstrategien oder gesellschaftliche Reaktionen an genau denselben Denkfehlern scheitern, die Dörner in Tanaland sichtbar gemacht hat. Was Tanaland uns also lehrt, ist etwas zutiefst Demütigendes und zugleich Hoffnungsvolles:
Denken muss lernfähig bleiben.
Planen muss Fehlerfreundlichkeit einkalkulieren.
Handeln muss iterativ, tastend, aufmerksam für Nebenfolgen sein.
Ziele müssen flexibel, aber orientierend bleiben.
Und nicht zuletzt: Man muss damit leben können, nicht alles unter Kontrolle zu haben.
Dietrich Dörner hat mit Tanaland eine Landkarte unseres Denkens gezeichnet. Nicht um uns zu entmutigen, sondern um uns besser ausrüsten zu können für das Abenteuer des Entscheidens in einer ungewissen Welt. Vielleicht, wenn man es poetisch sagen will, hat er uns gezeigt: „Komplexität ist nicht unser Feind. Aber Arroganz im Umgang mit Komplexität ist es.“ Und wer heute Tanaland neu betritt – im Großen wie im Kleinen –, der sollte nicht nur Technik und Macht mitbringen, sondern vor allem: Demut, Neugier und die Bereitschaft, Irrtümer als Teil des Lernens zu begreifen.
Quellen:
Dörner, Dietrich: Die Logik des Misslingens: Strategisches Denken in komplexen Situationen
Frederic Vester. Neuland des Denkens, S. 25.
Lesetipps:
https://www.frederic-vester.de/deu/documents/IB-Schriften-40JahreNdD%20FVester%20Goellinger_Harrer%2012%202020-final.pdf