Aus Fehlern lernen
Die Fehlerkultur ist unser teils verborgenes Skript, mit Fehlentwicklungen umzugehen. Im vorliegenden Beitrag wird anhand des Beispiels vom technischen Tauchen gezeigt, wie der Weg zur psychologischen Sicherheit gestaltet werden kann. Dies mag als Anregung für den Transfer in die betriebliche Praxis dienen.
Die Fehlerkultur ist im Risikomanagement eines der grossen Dauerthemen. Kultur bedeutet, dass man mit Vorstellungen umgehen muss, die implizit sind und sich im Hintergrund abspielen. Das sieht man beispielsweise bei der unterschiedlichen Auslegung von Sicherheitsprotokollen vor dem Hintergrund verschiedener Landeskulturen, Geschlechter und Altersgruppen. Die Fehlerkultur ist unser teils verborgenes Skript, mit Fehlentwicklungen umzugehen. Dies wird markant deutlich, wenn man ein riskantes und eben meist nicht oder nur semi-professionell gemanagtes Feld herbeizieht und analysiert. In diesem Beitrag ist dies das «technische Tauchen», also das Tauchen über die Sporttauchgrenzen hinaus: Tiefen über 40 Meter, Tauchgänge in Höhlen und Wracks über mehrere Stunden hinweg mit grossen Ansprüchen an die Dekompression beim Auftauchen. Ein winziger Fehler hat hier unweigerlich schwerste Konsequenzen für die Beteiligten. Wie nun setzen technisch Tauchende die Fehlerkultur in ihrer anspruchsvollen Praxis um?
Die Architektur von Unfällen
Beim technischen Tauchen sind die Unfallumstände im Grunde relativ klar. Nur zu gut ist jedem die Unfallpyramide bekannt, die auch in der Tauchunfallberichterstattung gern herangezogen wird.
Die Pyramide macht deutlich, dass hinter jedem tödlichen Unfall ein Vielfaches an schwerwiegenden Vorfällen und nochmal ein Vielfaches an medizinischen Behandlungen steckt. Und darunter 3000 Hilfeleistungen, die im Normalfall nicht sonderlich gut erfasst werden. Die jährlich erscheinenden Unfallberichte von Fachverbänden sind Versuche, ein höheres Risikobewusstsein zu erzeugen. Aber werden diese auch wirklich als Lernchance genutzt? S
Sieht man sich die Unfallinterpretationen an, so findet man meist triviale Empfehlungen, die der eigentlichen Entwicklung nur bedingt gerecht werden. Bei der häufig zu lesenden Empfehlung «Tauche nie allein!» wird beispielsweise nie thematisiert, warum Tauchende überhaupt allein unterwegs waren. Und es ist arg einfach, sich nur auf die Regel zu berufen, aber nicht den Ursachen auf den Grund zu gehen. Dies ist bei jeder Unfallanalyse der Fall: Bevor es zu hypothetisch wird, beenden die Unfallanalysten meist ihren Bericht, weil ihnen sonst Unsachlichkeit vorgeworfen werden könnte. Dies wurde im Kaizen und Lean Management übrigens durch die «5-Why-Methode» längst gelöst, bei der jede Fehlentwicklung mit der fünffachen Warum- Frage nach den Ursachen durchaus hypothetische Antworten ergründen lässt.
Ebenfalls sehr gut bekannt ist das sogenannte Swiss Cheese Model der Fehlervermeidung von James Reason aus den 1970er-Jahren, das die Fehlerentstehung anschaulich illustriert. Abstrakt gesprochen, haben Fehlentwicklungen immer einen systemisch-komplexen, nie aber einen linear nachvollziehbaren Hintergrund. Zwar gibt es eine Fehlerkette, wie aber der «latente Fehler» angestossen wurde, verbleibt in der Regel im Dunkeln (Beispiel: Der verunfallte 60-jährige Tauchende, der auf alles geachtet hat, ausser darauf, dass seine körperliche Fitness nicht mehr die eines Zwanzigjährigen ist.)
Viele Domänen sind eben «nicht die Luftfahrt»
Fehlentwicklungen schlüpfen quasi durch alle Schutzbarrieren hindurch. Keine Checkliste kann sie aufhalten, kein Protokoll vermeiden. Aber Schutzmassnahmen können die Wahrscheinlichkeit steigern, dass die Fehlentwicklung nicht durchmarschiert. Nur: Schutzmassnahmen sind nicht umsonst. Sie kosten mindestens Zeit und Aufmerksamkeit. Passieren Fehler und werden Schuldige getadelt, lädt dies ein, Fehler zu verheimlichen. Somit werden Ursachen von Fehlern nicht bemerkt oder nur oberflächlich behandelt. Dies schadet langfristig, denn die Fehler passieren wieder. In der Luftfahrt oder der Medizin verursachen Fehlentwicklungen beträchtliche Schäden. Daher ist es dort umso wichtiger, die Anzahl der Fehler möglichst zu reduzieren. Dies wird unter anderem mit dem Crew Resource Management versucht. In diesen Schulungen werden beispielsweise die Teambildung, das Situationsbewusstsein und Stressmanagement gestärkt. Wer im technischen Bereich tauchen geht, wird nie einen Sicherheitsstandard wie in der professionellen Luftfahrt erreichen. Und dies gilt leider auch für zahlreiche andere operative Umgebungen (man denke an Theaterbühnen!). Wo auch immer: Es wird immer eine Entscheidung sein, die auch die Wirtschaftlichkeit der Checks in Betracht zieht.
Daran scheitern die meisten Checklisten im betrieblichen Umfeld: Sie sind zu lang und für einen effektiven und effizienten Einsatz denkbar ungeeignet. Eine gute Checkliste führt Personen gemeinsam durch ein komplexes Problem. Eine gute Checkliste im technischen Tauchen gäbe Anleitung zur gemeinsamen Überprüfung des Tauchsystems. Dies wird aber im Grunde meistens nicht umgesetzt. Die Checklisten, die dem Autor bekannt sind, enthalten in der Regel lediglich Prüfpunkte, damit man nichts vergisst. Das ist notwendig, aber nicht ausreichend.
Fehlerkultur – auf dem Weg zur psychologischen Sicherheit
Für die Gestaltung der Fehlerkultur ist unerlässlich, sich mit der Fehlerkultur im Team auseinanderzusetzen, um sie als Lernchance zu nutzen. Hierzu gilt es, Folgendes zu berücksichtigen:
- Fehlerkultur ist immer auch implizit; wichtig ist, beobachtetes Verhalten persönlich anzusprechen und zu diskutieren. Dieser Aspekt ist wichtig zu wissen, weil die Vielzahl der Diskussionen über (Tauch-)Unfälle in den Online-Medien eben nicht spezifisch an eine implizite Kultur zurückgebunden werden kann. Es ergibt nur dann Sinn, wenn man beispielsweise einen Unfallbericht nimmt und ihn im eigenen Team diskutiert, auswertet und konkret für das eigene Team Konsequenzen zieht.
- Communities sind die Quellen latenter Fehler und latenter Sicherheit: Eine Fehlerkultur ist an spezifische Gruppen und Teams gebunden und abhängig vom sozialen Kontext der Community. Ein hoher Testosteronspiegel und eine hohe Machtdistanz werden Fehlerbesprechung sicher erschweren. Machohaftes Verhalten verhindert oft eine positive Fehlerkultur. Wer kennt nicht die an Maskulinität nicht zu übertreffenden Musterexemplare, die aber auch beim diplomatischsten Ansprechen von problematischem Verhalten knallrot anlaufen und ihr Heil in der Flucht suchen?
Fehler im Team anzusprechen erfordert
- Mut: Besonders sehr stark hierarchisch strukturierte Umfelder bringen durchaus Führungspersonen (Tauchlehrer) hervor, die sich nicht ohne Weiteres von einem Mitarbeiter (Tauchschüler) kritisieren lassen.
- Reflexivität: Fehlentwicklungen sind immer systemisch und damit ein Produkt der Bedingungen. Wenn beispielsweise jemand einen Fehler beobachtet hat und diesen erst im Nachhinein kritisiert, so stellt sich die Frage, warum dies nicht früher angemerkt wurde.
- Geeignete Umgebung: Kritik will angebracht sein. Dafür braucht es Zeit und den geeigneten Zeitpunkt. Besonders fundamentale Kritik wird tendenziell nicht in einer kurzen Nachbesprechung geäussert werden. Und für faktenintensive Diskussionen über die besten Fachzusammenhänge ist das Bier am Abend denkbar ungeeignet. Ein guter Zeitpunkt liegt vermutlich irgendwo dazwischen, in einer wenig hektischen Situation.
- Eine offene Zukunft: Sind Partner nur für einen Moment aufeinander angewiesen, so ist es normal, dass besonders tiefgreifende Kritik ausbleibt. Das ändert sich, wenn man auch künftig gemeinsame Fortschritte machen möchte. Eine offene Zukunft ist also nötig, um die Gesamtresilienz im Team zu erhöhen.
- Auf die innere Stimme hören: Dies betrifft nicht nur persönliches, dem schlechten Wissen unterliegendes Fehlverhalten, sondern insbesondere auch den Team-Gruppenzwang. Im Übrigen erreicht man erst «Mindfulness», wenn die «Stimme» gemeinsam getragen wird.
- Ständig Gelegenheit zum Sensibilisieren schaffen: Verteilen von Informationen, welche die Fehlerkultur überhaupt thematisieren und die im Team sichtbar machen, wer was über welche Verhaltensabweichungen denkt. Systeme immunisieren sich sehr schnell gegenüber Sicherheitsthemen. Daher ist es notwendig, immer wieder verschiedene Formen zu suchen, über die ein Austausch möglich wird, z.B. mal über Druckmaterial, mal in einem Workshop, mal in einer gemeinsamen Übung.
Sind diese letzten Schritte erreicht und in der Teamkultur etabliert, so spricht Harvard- Professorin Amy Edmondson von der notwendigen «psychologischen Sicherheit», die gemeinsames Lernen und Bearbeiten der Fehlerkultur möglich macht. In diesem moralischen Sinne: Viel Erfolg bei der Kulturgestaltung!
Dieser Fachartikel erscheint in einer MQ-Serie, die von Expertinnen und Experten des Netzwerks Risikomanagement beigesteuert wird. www.netzwerk-risikomanagement.ch