Imparare dagli errori

La cultura dell'errore è il nostro copione in parte nascosto per affrontare gli sviluppi indesiderati. Questo articolo usa l'esempio delle immersioni tecniche per mostrare come può essere progettato il percorso verso la sicurezza psicologica. Questo può servire come suggerimento per il trasferimento nella pratica operativa.

La cultura dell'errore è uno dei grandi temi in corso nella gestione del rischio. Cultura significa avere a che fare con idee che sono implicite e che vanno avanti sullo sfondo. Lo si vede, per esempio, nella diversa interpretazione dei protocolli di sicurezza sullo sfondo di diverse culture nazionali, generi e gruppi di età. La cultura dell'errore è il nostro copione in parte nascosto per affrontare le aberrazioni. Questo diventa sorprendentemente chiaro se si prende un campo rischioso, che di solito non è gestito o solo semi-professionalmente, e lo si analizza. In questo articolo si tratta di "immersioni tecniche", cioè immersioni oltre i limiti dell'immersione ricreativa: profondità di più di 40 metri, immersioni in grotte e relitti di diverse ore con grandi esigenze di decompressione quando si emerge. Un piccolo errore qui ha inevitabilmente le conseguenze più gravi per le persone coinvolte. Quindi, come fanno i subacquei tecnici ad implementare la cultura dell'errore nella loro esigente pratica?

L'architettura degli incidenti

Nell'immersione tecnica, le circostanze degli incidenti sono fondamentalmente relativamente chiare. Tutti conoscono fin troppo bene la piramide degli incidenti, che viene spesso utilizzata anche nel reporting degli incidenti subacquei.

La piramide rende chiaro che dietro ogni incidente mortale ci sono molte volte più incidenti gravi e molte volte più trattamenti medici. E tra questi, 3000 incidenti di assistenza, che normalmente non sono registrati molto bene. I rapporti sugli incidenti pubblicati ogni anno dalle associazioni professionali sono tentativi di aumentare la consapevolezza dei rischi. Ma sono davvero usati come opportunità di apprendimento? S

Se guardate le interpretazioni degli incidenti, troverete per lo più raccomandazioni banali che rendono solo poca giustizia allo sviluppo reale. Per esempio, la raccomandazione spesso letta "Mai immergersi da soli!" non affronta mai il motivo per cui i subacquei erano soli in primo luogo. Ed è troppo facile invocare la regola senza andare a fondo delle cause. Questo è il caso di qualsiasi analisi degli incidenti: prima che diventi troppo ipotetica, gli analisti di incidenti di solito terminano il loro rapporto perché altrimenti potrebbero essere accusati di essere poco obiettivi. Per inciso, questo è stato risolto da tempo nel Kaizen e nel Lean Management con il "5-Why-Method", in cui ogni sviluppo indesiderato può essere indagato con la quintuplice domanda del perché.

Molto noto è anche il cosiddetto Swiss Cheese Model della prevenzione degli errori di James Reason degli anni 70, che illustra vividamente l'origine degli errori. In termini astratti, gli errori hanno sempre uno sfondo sistematicamente complesso, ma mai uno che può essere tracciato in modo lineare. Anche se c'è una catena di errori, il modo in cui l'"errore latente" è stato innescato rimane di solito all'oscuro (esempio: il subacqueo di 60 anni che ha avuto un incidente e che ha fatto attenzione a tutto tranne al fatto che la sua forma fisica non è più quella di un ventenne).

Molti domini sono semplicemente "non aviazione".

Gli sviluppi sbagliati scivolano attraverso tutte le barriere protettive, per così dire. Nessuna lista di controllo può fermarli, nessun protocollo può evitarli. Ma le misure di protezione possono aumentare la probabilità che lo sviluppo indesiderato non marci. Ma le misure di protezione non sono gratuite. Come minimo, costano tempo e attenzione. Se succedono degli errori e i colpevoli vengono incolpati, questo invita a nascondere gli errori. Così, le cause degli errori non vengono notate o vengono trattate solo superficialmente. Questo danneggia a lungo termine, perché gli errori si ripetono. Nell'aviazione o nella medicina, gli errori causano danni considerevoli. Pertanto, è tanto più importante ridurre il più possibile il numero di errori. Questo viene tentato, tra l'altro, con il Crew Resource Management. In questi corsi di formazione, per esempio, vengono rafforzati il team building, la consapevolezza della situazione e la gestione dello stress. Se ti immergi nel campo tecnico, non raggiungerai mai uno standard di sicurezza come nell'aviazione professionale. E questo è purtroppo vero in molti altri ambienti operativi (pensate ai palcoscenici teatrali!). Ovunque: sarà sempre una decisione che considera anche l'economia dei controlli.

È qui che la maggior parte delle liste di controllo fallisce nell'ambiente operativo: sono troppo lunghe e sono plausibilmente inadatte a un uso efficace ed efficiente. Una buona lista di controllo guida le persone attraverso un problema complesso insieme. Una buona lista di controllo nelle immersioni tecniche darebbe una guida per controllare insieme il sistema di immersione. Tuttavia, questo non è fondamentalmente implementato la maggior parte delle volte. Le liste di controllo di cui l'autore è a conoscenza di solito contengono solo punti di controllo in modo che nulla venga dimenticato. Questo è necessario, ma non sufficiente.

Cultura dell'errore - sulla via della sicurezza psicologica

Per la progettazione della cultura dell'errore è essenziale affrontare la cultura dell'errore nella squadra per usarla come opportunità di apprendimento. A tal fine, è importante considerare quanto segue:

  • La cultura dell'errore è sempre implicita; è importante affrontare e discutere personalmente i comportamenti osservati. Questo aspetto è importante da conoscere perché la moltitudine di discussioni sugli incidenti (subacquei) nei media online non può essere specificamente legata a una cultura implicita. Ha senso, per esempio, solo se si prende un rapporto di incidente e lo si discute nella propria squadra, lo si valuta e si traggono conseguenze concrete per la propria squadra.
  • Le comunità sono le fonti dell'errore latente e della sicurezza latente: la cultura dell'errore è legata a gruppi e squadre specifiche e dipende dal contesto sociale della comunità. Un alto livello di testosterone e una distanza di potenza elevata renderanno certamente difficile discutere degli errori. Il comportamento da macho spesso impedisce una cultura dell'errore positiva. Chi non conosce gli esemplari maschili che diventano rosso fuoco e cercano la loro salvezza nella fuga anche quando il comportamento problematico viene affrontato diplomaticamente?

Affrontare gli errori all'interno della squadra richiede

  1. Coraggio: soprattutto gli ambienti molto strutturati gerarchicamente producono leader (istruttori di immersione) che non si lasciano criticare da un dipendente (studente di immersione) senza ulteriori indugi.
  2. Riflessività: gli errori sono sempre sistematici e quindi un prodotto delle condizioni. Se, per esempio, qualcuno ha osservato un errore e lo critica solo dopo, ci si chiede perché non sia stato notato prima.
  3. Ambiente adatto: la critica deve essere appropriata. Ha bisogno di tempo e del momento appropriato. Le critiche particolarmente fondamentali tenderanno a non essere espresse in una breve sessione di debriefing. E per le discussioni ad alta intensità di fatti sui migliori contesti tematici, la birra di sera è plausibilmente inadatta. Un buon momento è probabilmente da qualche parte nel mezzo, in una situazione meno frenetica.
  4. Un futuro aperto: se i partner dipendono l'uno dall'altro solo per un momento, è normale che una critica particolarmente profonda sia assente. Questo cambia se volete continuare a fare progressi insieme in futuro. Un futuro aperto è quindi necessario per aumentare la resilienza complessiva della squadra.
  • Ascoltare la voce interiore: Questo vale non solo per il comportamento personale soggetto a cattiva conoscenza, ma soprattutto per la pressione del gruppo. Per inciso, si raggiunge la "mindfulness" solo quando la "voce" è portata insieme.
  • Creare costantemente opportunità per aumentare la consapevolezza: Distribuire informazioni che affrontino la cultura dell'errore in primo luogo e che rendano visibile nella squadra chi pensa cosa su quali deviazioni comportamentali. I sistemi si immunizzano molto rapidamente contro i problemi di sicurezza. Pertanto, è necessario cercare costantemente forme diverse attraverso le quali sia possibile uno scambio, ad esempio a volte attraverso materiale stampato, a volte in un workshop, a volte in un esercizio comune.

Una volta che questi ultimi passi sono stati raggiunti e stabiliti nella cultura della squadra, il professore di Harvard Amy Edmondson parla della necessaria "sicurezza psicologica" che rende possibile l'apprendimento congiunto e l'elaborazione della cultura dell'errore. In questo senso morale: buona fortuna nel plasmare la cultura!

Questo articolo appare in una serie di MQ con il contributo di esperti del Risk Management Network. www.netzwerk-risikomanagement.ch

 

 

(Visitato 933 volte, 1 visita oggi)

Altri articoli sull'argomento