Tirer les leçons des erreurs
La culture de l'erreur est notre scénario en partie caché pour faire face aux développements indésirables. Cet article utilise l'exemple de la plongée technique pour montrer comment le chemin de la sécurité psychologique peut être conçu. Cela peut servir de suggestion pour le transfert dans la pratique opérationnelle.
La culture de l'erreur est l'un des grands problèmes actuels de la gestion des risques. La culture signifie que vous devez faire face à des idées qui sont implicites et qui se déroulent en arrière-plan. Vous le voyez, par exemple, dans l'interprétation différente des protocoles de sécurité en fonction des cultures nationales, des sexes et des groupes d'âge. La culture de l'erreur est notre scénario en partie caché pour faire face aux aberrations. Cela devient particulièrement évident si l'on analyse un domaine à risque, qui n'est généralement pas ou seulement géré de manière semi-professionnelle. Dans cet article, il s'agit de la "plongée technique", c'est-à-dire la plongée au-delà des limites de la plongée récréative : des profondeurs de plus de 40 mètres, des plongées dans des grottes et des épaves pendant plusieurs heures avec de fortes exigences de décompression en surface. Une petite erreur dans ce domaine a inévitablement les conséquences les plus graves pour les personnes concernées. Alors comment les plongeurs techniques mettent-ils en œuvre la culture de l'erreur dans leur pratique exigeante ?
L'architecture des accidents
En plongée technique, les circonstances des accidents sont en principe relativement claires. Tout le monde ne connaît que trop bien la pyramide des accidents, qui est aussi souvent utilisée pour signaler les accidents de plongée.
La pyramide montre clairement que derrière chaque accident mortel, il y a beaucoup plus d'incidents graves et beaucoup plus de traitements médicaux. Et parmi ceux-ci, 3000 incidents d'assistance, qui ne sont normalement pas très bien enregistrés. Les rapports d'accident publiés chaque année par les associations professionnelles sont des tentatives de sensibilisation aux risques. Mais sont-ils vraiment utilisés comme une opportunité d'apprentissage ? S
Si vous regardez les interprétations des accidents, vous trouverez des recommandations pour la plupart triviales qui ne rendent qu'une justice limitée au développement réel. Par exemple, la recommandation fréquemment lue "Ne plongez jamais seul" ne traite jamais des raisons pour lesquelles les plongeurs étaient seuls au départ. Et il est trop facile de se contenter d'invoquer la règle sans aller au fond des causes. C'est le cas de toute analyse d'accident : avant qu'elle ne devienne trop hypothétique, les analystes d'accident mettent généralement fin à leur rapport car, sinon, ils pourraient être accusés de manquer d'objectivité. Soit dit en passant, cette question a été résolue depuis longtemps dans le cadre du Kaizen et du Lean Management par la "5-Why-Method", qui permet d'examiner toute évolution indésirable en se posant la quinzième question du pourquoi.
On connaît également très bien le "Swiss Cheese Model of error prevention" de James Reason des années 1970, qui illustre de façon frappante l'origine des erreurs. En termes abstraits, les erreurs ont toujours un arrière-plan complexe sur le plan systémique, mais jamais de façon linéaire. Bien qu'il y ait une chaîne d'erreurs, la manière dont l'"erreur latente" a été déclenchée reste généralement dans l'ombre (exemple : le plongeur de 60 ans qui a eu un accident et qui a fait attention à tout sauf au fait que sa condition physique n'est plus celle d'un jeune de 20 ans).
De nombreux domaines ne sont tout simplement pas "l'aviation".
Les développements erronés passent, pour ainsi dire, à travers toutes les barrières de protection. Aucune liste de contrôle ne peut les arrêter, aucun protocole ne peut les éviter. Mais les mesures de protection peuvent augmenter la probabilité que l'évolution indésirable ne se produise pas. Mais les mesures de protection ne sont pas gratuites. Au minimum, ils coûtent du temps et de l'attention. Si des erreurs se produisent et que les coupables sont blâmés, cela invite à cacher les erreurs. Ainsi, les causes des erreurs ne sont pas remarquées ou ne sont traitées que superficiellement. Cela est préjudiciable à long terme, car les erreurs se reproduisent. En aviation ou en médecine, les erreurs causent des dommages considérables. Il y est donc d'autant plus important de réduire au maximum le nombre d'erreurs. C'est ce que l'on tente de faire, entre autres, avec la gestion des ressources de l'équipage. Ces formations permettent par exemple de renforcer l'esprit d'équipe, la conscience de la situation et la gestion du stress. Si vous faites de la plongée dans le domaine technique, vous n'atteindrez jamais un niveau de sécurité comme dans l'aviation professionnelle. Et c'est malheureusement vrai dans de nombreux autres environnements opérationnels (pensez aux scènes de théâtre !). Où que ce soit : ce sera toujours une décision qui tiendra également compte de l'aspect économique des contrôles.
C'est là que la plupart des listes de contrôle échouent dans l'environnement opérationnel : elles sont trop longues et ne se prêtent pas à une utilisation efficace et efficiente. Une bonne liste de contrôle guide les gens à travers un problème complexe ensemble. Une bonne liste de contrôle en plongée technique donnerait des indications pour vérifier ensemble le système de plongée. Toutefois, la plupart du temps, cette mesure n'est pas appliquée. Les listes de contrôle dont l'auteur a connaissance ne contiennent généralement que des points de contrôle afin que rien ne soit oublié. C'est nécessaire, mais pas suffisant.
La culture de l'erreur - en route vers la sécurité psychologique
Pour la conception de la culture de l'erreur, il est essentiel de traiter la culture de l'erreur dans l'équipe afin de l'utiliser comme une opportunité d'apprentissage. À cette fin, il est important de prendre en considération les éléments suivants :
- La culture de l'erreur est toujours implicite ; il est important d'aborder et de discuter personnellement les comportements observés. Cet aspect est important à connaître car la multitude de discussions sur les accidents (de plongée) dans les médias en ligne ne peut précisément pas être spécifiquement liée à une culture implicite. Cela n'a de sens, par exemple, que si l'on prend un rapport d'accident et qu'on en discute dans sa propre équipe, qu'on l'évalue et qu'on en tire des conséquences concrètes pour sa propre équipe.
- Les communautés sont les sources de l'erreur latente et de la sécurité latente : une culture de l'erreur est liée à des groupes et des équipes spécifiques et dépend du contexte social de la communauté. Un niveau de testostérone élevé et une distance de puissance élevée rendront certainement difficile la discussion des erreurs. Un comportement macho empêche souvent une culture de l'erreur positive. Qui ne connaît pas les spécimens masculins qui deviennent rouge vif et cherchent leur salut dans la fuite même lorsque le comportement problématique est abordé avec diplomatie ?
Pour corriger les erreurs au sein de l'équipe, il faut
- Courage : Les environnements très hiérarchisés produisent des leaders (instructeurs de plongée) qui ne se laissent pas critiquer par un employé (élève de plongée) sans plus attendre.
- Réflexivité : les erreurs sont toujours systémiques et donc le produit de conditions. Si, par exemple, quelqu'un a observé une erreur et ne la critique qu'ensuite, on peut se demander pourquoi cela n'a pas été noté plus tôt.
- Environnement approprié : les critiques doivent être appropriées. Il faut du temps et le moment approprié. Les critiques particulièrement fondamentales auront tendance à ne pas être exprimées lors d'une courte séance de débriefing. Et pour les discussions intensives sur les meilleurs contextes de sujets, la bière du soir est sans doute inappropriée. Un bon moment se situe probablement quelque part entre les deux, dans une situation moins mouvementée.
- Un avenir ouvert : Si les partenaires ne dépendent l'un de l'autre que pendant un moment, il est normal que les critiques particulièrement profondes soient absentes. Cela change si vous voulez continuer à progresser ensemble à l'avenir. Un avenir ouvert est donc nécessaire pour accroître la résilience globale de l'équipe.
- Écouter la voix intérieure : Cela s'applique non seulement à la mauvaise conduite personnelle soumise à une mauvaise connaissance, mais surtout à la pression du groupe. Soit dit en passant, on n'atteint la "pleine conscience" que lorsque la "voix" est portée ensemble.
- Créer constamment des opportunités de sensibilisation : Distribuer des informations qui abordent la culture de l'erreur en premier lieu et qui rendent visible dans l'équipe qui pense quoi à propos de quelles déviations comportementales. Les systèmes s'immunisent très rapidement contre les problèmes de sécurité. Il est donc nécessaire de rechercher en permanence les différentes formes par lesquelles un échange est possible, par exemple parfois par le biais de documents imprimés, parfois dans un atelier, parfois dans un exercice commun.
Une fois ces dernières étapes franchies et établies dans la culture d'équipe, le professeur Amy Edmondson de Harvard parle de la nécessaire "sécurité psychologique" qui rend possible l'apprentissage et le traitement conjoints de la culture de l'erreur. Dans ce sens moral : bonne chance pour façonner la culture !
Cet article fait partie d'une série de QM rédigés par des experts du Réseau de gestion des risques. www.netzwerk-risikomanagement.ch