22 mai 2018

Facteur humain ailleurs et en médecine

Les activités à risque ont, depuis une cinquantaine d’années, développé de nombreuses stratégies de fiabilisation face aux dangers auxquelles elles exposent leurs personnels, leurs usagers et les tiers de leur voisinage.

Ceci s’est souvent déroulé, de manière amère, en réponse à des accidents ou des taux de perte de contrôle jugés inacceptables.

La fiabilité technique a été la première voie de renforcement de la sécurité : meilleure maitrise technologique, meilleure anticipation des contraintes, meilleur suivi en maintenance, une automatisation croissante…

Ces évolutions ont, depuis les années 70 mis en exergue un frein inattendu à ces progrès : le Facteur Humain. Cette déduction a été aisée à produire : si l’analyse des causes de l’accident ne montre pas de fait technique, alors l’attribution au « Facteur Humain » s’impose, par défaut. C’est l’origine de ce concept.

L’amertume, là aussi, a été forte : il ne suffisait pas de bons systèmes, conduits avec de bonnes règles et des opérateurs bien formés pour assurer la sécurité. Pourtant, les formations, les prescriptions auraient dû produire les résultats vertueux attendus, mais, les opérateurs produisaient des comportements qu’on ne leur demandait pas et n’avaient pas que les actions attendues.

Le tournant des années 90 a incité à une seconde vague d’efforts pour accroitre la performance en sécurité. Il est devenu nécessaire de comprendre les raisons de cette fiabilité humaine qui apparaissait comme un frein à la fiabilité globale : « 75 % des accidents ont pour origine les facteurs humains » proclamait alors Boeing.

De multiples travaux sur le fonctionnement humain, sur les interfaces, sur les difficiles rapports avec l’automatisation, sur les liens entre les organisations, les opérateurs et les contextes ont progressivement permis de développer des dispositions renforçant l’interaction entre les dimensions humaines et techniques de la fiabilité et de la performance des systèmes à risque.

Ces équilibres sont sans cesse remis en cause, si ce n’est déstabilisé, du fait des multiples évolutions des systèmes complexes que sont devenues les organisations gérant des risques. 

Pour épauler ces efforts, et les innovations qui en sont résultées, des corpus réglementaires ont été développés pour que ces pratiques ne puissent être des entraves à la concurrence ou limiter les tentations d’une moins-disance potentielle.

Cela n’a pas empêché toute perte de contrôle ni toute catastrophe technologique, mais la fréquence de survenue auxquelles sont exposés les personnels, usagers et tiers a sensiblement chuté. L’aéronautique est ainsi passée, en quelques décennies, d’une fréquence de 10-5 à 10-7 accidents avec perte complète des personnes et des biens.

En particulier, le rôle spécifique de la composante humaine dans la fiabilité a été sensiblement mieux compris.

Pour l’énoncer simplement : lorsqu’un très haut niveau de performance en sécurité est exigé socialement, il ne peut être acceptable de conserver l’acteur humain comme ultime rempart que si celui-ci est accompagné d’automatismes et/ou si un collectif coopératif renforce la fiabilité individuelle.

De même, des méthodes de fiabilisation individuelles et collectives ont été développées dans les activités à risque pour étendre la portée de la performance humaine.

Tout cela pour de simples raisons :

  • Le fonctionnement humain professionnel n’est pas strictement rationnel mais largement automatisé par des routines. Ce qui explique que sa performance ne puisse être absolue.
  • Il importe de cadrer et de soutenir ces routines pour qu’elles soient performantes. Laisser leur construction à la libre initiative individuelle limite considérablement les performances collectives.
  • Le fonctionnement en situation est à la fois performant en adaptation et facilement dérouté par des interruptions, conflits, incompréhensions…
  • La dimension collective est essentielle car le groupe est un puissant agent de récupération. Cela suppose des formes adaptées de leadership, de coopération et de soutien entre ses membres
  • Les organisations sont tentées de minimiser leur rôle et les effets de leurs décisions dans la construction de la sécurité par les acteurs de première ligne.

L’énoncé des conditions de la fiabilité s’est donc singulièrement affiné :

  • il faut toujours de bons systèmes, de bonnes règles, et de bonnes formations,
  • y ont été ajoutés des acteurs entrainés aux activités coopératives, aux situations inhabituelles,
  • employant des techniques individuelles de fiabilisation,
  • ils agissent dans des contextes où les événements redoutés ont été anticipés et les barrières qui en protègent ont été vérifiées quant à leur pertinence et efficacité,
  • ces cadres s’imposent aux acteurs systémiques tant pour l’évaluation ergonomique des interfaces que pour une gestion globale des risques de l’organisation.

Durant ces décennies le monde médical, et hospitalier en particulier, a continué à camper sur une vision classique de la performance en sécurité : des experts, des bons matériels et de bonnes pratiques font la performance en sécurité.

La médecine a aussi bénéficié d’évolutions technologiques considérables et sensiblement accru ses bonnes pratiques. Elle a également généralisé la formation de ses personnels.

Par ailleurs, de très nombreuses recherches et études ont été consacrées à la compréhension du fonctionnement des personnels médicaux et à l’évaluation objective de leur performance en sécurité du patient.

Les choses se passent comme si ces recherches et études ne parvenaient qu’à griffer superficiellement une culture fondée sur l’excellence individuelle, les bonnes pratiques et s’en remettant pour le reste aux bonnes volontés et spontanéités individuelles. Cela ne fonctionne pas au regard des enjeux et de la complexité du système pour atteindre u haut niveau de performance.

Le monde médical, hospitalier, demeure en retard sur deux axes majeurs :

  • La lecture systémique des événements, qu’ils soient passés ou à venir et donc redoutés. Les industries à risque tentent de ne pas attendre l’accident pour vérifier leur performance en sécurité. La dimension proactive est devenue essentielle.
  • La prise en compte des fonctionnements humains et organisationnels pour établir des barrières réalistes et ergonomiques face à des situations vulnérabilisantes pour leurs acteurs. De nombreuses industries recherchent le renforcement en sécurité produit par le fonctionnement coopératif des équipes et les stratégies managériales positives. 

Les signes sont nombreux pour craindre que ce retard ne sera que lentement comblé :

  • La formation des médecins ne comporte par de rubriques « gestion de risque en termes FOH » qui interpellerait sur les limites d’une vision toute puissante de l’expertise pour assurer la performance en sécurité. C’est paradoxal au regard des estimations du nombre d’EIG évitables, c’est-à-dire résultant d’erreur ou de violation.
  • Curieusement, les personnels infirmiers sont mieux lotis avec 50 h de gestion de risque pour les IADE actuellement en formation. Ils pourraient bien se retrouver en situation inconfortable (voir ci-dessous).
  • L’absence actuelle de masse critique pour faire basculer la culture dominante (expertise individuelle/bonne pratique) vers une prise en compte effective des dimensions FOH (fonctionnement humain et vision systémique proactive).
  • Les outils d’analyse développés sont essentiellement rétroactifs (RMM, CREX…) alors que les gains de performance en sécurité sont bien plus efficaces sur l’axe proactif (analyse des menaces et événements redoutés, de la qualité des barrières et de leur réalisme.
  • La césure franche entre un management stratégique qui n’intègre pas les dimensions de la sécurité du patient dans ses arbitrages et objectifs et des acteurs de terrain qui y sont très directement confrontés.
  • Cette liste pourrait, sans difficulté, être allongée…/…