Vous êtes ici : Accueil / Conseils de lecture / Comparisons of human reliability data between analog and digital environments

Comparisons of human reliability data between analog and digital environments

Auteur(s)
Park, J. & Kim, Y.
Numéro
2022 Mai
Centre d'intérêt
Les Facteurs Humains Et Organisationnels De La Securite

Formats disponibles

    Résumé

    Park, J. & Kim, Y. (2022). Comparisons of human reliability data between analog and digital environments, Safety Science, 149, 105701. doi: https://doi.org/10.1016/j.ssci.2022.105701

     

    Notre avis

    📖📖📖 Quelles que soient les nouvelles approches de la sécurité sur l’erreur humaine et la fiabilité des installations (HRO, résilience engineering ou autres), ces approches classiques gardent totalement leur raison d’être. Elles fondent encore le calcul et la démonstration de sûreté de nos centrales nucléaires et il en va de même pour bien d’autres industries ; d’où l’intérêt de bien en comprendre l’approche ce qui est bien fait dans cet article écrit par des auteurs coréens.
     

    Notre synthèse

    Les approches probabilistes (Probabilistic Risk Assessment, PRA ; Probabilistic Safety Assessment, PSA) constituent l’une des principales façons d’aborder la sûreté nucléaire. Cette approche inclut une de ses composantes qui évalue la fiabilité humaine (Human Reliability Assessment, HRA ; Human Error Probability, HEP) à partir d’une analyse de probabilité d’erreur humaine dans les diverses opérations de conduite et de maintenance des centrales nucléaires. L’évolution des salles de contrôle des réacteurs vers des interfaces numériques questionne les données de probabilité d’erreur humaine jusque-là établies sur une conduite classique bien plus analogique.

    Présentation de l’étude

    Cette étude coréenne (le projet HuREX - Human Reliability data Extraction) pilotée par le Korea Atomic Energy Research Institute (KAERI) compare les résultats obtenus dans les deux situations, numérique versus analogique. Elle analyse les types et fréquences d’erreur dans 21 tâches de base, largement procéduralisées, communes aux deux types d’interface.

    Les 21 tâches sont :

    1. la détection d’alarme,
    2. la détection de changement de valeur d’un indicateur,
    3. la vérification d’info de synthèse,
    4. la lecture d’une valeur d’indicateur,
    5. la comparaison de paramètres,
    6. la comparaison de courbes,
    7. la détection d’anormalité,
    8. l’évaluation de tendances,
    9. la mise en route d’une procédure,
    10. le passage d’une procédure à une autre,
    11. le passage d’un pas de procédure au suivant,
    12. la validation de réception d’une information,
    13. la validation d’une action,
    14. la validation d’un ordre transmis,
    15. le diagnostic,
    16. l’identification d’un statut global de la situation,
    17. la prédiction,
    18. l’action sur un contrôle isolé,
    19. l’action sur un contrôle continu,
    20. une action dynamique,
    21. l’appel ou la notification à une instance extérieure à la salle de contrôle.

    La méthode utilise le simulateur, conduit par des opérateurs de centrales en Corée, sur une variété de scénarios normaux et incidentels utilisés dans le cadre des formations des opérateurs, et supposés équivalents dans les deux cas. Les erreurs sont codées en erreurs d’omission (omission errors) et en erreurs par mauvaise exécution (commission errors).

    Sur les simulateurs reproduisant les interfaces de conduite analogique, l’étude a permis de coder 129 erreurs (83 d’omission, 46 d’exécution). Un tableau est proposé dans l’article avec les fréquences des erreurs observées sur chaque tâche (certaines tâches manquent car elles n’ont pas été observées). Les fréquences observées selon les tâches de types d’erreur vont de 1,6 10-2 à 2 10-3 (2 pour 100 à 2 pour 1 000).

    Sur les simulateurs reproduisant des interfaces de conduite numérique, l’étude a permis de coder 251 erreurs (158 d’omission, 93 d’exécution), avec à la clé le même tableau de fréquence par tâches. Les fréquences vont de 1,2 10-2 à 3,85 10-5, avec une majorité de valeurs supérieures à 2 10-4 (de 2 pour 100 à 3 pour 100 000).

    Comparaison des résultats

    La comparaison des deux séries de résultats pose des questions diverses. Les auteurs s’attachent longuement à expliquer que les situations sont effectivement comparables pour les scénarios testés (entre analogique et numérique) et qu’elles sont aussi conduites dans des contextes similaires.

    La fiabilité humaine dépend notoirement de « facteurs ou contextes influençant la performance » (Performance shaping factors, PSF ; ou Performance influencing factors, PIF). Les facteurs/contextes ont été répertoriés en cinq grandes catégories :

    • Organization-based (Training program, Workplace adequacy, Procedure),
    • Team-based (Communication, Team coordination),  
    • Person-based (Alertness, Skills, Morale/Motivation/Attitude),  
    • Situation/stressor-based (Conditioning events, Task load, Perceived situation),  
    • Machine-based (HIS - human interface system).

    Dans la mesure où l’exploitant reste le même, sur des centrales situées sur le même sol (pays), avec les mêmes procédures et des scénarios équivalents, il est fait hypothèse qu’il n’y a pas de variation significative de PIF/PSF entre les deux modalités de contrôle, sauf pour le facteur « human interface ». Le taux d’erreur est donc bien comparable.

    Or on voit que les interfaces numériques semblent s’associer à une réduction du taux d’erreurs humaines. Le taux global d’erreurs toutes catégories confondues s’avère 53,4 fois plus faible sur les interfaces numériques par rapport aux interfaces analogiques.

    L’interface numérique semble aussi plus à même d’aider à la détection-récupération des erreurs de compréhension.

    Toutefois, certaines tâches restent peu sensibles à cette amélioration. C’est le cas de la tache 2 (détection d’un changement de valeur sur un indicateur) et de la tache 10 par exemple (transition entre deux procédures). Ceci montre que l’interface numérique ne résout pas tout.

    Discussion et conclusion

    Des chiffres recueillis, il peut être déduit qu’il ne faut pas garder les chiffres des erreurs recueillis sur un réacteur classique avec conduite analogique pour certifier la sécurité d’un réacteur conduit par une interface numérique. Il faut reprendre et réactualiser toute l’analyse de fiabilité.

    Pour aller plus loin, l’étude s’est aussi penchée sur les causes des erreurs en dressant une taxinomie de ces causes, basées sur 4 causes déjà repérées dans les anciennes analyses qui ont guidé le repérage de contextes ou conditions favorables avant l’erreur observée, et en les faisant évoluer avec les nouvelles interfaces.

    Parmi ces facteurs causaux, l’expérience des opérateurs apparaît en premier, particulièrement s’agissant d’équipes de réserve, moins habituées aux routines, et particulièrement sur les nouvelles interfaces. Ces équipes ne sont normalement pas utilisées sur site dans les activités usuelles, à l’exception des managers ou des personnels de renfort particuliers.

    Il se pourrait cependant que la taxinomie des erreurs utilisée, basée sur la distinction omission/exécution, ne représente pas complètement les erreurs liées à l’incompréhension de l’état et du comportement de la machine, et donc très dépendantes de la justesse du modèle mental dont en disposent les opérateurs. La complexification associée à la digitalisation pourrait ainsi entrainer une augmentation de la probabilité de telles erreurs, non détectable par la méthode employée.

    Un autre point de discussion voisin du précédent tient à ce que savent — et ne savent pas — émuler les simulateurs. Ils sont eux-mêmes conçus dans un univers de rationalité qui n’est parfois pas totalement le reflet du réel (en particulier, ces simulateurs ne savent pas très bien — voire pas du tout — émuler des bugs informatiques).

    Les autres points de discussion portent sur les facteurs d’ambiance, de contexte et d’environnement qui ne se résument pas qu’à l’interface neuve, lorsqu’on compare une centrale neuve et une centrale très vieillissante proche de sa fermeture. Pour le dire autrement, les erreurs dans ces deux cas ne sont peut-être pas uniquement liées à l’interface.

    Enfin, cette étude coréenne sur les nouvelles interfaces homme-machine n’est pas la seule au monde. Une question de fond reste la fusion des données entre les différentes bases des exploitants pour nourrir des bases plus solides et plus internationales.