Vous êtes ici : Accueil / Conseils de lecture / On unpredictable events in risk analysis

On unpredictable events in risk analysis

Auteur(s)
Ingrid Glette-Iversen & Roger Flage
Numéro
Septembre 2024
DOI
/10.1016/j.ssci.2024.106652

Formats disponibles

    Résumé

    Glette-Iversen, I. & Flage, R. (2024). On unpredictable events in risk analysis. Safety Science, 180.

     

    Notre avis

    📖📖📖 Un nouvel opus de collègues norvégiens, écrit par une équipe spécialisée dans l’analyse des risques industriels à l’université de Stavanger. Le thème de la prise en compte des risques imprédictibles dans l’analyse des risques monte en puissance avec la complexité du monde. Un contenu très bien étayé et qui concerne toutes les industries à risque. À lire !

     

    Notre synthèse

    L’incertitude du futur est un défi pour toutes les sciences et particulièrement pour l’analyse prédictive des risques. Ce n’est pas nouveau, mais les récentes années montrent l’incapacité croissante des approches et méthodes traditionnelles à penser les évènements les plus extrêmes et les plus graves, souvent évoqués par les expressions de « cygnes noirs », « queue de distribution (statistique) » ; ou encore en anglais « outliers », « wildcards », deux termes sans traduction aisée en français.

    Ces évènements partagent le fait d’être imprédictibles. Les auteurs de l’article essaient de mieux comprendre ce qu’il faut entendre par ce mot « imprédictible ».

     

    5 grandes causes et 2 dimensions manquantes

    Les tentatives d’explication évoquent 5 grandes causes :
    Deux remettent en question le modèle actuel de prédiction des risques :

    1. le fait que ces évènements puissent être simplement inimaginables, inconcevables en l’état pour nos sociétés ;
    2. leur explication par la théorie de la complexité et le fait qu’ils renvoient à une incertitude irréductible.  

    Et trois restent compatibles avec le modèle actuel :

    1. le fait que les modèles disponibles soient encore imprécis sur le domaine d’activité et sur les relations de causes à effet ;
    2. l’absence de précurseurs connus, de signaux d’alerte, là encore faute de connaissances ;
    3. ou/et le fait que les modèles disponibles renvoient à l’absence de probabilité affectable à des évènements qui, de fait, les rendent théoriquement impossibles pour les spécialistes quelle que soit leur gravité potentielle.

    Face à la prédiction de ce risque marginal, l’analyse des risques – tout en restant dans sa logique et ses fondements sur les relations de fréquence, gravité, précurseurs et relation de causes à effets – reconnaît progressivement deux dimensions manquantes à l’existant :

    • L’importance de la dimension du temps dans la prédiction, à la fois dans le calcul initial de survenue dans la vie du système et aussi dans le temps laissé à l’appréciation et la nature des conséquences après l’accident, avec la difficulté récurrente d’évaluer ces conséquences plus lointaines en regard de la simplicité d’évaluation des conséquences à court terme.
    • L’importance de l’identification des trous de nos modèles de connaissances : que sait-on de ce que l’on ne sait pas (« known-unknown », en opposition au « unknown-unknown ») ?

     

     

    Les principales causes identifiées

     

    La suite de l’article revient sur les principales causes identifiées plus haut et les développe.

    L’absence de probabilité affectable à ces évènements :

    Cette absence de probabilité peut être interprétée de différentes façons.

    Objectivement, par un calcul qui s’avère impossible même si un très grand nombre d’itérations (quasi infinies) sont considérées. Il peut s’agir aussi de manque de connaissances et de données pour établir un calcul fiable. À noter l’interprétation alternative de Cavalcante (2013) qui considère que les évènements imprédictibles obéissent aux mêmes mécanismes que d’autres évènements plus classiques. Ils peuvent donc être estimés en fréquence, mais c’est la composante « gravité » qui ne peut pas être estimée, faisant ainsi méconsidérer des évènements recensés mais mal évalués.

    Subjectivement, par une croyance que l’évènement serait impossible. Ce dernier cas est toujours possible, mais sans garantie de la connaissance de celui ou de celle qui formule cette impossibilité.

    L’absence de modèle précis de comportement et de relation de causes à effets :

    Là encore, plusieurs interprétations sont possibles. Il peut s’agir du modèle lui-même ou des évènements imprédictibles qui ne peuvent pas être modélisés du fait même qu’ils sont encore inconnus. Dans ce cas, il suffirait qu’ils se produisent une fois pour devenir concrets et faire partie des entrées du modèle. D’autres évoquent la complexité et attribuent l’absence de prédictibilité à l’absence de lien de cause à effet et à la non-linéarité de certains évènements.

    On notera que cette voie de l’acquisition continue des connaissances apparaît infinie et ne fait que repousser le problème. Elle ferme sans arrêt des ignorances qui permettent de retrouver la prédictibilité, mais ouvre aussi sans arrêt de nouvelles brèches avec la découverte de nouveaux pans de connaissances manquantes et de nouveaux évènements imprédictibles « un pont plus loin ».

    L’absence de précurseurs ou d’alertes précoces renvoi à l’idée de « surprise » :

    Dans ce cas le modèle peut être exact, les conditions sont idéales sans limitations d’accès aux leçons du passé, mais la surprise arrive quand même souvent comme un dépassement des conditions usuelles avec une intensité et une dimension catastrophique hors de toute attente (Cox, 2012).

    L’existence d’une incertitude irréductible :

    On parle d’incertitude ontologique, comme un manque fondamental de connaissance et d’information. On retrouve l’idée d’évènements inimaginables, hors du champ de l’expérience vécue (« cygnes noirs », « unknown-unknowns »).

    Russo (2017) parle de son côté d’incertitude imprédictible, en adoptant une perspective épistémique plutôt qu’ontologique. L’imprédictibilité serait réduite par l’acquisition de connaissances. Certains auteurs font aussi néanmoins remarquer que l’acquisition de connaissances avant l’évènement est impossible, de sorte qu’il n’y a pas de solution pour améliorer la prédiction avant la survenue puisque les solutions épistémiques ne réfèrent qu’à l’après.

     

     

    Quel cadre retenir pour comprendre et évaluer concrètement l’imprédictibilité dans l’analyse traditionnelle des risques ?

     

    Dans le contexte de l’analyse des risques, le risque est vu comme une combinaison d’évènements (A) et de leurs conséquences (C) avec une incertitude associée à leur occurrence (U).

    On accepte l’existence de A’ et C’ comme des conditions particulières au contexte, avec l’idée que certains évènements et effets peuvent s’ajouter au modèle de base dans un contexte particulier. Les incertitudes propres à A’ et C’ permettent la mesure d’une imprédictibilité Q dans un contexte de connaissance K (qui forcément ne couvre pas la totalité de la connaissance nécessaire à la modélisation de tous les risques). On peut établir une probabilité P de survenue de l’imprédictible en fonction de la force/croyance attribuée à cette connaissance possédée SoK (Strength of Knowledge) : Q = (P, SoK).

    Cette croyance sur la valeur de notre connaissance – et ses limites – dépend de notre compréhension du monde, du consensus d’avis d’experts, du recul et de la confiance qu’on a bâtis avec le modèle de comportement général liant A à C, du recul acquis sur la survenue passée de surprises. On fait aussi intervenir notre vision du temps, à la fois dans la survenue des évènements (centennal, décennal, annuel…) et dans l’intervalle de temps dans lequel s’inscrit l’observation des risques (10 ans d’une structure… ou sa vie complète ?), et de même pour l’intervalle de temps de mesure des conséquences des sinistres.

    On notera que selon les hypothèses que l’on forme sur l’imprédictibilité (référence aux points cités précédemment), les composantes mises en cause dans la mesure de cette imprédictibilité varient (il peut s’agir de A’, C’, Q, K et/ou SoK).

     

    L’imprédictibilité dans le cadre des approches modernes d’analyse des risques

    Le manque de connaissance renvoie à trois situations/conditions récurrentes :

    1. L’impossibilité de décrire le spectre/la variété des contextes nourrissant A’ et C’, rendant certains contextes et leurs descripteurs A’ et C’ totalement inattendus ;
    2. L’impossibilité de décrire la probabilité de certains évènements reconnus comme possibles (expression de l’incertitude Q) ;
    3. L’absence de référence sur certains précurseurs encore jamais vus.

    Le degré d’imprédictibilité contextuel va dépendre de ces trois conditions non exclusives, sans oublier le temps de référence pris en compte pour la mesure (court terme et/ou long terme) qui devient un élément essentiel de modulation des valeurs de ces conditions.

    Au total, la mesure de l’imprédictibilité apparaît plus comme variable, en étant le résultat d’une fluctuation sur un spectre relativement contraint par ces trois conditions.

    On notera que la mesure des effets à court terme est toujours plus prédictible que celle à long terme. Mais pire, la mesure des effets à long terme quand elle devient possible peut remettre en cause ce que l’on croyait prédictible (ou non) à court terme en changeant le périmètre d’observation des conséquences et les critères à adopter et en transformant l’incertitude du court terme en faits avérés. Cette dimension temporelle oppose ainsi :

    • Une valeur prospective de l’imprédictibilité, où l’évènement reste redouté avec une force de connaissance variable allant de la conviction au-delà du démontrable scientifiquement (justified true beliefs) à quelque chose de plus pragmatique limité au savoir attesté et qui se modifie au fil du temps (justified beliefs) avec des variations de calcul dans sa probabilité, du comportement de causes à effets, etc.
    • Une valeur rétrospective de l’imprédictibilité, où la connaissance de l’évènement est définitivement avérée, où il devient possible de valider ou d’invalider certaines croyances et convictions.

     

    Plus généralement, l’analyse nous rappelle que l’ensemble des éléments décrits précédemment s’inscrit dans un temps qui s’écoule et change continuellement la mesure de l’imprédictibilité, et qui doit donc pousser à une révision continuelle de l’analyse des risques pour en éviter une obsolescence rapide.

     

    Un commentaire de Jean Pariès :

    L’analyse des risques repose sur une double hypothèse de prévisibilité : 1) prévisibilité au sens de l’identification possible des (…idéalement de tous les…) phénomènes générateurs de dommage accidentels, et 2) prévisibilité au sens de l’évaluation possible de la fréquence d’occurrence future et de la gravité potentielle de ces phénomènes. Pour pouvoir servir utilement à la gestion des risques, cette identification et cette évaluation doivent pouvoir se faire a priori. En cela elles dépendent de la disponibilité de connaissances sur le monde et sur son comportement futur. Ce « modèle anticipateur du monde » résulte de constats empiriques et de la théorisation des invariants, mais également de constats sur les manifestations passées du risque, incidents et accidents, sur leur fréquence et gravité, et sur leurs relations perçues de cause à effet. La disponibilité d’un tel modèle de causalité permet à la fois de ‘calculer’ les fréquences d’occurrence d’événements rares résultant de combinatoires d’événements plus fréquents, et de pointer dans ces combinatoires des ‘précurseurs’, signes avant-coureurs ‘faibles’ mais repérables du développement en cours d’une séquence. Ces signes avant-coureurs constituent un complément essentiel pour diminuer le degré de surprise, car le hasard ne répartit pas les événements de façon homogène dans le temps.

    Le fait que des séquences d’événements surgissent à des fréquences incohérentes avec ces prévisions, ou bien sans avoir été prévues du tout, ou pire encore, apparaissent rétrospectivement imprévisibles, marque donc la limite des méthodologies d’analyse des risques. Les auteurs de cet article cherchent en conséquence à clarifier la notion d’imprévisibilité et ses différentes facettes, afin d’en déduire des pistes de dépassement de cette limite. Ils proposent ainsi une classification de ‘l’imprévisibilité’ suivant cinq types, appuyée sur une large revue de littérature, mais qui ne réduit pas vraiment la polysémie du mot. Puis ils se livrent à une analyse détaillée, et ensuite formalisée, de la nature de l’imprévisibilité dans chaque cas. Du fait du manque d’une vision synthétique sur la nature de l’imprévisibilité, cette analyse détaillée est fort exigeante pour l’attention du lecteur. Et il n’est pas sûr que la formalisation plus abstraite proposée ensuite apporte à ce même lecteur les éclaircissements pédagogiques qu’il pouvait en attendre.

    Pourtant les auteurs mentionnent bien la distinction classique entre imprévisibilité ontologique, irréductible car intrinsèque au type de variabilité des phénomènes considérés, et l’imprévisibilité épistémique, liée à l’incomplétude ou l’insuffisance des connaissances et modèles sur les phénomènes - et donc potentiellement réductible en améliorant les connaissances. Il est dommage qu’ils ne l’exploitent pas davantage car elle donne un cadre de classification en deux ‘paquets’ relativement disjoints : d’un côté complexité, émergences, incertitude irréductible, espace possiblement non probabilisable, causalité circulaire et non linéaire, absence de précurseurs ; de l’autre côté, insuffisance de données, modèle faux ou incomplet, risque inimaginable.

    L’ambition d’étendre l’analyse des risques du côté des territoires de l’imprévisible amène les auteurs à des suggestions intéressantes, dépassant les classiques exhortations à faire plus et mieux ce qu’on fait déjà (en augmentant les connaissances, les données et les puissances de calcul). Ils évoquent ainsi l’intérêt de chercher à évaluer l’incertitude sur l’incertitude, en l’occurrence sur le niveau d’imprévisibilité, et proposent des méthodes basées sur les méta-connaissances, c’est-à-dire une estimation de la confiance attribuable aux connaissances utilisées.

    Mais il faut noter à cet égard que bien souvent, le manque de connaissances et les carences de la modélisation, par exemple par simplification ou linéarisation excessives, ne créent pas de l’imprévisibilité, mais au contraire une prévisibilité illusoire. Le problème n’est alors pas l’imprévisibilité, mais la non-reconnaissance de celle-ci dans les stratégies de sécurisation. Comme la gestion des risques est basée sur cette illusion, elle génère des grandes ‘surprises’, qui appellent à améliorer la prévisibilité, et donc l’illusion, car c’est souvent impossible dans le cas de systèmes complexes au-delà d’un certain horizon de temps. Les auteurs ont donc bien raison de mentionner l’importance des horizons de temps considérés, à la fois rétrospectifs et prospectifs. Mais ils n’en soulignent pas assez les difficultés.  Car les systèmes et leurs contextes évoluent en permanence, les menaces et les relations de cause à effet changent avec le temps, et les rétroactions. Ce qui va casser la tasse ne fait pas partie de son histoire. Les antibiotiques sauvent à court terme, et à long terme, renforcent les pathogènes et affaiblissent l’immunité.

    En conclusion, les auteurs de cet article nous proposent une analyse parfois compliquée mais toujours intéressante des sources et des défis de l’imprévisibilité pour l’analyse des risques. Ils nous proposent aussi des pistes de progrès pour réduire ou contourner l’imprévisibilité. Mais à trop vouloir ‘sauver le soldat Analyse des Risques’, ils oublient parfois que le plus important est que la gestion des risques reste lucide sur les limites de l’analyse des risques.