Collapsing Structures and Public Mismanagement
Seibel, W. (2022). Collapsing Structures and Public Mismanagement. Palgrave Macmillan / Springer Nature
Our opinion
Ce mois-ci, nous avons choisi un ouvrage qui, bien que ne provenant pas de la communauté des chercheurs en safety science ni concernant des industries à risque d’accident majeur, décrit différents processus organisationnels et politiques pouvant entraver une gestion saine des risques, qui ne sont peut-être pas totalement étrangers à nos lecteurs.
Analysant quatre cas d’accidents en génie civil, l’auteur explique comment la fragmentation institutionnelle, la délégation mal maitrisée de la responsabilité pour les enjeux de sécurité, l’érosion des normes d’intégrité professionnelle, la politisation des décisions et l’ignorance intentionnelle ont conduit à une négligence managériale qui a permis que se produisent ces catastrophes.
Notre synthèse
Rédigée à l’aide d’un système d’IA.
L’ouvrage de Wolfgang Seibel, professeur de sciences politiques et d’administration publique à l’Université de Constance (Allemagne), s’intéresse à l’impact tragique du mauvais management public sur la sécurité des citoyens, en analysant de façon approfondie des cas réels où l’effondrement de structures construites ou surveillées par des autorités publiques a causé des pertes humaines importantes. Alors que l’ingénierie et la sécurité technique sont souvent mises en avant, Seibel souligne que la négligence managériale, institutionnelle et bureaucratique joue un rôle central dans ces défaillances. À travers l’analyse comparée de quatre cas emblématiques tirés d’Australie, de Nouvelle-Zélande, des États-Unis et d’Allemagne, l’auteur élabore une théorie des mécanismes causaux du dysfonctionnement administratif : la dilution de responsabilité, l’ignorance intentionnelle, la sécurité papier, l’érosion de l’intégrité professionnelle et la politisation de décisions techniques.
Sur le plan théorique, l’ouvrage s’inscrit dans le débat entre la théorie de l’accident normal de Charles Perrow, qui soutient que certains systèmes organisationnels complexes engendrent inévitablement des accidents, et celle de la haute fiabilité (HRO), qui au contraire affirme que des organisations peuvent maintenir un haut niveau de fiabilité même dans des contextes à risque, à condition de mettre en place des modes d’organisation qui intègrent la sécurité comme composante essentielle de leur performance et d’adopter des pratiques professionnelles porteuses de sécurité. Seibel prend le parti de la théorie HRO : prévenir la catastrophe par la surveillance publique est, en soi, fondamentalement réalisable ; la difficulté réside dans la résistance aux incitations qui menacent l’intégrité professionnelle. L’auteur récuse ainsi les explications purement structurelles ou bureaucratiques, et recentre l’analyse sur les acteurs, leurs motivations et leurs responsabilités.

Dans la préface, Seibel contextualise son travail dans l’année 2020 marquée par la pandémie de Covid-19, qui a révélé l’importance cruciale des agences publiques pour protéger la vie humaine. L’ouvrage pose deux questions centrales : qu’explique l’échec improbable des agences d’expertise et pouvoirs publics à sauvegarder la sécurité ? Et que peut-on généraliser de cas rares pour l’apprentissage et la prévention ? Le chapitre introductif pose les fondements conceptuels et méthodologiques de l’ouvrage. L’auteur mobilise la métaphore du « cygne noir » empruntée à Nassim Nicholas Taleb pour désigner des événements rares, imprévisibles et aux conséquences massives. Toutefois, Seibel nuance cette notion : les effondrements de structures publiques ne sont pas entièrement imprévisibles ; ils suivent des trajectoires de causalité sociale reconnaissables, qui auraient pu être interrompues par une vigilance institutionnelle appropriée.
L’auteur présente quatre cas d’effondrement
• Le pont West Gate à Melbourne (1970)
• Le pont I-35W sur le Mississippi à Minneapolis (2007)
• L’immeuble Canterbury Television à Christchurch (2011)
• La patinoire de Bad Reichenhall (2006)
Il justifie leur sélection par la richesse de leur documentation empirique (commissions d’enquête, archives judiciaires) ainsi que par la diversité des contextes institutionnels qu’ils représentent.
L’effondrement du pont West Gate à Melbourne (1970)
Le second chapitre analyse l’effondrement de la travée 10-11 du pont West Gate à Melbourne, qui tua 35 ouvriers et ingénieurs alors que la structure était encore en construction. L’enquête d’une Commission royale révéla que la catastrophe résultait d’une combinaison entre une conception structurale ambitieuse et non conventionnelle, une méthode d’érection inhabituelle, et une gestion fragmentée et conflictuelle du chantier, dont les effets délétères n’ont pas été maîtrisés par les autorités responsables.
Le mécanisme causal central identifié par Seibel est celui de la « responsabilité évaporée ». Les pouvoirs de réglementation et de contrôle avaient été délégués à un organisme quasi-public (QUANGO), ce qui a dilué les structures de responsabilité et affaibli de manière décisive la capacité de coordination et de contrôle de l’agence. L’autorité compétente manquait des ressources techniques et de l’autorité fonctionnelle nécessaires pour superviser correctement des entrepreneurs en conflit permanent.
L’auteur retrace le contexte urbain dans lequel le projet s’est développé : la nécessité de désengorger la traversée de la rivière Yarra entre Port Melbourne et Williamstown, deux banlieues séparées, et les décisions prises dans les années 1960 quant à la conception et au mode d’attribution des marchés. La fragmentation contractuelle entre plusieurs entrepreneurs principaux et des ingénieurs conseils généra une rivalité contre-productive, des désaccords techniques non résolus et une incapacité à imposer des corrections au moment critique. L’analyse met en évidence comment l’absence d’un organe de supervision doté d’une autorité réelle constitua la condition nécessaire à la catastrophe. Ce cas montre comment un excès de fragmentation institutionnelle et de délégation de responsabilités peut mener à une perte de contrôle organisationnel et à des décisions techniques dangereuses.
L’effondrement du pont I-35W sur le Mississippi (2007)
Le troisième chapitre examine l’effondrement du pont I-35W à Minneapolis, qui coûta la vie à 13 personnes. L’enquête du National Transportation Safety Board (NTSB) établit que la cause directe fut la défaillance de plaques de gousset (gusset plates) sous-dimensionnées dès la conception originale du pont en 1967 par un bureau d’études, et jamais détectées lors des révisions ultérieures.
Le mécanisme causal mis en lumière est celui de l’« ignorance intentionnelle ». Le département du transport du Minnesota avait systématiquement évité de procéder à une analyse de charge complète qui aurait nécessairement mis en évidence les faiblesses structurelles du pont, et donc rendu obligatoire une rénovation coûteuse. Les responsables savaient que le pont présentait des défis budgétaires considérables : identifié dès 2004 comme un des ponts « budget buster », son remplacement complet avait été d’emblée écarté en raison du coût considérable et des perturbations de trafic engendrées. Les discussions de 2006 portèrent sur le remplacement du tablier, non sur la poutre en treillis, et a fortiori pas sur les goussets.
Seibel souligne que des photographies de goussets endommagés existaient depuis 1999 (Université du Minnesota) et surtout depuis 2003 (cabinet URS), mais furent délibérément ignorées ou minimisées. Le NTSB conclut explicitement que, si une évaluation de la capacité portante avait été effectuée avant l’ouverture du pont, l’erreur de conception aurait pu être détectée. Ce cas illustre comment une organisation publique peut institutionnaliser l’ignorance pour éviter de prendre des décisions politiquement et financièrement inconfortables, au prix d’un risque croissant pour la sécurité publique.
L’effondrement du bâtiment CTV à Christchurch (2011)
Le quatrième chapitre est consacré à l’effondrement de l’immeuble Canterbury Television (CTV) lors du séisme de 2011 à Christchurch, en Nouvelle-Zélande. Cet événement est le plus meurtrier des quatre cas analysés : 115 personnes perdirent la vie, dont de nombreux étudiants étrangers inscrits dans une école de langues hébergée dans le bâtiment. La Commission royale néo-zélandaise établit que le permis de construire avait été accordé en 1986 par le Christchurch City Council (CCC) malgré des lacunes structurelles graves.
Le mécanisme causal central est l’érosion de l’intégrité professionnelle. L’ingénieur en chef David Harding avait utilisé un logiciel de calcul structurel dont il méconnaissait les limites et n’avait jamais conçu auparavant de bâtiment multi-étages présentant les caractéristiques spécifiques du CTV. Son supérieur, Alan Reay, n’avait contrôlé aucun détail structurel du bâtiment. Le responsable des permis au CCC, Bryan Bluck, avait accordé le permis sous l’influence personnelle de Reay, qui avait sollicité une intervention pour contourner les réserves émises en interne — compromettant ainsi son intégrité professionnelle et celle de l’institution.
Seibel insiste sur l’accumulation de « points de bascule manqués » : en 1990, lors d’une inspection commandée par le Canterbury Regional Council en vue de l’acquisition du bâtiment, l’ingénieur John Hare avait identifié une non-conformité structurelle majeure, mais cette information n’avait pas été transmise à l’autorité compétente. Après le premier séisme de septembre 2010, le CCC n’avait pas exigé d’analyse structurelle du bâtiment, lui accordant un « placard vert » le déclarant apte à l’usage. La faiblesse des joints entre les planchers et les murs de refend, cause probable de l’effondrement, était ainsi connue de manière implicite depuis des années, sans que personne n’ait jugé nécessaire d’agir formellement.
Ce cas illustre comment, au fil du temps, des normes professionnelles peuvent être relâchées, et comment des pressions institutionnelles et bureaucratiques peuvent saper les pratiques d’ingénierie pourtant essentielles à la sécurité.
L’effondrement de la patinoire de Bad Reichenhall (2006)
Le cinquième chapitre examine l’effondrement du toit de la patinoire municipale de Bad Reichenhall, en Bavière (Allemagne), survenu en janvier 2006 après de fortes chutes de neige. Quinze personnes trouvèrent la mort, dont douze enfants âgés de 7 à 15 ans et trois mères qui les accompagnaient ; 34 autres furent blessés. Les procès judiciaires conclurent que la ville de Bad Reichenhall avait gravement négligé l’entretien du bâtiment pendant une longue période, malgré des signes évidents d’infiltration d’eau et de fragilisation de la structure du toit.
Le mécanisme causal central mis en avant par Seibel est la « politisation du non-politisable ». Le maire de la ville admit devant le tribunal avoir délibérément fait obstruction à la décision du conseil municipal de rénover la patinoire, parce qu’il avait l’intention de la démolir pour construire à la place un centre moderne de loisirs et de bien-être. Il utilisa ainsi son pouvoir pour subordonner une question de sécurité physique — qui, par nature, ne devrait pas être soumise à des calculs politiques — à une vision d’aménagement urbain personnel. L’autorité technique de la ville non seulement ne neutralisa pas cette dérive, mais en appliqua les conséquences dommageables au détriment de la sécurité des usagers de la patinoire.
Seibel montre comment l’ingénieur civil condamné en première instance avait cumulé trois manquements professionnels : construction non conforme au permis approuvé, calcul statique insuffisant et surveillance défaillante du processus de fabrication. Ces fautes techniques, cependant, se sont développées dans un environnement institutionnel où la pression politique avait rendu illusoire tout contrôle indépendant de la sécurité. Ce cas illustre comment la « logique politique » peut envahir et corrompre la « logique technique », avec des conséquences fatales.
Conclusion : apprentissage stratégique et haute fiabilité situationnelle
Le dernier chapitre articule les enseignements transversaux tirés des quatre cas, et formule une théorie normative de la prévention des catastrophes administratives. Sur la base d’une synthèse comparative des mécanismes causaux identifiés, Seibel dégage une grille d’analyse applicable à d’autres contextes de gestion publique.
La comparaison croisée met en évidence que, malgré la diversité des contextes nationaux et des types d’infrastructures, les mêmes grandes familles de mécanismes causaux sont à l’œuvre :
- la dilution de la responsabilité (West Gate),
- l’évitement délibéré de l’information menaçante (I-35W),
- l’érosion des normes professionnelles par des relations de connivence (CTV)
- et la subordination des impératifs de sécurité à des logiques d’intérêt politique ou personnel (Bad Reichenhall).
Dans tous les cas, les conditions de la catastrophe étaient connues ou connaissables, et auraient pu être neutralisées par un contrôle institutionnel adéquat.
Seibel développe alors le concept de « haute fiabilité situationnelle » (situational high reliability), par opposition à l’idée d’organisations hautement fiables au sens permanent. Il soutient que les autorités publiques ne sont pas des organisations à haute fiabilité par nature, mais qu’elles doivent agir comme telles dès lors que des enjeux de sécurité sont en jeu. Cette fiabilité est situationnelle : elle doit être activée en réponse à des signaux d’alerte spécifiques. Cela implique une capacité organisationnelle à reconnaître ces signaux et à leur donner la priorité sur des considérations budgétaires, politiques ou relationnelles.
La proposition centrale de l’auteur est celle de l’« apprentissage stratégique » (strategic learning). Plutôt que de s’en remettre à des réformes structurelles bureaucratiques abstraites, il préconise un apprentissage ciblé sur la neutralisation des menaces à l’intégrité — financière, professionnelle, politique — et sur le renforcement du sens des responsabilités des agents publics. Cet apprentissage doit être stratégique car il doit répondre aux configurations spécifiques de vulnérabilité identifiées par l’analyse des mécanismes causaux. La question n’est pas de réformer globalement l’administration publique, mais d’identifier précisément les points de rupture dans les chaînes de responsabilité et de doter les acteurs institutionnels des ressources — normatives, procédurales et politiques — pour y résister.
Commentaire d’Éric Marsden, responsable de programmes à la Foncsi
Les cas étudiés dans cet ouvrage relèvent de l’ingénierie civile, plutôt que du monde des industries à risque avec lequel la Foncsi est plus familière. Néanmoins, nombre de thèmes communs à ces deux secteurs apparaissent à la lecture.
Plusieurs cas illustrent la difficulté que rencontrent des autorités pour contrôler des activités complexes, faute de compétences internes adaptées. Ce problème dans la relation contrôleur-contrôlé se retrouve dans plusieurs accidents industriels emblématiques (Boeing 737 Max par exemple), et devient de plus en plus marqué avec l’importance croissante de systèmes technologiques complexes comme les systèmes à base d’IA.
La fragmentation des responsabilités se retrouve dans de nombreux cas d’accident. S’agissant du pont Francis Scott Key de Baltimore (USA) détruit par la collision d’un porte-conteneurs en 2024, on retrouve pas moins de neuf organismes et parties prenantes avec des rôles de gestion, de financement, de contrôle, de conseil sur les standards de construction applicables, qui ont retardé la décision d’entreprendre de (coûteux) travaux d’amélioration des protections de l’ouvrage. Lors du procès de l’incendie de l’immeuble Grenfell Tower (Londres, 2017, 72 morts), 19 organismes étaient mis en cause, allant du bureau d’étude, les entreprises effectuant la rénovation, les fournisseurs de matériel isolant inadapté à l’utilisation sur les immeubles de grande hauteur, le laboratoire de test des matériaux, l’organisme ayant agrée le laboratoire, et les autorités publiques. L’incendie du métro de King’s Cross (Londres, 1987, 31 morts) constitue un autre exemple : une multiplicité d’organisations (London Underground, British Transport Police, London Fire Brigade) se partageaient une juridiction fragmentée sur la sécurité du réseau, sans qu’aucune n’en ait la responsabilité claire.
La prédominance d’une logique financière de maximisation de la valeur actionnariale sur les enjeux de sécurité à long terme, et la faiblesse des indicateurs de sécurité pour alimenter la gestion du risque de catastrophe, se retrouve dans de nombreux arbitrages rendus. On retrouve de tels phénomènes dans l’explosion de la plateforme pétrolière Piper Alpha (1988, 167 morts), où une pression économique et organisationnelle avait progressivement érodé les pratiques formelles de permis de travail jusqu’à les rendre ineffectives, et dans la catastrophe de Texas City (2005, 15 morts) où de nombreux signaux répétés de la dégradation technique des installations avaient été ignorés par l’exploitant au nom de la réduction des coûts de maintenance.
La question des audits sécurité basés sur une conformité papier superficielle, plutôt que sur une analyse poussée de l’état des pratiques organisationnelles ou structures techniques, est présente dans des accidents comme celui de Deepwater Horizon (2010, USA). Dans le cas du pont I-35W, des procédures conçues pour permettre une bonne maintenance ont perdu leur sens pour devenir des rites, des obligations « papier ». Le système de contrôle était caractérisé par une préoccupation pour la conformité et par une simplification excessive des rapports techniques pour les rendre compatibles avec les bilans comptables (contraires donc à la préoccupation pour l’échec et la réticence à simplifier les interprétations mises en avant par la théorie des organisations à haute fiabilité).
Barry Turner (Man-made disasters, 1978) affirme que les catastrophes sont précédées d’une longue période d’incubation durant laquelle des signaux d’alerte sont ignorés ou mal interprétés. Cette théorie est illustrée dans le cas du pont Morandi par la corrosion des haubans, connue depuis les années 1990, mais qui dans un processus de glissement d’une maintenance préventive vers une maintenance purement réactive témoigne d’une acceptation implicite du risque chez les gestionnaires au sein de la structure de gestion public-privée. Turner insistait sur le rôle des croyances erronées et des rigidités institutionnelles dans l’échec à décoder ces signaux ; Seibel ajoute à cette analyse les mécanismes actifs (politisation, connivence, calcul financier) qui transforment l’ignorance passive en ignorance active. On peut également faire le lien avec le processus de normalisation de la déviance théorisé par Diane Vaughan dans son analyse de la catastrophe de la navette Challenger. Vaughan montre que la NASA avait progressivement intégré les défaillances des joints toriques dans sa définition du fonctionnement « acceptable », au point que l’apparition d’un nouveau facteur de risque (des températures exceptionnellement basses) n’a pas été correctement évaluée. Dans le cas du pont I-35W, la non-détection des plaques de gousset défaillantes est le produit d’une organisation qui a intégré l’évitement de l’information inconfortable dans ses routines.
Plus généralement, les accidents analysés dans l’ouvrage illustrent un argumentaire important de la littérature académique en safety science : les accidents majeurs sont rarement des événements « fous » ou imprévisibles, mais les symptômes de pathologies organisationnelles systémiques.