Normalfejl

I bogen Normal Accidents: Living with High Risk Technologies introducerer sociologen Charles Perrow begrebet normalfejl. Det er fejl, som sker på tværs af delkomponenter i et system på en måde, som man ikke kunne forudse, da man skabte systemet. Det er altså de fejl, som ikke kan forebygges, og hvor vi må leve med risikoen.

Ifølge teorien indgår der seks forskellige komponenter i alle systemer. De kan hver for sig blive ramt af fejl uden at systemet svigter. Men hvis flere svigter samtidig eller hvis de svigtene fører til svigt i andre dele af systemet kan det føre til katastrofer.

  • Design: Måden teknologien er konstrueret på, for eksempel designet på en flyvemaskine eller en lufthavn.
  • Equipment: Udstyret. For eksempel motorerne på en flyvemaskine.
  • Procedures: Måden tingene skal udføres på. For eksempel, at man skal have tilladelse inden man letter og måden denne tilladelse skal gives på.
  • Operators: Det menneskelige islæt. Dem som styrer teknologien. For eksempel piloter og flyveledere.
  • Supplies and materials: De ting, som skal forbruges for at det teknologiske system virker, for eksempel brændstof.
  • Environment: Det omkringliggende miljø, for eksempel vejret.

Et system er ikke en fast størrelse. Det afhænger af, hvad man har sat sig for at undersøge og hvordan man afgrænser undersøgelsen. Nogle gange kan det være et cockpit, andre gange kan de være hele luftfartsbranchen.

Analyseøvelse

Hvad udgjorde DEPOSE-komponenterne ved Tenerifekatastrofen?

Kompleksitet og kobling

Perrow inddeler desuden systemer efter, hvor linerære de er og hvor tæt de er sammenkoblede.

Det lineære handler om, hvordan de enkelte komponenter interagerer med hinanden. Når det sker lineært, sker det på en forudsigelig måde, som er let at planlægge og som er synlige for enhver, selv når de ikke er planlagt. Et eksempel kunne være, at en bil vil dreje, når man drejer på rattet.

Når der sker komplekst interaktioner er det svært eller helt umuligt at forudse og de er usynlige eller i hvert fald vanskelige at forstå, når de sker. De er vanskeligere at give typiske eksempler på, da de netop er uforudsigelige, men et eksempel kunne være eksplosionen i Beirut, hvor en mindre brand fremkaldt af en svejsning fører til en enorm eksplosion.

Bemærk, at det er interaktionerne, der er komplekse eller lineære. Ikke systemerne. Næsten alle systemer består af både komplekse og lineære interaktioner, og må vurderes ud fra, hvad der fylder mest.

Den anden inddeling Perrow laver er, hvor tæt sammenkoblede systemerne er. Det handler om, i hvor høj grad de enkelte komponenters ageren har indflydelse på de andre komponenter. Jo mere sammenkoblet, desto mere kædereaktion.

Navigationen i en bil kan godt vise, at man skal til højre uden at rattet automatisk drejer mod højre. Det er lav sammenkobling. Nede i bilens motor er der til gengæld en høj sammenkobling. Hvis et af komponenterne her bryder sammen, vil det ofte få konsekvenser for mange andre komponenter og bilen vil i sidste ende bryde sammen.

Ifølge Perrow er fejl i komplekse systemer uundgåelige. De er simpelthen en indbygget risiko ved den type af systemer, hvorfor han altså kalder dem normalfejl. Enten må man leve med fejlene eller afskaffe systemerne.

Analyseøvelse

Hvilke interaktioner kan beskrives som komplekse og lineære ved Tenerifekatastrofen? Hvor tæt koblet var systemet?