Oversiktsartikkel: Siv Hilde Berg
Årsaksmodeller og analysemetoder i gransking av uønskede hendelser i helsetjenesten
Michael 2025; 22: 120–134
doi: 10.5617/michael.12398
Sikkerhetsteoretiske perspektiver former hva vi ser etter igransking av uønskede hendelser, hvilke sikkerhetstiltak som settes inn på hvilke nivåer ihelsesystemet, og hva det konkluderes med som årsak til ulykker. Artikkelen deler årsaks- og ulykkesmodeller inn itre kategorier etter hvilken årsaksforståelse som ligger til grunn: 1) enkle, lineære modeller, som setter søkelys på det tekniske systemet, 2)komplekse, lineære modeller, som favner det organisatoriske systemet, og 3)komplekse, ikke-lineære modeller, som søker innsikt idet interaktive systemet – hvordan mennesker, teknologi og organisasjoner påvirker hverandre og fungerer under høy risiko.
De ulike modellene har gitt opphav til en rekke analysemetoder som benyttes igransking og hendelsesgjennomgang. Ikke alle analysemetoder er tilpasset helsetjenesten. Individperspektiv ihendelsesgransking kan skape uheldige betingelser for organisatorisk læring. De komplekse lineære og komplekse ikke-lineære modellene gir de beste betingelsene for læring siden de belyser systemet som helhet og bakenforliggende årsaker til svikt og suksess.
Gjennom historien har mennesket hatt ulike oppfatninger om hva som er årsaken til ulykker. Ulykker har vært sett på som et resultat av skjebnen, menneskelige feil, teknologisk svikt, organisatorisk svikt og systemets iboende kompleksitet (1). Sikkerhetsteori (safety science) gir oss et overblikk over disse grunnleggende antakelsene om hva ulykker og svikt skyldes, gjennom det vi kaller årsaks- og ulykkesmodeller. Modellene skiller seg fra hverandre i synet på menneskelig svikt og feilbarlighet. Mens noen modeller anser menneskelig svikt som årsak til ulykker, anser andre modeller ulykker som en konsekvens av omgivelsene og av systemkompleksitet (2). Hvilken kausalitetsforståelse som ligger bak årsaks- og ulykkesmodellen man anvender i gransking av alvorlige uønskede hendelser i helsetjenesten, påvirker hva man anser som svikt, hvor man retter sikkerhetstiltakene, og til slutt hva man lærer av uønskede hendelser (3). I denne artikkelen gjennomgås ulike kategorier årsaks- og ulykkesmodeller og deres styrker og svakheter med tanke på bruk i helsetjenesten.
Det har skjedd betydelige endringer innen utvikling av årsaks- og ulykkesmodeller, og nye metoder og perspektiver har kommet til (2). Modellene har ulik grad av kompleksitet og tar for seg alt fra enkelthendelser til systemet som helhet. Erik Hollnagel (f. 1941) deler modellene inn i tre kategorier etter kausalitetsforståelsen som ligger til grunn: 1) enkle, lineære modeller, som setter søkelys på det tekniske systemet, 2) komplekse, lineære modeller, som favner det organisatoriske systemet, og 3) komplekse, ikke-lineære modeller, som søker kunnskap om det interaktive systemet – hvordan mennesker, teknologi og organisasjoner påvirker hverandre og fungerer under høy risiko (2).
Denne tredelingen er ikke kategorisk, men kan gjøre det lettere å se de store skillelinjene mellom årsaks- og ulykkesmodellene. Her benyttes Hollnagels klassifisering som teoretisk rammeverk med et utvalg av modeller og metoder fra hvert perspektiv (2) (figur 1).
.jpg)
Figur 1. Tre kategorier årsaks- og ulykkesmodeller
Enkle, lineære modeller
De enkle, lineære modellene er den første generasjonen årsaks- og ulykkesmodeller. Modellene forutsetter at årsakene til feil kan identifiseres, og at en handling alltid gir det samme utfallet, og dermed at det er forutsigbar konsekvens: derav begrepet lineær. Hendelsene som fører til ulykken, antas å oppstå sekvensielt, hvor den ene hendelsen utløser den andre, og disse modellene omtales også som sekvensielle modeller (2). Modellene oppsto som følge av behovet for å håndtere industriell risiko, men har hatt stor innvirkning på helsetjenestens hendelsesbaserte gransking.
Dominomodellen og kjerneårsaksanalyse
I dominomodellen, som ble utviklet av Herbert William Heinrich (1886–1962) i 1930-årene, forstås uønskede hendelser som en kjedereaksjon, som når en dominobrikke faller og fører til konsekvenser for den neste brikken. Det viktigste i dette perspektivet har vært å identifisere kjerneårsaken. Ifølge Heinrich oppstår feil som en sekvens av ulike faktorer forårsaket av teknisk svikt, men også menneskelige feilhandlinger kan utpekes som kjerneårsaken til den uønskede hendelsen (4).
En hyppig brukt analysemetode innen de enkle, lineære modellene er kjerneårsaksanalyse. Kjerneårsaksanalyse identifiserer en rekke bakenforliggende årsaker til en uønsket hendelse og konkluderer med hva som er den opprinnelige kjerneårsaken. På samme måte som i dominomodellen fremstilles hendelseskjeden sekvensielt langs en tidslinje med kjerneårsak og kausale faktorer (figur 2). Fordelen med analysemetoden er at den er enkel å visualisere og kommunisere, og at man ender opp med konkrete tiltak.
.jpg)
Figur 2. Kjerneårsaksanalyse, fiskebeinsdiagram
Forutsetningene for å lykkes med bruk av enkle, lineære modeller er at systemet er forutsigbart, og at det foreligger kunnskap om årsaker til svikt og om effekten av tiltak som settes i verk for å forebygge eller stanse utviklingen av den uønskede hendelsen. Sikkerhetstiltak rettes mot å stoppe kjedereaksjonen og forhindre at «dominobrikkene forsetter å falle» (2). Mens det kan være åpenbart hva som er årsaken til svikt i et oversiktlig avgrenset teknisk system, er dette ikke like åpenbart i helsetjenesten.
Kjerneårsaksanalyser er utbredt i helsetjenesten. I en gjennomgang av 302 kjerneårsaksanalyser i helsetjenesten fant Kellogg et al. at rapportene hovedsakelig konkluderte med menneskelig svikt som kjerneårsak til den alvorlige, uønskede hendelsen (5). Løsningen var oftest å lage en ny prosedyre for å sikre at helsepersonellet gjorde jobben korrekt. Samtidig kan stadig nye prosedyrer bidra til å øke systemkompleksitet og gi kognitiv overbelastning for helsepersonell, og på den måten i seg selv bidra til svikt. Kellogg et al. konkluderte med at kjerneårsaksanalyser ikke kan forklare ulykker i komplekse systemer, slik som i helsetjenesten, hvor flere bakenforliggende årsaker knyttet til organisasjon, teknologi og konstante endringer er involvert i ulykker og uønskede hendelser (5).
En annen studie av bruken av kjerneårsaksanalyser i helsetjenesten er det svenske helsetilsynets gransking av selvmord (6). Fröding et al. (2021) gikk gjennom granskingsrapporter fra det svenske helsetilsynet i en 13-årsperiode og fant at rapportene konkluderte med at hovedårsaken til selvmordene lå i møtet mellom pasienten og helsepersonellet. Hovedsakelig var det selvmordsrisikovurderingene som ikke var gjort godt nok, ifølge granskingen. Anbefalingene som ble gitt, var også her å lage en ny prosedyre eller å oppdatere eksisterende rutiner, primært for å sikre at helsepersonell gjorde bedre selvmordsrisikovurderinger. Forfatterne konkluderte med at kjerneårsaksanalysene ga begrensede muligheter for læring, fordi analysene ikke omfattet læring på tvers av enheter (6).
De ovennevnte studiene belyser hvilke begrensninger kjerneårsaksanalyser har når de brukes i helsetjenesten. Når man retter oppmerksomheten mot enkeltindividet eller klinikknivået, glipper søkelyset på tiltak og læring rettet mot bakenforliggende årsaker i systemet, og pasientforløpet gjennom systemet mistes av syne. Ofte er det enkelttiltak som iverksettes som følge av hendelsesgjennomgang med kjerneårsaksanalyser, slik som å eliminere uønsket variasjon i implementeringen av en prosedyre. Ved bruk av kjerneårsaksanalyser glipper dermed også blikket på komplekse årsaksforhold. Hollnagel hevder at en praksis som tilsynelatende er velforstått, ofte vil fremstå som mer kompleks og preget av uforutsigbarhet dersom man studerer hverdagspraksisen nærmere. Implementering av enkelttiltak påvirkes ofte av organisasjonskultur, arbeidsplassens fysiske utforming og behovet for å tilpasse arbeidet fordi prosedyren ikke passer til virkeligheten (2).
Selvmordsforebygging i en psykiatrisk sengepost er et eksempel på en praksis hvor handlinger ikke gir slike forutsigbare utfall som man forventer i et enkelt, teknisk system. Sikkerhet for pasienter i selvmordskrise skapes i møtet mellom mennesker og gjennom tilpasninger av behandling og beskyttelsesnivå til den enkelte pasient (7). Når man peker på feilaktige selvmordsrisikovurderinger som kjerneårsak til selvmord, faller det på sin egen urimelighet, fordi selvmord ikke lar seg predikere på individnivå. Man vet for eksempel at det er en svært forhøyet selvmordsrisiko knyttet til det å ha alvorlig depresjon, spesielt det å være innlagt med alvorlig depresjon, men man vet ikke hvem av dem med alvorlig depresjon som kommer til å ta livet sitt (8).
Til tross for at kjerneårsaksanalyse er utilstrekkelig både for å vurdere årsaker til systemsvikt og for å gi føringer for effektive sikkerhetstiltak innen mentale helsetjenester, brukes disse likevel i gransking i helsetjenesten verden over (6, 9, 10).
Komplekse, lineære modeller
I de komplekse, lineære modellene er perspektivet flyttet fra individet til omgivelsene som påvirker arbeidshverdagen (2). Disse modellene tar hensyn til flere bakenforliggende årsaker til uønskede hendelser. De kalles også epidemiologiske modeller og trekker på analogier til sykdomsforløp. Som ved en infeksjonssykdom vil noen årsaker være observerbare ved ulykker, mens andre vil være latente (11).
Kulturen i et bestemt arbeidsmiljø er et eksempel på en latent faktor. Høyt press på utnyttelse av sykehussenger hvor effektivitet i drift prioriteres fremfor kvalitet, kan være en latent faktor bak svikt (12). I gransking av uønskede hendelser er hovedformålet å forstå de bakenforliggende forholdene og hvilke barrierer som kan ha sviktet i forkant av hendelsen. Også her leter man etter en kjerneårsak, «et patogen», som på grunn av svikt i barrierene har skapt den uønskede hendelsen. Aktive feil begått av mennesker, ses på som en konsekvens av svikt i barrierene, og ikke som kjerneårsaken til svikten, dette til forskjell fra enkle, lineære modeller (11).
Noen latente forhold antas også å være mulig å oppdage i forkant av en ulykke, i motsetning til aktive feil som det er vanskelig å oppdage, og som ofte først blir synlige etter at feilen er gjort (11).
Sveitserostmodellen og Reasons gransking av organisatoriske ulykker
.jpg)
Figur 3. Sveitserostmodellen til Reason (12)
En velkjent modell innen de komplekse, lineære modellene er sveitserostmodellen utviklet av James Reason (1938–2025) i 1980-årene (figur 3) (12).
Skivene av ost visualiserer barrierene på ulike nivåer i systemet, og hullene visualiserer brudd i barrierene som gjør at feilaktige handlinger ikke stanses. Ifølge Reason vil det alltid skje feil når mennesker arbeider i moderne, teknologiske systemer, men man kan hindre disse i å få negative konsekvenser, hvis barrierene er gode. Sikkerhetstiltak rettes mot å «fylle hullene» i barrierene, for eksempel ved å forbedre sikkerhetskultur og opplæringssystemer, eller ved å sette inn harde barrierer som fysisk forhindrer feilhandlinger (for eksempel selvmordsgjerder) (12).
Reasons granskingsmodell for organisatoriske ulykker går bakover fra den uønskede hendelsen til de latente forholdene. Selv om menneskelige feilhandlinger er nært i hendelseskjeden bak en alvorlig hendelse, er det ikke der man ser etter årsakene. Granskingen retter blikket mot organisatoriske forhold og det som former menneskelig atferd på arbeidsplassen (12).
Reason retter søkelyset på årsaksfaktorer på mesonivået, også omtalt som organisasjons- og ledelsesnivået. Feilbarlighet anses som en iboende egenskap hos mennesket. Ifølge Reason «kan man ikke endre mennesket i seg selv, men man kan endre betingelsene menneskene arbeider under» (12, s. 15, min oversettelse).
Sveitserostmodellen brukes fortsatt i ulike bransjer, også i helsetjenesten, mye på grunn av sin enkelhet som pedagogisk og grafisk verktøy. Den har vært kritisert for å presentere et statisk og overforenklet bilde av årsaker til ulykker (11).
En styrke ved de komplekse, lineære modellene er implementeringen av lærende sikkerhetskultur, hvor sanksjonsfrie meldesystemer inngår som en grunnpilar (12). Fra å søke etter svikt hos individet til svikt i omgivelsene bedres også de psykologiske betingelsene for læring (13).
Komplekse, ikke-lineære modeller
Siden slutten av 1990-årene har sikkerhetsforskningen utviklet ny kunnskap om komplekse, ikke-lineære modeller, også omtalt som systemiske modeller (2).
I disse årsaks- og ulykkesmodellene anses feil som en konsekvens av flere interaksjoner mellom mennesker, teknologi, organisasjon og omgivelser. Noen av modellene setter søkelys på svikt og feil, andre på å forstå systemer i nåtid. Modellene har det til felles at de streber etter å få innsikt i systemet som helhet (2). Noen av de mest kjente modellene i dette perspektivet er sosioteknisk systemteori (14), normalulykketeori (15), teori om høypålitelige organisasjoner (16) og resiliensteori (17).
Sosioteknisk systemteori og AcciMap
Ifølge sosioteknisk systemteori vil aktører på ulike nivåer i systemet ta beslutninger og utføre handlinger som påvirker sikkerhet i den spisse enden av systemet (i helsetjenesten vil det si i klinikk) (14). Modellen gir innsikt i de komplekse interaksjonene som skjer mellom politiske føringer, regulering, ledelsesforhold på organisasjonsnivå og klinisk praksis. Den har gitt inspirasjon til en rekke metoder som tillater gransking av systemet som helhet, og interaksjoner mellom nivåene i systemet (18).
AcciMap er en slik granskingsmetode (14). Den brukes blant annet av Statens havarikommisjon for transport (19). Metoden anvendes også av Statens undersøkelseskommisjon for helse- og omsorgstjenesten (Ukom), som har tilpasset metoden og innlemmet perspektiver fra pasient og pårørende (se eksempelvis, 20).
AcciMap egner seg til slike undersøkelser fordi den gir anledning til å vurdere medvirkende faktorer på statlige, regulatoriske og samfunnsmessige nivåer. Ved å ta oppmerksomheten bort fra de umiddelbare årsakene, som menneskelige handlinger, unngår man å legge skylden på personer i frontlinjen. Siden analysen påpeker forhold på tvers av helsetjenesten, antas enkelthendelsene å gi læring for flere enn dem som var involvert i hendelsen (20).
AcciMap er blitt kritisert for å være en ressurskrevende metode med høye krav til metodisk ekspertise. Den har ikke predefinerte kategorier, og granskeren må kode datasettet induktivt og utvikle klassifiseringsskjema for hver analyse (21).
Normalulykketeori
Ifølge normalulykketeori kjennetegnes noen systemer av en iboende kompleksitet som gjør at en ikke kan forutse hendelser (15). Ulykker i slike systemer er uunngåelige, og derfor bør man unngå å designe slike systemer, ifølge Charles Perrow (1925–2019). Normalulykketeorien er blitt kritisert for å være reduksjonistisk og overfokusert på tekniske feil, og den har begrenset nytteverdi i gransking av store organisatoriske ulykker, hvor man ofte finner at ledelsesfaktorer, ikke bare teknisk kompleksitet, har virket inn (22). Teorien har hatt liten innflytelse på analysemetoder, men den har bidratt med innsikt om at for mange systemer og prosedyrer for dobbelsjekking av handlinger for å forhindre feil, gjør at den enkelte får for stor tillit til backup-systemene, og dermed føler mindre ansvar. Et eksempel er dobbelsjekking av legemidler som kan feile fordi begge stoler på hverandre, uten at de gjør jobben grundig nok selvstendig (23).
Teori om høypålitelige organisasjoner
Teorien om høypålitelige organisasjoner kom som en motvekt mot normalulykketeori og erstattet styringspessimisme med styringsoptimisme (16). Enkelte systemer, slik som romfart, luftfart og kjernekraftverk, blir designet slik at de til tross for høy kompleksitet og høy risiko klarer å håndtere det uventede og å operere nærmest feilfritt. I følge Weick & Sutcliffe gjør de dette ved å ha høy ekspertise, desentralisert ledelse, redundans ved hjelp av dobbeltsjekking og en konstant årvåkenhet for mulige feil (16). Teorien bidro til å fremme ekspertiseutvikling i form av opplæring, teamtrening og simulering i helsetjenesten (23). I et slikt perspektiv vil dobbeltsjekking av handlinger, slik som å administrere medikamenter, øke sikkerheten så fremt helsepersonellet har en kultur hvor de er konstant oppmerksomme på feil, og griper inn for å korrigere feil eller justere praksis (23).
Med teorien om høypålitelige organisasjoner beveget det sikkerhetsteoretiske fagfeltet seg fra utelukkende å lære av enkelthendelser i fortid, i etterpåklokskapens begrensende lys, til å lære av suksessfulle organisasjoner i nåtid. Teorien har blitt kritisert for å være ikke-verifiserbar fordi det er vanskelig å identifisere en høypålitelig organisasjon. Dermed er det vanskelig å teste om en slik organisasjon er mer sikker enn en ikke-høypålitelig organisasjon (24).
Resiliensteori
Også i resiliensteori er man opptatt av å lære av suksessfulle systemer i nåtid. Her rettes oppmerksomheten mot å forstå hvordan systemet virker under daglige omstendigheter og i møte med motstand og endring. Helsetjenesten forstås som et komplekst, adaptivt system som stadig skal tilpasse seg endringer i det kliniske arbeidet, både internt i organisasjonen og i møte med endrende krav fra omgivelsene (17, 25).
Tilpasninger utført i hverdagspraksis, er kilden til sikkerhet i komplekse systemer fordi det sørger for at arbeidet er trygt under varierende omstendigheter (26). Resiliens i helsetjenesten defineres av Wiig et al. (2020) som «evne til å tilpasse seg utfordringer og endringer på ulike systemnivåer, slik at man opprettholder høy kvalitet i tjenesten» (27, s. 6, min oversettelse). Mens man i de enkle, lineære modellene ofte ser på avvik fra prosedyrer som en årsak til svikt, vil man i et resiliensperspektiv anse slike hendelser som en gyllen mulighet til læring om systemet. Man utforsker hvordan arbeidet tilpasses, hvorfor arbeid utføres slik det gjøres, og hva som skal til for at arbeidet går godt i det daglige (25).
Et eksempel på anvendelse av resiliensteori er en syntese av kvalitative studier om selvmordstruede pasienter i psykiatriske sengeposter. Fremfor å granske svikt fokuseres det på å forstå kompleksitet i hverdagspraksis. Studiene gir innsikt i kompleksitet i praksis, i form av beslutningstaking om selvmordsrisiko under høy usikkerhet, tilpasninger til varierende og stadig endrede behandlings- og beskyttelsesbehov i klinikk og høye krav til ekspertise og relasjonell kompetanse for å oppfatte og respondere på pasientens verbale og non-verbale tegn på forverringer (7). Sikkerhetsarbeid rettes ikke mot konkrete enkelttiltak, men mot å forstå og støtte komplekse mellommenneskelige prosesser på ulike nivåer i helsesystemet.
Resiliens i helsetjenesten har blitt kritisert for å mangle operasjonaliserbare konsepter og metoder for å analysere helsetjenesten som helhet (28), men ulike analysemetoder er under utvikling.
Diskusjon
Ulike årsaks- og ulykkesmodeller gir ulik forståelse av hva som forårsaker uønskede hendelser i helsetjenesten. Valg av modell påvirker også hvilke sikkerhetstiltak som settes inn etter gransking, og på den måten hvilke læringspunkter som blir viktige. Modellene har styrker og svakheter ved bruk i helsetjenesten. Dette oppsummeres i figur 4.
.jpg)
Figur 4. Oppsummering av kjennetegn ved de tre kategoriene årsaks- og ulykkesmodeller
Det vil alltid være risiko forbundet med å yte helsetjenester, og uønskede hendelser kan oppstå til tross for at helsepersonell har ytt forsvarlig helsehjelp og behandling. Begrensningen ved enkle, lineære modeller er at man kan ignorere den kompleksiteten klinikere står overfor når beslutninger tas, og den fleksibiliteten som ofte kreves for å tilpasse behandling til individet (10). Kjerneårsaksanalyser, som er mye brukt i helsetjenesten, og andre enkle, lineære modeller utelater antakelig for mye til at de er nyttige når man skal forsøke å forstå noe så sammensatt som uønskede hendelser i helsetjenesten. Disse analysemetodene kan likevel være nyttige for å belyse avgrensede problemstillinger på mikronivå når granskingen rettes mot systemet, og ikke utelukkende utpeker helsepersonell som hovedårsaken til svikt. Et eksempel er reduksjon av kateterassosierte infeksjoner ved bruk av intravaskulære katetre, som var et av programområdene i det nasjonale pasientsikkerhetsprogrammet «I trygge hender 24-7».
En annen forutsetning for suksess ved bruk av enkle, lineære modeller er at det foreligger kunnskap om årsak og virkning. Det er veldokumentert at korrekt utførte hygienetiltak forebygger smitte, og infeksjonsforebygging er et eksempel på et område i helsetjenesten som kan oppnå suksess ved bruk av læring fra enkle, lineære modeller i utforming av pasientsikkerhetstiltak. Men ved bruk av enkle, lineære modeller er det viktig å være bevisst risikoen for å overse sentrale bakenforliggende forhold og manglende systemlæring, når alvorlige uønskede hendelser oppstår. Selv hygiene påvirkes av organisasjonskultur, fysiske utforminger av arbeidsplassen og behovet for å tilpasse arbeidet fordi prosedyren ikke passer til virkeligheten. En praksis som tilsynelatende fremstår som velforstått, er ofte mer kompleks og preget av uforutsigbarhet når en studerer hverdagspraksis nærmere (25).
I de komplekse modellene løftes derimot blikket bort fra individet og mot systemforhold, og menneskelige feil i helsetjenesten ses på som en konsekvens av feil i barrierene og av helsetjenestens iboende kompleksitet. Et systemperspektiv i gransking kan bidra til bedre betingelser for organisatorisk læring og psykologisk trygghet på arbeidsplassen, og dermed læring (10, 13). Et arbeidsmiljø karakteriseres av psykologisk trygghet når de ansatte opplever at de ikke løper noen interpersonlig risiko – og ikke risikerer å bli straffet eller ydmyket – hvis de kommer med ideer, stiller spørsmål eller melder fra om feil eller bekymringsverdige forhold (29). Ved oppfølging av svikt som følge av uintenderte handlinger vil man i et systemperspektiv ikke spørre hvem som gjorde noe galt, og hvilke sanksjoner disse personene bør møtes med, men hva som førte til at ting gikk galt, og hva som kan gjøres for å adressere det (29).
Alle årsaks- og ulykkesmodeller har sine begrensninger. Ifølge Hopkins er gransking hovedsakelig casestudier, og man bør være varsom med å trekke generiske anbefalinger fra ett enkelt tilfelle (24). Analysemetoder som tar utgangspunkt i å lære av svikt i fortid, gir også retrospektiv læring. Denne formen for læring blir lett preget av etterpåklokskap, slik Le Coze påpeker (30). Ved retrospektive analyser vil det alltid være uklart om det er de rette kausale forholdene som er påpekt. Man vet sjelden om en hendelse kunne ha blitt forhindret dersom man hadde endret betingelsene som man antar at førte til ulykken. Egentlig har man kun identifisert årsaker som kan forebygge en identisk hendelse i fremtiden (30).
Selv om komplekse, ikke-lineære modeller utforsker hvordan systemet virker i nåtid, gir også disse modellene begrenset mulighet for å trekke kausale slutninger om årsak og effekt. Når man opererer med komplekse årsaksforhold, er det også mange mulige forløp. Alt kan skje når det ikke har skjedd ennå (30). Sikkerhet kan dermed ikke løses med ett enkelttiltak, slik som å revidere eller lage en ny prosedyre, og tiltakene blir mer diffuse i de komplekse modellene.
Komplekse modeller begrenses også av at de er på et utviklingsstadium med tanke på bruk i helsetjenesten. For å skape gode betingelser for læring kreves det eksterne uavhengige granskingssystemer som ikke skal fordele skyld eller gi straffereaksjoner. Erfaring fra nasjonale granskingskommisjoner i Storbritannia viser at det er sentralt at granskerne har tillit, er upartiske og uavhengige for å gi gode betingelser for læring (31). De komplekse modellene er lite anvendt i gransking i helsetjenesten, men norske Ukom representerer et slikt granskingssystem, og er verdensledende innen ekstern gransking med systemiske perspektiver i helsetjenesten (32).
Konklusjon
Mens enkle, lineære modeller ofte har et individfokus i hendelsesgransking, løftes blikket mot systemlæring i de komplekse, lineære og ikke-lineære komplekse modellene. Systemlæring krever et blikk på både individene, teamet, organisasjonens kultur og ledelse og de ytre rammeforholdene i form av juridiske rammer, økonomi og strategiske føringer for praksis. For å fremme systemlæring bør helsetjenesten i økende grad utvikle og anvende komplekse årsaks- og ulykkesmodeller og ha systemer for intern og uavhengig ekstern gransking. Det krever implementering og innovasjonsarbeid å ta sikkerhetsteoretiske analysemetoder som hovedsakelig er utviklet til industrien, i bruk i ulike settinger i helsetjenesten.
Denne artikkelen er finansiert av Universitet iStavanger.
Artikkelen er fagfellevurdert.
Cause models and analysis methods in investigations of adverse events in healthcare
Abstract
Safety science perspectives shapes what we look for during an investigation of adverse events, which safety measures that are implemented, at which system level in healthcare, and what is concluded as the cause of error. The article outlines three categories of accident models based on the underlying causality: 1) simple, linear models, which emphasis is on the technical system, 2) complex, linear models, which embrace on the organizational system, and 3) complex, nonlinear models, which focus on the interactive system – how people, technology and organisations influence each other and function under high risk.
The models have given rise to a number of analytical methods used in investigation and incident reviews. Not all analysis models are adapted for health care. Individual focus in incident investigation may affect organisational learning negatively. Complex linear and complex nonlinear models go beyond the immediate causes for failure and success and provide the best conditions for organisational learning through embracing the system as a whole and complexity to a greater extent.
Litteratur
Fu G, Xie X, Jia Q et al. The development history of accident causation models in the past 100 years: 24Model, a more modern accident causation model. Process Safety and Environmental Protection 2020; 134: 47–82. doi: https://doi.org/10.1016/j.psep.2019.11.027
Hollnagel E. Barriers and accident prevention. New York: Routledge. 2004.
Lundberg J, Rollenhagen C, Hollnagel E. What-you-look-for-is-what-you-find-The consequences of underlying accidents models in eight investigation manuals. Safety science 2009; 47: 1297–1311. https://doi.org/10.1016/j.ssci.2009.01.004
Heinrich HW. Industrial accident prevention: A scientific Approach. New York: McGraw-Hill, 1931.
Kellogg KM, Hettinger Z, Shah M et al. Our current approach to root cause analysis: is it contributing to our failure to improve patient safety? BMJ Quality & Safety 2017; 26: 381–387. http://dx.doi.org/10.1136/bmjqs-2016-005991
Fröding E, Gäre BA, Westrin Å et al. Suicide as an incident of severe patient harm: a retrospective cohort study of investigations after suicide in Swedish healthcare in a 13-year perspective. BMJ Open 2021; 11: e044068. doi: 10.1136/bmjopen-2020-044068
Berg, SH, Rørtveit K, Walby FA et al. Shared understanding of resilient practices in the context of inpatient suicide prevention: a narrative synthesis. BMC Health Services Research 2022; 22: 967. doi: 10.1186/s12913-022-08282-x
Large M, Sharma S, Cannon E et al. Risk factors for suicide within a year of discharge from psychiatric hospital: a systematic meta-analysis. Australian & New Zealand Journal of Psychiatry 2011: 45: 619–628. https://doi.org/10.3109/00048674.2011.590465
Svensson, J. Patient Safety Strategies in Psychiatry and How They Construct the Notion of Preventable Harm: A scoping review. Journal of Patient Safety 2021; 18: 245–252. doi: 10.1097/PTS.0000000000000885
Turner K., Stapelberg NJ, Sveticic J et al. Inconvenient truths in suicide prevention: Why a Restorative Just Culture should be implemented alongside a Zero Suicide Framework. Australian & New Zealand Journalof Psychiatry 2020; 54: 571–581. https://doi.org/10.1177/0004867420918659
Larouzee J, Le Coze JC. Good and bad reasons: The Swiss cheese model and its critics. Safety Science 2020; 126: 104660. https://doi.org/10.1016/j.ssci.2020.104660
Reason J. Managing the Risks of organizational accidents. London/New York: Ashgate, 1997.
Catino M. A review of Literature: individual blame vs organisational function logic in accident analysis. Journal of contingencies and crisis management 2008; 67: 6–14. doi: https://doi.org/10.1111/j.1468-5973.2008.00533.x
Rasmussen J. Risk management in a dynamic society: a modelling problem. Safety Science 1997; 27: 183–213. https://doi.org/10.1016/S0925-7535(97)00052-0
Perrow C. Normal Accidents: Living with High-Risk Technologies. New York: Basic Books. 1984.
Weick KE, Sutcliffe KM. Managing the unexpected. Volum 9. San Francisco.: Jossey-Bass Inc, 2001.
Hollnagel E, Braithwaite J, Wears R. Resilient health care. USA. CRC Press. 2013.
Leveson NG. Rasmussen’s legacy: A paradigm change in engineering for safety. Applied ergonomics 2017; 59: 581–591. doi: 10.1016/j.apergo.2016.01.015
Kuran C, Newnam S, Beanland V. Adaptive non-conform behaviour in accident investigations in the road based heavy goods transport sector. Safety Science 2022; 146: 105539. https://doi.org/10.1016/j.ssci.2021.105539
Ukom. Dødsfall på en akuttpsykiatrisk sengepost. Rapport 1-2020. https://ukom.no/laering-og-refleksjon/dodsfall-pa-en-akuttpsykiatrisk-sengepost (7.03.24)
Goode N, Shaw L, Finch CF et al. Challenges of translating Rasmussen’s Accimap into a usable, sustainable, and useful incident reporting system: end-user attitudes following 12-month implementation. Cognition, technology & work 2021; 23: 39–49. doi: https://doi.org/10.1007/s10111-019-00596-x
Le Coze JC. 1984–2014. Normal accidents. Was Charles Perrow right for the wrong reasons? Journal of contingencies and crisis management 2015; 23: 275–286. https://doi.org/10.1111/1468-5973.12090
Tamuz M, Harrison MI. Improving patient safety in hospitals: contributions of high-reliability theory and normal accident theory. Health services research 2006; 41: 1654–1676. doi: 10.1111/j.1475-6773.2006.00570.x
Hopkins A. Issues in safety science. Safety Science 2014; 67: 6–14.
Hollnagel E. Safety-I and Safety-II: The Past and Future of Safety Management. Boca Raton,USA: CRC Press, 2014.
Foster CJ, Plant KL, Stanton NA. Adaptation as a source of safety in complex socio-technical systems: A literature review and model development. Safety Science 2019; 118: 617–631. https://doi.org/https://doi.org/10.1016/j.ssci.2019.05.035
Wiig S, Aase K., Billett S et al. Defining the boundaries and operational concepts of resilience in the Resilience in Healthcare Research Program BMC Health Services Research 2020; 20. doi: 10.1186/s12913-020-05224-3
Berg SH, Akerjordet K, Ekstedt, M et al. Methodological strategies in resilient health care studies: An integrative review. Safety Science 2018; 110: 300–312. https://doi.org/https://doi.org/10.1016/j.ssci.2018.08.025
Edmondson AC. The fearless organization: Creating psychological safety in the workplace for learning, innovation, and growth. Harvard: John Wiley & Sons, 2018.
Le Coze JC. Disasters and organisations: From lessons learnt to theorising. Safety Science 2008; 46: 132–149. https://doi.org/http://dx.doi.org/10.1016/j.ssci.2006.12.001
Macrae C, Vincent C. Learning from failure: the need for independent safety investigation in healthcare. Journal of the Royal Society of Medicine, 2014; 107, 439–443. https://doi.org/10.1177/0141076814555939
Øyri SF, Berg SH. Improving quality and safety by independent, external investigation? The Norwegian Healthcare Investigation Board framework. I: Leva EP, Podofillini J, Wilson S, red. Proceedings of the 32nd European Safety and Reliability Conference (ESREL 2022). Research Publishing. 2022. doi: 0.3850/978-981-18-5183-4_R11-02-220-cd
Avdeling for kvalitet og helseteknologi
Universitetet i Stavanger, Kjell Arholmshus
Kjell Arholmsgate 43
4021 Stavanger
Siv Hilde Berg har Ph.D i helse og medisin, er klinisk psykolog med masterstudier i samfunnssikkerhet. Hun er førsteamanuensis i pasientsikkerhet ved Universitetet i Stavanger.