Psychologická řada PSY–010
PRAŽSKÉ SOCIÁLNĚ VĚDNÍ STUDIE PRAGUE SOCIAL SCIENCE STUDIES
ANALÝZA LIDSKÝCH CHYB VEDOUCÍCH K NEHODÁM Jiří Štikar, Jiří Hoskovec, Jana Šmolíková
2006 Psychologická řada PSY-010
V Fakulta sociálních věd UK / Faculty of Social Sciences, Charles University Filozofická fakulta UK / Faculty of Arts, Charles University
u
Analýza lidských chyb vedoucích k nehodám
2
J.Štikar , J.Hoskovec, J.Šmolíková
Text prošel recenzním řízením. Studie vznikla v rámci výzkumného záměru MSM0021620841 Rozvoj české společnosti v EU: výzvy a rizika. Copyright Jiří Štikar, Jiří Hoskovec, Jana Šmolíková 2006 ISSN 1801-5999
Analýza lidských chyb vedoucích k nehodám
3
J.Štikar , J.Hoskovec, J.Šmolíková
Analýza lidských chyb vedoucích k nehodám JIŘÍ ŠTIKAR, JIŘÍ HOSKOVEC, JANA ŠMOLÍKOVÁ, FILOZOFICKÁ FAKULTA UK
Abstract The article deals with psychological aspects of accident causes and possibilities of psychological prevention. The advantages and limits of various theories and the importance of verification of preventive measures are emphasized. The article is focused on accident theories, technical systems and human factors esp. errors as well as methods of accident analysis. The source of information used are mainly from EU, but also from the USA and other countries. This article provides a broader theoretical background and up-to-date knowledge for accident prevention. Keywords: human errors, accident analysis, accident theory
KONTAKT NA AUTORA A PODĚKOVÁNÍ
[email protected]
Analýza lidských chyb vedoucích k nehodám
4
J.Štikar , J.Hoskovec, J.Šmolíková
Analýza lidských chyb vedoucích k nehodám ANALÝZA CHYB Řada odborníků si kladla otázky jaké chyby vedoucí k nehodám dělají lidé, jaké jsou jejich příčiny a jak jim lze zabránit. Širší teoretický přístup k lidským chybám obsahoval pojetí psychoanalytické, kybernetické, sociálně teoretické, teorie pole, teorie rozhodování, konceptu S-R, aktivační úrovně, stresu, lidského výkonu a dovedností. Reason (2003) uvedl historický přehled významnějších příspěvků psychologů ke studiu lidských chyb. Počínaje Jamesem Sullym (1881) a Sigmundem Freudem (1904, 1922) dochází k Williamu Jamesovi (1880), jehož pokládá za autora téměř ucelené teorie chyb. Pokračuje Josephem Jastrowem (1905), gestaltisty Maxem Wertheimerem, Wolfgangem Köhlerem a Kurtem Koffkou (1912) a jejich následovníkem Kurtem Lewinem v meziválečném období. Vyzvedává přínos neuropsychologa Karla Lashleye (1917, 1951) a Henry Heada (1920), jenž zavedl pojem „schéma“ jako vysvětlovací princip pro některé psychofyziologické jevy. Po druhé světové válce byla přínosná zejména teorie informací (např. Miller, 1956). Zaměření na kognitivní procesy vedlo k řadě významných zjištění, zejména vzniku konceptu pracovní paměti (Baddeley a Hitch, 1974) a k základům teorie rozhodování, kterou propracovali Tversky a Kahneman (1974), kteří užili pojem „omezené racionality“. Rovněž uvádí přínos Jense Rasmussena (1974) k teorii činnosti, o níž se dále opírá při své analýze lidských chyb. Spolehlivost je určována 1) povahou člověka, který má ze své přirozenosti tendenci k provádění chybných výkonů (tyto tendence dobře vysvětluje např. Reason, 1990), 2) prostředím, v němž se činnost odehrává. Tímto prostředím není míněno pouze prostředí fyzikální, chemické a biologické, nýbrž i sociální. Vlivy tohoto prostředí jsou označovány jako PIFs (Performance Influencing Factors). Někteří autoři používají termínu PSFs (Performance Shaping Factors), což je vlastně totéž. Při analýze chyb, skoronehod a nehod se rozlišují tyto kategorie příčin: 1) bezprostřední příčina – ta, která vedla k důsledku přímo, 2) příčiny přispívající, tj. ty PIFs, jež k nehodovému ději přispěly, například snížená viditelnost, nevhodná ergonomická konstrukce sdělovačů apod., 3) příčiny kořenové (root causes), které jsou skryty za řadou příčin přispívajících. Ty tkví zejména v řadě podmínek společenského charakteru, např. v jednáních a postojích
Analýza lidských chyb vedoucích k nehodám
5
J.Štikar , J.Hoskovec, J.Šmolíková
managementu podniku k lidem a k otázkám bezpečnosti. Zanedbávání problematiky bezpečnosti vede k tomu, že z chyby je obviňován pouze pracovník, jemuž se nehoda přihodila , avšak veškerá PIFs zůstávají neodhalena a latentně působí nadále. Důležitost těchto kořenových příčin zdůraznil například Reason (1987 b, 1990), který je dokumentuje na řadě případů velkých katastrofických událostí (např. Three Mile Island, Černobyl, Challenger, Bhópál, požár v londýnském metru na King´s Cross, aj.). V postojích managementu se promítá i upřednostňování produkce na úkor bezpečnosti, což se v systému řízení podniku přenáší shora dolů na řadové pracovníky. Jde vlastně o důsledné uplatnění systémového pohledu na chování a jednání člověka. V posledních letech zájem o tuto problematiku se prohloubil a přinesl nové poznatky (Cambon de Lavalette a Neboit, 1996, Hladký, 2005). Stav techniky umožňuje skoro neomezené užití automatizačních a počítačových prostředků v technických systémech. Analýza chyb a spolehlivosti ve vztahu k novým technologiím vyžaduje značnou pozornost (Miller, Swain, 1997, Rasmussen, Duncan a Leplat, 1987, Senders , Morray, 1991). Zvláště výrazné je to v letectví (Morawski, 1999). Prvním účelem automatizace je omezení pracovní zátěže pilota a snaha vyhnout se chybám způsobeným lidským činitelem, což vede ke zvýšení bezpečnostních norem. Očekávání nebyla naplněna. Lze pozorovat zvýšený počet nehod zaviněných pilotem či posádkou. To lze částečně vysvětlit skutečností, že rozvoj techniky může být vyrovnán nárůstem hustoty dopravy, rozšířením meteorologických minim aj. Je spíše překvapujícím faktem, že více a více pilotů či posádek si stěžuje na vzrůst zátěže v kabině, která je důsledkem samotné automatizace. O tomto jevu se hovoří jako o „paradoxu automatizace“. Automatizace mění charakter práce a omezuje autoritu pilota a modifikuje profil toku informací, jež pilot potřebuje i užívá a vede ke ztrátě přímého smyslového kontaktu s úkolem, který má být proveden. Automatizace zahrnuje oblast od jednoduchých dílčích úkolů, které lze snadno automatizovat, až k úkolům velmi komplexním. Automatizace mění charakter chyb člověka. Objevují se jejich nové typy, které se dříve nevyskytovaly. Užívání automatizace může narušit dovednosti pilota či posádky, které jsou nezbytné v případě odchylky od standardní k rizikové situaci, která vyžaduje intervenci člověka. Při užívání klávesnic počítačů narůstá počet operací, kdy nikdo nesleduje, co se děje v okolí letadla. Jiné, tzv. „ prstové chyby“ vedou k chybnému uvádění vstupních dat či k chybným operacím. Automatizace může vést k poklesu koordinace v posádce. Dokonalejší technika přináší pilotovi více informací, což může vést k silnějšímu pocitu nezávislosti mezi členy posádky. Pilot může měnit konfigurace či operační parametry, aniž by jiný pilot byl o této změně uvědomen. Posádky si zpravidla rychle osvojují novou techniku. Ale snadnost může překrývat nedostatky ve vědomostech. Potíže za letu mohou být důsledkem nejen rozdílů ve vědomostech o tom, co je nezbytné a jaké jsou možnosti pilota, ale také mohou plynout z neuvědomění si těchto rozdílů.
Analýza lidských chyb vedoucích k nehodám
6
J.Štikar , J.Hoskovec, J.Šmolíková
Statistika leteckých společností ukazuje, že 55–70 % nehod vzniká při normální funkci letadla a systémů. Tyto nehody jsou klasifikovány jako způsobené chybou pilota. Zátěž při pracovní činnosti je považována za hlavní příčinu chyby pilota. Problém pracovní zátěže přitahuje pozornost řady leteckých psychologů. Bylo publikováno mnoho informací o měření pracovní zátěže a hodnocení jejího vlivu na pracovní činnost. Člověk je nejspolehlivější za mírné úrovně pracovní zátěže, která se nemění náhle a neočekávaně. Za mimořádné pracovní zátěže mohou chyby vznikat při neschopnosti člověka zvládnout informační míru. Při nízké zátěži se člověk stává spokojený a nemusí být dostatečně pozorný. Totéž vede k vyšší pravděpodobnosti chyby. Problém lidské chyby v letectví je jedním z nejzajímavějších z hlediska porozumění a řešení. Důvod spočívá v tom, že člověk je tak složitý, že porozumět jeho chování je mnohem obtížnější, než porozumět fyzikálním jevům. Nehody jsou často katastrofami a typická je malá dosažitelnost informací pro výzkum těchto případů. Přesto je věnováno mimořádné úsilí analýze příčin chyb člověka s cílem je eliminovat. Byla vytvořena a ověřována řada modelů chyb. Obecně řečeno existují tři přístupy ke snižování četnosti a závažnosti chyb člověka. Za prvé, počet chyb lze snižovat pečlivým navrhováním ovladačů, sdělovačů, operačních postupů atd. Za druhé, ke snížení počtu nehod přispívá výběr a výcvik. Za třetí, podstatné zlepšení lze očekávat při zavádění systémů tolerantních k lidským chybám. Poslední způsob akceptuje možnost výskytu chyb a užívá avioniku pro vhodnou detekci a výstrahu před vznikem chyb. V dílčích případech avionika ( automatizace ) je projektována pro kontrolu a zmírnění chyb předtím, než ovlivní bezpečnost letu. Vznikla celá řada přístupů k hodnocení chyb, objevujících se v jednání a činnosti člověka. James Reason (1990) počátkem 90. let provedl základní taxonomii lidských chyb a definoval lidskou chybu jako obecně použitelný výraz, jenž zahrnuje všechny události, kde plánovaný sled mentálních nebo fyzických činností nedosahuje zamýšleného výsledku tehdy, když tato selhání nemohou být připsána na vrub intervenci nějakého náhodného působení. Z toho vyplývá, že chyba je založena na nedosažení výsledku či cíle. Systém neudělal to, co se předpokládalo. Slova „plánovaný a zamýšlený“ znamenají, že úmysl je ústřední v celé perspektivě teoretických úvah. Úmysl sestává ze dvou elementů, konečného stavu (cíle), kterého má být dosaženo a prostředků (činnosti), kterými má být cíl dosažen. Je třeba odlišovat různé typy chyb, které lze označit jako „kiks“, opomenutí, omyl a vědomé porušení pravidel. „Kiks“ (slip) se stane, jestliže člověk se snaží provádět správnou akci, ale udělá ji nesprávně. Například tehdy, když lékař či sestra dá do infuze nesprávnou dávku, ačkoli znají správnou. Chyby se vztahují na pozorovatelnou činnost a jsou obvykle spojeny s chybami pozornosti či percepce. Údržbářova pozornost může být vyrušena a pak odmontuje jinou hydraulickou hadici, než měl. Věděl, co chce docílit, nicméně provede jednoduchou chybu. Opomenutí (lapse) jsou vnitřnější události, obvykle jsou to výpadky paměti. Jde o vynechání nějaké činnosti, česky je lze označit jako opomenutí. Například chirurg zapomene nějaký nástroj v otevřeném těle a zašije pacienta.
Analýza lidských chyb vedoucích k nehodám
7
J.Štikar , J.Hoskovec, J.Šmolíková
Omyl (mistake) je chyba, která se stane, když člověk provede nesprávnou akci. Akce může být udělána perfektně, ale není to akce, která měla být provedena. Například lékař předepíše lék, na který je pacient alergický. Omyly se odehrávají na vyšší úrovni než je percepce – jde o mentální procesy obsažené při vyhodnocení informací jež jsou k dispozici, plánování, formulaci úmyslu a posouzení pravděpodobných důsledků plánovaných akcí. Zapomene-li údržbář nějaký pracovní postup, anebo ho nikdy plně nepochopil, pak může špatně rozhodnout, zejména v případě manipulace s nějakou novinkou. Jde o volbu špatné akce. Vědomá porušení jsou akce, učiněné záměrně, které však nejsou správné. Lidé zamýšlejí pouze porušit pravidlo, ale ne trpět možnými důsledky. Pracovníci občas jednají zkratkovitě, protože chtějí zvýšit svou produktivitu, anebo dokončit úkol. Poruchy pravidel bývají managementem tolerovány, ba občas i vyžadovány. Tento druh chyb je nejobtížněji potlačitelný. Jsou to záměrná porušení bezpečnostních pravidel. Existuje celá řada faktorů, které ovlivňují pravděpodobnost porušování pravidel. Lze je dělit na ty, které přímo motivují pracovníka k porušení pravidel ( přímé motivy) a doplňkové faktory, které zvyšují (popř. snižují) pravděpodobnost, že jedinec spáchá porušení ( behaviorální modifikátory). Například vyhnutí se těžké fyzické práci může být přímým motivem k zanedbání povinnosti, nicméně nedostatek účinného dozoru je behaviorálním modifikátorem, který zvyšuje pravděpodobnost zanedbání, neboť je nízká šance, že pracovník může být odhalen. Pokud jde o opomenutí, akce se odchylují od úmyslu špatným výkonem či chybou při uložení informace. U omylů probíhá sice akce podle plánu, avšak plán je špatný a nedosáhne se žádoucího výsledku. Klíčovým rozlišením kiksů či opomenutí od omylů je, zda člověk provádí řešení problému. Chování na úrovni dovedností představuje senzomotorickou činnost, kdežto činnosti založené na pravidlech a na znalostech se uplatňují tehdy, jde-li o problém při snaze najít jeho řešení. Příčinou kiksů a opomenutí je kolísání pozornosti. Tyto základní předpoklady jsou podkladem pro obecný systém modelování chyb GEMS (Generic Error Modelling System), který představuje Reasonův hlavní přínos pro psychologickou teorii chyb (Reason, 1987a). Akce v činnosti jsou prováděny ve dvou oblastech: operace před detekcí problému (úroveň založená na dovednostech) a operace po detekci problému, což je řešení problému. Chyby v první oblasti jsou charakteristické pro selhání monitorování, kdežto chyby v druhé oblasti znamenají selhání při řešení problému. Monitorovací chyby jsou selháním pozornostní kontroly, jejich značná část však vzniká pro přílišnou pozornost, tj. kontrola v nevhodném bodě automatizované sekvence. Obojí lze nazvat jako selhání způsobu kontroly, jelikož chyby nastávají pro špatný způsob kontroly vzhledem k daným nárokům úlohy. Kiksy a opomenutí jsou snadněji zjistitelné než omyly. To vede podle Reasona (2003) k analýze způsobu, jak lidé poznají, že udělali chybu. Procesy detekce chyb jsou součástí víceúrovňových mechanismů, které řídí a koordinují lidskou činnost. Jejich účinnost je dána inverzně k jejich postavení v kontrolní hierarchii. Například nízkoúrovňové korekce polohy těla pracují s vysokým stupněm spolehlivosti. Na druhém extrému kognitivní procesy vyšší úrovně (stanovení cílů a volba prostředků k jejich dosažení) jsou daleko méně citlivé na možné odchylky od optimální cesty k žádoucímu stavu. Relativní účinnost těchto detekčních mechanismů závisí na bezprostřednosti a validitě
Analýza lidských chyb vedoucích k nehodám
8
J.Štikar , J.Hoskovec, J.Šmolíková
zpětnovazebné informace. Na nízké úrovni jsou poskytovány přímo a automaticky neurálními mechanismy. Na vyšších úrovních bývají však nepřítomny a přinejmenším jsou přístupné mnoha interpretacím. V podstatě jsou tři způsoby, jimiž může být chyba odhalena. V první řadě je to sebemonitorovací proces, který je nejúčinnější na fyziologické a dovednostní úrovni. Může být signalizován určitými environmentálními signály, nejzřejměji pomocí donucovací funkce, která brání dalšímu pokračování činnosti. Může být též objevena druhým člověkem, což je jediná cesta, kterou lze určité chyby zjistit ve složitých, nebezpečných a stresových situacích. Rozbory naznačují, že asi tři ze čtyř chyb jsou svými původci zjištěny. Šance na jejich opravu je nejlepší u dovednostní úrovně a nejnižší na úrovni znalostí. Rasmussen (1983) přispěl k vytvoření taxonomie chyb rozlišením tří úrovní výkonu, které odpovídají klesajícímu stupni obeznámenosti či zkušenosti s prostředím nebo úkolem:
Založené na dovednosti : člověk provádí rutinní, vysoce nacvičené úkoly, které lze charakterizovat jako automatizované. Vyjma příležitostné kontroly je takové chování spojeno s malým vědomým úsilím. Chyby na této úrovni se týkají vnitřní variability síly, prostoru nebo koordinace času. Založené na pravidlu: znamená řešení situace, která nastává tehdy, jestliže se situace trochu změní a modifikuje naše předprogramované chování a ta situace je nám známa anebo jsme v ní vycvičeni. Je to založeno na pravidlech, protože aplikujeme známé principy. Chyby jsou spojeny se špatnou klasifikací situace, vedoucí k užití špatného pravidla, nebo s nesprávným vzpomenutím si na postupy. Založené na znalosti : tento druh činnosti se odehrává v nových situacích, kdy nemáme žádná aplikovatelná pravidla. Máme neúplné či nesprávné znalosti. Může mít formu řešení problému, přičemž se používá analytického myšlení a uchovaných znalostí.
„Kiksy“ a opomenutí se vztahují hlavně k úkolům založeným na dovednostech, v nichž není mnoho kognitivního úsilí. Malé rozdíly v situaci mohou být nepovšimnuty (selhání pozornosti). Na jeden krok v postupu je možné si nevzpomenout. Omyly se objevují zejména při úkolech založených na pravidle a na znalostech, například neexistuje pravidlo pro danou situaci anebo není nalezeno správné řešení problému. Uvedené třídění umožňuje analýzu systémů z hlediska kognitivních procesů. Nabízí vodítka o kognitivní charakteristice, schopnostech a omezeních lidí, což má implikace nejen k tomu, jaký druh chyb může být dělán, ale i určité podněty k tomu, jak konstruovat systémy tak, aby bylo bráněno chybám. Jak však uvidíme dále, tato taxonomie doznala počátkem 90. let podstatných změn, jež odstraňují některé teoretické nedostatky a zavádějí nové koncepty do úvah o lidských chybách, které realističtěji reflektují lidskou činnost zejména v oblasti činností založených na znalostech.
Analýza lidských chyb vedoucích k nehodám
9
J.Štikar , J.Hoskovec, J.Šmolíková
V průběhu popsaného období se objevila řada metodických nástrojů pro hodnocení chyb lidí zejména v systémech, kde člověk je řídicím článkem, ovládajícím složité zařízení. Některé z nich byly vytvořeny pro komerční využití a jsou prodávány v softwarové podobě. Mezi nejznámější patří například: THERP (Technique for Human Error Prediction – technika predikce lidských chyb), využívající Rasmussenova třídění chyb, TOR Analysis (technika přehledu operací), FMEA (Failure Mode and Effects Analysis – analýza způsobů selhání a účinků), Fault-Tree Analysis (analýza stromu chyb) a celá řada dalších. Většina z těchto starších technik si však poměrně málo všímá vyšších kognitivních funkcí, jako je myšlení a zejména rozhodování, které je důležité při řízení procesů, rychle se měnících v čase. Techniku predikce míry chyb člověka (THERP) vytvořili pro jaderné elektrárny Swain a Guttman (1983). Pomocí ní lze predikovat chyby člověka v operačním systému. Lze odhadnout, že úkol bude úspěšně proveden (spolehlivost) a rovněž lze odhadnout pravděpodobnost detekce a opravy nesprávně prováděné činnosti v čase, a tím se vyhnout nežádoucím důsledkům v činnosti systému. Tak lze dospět ke klasifikačnímu schématu chyb, podobnému jako Hammerovu, který již v roce 1972 vytvořil klasifikaci 34 příčin základních chyb či Rouseovu (1990) klasifikačnímu schématu 31 typů chyb v operačním systému. Téměř všechny doposud vytvořené metody, určené pro prospektivní analýzu spolehlivosti člověka, předpokládaly použití tzv. task analysis (analýzy pracovních úkolů), pomocí níž se pracovní činnost rozloží do řady relativně samostatných celků, jež jsou pak podrobeny další analýze.Tento postup nejenže je zdlouhavý, ale soustřeďuje se pouze na kritické úkoly z hlediska bezpečnosti práce, přičemž mohou pozornosti uniknout některé zdánlivě méně kritické úkoly, jež znesnadňují pracovníkům činnost. Pro analýzu jsou důležité kasuistické rozbory, a tak zde připomeneme havárii v jaderné elektrárně Černobyl. Každá nehoda je hodnocena podle tří kritérií: dopadu na následky pro zdraví a životní prostředí, dopadu na zařízení, prostředí a pracovníky uvnitř elektrárny a dopadu na bezpečnostní systémy. Dne 26. dubna 1986 dva mohutné výbuchy zcela zničily čtvrtý blok jaderné elektrárny Černobyl. Explozi vodou chlazeného grafitového varného reaktoru RBMK o tepelném výkonu 3200 MW způsobil nekontrolovatelný rozběh štěpné reakce v uranovém palivu. Byl to následek hrubých zásahů do systémů ochran reaktoru, kterých se dopustila obsluha reaktoru. Významnou roli sehrála také fyzikálně nestabilní konstrukce aktivní zóny reaktoru. Exploze vyvrhly do okolí bloku 4 procenta ze 114 tun paliva. Silné úniky radioaktivity z hořícího reaktoru se podařilo výrazně omezit až deset dní po osudných explozích. Katastrofa si bezprostředně vyžádala 31 mrtvých (pracovníci elektrárny a hasiči, kteří likvidovali požár), 237 lidí bylo postiženo akutní nemocí ze záření různého stupně, velkými dávkami záření bylo
Analýza lidských chyb vedoucích k nehodám
10
J.Štikar , J.Hoskovec, J.Šmolíková
zasaženo několik tisíc pracovníků, kteří se podíleli na likvidaci následků havárie. Z oblasti o poloměru 30 km od zničeného bloku bylo trvale evakuováno přes 135 000 obyvatel, tisíce čtverečních kilometrů půdy zůstává zamořeno. Vzhledem k těžkým dlouhodobým následkům je havárie zařazena do třídy 7. Rozbor havárie ukázal příčiny, které k ní vedly. Dne 25. dubna 1986 bylo zahájeno plánované odstavení 4. bloku elektrárny. Před odstavením reaktoru mělo být proveden celkem běžný experiment. Měl ověřit, jestli bude elektrický generátor (poháněný turbínou) po rychlém uzavření přívodu páry do turbíny schopen při svém setrvačném doběhu ještě zhruba 40 sekund napájet čerpadla havarijního chlazení. Plánovaný průběh experimentu, který nebyl dodržen, měl být následující: Snížení výkonu reaktoru na 25 – 30 %, což je nejnižší výkon, při němž je povolen provoz tohoto typu reaktoru, odstavení první ze dvou turbín připojených k reaktoru, odpojení systému havarijního chlazení, aby nezačalo působit během testu, připojení přívodu páry ke druhé turbíně. Tento krok měl být zároveň signálem pro systém havarijní ochrany k automatickému odstavení reaktoru. Skutečný průběh experimentu byl odlišný. Experiment byl pojímán jednoznačně jako elektrotechnická záležitost, nevýznamná z hlediska jaderné bezpečnosti, a řídili jej elektro specialisté. Snižování výkonu reaktoru začalo 25. dubna v 1 hodinu po půlnoci. O pět minut později byl výkon snížen na polovinu a byl odpojen systém havarijního chlazení. Pak bylo na nepředpokládanou žádost energetického dispečinku další snižování výkonu pozastaveno téměř na devět hodin. Během této doby zůstal systém havarijního chlazení odpojen. Průběh dalších událostí to sice příliš neovlivnilo, ale svědčí to o postoji provozního personálu k dodržování provozních předpisů. Ty samozřejmě další provoz za takových podmínek nedovolují. Odklad způsobil, že experiment prováděla nová směna, která na něj nebyla připravena. Od 23:10 pokračovalo snižování výkonu. Přitom došlo k další neobvyklé události. Chybou operátora nastal prudký pokles výkonu reaktoru až na 30 MW tepelných, což prakticky znamená zastavení štěpné reakce. V tu chvíli měli operátoři experiment ukončit a reaktor definitivně zastavit. Dostali jej totiž do značně nestabilního stavu mimo oblast povoleného provozu. Rozhodli se však pokračovat za každou cenu. Vytáhli z aktivní zóny tolik regulačních tyčí pohlcujících neutrony, že nezbyla prakticky žádná rezerva pro další manipulaci. Přesto se jim podařilo zvýšit výkon pouze na 200 MW
Analýza lidských chyb vedoucích k nehodám
11
J.Štikar , J.Hoskovec, J.Šmolíková
tepelných. V takovém stavu byl provoz reaktoru zakázán. Reaktor byl v nestabilním stavu. Operátoři pokračovali v přípravě experimentu. Dostali se přitom do velkých problémů s udržením správných hodnot tlaku a obsahu páry v reaktoru. Za normálních okolností by v této době zasáhly odpovídající systémy automatické havarijní ochrany. Operátoři je však zlikvidovali. V 1:22:30 (již 26. 4.) si operátoři nechali počítačem vypsat stav reaktoru. Viděli, že počet regulačních tyčí v aktivní zóně odpovídá necelé polovině povolené hodnoty. Po tomto zjištění měli okamžitě odstavit reaktor. Ještě to stále bylo možné. Rozhodli se však pokračovat. V 1:23:04 se operátoři dopustili poslední osudové chyby. Zablokovali havarijní signál, který by po uzavření přívodu páry na turbínu automaticky odstavil reaktor. Chtěli si totiž (v rozporu s plánem) zajistit možnost opakování experimentu. Pak uzavřeli přívod páry a experiment začal. Reaktor dál běžel na výkonu 200 MW tepelných. Podstatně se však snížil průtok chladící vody, rostla její teplota i tlak. Stoupal obsah páry. Reaktor byl ve stavu, kdy se s rostoucím množstvím páry zvyšovalo množství neutronů v aktivní zóně, a tím i počet štěpení jader atomů uranu, rostl výkon a opět se zvyšovala teplota a množství páry. V 1:23:40 se katastrofa již neodvratně blížila. Operátoři dali tlačítkem signál k havarijnímu odstavení reaktoru zasunutím regulačních tyčí. Ty však byly téměř všechny úplně vytaženy z aktivní zóny a jejich účinek byl proto příliš pomalý na to, co se v reaktoru dělo. V 1:23:44 došlo krátce po sobě ke dvěma mohutným výbuchům. Reaktor byl přetlakován tak, že pára při první explozi zvedla a odsunula horní betonovou desku reaktoru o váze 1000 tun. Do reaktoru vnikl vzduch. Reakcí vodní páry s rozžhaveným grafitem vznikl vodík. Ten vzápětí explodoval a rozmetal do okolí část aktivní zóny včetně paliva a hořícího grafitu, který způsobil požár. V 2:20 hodin byl požár na 4. bloku lokalizován a o tři hodiny později uhašen za cenu života hasičů, kteří tak zabránili rozšíření požáru na další bloky elektrárny. Z rozbitého a rozžhaveného reaktoru uniklo od okamžiku výbuchu do 6. května (za deset dní) asi 4 % radioaktivity. Vzniklý radioaktivní mrak byl větrem hnán nejdříve nad Skandinávii, kterou přeletěl a vrátil se zpět do místa svého vzniku. Ale již v odpoledních hodinách v den havárie vítr změnil směr a vál přibližně k Československu a Rakousku.
Analýza lidských chyb vedoucích k nehodám
12
J.Štikar , J.Hoskovec, J.Šmolíková
Zjištěné příčiny havárie v oblasti lidského činitele vycházely ze ztráty smyslu pro riziko u řídících operátorů. Podle rozboru expertů hlavním motivem jednání operátorů bylo co nejrychleji ukončit zkoušky. Porušení stanoveného pořádku při přípravě a realizaci zkoušek, porušení samotného programu zkoušek a nedbalost v řízení reaktoru svědčí o tom, že personál dostatečně nechápal specifika technologických procesů probíhajících v jaderném reaktoru a ztratil pocit nebezpečí, které z jeho nesprávného jednání může vzejít. Konstruktéři reaktorového zařízení také nevytvořili ochranné bezpečnostní systémy, které by byly schopné zabránit havárii při současném úmyslném odpojení technických ochranných prostředků a porušení provozních předpisů, protože takovéto sloučení událostí považovali za nemožné. Došlo ke dvěma porušením trvale platných předpisů, k jednomu nedodržení postupu experimentu a k úmyslnému zrušení tří automatických ochran reaktoru. Kdyby se jediná z těchto šesti chyb nestala, k havárii by nedošlo.
Metody posuzování chyb Zde uvádíme základní charakteristiky některých vybraných metod pro analýzu chyb, jejichž podrobný popis podal Hladký (2005).
Technika pro retrospektivní a prediktivní analýzu kognitivních chyb (TRACEr) Tuto techniku vytvořili Shorrock and Kirwan (2003). Ta představuje soubor vývojových diagramů rozhodování, který obsahuje druhy a mechanismy lidských chyb. Vzhledem ke složitosti původní techniky vytvořil Shorrock též zkrácenou a zjednodušenou verzi TRACEr-lite. Ten uvádí, že předpokladem je provedení analýzy úkolů pomocí Hierarchické analýzy úkolů (HTA), kterou vytvořil Shepperd . Technika obsahuje čtyři klíčové komponenty:
1. Určení kontextu: Zde jde o stanovení faktorů ovlivňujících výkon v činnosti (Performance Shaping Factors – PSF), tj. faktorů, které ovlivňují výkon pozitivně či negativně, přímo či nepřímo. Tvoří soubor konstatování o podmínkách, za kterých operátor pracuje. Každá PSF má formu otázky, na kterou se odpovídá ano–ne. Mají 8 kategorií, např. provoz a letový prostor, postupy a dokumentace, výcvik a zkušenosti, design pracoviště, interface člověk– počítač, zařízení apod.
Analýza lidských chyb vedoucích k nehodám
13
J.Štikar , J.Hoskovec, J.Šmolíková
2. Uplatnění taxonomie jednotlivých kroků v úkolu: a) Druhy vnějších chyb – identifikace pozorovatelných projevů možných chyb, založená na logických následcích chybných akcí, na správném časování, na pořadí, na výběru, na kvalitě. Příklady zahrnují: „Vynechání“, „Nesprávná akce na správném objektu“, „Chybné pořadí“, „Informace nebyla hledána či získána“. b) Druhy a mechanismy vnitřních chyb popisují jak operátor nedosáhl žádaného výsledku. Mají čtyři oblasti: Percepce – měl operátor něco vnímat v průběhu tohoto kroku? Paměť – měl si operátor vzpomenout na nějakou informaci anebo zapamatovat si do budoucna, že má provést nějakou činnost v průběhu tohoto kroku? Rozhodování – měl operátor předvídat či udělat plán nebo rozhodnutí v průběhu tohoto kroku? Jednání – měl operátor provést manuální akci anebo něco říci v průběhu tohoto kroku? 3. Počáteční důsledky – jsou konstatovány volným popisem. Pravděpodobnost chyby a jejich závažnost není hodnocena jako součást standardního postupu TRACEr-lite, ale může být začleněna zvláště týmem expertů anebo pomocí údajů. 4. Odstranění chyb – zahrnuje konstatování prostředků detekce (např. monitorování radaru, jiný operátor apod.). V tomto bodu lze použít tzv. Škály subjektivně hodnocené pravděpodobnosti úspěchu v odstranění chyby (Recovery Success Likelihood – RSL).
Přístup k analýze spolehlivosti systému člověk–stroj–prostředí umožňují teoretické modely Model vhledu do situace (VDS) – (Situation Awareness – SA) Výrazným krokem k začlenění vyšších kognitivních funkcí do posuzování lidské spolehlivosti bylo vytvoření konceptu vhledu do situace, založeném na teorii mentálního modelu. Endsley (1999) prezentuje teoretický model SA, který definuje jako stav poznání situace, probíhající ve třech kognitivních úrovních: 1) percepce prvků současné situace, 2) porozumění současné situaci, 3) projekce budoucího stavu situace. V komplexním a dynamickém prostředí je lidské rozhodování vysoce závislé na uvědomění si situace, tj. trvale se vyvíjejícím obrazu (mentálním modelu) stavu prostředí.
Analýza lidských chyb vedoucích k nehodám
14
J.Štikar , J.Hoskovec, J.Šmolíková
Vhled do situace ovlivňuje rozhodování, což má pak dále vliv na provádění akcí. VDS je na druhé straně ovlivňován stavem prostředí, jakož i faktory systému a úkolu i individuálními faktory. Faktory úkolu a systému zahrnují: kapacitu systému, design interface, stres, pracovní zátěž, složitost a automatizaci. Individuální faktory zahrnují: cíle, očekávání, dlouhodobou paměť, mechanismy zpracovávání informací, automatismy, schopnosti, zkušenost a výcvik. V jednotlivých kategoriích VDS (tj. percepci, porozumění a předvídání) je třeba hodnotit další faktory. Endsley (1999) je uvádí spolu s údaji o procentech chyb, zjištěných rozbory selhání v letecké dopravě. Tato analýza obecně ukazuje, že primární příčinou lidských chyb v komplexních systémech není špatné rozhodování, ale špatné uvědomění si situace, zahrnující zejména selhání při správném vnímání, integraci a porozumění informacím a nepředvídání budoucích akcí nebo stavu systému.
Metody pro zjišťování vhledu do situace Endsley (2000) uvádí následující techniky měření VDS v souvislosti s posuzováním kvality designu nových sdělovačů, respektujících principy vhledu do situace na příkladu pilotů letadel:
1. Ukazatelé procesu vnímání: Oční pohyby, získávání informací: informace o tom, jak a čemu (piloti) věnují pozornost, studium komunikace (mezi piloty), verbální protokoly (techniky používané pro získání VDS).
2. Přímé ukazatele VDS subjektivní techniky, post-testové dotazníky, SAGAT Subjektivní techniky podle Hladkého (2005): SART (Situational Awareness Rating Technique – Taylor 1990) SWORD (Subjective Workload Dominance – Vidulich and Hughes 1991) SARS (Situational Awareness Rating Scales – Waag and Houck 1994) Post-Test dotazníky: Dotazníky administrované po provedení simulace Dotazy v reálném čase Je možné sledovat též reakční čas odpovědí
Analýza lidských chyb vedoucích k nehodám
15
J.Štikar , J.Hoskovec, J.Šmolíková
SAGAT (Situation Awareness Global Assessment Technique – Technika globálního posouzení vhledu do situace) byla vyvinuta Endsleyem s cílem objektivního měření operátorovy VDS, vyhodnocování konceptů v letectví, designu displejů a technologie interface. Její základní přínos je v tom, že vhled do situace lze objektivně měřit a tak posuzovat kvalitu designu. Nejvhodnější způsob využití této techniky je pomocí simulátoru. Simulovaná úloha se „zmrazí“ a účastníci odpovídají na otázky v dotazníku. Technika byla úspěšně využita v letectví, v řízení letového provozu, v elektrárnách, při řízení vozidel, a to zejména pro zlepšený design displejů, hardware, při problémech spojených se zaváděním automatizace apod. Naznačuje, které aspekty VDS jsou pozitivně, či negativně v daném systému ovlivňovány. 3. Ukazatele výkonu ve VDS Měří se činnost (jednání) operátorů z hlediska vhledu do situace ve specifických úlohách.
Kvantitativní analýza vhledu do situace (Quantitative Analysis of Situational Awareness – QUASA). Endsley použil uvedeného hodnocení důvěry v informace jako jednoho z ukazatelů pro odhad zlepšení designu zobrazování klíčových aspektů situace. Další využití této metody nabízí McGuiness (2004) v technice QUASA. Situace, které musí dispečer zvládnout svým rozhodováním, se rychle mění, například v lokální situaci v dopravě. Aby měl vhled do situace nějakou cenu, musí mu být srozumitelná (pokrývat všechny relevantní faktory), aktuální, a odborně interpretovaná. Kromě situace hlavního zájmu musí mít jedinec též nějakou znalost kontextuálních faktorů – souvisejících situací, historického pozadí, kulturních faktorů atd., které mohou mít význam pro porozumění situaci. Dalším klíčovým faktorem je člověk sám, tj. vědomí vlastních záměrů a schopností. Tutéž situaci může člověk hodnotit různým způsobem, v závislosti na tom, co hodlá dělat a jak je k tomu vybaven. Sebeuvědomování též zahrnuje metakognici vlastního vhledu, což lze pokládat za to, že jej pokládá za „kompletní“ oproti „nekompletní“, nebo „rychlý“ oproti „zůstává pozadu“, či „jistý“ oproti „nejistý“. Například to, když si dispečer uvědomuje, že má neúplné a nejisté poznání situace v dopravě, může být signifikantním faktorem v jeho následném rozhodování. Vhled do situace je dynamickým mnohotvárným jevem, který zahrnuje nejen percepci, porozumění a hodnocení klíčových situací a jejích relevantních kontextů, ale též se týká percepce, porozumění a hodnocení sama sebe. Role VDS v rozhodování je funkcí dvou věcí: a) skutečná úroveň vhledu do situace požadovaná k úspěšnému výkonu, b) vnímaná, tj. metakognitivní percepce vlastního vhledu pracovníka.
Analýza lidských chyb vedoucích k nehodám
16
J.Štikar , J.Hoskovec, J.Šmolíková
QUASA znamená v podstatě kombinaci vyšetřovací techniky se sebehodnocením. Místo vícenásobné vnucené volby se v dotazu používá pouze jedné ze dvou možností (správná – chybná). K tomu se ještě připojuje konstatování míry důvěry v tuto odpověď. Příklad: Konstatování informaci Kolona vozidel opouští město
Hodnocení
( ) Pravda () Nepravda
Důvěra v tuto
( ) Velmi vysoká ( ) Vysoká ( ) Střední () Nízká ( )Velmi nízká
Kalibrace VDS Princip kalibrace se v podstatě týká míry, v jaké lidé jsou s to posuzovat správnost svých pozorování či rozhodnutí. Jinými slovy hodnotí se stupeň korespondence mezi sebepercepcí správnosti a skutečnou správností jako proporce správných odpovědí. Dobře „kalibrovaný“ posuzovatel je takový, který vysoce důvěřuje odpovědím, které jsou ve skutečnosti správné, a nedůvěřuje těm, které jsou skutečně nesprávné. U málo „kalibrovaného“ posuzovatele není systematický vztah mezi skutečnou a vnímanou správností. Při hodnocení kalibrace je člověku prezentována testová položka a je žádán, aby poskytl správnou odpověď. Bezprostředně potom (alternativně i předem) má naznačit svou důvěru ve svou odpověď. Důvěra může být naznačena pomocí binárního hodnocení (např. vysoká důvěra proti nízké důvěře), pomocí multikategoriálního pořadového hodnocení (např. důvěra velmi vysoká–vysoká– střední–nízká–velmi nízká) anebo pomocí kontinuální škály (např. 0 %–100 %). Kalibrační analýza pak kvantifikuje vztah mezi správností posudků a důvěrou v jejich správnost. Jednoduchým měřítkem kalibrace je skór předpojatosti (bias score), což je průměrná důvěra ve všech testových položkách minus proporce týchž položek, které byly hodnoceny správně. Pozitivní skór předpojatosti znamená přehnanou sebedůvěru, negativní skór znamená podcenění. Z hlediska vhledu do situace je dobře „kalibrovaný“ člověk takový, který má vysokou úroveň skutečného vhledu a vnímá to jako správné hodnocení. To lze zjistit pomocí korelace mezi odpověďmi a jeho důvěrou v tyto odpovědi. V nejhorším případě jde o člověka přehnaně sebedůvěřivého – má nízký skutečný vhled do situace, ale vysokou sebedůvěru. Jeho rozhodování je náchylné k chybování.
Analýza lidských chyb vedoucích k nehodám
17
J.Štikar , J.Hoskovec, J.Šmolíková
Teorie detekce signálů (Signal Detection Theory) Byla vytvořena jako model percepčních úsudků, popisující a analyzující to, jak si lidé počínají při provádění úkolů, v nichž musí zachycovat určitý typ podnětů. Teorie rozhodování ve vizuální detekci byla navržena Tannerem a Swetsem (1954) , kteří poukázali na to, že v percepčních úlohách hrají roli též rozhodovací procesy. Teorie tvrdí, že lidé nereagují na podněty pouze automaticky – v nejistotě je též zapojeno rozhodování o vnímání jako o významu něčeho. To znamená, že provádějí úsudky. Teoretický rámec detekce signálů lze aplikovat na jakoukoli situaci, ve které má posuzovatel určit na základě potenciálně neúplné anebo víceznačné skutečnosti, který ze dvou možných stavů je pravdivý. Teorie popisuje problém jako diskriminaci mezi dvěma typy podnětů – signál a šum. Úloha spočívá v detekci specifických signálů avšak posuzovatel je nemá zaměnit s jinými signály a jinými irelevantními podněty (šum). Správné přijetí podnětu jakožto signálu je označováno jako zásah. Nicméně jsou možné dva druhy chyb: falešný poplach jako nesprávné přijetí signálu který se objevil a minutí je nesprávné odmítnutí pravdivého signálu. Teoretický model předpokládá dvě fáze v procesu detekce signálů: 1) percepční skutečnost je detekována a pravděpodobně agregována v mozku jako určitý nespecifikovaný druh neurální aktivace (nazývané vnitřní odpovědí). 2) vnější odpověď je navozena podle stupně evidence. Vzhledem k tomu, že prvky šumu (jak vnějšího, tak vnitřního) mohou též do určité míry spouštět vnitřní odpověď, a vzhledem k riziku udělání dvou druhů chyb, může člověk přijmout kognitivní strategii odpovídat na nejisté podněty, například mýlit se vždy opatrně a odmítat v případě nejistoty. Při analýze odpovědí v percepční úloze poskytuje teorie též kvantitativní ukazatele výkonu v detekci signálů, které lze určit pomocí jak parametrické, tak neparametrické statistiky. Senzitivita je skutečná schopnost jednotlivce diskriminovat správné signály od nesignálů. Kritérium odpovědi neboli předpojatost specifikuje nastavení jedincova kritéria přijímat či odmítat. V případě předpojatosti toto kritérium kvantifikuje jednotlivcovu strategii reagovat na víceznačné podněty. Konzervativní předpojatost tenduje směrem k odmítání, liberální předpojatost tenduje k přijímání. Zda je konzervativní, liberální či neutrální předpojatost nejlepší, závisí cele na situaci a cílech pozorovatele. V průběhu řady desetiletí byl teoretický rámec detekce signálů použit ve studiu řady rozličných v životě skutečných úloh jako detekce objektů v zamaskovaném prostředí, u řidičů k detekci vozidel a dopravních značek a u diagnostických úloh v medicíně, ve forenzní oblasti, při vyhledávání informací, předpovídání počasí, testování schopností. Teorii detekce signálů lze využít i pro hodnocení vhledu do situace jako podíl dotazů, na něž posuzovatel odpovídá správně. Zásah lze definovat jako správné přijetí správného popisu situace. Senzitivita vhledu může tak být interpretována jako schopnost člověka správně diskriminovat mezi validním, a nevalidním popisem situace. To znamená, že
Analýza lidských chyb vedoucích k nehodám
18
J.Štikar , J.Hoskovec, J.Šmolíková
jedinci s dobrým vhledem dělají méně minutí a falešných poplachů. Bezpochyby lze očekávat, že experti mají vyšší senzitivitu než nezkušení. Lze též předpokládat, že se senzitivita zlepší v prostředí sdílení informací, spolupráce a sdíleného vhledu do situace, neboť dotyční jedinci si budou více uvědomovat úplný obraz situace. Kritérium detekce neboli předpojatost v odpovědi na dotazy hodnotící správnost či nesprávnost lze interpretovat jako tendenci jedince buď k přijímání, anebo odmítání popisů situace, když je nejistý co do jejich validity. Výzkum teprve ukáže, zda například konzervativní předpojatost odráží stálou dispozici jedince (tj. znatelný skepticismus vůči nepotvrzeným informacím), anebo dynamičtější situačně specifickou strategii (odrážející například nedávné falešné informace), anebo je to ve skutečnosti věc techniky dotazů a není ve vztahu ke vhledu do situace.
Začlenění časových hledisek do metodiky posuzování lidských chyb (SPAR-H) Velká většina systémů, v nichž lidé tvoří zpětnovazební smyčku, prodělává neustálé změny v reálném čase. Systémy se vyvíjejí a časové charakteristiky tak tvoří podstatnou součást pracovní zátěže operátorů. Tradiční metody hodnocení lidských chyb (jako například THERP) nebraly tyto časové faktory dostatečně do úvahy. R. L. Boring a D. I. Gertman (2004) navrhli metodu SPAR-H (The Standardized Plant Analysis Risk Human Reliability Analysis – standardizovaná analýza rizik v podniku v rámci analýzy lidské spolehlivosti), pomocí níž lze činnosti lidí a jejich chyby posuzovat z hlediska času, potřebného k zvládnutí nastalých situací. I na tuto metodu upozornil v české časopisecké literatuře Hladký (2005).
Teorie nehod Analýza chyb vedoucích k nehodám a užití metod posuzování takových chyb by mělo vést k vytvoření teorie nehod. Taková teorie by se měla stát cenným orientačním prostředkem dalšího vědeckého i aplikačního postupu. Zde obecně připomeňme čeho je při takovém postupu zapotřebí. Teorie je myšlenkově uspokojivý celkový výklad příčin a souvislostí jevů určité oblasti, který lze ověřovat nebo vyvracet zkušeností. Teorie v empirické vědě, jako je psychologie, je uspořádaný výrokový systém sloužící k objasnění vztahů mezi zjištěnými proměnnými a/nebo přijímanými pravidly uvnitř určité popisované oblasti skutečnosti, tj. v tomto případě nehodovosti. Teorie tímto umožňuje konzistentní popis, objasnění a předpověď události v reálném prostředí, ke kterému se teorie vztahuje. Popper (2004) to výstižně formuloval takto: „Teorie je síť, kterou rozhazujeme, abychom uchopili svět – abychom ho racionalizovali, objasnili a ovládli. Pracujeme na tom, abychom zmenšovali její oka.“ Strukturálně je teorie systém formálních výpovědí, umožňujících pokud možno úplné a konzistentní objasnění událostí a empirických pozorování uvnitř jasně definovaného a vymezeného výzkumného pole. Výchozím bodem je abstraktní zobecňování pozorovatelných a odvozených věcných obsahů a vztahů mezi nimi ve formě zákonů. Slouží jako vedení ve zkoumaném empirickém poli a jako interpretační mřížka pro zjištěné empirické nálezy. Objasněním a zařazením nálezů
Analýza lidských chyb vedoucích k nehodám
19
J.Štikar , J.Hoskovec, J.Šmolíková
jsou vytvářeny predikce v rámci teorie, tj. konkrétní, výzkum řídící hypotézy. Empirickým ověřením těchto teoreticky odvozených předpokladů je teorie dále rozvíjena, modifikována a popřípadě i zamítnuta. Charakteristickým pro teorie v empirických vědách, jako je psychologie, je systém výpovědí o zákonitostech, které jsou vedeny z generalizovaných výpovědí na základě zkušenosti, eventuálně z potvrzených hypotéz. Od toho vymezení jsou vytvářeny deduktivní teorie představující systém neprověřených axiomů či logicky přijatých postulátů. Funkcí teorie v rámci empirické vědy je orientovat pozornost na určitou oblast skutečnosti, konkrétně zkoumaný empirický prostor, a tam zjišťovat empirická data. K tomu slouží teorie, která strukturuje vědecky mapovaný prostor a přiřazuje empirická zjištění ke vždy konzistentnímu stávajícímu celku. K tomu potřebuje explikativní a deskriptivní konstrukty, hypotézy o vztahu mezi konstrukty, rovněž i nezávislé a závislé proměnné a konečně zákony. Připomeňme, že konstrukt je uměle vytvořený pojem pro vědecké nebo odborné užití. Teoretické konstrukty jsou nepřímo pozorovatelné proměnné (např. inteligence). Jedná se o pojmy, jejichž podkladem je vztahová síť mezi skutečně pozorovatelnými proměnnými a předpoklady (hypotézy, principy, teoretické modely). Teoretické konstrukty jsou tedy zapotřebí, aby bylo možné objasnit rozdíly v pozorovatelné změně obsahu. Teorie pomáhá vědcům a odborným pracovníkům dostat se do ohniska své práce a zpracovávat podstatné aspekty v kladených otázkách.
Analýza lidských chyb vedoucích k nehodám
20
J.Štikar , J.Hoskovec, J.Šmolíková
LITERATURA Boring, R. L.; Gertman, D. I. Human error and available time in SPAR-H, Workshop on Temporal Aspects of Work for HCI, CHI, 2004 Cambon de Lavalette, B.; Neboit, M. L´erreur humaine: question de point de vue?, Toulouse, Octarés, Collection Colloques, 1996 Endsley, M. R. Situation awareness and human error: Designing to support human performance, Proceedings of the HCSP, Albuquerque, NM, 1999 Endsley, M. R. Evaluation of situation awareness in fligh operation employing synthetic vision systems, NASA Langley Research Center, 2000 Hammer, W. Handbook of system and product safety, Englewood Cliffs, N.J., Prentice – Hall, 1972 Hladký, A. Hodnocení lidských chyb v dynamicky se měnících systémech, Psychologie v ekonomické praxi, 2005, 40, 3-4, McGuinness, B. Quantitative analysis of situational awareness (QUASA): Applying signal detection theory to true/false probes and self ratings, 9th International Command and Control Research and Technology Symposium, Copenhagen, Sept. 2004 Miller, D. P.; Swain, A. D. Human error and human reliability, In Salvendy, G. (Ed.) Handbook of human factors and ergonomics, N.Y.,Wiley, 1997 219–250 Morawski, J. M. Lidský činitel a avionika, Psychologie v ekonomické praxi, 1999, 34, 1–2, 1–11 Popper, K. Logik der Forschung, Berlin, Akad. Verlag, 2004, 2. Aufl. Rasmussen, J. Skills, rules, knowledge: Signals, signs, symbols and other distinction in human performance models, IEEE Transactions on Systems, Man and Cybernetics, 1983, 13, 257–267 Rasmussen, J.; Duncan, K.; Leplat, J.(Eds.) New technology and human error, N.Y., Wiley, 1987 Reason, J. T. Generic error – modelling system (GEMS).: A cognitive framework for locating common human error forms, In Rasmussen J., Duncan K., Leplat J.(Eds.), New technology and human error, N.Y., Wiley, 1987 a, 63–83 Reason, J. T. The Chernobyl errors, Bulletin of the British Psychology Society, 1987 b, 40, 201–207 Reason, J. T. Human error, Cambridge, Cambridge University Press, 1990 and 2003
Analýza lidských chyb vedoucích k nehodám
21
J.Štikar , J.Hoskovec, J.Šmolíková
Rouse, W. B. Designing for human error: Concepts for error tolerant systems, In Booker H. R. (Ed.) MAINTPRINT: An approach to systém integration, N.Y., Van Norstrand Reinhold, 1990 Senders, J. W.; Moray, N. P. Human error. Cause, prediction and reduction, Orono, Univ. Maine, 1991 Shorrock, S.; Kirwan, B.; Smith, E. Individual and group approaches to human error prediction – a tale of three systems, Third IBC Conference on Human Error, London, 27–28 February 2003 Swain, A.; Guttman, H. Handbook of human reliability analysis with emphasis on nuclear power plant application, Technical Report NUREG/CR-1278, Washington, D.C., U.S. Nuclear Regulatory Commission, 1983 Tanner, A. P.; Swets, J. A. A decision- making theory of visual detection, Psychological Review, 1954, 61, 401– 409.
Analýza lidských chyb vedoucích k nehodám
22
J.Štikar , J.Hoskovec, J.Šmolíková
Analýza lidských chyb vedoucích k nehodám
23
J.Štikar , J.Hoskovec, J.Šmolíková
PRAŽSKÉ SOCIÁLNĚ VĚDNÍ STUDIE / PRAGUE SOCIAL SCIENCE STUDIES
Psychologická řada 2006
001
Straka J..
002
004
Bidlová E. Strnádková J.. Bidlová E. Gillernová I. Šulová L.
005
Janoušek J.
Aspirační úroveň, výkonový motiv a vnímané sebeuplatnění jako psychologické faktory výkonnosti ve společnosti ve společenských podmínkách
006
Vaněk P..
007
Čapek J.
008
Riegl K.
Člověk v ekonomickém světě (Nástin nároků společnosti orientované na výkon na člověka v ekonomických vztazích Nároky výkonové společnosti na člověka jako člena rodiny Výkonová společnost a její alternativy. Postavení jedince
009
Mikšík O.
003
Absurdity a sociální disrupce ve výkonové společnosti Příspěvek k dynamické diagnostice předškolních dětí Sociální dovednosti učitele a možnosti jejich rozvíjení pomocí videotréninku interakcí Počátky řečového vývoje a specifický vliv mateřské a otcovské mluvy
Psychologické souvislosti, zdroje a důsledky nezaměstnanosti
Analýza lidských chyb vedoucích k nehodám
24
ANALÝZA LIDSKÝCH CHYB VEDOUCÍCH K NEHODÁM J.Štikar, J.Hoskovec, J.Šmolíková Edice pracovních sešitů PSSS Psychologická řada PSY-010 Redakční rada Ilona Gillernová Lenka Šulová Jaromír Janoušek Korektor Stanislav Pscheidt Vydavatel FSV UK, Smetanovo nábřeží 6, Praha 1 Kontakt
[email protected]
J.Štikar , J.Hoskovec, J.Šmolíková