PL EN


Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
2010 | nr 3 (13) | 67--84
Tytuł artykułu

Zarządzanie bezpieczeństwem

Autorzy
Warianty tytułu
Irreducibility Endogenised
Języki publikacji
PL
Abstrakty
Autor niniejszej pracy, stanowiącej fragment książki pt. Deep Complexity and the Social Sciences. Experience, Modelling and Operationally, poddaje szczegółowej analizie kwestię niemożności zredukowania do zera ryzyka występowania wypadków w systemach złożonych. Odwołując się do prac autorów takich jak Charles Perrow, stawia tezę, że zasadniczą przyczynę tego rodzaju wypadków stanowi nieprzewidywalność interakcji między poszczególnymi częściami składowymi tych systemów. Następnie prezentuje koncepcję zabezpieczeń wielowarstwowych i poddaje ją krytyce ze względu na coraz większy dystans dzielący operatorów od systemów, które mają oni nadzorować, oraz nawarstwianie się tzw. problemów utajonych. Wybrany fragment pracy kończy się prezentacją różnych punktów widzenia na temat sposobów określania społecznie akceptowalnego poziomu ryzyka i jego optymalizacji w odniesieniu do zaproponowanego przez Jamesa Reasona teoretycznego modelu kompromisu między ryzykiem a wydajnością oraz omawia zastosowanie zasady ostrożności w praktyce. (abstrakt oryginalny)
EN
The author of the present work, which constitutes an excerpt from his book Deep Complexity and the Social Sciences. Experience, Modelling and Operationally, offers a detailed analysis of an intrinsic irreducibility of risk of accidents in complex systems. Drawing on the works of authors such as Charles Perrow, he argues that the fundamental reason behind such events is the unpredictability of interactions between individual components of these systems. He goes on to outline the concept of defences-in-depth and criticises it on the grounds of the ever-growing distance between operators and the systems that they are supposed to supervise, and the occurrence of the so-called latent problems. The selected fragment of the book concludes with a presentation of different points of view on the subject of defining socially acceptable levels of risk and its optimisation with reference to the theoretical model of compromise between risk and performance proposed by James Reason, along with a discussion of the practical application of the precautionary principle. (original abstract)
Rocznik
Numer
Strony
67--84
Opis fizyczny
Twórcy
  • Université de Versailles-Saint-Quentin-en-Yvelines, France
Bibliografia
  • Amalberti R. (1996). La conduite de systèmes à risques. Paris: Presses Universitaires de France.
  • Amalberti R. (1997). Notions de sécurité'écologique: le contrôle du risque par l'individu et l'analyse des menaces qui pèsent sur ce contrôle. Approche psycho-ergonomique. Monographie du Séminaire du Programme Risques Collectifs et Situations de Crise. Paris: CNRS, listopad.
  • Amalberti R. (1999). ,,Les effets pervers de l'ultra-sécurité", La Recherche, nr 319, s. 66-70.
  • Amalberti R. (2001). ,,The paradoxes of almost totally safe transportation systems", Safety Science, nr 37, 2-3, s. 109-126.
  • Bainbridge L. (1987). «Ironies of automation", w: J. Rasmussen, K. Duncan, J. Leplat (red.), New Technology and Human Error. Chichester: Wiley, s. 271-283.
  • Billings C. (1997). Human Centred Aviation Automation. Hillsdale, NJ: Lawrence Erlbaum Associates.
  • Commission of the European Communities (CEC) (2000). Communication on the Precautionary Principle. Brussels: COM l, luty.
  • Durand N., Alliot J.-M. (1999). ,,Peut-on sup-primer le contrôle au sol?", La Recherche, s. 319, kwiecień s. 57-61.
  • Fischhoff B. (1975). "Hindsight ≠ foresight: The effect of outcome knowledge on judgment under uncertainty", Journal of Experimental Psychology: Human Cognition and Performance, nr 1, 3, s. 288-299.
  • Fischhoff B., Lichtenstein S., Slovic P., Derby S., Keeney R. (1981 [1999]). Acceptable Risk (wyd. 2). Cambridge: Cambridge University Press.
  • Hollnagel E. (2004). Barriers and Accident Prevention. Aldershot: Ashgate.
  • Paté-Cornell M.E. (1993). «Learning from the Piper Alpha Accident: A postmortem analysis of technical and organizational factors", Risk Analysis, nr 13,2, s. 215-232.
  • Perrow C. (1999a). Normal Accidents. Living with High-Risk Technologies. Princeton, NJ: Princeton University Press.
  • Perrow C. (1999b). Organisations à hauts risques et ,,normal accidents". Monographie du Séminaire du Programme Risques Collectifs et Situations de Crise. Paris: CNRS, czerwiec.
  • Rasmussen J. (1997). ,,Risk management in a dynamic society: A modelling problem", Safety Science, nr 27,2/3, s. 183-213.
  • Rasmussen J., Jensen A. (1974). ..Mental procedures in real life tasks. A case study of electronic troubleshooting", Ergonomics, nr 17, s. 293-307.
  • Rasmussen J., Svedung I. (2000). Proactive Risk Management in a Dynamic Society. Karlstad, Sweden: Swedish Rescue Services Agency.
  • Reason J. (1993). L'erreur humaine. Paris: Presses Universitaires de France.
  • Reason J. (1998). Managing the Risks of Organizational Accidents. Aldershot: Ashgate.
  • Science et Vie (2000). "Tokaimura: accident impossible en France?", Science et Vie, styczeń, s. 102-109.
  • Triendl R. (1999). ,,Les déboires du plutonium japonais", La Recherche, nr 319, s. 30-32.
  • Vaughan D. (1996). The Challenger Launch Decision, Risky Technology, Culture and Deviance at NASA. Chicago, IL: University of Chicago Press.
  • Vickers G. (1995). The Art of Judgment, A Study of Policy Making. London: Sage.
  • Villiers J. (1998). ,,Le mur de l'automatisation", w: Académie Nationale de l'Air et de l'Espace (red.), La relation homme-machine dans l'aéronautique. Toulouse: Teknea, s. 205-237.
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171200073

Zgłoszenie zostało wysłane

Zgłoszenie zostało wysłane

Musisz być zalogowany aby pisać komentarze.
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.