Zum Hauptinhalt springen
Geist Veröffentlicht am 28. Februar 2025 9 Min. Lesezeit

Menschlicher Fehler und Arbeitssicherheit: der Faktor Mensch in der Unfallprävention

Wie der menschliche Faktor die Arbeitssicherheit beeinflusst: Reasons Modell, INAIL-Unfalldaten, systemischer Ansatz und Just Culture in Organisationen.

menschlicher Fehler Faktor Mensch Sicherheit INAIL Just Culture Unfallprävention

Der menschliche Faktor: Warum 80% der Unfälle kognitive Wurzeln haben

Wenn ein Arbeitsunfall passiert, lautet die häufigste Frage: “Wer hat einen Fehler gemacht?” Diese Sichtweise — intuitiv, aber wissenschaftlich überholt — hat das Sicherheitsmanagement jahrzehntelang dominiert und zu Bestrafungssystemen geführt, die die Meldung von Fehlern entmutigen und das organisatorische Lernen verhindern.

Die INAIL-Daten zeigen, dass in Italien jedes Jahr rund 600.000 Arbeitsunfälle gemeldet werden, mit über 1.000 Todesfällen. Bei der Analyse der Ursachen zeigt sich ein konsistentes Muster: etwa 80% der Unfälle haben eine Komponente, die mit dem menschlichen Faktor zusammenhängt — kognitive Fehler, Ablenkung, Ermüdung, Risikounterschätzung, Verfahrensverstöße.

Was genau bedeutet “menschlicher Faktor”, und wie können Organisationen ihn systematisch managen?

Das Modell von Reason: der Schweizer Käse der Sicherheit

James Reason, Kognitionspsychologe an der Universität Manchester, entwickelte das Swiss Cheese Model (Schweizer-Käse-Modell), das zum Referenzframework für das Unfallmanagement in zahlreichen Hochrisikobranchen geworden ist: Zivilluftfahrt, Nuklearindustrie, Gesundheitswesen, chemische Industrie.

Das Modell beschreibt Sicherheitssysteme als eine Reihe von “Scheiben Schweizer Käse” — jede repräsentiert eine Abwehrbarriere (Verfahren, Ausbildung, Ausrüstung, Überwachung). Die “Löcher” im Käse repräsentieren die Schwachstellen jeder Barriere. Normalerweise sind die Löcher nicht ausgerichtet, und das Risiko wird eingedämmt. Ein Unfall tritt auf, wenn sich die Löcher aller Barrieren in einem bestimmten Moment ausrichten und eine “Gelegenheitstrajektorie” für den Unfall entsteht.

Reasons grundlegende Unterscheidung:

  • Aktive Fehler: Handlungen oder Unterlassungen von Frontkräften
  • Latente Bedingungen: Organisatorische Defekte, die schlummern, bis sie sich mit einem aktiven Fehler verbinden

Diese Unterscheidung ist entscheidend: die Bestrafung aktiver Fehler ohne Behebung latenter Bedingungen reduziert das Risiko nicht, sondern maskiert es nur.

Die Taxonomie menschlicher Fehler

Reason klassifiziert Fehler in drei Hauptkategorien:

Slips (Ausführungsfehler): Treten bei der Ausführung automatisierter Handlungen auf. Die Absicht ist korrekt, aber die Handlung wird falsch ausgeführt. Hauptursachen: Ablenkung und Unterbrechungen.

Lapses (Gedächtnislücken): Versagen des prospektiven Gedächtnisses. Eine Handlung wird ausgelassen oder zum falschen Zeitpunkt ausgeführt. Korreliert mit Ermüdung, kognitiver Überlastung und Unterbrechungen.

Mistakes (Urteilsfehler): Treten auf, wenn die Absicht selbst falsch ist — man tut das Richtige für das falsche Problem. Können regelbasiert sein (falsche Anwendung einer Regel) oder wissensbasiert (fehlende Informationen für die richtige Entscheidung). Am schwersten zu verhindern, da es oft kein unmittelbares Feedback gibt.

Dazu kommen Violations — bewusste Verhaltensweisen, die Verfahren oder Sicherheitsnormen verletzen.

Die Rolle von kognitiver Ermüdung und Stress

Nach 17 Stunden Wachsein entsprechen die kognitiven Leistungen einem Blutalkoholgehalt von 0,05 g/dL. Nach 24 Stunden 0,10 g/dL — über dem gesetzlichen Fahrgrenzwert in vielen Ländern. (Nature, Williamson und Feyer, 2000)

Akuter Stress aktiviert die “Kampf-oder-Flucht”-Reaktion, die die Aktivität des präfrontalen Kortex reduziert und automatische, oft unzureichende Reaktionen begünstigt. Kognitives Tunneling — unter Zeit- oder Stressdruck verengt sich die Aufmerksamkeit übermäßig — ist bei zahlreichen Flugzeug-, Schiffs- und Industrieunfällen dokumentiert.

Von der Schuld- zur Just Culture

Das Just-Culture-Konzept (gerechte Kultur), entwickelt von David Marx und erfolgreich in der Zivilluftfahrt und im Gesundheitswesen angewendet, ist das Referenzparadigma für den modernen Umgang mit menschlichem Fehler.

Eine Just Culture ist weder die Schuldkultur (jeder Fehler ist strafbar) noch die absolute Nicht-Bestrafungskultur. Es ist ein System, das:

  1. Die Meldung von Fehlern und Beinaheunfällen fördert
  2. Ehrliche Fehler (Unterstützung und Schulung) von bewusst riskantem Verhalten (Coaching) und vorsätzlichen Verstößen (Disziplinarmaßnahmen) unterscheidet
  3. Root Cause Analysis durchführt statt beim unmittelbaren Verursacher stehenzubleiben
  4. Aus Erfahrungen lernt und Prozesse systematisch verbessert

British Airways reduzierte nach Einführung eines vertraulichen Fehlermelde-Systems die Zwischenfälle in 10 Jahren um 70%.

Praktische Werkzeuge

  • Checklisten und Verfahren: Reduzieren Verfahrensfehler um 35-40% auch bei erfahrenen Operatoren
  • Strukturiertes Debriefing: Regelmäßige kollektive Überprüfung von Ereignissen, einschließlich Beinaheunfällen
  • Human Factors Investigation: Strukturierte Unfallanalysen mit SHELL-Modell oder HFACS
  • Cognitive Task Analysis: Mapping kognitiver Prozesse bei kritischen Aufgaben

Das Schulungsangebot von Training IS

Der Kurs Menschlicher Fehler und Unfallprävention von Training IS behandelt diese Themen mit einem wissenschaftlichen und operativen Ansatz. Das Programm umfasst das Verständnis kognitiver Mechanismen, die Anwendung des Reason-Modells, die Implementierung von Just-Culture-Meldesystemen und die Entwicklung einer lernorientierten Organisationskultur.

Für Informationen zum Kurs, kontaktieren Sie uns.