Menü
Start
Anmelden / Registrieren
Suche
 
Start arrow Maschinenbau arrow Zukunft der Arbeit in Industrie 4.0
< Zurück   INHALT   Weiter >

Das klassische Automatisierungsdilemma

Bainbridge hat 1983 in ihrem mittlerweile klassischen Beitrag die Ironien der Automatisierung von Überwachungs- und Steuerungsprozessen in der Industrie pointiert herausgestellt. Obwohl Bainbridge auf die Prozessindustrie fokussiert, führt sie bereits an, dass sich die Ironien auch in vielen anderen hochautomatisierten Bereichen wieder finden lassen. Das Dilemma der Automatisierung lässt sich beispielsweise sehr gut am Beispiel der Luftfahrt darstellen.

Die Automatisierung bestimmter Pilotenaufgaben erlebte in den 80er Jahren einen entscheidenden Auftrieb. Mit der Einführung der Boeing 767 im Jahre 1982 konnte die Arbeitslast im Cockpit so weit reduziert werden, dass statt der Drei-Mann-Besatzung nur noch zwei Piloten notwendig waren (Billings 1997). In diesen Anfängen der Cockpitautomatisierung wurde der Mensch als schwächstes Glied im Flugablauf betrachtet und es galt, seine Tätigkeiten so weit wie möglich durch Automatisierung zu ersetzen (Rüegger 1990). Nicht der Pilot, sondern das technisch Machbare stand im Vordergrund. Sicherheitssysteme, die riskante Manöver verhindern sollen, wurden eingebaut, z. B. Stallprotectionsysteme, um einen Strömungsabriss, und Speedprotectionsysteme, um zu hohe Geschwindigkeiten zu verhindern. Die menschliche Steuerung wurde mehr und mehr durch eine automatische Steuerung in Form von Autopiloten und Flight Management Systemen ersetzt, wobei sich die Rolle des Piloten vom aktiv Handelnden zum passiv Überwachenden wandelte. Die neue Rolle wird als Supervisory Control (Sheridan 1997) bezeichnet. Der Pilot programmiert und überwacht die Systeme, die für ihn die Steuerung des Flugprozesses übernehmen. Steuerungssysteme lesen den Zustand des zu steuernden Prozesses über Sensoren und manipulieren diesen über Aktuatoren.

Die Ironie beginnt damit, dass im Notfall von den Piloten verlangt wird, dass sie in die automatische Steuerung eingreifen und ggf. manuell übernehmen. Diese Sichtweise ist nicht konsistent mit der Vorstellung, dass der Mensch das schwächste Glied im Flugablauf ist. Besonders kritisch ist, dass die Piloten vor allem in Flugphasen entlastet werden, in denen die Arbeitslast ohnehin bereits gering ist, z. B. im wenig anspruchsvollen Streckenflug durch völlige Reduzierung des körperlich-handwerklichen Aufwands. In kritischen Phasen mit hoher Arbeitslast (z. B. beim Startoder Landeabbruch) hingegen wird die Belastung durch die oft kontraintuitive Bedienung der Automatik verstärkt (Sarter und Woods 1995). Diese Situation lässt sich in ähnlicher Weise auf alle hochautomatisierten Bereiche beziehen, in denen die Aufgabe darin besteht, einen Prozess (z. B. Fertigungsprozess, Fahrprozess, Stromversorgung) zu überwachen und zu steuern. Bainbridge (1983) zeigt vier Ironien der Automatisierung auf:

Ironie 1: Menschen werden von Entwicklern als wesentliche Fehlerquelle betrachtet und deshalb durch Automatisierung ersetzt. Allerdings sind auch die Entwickler Menschen und damit anfällig für Fehler, in ihrem Fall für Entwicklungsfehler. Dies führt dazu, dass eine Reihe operativer Fehler tatsächlich auf Entwicklungsfehler zurückgeführt werden können.

Ironie 2: Aufgaben, die sich (derzeit) nicht automatisieren lassen, eventuell weil sie zu komplex sind und sich nicht vollständig a-priori spezifizieren lassen, werden auf den Menschen, also auf das schwächste Glied in der Prozesskontrolle übertragen.

Ironie 3: Der Mensch wird durch Automatisierung ersetzt, weil die Systeme die Aufgaben besser durchführen können. Sie/er soll aber weiterhin die Systeme überwachen und prüfen, ob sie korrekt arbeiten. In Störfällen soll der Mensch dann eingreifen und ggf. manuell übernehmen.

Ironie 4: Die zuverlässigsten Automatisierungssysteme erfordern den höchsten Aufwand an Trainingsmaßnahmen, weil sich im täglichen Betrieb keine Gelegenheit für aktive Kontrolle und Auseinandersetzung mit dem System bietet. Unverlässliche Systeme hingegen erfordern regelmäßiges aktives Eingreifen und Hineindenken in die funktionalen Zusammenhänge und erhalten damit die manuellen Kontrollfähigkeiten aufrecht, was den Trainingsaufwand reduziert.

Die Ironien zeigen, dass Entwickler dem Menschen implizit eine sehr wichtige Rolle auferlegen. Allerdings geschieht dies oft ohne sie/ihn mit geeigneten Mitteln auszustatten, die notwendig wären, um die Rolle zu erfüllen. Ein wichtiger Aspekt ist beispielsweise die Gestaltung der Mensch–Maschine Interaktion, um ein adäquates Situationsbewusstsein zu unterstützen. Hier müsste sichergestellt werden, dass der Operateur zu jedem Zeitpunkt die notwendige Information über den Zustand des Prozesses und die Kontrolleingriffe der Automatisierungssysteme in intuitiver Weise erhält. Der Trend geht eher dahin, dass der Mensch mehr und mehr aus der Kontrollschleife herausgenommen und eine zunehmende Distanz zum tatsächlichen Kontrollprozess geschaffen wird. Dadurch gehen praktische Kenntnisse darüber verloren, wie der Prozess zu steuern ist (Wiener und Curry 1980). Es findet eine Erosion manueller Fähigkeiten und intimer Kenntnisse über das Verhalten und die Steuerung der Prozesse statt. Diese Fähigkeiten und Kenntnisse sind aber essentiell, um in Störfällen effektiv eingreifen zu können.

Unbestritten ist sicherlich, dass die Einführung moderner Automatisierungssysteme zur Erhöhung der Sicherheit beigetragen hat. Dennoch muss festhalten werden, dass eine neue Qualität von Fehlern hervorgebracht wurde, die weitgehend ein Resultat der aufgezeigten Ironien sind. Stichwörter sind hier Automation Surprises (Sarter et al. 1997), Lack of Understanding (Endsley 1996), Mode Confusion (Norman 1981; Degani et al. 1999), Complacency (Parasuraman und Manzey 2010), Skill Degradation (Sherman 1997), Outof-the-loop Effects (Endsley und Kiris 1995), Automation Misuse, Disuse, Abuse (Parasuraman und Riley 1997). In Unfall- und Vorfallberichten wird dann oft von „menschlichem Fehlverhalten“ oder „Fehlbedienungen“ gesprochen. Allerdings sind diese Fehler häufig nicht ursächlich auf den menschlichen Operateur zurückzuführen, sondern vielmehr auf ein Missverständnis menschlicher Fähigkeiten durch die Entwickler von Automatisierungssystemen bzw. auf eine unzureichenden Entwicklungsphilosophie kombiniert mit unvollständigen Entwicklungsprozessen und -werkzeugen, die den Faktor Mensch ignorieren oder nur unzulänglich berücksichtigen.

Automatisierung ohne explizite und systematische Berücksichtigung des Menschen kann nicht funktionieren. Ziel sollte es sein, ein Gesamtsystem bestehend aus Automatisierungssystemen und menschlichen Operateuren zu entwickeln, welches im Zusammenspiel seine Aufgaben, z. B. die Überwachung und Steuerung eines industriellen Fertigungsprozesses, verlässlich und sicher erfüllt. Dieses Gesamtsystem wird weiter unten als Mensch– Maschine Team weiter ausgeführt. Die Rolle der involvierten Menschen muss explizit unter Berücksichtigung eines tiefen Verständnisses der menschlichen Kognition entworfen werden. Das steigende Interesse an Methoden zur Berücksichtigung des Faktors Mensch in der Automatisierung zeigt, dass das Problem generell als relevant wahrgenommen wird. In der Forschung zeichnen sich vielversprechende Lösungsansätze ab, die allerdings noch Eingang in die industrielle Praxis finden müssen. Eine Voraussetzung dafür ist, dass, auf der einen Seite, Entwickler etwas über den Faktor Mensch lernen und dass, auf der anderen Seite, Human Factors Experten die Sprache der Entwickler sprechen. Die Werkzeuglandschaften der beiden Gruppen müssen integriert werden, sodass es für Entwickler einfacher wird, bereits in den frühesten Phasen der Entwicklung Anforderungen des Menschen systematisch zu berücksichtigen und in den folgenden Schritten konsequent umzusetzen. Zunächst gilt es jedoch, einige grundsätzliche Fragen bzgl. der Rolle des Menschen zu klären.

 
Fehler gefunden? Bitte markieren Sie das Wort und drücken Sie die Umschalttaste + Eingabetaste  
< Zurück   INHALT   Weiter >
 
Fachgebiet
Betriebswirtschaft & Management
Erziehungswissenschaft & Sprachen
Geographie
Informatik
Kultur
Lebensmittelwissenschaft & Ernährung
Marketing
Maschinenbau
Medien und Kommunikationswissenschaft
Medizin
Ökonomik
Pädagogik
Philosophie
Politikwissenschaft
Psychologie
Rechtswissenschaft
Sozialwissenschaften
Statistik
Finanzen
Umweltwissenschaften