Menü
Start
Anmelden / Registrieren
Suche
 
Start arrow Maschinenbau arrow Zukunft der Arbeit in Industrie 4.0
< Zurück   INHALT   Weiter >

Zusammenfassung

Der Text stellt das Konzept des Mensch–Maschine Teams als Perspektive für die Automatisierung und möglichen Ausweg aus dem Automatisierungsdilemma vor. Hierbei ist weder das Automatisierungssystem noch der Mensch im Zentrum der Entwicklung, sondern das dynamische Zusammenspiel unterstützt durch eine adäquate Mensch–Maschine Kommunikation. Ein modellbasiertes Vorgehen kann helfen, die damit verbundenen Entwicklungsherausforderungen mit Ingenieurmethoden zu bewältigen. Die klassischen Ironien der Automatisierung werden dabei auf folgende Weise adressiert:

Ironie 1: Es wird anerkannt, dass Menschen den Maschinen in bestimmten Aspekten überlegen sind. Aufgaben werden je nach Situation dynamisch auf Mensch und Maschine verteilt. Das Gesamtsystem und insbesondere das Zusammenspiel zwischen Mensch und Maschine wird eingehend durch modellbasierte Verfahren evaluiert, um Entwicklungsfehler früh im Entwicklungsprozess zu finden und zu beheben.

Ironie 2: Aufgaben werden nicht nach Machbarkeit verteilt, sondern unter Berücksichtigung der situativen Stärken und Schwächen der Mitglieder des Menschen–Maschine Teams.

Ironie 3: Die Überwachung der Maschinen wird unterstützt durch Kommunikationsstrategien und entsprechende Mensch–Maschine Schnittstellen, deren Gestaltung sich an der menschlichen Informationsverarbeitung orientiert. Es wird erkannt, dass die dynamische Übergabe von Aufgaben an den Menschen (z. B. in Störfällen) durch explizit entworfene intuitive Übergabestrategien vorbereitet werden muss.

Ironie 4: Den Operateuren wird in definierten Fällen die Möglichkeit eingeräumt, Aufgaben selbst durchzuführen, um einer Erosion manueller Fähigkeiten entgegenzuwirken.

An der Umsetzung eines modellbasierten Vorgehensmodells zur Entwicklung von Mensch– Maschine Teams arbeiten aktuell 31 Industrie- und Forschungspartner aus sieben Ländern in dem durch ARTEMIS (artemis-ju.eu) geförderten Projekt HoliDes (Holistic Human Factors and System Design of Adaptive Cooperative Human–Maschine Systems). Adressiert werden die Anwendungsbereiche Luftfahrt, Straßenverkehr, Leitstände und Medizin. Weiterführende Informationen zu dem Thema dieses Textes lassen sich auf der Webseite des Projektes holides.eu finden.

Literaturverzeichnis

Amelink, M. H. J., Mulder, M., van Paassen, M. M., & Flach, J. (2005). Theoretical foundations for a total energy-based perspective flight-path display. International Journal of Aviation Psychology, 15(3), 205–231.

Anderson, J. R., Bothell, D., Byrne, M. D., Douglass, S., Lebiere, C., & Qin, Y. (2004). An integrated theory of the mind. Psychological Review, 111(4), 1036–1060.

Annett, J. (2004). Hierarchical task analysis. In D. Diaper & N. Stanton (Hrsg.), The handbook of task analysis for human–computer interaction (S. 67–82). Mahwah: Lawrence Erlbaum.

Bainbridge, L. (1983). Ironies of automation. Automatica, 19(6), 775–779.

Billings, C. E. (1997). Aviation automation: the search for a human-centered approach. Mahwah: Lawrence Erlbaum Associates.

Burns, C. M. (2000). Putting it all together: improving display integration in ecological displays.

Human Factors, 42, 226–241.

Burns, C. M., & Hajdukiewicz, J. R. (2004). Ecological interface design. Boca Raton: CRC Press. Byrne, E. A., & Parasuraman, R. (1996). Psychophysiology and adaptive automation. Biological

Psychology, 42(3), 249–268.

Card, S. K., Moran, T. P., & Newell, A. (1983). The psychology of human–computer interaction. Hillsdale: Lawrence Erlbaum Associates.

Christoffersen, K., & Woods, D. D. (2002). How to make automated systems team players. Advances in Human Performance and Cognitive Engineering Research, 2, 1–12.

Corker, K. M. (2000). Cognitive models and control. In N. B. Sarter & R. Amalberti (Hrsg.), Cognitive engineering in the aviation domain. Mahwah: LEA.

Dahlback, N., Jonsson, A., & Ahrenberg, L. (1993). Wizard of Oz studies – why and how. Knowledge Based Systems, 6(4), 258–266.

Degani, A., Shafto, M., & Kirlik, A. (1999). Modes in human–machine systems: review, classification, and application. International Journal of Aviation Psychology, 9(2), 125–138.

Endsley, M. R. (1996). Automation and situation awareness. Automation and human performance: theory and applications, S. 163–181.

Endsley, M. R., & Kiris, E. O. (1995). The out-of-the-loop performance problem and level of control in automation. Human Factors, 37, 381–394.

Fitts, P. M. (Hrsg.) (1951). Human engineering for an effective air navigation and traffic control system. Washington: National Research Council.

Flach, J. M., & Vicente, K. J. (1989). Complexity, difficulty, direct manipulation and direct perception. Technical Report EPRL-89-03. Engineering Psychol. Res. Lab., Univ. of Illinois, UrbanaChampaign, IL.

Forsythe, C., Bernard, M. L., & Goldsmith, T. E. (2005). Human cognitive models in systems design. Mahwah: Lawrence Erlbaum Associates.

Frey, D., & Schulz-Hardt, S. (1997). Eine Theorie der gelernten Sorglosigkeit. In H. Mandl (Hrsg.), Bericht über den 40. Kongress der Deutschen Gesellschaft für Psychologie (S. 604–611). Göttingen: Hogrefe Verlag für Psychologie.

Gigerenzer, G., Todd, P. M., & ABC Res. Group (1999). Simple heuristics that make us smart. New York: Oxford Univ. Press.

Javaux, D. (1998). Explaining Sarter & Woods' classical results. The cognitive complexity of pilot– autopilot interaction on the Boeing 737-EFIS. In N. Leveson & C. Johnson (Hrsg.), Proceedings of the 2nd workshop on human error, safety and systems development.

Klein, G., Woods, D. D., Bradshaw, J. M., Hoffman, R. R., & Feltovich, P. J. (2004). Ten challenges for making automation a “Team player” in joint human-agent activity. IEEE Intelligent Systems archive, 19(6), 91–95.

Lenk, J. C., Droste, R., Sobiech, C., Lüdtke, A., & Hahn, A. (2012). In T. Bossomaier & S. Nolfi (Hrsg.), Proceedings of the fourth international conference on advanced cognitive technologies and applications (COGNITIVE). ThinkMind (S. 67–70).

Lewis, R. L. (2001). Cognitive theory, soar. In International encylopedia of the social and behavioral sciences. Amsterdam: Pergamon.

Lüdtke, A., & Möbus, C. (2004). A cognitive pilot model to predict learned carelessness for system design. In A. Pritchett & A. Jackson (Hrsg.), Proceedings of the international conference on human–computer interaction in aeronautics (HCI-aero). Cépaduès-Editions: France. CD-ROM

Lüdtke, A., Osterloh, J.-P., & Frische, F. (2012). Multi-criteria evaluation of aircraft cockpit systems by model-based simulation of pilot performance. In Proceedings international conference on embedded real-time systems and software (ERTS2), 1.–3. February 2012, Toulouse, France.

Mackworth, N. H. (1950). Researches on the measurement of human performance. In H. W. Sinaiko (Hrsg.), Selected papers on human factors in the design and use of control systems (1961) (S. 174–331). New York: Dover.

May, J., & Barnard, P. J. (2004). Cognitive task analysis in interacting cognitive subsystems. In D. Diaper & N. Stanton (Hrsg.), The handbook of task analysis for human–computer interaction (S. 291–325). Mahwah: Lawrence Erlbaum.

Norman, D. A. (1981). Categorization of action slips. Psychological Review, 88(1), 1–15. Opperman, R. (1994). Adaptive user support. Hillsdale: Erlbaum.

Parasuraman, R., & Manzey, D. H. (2010). Complacency and bias in human use of automation: an attentional integration. Journal of the Human Factors and Ergonomics Society, 52, 381–410.

Parasuraman, R., & Riley, V. (1997). Human and automation: use, misuse, disuse, abuse. Human Factors, 39(2), 230–253.

Parasuraman, R., Sheridan, T. B., & Wickens, C. D. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on Systems, Man, and Cybernetics – Part A: Systems and Humans, 30(3), 286–297.

Rasmussen, J. (1983). Skills, rules, knowledge; signals, signs, and symbols, and other distinctions in human performance models. IEEE Transactions on Systems, Man and Cybernetics, 13(3), 257– 266.

Rasmussen, J. (1985). The role of hierarchical knowledge representation in decision making and system management. IEEE Transactions on Systems, Man and Cybernetics, 15(2), 234–243.

Rouse, W. B. (1981). Human-computer interaction in the control of dynamic systems. ACM Computing Surveys, 13, 71–99.

Rüegger, B. (1990). Menschliches Fehlverhalten im Cockpit. Schweizerische RückversicherungsGesellschaft, Abteilung Luftfahrt, Mythenquai 50/60, Postfach, CH-8022 Zürich, Schweiz.

Sarter, N. B., & Woods, D. D. (1995). Strong, silent and out of the loop: properties of advanced (cockpit) automation and their impact on human–automation interaction. Cognitive Systems Engineering Laboratory Report, CSEL 95-TR-01. The Ohio State University, Columbus OH, March 1995. Prepared for NASA Ames Research Center.

Sarter, N. B., Woods, D. D., & Billings, C. (1997). Automation surprises. In G. Salvendy (Hrsg.),

Handbook of human factors/ergonomics (2. Aufl., S. 1926–1943). New York: Wiley.

Sheridan, T. B. (1997). Supervisory control. In Handbook of human factors and ergonomics. New York: Wiley.

Sherman, P. J. (1997). Aircrews' evaluations of flight deck automation training and use: measuring and ameliorating threats to safety. The University of Texas Aerospace Crew Research Project. Technical Report 97-2, bluecoat.org/reports/Sherman_97_Aircrews.pdf (Stand 23.04.2014).

Simon, H. A. (1955). A behavioral model of rational choice. Journal of Economics, 69, 99–118. Sobiech, C., Eilers, M., Denker, C., Lüdtke, A., Allen, P., Randall, G., & Javaux, D. (2014). Si-

mulation of socio-technical systems for human-centre ship bridge design. In Proceedings of the international conference on human factors in ship design & operation (S. 115–122). London: The Royal Institution of Naval Architects.

Stanton, N. A. (2006). Hierarchical task analysis: development applications and extensions. Applied Ergonomics, 37, 55–79.

Vicente, K. J., & Rasmussen, J. (1992). Ecological interface design: theoretical foundations. IEEE Transactions on Systems, Man and Cybernetics, 22, 589–606.

Vicente, K. J. (2002). Ecological interface design: progress and challenges. Human Factors, 44, 62–78.

Warm, J. S., Dember, W. N., & Hancock, P. A. (1996). Vigilance and workload in automated systems. In R. Parasuraman & M. Mouloua (Hrsg.), Automation and human performance: theory and applications (S. 183–200). Mahwah: Lawrence Erlbaum.

Wiener, E. L., & Curry, R. E. (1980). Flight-deck automation: promises and problems. Ergonomics, 23(10), 995–1011.

Woods, D. D., & Roth, E. M. (1988). Cognitive engineering: human problem solving with tools.

Human Factors, 30(4), 415–430.

Wortelen, B., Baumann, M., & Lüdtke, A. (2013). Dynamic simulation and prediction of drivers' attention distribution. Journal of Transportation Research Part F: Traffic Psychology and Behaviour, 21, 278–294.

Yamauchi, Y. (2012). Participatory design. In T. Ishida (Hrsg.), Field informatics (S. 123–138). Welwyn: Springer.

Zsambok, C. E., Beach, L. R., & Klein, G. (1992). A literature review of analytical and naturalistic decision making. In Contract N66001-90-C-6023 for the Naval command, control and ocean surveillance center. San Diego: Klein Associates Inc.

 
Fehler gefunden? Bitte markieren Sie das Wort und drücken Sie die Umschalttaste + Eingabetaste  
< Zurück   INHALT   Weiter >
 
Fachgebiet
Betriebswirtschaft & Management
Erziehungswissenschaft & Sprachen
Geographie
Informatik
Kultur
Lebensmittelwissenschaft & Ernährung
Marketing
Maschinenbau
Medien und Kommunikationswissenschaft
Medizin
Ökonomik
Pädagogik
Philosophie
Politikwissenschaft
Psychologie
Rechtswissenschaft
Sozialwissenschaften
Statistik
Finanzen
Umweltwissenschaften