Benutzer:FrankOrtmeier/Productive Teaming
Productive Teaming ist ein Konzept zur Beschreibung einer Art der Zusammenarbeit von Mensch und Maschine im Kontext der Produktion. Dabei suggeriert der Begriff «Team» eine Art synergetischer Kooperation auf Augenhöhe.
Die Besonderheit des Productive-Teaming-Konzepts besteht darin, dass eine Maschine, genauer gesagt, ein cyber-physisches System, in Zusammenarbeit mit einem oder mehreren Menschen daran arbeitet, einen bestimmten Produktionsprozess zu bewerkstelligen. Dies stellt eine bislang ungewohnte Herangehensweise dar, Maschinen zu definieren. Dass derartige Maschinen ein gewisses Maß an („künstlicher“) Intelligenz mitbringen müssen, wird dabei stillschweigend vorausgesetzt.
Begriffsbestimmungen und nähere begriffliche Eingrenzung
[Bearbeiten | Quelltext bearbeiten]Im Gegensatz zu traditionellen Ansätzen fokussiert Productive Teaming auf Maschinen, die weder statisch vorprogrammierte Automatisierung durchführen noch lediglich auf explizite Vorgaben der Menschen im Sinne von kollaborativen Robotern reagieren, sondern stattdessen zur Laufzeit ein Modell der Ziele und Handlungspläne der Menschen erstellen, also im Sinne der künstlichen Intelligenz das Ziel verfolgen, die kognitiven Prozesse des Menschen und die daraus entstehenden Handlungen zu erfassen. Frühe Vorarbeiten dazu wurden im NEUROS- und im MORPHA-Projekt und an anderer Stelle in Deutschland um die Jahrtausendwende geleistet, in welchen gesten- und interaktionsbasierte Ablaufmuster zum flexiblen Anlernen von Industrierobotern untersucht wurden.[1][2][3]
Konzeptionell sind sie damit verwandt mit dem Begriff der Multiagentensysteme. Multiagentensysteme wurden zuerst in den frühen 2000er Jahren konzeptionell eingeführt. Mit der weiten Verbreitung von Algorithmen der künstlichen Intelligenz und der Verfügbarkeit von Cloud-Frameworks, erleben sie seit den späten 2010er einen großen Auftrieb[4]. Die dort entwickelten Konzepte wie etwa BDI fokussieren aber stark auf die Zusammenarbeit zwischen reinen IT-Bots. Productive Teaming stellt dagegen die Teamfähigkeit[5] physischer Maschinen mit Menschen ins Zentrum.
Es wird angestrebt, dass die Maschinen ein Bewusstsein (awareness) gegenüber ihrem menschlichen Partner entwickeln, das sich über vier Ebenen gliedert: Handlungsbewusstsein, kognitives Bewusstsein, Zielbewusstsein und Vertrauensbewusstsein (action awareness, cognitive awareness, goal awareness und trust awareness).
Eine Definition von Ragni, Ortmeier und anderen
[Bearbeiten | Quelltext bearbeiten]Marco Ragni[Anm. 1], Frank Ortmeier[Anm. 2] und andere definieren den Begriff „Productive Teaming“ wie folgt:
„Productive Teaming translates to both humans and machines sharing common goals and the mutual dependence required to achieve these. Humans and CPSs should efficiently execute a flexible, variant-rich and not fully automated work process through a common understanding of their respective capabilities and options for action. For this purpose, they must generate shared representations of capabilities, states, and goals and possess capabilities for (partial) plan generation, plan adaptions, (partial) plan execution, and coordination.“
Zu deutsch:
„Produktives Teaming bedeutet, dass sowohl Menschen als auch Maschinen gemeinsame Ziele verfolgen und auf die gegenseitige Abhängigkeit angewiesen sind, um diese zu erreichen.“ Durch ein gemeinsames Verständnis ihrer jeweiligen Fähigkeiten und Handlungsoptionen sollen Menschen und Cyber-physische Systeme einen flexiblen, variantenreichen und nicht vollautomatisierten Arbeitsprozess effizient durchführen können. Zu diesem Zweck müssen sie gemeinsame Darstellungen von Fähigkeiten, Zuständen und Zielen generieren und über Fähigkeiten zur (Teil-)Plangenerierung, Plananpassung, (Teil-)Planausführung und Koordination verfügen.“
Es geht also darum, Maschinen in der Produktion so zu gestalten, dass diese Menschen genauso intuitiv und flexibel unterstützen, wie es menschliche Partner tun würden. Dazu gehört beispielsweise, dass Maschinen ihre Taktzeiten dem Menschen anpassen oder auch von ihm lernen, welche Aktionen der Mensch wie und in welcher Reihenfolge präferiert. Empirische Forschungen im Bereich Kognition, Verhalten und Arbeitswissenschaft zeigen, dass dies nicht statisch ist, sondern sich im Verlauf der Zeit ändert. Im Productive Teaming wird dem durch das Konzept der Doppelten Regelschleife in der Folge Rechnung getragen.
Doppelte Regelschleife im Productive Teaming (nach Noack)
[Bearbeiten | Quelltext bearbeiten]Im Productive Teaming unterstützen Maschinen Menschen genauso intelligent, hilfsbereit und adaptiv, wie dies auch menschliche Teamkollegen tun würden.[Anm. 3] Zumindest in der Theorie. Dazu beobachten die Maschinen kontinuierlich das Verhalten und die Aktionen der Menschen und bilden daraus ein Verständnis der kognitiven Zustände und Handlungsziele letzterer. Auf Basis dieser gemeinsamen Ziele entwickeln sie einen Aktionsplan für ihr maschinelles Handeln. Diese Aktionen nimmt der Mensch wahr (Aktionen bezeichnen hier sowohl konkrete, effektive Hilfen der Maschinen als auch Informationen der Maschinen an den Menschen). Auf Basis dieser Wahrnehmung kann der Mensch dann seine eigenen Handlungsziele überprüfen und anpassen. Dies kann sowohl bedeuten, dass der Mensch seine eigenen Aktionen ändert (um beispielsweise die Maschine bestimmte Aufgaben erledigen zu lassen) als auch, dass er seinen bisherigen Handlungsplänen weiter folgt, zugleich aber auch zur Kenntnis nimmt, dass sich die Maschine seinen Plänen angepasst hat.
Forschungsrelevantes Szenario
[Bearbeiten | Quelltext bearbeiten]Ein Szenario, für welches sich die Forschung interessiert, sieht etwa wie folgt aus: Im Hinblick auf Objektkategorisierung klassifiziert eine Maschine typischerweise Objekte anhand eines internen, abgeleiteten Modells und ruft bei Unsicherheit einen menschlichen Mitarbeiter an. Der menschliche Arbeiter kann jedoch auch unsicher sein. Dann geht es darum, die Gewissheit des Menschen zu beurteilen, ohne den industriellen Prozess zu stören, und um die Zuverlässigkeit von Charakterisierungen und die Gewissheit des Menschen bei konventioneller Objektklassifizierung und Crowdworking zu beurteilen. Obwohl es Methoden zur Messung von Stress, Einblicke in die Korrelation von Stress und Unsicherheit sowie Unsicherheitsindikatoren bei der Kennzeichnung durch Menschen gibt, müssen diese Fortschritte noch kombiniert werden, um die Unsicherheitsherausforderung aufzulösen, damit die Maschine den Menschen im Productive Teaming sicher beurteilt.[6]
Verwandte Konzepte
[Bearbeiten | Quelltext bearbeiten]Die Fraunhofer-Gesellschaft hat im Januar 2023 ein deutschlandweites Forschungsprojekt zum Thema "Empathische Produktion" gestartet. An diesem Verbund sind über ganz Deutschland und Österreich verteilt 7 Fraunhofer-Institute beteiligt. Das Thema greift damit einen übergreifenden, industriell stark nachgefragten Trend zur Schaffung empathischer Assistenzsysteme auf. Im Gegensatz zu Productive Teaming steht hier allerdings das Konzept der Empathie und nicht das Konzept der geteilten Ziele und gemeinsamen Planung im Zentrum.
Literatur
[Bearbeiten | Quelltext bearbeiten]- Anne Rother, Gunther Notni, Alexander Hasse, Benjamin Noack, Christian Beyer, Jan Reißmann, Chen Zhang, Marco Ragni, Julia Arlinghaus, Myra Spiliopoulou: Productive teaming under uncertainty: when a human and a machine classify objects together. In: 2023 IEEE International Conference on Advanced Robotics and Its Social Impacts (ARSO), Berlin, Germany, June 5–7, 2023. IEEE, [Piscataway, NJ], 2023, ISBN 978-1-66546-424-6, S. 9–14.
Anmerkungen
[Bearbeiten | Quelltext bearbeiten]- ↑ Marco Ragni. Abgerufen am 26. Januar 2023.
- ↑ Frank Ortmeier. Abgerufen am 26. Januar 2023.
- ↑ Benjamin Noack. Abgerufen am 26. Januar 2023.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ A. Stopp, S. Horstmann, S. Kristensen, F. Lohnert: Towards interactive learning for manufacturing assistants. In: Proc. of the 10th IEEE Int. Workshop on Robot and Human Interactive Communication RO-MAN. Bordeaux/Paris 2001, S. 18–21.
- ↑ R. Bischoff, A. Kazi, M. Seyfarth: The morpha style guide for icon-based programming. In: Proc. of the 11th IEEE Int. Workshop on Robot and Human Interactive Communication RO-MAN. Berlin 2002, S. 482–487.
- ↑ R. Dillmann, O. Rogalla, M. Ehrenmann, R. Zöllner, M. Bordegoni: Learning robot behaviour and skills based on human demonstration and advice: the machine learning paradigm. In: Robotics Research: The Nineth International Symposium. Conference Proceedings 2000. / J. M. Hollerbach, D. E. Koditschek (Hrsg.), S. 229–238.
- ↑ Ali Dorri, Salil S. Kanhere, Raja Jurdak: Multi-Agent Systems: A Survey. In: IEEE Access. Band 6, 2018, ISSN 2169-3536, S. 28573–28593, doi:10.1109/ACCESS.2018.2831228 (ieee.org [abgerufen am 26. Januar 2023]).
- ↑ Bettina Kubicek, Agnes Altmanninger: „Kollaboration mit künstlichen Agenten. Voraussetzungen und zeitliche Entwicklung von Vertrauen in soziale Roboter.“ In: Judith Fritz, Nino Tomaschek (Hrsg.): Konnektivität: Über die Bedeutung von Zusammenarbeit in der virtuellen Welt. Waxmann Verlag, Münster usw. 2021, ISBN 978-3-8309-4408-9, S. 107–120.
- ↑ Anne Rother, Gunther Notni, Alexander Hasse, Benjamin Noack, Christian Beyer, Jan Reißmann, Chen Zhang, Marco Ragni, Julia Arlinghaus, Myra Spiliopoulou: Productive teaming under uncertainty: when a human and a machine classify objects together. In: 2023 IEEE International Conference on Advanced Robotics and Its Social Impacts (ARSO), Berlin, Germany, June 5–7, 2023. IEEE, [Piscataway, NJ], 2023, ISBN 978-1-66546-424-6, S. 9–14.
Kategorie:Künstliche Intelligenz Kategorie:Interaktionsdesign Kategorie:Produktion Kategorie:Robotik Kategorie:Arbeitswissenschaft