Ein Mitarbeiter, ausgerüstet mit Motion Capture Sensoren, lässt seine Bewegung erfassen. Aus den so gesammelten Daten wird ein Avatar konstruiert. © DB Schenker
Ein Mitarbeiter, ausgerüstet mit Motion Capture Sensoren, lässt seine Bewegung erfassen. Aus den so gesammelten Daten wird ein Avatar konstruiert. © DB Schenker

„Allein der erste Teilabschnitt von E-Motion wäre schon ein großer Erfolg, denn er würde, bei Erreichen der Serienreife des bisherigen Prototyps, MTM-Ingenieure deutlich in ihrer Analysearbeit unterstützen. Richtig spannend wird es im zweiten Abschnitt, wenn in einer VR-Umgebung trainierenden Mitarbeitern ergonomisch optimale Bewegungen durch einen Avatar veranschaulicht werden.“ Gerald Müller, Vice President Process and Efficiency DB Schenker

KI hilft beim Codieren von Bewegungen

DB Schenker arbeitet gemeinsam mit dem Fraunhofer IML und dem Start-up MotionMiners an einem Prototyp, der es möglich macht mit Bewegungssensoren aufgezeichnete Bewegungsabläufe (teil)automatisiert mit MTM zu analysieren. 

Grundsätzlich lassen sich Bewegungen von Prozessingenieuren schon seit vielen Jahrzehnten analysieren, in eine Art lesbaren Code übersetzen und dadurch exakt beschreiben. MTM (Methods-Time Measurement, Infos unten im Kasten) oder auch das weniger bekannte WF (Work Factor) sind allerdings zeitaufwändige Verfahren, Arbeitsabläufe zu analysieren und anschließend auf Ergonomie und Effizienz hin zu untersuchen. Vor allem in der Industrie wird diese Methode zur Planung neuer Montagelinien eingesetzt, aber auch in der Logistik zur Kalkulation von Dienstleistungen. Motion-Mining, also das gezielte Gewinnen und Auswerten von Bewegungsdaten, soll nun diesen Analyse-Prozess beschleunigen und den MTM-Ingenieur durch selbstlernende Algorithmen in seiner Arbeit unterstützen.

Zuerst müssen Daten zum Bewegungsablauf digital erfasst werden. Dazu tragen Mitarbeiter Sensoren am Körper. Der aufgenommene Prozess wird zunächst auf das MotionMiners-Tool übertragen und analysiert. Bei der Analyse einer Personengruppe lässt sich so auch eine Anonymisierung herstellen. In Verbindung mit der DB Schenker eigenen MTM-Datenbank kann danach die Motion-Mining-Technologie (teil-)automatisch die Bewegungsdaten mit Prozessbausteinen auf Basis von MTM verknüpfen und Bewegungsabläufe so zeitlich bewerten.

In einigen Fällen legt das vom Fraunhofer-Institut entwickelte Assistenzsystem dem MTM-Ingenieur Bewegungsabschnitte mit dem passenden Bildausschnitt noch einmal vor. Etwa wenn die Daten dazu nicht eindeutig sind, oder noch Gewichtsparameter und Entfernungen hinzugefügt werden müssen. Aber auch dann trifft die Plattform bereits eine Vorauswahl, sodass der MTM-Ingenieur daraus auswählen kann. Gleichzeitig sollen zukünftig selbstlernende Algorithmen über das Feedback des MTM-Ingenieurs trainiert werden, sodass sie mit einer ausreichend großen Trainingsdaten-Basis auch immer mehr nicht eindeutige Bewegungen selbstständig analysieren können. Intensive Tests haben gezeigt, dass Schenker mit dieser Idee den richtigen Ansatz verfolgt, jedoch noch weitere Entwicklungsarbeit notwendig ist, um den Prototypen zur Serienreife zu bringen.

„Allein dieser Teilabschnitt im Projekt E-Motion bietet bei Erreichen der Serienreife schon eine enorme Prozessoptimierung für unsere MTM-Ingenieure, die dann mit der Kombination MotionMiners-Tool und Assistenzsystem erheblich schneller Bewegungsabläufe codieren und analysieren können“.  so Gerald Müller. „Richtig spannend wird es erst, wenn wir demnächst mit diesen MTM-Daten Avatare programmieren und deren Bewegungen auf Ergonomie checken lassen. So können Avatare mit ergonomisch optimierten Bewegungsabläufen erstellt werden. Gleichzeitig kann solch ein Avatar den Mitarbeitern zeigen, wie ein Bewegungsprozess ergonomisch optimal ausgeführt aussieht, denn Menschen lernen nun mal Bewegungsabläufe nicht aus einem MTM-Prozessbericht, sondern durch Nachahmung.“

Kollege ‚Avatar‘ soll in der VR ergonomische Bewegungen im Lager schulen

 Teil 2 von „E-Motion“ soll das Mitarbeitertraining bei DB Schenker revolutionieren: Der Avatar ist eine Art virtueller Trainer, der Hinweise gibt, damit sich Mitarbeiter bei ihren Kommissionier- und Packaufträgen gesundheitsbewusst bewegen, also ihre Aufträge rücken- und gelenkschonend ausführen. Damit der Avatar das kann, benötigt man einen am Computer optimierten Bewegungsablauf, der dann vom Avatar ‚vorgemacht‘ wird. Dieser optimierte Bewegungsablauf basiert auf einem realen Ablauf im Lager der mittels Motion Capture Technik aufgezeichnet und über eine Software in eine Ergonomiebewertung auf Basis von EAWS (Ergonomic Assessment Worksheet) übersetzt wird.

Mit dem digitalisierten Bewegungsablauf fängt alles an. Doch es ist nicht damit getan, einen optimalen Bewegungsablauf zu erzeugen, sondern dieser muss dann auch möglichst intuitiv den Mitarbeitern vermittelt werden. Dabei schafft virtuelle Realität einen idealen Raum zum Erlernen von Bewegungen, denn kein anderes Medium erlaubt eine simulierte körperliche Interaktion, die dem realen Training-on-the-job so ähnlich ist.

Ein Avatar rückübersetzt also den am Computer optimierten Prozess in eine intuitiv nachvollziehbare Bewegung. Er kann den Bewegungsablauf dem Mitarbeiter schlichtweg „vormachen“. Überträgt man diesen Avatar auf eine virtuelle Umgebung, kann er Mitarbeiter dort trainieren, indem er ihnen optimale Bewegungsprozesse direkt in der VR zeigt und der Trainer falls nötig, auf falsche Bewegungen hinweist und korrigiert.

Erste Versuche und Prototypen mit programmierten Avataren sind bereits entstanden und laufen auf dem PC. Damit der Avatar aber in der VR genau auf komplexe Bewegungsabläufe reagieren kann, benötigt man allerdings noch mehr Feinjustierung im Bereich der Sensorik der Motion Capture Messverfahren. Lösungen sind in Arbeit. Mit genügend sensorischem Feedback kann der Avatar in Zukunft veranschaulichen, wie ein Bewegungsablauf besser und gesünder wäre, beispielsweise wie an einer Packstation korrekt und ergonomisch gepackt wird.

„Was nutzt es uns, wenn wir nur in der Abteilung für Prozessoptimierung wissen, wie ein Bewegungsablauf optimal aussieht? Wir suchen also nach einem Weg, Bewegungsabläufe in der Mitarbeiterschulung möglichst intuitiv zu vermitteln. Hier bietet sich VR geradezu an“, meint Christina Kunze. An dieser Vermittlung arbeitet DB Schenker in Zusammenarbeit mit dem Fraunhofer Institut und den MotionMiners. Ein solches VR-Training als Ergänzung und als regelmäßige Trainingseinheit neben der herkömmlichen Mitarbeiterschulung wird das Training bei DB Schenker im Ganzen revolutionieren.

Das Projektteam auf Seiten DB Schenker besteht aus Christina Kunze, Christopher Habicht und Gerald Müller – Benjamin Korth vom Fraunhofer-Institut sowie René Grzeszick und Sascha Feldhorst von den MotionMiners komplettieren das Team.

MTM (Methods-Time Measurement) ist eine Arbeitsablauf-Zeitanalyse zur Planung manueller Arbeitsabläufe, die in ihren Grundzügen bereits in den 1920ern entwickelt wurde. Bei MTM werden alle dem Menschen mögliche Bewegungen in kleinere Bewegungselemente zerlegt, sogenannte Grundbewegungen wie „Greifen“, „Loslassen“, „Fügen“ etc. Jede Grundbewegung ist mit einer Buchstaben-Codierung versehen – „R“ steht z.B. für „Reach (Hinlangen)“. Für die Grundbewegungen sind in Tabellen empirisch ermittelte Zeiten hinterlegt, die dann noch um Parameter für die Wegstrecke der Bewegung oder des Gewichts des Gegenstands etc. ergänzt werden. Ein ganzer Bewegungsablauf lässt sich dadurch präzise schriftlich codieren und auf Ergonomie und Effizienz hin untersuchen und optimieren. Diese Codierung erledigt heute ein MTM-Engineer softwareunterstützt am Bildschirm, meist indem er ein Video der Bewegung sieht und diese Bewegung in MTM-Codierung übersetzt. MTM kann vom Prozessingenieur quasi als Programmiersprache für die Erstellung von Bewegungsabläufen eingesetzt werden, wenn er auf eine Datenbank mit genügend großer Anzahl relevanter Grundbewegungen zurückgreifen kann.

About the Author