Die zuverlässige Lieferkette ist das höchste Ziel

Data Scientists verbinden Informatik und Betriebswirtschaft mit technischem Denken. Prof. Alexander Löser vom Forschungszentrum Data Science an der Beuth Hochschule für Technik Berlin erklärt, warum die Daten-Analysten dafür sorgen können, Prognosen zutreffender und Lieferketten sicherer zu machen.

Herr Prof. Löser: Sie sind an der Beuth Hochschule für Technik Berlin für Datenbanken und textbasierte Informationssysteme zuständig. Dabei bezeichnen Sie sich als Data Scientist – was ist das eigentlich?

Data Scientists befassen sich damit, die Welt mit digitalen Techniken zu vermessen und daraus Schlüsse zu ziehen über künftige Entwicklungen. Wir Menschen optimieren unsere Prozesse ja schon seit vielen Jahrhunderten. Heute aber können wir durch die Digitalisierung präziser und zeitnaher Rohdaten erheben. Die können wir, lapidar gesprochen, in ein maschinelles „Gehirn“ geben, das dann zum Beispiel Vorhersagen trifft. Als Data Scientist lerne ich oft aus der Beobachtung oder aus der Simulation der Welt. Ein konkretes Beispiel ist die Routenplanung: Programme berechnen für uns den Weg von A nach B. Erfahren sie die aktuellen Positionsangaben aller Verkehrsteilnehmer, können sie Staus erkennen. Dann können sie uns aus der Kenntnis von Verkehrssituationen in der Vergangenheit – ein Stau dauert dort immer lange – einen schnelleren Weg weisen.

Supply Chain: BVL-Studie untersucht Trends der Wertschöpfungskette

BVL-Studie2017: Veränderte Konsumentenanforderungen erfordern eine noch stärkere Kundenzentrierung entlang der gesamten Supply Chain.

logistik-aktuell.com

Ich muss also entlang des Business Prozesses – Wie komme ich von A nach B? – und der Wertschöpfungskette – Wie finanziert sich das System? – denken. Auch müssen Feedbackloops berücksichtigt werden, also neue und komplementäre Daten, die wir im laufenden Betrieb gewinnen. Und schließlich geht es auch um technische und ethische Aspekte …

 

Was meinen Sie mit ethischen Aspekten?

Nun, es geht ja zu Beispiel darum, personalisierte Daten zu erheben und auszuwerten – da muss ein entsprechender Datenschutz funktionieren. Aber es geht auch darum, dass Maschinen später Entscheidungen treffen, die direkte Auswirkungen auf Menschen haben. Beispielsweise wenn ein automatisiertes Fahrzeug in einer Gefahrensituation seine Richtung ändern muss. Ethische Überlegungen können dem Data Scientist zumindest helfen, sich dieser Entscheidungen bewusst zu werden.

Prof. Alexander Löser

“Wir schlagen eine Brücke zwischen zwei bisher voneinander getrennten Datenwelten: dem öffentlichen Internet und den internen Informationswelten eines großen Unternehmens. So entsteht ein ganz neues Wissensnetz, ähnlich wie Wikidata/Wikipedia, aber diesmal auch an die Bedürfnisse der deutschen Industrie angepasst.”

Solche digitalen Analysen sind doch für Logistiker ideal, oder?

Absolut. Unsere Hochschule arbeitet seit 2015 unter anderem mit Siemens beim Supply Chain Management zusammen. Das Projekt wird von der Bundesregierung gefördert. Dabei geht es um Produkte wie zum Beispiel Windturbinen. Die sind mit ihren vielen Einzelteilen stark von zuverlässigen Lieferketten abhängig. Für Siemens hat die Zuverlässigkeit der Lieferkette höchste Priorität – Fabrikausfälle oder verzögerte Containerschiffe können aber die Produktion gefährden. Wir helfen daher bei diesem www.SmartDataWeb.de genannten Projekt und sammeln und integrieren Daten aus vielen verschiedenen Kanälen zum aktuellen Stand der Lieferketten. Zusammen mit unseren Partnern analysieren wir und bereiten sie so auf, dass der Zustand der Supply Chain Manager aktuell abgebildet wird – und Voraussagen über den künftigen Stand möglich sind.

“#SmartDataWeb: So helfen Wissenschaftler, durch #DataScience Supply Chains sicherer und stabiler zu machen“

Twittern WhatsApp

Wie geschieht das?

Wir sammeln mithilfe von Maschinen Texte aus vielen Quellen wie Zeitungen, Berichten oder Posts in sozialen Medien. Dadurch können wir öffentliche Datenströme wie Nachrichtenwebseiten oder Social-Media-Kanäle mit unternehmensinternen Daten automatisch verknüpfen. Mit dem Smart Data Web schlagen wir eine Brücke zwischen zwei bisher voneinander getrennten Datenwelten: dem öffentlichen Internet und den internen Informationswelten eines großen Unternehmens. So entsteht ein ganz neues Wissensnetz, ähnlich wie Wikidata/Wikipedia, aber diesmal auch an die Bedürfnisse der deutschen Industrie angepasst. Die Universität Leipzig ist ebenfalls Partner im Projekt und unser Kontakt zur Wikipedia-Welt.

Crowdeffizienz: Mobilitätsforscher können von der Ameise lernen | logistik aktuell

Ameisen sind logistisch hocheffizient: Menschen können von ihnen lernen, um Algorithmen zu entwickeln, die die Mobilität in den Städten der Zukunft sichern

logistik-aktuell.com

Nun sind doch vor allem die vielen unterschiedlichen Datenformate problematisch. Wie können sie zusammengeführt werden, um ein stimmiges Bild abzugeben?

Rund zwei Drittel des Aufwands entstehen bei unseren Projekten durch die Datenbeschaffung und -bereinigung. Wir müssen ja immer beachten: Die Daten, die als Grundlage unserer Analysen dienen, bilden die Welt nicht in Tabellen ab, sondern in Fotos, in Textpassagen, in Social Media-Posts. Es geht also darum, Daten zu strukturieren und in Bezug zueinander zu setzen. Das ist teilweise sehr aufwändig, denn wir müssen viele Widersprüche auflösen und Quellen prüfen. Wir haben dafür selbst neuronalen Netzwerke entwickelt, um Daten aus unterschiedlichen Quellen zusammenzuführen. Dabei überlassen wir das Verlinken und Integrieren der Rohdaten unseren Algorithmen, wir müssen das also nicht per Hand machen.

Gibt es für diese maschinellen Verfahren eigentlich Grenzen?

Zum Glück ja! Denn die Daten sind nur ein kleines Abbild der Welt – und enthalten daher immer die Sicht des Abbildenden. Dieses Abbild der Welt, das ich gesehen habe, beschreibt zunächst die Grenzen dessen, was der Algorithmus vorhersagen kann. Gleichzeitig gilt: Nicht die Summe der Abbilder ist entscheidend, sondern ihre Varianz und die Vielfalt der Datenquellen.
Aus diesem Grund sollten die grundlegenden Daten vollständig und ohne Widersprüche sein. Das ist bei unseren Projekten mit Unternehmen oder medizinischen Einrichtungen oft nicht der Fall. Unsere neuronalen Netzwerke sind daher mit vielen Tricks für relativ wenige Daten optimiert – im Vergleich zu den Datenmengen, die Google zur Verfügung stehen. Außerdem können wir Verfahren nutzen, um eventuell fehlende Daten durch eine Simulation zu „generieren“. Das ist tricky und noch in der Forschung.

Wie sind Sie eigentlich zu dem Bereich gekommen?

Ich habe mich schon als Kind immer gefreut, wenn meine Lego- und andere Bausteine mit der Märklin-Eisenbahn zusammen funktionierten. Es macht mir sehr viel Spaß, unterschiedliche Dinge zusammenzubringen und dabei einen Wert für unsere Partner zu erzeugen. Und an der Beuth Hochschule für Technik stehen wir da im höchsten Wettbewerb!


Jobs der Zukunft
Künftig werden eine Vielzahl von Daten-Ingenieuren benötigt, die Daten beschaffen, indizieren und helfen, sie maschinell zu analysieren. Auch Data Product Manager sind begehrt. Sie kennen die Plattformen, können Daten für komplexe Analysen designen und sind gleichzeitig die Schnittstelle zu Kunden.
Die Beuth Hochschule für Technik Berlin führt seit einem Jahr mit einem viersemestrigen englischen Master-Studiengang Data Science zum Master of Science (M. Sc.). Interessenten können sich ab dem 15. April 2018 auf 22 Studienplätze bewerben.
Mehr Infos unter http://data-science.berlin