Big Data ist ein Begriff der uns als Software-Manufaktur schon eine geraume Zeit begleitet. Damit sind wir nicht alleine, wie ein kurzer Blick auf Google Trends zeigt. Doch ein Datenhaufen allein schafft noch keinen Mehrwert, dazu braucht es die effiziente Analyse dieser Daten. In der Beitragsreihe ‘Analytics’ stellen wir daher diese Analysemethoden und ihren Mehrwert vor.

Die Herausforderung ‚Big Data‘ ist nicht erst seit 2011 mit ‚Industrie 4.0‘ ein zentrales Thema der stets optimierungsgetriebenen Intralogistik. Daten allerdings, die durch immer genauere und zahlreichere Sensoren aufgenommen werden, sind nur der erste Schritt, um aus diesen Informationen operativen Mehrwert zu schaffen. Der zweite Schritt ist Kontext. Als Software-Manufaktur sehen wir darin unsere Kernaufgabe, die wir mit unserem Leitsatz ‚Software follows function‘ abbilden.

Deskriptive Analyse in der Intralogistik

Die Grundlage für alle Analyseprozesse ist die deskriptive Analyse. Ihr Ziel ist es empirische Daten übersichtlich darzustellen und zuzuordnen. So lassen sich vergangene und derzeitige Zustände beschreibend darstellen. Ergänzend dazu müssen relevante Kennzahlen definiert werden, um die Lesbarkeit für Entscheider zu gewährleisten.

Die zentralen Kennzahlen der Intralogistik

Die gemessenen Hauptmetriken in den meisten Logistikzentren  sind Zahlen zu Picks, Aufträgen, Transporten, Erfassungen, dem Bestand sowie das Zählen von  Packstücken oder Ladeeinheiten.

Auf diese Metriken  werden im nächsten Schritt Dimensionen angewendet. Dimensionen bezeichnen Merkmale dieser Daten. Die einfachste Dimension ist die Zeit, um beispielsweise die Anzahl der Picks oder Transporte pro Stunde oder Tag analysieren zu können. Komplexere Dimensionen sind Lagerzonen oder Mandanten.

Der Schlüssel zu einem möglichst hohen Mehrwert der deskriptiven Analyse in der Intralogistik ist es, die Kombination aus Dimensionen und Metriken zu finden, die den bestmöglichen Einblick in die Effizienz der Geschäftsprozesse liefert.

Saubere Daten als Grundlage für Smart Data

Der Unterschied zwischen Big Data, also einer großen Menge an Daten, aus der sich entweder keine oder nur bedingt Schlüsse ziehen lassen und Smart Data ist der individuell angepasste Kontext. Um Geschäftsprozesse zuverlässig zu analysieren und zu optimieren, helfen nur bestmöglich strukturierte Daten weiter. Eine weitere Anforderung ist, dass weitere Messwerte oder zu messende Objekte einfach in das Modell integriert werden können.

Objekte, Werte, Dimensionen und Ereignisse als Modellgrundlage

Die Grundlage für deskriptive Analyse ist ein möglichst flexibles und gleichzeitig strukturell verständliches Datenmodell, damit die aufbereiteten Daten auch tatsächlich wertbringend  analysiert und interpretiert werden können.

Ein Objekt ist in der Intralogistik ein Vorgang oder ein physisches Objekt. Es kann also ein Pick sein, aber auch ein Ein- und Auslagervorgang eines Regalbediengeräts. Dabei entstehen Werte, die dem Objekt zugewiesen werden, wie sein Gewicht, seine Abmessungen oder seine aktuelle Position. Wichtig dabei ist, dass diese Werte quantifizierbar und allgemeingültig sein müssen.

Die Kombination aus Werten und Objekt macht transparent, was etwas ist und in welchem Zustand es sich befindet.

Ereignisse sind Instanzen, in denen zu dem Objekt Daten erhoben oder hinzugefügt werden. Wenn das Objekt sich beispielsweise auf einem Förderband bewegt, wird seine Position beim Passieren von Sensoren automatisch aktualisiert. Während dieses Vorgangs können dem Objekt auch Dimensionen zugeordnet werden.

Dimensionen sind Attribute von Werten, die diesen eine kontextbasierte Qualität geben. Um hier erneut auf das Beispiel des Objekts auf der Fördertechnik zurückzukommen: Über Messwerte und Ereignisse ist klar, wo es ist, was seine Abmessungen sind und was es ist. Über Dimensionen wird das „Warum?“ und „Wo?“ und „Wann?“ erweitert, in dem wir beispielsweise eine Auftragsnummer, das Lager oder die Lagerzone sowie die aktuelle Schicht im Lager als Dimension hinzufügen.

Der Vorteil dieses Modells ist, dass ein neuer Kontext einfach über Dimensionen abbildbar ist und dass es in den verschiedensten Situationen angewendet werden kann, solange die Daten gleichmäßig erhoben werden. Ob automatisierte Fördertechnik oder manuelle Kommissionierung macht in der Verwertbarkeit der Daten keinen Unterschied.

OLAP-Würfel als konfigurierbare Kontextspeicher

Daten, die mit Ereignissen, Werten und Dimensionen, um einen Kontext erweitert wurden, werden häufig in die Darstellungsform eines sogenannten OLAP- oder Datenwürfels gebracht.

OLAP-Würfel mit den Dimensionen Zeit und Ort
Beispiel für den Aufbau eines Würfels und die Filtermethode „Slicing“. Quelle: InfopedianOLAP slicingCC BY-SA 3.0

Entlang der Achsen dieses Würfels befinden sich die Dimensionen, die über verschiedene Filter in ihrer Komplexität reduziert oder auf konkrete Anwendungssituationen angepasst werden können. Die Besonderheit dieses Modells ist, dass es kleinere Varianten von sich beinhalten kann. Auf diese detaillierten Würfel kann dann über einen sogenannten Drill-Down zugegriffen werden.

OLAP-Würfel mit den Dimensionen Zeit und Ort Drill-Down-Ansicht
Hier wird auf die Schicht Outdoor-Schutzausrüstung zugegriffen, die dann auf der Ebene Ausrüstung detaillierter wird, aber in den anderen beiden Dimensionen dieselben Parameter beibehält. Quelle: Infopedian, OLAP drill up&downCC BY-SA 4.0

Die richtigen Filter finden

Das Ziel der deskriptiven Analyse ist relevante Kombinationen aus Objekten, Dimensionen und Messwerten zu finden und diese visuell aufzubereiten. In diesem Schritt wird aus ‘Big’ echte  ‘Smart Data’. Das Ziel ist es Daten-Sets zu erzeugen, die ideal auf den Anwenderkontext zugeschnitten sind. Den Geschäftsführer einer globalen Modekette interessiert der Durchsatz einer Lagerzone nicht sonderlich, den Werksleiter hingegen schon. Beiden Anspruchshaltern stehen über das Datenmodell, zumindest in der Theorie, beide Ansichten zur Verfügung, da die Informationen nicht erzeugt, sondern lediglich gefiltert werden.

Wer von deskriptiver Analyse in der Intralogistik profitiert

Die einfache Antwort ist: “Alle, die ihre Geschäftsprozesse optimieren möchten.” Wie bei allen Datenauswertungen sollten jedoch statistische Grundlagen berücksichtigt werden. Nach zehn Ereignissen lassen sich unter Umständen zwar Muster erkennen, doch ähnlich wie bei einer Umfrage unter nur zehn Personen, ist das Ergebnis nicht gesichert. Je mehr Daten und je kürzer die Zeiträume desto schneller lässt sich erkennen, wo Optimierungspotential liegt und was – noch – außerhalb der eigenen Kontrolle liegt, beispielsweise eine verminderte Leistung auf Grund von Regen. Dieses Szenario greifen wir in den folgenden Beiträgen zu ‘Diagnostic Analytics’, ‘Predictive Analyitcs’ und ‘Prescriptive Analytics’ auf.

Quelle Teaser-Bild: M. B. M.

Zur Beitragsübersicht
Zu unserer TUP-Reihe KI
Zurück zur Startseite