Bei Hermes International laufen erste Tests, um mit Hilfe von Big Data die Qualität von Kapazitätsprognosen zu verbessern. Ein Einblick in die Praxis zeigt die Komplexität der Integration von Big Data in die unternehmerischen Prozesse.
Viele Wege führen zur Logistik 4.0 – Hermes International, ein Geschäftsbereich der Hermes Germany, identifizierte im Frühjahr 2018 Big Data als den eigenen Weg in die Zukunft. Vorrangiges Ziel des Logistik- und Supply Chain Management-Dienstleisters ist die Verbesserung der Kapazitätsplanung durch präzise Vorhersagen, um so künftig effizienter und nachhaltiger planen zu können. Die aktuellen Praxistest lieferten nun erste Ergebnisse zum Nutzen der Technologie und deckten Optimierungspotential auf.
Inhaltsverzeichnis
Vorhersage von Frachtvolumina
„Die Implementation ist sehr komplex.“, sagt Ralf Boelicke, Abteilungsleiter Solution Design bei Hermes International und führt aus: „Für ein präzises Forecasting ist es entscheidend, die richtige und eine vollständige Datengrundlage zu nutzen.“ Denn abhängig von der gewünschten Vorhersage, können die sich benötigten Datensätze drastisch unterscheiden. In dem hier skizzierten Test ging es konkret um die Frage, ob sich die Frachtvolumina für den Transport einer vorab benannten Warengruppe eines Kunden anhand von Vergangenheitsdaten vorhersagen lassen.
Praxistest Big Data
Für den hier umrissenen Praxistest wählten die Logistikexperten 50 Artikel aus der Kunden-Warengruppe „Badebekleidung für Damen und Mädchen“. Der Test zielte darauf ab, zwei konkrete Vorhersagen für den Standort Frankfurt am Main zu tätigen:
- Bruttokapazitäten (die Ware exkl. Verpackungs- und Polstergewicht):
- Bruttogewicht pro Auftrag in Kilogramm
- Volumen pro Auftrag in Kubikmeter
- Nettokapazitäten (die Ware inkl. Verpackungs- und Polstergewicht):
- Nettogewicht pro Artikelgröße in Kilogramm
- Verpackungs- und Polsterungsgewicht
- Warenanzahl in einem Karton
- Kartonmaße
Erfolgreiche Vorhersage der Bruttokapazitäten
Für das Forecasting der Bruttokapazitäten lagen den Fachleuten alle benötigten Daten vor, dadurch konnten in einem ersten Schritt Mittelwerte zu Bruttogewicht und Volumina errechnet werden. Auf Grundlage von vergangenen Verkaufszahlen, inkl. der Berücksichtigung von positiven wie auch negativen Ausreißern, prognostizierten die Fachleute im Anschluss die nötigen Frachtkapazitäten für den vorab festgelegten Testmonat.
Bei der abschließenden Auswertung der Ergebnisse gab es zwar einige, wenige Ausreißer, insgesamt wurden die Kapazitäten für die verschiedenen Bademoden-Artikel jedoch überraschend genau kalkuliert. „Die durchschnittliche Abweichung lag lediglich bei 1,48 Prozent bzw. einer Differenz von 0,42 kg“, freut sich Boelicke über die positiven Ergebnisse.
Forecasting der Nettokapazitäten
Die Prognose der Nettokapazitäten mittels Big Data stellte sich jedoch als schwieriger heraus: „Bereits bei der Überprüfung der Datengrundlage wurde offensichtlich, dass einige für das Forecasting der Nettokapazitäten wichtige Daten gar nicht vorlagen“, erklärt Nurzat Mambetova, Intern bei Hermes International, die ihre Bachelorarbeit über die ersten Praxistest schrieb und diese daher eng begleitete. Die fehlenden Datensätze konnten zwar bei den Kooperationspartnern eingeholt werden, da diese jedoch in PDF-Dokumenten eingepflegt waren, konnten die Daten nicht automatisiert ausgelesen werden. „Das ist für unsere internen Abläufe und die Kommunikation innerhalb der Supply Chain natürlich ein sehr wichtiges Learning“, sagt Boelicke.
Hier zeige sich, wie wichtig der Aufbau einer gemeinsamen Kommunikationsstruktur mit festgelegten Abläufen und Protokollen für die Anwendung von Big Data sei, so Boelicke. „Die valide Vorhersage der Nettokapazitäten stieß schließlich bei der Komplexität der Fragestellung in Verbindung mit einer unzureichenden Datenbasis an ihre Grenzen“, fasst Mambetova die Ergebnisse des zweiten Testabschnitts zusammen.
Fazit zum Praxistest „Big Data“
Das Verfahren zur Berechnung von Verpackungs- und Polstergewicht, Kartongrößen etc. benötigt nicht nur eine große Menge von Daten, es ist darüber hinaus auch sehr aufwendig. „Während wir mit den Bruttokapazitäten bereits jetzt sehr gut arbeiten können, ist das Netto-Verfahren wegen des immensen Aufwands und dem noch zu optimierenden Datenaustausch mit den Lieferkettenpartnern aktuell noch nicht wirtschaftlich nutzbar“, fasst Boelicke die Ergebnisse des ersten Big Data-Praxistests zusammen. „Generell sind wir mit den ersten Testergebnissen zu den prognostizierten Bruttovolumina sehr zufrieden“, konstatiert Boelicke, räumt aber ein, dass das Verfahren weiterer Optimierung bedarf, um künftig Ausreißer noch besser vorhersagen und den Prozess auch auf größere Warenmengen ausweiten zu können.