Werbung

KEP-Dienste: Wie DPD mit Predictive Analytics Zeit und Geld spart


BIG DATA

Mit den richtigen Daten und ihrer Aus­wertung lassen sich gezielte Vorhersagen treffen. Das nutzt auch der KEP-Dienstleister DPD.

Was bisher noch wie Stoff für einen Hollywoodfilm anmutet, könnte schon bald Realität sein: Aufzüge, die bei Reparaturbedarf eigenständig eine Nachricht an den Techniker senden, oder Polizeistreifen, die bereits vor einer geplanten Straftat vor Ort sind und diese so verhindern können, sind schon jetzt praktisch umsetzbar. Diese Anwendungen von Predictive Analytics markieren den Anfang einer Entwicklung, bei der vermehrt Kombinationen aus Analyse und Modellierung zum Einsatz kommen, um Entwicklungen vorherzusagen und auf dieser Basis Handlungsoptionen zu wählen.
Unter dem Schlagwort „Big Data“ machten in den letzten Jahren stetig zunehmende Rechenleistungen die Analyse von enormen Datenmengen möglich. Doch lediglich Muster und Zusammenhänge darin zu finden, sollte nur ein erster Nutzungsschritt sein. Diesem folgte, als zweiter Schritt, die Nutzung der identifizierten wiederkehrenden Muster zur Prog­nose ihrer künftigen Entwicklung. Dadurch ist man in der Lage, frühzeitig und damit präventiv Handlungsoptionen daraus ableiten zu können.
Das ist auch das Ziel von Predictive-Analytics-Modellen, die also im Grunde die logische Weiterentwicklung in der Datenerhebung, -analyse und -verarbeitung darstellen. Um die Handlungsoptionen festlegen zu können, werden Methoden aus Data Mining und Business Intelligence, Spieltheorie und Optimierung kombiniert. Erleichtert wird das zum Teil durch vorgefertigte Algorithmen, wie sie etwa „Microsoft Azure Machine Learning“ bietet, auf die zurückgegriffen werden kann.
Für die Predictive-Analytics-Modelle sind weite Anwendungsfelder vorstellbar, sofern ausreichend große Datenmengen vorliegen und sich die Entwicklung in der Vergangenheit auch künftig fortsetzt. Und es gibt auch schon praktische Umsetzungen. Als Anwender der ersten Stunde nutzten Banken die Prognoseverfahren, um zum einen künftige Wertpapierentwicklungen und zum anderen Kreditnehmer besser einschätzen zu können. Das sollte dazu dienen, eventuelle Risiken zu begrenzen.
Auch die Polizei in den USA setzt teilweise Predictive Analytics ein, um Verbrechen zu vereiteln. Zwar wird ein Szenario wie in dem Science-Fiction-Film „Minority Report“ reine Fiktion bleiben. Möglich ist es aber jetzt schon, die Wahrscheinlichkeit von Gewaltausbrüchen oder Einbruchsdiebstählen zu bestimmten Zeitpunkten und in bestimmten Stadtvierteln näher einzugrenzen, sodass die Polizei dort entsprechend ihre Kon­trollen verstärken kann.
Ein weiterer Big-Data-Bereich, die Logistik, profitiert ebenfalls vom Einsatz der Predictive-Analytics-Verfahren: So ermöglicht zum Beispiel die Verwendung von Echtzeit- und Systemdaten die Eingrenzung des voraussichtlichen Zustellzeitpunkts an private Empfänger bis auf eine Stunde genau, wodurch unnötige Wartezeiten vermieden werden können.

Ausfallzeiten gesenkt
Doch es gibt noch mehr zukunftsweisende Entwicklungen in diesem Bereich. Beispielsweise Internet-of-Things (IoT)-Anwendungen wie ein Wartungsprogramm, das ein deutscher Aufzughersteller zusammen mit Microsoft entwickelt hat. Rein rechnerisch fallen bei weltweit zwölf Millionen Aufzügen des Herstellers alljährlich 190 Millionen Stunden Wartungsarbeiten an, die so für den Betrieb verloren gehen. Der Aufzughersteller hat deshalb beschlossen, ein System für die Echtzeitanalyse der Daten aller Aufzüge weltweit zu installieren: die Microsoft Azure IoT Cloud. Restlebensdauer und notwendige Reparaturen kann das Unternehmen mithilfe komplexer Algorithmen feststellen, die Cloud sendet diese Daten in Echtzeit an 20.000 Servicetech­niker. Diese können nötige Reparaturen so einplanen, dass sie in Zeiten mit geringer Auslastung fallen. Insgesamt sollen so die Ausfallzeiten durch Wartungsarbeiten um 50 Prozent gesenkt werden.
Es ist zu erwarten, dass die Bandbreite an Anwendungen, bei denen Predictive-Analytics-Verfahren in der Zukunft zum Einsatz kommen werden, weiter stetig zunimmt. Dafür hat sich auch der Paket- und Expressdienstleister DPD Dynamic Parcel Distribution GmbH & Co. KG mit Hauptsitz in Aschaffenburg mit seinem Geschäftspartner Ceteris AG, einem Lösungsanbieter für Business Intelligence mit Schwerpunkt auf Microsoft-Technologien, gerüstet. DPD sah sich vor der Herausforderung, das Geschäftsmodell an eine neue Entwicklung, nämlich das überdimensional hohe Wachstum im Privatkundenbereich, anzupassen. Haben bis vor einigen Jahren noch die Zustellungen an Unternehmen deutlich überwogen, so sind Privatkunden aufgrund des wachsenden Onlinehandels nun eine zunehmend größer werdende Zielgruppe. Das bedeutet für die Logistikdienstleister, dass Kunden zu beliefern sind, die in der Regel tagsüber nicht zu Hause sind und auch bei angekündigten Lieferungen nicht gut einen halben Tag auf ihr Paket warten können.
Logistikanbieter, so auch DPD, schöpfen inzwischen alle Möglichkeiten aus, die sich durch geschützte Abstellmöglichkeiten oder alternative Lieferorte, wie die Abgabe bei Nachbarn, an die Arbeitsstelle oder Paketshops, ergeben. Betrachtet man aber den klassischen Auslieferungsfall, rückt das Zeitfenster der Auslieferung in den Fokus. In diesem Logistik-Kernbereich wollte sich DPD durch besonderen Service vom Wettbewerb absetzen: Das Zeitfenster für eine Auslieferung sollte auf eine Stunde eingegrenzt und dem Kunden vorab mitgeteilt werden.

Kein großer Aufwand
Bei knapp 1,5 Millionen Paketen pro Tag und gut 30 Millionen operativen Datensätzen war das ein ambitioniertes Ziel. Die Hürde bestand vor allem darin, dass die Daten auf unterschiedliche Systeme dezentral verteilt waren. Hinzu kamen Rechnungsdaten sowie polystrukturierte Daten wie Maschinenprotokolle oder Videos, die ebenfalls dezentral gespeichert waren. Die Lösung bot hier der Einsatz eines Microsoft SQL 2012 Servers Parallel Data Warehouse (PDW). Die Vorteile liegen dabei aus Sicht von Markus Raatz, Vorstand der Ceteris AG, vor allem in der schnellen und einfachen Anwendung – auch ohne große Optimierung und den damit verbundenen Programmieraufwand ließen sich schon hohe Geschwindigkeiten erzielen.
„Big-Data-Anwendungen sind vielfältig einsetzbar – insbesondere in der KEP-Logistik. Die Verwendung von zum Beispiel Echtzeit- und Systemdaten von Paketen grenzt voraussichtliche Zustellzeitpunkte für private Empfänger bis auf eine Stunde genau ein. Das vermeidet unnötigen Zeitaufwand für den Empfänger, um sein Paket in Empfang zu nehmen", sagt Raatz. Für DPD war zudem entscheidend, dass man bereits ein Team aus 15 erfahrenen Microsoft SQL Spezialisten im Hause hatte. Auf Basis dieser Zusammenführung und Analyse aller Daten konnte das Projekt realisiert und die Zustellung innerhalb eines einstündigen Zeitfensters umgesetzt werden.
Die geballte Rechenleistung, die hinter der Anwendung steckt, resultiert schließlich in einer einfachen Übersicht für den Endkunden: Nachdem er bereits im Vorfeld aus mehreren Optionen wählen konnte, um Ort und Tag der Zustellung seinen Wünschen anzupassen, erhält er am Zustelltag per SMS die Information, in welcher Stunde sein Paket ausgeliefert wird. Er kann bequem online verfolgen, wo sich seine Lieferung gerade befindet. Nähert sich der voraussichtliche Lieferzeitpunkt, wird das Zeitfenster zudem auf 30 Minuten eingegrenzt. nbr



Aktuelle Fotostrecke

Foto: LOGISTIK HEUTE/PMI
An der Weiterbildungsveranstaltung „1. Young Professionals Day SCM und Logistik 2018“ von LOGISTIK HEUTE und PMI haben sechs Firmenteams mit mehr als 20 Nachwuchstalenten teilgenommen. Im Rahmen des...

Logistik-Themen mit ähnlichen Inhalten...

 

© 2018 HUSS-VERLAG GmbH München | Alle Rechte vorbehalten