Splunk im Einsatz bei DB Cargo

Digitalisierung für mehr Qualität und Service im Schienengüterverkehr

| Autor / Redakteur: Michael Matzer / Nico Litzel

Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020.
Eine Wagon-Intelligence-Telematikeinheit an einem Containertragwagen. Bereits über 25.000 Wagen wurden damit ausgerüstet. Die gesamte Flotte folgt bis 2020. (Bild: amspire lab/DB Cargo)

„Splunk Enterprise“, das Hauptprodukt des Operational-Intelligence-Spezialisten Splunk, ist bei DB Cargo im Einsatz, der Güterbahnsparte der Deutschen Bahn. Im Zuge der Digitalisierung und Automatisierung des Güterverkehrs und des Fuhrparks hilft die Software bei der Datenerfassung und -analyse in den Projekten „Wagon Intelligence“ und „Techlok“. Die Software-Entwicklung der beiden Projekte findet im DB Cargo Amspire Lab in Frankfurt am Main statt.

Die DB Cargo AG ist die größte europäische Güterbahn. Sie arbeitet mit Eisenbahn-Verkehrsunternehmen in Europa und beispielsweise in China („Neue Seidenstraße“) zusammen. Der Fuhrpark ist gewaltig: Rund 70.000 Güterwagen werden bis 2020 mit moderner Sensorik und Telematik ausgerüstet: Das ist der Kernbestandteil des Projekts Wagon Intelligence. Im Zuge des Projekts Techlok werden etwa 2.100 Loks aus 40 Baureihen ebenfalls so ausgerüstet. Die Dimensionen sind also eindrucksvoll.

Dem Aufwand dieser Projekte müssen auch entsprechende Nutzwerte gegenüberstehen. Eines der Ziele besteht darin, die Qualität und den Service der Transporte zu verbessern. Das erhöht die Zufriedenheit der Kunden, stärkt die Bevorzugung der Bahn gegenüber dem LKW und reduziert zudem zahlreiche Kostenfaktoren entlang der Wertschöpfungskette.

Nicht nur die Wartung und Instandhaltung wird optimiert. Ebenso können Schäden durch Materialverschleiß und Stöße vermieden werden, die Energie-Effizienz wird erhöht und darüber hinaus auch die Verfügbarkeit des Fuhrparks durch Predictive Maintenance. Je mehr Loks und Wagen zur Verfügung stehen, desto mehr Fracht lässt sich transportieren, die wiederum Gewinn bringt. Eine simple Rechnung, die aber viel Feinabstimmung erfordert.

Um diese Feinabstimmung kümmert sich die Software von DB Cargo. Im engen Austausch mit Kunden und Partnern entstehen im DB Cargo Amspire Lab in Frankfurt/Main Ideen entlang der gesamten Wertschöpfungskette: Diese werden in Zusammenarbeit von Ingenieuren, Entwicklern, Data Scientists sowie Experten der digitalen Transformation und Logistik umgesetzt.

Hier sind in den verschiedenen Projekten viele kluge Köpfe am Werk. Sie gehen mit großen Datenmengen um, die sie im Asset Intelligence Center (AIC) optimal auswerten können. Dieses verfügt in der DB Cargo Enterprise Cloud über einen umfassenden Data Lake und einen Analytics Cluster.

Das Projekt Wagon Intelligence (WI)

Das Zielbild der Projekte im Bereich Digitalisierung und Automatisierung
Das Zielbild der Projekte im Bereich Digitalisierung und Automatisierung (Bild: amspire lab/DB Cargo)

Woher kommen diese Massendaten, lautet die erste Frage im Hinblick auf den Einsatz von Splunk Enterprise. Die ausgerüsteten Wagen verfügen über eine Telematik-Box sowie über RFID- und NFC-Tags. Über die GSM- und LTE-Standards senden sie während der Fahrt alle zehn Minuten, ansonsten einmal pro Tag, sowie bei Events (Start, Stopp, Stoß). Die Palette reicht von der Zustandserkennung mittels Stoß-Sensorik für Fahrzeuge mit sensiblen Ladegütern und Informationen zum Beladungszustand (Voll/Leer-Erkennung) bis hin zu Sensoren für die Temperatur- und Luftfeuchtigkeits-Messung.

Ein effizienter Umgang mit dem Datenvolumen und dem Energieverbrauch sind nach Angaben von Daniel Rost, Teilprojektleiter IT im Projekt Wagon Intelligence, wichtige Vorgaben. „Die Datenerzeugung erfolgt nur Ereignis- oder KPI-getrieben“, erläutert Gerrit Koch to Krax, Leiter des Projekts Wagon Intelligence, „beispielsweise bei Schäden auf langen Strecken, dann muss man Stöße interpretieren und die Daten zum Lernen und Trainieren der Data-Science-Modelle verwenden.“ Machine Learning spielt eine wachsende Rolle in den Projekten von DB Cargo.

Die vom Waggon empfangenen Positions- und Zustandsdaten dienen der Überwachung im AIC. Diese IoT-Plattform bietet die technischen Rahmenbedingungen für eine Integration der Daten sowie für die Entwicklung und Implementierung von analytischen Modellen. „Die Umlaufzeiten der intelligenten Güterwagen werden durch die automatisierte Prozesssteuerung reduziert“, freut sich Rost. „Dank der neuen Transparenz wird die Qualität der Transporte erhöht.“

Ein Drittel des langen Weges zur Ausrüstung der gesamten Wagenflotte von DB Cargo ist bereits gegangen. Jeder Wagen soll bis 2020 mit Sensorik und Telematik ausgestattet sein. „Im Dezember 2018 waren erst es rund 10.000, inzwischen sind wir schon bei über 25.000 ausgerüsteten Wagen.“

Das Projekt Techlok

Die Digitalisierung im Rahmen von Techlok erzeugt große Datenmengen, die über die DB Enterprise Cloud und Splunk analysiert und nutzbar gemacht werden.
Die Digitalisierung im Rahmen von Techlok erzeugt große Datenmengen, die über die DB Enterprise Cloud und Splunk analysiert und nutzbar gemacht werden. (Bild: amspire lab/DB Cargo)

Während das Wagon-Intelligence-Projekt in erster Linie B2B-Zwecken dient, ist das Techlok-Projekt auf die interne Sicht ausgerichtet, so etwa die optimale Nutzung und Instandhaltung des Fuhrparks.

Auch die Loks verfügen über Telematik-Boxen, die eine wachsende Menge von Echtzeitdaten erfassen und an das AIC senden. In der Sensorik werden heute 500 bis 600 Signale im Minutentakt verschickt. Während die Rangierloks nur GPS-Sensorik haben, aber keine Diagnose-Informationen an die Landseite übertragen, sind Streckenloks in der Lage, sowohl GPS als auch Diagnosedaten zu liefern.

Die Kommunikation basiert auf LTE-Datenübertragung und hat ein Übertragungsvolumen von bis zu einem Gigabyte im Monat. Das sorgt für ein hohes Datenaufkommen, wenn man den gesamten Fuhrpark von mehreren tausend Loks in Betracht zieht.

Splunk-Einsatz

Beispiel für ein Dashboard in Splunk Enterprise
Beispiel für ein Dashboard in Splunk Enterprise (Bild: Splunk)

Diese Datenflut wird im Asset Intelligence Center (AIC) gesammelt. Diese vom DB Cargo Amspire Lab in Kooperation unter anderem mit dem internen IT-Dienstleister DB Systel entwickelte IoT-Plattform bietet die technischen Rahmenbedingungen für eine Integration der Daten sowie für die Entwicklung und Implementierung von analytischen Modellen, die auf Splunk und anderen Tools basieren.

Ein erster Use Case ist die Optimierung der Zulaufsteuerung mit einem eigens dafür entwickelten Modul („Wagon Operator“). „Mit speziellen Analysen ermöglichen wir eine Verbesserung der Verfügbarkeit und damit mehr Kapazität für unsere Kunden“, resümiert Daniel Rost.

Mit Adaptern zu Bestandssystemen (Fahrplan, Stammdaten, Geschäftsdaten) sowie zu Supplier-Systemen liefern die Splunk-Dashboards umfassende Einblicke auf jeder gewünschten Ebene. In Splunk Enterprise werden GPS-Daten sowie Stamm- und Geschäftsdaten zusammengeführt, die Splunk Dashboards am Frontend füttern. Für die Visualisierung werden bedarfsorientiert verschiedene Dashboards unter anderem in Splunk, Web-Frontends und „Tableau“ genutzt.

Christoph Anger, Senior Data Scientist im Asset Intelligence Center, und seine Kollegen gestalten und verwalten die Analytik-Plattform. Diese ist in der ersten Ausbaustufe bereits produktiv.

Anger sieht sich daher in einer sehr positiven Ausgangslage. „Wir verfügen über historische Daten aus den SAP-Systemen seit dem Jahr 2001. Zusammen mit den anfallenden Echtzeitdaten können wir unsere Machine-Learning-Modelle mit geeigneten Daten im Hinblick auf LCC-Szenarienanalysen (LCC = Lifecycle Cost) oder Zuverlässigkeitsbetrachtung trainieren.“ So erstellt Anger etwa Prognosen für Lebenszykluskosten und datengetriebenen Analysen in den Bereichen Zuverlässigkeit, Verfügbarkeit und Wartbarkeit. In der Entwicklung wird von den Projekten aufbauend auf einer modernisierten Lambda -Architektur der jeweils zum Anwendungsfall passende Technologiestack eingesetzt.

Man sieht, im Amspire Lab kommen State-of-the-art-Technologien zum Einsatz, wie eine Rules Engine mit Python, Tableau für die Datenvisualisierung und Dremio für die Datenvirtualisierung.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45992526 / Data)