Zwischen Edge und Rechenzentrum Daten-Streaming vom Bohrturm: Wie sich IoT-Vorteile ausspielen lassen

Autor / Redakteur: Dale Kim* / Ulrike Ostler

Energieunternehmen und deren Zulieferer, die eine bessere Überwachung ihrer Bohr- und Produktionsanlagen anstreben, können auf IoT (Internet der Dinge) setzen, wenn das Ziel eine vorausschauende Echtzeitplanung für mögliche anstehende Wartungsarbeiten ist. Denn das erlaubt, das Monitoring-Potenzial auszuschöpfen, die Effizienz zu steigern und Verluste durch unproduktive Nebenzeiten zu senken.

Firmen zum Thema

50.000 und mehr Ereignisse pro Sekunde fallen beim Monitoring des Betriebs auf einer Bohrinsel an. Das Ausbalncieren von In-Memory-Computing, Verarbeitung an der Edge und im Rechenzentrum helfen aus den Daten frühzeitig Erkenntnisse für die Wartung zu gewinnen.
50.000 und mehr Ereignisse pro Sekunde fallen beim Monitoring des Betriebs auf einer Bohrinsel an. Das Ausbalncieren von In-Memory-Computing, Verarbeitung an der Edge und im Rechenzentrum helfen aus den Daten frühzeitig Erkenntnisse für die Wartung zu gewinnen.
(Bild: wasi1370 auf Pixabay)

Technische Probleme und Ausfallzeiten auf Bohrinseln haben meist katastrophale Auswirkungen auf den Betrieb. IoT-Systeme können dies zwar verhindern, weil sie das frühzeitig erkennen. Doch bringen diese Anwendungen stets auch ihre eigenen, beständigen Herausforderungen mit.

Vor allem erfordern sie die Echtzeitverarbeitung riesiger, dynamischer Datenströme. Dies setzt entweder leistungsstarke Rechner an diesen weit entfernten Standorten oder aber eine extrem schnelle und zuverlässige Internet-Bandbreite voraus, um die Daten an ein großes Rechenzentrum zurückzusenden. Manchmal muss sogar beides gegeben sein.

IoT-Datenverarbeitung in Echtzeit

Da physischer Raum in Arbeitsumgebungen wie Bohrinseln jedoch sehr begrenzt ist, müssen die Anwendungen auch auf entsprechend limitierten Hardwarerechenkapazitäten laufen. Die meisten, heute eingesetzten Softwaresysteme sind allerdings nicht für die Verarbeitung großer Datenmengen auf begrenzten Hardwareressourcen ausgelegt.

Das bedeutet, dass nur eine bestimmte Art von spezialisierten Technologien in diesen Umgebungen überhaupt praktikable Optionen sind. Diese wurden eigens für die IoT-Verarbeitung an entfernten Standorten und somit für die Verarbeitung „am Rand“ – in der so genannten Edge – entwickelt.

Die daraus resultierenden Herausforderungen in Bezug auf die Datenverarbeitung werden zusätzlich durch Herausforderungen auf der operativen Ebene verschärft. Da IoT-Systeme auf Bohrinseln rund um die Uhr laufen müssen, erfordert das eine extrem hohe Zuverlässigkeit an die Systeme – insbesondere deshalb, weil sie schwieriger zu erreichen sind. Da zudem gefilterte und aggregierte Daten an das Hauptrechenzentrum geliefert werden, stellen Operation Teams immer wieder fest, dass ihre Datenbanken und Datenspeicher nicht elastisch zur Laufzeit skaliert werden können, um wechselnde Lasten besser zu bewältigen.

Das Beispiel einer Bohrinsel verdeutlicht die Probleme, die bei der Verarbeitung großer Datenmengen an der Edge entstehen.
Das Beispiel einer Bohrinsel verdeutlicht die Probleme, die bei der Verarbeitung großer Datenmengen an der Edge entstehen.
(Bild: David Mark auf Pixabay)

Obwohl globale Energieunternehmen enorm viel Geld in Bohrungen investieren, sind deren IT-Infrastrukturen oft eine Schwachstelle. Grund dafür ist die Tatsache, dass die Edge-to-Cloud-Verarbeitung von IoT-Daten bislang nicht so optimiert wurde, dass sie den steigenden Erwartungen der Kunden an die Infrastrukturen für Analytics entspricht.

Technologie für Edge-to-Cloud Verarbeitung

Aus diesem Grund blicken zunehmend mehr Energie-Unternehmen und Energieversorger auf innovative Technologien wie Data Stream Processing, die die Nutzung und Analyse von Daten in Echtzeit ermöglichen. Diese Systeme basieren auf dezentralen Rechenplattformen, die dem Netzwerk des Kunden eine parallel arbeitende Engine für die Datenverarbeitung mit geringer Latenzzeit zur Verfügung stellen. Dadurch können datenintensive Anwendungen in Echtzeit verarbeitet werden. Diese so genannte Multi-Thread-Architektur ermöglicht also die gleichzeitige Ausführung von Tausenden von Jobs.

Der große Vorteil dieser neuen Tools für die Verarbeitung von Datenströmen ist deren Fähigkeit, Verarbeitungsjobs mit großen Datenmengen automatisch in verschiedene Teilaufgaben zu segmentieren, die dann parallel innerhalb eines Computer-Clusters ausgeführt werden. Dieser Ansatz beim Daten-Streaming ermöglicht eine intelligente Verteilung der Daten auf die entsprechenden Cluster, um eine höhere Verarbeitungsleistung und schnellere Analysen zu erreichen.

Praxisbeispiel Förderplattformen in der Nordsee

Was bringt eine solche Technologie beispielsweise für Unternehmen, die Bohrinseln in der Nordsee betreiben? Deren technische Teams fordern einen besseren Einblick und aufschlussreichere Analysen aus den vorhandenen Daten ihrer IoT-Geräte auf der Bohrinsel. Konkret wünschen sie sich eine schnellere Möglichkeit, um eingehende Daten zu verarbeiten und ein tieferes Verständnis zu erlangen.

Dazu gehört auch ein gut strukturiertes Dashboard für die Visualisierung und Interpretation der Daten in Echtzeit. Eine Lösung von der Stange für diese komplexen operativen Anforderungen der Energieunternehmen gibt es jedoch nicht.

Wie lassen sich demnach sehr große Datenmengen, die von den Sensoren der Nordseeplattformen generiert werden, schneller verarbeiten, um daraus anspruchsvollere Analyseergebnisse zu erzielen, die auch entsprechend visualisiert werden? Und das zu jedem beliebigen Zeitpunkt während des Betriebs auf einer Bohrinsel?

Ölbohrinsel Mittelplate im Wattenmeer der Nordsee: Ob diese Plattform wie beschrieben vorgeht, ist unbekannt.
Ölbohrinsel Mittelplate im Wattenmeer der Nordsee: Ob diese Plattform wie beschrieben vorgeht, ist unbekannt.
(Bild: Ralf Roletschek / CC BY NaN)

Hier gelangen Daten unterschiedlicher Frequenzen über zirka 60 bis 70 Kanäle mit Hochfrequenzdaten in das Netzwerk des Unternehmens. Konkret sind das je Bohrplattform bis zu 50.000+ Ereignisse pro Sekunde. Ohne ein robustes System zur schnelleren Verarbeitung, Speicherung und Analyse aller Daten bleiben viele kritische Ereignisse unbemerkt oder werden gar nicht aufgezeichnet.

Gleichzeitig sind die Unternehmen mit unzähligen verworfenen Dateneinträgen, die nicht genügend Informationen liefern, konfrontiert - auch als 'Data Exhaust' bekannt. Idealerweise haben Lösungen für solche hochfrequenten Datenströme einen geringen Platzbedarf, erfordern wenig Programmierung und sind in bereits bestehende Systeme einfach zu integrieren.

Die Antwort auf die Frage nach der geeigneten Technologie lautet demnach Data Streaming; denn solche Plattformen können all dies leisten: Sie zeichnen hochfrequente Daten oder Ereignisse auf oder rufen diese ab. Sie können zudem mit bereits bestehenden eigenen Algorithmen der Unternehmen angewendet werden, um zum Beispiel sehr fein abgestimmte Anpassungen am Bohrprozess vorzunehmen.

Die Drehzahl einer Bohrstange kann auf diese Weise in Echtzeit angepasst werden. Schließlich müssen solche Vorgänge sehr präzise gesteuert werden, um Ausfälle der Bohrgeräte und kostspielige Verzögerungen im Gesamtprozess einer Bohrplattform zu vermeiden.

Wenn ein technisches Team eines Energieunternehmens demnach in die Lage versetzt wird, alle wichtigen Parameter für den Bohrprozess in Echtzeit zu erfassen, zu überwachen, zu analysieren und präzise zu justieren, dann werden physische und damit auch wirtschaftliche Ressourcen eingespart. Durch eine effizientere Verarbeitung und Verwaltung der hochfrequenten Datenströme, die über IoT Geräte auf der Bohrinsel gesammelt und zum Rechenzentrum zurückgesendet werden, konnten in diesem Fall Teams die Bohrzeit von ungefähr 15 auf zwölf Tage und damit um bis zu 20 Prozent verkürzen. Ein weiterer Vorteil solcher Plattformen ist die Möglichkeit, klar definierte Anforderungen an den Streaming-Prozess im Rahmen des Operation Stack einzurichten.

Alles in allem

Dem Energiesektor stehen neue Streaming-Technologien offen: Durch die Nutzung von Engines für die Analyse riesiger Datenmengen kann das vorhanden Potenzial von IoT wesentlich besser genutzt werden. Diese Data Streaming-Plattformen bewältigen sowohl die Geschwindigkeit als auch die schiere Menge der Daten, die von spezialisierten Anwendungen generiert werden in Echtzeit und ermöglichen so vorausschauende Planungen und präzise Verbesserungen innerhalb der Betriebsprozesse – kurzum sie sparen Zeit und damit Kosten. Der zentrale Vorteil eines Data Streaming schlägt also insbesondere in wirtschaftlicher Hinsicht zu Buche.

* Über den Autor: Dale Kim ist Senior Director of Technical Solutions bei Hazelcast. Er verantwortet dort die Produkt- und Markteinführungsstrategie der Plattform für In-Memory-Computing. Zuvor war der Berkely-Absolvent bei verschiedenen IT-Unternehmen sowohl im technischen Bereich als auch im Management tätig. Er bringt fundierte Erfahrung rund um Themen wie relationale Datenbanken, Search, Content Management, NoSQL, „Hadoop“/„Spark“ und Big Data Analytics mit.

(ID:47131460)