IT-Service-Optimierung bringt Licht ins Daten-Dunkel

IoT-Chaos begrenzt den Nutzungsgrad auf 1 Prozent

| Autor / Redakteur: Per Bauer* / Ulrike Ostler

Der Kampf mit der Komplexität und der Geschwindigkeit

Die Herausforderung liegt hier in der Komplexität des Problems und der schnellen Weiterentwicklung. Ein Ozean an Daten kommt auf die Unternehmen zu, und die IT wird mit hunderttausend Datapoints aus verschiedensten Orten und Zeiten zu kämpfen haben. Jede IT wird sich die Frage stellen müssen, wie relevante Daten in dieser Flut identifiziert werden können.

Angesichts anschwellender Datenstöme werden sich bis 2017 bereits 90 Prozent der Rechenzentren umstrukturiert haben.
Angesichts anschwellender Datenstöme werden sich bis 2017 bereits 90 Prozent der Rechenzentren umstrukturiert haben. (Bild: Volker Schlichting/ iStock.com)

In dem konkreten Beispiel der Wertschöpfungskette werden in Zukunft nicht nur die Verschickung und der Empfang der Güter erfasst, sondern alle Daten, die von IoT-Trackern in der gesamten Supply Chain aufgezeichnet werden. Das können sowohl Informationen von beweglichen und unbeweglichen Objekten oder auch Personen sein.

Um die Menge an anfallenden Daten sinnvoll zu nutzen, muss eine Hierarchie geschaffen werden, durch die nur relevante Daten gespeichert und später ausgewertet werden. Dadurch lassen sich der Datenverkehr und der benötigte Speicherplatz im Rechenzentrum minimieren. Im Falle unseres Beispiels würden dann etwa nicht die gesamte Wertschöpfungsgeschichte des Produkts an das Rechenzentrum geschickt, sondern anhand intelligenter Algorithmen und Predictive Analytics Ausreißer erfasst, die auf Probleme oder drastische Veränderungen im Vorgang hindeuten, identifiziert und als relevante Daten an das Zentrum weitergeleitet. Der Informationsstrom ist zu destillieren und in eine gemeinsame Sprache zu übersetzen, die das ganze Unternehmen versteht und basierend darauf Anpassungen vornehmen kann.

Rechenzentren müssen sich also zeitnah auf die steigenden Datenströme einstellen, wenn die betreibenden Unternehmen aus den Informationen einen Vorteil ziehen möchten. So prognostiziert IDC Cisco System, dass bis 2017 bereits 90 Prozent der Rechenzentren eine Umstrukturierung dieser Art durchlaufen haben, um mit den neuen digitalen Gegebenheiten Schritt halten zu können.

Auf Rechenzentren kommen aber auch noch weitere Veränderungen zu: Beispielsweise wird erwartet, dass Daten lokal und nicht mehr gebündelt in einem Rechenzentrum gespeichert werden, das heißt, die IoT-generierten Daten der besagten indonesischen Fabrik werden in einem regionalen Rechenzentrum untergebracht, während die Daten in Deutschland in einem deutschen oder europäischen Rechenzentrum gespeichert werden. Für die Sammlung und Analyse der verschiedenen Datenformate muss das Rechenzentrum die Herkunft aus unterschiedlichen globalen Standorten erkennen und bündeln. Für den Produktionsbetrieb selbst soll sich aber nichts ändern, da der Zugriff auf alle Daten zu Analysezwecken gewährleistet bleibt.

Optimierungssoftware für besseren Überblick

Die richtige Optimierungssoftware kann an dieser Stelle durch intelligente Datenerfassung weiterhelfen. Dafür werden zunächst Leistungsdaten erfasst und anhand automatisierter Mechanismen auf zukünftige Eventualitäten analysiert. Durch die unterschiedlichen Datenformate und Server-Standorte sollten Analyse-Prozesse im Idealfall übergreifend auf allen SQL-basierten Datenspeichern, Leistungsdatenbanken Dritter und benutzerdefinierten, unternehmensinternen Tools anwendbar sein.

Die Daten müssen daher nicht an einem Ort gebündelt sein, sondern werden trotz unterschiedlichen Quellorten in herkömmlichen Speichern oder privaten und öffentlichen Clouds gemeinsam analysiert. Ein Unternehmen spart dadurch vor allem Geld und Zeit und steigert durch effiziente Prozesse nachhaltig die Geschäftsproduktivität.

Aber auch das Unternehmen selbst kann zur Pflege des Rechenzentrums beitragen. So können IT-Verantwortliche durch eine Optimierungssoftware beispielsweise Daten, die durch private IoTs der Mitarbeiter entstanden sind, einfach aussortieren und diese vom Datenfluss ins Rechenzentrum ausschließen. Somit gelangen nur die für das Unternehmen entscheidenden Daten an den langfristigen Speicherplatz, das heißt nur Daten, die dem Unternehmen einen Mehrwert bieten.

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?
Die Diskussion erinnert stark an die Anfangszeiten des Themas CMDB, wo Unternehmen versuchten,...  lesen
posted am 07.01.2016 um 09:49 von Peter_Schroff@bmc.com


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43783637 / Data)