Die Menge von Unternehmens-IT-Daten behindert echte Konsolidierung Ein datengetriebener Ansatz zur RZ-Optimierung
Vor einer Konsolidierung von Rechenzentren sollte zunächst eine detaillierte Bestandsaufnahme aller Ressourcen stehen. Je sauberer, detaillierter und einheitlicher die massenhaften IT-Asset-Daten, desto einfacher gestaltet sich die Inventarisierung.
Anbieter zum Thema

Nicht immer lässt sich eine Bestandsaufnahme aller Ressourcen so ohne weiteres durchführen – dafür sorgt schon alleine die wachsende Anzahl an Hardware- und Software-Assets in einem Unternehmen. Neben verschiedenen Versionen, Editionen, Bundles und Service Packs, liefern auch IT-Lösungen für das Beschaffungsmanagement sowie für das Lizenzmanagement weitere detaillierte Informationen. Für Microsoft-Produkte steht mit dem System Center Configuration Manager (SCCM) sogar ein eigenes System zur Verwaltung zur Verfügung.
Saubere Datengrundlage schaffen
Bei Datenquellen, die unabhängig voneinander betrieben werden, führt die Konsolidierung generell zu redundanten Daten. Diese doppelten Informationen müssen identifiziert, bereinigt und entfernt werden. Nur so lässt sich die Gesamtdatenmenge wirkungsvoll reduzieren. Zudem sind in den Datenquellen oft unterschiedlichste Arten von Asset-Informationen hinterlegt, von denen nicht alle für die Bestandsanalyse tatsächlich relevant sind. Service- und Supportmitteilungen beispielsweise sind im Rahmen der Inventarisierung mehr Ballast als Nutzen und sollten aus dem Datenbestand verschwinden.
In vielen Fällen fehlt es auch schlichtweg an standardisierten Daten. So kann es vorkommen, dass ein und das gleiche IT-Asset mit verschiedenen Informationen versehen ist. Typische Fälle sind unterschiedliche Schreibweisen bei Namen ( ABC Corporation oder ABC Corp.) oder bei Abkürzungen. Hier gilt es, die Daten zu normalisieren und alle potentiellen Bezeichnungen sowie neue Informationen zu einem Produkt in einem einzigen Standard zusammenzufassen. Die Normalisierung stellt so auf formaler Ebene die Integrität der Daten sicher und sorgt für ein redundanzfreies Datenmanagement.
Und schließlich sind auch aktuelle Marktinformationen zu Anbietern, Softwareprodukten und Versionen aus externen Quellen zu berücksichtigen. Neben Informationen zur Produktkompatibilität zählen dazu Produktabkündigungen (End-of-Life), Ablauf des Supports (End-of-Support), Hardwarespezifikationen, Softwareschwachstellen sowie alle Informationen, die nicht Teil der Installations-, Konfigurations- oder Kaufhistorie eines Produkts sind.
Manuell versus automatisiert
Die Deduplizierung und Normalisierung einer solchen enormen Menge von IT-Asset-Daten manuell durchzuführen ist extrem zeitaufwändig. Ein einfaches Beispiel aus der Praxis zeigt, wie viele Arbeitsstunden für das Sammeln, Bereinigen und Normalisieren von Hardware- und Software-Asset-Informationen anfallen (siehe Abbildung).
Ein typisches Projekt kann mit 9.000 Arbeitsstunden beziehungsweise 225 Wochen mehr als vier Jahre in Anspruch nehmen – angesichts ohnehin knapper IT-Ressourcen ist dies kaum zu realisieren. Bei der Konsolidierung von Rechenzentren nimmt daher die Mehrheit von Unternehmen ungenaue und fehlende IT-Asset-Daten zähneknirschend in Kauf.
Vier Vorteile sauberer Asset-Daten
Saubere und detaillierte IT-Asset-Daten sind jedoch nicht nur grundlegend für die Konsolidierung, sie ermöglichen auch echte Kosteneinsparungen. Insgesamt lassen sich vier Schlüsselbereiche identifizieren, die von der einheitlichen Datengrundlage profitieren:
1. Compliance bei Softwarelizenzen
Audits von Softwareanbieter wie Oracle, Microsoft, SAP etc. gehören zu den Schreckgespenstern der IT und drohen mit hohen Nachzahlungen und Strafen. Je genauer der Einblick in die vorhandenen IT-Assets, desto leichter lassen sich Compliance-Verstöße verhindern. Gleichzeitig lassen sich auch Lizenzierungskosten einsparen, zum Beispiel durch die Vermeidung von Shelfware (ungenutzter Lizenzen) oder das Aufdecken identischer Softwarekäufe, die in einem einzigen Kaufvertrag zusammengefasst werden können. Das erleichtert zukünftige Preisverhandlung mit den Anbietern.
2. Sicherheitsrisiko Schwachstellen
End-of-Life sowie End-of-Support Produkte sind ein leichtes Ziel für Hacker und stellen ein erhebliches Sicherheitsrisiko für Unternehmen dar. Bei Übernahmen und im Rahmen einer Konsolidierung werden solche Risiken vorab von der IT genau überprüft, insbesondere was stark gefährdete Software-Assets angeht. Informationen, die genaue Statistiken zu CPE/CVSS-Software-Schwachstellen beinhalten, stellen ein effektives Mittel zur Messung des Sicherheitsrisikos dar.
3. Kompatibilität von Software und Hardware
Die Konsolidierung von Rechenzentren bietet die Möglichkeit, Bereiche, Prozesse und Assets neu zu bewerten, die im täglichen Geschäft oft als Routine abgetan werden. Welche von den vielen zu unterstützenden Anwendungen erfordern ein Upgrade? Ist ein Server-Upgrade erforderlich und wenn ja, sind die Anwendungen kompatibel? Kann ein Server (oder mehrere) ein Kandidat für die Migration auf einen virtuellen, gehosteten Server sein?
4. Planen der Hardware-Infrastruktur
Probleme kann auch die physische Konsolidierung von Rechenzentren sowie die Planung der IT-Infrastruktur bereiten. Unabhängig davon, wie viel Platz das neue Rechenzentrum bietet, muss der Mix aus Hardware-Anbietern und Geräten genau vorbereitet werden. Konsolidierte Informationen vereinfachen auch hier die Planung und Ausführung und eliminieren unnötigen Aufwand bei der Recherche von dringend notwendigen Rahmendaten.
Kosteneffizienz auf lange Sicht
Eine gründliche Bestandsaufnahme erlaubt dem Konsolidierungsteam eine erste Einschätzung, wie verschiedene Einrichtungen zusammenpassen und welche Synergien hinsichtlich der Kosteneffizienz entstehen. Darüber hinaus lassen sich Konsolidierungsprozesse schneller durchführen, um den IT-Betrieb nur minimal zu stören und wesentliche Geschäftsfunktionen des Unternehmens auf dem schnellsten Weg wieder zusammenzuführen. Werden die einmal standardisierten und zusammengefassten IT-Asset-Daten über den Konsolidierungsprozess hinaus gepflegt und aktualisiert, zahlt sich die Bestandsaufnahme langfristig aus.
* Walker White ist Vice President Data Platform bei Flexera
(ID:45198737)