Suchen

Die Menge von Unternehmens-IT-Daten behindert echte Konsolidierung Ein datengetriebener Ansatz zur RZ-Optimierung

Autor / Redakteur: Walker White / Ludger Schmitz

Vor einer Konsolidierung von Rechenzentren sollte zunächst eine detaillierte Bestandsaufnahme aller Ressourcen stehen. Je sauberer, detaillierter und einheitlicher die massenhaften IT-Asset-Daten, desto einfacher gestaltet sich die Inventarisierung.

Firmen zum Thema

Die Inventarisierung vor der Konsolidierung kann in Dimensionen eines Großprojekts führen.
Die Inventarisierung vor der Konsolidierung kann in Dimensionen eines Großprojekts führen.
(Bild: gemeinfrei - BarbaraALane/Pixabay-3201397 / CC0 )

Nicht immer lässt sich eine Bestandsaufnahme aller Ressourcen so ohne weiteres durchführen – dafür sorgt schon alleine die wachsende Anzahl an Hardware- und Software-Assets in einem Unternehmen. Neben verschiedenen Versionen, Editionen, Bundles und Service Packs, liefern auch IT-Lösungen für das Beschaffungsmanagement sowie für das Lizenzmanagement weitere detaillierte Informationen. Für Microsoft-Produkte steht mit dem System Center Configuration Manager (SCCM) sogar ein eigenes System zur Verwaltung zur Verfügung.

Saubere Datengrundlage schaffen

Bei Datenquellen, die unabhängig voneinander betrieben werden, führt die Konsolidierung generell zu redundanten Daten. Diese doppelten Informationen müssen identifiziert, bereinigt und entfernt werden. Nur so lässt sich die Gesamtdatenmenge wirkungsvoll reduzieren. Zudem sind in den Datenquellen oft unterschiedlichste Arten von Asset-Informationen hinterlegt, von denen nicht alle für die Bestandsanalyse tatsächlich relevant sind. Service- und Supportmitteilungen beispielsweise sind im Rahmen der Inventarisierung mehr Ballast als Nutzen und sollten aus dem Datenbestand verschwinden.

In vielen Fällen fehlt es auch schlichtweg an standardisierten Daten. So kann es vorkommen, dass ein und das gleiche IT-Asset mit verschiedenen Informationen versehen ist. Typische Fälle sind unterschiedliche Schreibweisen bei Namen ( ABC Corporation oder ABC Corp.) oder bei Abkürzungen. Hier gilt es, die Daten zu normalisieren und alle potentiellen Bezeichnungen sowie neue Informationen zu einem Produkt in einem einzigen Standard zusammenzufassen. Die Normalisierung stellt so auf formaler Ebene die Integrität der Daten sicher und sorgt für ein redundanzfreies Datenmanagement.

Und schließlich sind auch aktuelle Marktinformationen zu Anbietern, Softwareprodukten und Versionen aus externen Quellen zu berücksichtigen. Neben Informationen zur Produktkompatibilität zählen dazu Produktabkündigungen (End-of-Life), Ablauf des Supports (End-of-Support), Hardwarespezifikationen, Softwareschwachstellen sowie alle Informationen, die nicht Teil der Installations-, Konfigurations- oder Kaufhistorie eines Produkts sind.

Manuell versus automatisiert

Die Deduplizierung und Normalisierung einer solchen enormen Menge von IT-Asset-Daten manuell durchzuführen ist extrem zeitaufwändig. Ein einfaches Beispiel aus der Praxis zeigt, wie viele Arbeitsstunden für das Sammeln, Bereinigen und Normalisieren von Hardware- und Software-Asset-Informationen anfallen (siehe Abbildung).

Manuelle Inventarisierung verschlingt in größeren Umgebungen einfach zu viel Zeit.
Manuelle Inventarisierung verschlingt in größeren Umgebungen einfach zu viel Zeit.
(Bild: Flexera)

Ein typisches Projekt kann mit 9.000 Arbeitsstunden beziehungsweise 225 Wochen mehr als vier Jahre in Anspruch nehmen – angesichts ohnehin knapper IT-Ressourcen ist dies kaum zu realisieren. Bei der Konsolidierung von Rechenzentren nimmt daher die Mehrheit von Unternehmen ungenaue und fehlende IT-Asset-Daten zähneknirschend in Kauf.

Vier Vorteile sauberer Asset-Daten

Saubere und detaillierte IT-Asset-Daten sind jedoch nicht nur grundlegend für die Konsolidierung, sie ermöglichen auch echte Kosteneinsparungen. Insgesamt lassen sich vier Schlüsselbereiche identifizieren, die von der einheitlichen Datengrundlage profitieren:

1. Compliance bei Softwarelizenzen

Audits von Softwareanbieter wie Oracle, Microsoft, SAP etc. gehören zu den Schreckgespenstern der IT und drohen mit hohen Nachzahlungen und Strafen. Je genauer der Einblick in die vorhandenen IT-Assets, desto leichter lassen sich Compliance-Verstöße verhindern. Gleichzeitig lassen sich auch Lizenzierungskosten einsparen, zum Beispiel durch die Vermeidung von Shelfware (ungenutzter Lizenzen) oder das Aufdecken identischer Softwarekäufe, die in einem einzigen Kaufvertrag zusammengefasst werden können. Das erleichtert zukünftige Preisverhandlung mit den Anbietern.

2. Sicherheitsrisiko Schwachstellen

End-of-Life sowie End-of-Support Produkte sind ein leichtes Ziel für Hacker und stellen ein erhebliches Sicherheitsrisiko für Unternehmen dar. Bei Übernahmen und im Rahmen einer Konsolidierung werden solche Risiken vorab von der IT genau überprüft, insbesondere was stark gefährdete Software-Assets angeht. Informationen, die genaue Statistiken zu CPE/CVSS-Software-Schwachstellen beinhalten, stellen ein effektives Mittel zur Messung des Sicherheitsrisikos dar.

3. Kompatibilität von Software und Hardware

Die Konsolidierung von Rechenzentren bietet die Möglichkeit, Bereiche, Prozesse und Assets neu zu bewerten, die im täglichen Geschäft oft als Routine abgetan werden. Welche von den vielen zu unterstützenden Anwendungen erfordern ein Upgrade? Ist ein Server-Upgrade erforderlich und wenn ja, sind die Anwendungen kompatibel? Kann ein Server (oder mehrere) ein Kandidat für die Migration auf einen virtuellen, gehosteten Server sein?

4. Planen der Hardware-Infrastruktur

Probleme kann auch die physische Konsolidierung von Rechenzentren sowie die Planung der IT-Infrastruktur bereiten. Unabhängig davon, wie viel Platz das neue Rechenzentrum bietet, muss der Mix aus Hardware-Anbietern und Geräten genau vorbereitet werden. Konsolidierte Informationen vereinfachen auch hier die Planung und Ausführung und eliminieren unnötigen Aufwand bei der Recherche von dringend notwendigen Rahmendaten.

Kosteneffizienz auf lange Sicht

Eine gründliche Bestandsaufnahme erlaubt dem Konsolidierungsteam eine erste Einschätzung, wie verschiedene Einrichtungen zusammenpassen und welche Synergien hinsichtlich der Kosteneffizienz entstehen. Darüber hinaus lassen sich Konsolidierungsprozesse schneller durchführen, um den IT-Betrieb nur minimal zu stören und wesentliche Geschäftsfunktionen des Unternehmens auf dem schnellsten Weg wieder zusammenzuführen. Werden die einmal standardisierten und zusammengefassten IT-Asset-Daten über den Konsolidierungsprozess hinaus gepflegt und aktualisiert, zahlt sich die Bestandsaufnahme langfristig aus.

Ergänzendes zum Thema
Flexera Data Platform

Softwareanbieter wie Softwareanwender brauchen eine zentrale und einheitliche Datenbasis, um ihre Technology Assets zu managen. Mit der „Flexera Data Platform“ erhalten IT-Verantwortliche nun Zugang zu einem der weltweit größten Technologie-Asset-Repository. Der Datenkatalog fasst Asset-Daten verschiedener Systeme zusammen, kategorisiert, normalisiert, ergänzt und aktualisiert die Informationen und schafft so die Grundlage für eine gemeinsame Datensprache. Die Informationen zu allen Technology Assets geben Entscheidungsträgern einen detaillierten Einblick in ihre IT-Infrastruktur und treiben Lösungen im Bereich IT-Asset-Management, IT-Service-Management, Unternehmensarchitektur und Sicherheit voran.

Der Datenbestand basiert auf der eigenen umfassenden Software Intelligence von Flexera sowie dem Hardware- und Software-Content-Repository „Technopedia“ (vormals: BDNA):

* Das Software Intelligence Repository von Flexera umfasst 150 Millionen Datenpunkte zu Open-Source-Komponenten, Software-Erkennungsregeln, Produktnutzungsrechte, Bestandseinheiten (SKUs) und Informationen des Secunia-Research-Teams von Flexera über Softwareschwachstellen. Dank der Erweiterung um End-of-Service-Life-Daten sind Kunden in der Lage, veraltete und nicht mehr unterstützte Software zu identifizieren und zu entfernen, Sicherheitsrisiken zu verringern und unnötige Wartungskosten einzusparen.

* Die IT-Datenbibliothek Technopedia kategorisiert und koordiniert 180 Millionen Daten über Hardware, Enterprise-Software, IoT, Open Source, Software Vulnerabilities, Produkt-Lebenszyklus von mehr als zwei Millionen Produkten. Um die Aktualität der Daten sicherzustellen, werden täglich mehr als 2.500 Updates erfasst.

Über die Nexus Data Cloud können Hersteller wie Microsoft zertifizierte Softwaredaten direkt in die Flexera Cloud integrieren und erweitern. Die bereitgestellten Daten fließen zurück in die entsprechenden SAM, Software Vulnerability Management und Software Composition Analysis-Lösungen von Flexera. Das Repository ist auf einer offenen Plattform aufgebaut, die den Zugriff durch andere Lösungsanbieter und Systemintegratoren erlaubt

* Walker White ist Vice President Data Platform bei Flexera

(ID:45198737)