IT-Sizing als Basis zur Rechenzentrumsplanung, Teil 2 Die Schwierigkeit, Strategien und Konzepte für neue Rechenzentren zu finden

Ein Gastbeitrag von Peter auf dem Graben*

Anbieter zum Thema

Wie aus dem ersten Teil dieser Fachartikelreihe (s.u.) hervorgeht, bietet ein Umzug in ein neues Rechenzentrum großes Potential zur Optimierung der IT-Landschaft, besonders im Sinne der Effizienzsteigerung. Diese gewinnt zunehmend an Bedeutung und die Forderungen danach werden immer lauter, politisch wie auch von der Betreiberseite.

Das geplante Interxion-Rechenzentrum im „Digital Park Fechenheim“ als Modell.
Das geplante Interxion-Rechenzentrum im „Digital Park Fechenheim“ als Modell.
(Bild: Interxion)

Da mit der Inbetriebnahme und dem Bezug eines neuen Rechenzentrums in der Regel ein Großteil neuer IT-Hardware zum Einsatz kommt, liegt der Ansatz zur Modernisierung der Techniken, manchmal der Technologien, Plattformen und Applikationen nahe. Dies erfordert wiederum eine Strategieplanung zum richtigen Zeitpunkt, um auf deren Basis eine Grundlage für die optimale Datacenter-Planung zu schaffen. Nur so können die beschlossenen Strategien in das IT-Sizing einfließen, Konzepte erstellt werden und im weiteren Verlauf die Besiedelung sowie Migration im Detail geplant werden.

Strategieentscheidungen werden IT- sowie Datacenter-seitig getroffen. Beide Seiten behandeln ähnliche Schwerpunkte, wobei enge Abhängigkeiten erkennbar sind. Teile der RZ-Strategien stehen eher in Abhängigkeit der IT-Strategien. Da die Phase der Konzeption eine so wichtige Rolle spielt und die Basis für ein gutes Rechenzentrum bildet, werden im Diagramm die nötigen Strategien im Vergleich dargestellt.
Strategieentscheidungen werden IT- sowie Datacenter-seitig getroffen. Beide Seiten behandeln ähnliche Schwerpunkte, wobei enge Abhängigkeiten erkennbar sind. Teile der RZ-Strategien stehen eher in Abhängigkeit der IT-Strategien. Da die Phase der Konzeption eine so wichtige Rolle spielt und die Basis für ein gutes Rechenzentrum bildet, werden im Diagramm die nötigen Strategien im Vergleich dargestellt.
(Bild: DC-CE-RZ-Beratung)

Welche vorhandene IT-Infrastruktur mit ins neue Rechenzentrum migriert wird, ist meist abhängig von dessen Alter. Hinzu kommt bei dieser Betrachtung die Planungs- und Bauzeit für das neue Rechenzentrum. Hierbei sollte die rasante IT-Entwicklungsgeschwindigkeit mit einkalkuliert werden.

Gibt die Strategie vor, dass neue Rechenzentrum möglichst Energie-effizient zu betreiben, sind beim IT-Sizing schwerpunktmäßig andere Methoden anzuwenden, als wenn der Strategie gefolgt würde, die vorhandene IT-Infrastruktur mit möglichst wenigen Veränderungen umzuziehen. Denn die Software beziehungsweise die Applikationen und Services, die im Rechenzentrum betrieben werden, und das Nutzungsverhalten sind ausschlaggebend für den IT-Leistungsbedarf im Rechenzentrum.

Obwohl die Virtualisierung von Serversystemen schon seit vielen Jahren Einzug in die Rechenzentren hält, sind immer noch zahlreiche Installationen der traditionellen Form zu finden. Das heißt: Applikationen werden direkt auf dedizierten physischen Servern betrieben, die dabei eine größtenteils sehr geringe Systemauslastung aufweisen. Die Virtualisierung hat demgegenüber den großen Vorteil, dass die IT-Hardware deutlich besser ausgelastet und somit wirtschaftlicher betrieben werden kann. Speziell darauf ausgelegte Serversysteme stellen eine große Anzahl an Systemressourcen zur Verfügung, um darauf möglichst viele Virtuelle Maschinen (VMs) und Applikationen zu betreiben.

Virtualisierung führt zur Cloud

Das Thema der Virtualisierung wird schnell mit Cloud in Verbindung gebracht. Diese wird vielleicht über mehrere Rechenzentren der Welt verteilt betrieben. Das gehört differenziert betrachtet.

Allgemein stellt eine Cloud im Rechenzentrum zentrale Systemressourcen zur Verfügung, die je nach Modell und Technologie der Virtualisierung den Betrieb von Virtuellen Maschinen (VMs) und Applikationen ermöglichen. Die IT-Hardware, die physisch im Rechenzentrum betrieben werden muss, um diese Systemressourcen zur Verfügung zu stellen, setzt sich in erster Linie zusammen aus:

  • Serversystemen für Rechenleistung, Arbeitsspeicher und gegebenenfalls Datenspeicher
  • Datenspeichern in dafür vorgesehenen Storage-Systemen oder den Serversystemen
  • Netzwerken zur Anbindung der virtuellen Infrastruktur mit entsprechender Sicherheit

Desweiteren stellt ein Cloud-System zahlreiche Funktionen zum Management der virtuellen Infrastruktur zur Verfügung. Ein solches System lässt sich als „public Cloud“ oder aber auch als „private Cloud“ betreiben. Damit besteht die Möglichkeit zum Betrieb einer individuellen Cloud im eigenen Rechenzentrum, im eigenen Netzwerk und auf dem eigenem Datenspeicher.

Ein traditionelles Rechenzentrum ließe sich größtenteils in virtueller Form abbilden. Dies bietet die Vorteile der Leistungsstärke, den oft gewünschte Funktionalitäten und der Flexibilität einer Cloud im eigenen Rechenzentrum. Auf diese Weise ließen sich Rechenzentren, mit einem bisher geringen Anteil an Virtualisierung, bei einer Neuplanung deutlich komprimieren. In diesem Zusammenhang ist zu erwähnen, dass auch hybride Modelle für den Betrieb einer Cloud-Lösung möglich sind.

Auch die Virtualisierung unterliegt der Weiterentwicklung zur Effizienzsteigerung. Somit haben sich unterschiedliche Modelle entwickelt, wie zum Beispiel die Virtualisierung in Form von Containern, in denen die Applikationen betrieben werden. Aufgrund der Komplexität dieser Thematik wird in diesem Fachbeitrag, nicht tiefer darauf eingegangen. Dennoch bleibt der Verweis, die Möglichkeit für den Einsatz dieser sehr effizienten containerbasierten Virtualisierung zu prüfen.

Virtuelles trifft auf Physik

Letztendlich haben alle Modelle der Virtualisierung eines gemeinsam. Sie müssen die benötigten Systemressourcen in Form einer Anzahl an physischen Servern, so genannten Host-Systemen, bereitstellen. Diese müssen so bemessen sein, um die geforderten Applikationen, Datenmengen und Services aufzunehmen, Anfragen durch den User möglichst verzögerungsfrei zu beantworten und die angeforderten Daten zur Verfügung zu stellen. Die Dauer und Form der Datenhaltung sowie das dazugehörige Backup und die Systemredundanz sind bei der Auslegung zu berücksichtigen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Um genau diese Faktoren in die Rechenzentrumsplanung einfließen zu lassen, sollte das IT-Sizing in der Datacenter-Planung mit an der ersten Stelle stehen. Manchmal bietet sich an, den Rechenzentrumsbau in Ausbaustufen zu planen. Für die anfängliche und die endgültige Ausbaustufe sowie die Skalierung sind dafür Größen festzulegen. Diese beziehen sich auf die Größen für, „Platzbedarf“, „Leistungsaufnahme“ und „Gewicht“, die das IT-Equipment beanspruchen wird beziehungsweise mit sich bringt.

Im Vergleich zur IT-Systemplanung und dem damit verbundenen IT-Sizing, stellt die Dimensionierung der IT-Systeme bei der Datacenter-Planung eine recht grobe Betrachtungsweise dar. Aus Sicht der Rechenzentrumsplanung leisten somit die Planungs- und Sizing-Tools der einzelnen Hersteller, oft sehr gute Dienste und liefern meist ausreichend genaue Informationen.

Fachwissen ist unabdingbar

Um allerdings die so ermittelten Ergebnisse richtig bewerten zu können, ist ein gutes Fachwissen in diesem Bereich Voraussetzung. Ist dies im Team nicht vorhanden, empfiehlt es sich, wie anfangs schon beschrieben, die Unterstützung durch IT-Architekten heranzuziehen. Diese können die Vor- und Nachteile der einzelnen Systeme und Technologien abwägen und diese optimal auf den Bedarf abstimmen.

Zum Schluss sollte nicht vergessen werden, eine im Verhältnis angepasste und auf die Unternehmensverhältnisse zugeschnittene, gut durchdachte Reservefläche einzuplanen. Dazu sollten angemessene Kapazitäten für „Inhouse-Migrationen“, zum Beispiel bei einem Generationswechsel von Serversystemen, eingeplant werden. Bei „Inhouse-Migrationen“ gibt es in der Regel eine Phase, bei der ein Teil der neuen Systeme parallel mit den abzulösenden Systemen betrieben werden muss.

Bei jeder Planung bleibt immer eine nicht zu unterschätzende Anzahl an unbekannten Faktoren übrig. Für diese müssen Abschätzungen und Annahmen getroffen werden. Das bedeutet, die spätere Auslastung und die Wirtschaftlichkeit beim Betrieb des Rechenzentrums ist abhängig von der Qualität und Einschätzung der Annahmen, die in der Phase des IT-Sizing und der RZ-Planung getroffen worden sind.

Umgang mit den unbekannten Faktoren im IT-Sizing

Ein Rechenzentrum wird, je nach Funktion, für eine durchschnittliche Betriebsdauer von zehn bis 20 Jahren geplant. Für diesen Zeitraum sollten die Anforderungen, die vom eigenen Unternehmen an dieses Datacenter gestellt werden, definiert sein.

Allerdings können erfahrungsgemäß alleine hier die internen Meinungen stark auseinandergehen. Außerdem ist zu erkennen, dass es gerade in der heutigen Zeit recht schwierig sein kann, eine zielsichere Prognose zu treffen. Eine Zusammenarbeit mit der Unternehmensleitung sowie den IT-Verantwortlichen und gegebenenfalls IT-Beratern im Unternehmen ist empfehlenswert.

Zugleich macht die Informationstechnologie selbst Riesensprünge. Die Roadmaps der führenden Hersteller zum Beispiel für CPU‘s, SSD‘s und auch HDD‘s, oder GPU’s (zur Beschleunigung von Rechenoperationen, gerade im HPC-Bereich) lassen sich in den kommenden Jahren gewaltige Leistungsverdichtungen durch den Einsatz neuer Technologie erkennen.

Leistungsverdichtung bedeutet, dass in einem Chip deutlich mehr Rechenleistung, hauptsächlich durch eine größere Anzahl an Prozessorkernen steckt oder auf einer HDD/SSD in dem bekannten Format deutlich mehr Daten gespeichert werden können. Hinzu kommt, dass die neuen Techniken eine zunehmend geringere Stromaufnahme, bezogen auf beispielsweise einen Prozessorkern oder eine bestimmte Speicherkapazität, versprechen.

Von der Planung bis zum Bau

Statistisch gesehen vergehen vom IT-Sizing über die Planungs- und Bauphase bis hin zur Besiedelung des neuen Rechenzentrums, je nach Funktion und Bauvorhaben, schnell einmal en, zwei, drei Jahre. Auch das ist in der Planung zu berücksichtigen. Eine zuverlässige Vorausschau und detaillierte Planung über diesen langen Zeitraum sind unmöglich. Es müssen also Annahmen

auf der Basis von Erfahrungen, Trends und den Vorankündigungen der Hersteller getroffen werden.

Zudem kann es ratsam sein, um den Einsatz modernster Technik zu berücksichtigen, die Roadmaps der Hersteller zum IT-Sizing heranzuziehen. Denn geplant wird mit IT-Equipment, welches noch nicht auf dem Markt verfügbar ist.

Eine weitere valide und effiziente Methode im IT-Sizing ist ein Vergleich und die Kategorisierung. Hierbei werden Soft- und Hardwareprodukte oder auch ganze Server-Racks, wie sie größtenteils im eigenen Rechenzentrum vorkommen, hinsichtlich ihrer Ähnlichkeit in Kategorien mit bestimmter Leistungsklasse aufgeteilt und zugeordnet.

Ein Mehr an Leistung bedeutet nicht zwangsläufig mehr Platzbedarf

Durch die rasante Entwicklung und Leistungsverdichtung der IT-Hardware wird deutlich, dass bei einem Generationswechsel und Modernisierung, vorausgesetzt die benötigte IT-Leistung bleibt mehr oder weniger unverändert, mit deutlich weniger Flächen- und Leistungsbedarf zu rechnen ist, so dass am Ende Kapazitäten frei werden.

Ein modularer Aufbau in bestimmten Bereichen kann an dieser Stelle zusätzliche Flexibilität für Anpassungen bieten.

Der folgende dritte Teil dieser Reihe beschreibt die Recherche zum Einsatz Energie-effizienter Technik, die Deutung und den Nutzen von Roadmaps sowie die Auswirkungen bei einem Generationswechsel der IT-Hardware im Rechenzentrum

* Peter auf dem Graben ist Senior Datacenter Consultant bei der DC-CE RZ-Beratung GmbH & Co.KG.

Artikelfiles und Artikellinks

(ID:48483213)