Erik Sterck: „Wir gehen mit unseren Kunden eine Wette ein."

Fragen und Antworten über Hyper Converged Infrastructure

| Autor / Redakteur: DataCenter-Insider / Ulrike Ostler

Erik Sterck gilt als ausgewiesener Kenner von Hyperkonvergenztechnik. Für DataCenter-Insider beantwortet er Fragen zum Verständnis.
Erik Sterck gilt als ausgewiesener Kenner von Hyperkonvergenztechnik. Für DataCenter-Insider beantwortet er Fragen zum Verständnis. (Bild: Kai R Joachim (BFF))

Was HCI wirklich bedeutet und wie auch kleine und mittelständische Unternehmen (KMUs) davon profitieren können, weiß in Deutschland kaum jemand besser als Erik Sterck, dessen nach ihm benanntes Systemhaus mit Hyper Converged Infrastructure seit Jahren erfolgreich ist. Datacenter-Insider hat ihn zum Interview getroffen.

Wie kommt es, dass sich HCI in nur sechs oder sieben Jahren zu einem so wichtigen Thema entwickelt hat? In der Welt der Rechenzentren dauert es in der Regel rund zehn Jahre, bis die Techniken der Großinstallationen auch bei den KMUs ankommen.

Erik Sterck: Unsere Kunden, speziell im Mittelstand, sehen sich aufgrund der Digitalisierung fortlaufend neuen Aufgaben gegenüber. Deswegen suchte man schon seit längerem nach einer Technik, die eine so grundlegende Voraussetzung wie die IT-Infrastruktur möglichst einfach und mit geringem Aufwand zur Verfügung stellen kann. Unsere amerikanischen Kollegen sprechen in diesem Zusammenhang gerne von `ínvisible`, also unsichtbar.

Im Vordergrund steht das Ziel, den Administrationsaufwand so gering wie möglich zu halten, damit sich IT-Administratoren um andere Dinge kümmern und aktiv zur Entwicklung und dem Erfolg ihres Unternehmens beitragen können. Mit Hyper Converged Infrastructure hat man diese Technik gefunden.

Machen sich Administratoren Sorgen, dass Teile ihrer Aufgaben wegautomatisiert werden?

Erik Sterck: Im ersten Moment hat der ein oder andere Administrator beim Thema HCI sicherlich Sorgenfalten auf der Stirn bekommen. Wir erleben im Alltag, dass dort, wo es klassische 3-Tier-Infrastrukturen (bestehend aus Servern, Connectivity und Storage) gibt, eine Art Abteilungsdenken herrscht: Spezialisten haben teilweise über Jahrzehnte hinweg extremes Fachwissen aufgebaut.

Ergänzendes zum Thema
 
Über Erik Sterck

Wenn ein Prozess in diesem Konstrukt automatisiert wird, können Unternehmen diese bewährten Kollegen einsetzen, um sie für neue Plattformen und Applikationen zu schulen und fit für neue Herausforderungen zu machen. Außerdem muss auch eine hyperkonvergente Infrastruktur verstanden und am Laufen gehalten werden, Administratoren werden also nicht überflüssig.

Zudem macht der allgemeine Fachkräftemangel in der IT macht ein solche Technik zu einer Win-Win-Situation für alle Beteiligten: Spezialisierte Mitarbeiter haben die Möglichkeit sich weiterzubilden und das Unternehmen vereinfacht seine IT-Infrastruktur und stellt sich flexibel für die Zukunft auf.

Wir hören oft von Unternehmen, dass sie HCI als `Rolle rückwärts` betrachten: Vor 15 Jahren hieß es, nehmt die Festplatten aus den Servern und packt sie in ein NAS oder SAN, und nun sollen sie wieder im Server Platz finden. Warum ist das für HCI unbedingt notwendig?

Erik Sterck: Zunächst ist es wichtig, die Gründe zu verstehen, weshalb man das vor 15 Jahren so gemacht hat: Für SAN oder NAS sprachen die gebotene Connectivity und der Datendurchsatz. Damals sind die Datenmengen erstmals explosionsartig gewachsen und man hatte das Gefühl, für jede neue Anwendung eine Art Silo errichten zu müssen.

Egal, ob beispielsweise für SAP oder „Exchange“: Für alles hat man erst einmal eine dedizierte Infrastruktur inklusive eines eigenen Servers eingerichtet. Storage, das direkt im Server untergebracht ist, wäre in so einmal Fall schnell an ihre Grenzen gestoßen. Das war die Geburtsstunde der externen Systeme.

Mit dem Einzug der Server-Virtualisierung konnte man die Zahl der physischen Server verringern und sehr flexibel weitere virtuelle Maschinen bei Bedarf zur Verfügung stellen. Heute kommen auch Container-basierte Plattformen immer mehr in Mode. Erst dank der Virtualisierung ist es möglich geworden Kapazitäten und Server-Leistungen flexibel und einfach zu einzelnen Applikationen und Workloads zuzuweisen.

Hätte es diese Möglichkeit früher gegeben, hätten wir uns die ganze Arie mit den externen Speichern sparen können. Auf Basis des technischen Entwicklungsstandes zur damaligen Zeit waren die architektonischen Änderungen bezogen auf die Anforderungen allerdings notwendig.

Durch HCI entsteht eine zusätzliche Softwareschicht, also zu noch komplexere Strukturen. Führt das auch zu mehr Problemen?

Erik Sterck: Eigentlich ist das Gegenteil der Fall: Wenn Sie heute eine klassische 3-Tier-Architektur betreiben, dann benötigen sie zwingend eine Virtualisierungs-Software und eine Management-Software. Für die Virtuellen Maschinen (VMs) brauchen sie dann eine weitere Verwaltungssoftware. Hersteller wie VMware bringen diese teilweise gleich mit ihren Lösungen mit.

Zusätzlich finden wir im Bereich der Backend-Connectivity meist eine zusätzliche Schicht mit Management- und Administrationssoftware. Diese muss aber in der Regel nur sehr selten „angefasst“ werden. Erst danach kommt der eigentliche Speicher. Egal ob es sich dabei um eine NAS oder SAN-Lösung handelt: Das sind für sich genommen oft sehr komplexe Lösungen. Sie alleine erfordern schon eine Menge an Software, die gemanagt werden muss

Es gibt dann aber doch noch einen anderen Weg...

Erik Sterck: Genau! Sie können das alles, was ich eben beschrieben habe, auch aus dem Software-Stack des HCI-Providers heraus machen. Ein positives Beispiel wäre hier Nutanix: Vom Verwalten und Administrieren der VMs, der Connectivity und des Storage bis hin zum Planen von Aktionen im HCI-Cluster oder in der virtuellen Umgebung - beispielsweise das Einspielen von Patches oder neuen Softwareversionen - erfolgt alles auf einem einzigen Software-Stack. Bei beiden Methoden benötigen sie weder ein internes, dediziertes Speichersystem, noch ein - und das ist entscheidend - externes, das sie vollständig verstehen, warten und administrieren müssen.

Wer hat dieses Skalierungsproblematik von externen Speichersystemen als erster erkannt?

Erik Sterck: Nutanix ist als einer der Vorreiter bei den Lösungsanbietern zu nennen. Die Leute hinter Nutanix kommen ursprünglich von Unternehmen, die große Rechenzentren in den Dimensionen von Amazon, Facebook und Google betreiben. Dort verwendet man den Begriff ´Webscale-Technologie`, der ursprünglich vom Beratungsunternehmen Gartner geprägt wurde, um das Thema zu beschreiben. Solche Firmen hatten das oben beschriebene Problem von explosionsartig steigenden Datenmengen und dem dadurch stetig wachsenden Bedarf an immer mehr Servern und Storage-Systemen als erste.

Ein solches Rechenzentrum kann schnell die Fläche eines halben Fußballfeldes annehmen; und das ist dann quasi überhaupt nicht mehr mit klassischen Methoden administrierbar. Daraus ist die Idee von HCI entsprungen.

Neben den großen Rechenzentren mit Tausenden von Servern und Zehntausenden von Usern gibt es jetzt aber von Anbietern wie Lenovo kleine und schlüsselfertige Systeme für KMUs. Was hat sich da getan?

Erik Sterck: Prinzipiell kann sich ein KMU drei Server und ein Storage-System anschaffen und hat dann auch erst einmal für fünf Jahre keinen Handlungsdruck mehr – Hardware-seitig. Heutzutage ist es aber nicht mehr so einfach, Mitarbeiter und Fachleute zu finden, die ein solches System anschließend über diesen Zeitraum hinweg zuverlässig administrieren und bei Bedarf auch erweitern können.

Die IT-Abteilungen in kleinen und mittelständischen Unternehmen verfügen naturgemäß über weniger Personal als in Großunternehmen und Konzeren. Dennoch müssen sie im Prinzip die gleiche Anzahl an Aufgaben übernehmen. Das lässt sich nur sehr schwer bis gar nicht auf weniger Mitarbeiter aufteilen.

Eine ERP-Software wie von SAP ist für ein Unternehmen unverzichtbar, Mail und Backup sowieso. Hinzu kommen vielleicht noch Themen wie Außendienst-Anbindung, revisionssichere Daten und Hochverfügbarkeit.

Hier gibt es quasi keine Grenzen hinsichtlich der Wünsche und Anforderungen an IT-Abteilungen und Administratoren. Die logische Konsequenz daraus ist, dass für die grundlegenden IT-Themen wie zum Beispiel die IT-Infrastruktur immer weniger Ressourcen zur Verfügung stehen.

Kann man beim Thema HCI auch klein anfangen und eine HCI-Installation beispielsweise parallel zu den bestehenden Produktivsystemen laufen lassen?

Erik Sterck: Absolut! Man muss nicht gleich in die Vollen gehen, HCI verlangt keine ‚ Entweder-Oder-Entscheidung. Wir stellen in der Praxis fest, dass das auch die bevorzugte Herangehensweise unserer Kunden ist.

Häufig denken sich Unternehmen: Das sind die Kronjuwelen unserer IT, da werden wir keine Experimente wagen. Aber hier und da sollten wir schon mal etwas Neues testen. Wir haben aber auch Kunden, die nach den ersten Tests so begeistert von der Einfachheit der neuen Lösung waren, dass sie gleich ihre ganze Umgebung auf HCI umgestellt haben.

Wie hoch sind Geräte-Aufwand und Kosten?

Erik Sterck: Die kleinste Einheit bei Hyper Converged Infrastructure ist ein Cluster. Der besteht aus mehreren Servern, die sich alle sehen und zusammenarbeiten. Um beim Beispiel von Lenovo und Nutanix zu bleiben:

Dort bilden typischerweise drei Server gemeinsam einen Cluster. Drei Server deshalb, da so die Redundanz der gespeicherten Daten sichergestellt wird: Selbst wenn ein Server komplett ausfallen sollte, ist das Gesamtsystem noch sicher, während Reparaturen stattfinden können. Alle Daten bleiben vollständig gespiegelt und jederzeit verfügbar.

In kleineren Außenstellen kann man auch nur mit ein oder zwei Servern arbeiten, aber im Rechenzentrum selbst ist ein Cluster aus drei Servern Standard. Mit aktuellen „Intel Xeon-Scalable“ -Prozessoren und den entsprechenden Speicherplatten kann man - inklusive drei Jahren Support – bereits mit einer Investition von 50.000 bis 60.000 Euro einsteigen und bringt das ganze System bequem auf zwei bis vier Höheneinheiten in einem Rack unter.

Sind solche Lösungen Black-Boxes, wie bei einfachen NAS, oder lassen sie sich skalieren?

Erik Sterck: Das ist ein weiterer großer Vorteil der beschriebenen Lösung: Man kann sie sehr einfach auf Hardwareseite erweitern, falls notwendig. Von einer Anfangs aus Kostengründen gewählten hybriden Lösung kann man beispielsweise zu einem All-Flash-Storage wechseln, um den Datendurchsatz zu erhöhen. Auch der RAM kann ganz einfach nachgerüstet werden.

Zudem kann man die Cluster mit neuen, zusätzlichen Servern ergänzen, die dann schnell und unkompliziert in die Bestandsumgebung integriert werden können: Einbauen, Einschalten, im Cluster bekanntmachen - fertig.

Wie lange dauert es, den ersten Cluster aufzusetzen?

Erik Sterck: Wir gehen mit unseren Kunden bei diesem Thema gerne eine Wette ein: Wenn wir morgens um 9 Uhr vor Ort einen HCI-Cluster mit drei Servern auspacken, können wir mittags um 12 Uhr gemeinsam in die Kantine gehen. Zu diesem Zeitpunkt läuft dann bereits die erste Virtuelle Maschine des Kunden und zwar so, dass er sie in seiner Umgebung sehen und nutzen kann! Bis heute haben wir diese Wette noch nie verloren.

Wenn wir im Vergleich dazu eine typische 3-Tier-Umgebung aufbauen, kann das schnell ein bis drei Tage dauern. Allein schon deshalb, weil wir die unterschiedlichen Komponenten der Lösung zunächst verbinden und dann miteinander bekannt machen müssen.

Jetzt wird´s noch kurz persönlich: Wie kam Erik Sterck dazu, sich so früh mit HCI zu beschäftigen?

Erik Sterck: 2013, kurz nachdem ich mich selbstständig gemacht hatte, hörte ich meinen ersten Vortrag von Nutanix. Sie versprachen, dass man auf Basis einer virtuellen Server-Umgebung eine bestens dazu passende ´virtuelle` Computing-Plattform aufsetzen könne. Nach dem Vortrag war mir klar: Wenn das stimmt, dann muss sich keiner meiner Kunden mehr mit komplexen Speichersystem herumärgern.

Das wäre eine enorme Zeit- und Kostenersparnis. Ich habe dann meinen Technikern gesagt: Prüft das auf Bit und Byte! Bekanntermaßen fiel dieser Test sehr positiv aus und wir wurden zu einem der ersten Nutanix-Partner in Deutschland. Durch die langjährige und enge Partnerschaft sind wir inzwischen bis ins Engineering und die Labs von Nutanix hin bestens vernetzt.

Hinweis: Die nächste Gelegenheit Erik Sterck live zu erleben bietet sich am Donnerstag, 25. Oktober im Rahmen des HCI-Days im Executive Briefing Center von Lenovo in Stuttgart. Die Teilnahme ist kostenlos.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45519299 / Konvergente Systeme)