Das Software Defined Datacenter

Das Rechenzentrum von morgen wird programmiert

| Autor / Redakteur: Uwe Küll* / Ulrike Ostler

Die Quoten auf die Frage "Wie ist der Status von Software Defined Datacenter in Ihrem Unternehmen fallen überraschend hoch aus; nach IDC-Interpretaion ist das ein klares Indiz für unterschiedliche Sichtweisen und Interpretationen. Befragt wurden zudem nur Unternehmen, die sich SDI umfassend auseinandersetzen.
Die Quoten auf die Frage "Wie ist der Status von Software Defined Datacenter in Ihrem Unternehmen fallen überraschend hoch aus; nach IDC-Interpretaion ist das ein klares Indiz für unterschiedliche Sichtweisen und Interpretationen. Befragt wurden zudem nur Unternehmen, die sich SDI umfassend auseinandersetzen. (Bild: IDC)

Der digitale Wandel hat die Rechenzentren der Unternehmen voll erfasst. Von Software-definierten Infrastrukturen versprechen sich die Unternehmen niedrigere Betriebskosten und vor allem die schnellere Bereitstellung von Services. Doch für die IT gilt es zunächst, noch mehr Komplexität beherrschbar zu machen.

Die IDC-Studie „Software Defined Infrastructure in Deutschland 2016 hat es gezeigt: Unternehmen setzen verstärkt auf Software-definierte Infrastrukturen, um die operativen Kosten ihrer IT zu senken. Gleichzeitig sollen IT-Ressourcen so agiler und flexibler einsetzbar werden. Doch um geschäftskritische Services mithilfe software-definierter Infrastrukturen zu erbringen, wie dies in 40 Prozent der von IDC befragten Unternehmen geplant ist, muss sich die IT zumeist ganz neu aufstellen.

Software Defined Infrastructure: Das nächste große Ding

Transformation im Rechenzentrum

Software Defined Infrastructure: Das nächste große Ding

11.05.16 - Einen Steinwurf entfernt erblüht ein Thema, das die Trends Cloud, Virtualisierung und Digitalisierung konsolidiert. Als Überbau oder Katalysator soll Software Defined Infrastructure (SDI) die Enterprise-IT effektiviren. lesen

Karsten Kirsch, Geschäftsführer des Hamburger IT-Dienstleisters Direkt Gruppe, formuliert drastisch: „Die Tage der IT, wie wir sie heute kennen, sind gezählt.“ Kirsch begründet seine Einschätzung mit Erfahrungen, die wohl jeder Business-Anwender kennt: „Applikationen, die nur genutzt werden können, wenn sie in die vorhandene Infrastruktur passen, Server-Bereitstellungszeiten von Wochen oder Monaten und Workflows, die an der Unternehmensgrenze enden – das lassen sich die Business-Verantwortlichen nicht mehr bieten. Wenn die IT-Abteilung die geforderten Leistungen nicht bringen kann, ist sie aus dem Rennen.“

Die Analysten von IDC definieren das, was eine Software Defined Infrastrcture ausmacht.
Die Analysten von IDC definieren das, was eine Software Defined Infrastrcture ausmacht. (Bild: IDC)

Passt der Name zum Programm?

Das Mittel der Wahl, mit dem die IT-Entscheider künftig die Forderungen der Business-Seite nach schnelleren, flexibleren Services erfüllen wollen, heißt „Software Defined Datacenter (SDDC)“. Doch was ist damit gemeint? Auf den ersten Blick signalisiert der Begriff: Im Vordergrund stehen weiterhin die Technik und eine hermetische Form der IT-Organisation (Datacenter).

Warum also sollten Business-Verantwortliche heute glauben, dass die IT es jetzt ernst meint mit der Service-Orientierung? Überzeugen können jetzt nur noch konkrete Projekte, so Kirsch: „Wenn eine Versicherungs-IT innerhalb weniger Tage einen Proof of Concept auf die Beine stellt, der eine Zeitersparnis von 75 Prozent bei der Erstellung von rechenintensiven Berichten belegt, dann sieht das Business: Die haben verstanden.“ Möglich werden solche Projekte in einer Software-definierten Infrastruktur, die IT-Ressourcen unabhängig davon bereitstellt, auf welcher Hardware sie laufen und wo sie von wem betrieben werden. Kirsch spricht dabei von einer „Service-definierten Infrastruktur“.

Ergänzendes zum Thema
 
Sieben Fragen und Antworten zur Software-definierten IT-Infrastruktur

Auf den ersten Blick ist die Vereinfachung, die SDI innewohnt, nicht zu erkennen.
Auf den ersten Blick ist die Vereinfachung, die SDI innewohnt, nicht zu erkennen. (Bild: IDC)

Offenheit liegt im Trend

Natürlich bleibt es die Aufgabe der IT, sich um die Technologie zu kümmern, die zur Umsetzung von Geschäftsprozessen erforderlich ist. Das zeigt auch die Crisp-Studie „Digital Business Readiness“, in der mehr als zwei Drittel (68 Prozent) der Befragten erklärten, sie hielten „die Rechenzentrums-Infrastruktur für den wichtigsten Baustein der digitalen Transformation.“ Der Studie zufolge arbeiten diese Unternehmen allerdings an einer „Next-Generation Infrastructure“, die weniger durch die Vorstellung von einem in sich geschlossenen Rechenzentrum als vielmehr durch offene Konzepte wie Cloud, Software Defined Networking, Automation, Modularisierung und Standardisierung geprägt ist.

Software – der Stoff aus dem die IT-Infrastruktur von morgen ist

Das Vorgehen beim Aufbau einer solchen Infrastruktur unterscheidet sich nach Einschätzung von Carlo Velten grundsätzlich von dem bislang üblichen: „Der Administrator von heute programmiert seine Infrastruktur und bindet dabei unterschiedliche Cloud-Services mit ein, anstatt sich wie früher manuell durch unterschiedliche Konsolen zu klicken.“ Beispielsweise stellen alle großen Cloud-Plattformen ein Set von Standard-Services, etwa für die Zuteilung von Speicherplatz, über eine API bereit.

SDI sieht IDC als unabdingbare Voraussetzung für eine hybride Infrastruktur.
SDI sieht IDC als unabdingbare Voraussetzung für eine hybride Infrastruktur. (Bild: IDC)

Mittels Skripting lassen sich diese Services so in durchgängige Unternehmensprozesse einbinden, dass beispielsweise bei Lastspitzen einzelner Anwendungen automatisch die benötigten zusätzlichen Ressourcen bei einem Cloud Provider freigeschaltet, überwacht und abgerechnet werden. Viele andere Deployment-, Konfigurations- und Monitoring-Prozesse, die unter anderem bei der Umsetzung von DevOps entscheidend sind, lassen sich ebenfalls auf diese Weise automatisieren. So haben Entwickler und Administratoren mehr Zeit für eine engere Zusammenarbeit, ohne ihre jeweiligen Kernaufgaben zu vernachlässigen.

Die Cloud-Denke ist noch nicht angekommen

Eine zentrale Rolle in der IT-Infrastruktur von morgen spielt das Cloud-Modell, egal ob als Private, Public oder Hybrid Cloud. Wer von den Vorteilen einer programmierten Infrastruktur profitieren will, muss nicht unbedingt in die Public Cloud gehen. Wichtig ist jedoch bei einer Private Cloud, das sie sich verhalten muss wie eine Public Cloud, so Velten: „Das Problem vieler Private Clouds in der Vergangenheit war, dass sie eigentlich nichts Anderes waren als eine virtualisierte Umgebung, in der ein Administrator statt physikalischer Server virtuelle Maschinen – mehr oder weniger manuell – verwaltet hat.“

Für die Hälfte der vom Marktforschungsunternehmen IDC Befragten, nennen "die Cloud" als die primäre Herausforedrung für Rechenzentren.
Für die Hälfte der vom Marktforschungsunternehmen IDC Befragten, nennen "die Cloud" als die primäre Herausforedrung für Rechenzentren. (Bild: IDC)

Auf diese Weise konnten Unternehmen zwar bestehende Server-Ressourcen besser auslasten, aber mit der vom Business geforderten dynamischen Anpassung der Infrastruktur an die geschäftlichen Anforderungen hatte es wenig zu tun. Warum das für immer mehr Unternehmen zu wenig ist, erklärt Karsten Kirsch so: „Die Herausforderung einer Versicherung beispielsweise ist es ja nicht, ihre IT möglichst effizient und sicher zu betreiben. Die Herausforderung besteht darin, Geschäftsmodelle zu entwickeln, die in einem völlig neuen Marktumfeld in den nächsten fünf oder zehn Jahren funktionieren und die Existenz des Unternehmens sichern. Und dazu muss die IT ihren Beitrag leisten.“

Der Virtualisierungsgrad ist - wenig überraschend- bei den Compute-Ressourcen am höchsten.
Der Virtualisierungsgrad ist - wenig überraschend- bei den Compute-Ressourcen am höchsten. (Bild: IDC)

Beispielhaft: Zalando

Diese Flexibilität bereitzustellen, erfordert einiges Know-how, wie Velten betont. Er verweist auf das Beispiel von Zalando: Der Berliner Online-Händler hat auf Basis verschiedener Open-Source-Tools ein eigenes Framework unter dem Namen Stups.io entwickelt, um standardisiert und Compliance-konform mit unterschiedlichsten Entwicklerteams auf AWS produktiv zu arbeiten. Diese Werkzeuge sind OpenSource, und auf der Github-Seite von Zalando (https://github.com/zalando) frei verfügbar.

IDC fragte die Anwender in den Unternehmen auch nach den größten Hürden
IDC fragte die Anwender in den Unternehmen auch nach den größten Hürden (Bild: IDC)

Immer noch: Die Kultur muss sich ändern

Auf der technischen Ebene braucht ein SDDC vor allem eine Abstraktionsschicht, mit der sich so unterschiedliche Ressourcen wie Server-, Storage- und Netzwerk-Kapazitäten auf einer durchgängigen Plattform automatisiert verwalten lassen. Kirsch: „Mit Tools wie ServiceNow stehen die technischen Mittel dafür bereit. Noch wichtiger als die Technik ist jedoch, dass Unternehmen ihre Prozesse, Organisation und Kultur offen gestalten und Neues ausprobieren. Das bedeutet auch, grundsätzliche Einstellungen zu ändern, die Möglichkeit des Fehlers einzukalkulieren.“

Aus der Studie "Digital Business Readiness" von Crisp Research: In vielen Firmen spilt die Digitalisierung zwar eine Hauptrolle, doch zugleich hakt es vor allem beim Thema Automatisierung.
Aus der Studie "Digital Business Readiness" von Crisp Research: In vielen Firmen spilt die Digitalisierung zwar eine Hauptrolle, doch zugleich hakt es vor allem beim Thema Automatisierung. (Bild: Crisp Research)

Auch Crisp-Analyst Carlo Velten sieht die Bereitschaft zum Wandel als entscheidenden Faktor für den Erfolg der IT von morgen: „Wir erleben in der Praxis, dass es vor allem beim Thema Automatisierung in vielen Firmen noch hakt. Da müssen zum Beispiel Patches immer wieder per Hand nachgezogen oder Firewalls manuell justiert werden.“

Unter solchen Bedingungen ist die IT nicht in der Lage, Businessanforderungen zu unterstützen, die innerhalb von Minuten oder Sekunden zusätzliche Kapazitäten benötigen, wenn beispielsweise eine Online-Marketing-Aktion besser läuft als erwartet. Stattdessen dauert es Wochen oder Monate, Ressourcen für Services bereit zu stellen. Mit „Infrastructure as Code“, wie Velten die Infrastruktur von morgen auch gern nennt, ist das durch automatische Freischaltung innerhalb von Tagen, Stunden oder auch in Nahezu-Echtzeit machbar. Und Berater Kirsch meint: „So geht Service-Orientierung.“

* Uwe Küll ist freier Autor aus München.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44147603 / Virtualisierung)