DataCenter Day 2018: Können Container die Auslastung im RZ erhöhen? Neue Wege zur Software- und damit Datacenter-Effizienz

Autor / Redakteur: Dr. Dietmar Müller / Dietmar Müller |

Effizienz lautet seit Jahren das Zauberwort im Rechenzentrumsbetrieb. Nachdem die Betreiber keinen Stein auf dem anderen gelassen haben und bei Stromversorgung, Kühlung und Architektur alle greifbaren Einsparungspotentiale genutzt haben, ist nun die IT in den Fokus geraten: Kann mittels geeigneter Software die Auslastung von Servern maximiert werden, so dass insgesamt weniger Maschinen mit Strom versorgt werden müssen?

Anbieter zum Thema

Container sorgen dafür, die Dichte der Software auf Servern zu erhöhen. Und sonst?
Container sorgen dafür, die Dichte der Software auf Servern zu erhöhen. Und sonst?
(Bild: gemeinfrei - jamesosborne_/Pixabay / CC0 )

Diese Frage steht auch im Mittelpunkt des DataCenter Day von Vogel IT-Medien am 23. Oktober im Vogel Convention Center (VCC) in Würzburg. Wir haben Sie vorab Datacenter- und Software-Experten aller Couleur gestellt, so auch Burkhard Noltensmeier, Geschäftsführer der Teuto.net Netzdienste GmbH. Im eigenen Datacenter in Bielefeld bietet teuto.net neben Cloud-Diensten sowohl Server Hosting als auch Server-Housing an. Er setzt auf Software, um die Auslastung von Servern im Rechenzentrum maximal zu erhöhen – und so die Effizienz zu steigern.

„Durch effiziente Software kann man die gesamte Anzahl der Server verringern - und so den Gesamtstromverbrauch reduzieren. Dies ist insbesondere für den Betreiber der Software wichtig, spielt doch die Anzahl der Server eine große Rolle, da dies direkt in die Kosten eingeht. Je grösser der Nutzerkreis einer Software ist, desto eher lohnt es sich in die Effizienzsteigerung der Software zu investieren“, berichtet Noltensmeier.

Bepacken Server, wie nie zuvor: Container

Wie aber muss Software aussehen, um Server im Rechenzentrum maximal zu nutzen? Virtualisierung hatte vor zehn, 15 Jahren genau dies versprochen, in der Realität sind Server-Racks heutzutage aber nur zu einem Bruchteil ausgelastet. Der Blick fällt heute auf Microservices und Container. Aus gutem Grund, so Noltensmeier:

„Google hat sehr große Rechenzentren - und hat sowohl in die Effizienz der Datacenter als auch in die Effizienz der Software investiert. Kubernetes wurde ebenso wie die Programmiersprache Golang von Google ‚erfunden‘, um Betrieb und Erstellung der Software zu vereinfachen und so die Auslastung der Server zu optimieren.“

Das bestätigt auch Thomas Di Giacomo, seit 2016 CTO bei Suse. Er ist ein Anhänger des „Software-defined everything“: „Ja, Software kann den Stromverbrauch im Rechenzentrum senken, indem sie Hardware einspart. Das hat mit der Virtualisierung angefangen und gerade im Speicherbereich große Einsparungspotentiale eröffnet, aber auch beim Networking.“

Für ihn sind Lösungen auf Basis von OpenStack die beste Art, den „Footprint of the Hardware“ zu reduzieren. Darauf aufbauend sorgen Container dafür, die Dichte der Software auf Servern zu erhöhen. „Bei der Virtualisierung musste ja immer noch das Betriebssystem mit hochgeladen werden – das fällt beim Umgang mit Containern weg. Wir benötigen nun keine Duplizierung mehr“, fügt der CTO hinzu.

Kubernetes hat gesiegt

Noltensmeier setzt mit seinem Unternehmen Teuto.net ganz ähnlich wie viele andere Anbieter im Container-Business stark auf Kubernetes. Was begeistert Ihn daran so?

„Kubernetes hat das Rennen um die Führerschaft der Container Orchestrierungssysteme gewonnen. Die Kubernetes-Container-Orchestrierung ermöglicht es, die Redundanzen auf Software-Ebene abzubilden, so dass man Redundanten auf Datacenter-Ebene einsparen. In anderen Worten: Kubernetes vereinfacht die Organisation und das Scheduling der einzelnen Komponenten auf mehreren Rechnern und entkoppelt deren Betrieb.“

Damit aber nicht genug: „Kubernetes bietet zudem ‚out of the Box‘-Mechanismen für Healthchecks, Skalierung, Rolling-Updates, Zero Downtime Maintenance, Replication und automatische Wiederherstellung von fehlerhaften Services. Zudem können die verschiedenen Kubernetes-Services voneinander separiert werden. Dies kann auf der x Namespace-Ebene - zum Beispiel Production, QA und Development - erfolgen und fein granular pro Service oder sogar pro Pod. Durch die Isolation erreichen Sie ein hohes Sicherheitsniveau.“

Nächster logischer Schritt: Serverless und Unikernels

Jürgen Hoffmann, bei Pivotal als Teamleiter von Multi-Cloud-Entwicklern engagiert, stößt prinzipiell in das selbe Horn und lobt Container, „weil man damit Server dichter bepacken kann“. Er setzt aber zusätzlich stark auf die Karte der Automatisierung.

Er gibt in Sachen Container zu bedenken: „Für Container müssen Microservices verfügbar gehalten werden, die momentan eigentlich gar nicht gebraucht werden.“ Er sieht daher als nächsten logischen Schritt das Serverless Computing, da dabei nicht benötigte Services „nur gestartet werden, wenn sie auch wirklich gebraucht werden. So lässt sich eine noch viel höhere Dichte erreichen.“

Ganz ähnlich sieht es Chip Childers, CTO bei Cloud Foundry: „Es liegt in der Natur von Containern, die Auslastung von Servern zu erhöhen, nicht zuletzt, weil sie sich das Betriebssystem teilen. Mit Unikernels wird die Entwicklung noch weiter getrieben: „Bei Unikernels werden nur die Funktionen geladen, die für eine Anwendung benötigt werden. Die Applikation wird dadurch buchstäblich bis auf den nackten Kern ausgezogen und lässt sich als ‚Image‘ auf einem Hypervisor oder direkt auf der Hardware ausführen.“

Childers, Vordenker der Entwicklerszene, fasst zusammen: „Container erhöhen die Auslastung von Servern, weil sie weniger OS benötigen. Diese Entwicklung wird von Unikernels auf die Spitze getrieben.“

Am 23. Oktober 2018 findet der diesjährige DataCenter Day im VCC Würzburg statt.
Am 23. Oktober 2018 findet der diesjährige DataCenter Day im VCC Würzburg statt.
(Bild: Vogel IT-Medien GmbH)

Diskussionen auf dem DataCenter Day

Container, Serverless und Unikernels auch auf dem DataCenter Day am 23. Oktober in Würzburg auf dem Programm; denn das diesjährige Motto »IT-Strategy drives Infrastructure« greift die gerade abgehandelte Frage direkt auf und spiegelt die Dynamik auf den Rechenzentrumsmarkts zurück. Der Fachkongress bringt Rechenzentrums-Betreiber, -Administratoren und -Verantwortliche mit Energie- und System-Managern sowie mit Technologie-Anbietern und Co-Locator zusammen, um sich über die wichtigsten Themen und Entwicklungen auszutauschen – von Facility, Energie und Kühlung bis zu Interkonnektivität, (Multi-)Cloud und Hyperkonvergenz.

Das Motto der Veranstaltung findet sich insbesondere in folgenden Beiträgen (und Personen) wieder.

Um 9:00 Uhr beginnt der Geschäftsführer der NCB GmbH und Vorstandsvorsitzender im VIRZ e.V. Geschäftsführer der NCB GmbH und Vorstandsvorsitzender im VIRZ e.V. Hartwig Bazzanella seine Eröffnungs-Keynote : „Wie die Unternehmens- und IT-Strategie die Anforderungen eines zukünftigen Datacenter bestimmt“. Wer ihn kennt, weiß, dass er etwa ein großer OpenStack-Fan ist. In seinem Vortrag spricht er zudem an:

  • Wie können Edge- und Mikro-DC als Composite-DC sinnvoll in ein Gesamtkonzept eingebettet werden?
  • die Optimierung im Composite-DC durch Machine Learning und
  • den Einsatz von Hyper Converged Infrastructure im Composite-DC

Richard Hartmann, Systemarchitekt und Projektleiter bei Spacenet und Teammitglied der Prometheus-Entwickler-Gemeinde, hat nicht nur gerade den Neubau eines Rechenzentrums begleitet, welche das Unternehmen sowohl für Hosting- als auch für den Rechenzentrumsbetrieb eigener IT als auch im Co-Location nutzen will, sondern hat auch gerade noch das Projekt „OpenMetrics“ der Cloud Native Computing Foundation (CNCF) ins Leben gerufen. Er kann in einem schwindelnden Tempo den Zusammenhang zwischen neuartiger IT und den Erfordernissen in einem Rechenzentrumsbau herstellen.

Auf dem DataCenter Day hat er geplant zwei Einsätze:

Um 9:25 Uhr startet seine Keynote mit dem Thema „Von der grünen Wiese zum Hochsicherheitsrechenzentrum“ mit den Unterthemen

  • Form follows function: wenn die Architektur der TGA untergeordnet wird
  • Wann lohnt sich er eigene Bau - und wann nicht?
  • Wie entscheide ich zwischen Eigenvergabe, Generalunternehmer, und Generalübernehmer?

Um 9:55 Uhr startet der Think Tank „Make vs. Buy – warum das eigene Rechenzentrum unbezahlbar wurde“. Die Stichpunkte hierzu lauten:

  • Wieso werden Rechenzentren immer teurer?
  • Lohnt sich eine Nachrüstung von Bestandsgebäuden?
  • Woher kommt der verstärkte Druck, Rechenzentren und ihren Betrieb extern zertifizieren zu lassen?
  • Was sind die Vor- und Nachteile aus dieser Entwicklung?

Artikelfiles und Artikellinks

(ID:45544486)