Dell-Experte Peter Dümig im Interview zu Server-Hardware

Von Wasserkühlung bis Lichtleiter – was gehört in einen Dell-Server?

| Autor / Redakteur: Nicolai Zotow* / Ulrike Ostler

Peter Dümig, Field Product Manager Enterprise Solutions Dell, weicht auch Fragen nach der Konkurrenz nicht aus.
Peter Dümig, Field Product Manager Enterprise Solutions Dell, weicht auch Fragen nach der Konkurrenz nicht aus. (Bild: Dell GmbH)

Peter Dümig ist der Experte bei Dell in Deutschland, wenn es um Server-Hardware geht. Wir haben ihn zu den derzeit bestimmenden technischen Ausprägungen und zur Konkurrenz aus China befragt: Wird es wassergekühlte Systeme geben? Wie sieht es mit Silicon Photonics aus? Welche Dichte wird Standard und werden hyperkonvergente Systeme das Bild im Rechenzentrum bestimmen?

Wie sehen Sie die Zukunft der Wasserkühlung in Server-Systemen?

Peter Dümig: In speziellen Umgebungen wie beim High Performance Computing bietet sie zwar Vorteile, weil so höhere Energiedichten möglich sind. Im kommerziellen Umfeld jedoch wird sie sich nicht durchsetzen, da ihre Handhabung zu komplex ist. So muss beispielsweise am Münchner Leibnitz-Rechenzentrum viel Aufwand betrieben werden, um das Wasser neutral zu halten.

Die Administratoren müssen sich um Filter und Algenwuchs kümmern. Außerdem muss man, wenn man die Geräte nicht komplett unter Kühlflüssigkeit setzt, die Konnektivität sicherstellen. Bei komplett getauchten dürfen keine drehenden Teile vorhanden sein.

Der Aufwand für Wasserkühlung ist groß. Bei Dell gehen wir den gegenteiligen Weg. Hier setzen wir auf höhere Betriebstemperaturen, damit der Kühlungsaufwand geringer bleibt. Dell hat bereits mit Emerson Network Power zusammen solche Systeme beim Bundesinstitut für Berufsbildung realisiert. Außerdem arbeiten große Hosting-Anbieter mit freier Kühlung. Vorstellen könnte ich mir allerdings gekapselte Racks mit eigener Kühlung.

All-purpose oder Customized: Wohin geht Ihrer Meinung nach die Reise bei Server-Systemen?

Ergänzendes zum Thema
 
Zu Peter Dümig

Peter Dümig: Darauf zu antworten ist nicht ganz so einfach. Auf dem Markt werden die Standardsysteme gewinnen. Sie sind schneller auf den Markt zu bringen und dabei auch noch preiswerter.

Fast verschwunden ist der mittlere Bereich mit den Unix-Systemen. Diese befinden sich zwischen Mainframes und Standardsystemen und werden von ihnen bedrängt. Im Großen und Ganzen werden die x86-Systeme gewinnen. Außerdem gibt es bereits spezialisierte Systeme auf x86-Basis. Beispiele dafür wären Microsoft CPS mit dem gleichen Ansatz wie bei „EVO Rail“. Hier fährt man ein Grid-Konzept, auf dem die Infrastruktur aufgebaut wird.

Was Mainframes betrifft, spielt hier der Sicherheitsaspekt eine Rolle, auch weil es keine Historie bezüglich Einbrüchen gibt. Kunden kaufen sie auch wegen der Ausfallsicherheit. Allerdings sind sie schwerer zu verwalten und auch teurer. Am Ende muss man sich immer überlegen, welches Ergebnis man erreichen möchte.

Wenn es einen spezifischen Nutzen gibt, akzeptiert ein Kunde eine Lock-in-Situation. Wegen den Software-defined-Konzepten nehmen Kunden neuerdings gerne offene Systeme, um flexibler agieren zu können. Die von Mainframes gewohnte Ausfallsicherheit kann man auch durch Grid-Konzepte erreichen.

Mit steigender Anpassung der Technologie und der Geschwindigkeit verschieben sich die Grenzen des Möglichen von Jahr zu Jahr immer weiter. Vor Jahren hätte man zum Beispiel in der Virtualisierung einiges nicht erreichen können, was heute Usus ist. So werden die Preise von proprietären Systemen durch die zukünftig niedrigere Nachfrage noch steigen.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42668831 / Server)