40 Jahre Rechenzentren Datacenter: Digitalisierungskathedralen mit Renovierungsbedarf

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Datacenter haben sich, seit sie existieren, immer wieder verändert. Erhöhte Leistungsanforderungen bei gleichzeitigem Zwang zur Nachhaltigkeit sind der nächste Spagat, den die „Kathedralen der Digitalisierung“ (Ulrich Terrahe) bewältigen müssen.

Firmen zum Thema

Design und Ausrüstung von Rechenzentren haben sich in den vergangenen 40 Jahren stetig gewandelt.
Design und Ausrüstung von Rechenzentren haben sich in den vergangenen 40 Jahren stetig gewandelt.
(Bild: Vogel)

Ulrich Terrahe, Geschäftsführer der DC-CE RZ-Beratung die sich auf Bau und Konzeption von Rechenzentren spezialisiert hat, hat während des vergangenen virtuellen „Datacenter & Colocation Day“ einen Überblick über 40 Jahre Rechenzentrumsgeschichte gegeben.

Anhand von Beispielen erklärt er, was es früher bedeutete, ein fortschrittliches Rechenzentrum zu bauen, was heute und was in Zukunft. „Die Kathedralen der Digitalisierung, und das sind Rechenzentren, haben sich stetig verändert und werden das auch weiter tun“, sagt Terrahe.

80er: Aktive georedundante Spiegelung geht noch nicht

Auch in den 80ern wollte man wie heute Redundanz der Ressourcen von Infrastruktur und IT. Gleichzeitig aber war die Kommunikationstechnik noch nicht imstande, größere Datenmengen ausreichend schnell über längere Strecken zu transportieren. Eine Aktiv-Aktiv-Spiegelung außerhalb des eigenen Rechenzentrums schied damit aus Latenzgründen aus.

Die Folge: Rechenzentren mit hohen Verfügbarkeitsansprüchen wurden technisch aufwändig intern komplett doppelt ausgelegt. Das galt für IT, Stromversorgung und Klimatisierung respektive Kühlung. Dabei blieb es, bis die synchrone Spiegelung des RZ mit Hilfe schneller Glasfaser zumindest über beschränkte Distanzen möglich wurde.

Das Telekom-Rechenzentrum in Krefeld, gebaut in den 80ern, nutzt einen klassischen redundanten Datacenter-Aufbau: rechnende Einheiten (weiß), Kühlung und Klimatisierung (blau) und Energieversorgung (rot).
Das Telekom-Rechenzentrum in Krefeld, gebaut in den 80ern, nutzt einen klassischen redundanten Datacenter-Aufbau: rechnende Einheiten (weiß), Kühlung und Klimatisierung (blau) und Energieversorgung (rot).
(Bild: Terrahe/DC-CE)

In dieser Zeit gebaut wurde das Telekom-Datacenter in Krefeld. „Es war damals sehr innovativ und hatte einen PUE von nur 1,4. Es gehört noch heute zu den Energie-effizientesten Bestandsrechenzentren“, berichtet Terrahe.

90er: Leistungsverdichtung allenthalben

Ständig wachsende Anforderungen verlangten nach Leistungsverdichtung. Die Rechenleistungen pro Quadratmeter schwollen und schwellen auch in Zukunft weiter an – in den Prognosen noch um einiges mehr als in der Realität.

Die Leistungsansprüche an die Rechenzentren steigen weiter - n der Praxis (rote Säulen) allerdings langsamer als in Prognosen (weiße Säulen).
Die Leistungsansprüche an die Rechenzentren steigen weiter - n der Praxis (rote Säulen) allerdings langsamer als in Prognosen (weiße Säulen).
(Bild: Terrahe/DC-CE)

Dies deshalb, weil zwischen technischen Möglichkeiten und der Umsetzbarkeit im individuellen Datacenter-Alltag oft Welten liegen. Fehlendes oder nicht ausreichend weitergebildetes Personal, schmales Budget, unausgereifte Technologien sind nur einige der möglichen Gründe, warum die Leistungsdichte in der Realität weit langsamer wächst als in den hochfliegenden Prognosen.

Allerdings muss man sich über eins im Klaren sein: Langsam oder nicht, die Leistung pro Quadratmeter legt weiter zu und damit auch die Anforderungen ans Rechenzentrum. Terrahe: „Bei der Virtualisierung hat es schließlich auch zehn Jahre gedauert, bis sie sich durchrsetzen konnte."

Nuller-Jahre: Energie-Effizienz wird wichtiger

Schon bald rückte durch steigende Strompreise, das Aufkommen erneuerbarer Energien und die allgemeine Nachhaltigkeitsdebatte das Thema Energie-Effizienz verstärkt in den Vordergrund. Ein weiterer Grund für tiefgreifende Veränderungen waren sich allmählich verändernde Standards und neue Technologien insbesondere für die Klimatisierung.

Ashrae (American Society of Heating, Refrigerating and Air-Conditioning Engineers) ist die maßgebliche Organisation für Standards und Vorgaben im Bereich der Datacenter-Klimatisierung. Sie flexibilisierte die erlaubten Werte für Luftfeuchtigkeit und Temperatur im Rechenzentrum.

Der „Envelope“, also der Bereich des Erlaubten, wurde seit der Jahrtausendwende erheblich größer. Beispielsweise darf die Luft im Datacenter nun eine Feuchte von 20 bis 80 Prozent aufweisen, zuvor 45 +-5 Prozent. Die erlaubte Einlasstemperatur der Luft, die vom Rechner angesaugt wird, liegt heute bei 30 Grad Celsius, früher erheblich niedriger.

Tier-Definitionen und neue Kühltechniken

Das senkte den Druck auf die Kühltechnik gewaltig. Neue Kühltechnologien wie Freiluftkühlung, kombiniert mit Adiabatik, rückten in den Bereich des Möglichen. Außerdem begann man, Kalt- oder Warmgänge einzuhausen, damit nicht Warm- und Kaltluft sich mischen und damit jede effiziente Kühlung unmöglich machen. Auch Kreuzwärmetauscher und Kühlräder zogen ins Rechenzentrum ein.

Schließlich entstanden definierte Datacenter-Zuverlässigkeitsklassen und andere Standards, zuerst in den USA durch die Tier-Definitionen des Uptime-Instituts und ANSI 942. Darauf reagierten in Deutschland der TÜV mit seinen Zertifizierungen und Europa mit der Europanorm EN50600. Sie gilt im europäischen Raum derzeit als das Kochbuch für normgerechte Rechenzentren.

Colocation und Cloud befreien Anwender von Infrastrukturproblemen

Colocator und Anbieter von Cloud-Services kamen auf den Markt. Durch sie konnten Anwender einen Teil der Rechenzentrumskomplexität auf andere verlagern und sich auf das Wichtigste konzentrieren: ihre Daten und Anwendungen.

Typisch für diese Epoche ist laut Terrahe das siebenstöckige Telehouse-Rechenzentrum in London. Es besitzt im Kellergeschoss ein eigenes Umspannwerk für die Transformation von Hoch- auf Mittelspannung. Die Transformation auf die niedrige Arbeitsspannung der Rechner findet jeweils auf den Etagen statt.

Auffällig am Design sind die auf jeder Etage aus der Grundlinie der Fassade herausragenden kastenartigen Ausbuchtungen. Hier ist jeweils die Kühl- und Klimatisierungstechnik untergebracht, in diesem Fall Freiluftkühlung kombiniert mit Adiabatik. Die Rechnerreihen saugen die Luft von unten respektive der Seite an. Lohn der Mühen: eine PUE von nur 1,25.

Die Zukunft: Differenzierung bei Datacenter-Designs

Heute steigen die Leistungsdichten ungehemmt weiter, andererseits sind Rechenzentren, die für höchste Leistungsanforderungen ausgelegt werden, oft überdimensioniert. Zudem kostet Leistung Geld.

Jeder Datacenter-Quadratmeter kostet in einem DC mit 2000 Quadratmeter Rechnerfläche und Tier-3-Verfügbarkeit bei 1.000 Watt pro Quadratmeter 9.500 Euro. Sollen es 5000 Watt pro Quadratmeter sein, werden daraus 45.000 Euro pro Quadratmeter. Die logische Folge ist laut Terrahe: „Rechenzentren werden sich entlang der Achsen Leistung und Zuverlässigkeit differenzieren.“

In Zukunft werden sich Rechenzentrumsdesigns nach den jeweiligen Zuverlässigkeits- und Leistungsansprüchen unterscheiden.
In Zukunft werden sich Rechenzentrumsdesigns nach den jeweiligen Zuverlässigkeits- und Leistungsansprüchen unterscheiden.
(Bild: Terrahe/DC-CE)

Die Extreme bilden dabei einerseits hochzuverlässige Rechenzentren für Aufgaben mit höchstem Sicherheitsbedarf. Sie realisieren optimale Sicherheit und machen dafür bei der Leistung gewisse Kompromisse.

Das andere Extrem bilden HPC-Farmen, bei denen Leistung extrem groß und Verfügbarkeit kleiner geschrieben wird. Dazwischen steht alles andere, einschließlich der Datacenter großer Cloud-Provider, die relativ hohe Leistungsdichte mit einer mittleren Verfügbarkeit verbinden.

Kernaufgabe Wärmerückgewinnung

Ein weiteres Problem, das Rechenzentren der Zukunft lösen müssen, ist die Wärmerückgewinnung. Ohne diese geht es nicht, wenn die Effizienz weiter steigen soll.

Hier gibt es zwei Wege: einmal die Verwendung von Luftkühlung plus Wärmetauscher und Wärmepumpe. Denn Abwärme von nur 30 bis 35 Grad lässt sich auch im Nahwärmenetz nur schwer nutzen.

Oder aber die Betreiber greifen zur Flüssigkühlung, die zu Abflusstemperaturen um die 60 Grad führt. Sie ist sofort nutzbar, im Wärmenetz für vielfältige Zwecke oder mittels entsprechender Kältemaschinen als Input für die Kühlung.

Eine weitere Flüssigkühl-Variante ist die Immersion, also das komplette Eintauchen der IT in eine Kühlflüssigkeit. Das führt zu immer noch ausreichenden 40 bis 45 Grad Celsius Temperatur am Abfluss.

Abschied vom 19-Zoll-Rack?

Und auch so ehern gesetzte Standards wie das 19-Zoll-Rack könnten unter den Anforderungen kommender Datacenter-Kunden ins Wanken geraten. Immerhin bemüht sich ja das OCP (Open Computing Project) um Sekundärnutzung von Systemen aus Hyperscaler-Umgebungen und verabschiedet sich dabei vom Standardformat.

Eines ist laut Terrahe jedenfalls sicher: „Beim RZ-Bau brauchen wir in Zukunft einen ganzheitlichen Ansatz. Er sollte sich an den vermuteten Bedürfnissen der künftigen Mieter oder Nutzer orientieren.“ Die Wärme-Abfuhr könnte dabei das Rechenzentrum in seine Umgebung einbinden. Zum Beispiel als Wärmelieferant für vertikale Gewächshäuser in einem anderen Gebäudetrakt.

(ID:47433216)

Über den Autor

lic.rer.publ. Ariane Rüdiger

lic.rer.publ. Ariane Rüdiger

Freie Journalistin, Redaktionsbüro Rüdiger