Rittal-Prognosen für die Planung und den Betrieb von Rechenzentren

Was gehört auf die Datacenter-Trendliste für 2020?

| Redakteur: Ulrike Ostler

Die Nutzung von Abwärme aus Rechenzentren wäre gut für die Umwelt - laut Rittal gehört das zu den Datacenter-Trends im kommenden Jahr.
Die Nutzung von Abwärme aus Rechenzentren wäre gut für die Umwelt - laut Rittal gehört das zu den Datacenter-Trends im kommenden Jahr. (Bild: Akash Kumar Nayak auf Pixabay)

Wachsende Datenmengen, eine sichere europäische Cloud (Datensouveranität), eine schnelle Modernisierung von Rechenzentren sowie der steigende Energieverbrauch sind aus Sicht von Rittal die IT-/Datacenter-Trends im Jahr 2020. Etwa die Verwendung von OCP-Technologie (Open Compute Project) und Wärmerückgewinnung bieten Lösungen für die aktuellen Herausforderungen.

Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten erzeugen, prognostizieren die Marktforscher von IDC (International Data Corporation). Gespeichert auf herkömmliche DVDs, wären dies 23 Stapel mit Silberscheiben, die jeweils bis zum Mond reichen. Das jährliche Datenwachstum um durchschnittlich 27 Prozent sorgt auch für steigende Anforderungen an die IT-Infrastruktur.

Da es sich kaum ein Unternehmen leisten kann, die eigenen Datenspeicher jährlich um knapp ein Drittel zu erhöhen, setzen IT-Manager immer häufiger auf IT-Services aus der Cloud. Ob Storage oder Computing, der Trend hin zur Cloud ist längst in Deutschland angekommen: Eine im Sommer 2019 veröffentlichte Umfrage vom ITK-Branchenverband Bitkom und KPMG hat gezeigt, dass bereits drei von vier Unternehmen Cloud-Lösungen nutzen.

Wer Cloud-Lösungen von Drittanbietern nutzt, gibt jedoch ein Stück weit die Kontrolle über seine Unternehmensdaten ab. So ermöglicht beispielsweise der US-amerikanische Cloud-Act (Clarifying Lawful Overseas Use of Data) den Zugriff von US-Behörden auf Daten, die in der Cloud gespeichert sind, sogar wenn lokale Gesetze am Ort des Datenspeichers dies verbieten.

„Wirtschaftliche Erfolge werden in Zukunft nachhaltig sein, wenn sie Schritt halten mit vollständiger Digitalisierung und Integration. Unternehmen werden ihre Daten immer stärker wertschöpfend nutzen – zunehmend in Echtzeit, etwa im Produktionsumfeld“, sagt Karl-Ulrich Köhler, CEO von Rittal International. „Datensouveränität wird zum kritischen Erfolgsfaktor für internationale Wettbewerbsfähigkeit“, ergänzt Köhler.

Trend #1: Datensouveränität

Der selbstbestimmte Umgang mit Daten wird für Unternehmen somit zu einem zentralen Wettbewerbsfaktor. Dies gilt für alle Branchen, in denen Datensicherheit großgeschrieben wird und die Analyse dieser Daten entscheidend für den Geschäftserfolg ist – Gesundheitswesen, Mobilität, Banking oder Fertigungsindustrie. Unternehmen stehen vor der Frage, wie sie ihre Daten sicher und effizient verarbeiten können, und ob sie ihr eigenes Rechenzentrum modernisieren, in Edge-Infrastrukturen investieren oder die Cloud nutzen.

Das europäische Digital-Großprojekt „Gaia-X“, eine Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi), soll im Jahr 2020 starten. Ziel ist der Aufbau einer europäischen Cloud zur sicheren Digitalisierung und Vernetzung der Industrie und als Basis für den Einsatz neuer KI-Anwendungen (Künstliche Intelligenz). Die Fraunhofer Gesellschaft hat in diesem Kontext die Initiative „International Data Spaces“ geschaffen. Dieser virtuelle Datenraum ermöglicht Unternehmen den sicheren Datenaustausch. Kompatibilität einer eigenen Lösung mit etablierten (Cloud-) Plattformen (Interoperabilität) ist ebenfalls gegeben.

Das bedeutet: Geographisch verteilte kleinere Rechenzentren mit offenen Cloud-Stacks könnten eine neue Klasse von industriellen Anwendungen schaffen, die direkt am Ort der Datenentstehung eine erste Datenanalyse vornehmen und die Cloud für nachgelagerte Analysen nutzen. Eine Lösung dafür ist beispielsweise „Oncite“. Das schlüsselfertige (Plug & Produce) Edge-Cloud-Rechenzentrum speichert und verarbeitet Daten direkt dort, wo sie anfallen, so dass die Unternehmen bei der Vernetzung entlang der gesamten Lieferkette die Datensouveränität behalten.

Trend #2: Standardisierung im Datacenter mit OCP

Die schnelle Modernisierung bestehender Rechenzentren wird für Unternehmen immer wichtiger, da das zu verarbeitende Datenvolumen stetig wächst. Wesentliche Anforderungen für den Ausbau sind eine standardisierte Technologie, ein kosteneffizienter Betrieb und eine hohe Skalierbarkeit der Infrastruktur. Die OCP-Technologie (Open Compute Project) mit zentraler Gleichstrom-Verteilung im IT-Rack wird für immer mehr CIOs zu einer interessanten Alternative. Denn: Mit Gleichstromkomponenten ergeben sich neue Potenziale zur Kostenoptimierung.

Circle B und Rittal verlegen OCP-Demo-Center in Amsterdam

Von Switch Datacenters zu Maincubes AMS01

Circle B und Rittal verlegen OCP-Demo-Center in Amsterdam

12.08.19 - Das „European Open Compute Project Experience Center“ von Circle B und Rittal befand sich bisher im „AMS1“ von Switch Datacenters. Doch das wird verkauft. Und nun zieht der Showcase ins Amsterdamer Rechenzentrum „AMS01“ von Maincubes um. lesen

Open Rack in allen neuen Public-Cloud-Datacenter von Huawei

Open Compute Project

Open Rack in allen neuen Public-Cloud-Datacenter von Huawei

18.03.19 - Die vom Open Compute Project (OCP) ins Leben gerufene Open-Rack-Initiative liefert eine völlig neue Definition für das Rechenzentrums-Rack und ist eine der vielversprechendsten Entwicklungen im Umfeld des Computing. Es handelt sich um den ersten Rack-Standard speziell für Rechenzentren, bei dem das Rack in die Rechenzentrumsinfrastruktur integriert ist. lesen

Open19 Foundation versus Open Compute Project (OCP)

Offenes Design für Datacenter-Hardware und -Racks

Open19 Foundation versus Open Compute Project (OCP)

22.01.18 - Der Markt für Datencenter-Hardware ist genauso lukrativ wie hart umkämpft. Doch anders als Hyperscale-Betreiber haben einzelne Rechenzentren branchenüblicher Größe kaum Einfluss auf die Produktentwicklung durch ihre Hardware-Lieferanten. Zwei Initiativen — das Open Compute Project (OCP) und Open19 — wollen Abhilfe schaffen, sind sich aber nicht einig, wie. lesen

So erfolgt die Energieversorgung aller IT-Komponenten zentral mit n+1-Netzteilen pro Rack. Somit wird eine effiziente Kühlung erreicht, da weniger Netzteile vorhanden sind. Gleichzeitig vereinfachen sich durch die hohe Standardisierung der OCP-Komponenten die Wartung und das Ersatzteilmanagement. Der Effizienzgewinn liegt durchschnittlich bei etwa fünf Prozent des Gesamtstroms.

Rittal rechnet damit, dass sich OCP im Jahr 2020 als durchgängige Systemplattform im Rechenzentrum weiter etablieren wird. Neue OCP-Produkte für die Rack-Kühlung, die Stromversorgung oder das Monitoring werden den schnellen Ausbau mit Gleichstromkomponenten ermöglichen.

Gleichstrom spart fünf bis zehn Prozent Energie

Ein exemplarisches Rechenzentrum bei Bachmann in Stuttgart Vaihingen

Gleichstrom spart fünf bis zehn Prozent Energie

01.12.15 - Die Bachmann GmbH & Co. KG hat am Firmensitz in Stuttgart-Vaihingen nicht nur eine Photovoltaik-Anlage auf dem Dach. Deren Energie versorgt eins der ersten kommerziellen Gleichstrom-Rechenzentren Deutschlands. lesen

Außerdem werden neue Produkte das herkömmliche Konzept einer zentralen Notstromversorgung unterstützen, bei dem durch eine zentrale USV die Stromversorgung abgesichert wird. Damit wird es nicht mehr wie bisher notwendig, jedes OCP-Rack mit einer USV auf Basis von Lithium-Ionen-Batterien abzusichern. Der Vorteil: die Brandlast im OCP-Rechenzentrum wird erheblich reduziert.

Haushoher Vorteil für Lithium-Ionen-Technik im Rechenzentrum

Ein Vergleich verschiedener Batterietechniken für USV-Anlagen

Haushoher Vorteil für Lithium-Ionen-Technik im Rechenzentrum

26.01.18 - Alternative, zumeist mobile Stromquellen sorgen dafür, dass die Unterbrechungsfreie Stromversorgung (USV) laufen, wenn der Energieversorger ausfällt. Dafür stehen unterschiedliche Techniken mit spezifischen Vor- und Nachteilen zur Verfügung. Zur Absicherung von IT-Systemen haben sich USV-Anlagen mit Blei-Säure-Batterien durchgesetzt. Jetzt bekommen diese Konkurrenz. lesen

Trend #3: Wärmerückgewinnung und direkte CPU-Kühlung

Von Rechenzentren werden hohe Energiemengen in Form von Abwärme an die Umwelt abgegeben. Mit Zunahme der Leistungsdichte im Datacenter steigen auch die Wärmemengen, die sich potenziell für andere Zwecke nutzen lassen. Bislang ist die Nutzung der Abwärme jedoch zu teuer, zum Beispiel weil sich selten Abnehmer in unmittelbarer Umgebung des Standortes finden. Auch ist eine Abwärme von 40 Grad, wie sie luftbasierte IT-Kühlsysteme erzeugen, deutlich zu niedrig, um diese wirtschaftlich sinnvoll zu verwenden.

Insbesondere im Bereich High Performance Computing (HPC) erzeugen IT-Racks hohe Wärmelasten, die häufig mehr als 50 Kilowatt betragen. Für HPC ist die direkte Prozessorkühlung mit Wasser deutlich effizienter als eine Luftkühlung, so dass Rücklauftemperaturen von 60 bis 65 Grad zur Verfügung stehen.

Viele Hindernisse hemmen die Nutzung der Datacenter-Abwärme

Datacenter World auf der Techweek 2019

Viele Hindernisse hemmen die Nutzung der Datacenter-Abwärme

02.12.19 - Die „Datacenter World“, Teil der „Tech Week“, die Anfang November in Frankfurt stattfand, informierte auch darüber, wie sich Rechenzentren Energie-effizienter gestalten lassen. Im Mittelpunkt standen Abwärmenutzung und Eigenstromerzeugung. lesen

Bei diesen Temperaturen ist beispielsweise die Erwärmung von Brauchwasser möglich oder die Nutzung von Wärmepumpen bis hin zur Einspeisung in ein Fernwärmenetz. CIOs sollten jedoch beachten, dass selbst bei einer direkten CPU-Wasserkühlung nur etwa 80 Prozent der Abwärme aus einem IT-Rack geführt werden kann. Für die restlichen 20 Prozent wird weiterhin eine IT-Kühlung für das Rack benötigt.

„7 Mio Tonnen CO2! Und wir treffen auf Ignoranz & Betrug, nicht auf Einsicht & Ideen“

Diskussion auf dem DataCenter Day 2019 gewünscht

„7 Mio Tonnen CO2! Und wir treffen auf Ignoranz & Betrug, nicht auf Einsicht & Ideen“

10.09.19 - Wie planen wir noch größere digitale Infrastrukturen mit weniger und saubererem Strom?Über die Bedeutung von Rechenzentren muss man nicht mehr reden, eben so wenig über den rasant steigenden Bedarf an Rechenleistung. Über alternative Standorte und Abwärmenutzung aber sollte man nachdenken und dabei auch über den Tellerrand blicken. Denn: Mit dem zunehmenden Klima-Aktivismus werden Rechenzentren ihre Klimabilanz nicht mehr ignorieren können. lesen

Auf dem Digital-Gipfel 2019 der Bundesregierung wurde in der entsprechenden Arbeitsgruppe das Thema Wärmerückgewinnung diskutiert, die hohen Handlungsbedarf aufzeigte. Daher geht Rittal davon aus, dass sich im Jahr 2020 deutlich mehr CIOs damit beschäftigten werden, wie sich die bislang ungenutzte Abwärme des Rechenzentrums wirtschaftlich nutzen lässt.

Trend #4: Integration von Multi-Cloud-Umgebungen

Unternehmen benötigen die Sicherheit, dass sie ihre Cloud-Anwendungen auf gängigen Plattformen und in beliebigen Ländern betreiben können. Dafür wird eine Multi-Cloud-Strategie benötigt. Aus Sicht des Managements ist dies eine strategische Entscheidung, die auf der Erkenntnis basiert, dass sich die eigene Organisation zu einem vollständig digitalisierten Unternehmen entwickeln wird.

Exzellenz in der User Experience wird beispielsweise durch geringste Verzögerungszeit mit den entsprechenden Verfügbarkeitszonen („Availability Zone“) vor Ort gewährleistet. Das heißt: Unternehmen wählen für ihre Dienste je nach Geschäftsanforderungen weltweit eine oder mehrere Verfügbarkeitszonen. Das Einhalten von strengen Datenschutzvorgaben erfolgt zum Beispiel über einen spezialisierten lokalen Anbieter in dem jeweiligen Zielmarkt.

Eine anbieteroffene Multi-Cloud-Strategie erlaubt genau das: die Funktionsdichte und Skalierbarkeit von Hyperscaler mit der Datensicherheit von lokalen und spezialisierten Anbietern wie Innovo Cloud sinnvoll zu vereinen. Auf Knopfdruck, in einem Dashboard, mit einem Ansprechpartner, einer Rechnung und in der einen Sekunde, in der die Geschäftsentscheidung fällt.

Das macht Multicloud-Strategien zu einem der Megatrends in den nächsten Jahren. Denn die Wirtschaft wird weitere Schritte der Digitalisierung gehen und mit Cloud-nativen Technologien – für die Cloud-Computing-Architektur konzipierte und entwickelte Anwendungen –, die Geschwindigkeiten der eigenen Continuous Integration (CI) und Continuous Delivery (CD)-Pipelines weiter steigern. Die Automatisierung der Integrations- und Auslieferungsprozesse ermöglicht dann schnelle, zuverlässige und wiederholbare Bereitstellung von Software („Deployments“).

Was meinen Sie zu diesem Thema?
Warum muss man so einen Satz schreiben: Da es sich kaum ein Unternehmen leisten kann, die eigenen...  lesen
posted am 06.01.2020 um 15:16 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46281089 / Design und Umgebung)