Eco-Diskussion um einen schwammigen Begriff

Definieren Sie Edge Datacenter!

| Autor: Ulrike Ostler

Wie lässt sich Edge-Datacenter kategorisieren?
Wie lässt sich Edge-Datacenter kategorisieren? (Bild: gemeinfrei: Grillot edouar auf Unsplash)

Anfang September hatte der Eco - Verband der Internetwirtschaft e.V. zum Workshop über Edge-Rechenzentren eingeladen. Die Anwesenden wollten klären, was das eigentlich ist. Herauskommen sollte bestenfalls eine Definition, aber mindestens eine Kategorisierung, etwa analog zu public, hybrid, private Cloud. Die schlechte Nachricht: Edge Datacenter können sowohl von der Größe, als auch vom Aufgabenspektrum, Bauweise und Betreiberart alles sein. Die gute Nachricht: Es bleibt spannend und die Chancen sind immens.

In der jüngsten Umfrage „Data Center 2025: Closer to the Edge“, die Ausstatter Vertiv zum Rechenzentrum 2025 veröffentlicht hat, geht jeder fünfte Teilnehmer davon aus, dass die Zahl der Edge-Standorte in den kommenden fünf Jahren um 400 Prozent oder mehr steigen wird. Dabei handelt es sich natürlich nicht in jedem Fall um ausgewachsene Rechenzentren; hier gehen die Befragten insgesamt von einer Verdreifachung aus.

Verdreifachung von Edge Datacenter bis 2025

Alles ändert sich - die Rechenzentrumsumfrage von Vertiv

Verdreifachung von Edge Datacenter bis 2025

28.06.19 - In den vergangenen Jahren blieben die Prognosen für Entwicklungen im Bereich Rechenzentrum nahezu unverändert. Doch jetzt ändert sich vieles. So deuten im Vertiv-Report „Data Center 2025: Closer to the Edge“ die Umfragen auf ein rasantes Edge-Wachstum und einen starken Rückgang an Fachkräften hin. lesen

Doch eines steckt schon im Titel der Studie: Die Datenverarbeitung rückt näher an die Netzwerkkante, heran, näher an die Entstehung der Daten und näher an den jeweiligen Ort, wo die daraus generierten Informationen gebraucht werden. Und das hat unmittelbar damit zu tun, dass die Digitalisierung Maschinen miteinander interagieren lässt, diese Interaktion schnelle Ergebnisse und Umsetzung erfordert, im Zuge von Big Data die Erzeugung von Daten ein Ausmaß annimmt, das jegliche Vorstellung übersteigt und weder alles und jedes in 'die Cloud' transportiert werden kann, noch dass die Verarbeitung adäquat und schnell, die Wege kurz genug sind. Dazu kommen neue Anwendungen für die menschlichen Nutzer, wie Streaming und interaktives Gaming.

Definitionen über das Anlagendesign

Im Jahr 2017 stellte 451 Research erstmals eine Studie zur Kategorisierung von Edge-Rechenzentren vor, die Autorin, Research Director Rhonda Ascierto, näherte sich dem Thema zunächst vom Anlagendesign. Die Haupttypen hier sind mikromodulare Rechenzentren, Embedded Datacenter, applikationsspezifische Rechenzentren und große, hochverfügbare Datacenter, wie sie für Co-Locator, Enterprises und die Public Cloud gebaut werden.

Das Stufenmodell, das diverse Arten des Edge-Computing beziehungsweise Edge-Datacenter aufnimmt, stammt von Analysten des Instituts 451 Research aus dem Jahr 2017.
Das Stufenmodell, das diverse Arten des Edge-Computing beziehungsweise Edge-Datacenter aufnimmt, stammt von Analysten des Instituts 451 Research aus dem Jahr 2017. (Bild: 451 Research, 2017)

Das Mini- und Mikrorechenzentrum

Ein mikromodulares Rechenzentrum ist eine Form des vorgefertigten modularen Rechenzentrums (PFM). Ascierto grenzt die Größe nach unten auf ein Rack mitsamt IT ab, das mit Stromversorgung, Kühlung und Klimatisierung, USV ausgestattet und von außen geschützt ist. Es gibt keinen offenen Whitespace dafür aber dank Vorabinstallationen und -konfigurationen eine schnelle Einsatzfähigkeit. Die Leistung könne von wenigen Kilowatt pro Einheit bis über 150 Kilowatt reichen, sofern dieses Kompaktpaket mit Wasser gekühlt werde. In einigen Fällen werden auch die IT-Systeme in das Design integriert und mitgeliefert.

Die Einsatzbereiche sind vielfältig und reichen von HPC, Very Low Energy Computing, Carrier Exchange, Cloud Services bis zur Analytik und können Nischenanwendungen sein aber auch Mainstream-Business-Computing auf Filial- und Abteilungsebene sowie Carrier- und Cloud-Bereitstellungen dienen.

Das Embedded Datacenter

Wenn man so will, wäre die nächste Größe Rechenzentren in Fertigbauweise. Denn beispielsweise macht es, wo immer es geht, Sinn etwa eine Kühlinfrastruktur gemeinsam zu nutzen, beziehungsweise die Investitions- und Betriebskosten zu optimieren.

Das aber schließt auch die Nutzung von 'Nicht-Datacenter-Gebäuden' ein. Davon auszugehen, dass jedes Enterprise-Rechenzentrum darum automatisch ein Edge Datacenter ist, wie es auch in einem Impulsvortrag von Andreas Schürkamp anklang - „Jede bestehende On premise-IT ist auch ein Edge-Rechenzentrum, bisher hat es nur keiner so genannt“ - ist hingegen kaum förderlich. Ausgehend von einer solchen Premisse, ließe sich kein Handlungsbedarf erkennen. Der gemeinsame Nenner aller sonstigen Annäherungen an den Begriff Edge Datacenter- geringe Latenz und kurze Wege - impliziert die neuartigen Anwendungen, auf die existente Rechenzentren nicht ausgelegt sind.

Laut Analystin Ascierto bedeutet die Verbreitung von embedded Datacenter in den Städten, dass sich digitale Dienste in der Nähe von Unternehmen und Verbrauchern ansiedeln können. Der Vorteil für die Kundschaft: geringere Kosten für die Public Cloud zum Beispiel. Eine spezielle Unternehmensgruppe, für die das in Frage komme, sei die Telekommunikation, die auf diese Weise große Gateways installieren könne.

Die Stromschiene

Damit ist aber auch klar, dass solche Rechenzentren eine eigene Stromversorgung benötigen, eventuell gar eigene Stromquellen wie Festoxid, Brennstoffzellen, Solar-, Lithium-Ionen- oder andere Batterietypen.

Der Stromverbrauch für die Berechnung von Rechenzentren der nächsten Generation von Telekom-Gateways könnte mehr als 150 Kilowatt pro Standort betragen, wahrscheinlich, die mikromodulare Rechenzentrumskapazität mit eigenständigen Stromquellen, wie beispielsweise kontinuierlich laufendem Festoxid, erfordern. Selbst kompakte, druckbeaufschlagte Proto-Austauscher Membran-(PEM)-Brennstoffzellen im Rack könnten als verteiltes unterbrechungsfreies Stromversorgungssystem (USV) fungieren, so Ascierto. Außerdem mache es Sinn, die Rechenzentren möglichst nah an die Stromquellen zu bauen, da so die Notwendigkeit von Generatoren und großen USV-Anlagen begrenzt werden könne.

Als Betreiber kommen diversifizierte und große Public-Cloud-Betreiber - oder deren Drittanbieter für Rechenzentren zum Zuge. Weitere Kandidaten sind Branchen, die auf kritische Stromversorgungssysteme und IT-Dienstleistungen wie die Fertigung angewiesen sind, Transport oder Gesundheitswesen, Energieversorger in Zusammenarbeit mit mandantenfähigen Rechenzentrumsanbietern.

Und wie schon bemerkt, benötigen Carrier zunehmend Co-Locator oder integrierte Telekommunikations-Gateways. Natürlich können sie auch Eigentümer sein, ebenso wie Anbieter von Public Clouds oder deren Rechenzentrumsdienstleister.

Edge ist regional

So nutzte Wolfram Rinner von Netzbetreiber Gasline GmbH und Ko KG, das Eco-Forum für das Angebot seines Unternehmens: Glasfaser bei weitgehender Trassenführung im Schutzstreifen der Gashochdruckleitungen auf einer Trassenlänge von 28.000 Kilometern und weitere 3.000 Kilometer bis zum Jahr 2022, rund 100 Systemtechnikstationen alle 80 Kilometer in modularer Bauweise von 32 bis 130 Quadratmeter und Stellfläche.

Für ihn haben Edge-Rechenzentren unmittelbar mit regionalen Angeboten zu tun. Da kann auch Markus Feldmann, COO von Cloud & Heat beipflichten: „Wir haben die Edge schon gebaut“, sagt er und fügt an: „Keiner ist näher am Nutzer `dran.“ Tatsächlich hat Cloud & Heat seine wassergekühlte Hardware bereits in einen Dresdner Wohnhauskomplex, ins ehemalige Frankfurter EZB-Gebäude und in Container verbaut. Die Abwärme des Cloud-Angebots kommt den Mietern und einem Hotel sowie der Fernwärme zugute.

Cloud&Heat übernimmt ehemaliges Rechenzentrum der EZB in Frankfurt

Die umweltfreundliche OpenStack-Cloud aus Frankfurt

Cloud&Heat übernimmt ehemaliges Rechenzentrum der EZB in Frankfurt

02.06.17 - In Dresden betreibt Cloud&Heat das derzeit vielleicht Energie-effizienteste Rechenzentrum überhaupt. Die zugrundeliegende, mit dem Deutschen Rechenzentrumspreis mehrfach ausgezeichnete und patentierte Technik wird ab Herbst 2017 auch im Gebäudekomplex Eurotheum eingesetzt und ans Netz gehen. lesen

Cloud&Heat nutzt Datacenter-Abwärme zum Heizen

Der Cloud-Anbieter voller Energie

Cloud&Heat nutzt Datacenter-Abwärme zum Heizen

11.05.16 - Eine Cloud mit Rechen- und Heizleistung hat das junge Dresdner Unternehmen Cloud & Heat entwickelt. Patentierte Technik nutzt effektiv die Abwärme des Datacenter. Damit erzielen die Sachsen nicht nur einen einmaligen PUE-Wert sondern sparen auch Kosten. lesen

„The Beast“, ein 0,5 Megawatt Container-Supercomputer

Cloud&Heat auf der Hannover Messe 2019

„The Beast“, ein 0,5 Megawatt Container-Supercomputer

01.04.19 - Cloud&Heat präsentiert auf der „Hannover Messe 2019“ einen einen flüssiggekühlten Supercomputer im Schiffscontainer mit 500 Kilowatt und 1-Megawatt-Optionen, genannt: „The Beast". Der Container soll sowohl in einer Wüste funktionieren, ohne herkömmliche Klimaanlagen, oder auch Wohnungen heizen. lesen

„Alle technischen Voraussetzungen für Edge-Infrastrukturen sind gegeben“, so Feldmann. „Jetzt müssen wir die Diskussion um Edge-Infrastrukturen zu einer über regionale Rechenzentrumsstrukturen ummünzen.“ Die Vorteile lägen auf der Hand:

  • IT-Sicherheit und Datenschutz erhöhten sich; denn im Gegensatz zu den Public-Cloud-Anbietern, die weder jemanden in die eigene IT hineinschauen ließen, noch die Datennutzung transparent gestalteten, könnten lokale Anbieter dafür gerade stehen.
  • Durch die Nutzung von Synergien vor Ort - Windcore etwa, dessen RZ-Pilot in einer Paderborner Windmühle werkelt, nutzt den Strom der Windkrafträder von Westfalenwind vor Ort - könne nicht nur mehr Nachhaltigkeit bedeuten, sondern auch kostengünstigere IT-Produktion und Heizung.

Feldmann gibt aber auch zu bedenken, dass die Entwicklung zum „dezentralen Rechenzentrum“ noch viel Arbeit bedeute und unter anderem Standards und regulatorische Unterstützung bedürfe.

Die Enterprise- und Co-Location-Rechenzentren

Die Diskussionsteilnehmer, deren Ausgangslage die eines Betreibers von Co-Locations-Sites oder eines Unternehmensrechenzentrums ist, tendieren jedoch dazu, Edge Datacenter als Dependancen zu betrachten - mit remoter Steuerung von einem zentralen System oder auch Standort aus. Auch 451-Research-Analystin Ascierto schrieb schon vor zwei Jahren: „Die Anbieter großer Rechenzentren bleiben im Spiel“.

Ihr Argument auch in der Edge wahrgenommen zu werden, sind

  • die strategisch wichtigen Standorte in den Metropolen dieser Welt, hierzulande hauptsächlich Frankfurt am Main mit der größten Präsenz des DE-CIX und zunehmend Hamburg sowie München,
  • die Hochverfügbarkeit, hohe Sicherheit, globale und neutrale Vernetzung über zig Provider und Carrier,
  • hohe Bandbreiten, schnelle Netze
  • das fungieren als Cloud-Hub

Co-Location-Anbieter dominieren laut Ascierto diesen Markt. Dieser wird derzeit bestimmt durch die Hyperscaler aus USA und Asien, die jeweils riesige Flächen anmieten. Zugleich scheinen sie aber nicht auf die kleinen und mittelständischen Geschäftskunden verzichten zu wollen, die von dedizierten Servern über Viertel-Racks und Cages nutzen wollen. Diese Nachfrage führte auch bei den Diskussionsteilnehmern zu der Annahme, dass selbst die Hyperscaler nicht umhin könnten, „Kapazitäten in der Fläche“ aufzubauen.

Maßanzüge für Applikationen

Sind dafür die anwendungsspezifischen Rechenzentren die Lösung? Denn heute sind die meisten Rechenzentren generischer Natur. Diskussionsteilnehmer und die Analystin gehen jedoch davon aus, dass viele zukünftige Edge-Installationen für ihren spezifischen Einsatzzweck hochgradig optimiert werden. IT und Rechenzentrum bilden dann eine für eine Anwendung gedachte Einheit.

Das bedeutete sehr unterschiedliche und spezifische elektrische und mechanische Eigenschaften, Redundanzstufen, Leistungsdichte, Klima-Einstellungen sowie physikalische Dimensionierung und Robustheit. Integrierte Rechenzentrums-Telekommunikations-Gateways könnten als solches Design betrachtet werden, etwa wenn 5G-Masten zugleich über ein Rechenzentrum verfügten und für diesen Workload gedacht sind.

Das 5G-Edge-Rechenzentrum zum Testen

Mikronetze und große Ideen für die digitale Zukunft

Das 5G-Edge-Rechenzentrum zum Testen

22.01.19 - In der vergangenen Woche hat das Rise, Research Institutes of Sweden, in Luleå ein Edge-Rechenzentrum eingeweiht, das Unternehmen und Forscher realitätsnahe Tests nutzen können, und um Lösungen und Anwendungen zu entwickeln. Der Clou: Das Datacenter ist 5G-ready. lesen

Werden wir also überall RZ-Container sehen? Klar ist, dass es den Betreibern, die solche Edge-Standorte in hoher Anzahl installieren wollen, die Kosten dafür einschließlich der Anlagenplanung senken müssen. Eine Kalkulation auf 10, 20 Jahre macht keinen Sinn. Bisherige Bauweisen stehen schon jetzt auf dem Prüfstand.

Auch traditionelle Betreiber, die auf-, nach- und umrüsten, Krankenhäuser wie HPC-Anwender, werden wahrscheinlich dasselbe tun und traditionelle Designgewohnheiten in Frage stellen.

Deutschland hat viele Kanten

Das aber bedeutet unter Umständen Abstriche bei der physischen Sicherheit. „Straßenverteiler“ lassen sich nicht mit eigens geschulten Security- und Reinigungspersonal, mit Zwiebelschalen-Sicherheitszonen, mehrfacher Redundanz, Generatoren, Vereinzelungsanlagen, feingetunte Kühlung und Brandfrühsterkennung ausstatten. Ralph Hintemann vom Borderstep Institut schätzte die Anzahl der Rechenzentren in Deutschland vor ein paar Jahren auf 48.000 bis 50.000. Haben wir „die Edge“ in Deutschland also doch heute schon?

Das Datacenter-Oligopol und die Standortfrage

Rückblick auf den DataCenter-Day

Das Datacenter-Oligopol und die Standortfrage

02.11.16 - Zu hohe Stromkosten, zu lange Genehmigungsverfahren, zu wenig und zu gering qualifiziertes Personal, zu viele Vorschriften das sind im Groben die Risiken, denen sich Datacenter-Betreiber in Deutschland gegenüber sehen. Art-Invest setzt diesen noch zwei weitere hinzu: Lücken im Ausbau der Last Mile und ein oligopolistisch strukturierter Betreibermarkt. lesen

Tatsache ist, dass es mehr Rechenzentren mit mehr Energieverbrauch und vermutlich eine höhere Diversität in der Ausprägung geben wird. Michael Nicolai von der Rittal GmbH & Co KG brachte auf der Eco-Veranstaltung dann auch das Lieblingsbeispiel in jeder Digitalisierungsdiskussion: Das vernetzte, in Zukunft wahrscheinlich selbstfahrende Auto.

Tatsächlich steckt heute schon in einem vernetzten Auto die Kraft von mehr als 20 Heim-PC und mehr als 100.000.000 Codezeilen. Die Zukunft aber ist KI am Netzwerkrand, über die Rechenzentren hinaus und dem Training im Hintergrund - von sich selbst optimierenden Stromnetzen bis zu den digitalen Zwillingen funktionierender Flughäfen.

IT und Industrie werden zu gegenseitigen Abbildern. Latenz und Verfügbarkeit sind kein Marketing-Geblubber mehr, sondern unter Umständen Leben rettend. Mehr als 90 Prozent aller Unfälle im Straßenverkehr sind auf menschliches Versagen zurückzuführen. Vernetzte und autonom fahrende Autos können also nicht nur den Komfort erhöhen.

Und nun?

Wer also Edge Datacenter definieren möchte, muss von der Anwendung her denken, nicht in Größe und nur bedingt von der Bauweise her. Modularität schadet auch in einem großen Rechenzentrum nicht, in dem die Effizienz die größte Herausforderung ist. Nicht jeder Anbieter kann alle Anforderungen erfüllen. Also braucht es Kooperationen - mit Partnern, die Rechenkapazität auch auf dem Dorf zur Verfügung stellen können - als Komplettanbieter für 'den Mittelständler' und 'den Kleinbetrieb' und mit Partnern, die sich konzentriert auf eine Anwendung aufstellen - ist doch klar.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46166439 / Design und Umgebung)