Die Netzwerkanbindung von Metro- und regional verteilten Rechenzentren macht´s

Datacenter wandern in die Provinz

| Autor / Redakteur: Eugen Gebhard* / Ulrike Ostler

Ciena-Manager Eugen Gebhard fordert offene „User-to-Content“-Infrastrukturen.
Ciena-Manager Eugen Gebhard fordert offene „User-to-Content“-Infrastrukturen. (Bild: Péter Mács - Fotolia)

Aus Kostengründen werden immer mehr Rechenzentren Hunderte Kilometer entfernt von Wirtschaftszentren errichtet. Wegen der unflexiblen Abgrenzung von Metro- und regionalen Netzwerken war es bislang schwierig, solche weit entfernten Rechenzentren zu koppeln und für sie Services bereitzustellen. Infrastrukturen auf Basis eines User-to-Content-Modells machen dies nun möglich.

Die Zeiten neigen sich dem Ende zu, in denen Unternehmen und Service Provider ihre Rechenzentren vorzugsweise in städtischen Großräumen unterhielten, nahe beim Nutzer. Das hat mehrere Gründe. So dominieren heute Content-orientierte IT-Umgebungen, auf die Nutzer im Büro, zu Hause oder von unterwegs aus zugreifen. Wo sich ein Datacenter befindet, spielt eine untergeordnete Rolle. Ein zweiter Faktor sind die Kosten. Grundstückpreise und Energiekosten sind in der Provinz meist deutlich niedriger.

Eugen Gebhard
Eugen Gebhard (Bild: Ciena)

Auch klimatische und geologische Faktoren spielen eine Rolle. So hat Facebook ein Datacenter in Lulea im Norden Schwedens errichtet. Der Vorteil: Dank der niedrigen Außentemperaturen fallen geringere Kosten für Kühlung und Klimatisierung an. Im erdbebengefährdeten Kalifornien wiederum richten Unternehmen und Service Provider Ausweichrechenzentren in Regionen ein, die bis zu 300 Kilometer entfernt liegen und somit nicht von Erdbeben in Mitleidenschaft gezogen werden.

Folgen für die Netzwerkstruktur

Die Verlagerung von Rechenzentren in die Provinz hat jedoch Konsequenzen für die Netzwerkinfrastruktur. Der bislang gültige Ansatz, Datacenter über separate Metro-Netze (im Umkreis von 50 Kilometern) und regionale Infrastrukturen (bis zu 300 km) zu koppeln, funktioniert nicht mehr. Ein Grund sind die steigenden Datenmengen.

Bislang reichten für „Inter-Datacenter-Verbindungen“ Datenraten von 10 Gigabit pro Sekunde (GBit/s) aus. Bereits jetzt ist absehbar, dass Ethernet-Verbindungen mit über 10 GBit/s oder 100 GBit/s erforderlich sind, und das über Distanzen von bis zu 300 Kilometern. Zudem greifen Unternehmen verstärkt auf Cloud-Computing-Dienste zurück. Für Service Provider bedeutet dies, dass sie Bandbreite nach Bedarf bereitstellen müssen.

Ergänzendes zum Thema
 
Das Fazit des Autors

Das hat weitreichende Folgen. Um mehrere Wellenlängen-Services mit 10 oder 100 GBit/s für die Kopplung von Rechenzentren bereitzustellen, greifen Service Provider normalerweise auf einen Metro-Link zurück. Diese Verbindung koppelt das Rechenzentrum des Kunden mit einem regionalen Point of Presence (PoP). Anschließend müssen die Wellenlängen-Services manuell auf einen regionalen Transponder übertragen werden, der an das Backbone-Netz des Service Providers angebunden ist.

Dieser Ansatz hat jedoch Nachteile:

  • eine niedrigere Effizienz,
  • einen hohen Aufwand, wenn neue Dienste bereitgestellt werden und
  • ein aufwändiges Management.

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43288557 / Versorgung)