Schlüsselrolle Netzwerkkonnektivität Bridges, Gateways und Broker in einer Cloud-Umgebung

Autor / Redakteur: Ralf Sydekum, F5 Networks / Florian Karlstetter

Die Art und Weise, in der Unternehmens-IT Cloud-Computing-Ressourcen verbrauchen, erfährt gerade eine grundlegende Veränderung. Cloud Computing wurde ursprünglich als kostengünstige Alternative zur schnellen Bereitstellung von Services außerhalb der eigenen IT-Abteilung genutzt, entwickelt sich inzwischen aber schnell zum Industriestandard für neue Anwendungsressourcen und wird von der IT genauso verwaltet wie Produktionsanwendungen in den eigenen Räumlichkeiten.

Firmen zum Thema

Die Cloud als Erweiterung des internen Rechenzentrums: Bridges, Gateways und Brokers als Voraussetzung für eine funktionierende hybride Cloud-Infrastruktur.
Die Cloud als Erweiterung des internen Rechenzentrums: Bridges, Gateways und Brokers als Voraussetzung für eine funktionierende hybride Cloud-Infrastruktur.
(Bild: F5 Networks)

Die Herausforderung besteht nun darin, möglichst schnell zu einer transparenten Verwaltung dieser Ressourcen überzugehen, ohne die Cloud-Nutzung als vollständig getrennte Rechenzentrumsumgebung zu behandeln. Die Cloud sollte eine Erweiterung des internen Rechenzentrums sein, und dabei spielt die Netzwerkkonnektivität eine entscheidende Rolle. Bridges, Gateways und Broker für die Cloud sind Komponenten, auf die IT-Abteilungen besonderes Augenmerk legen sollten, wenn es um die Anbindung an externe Cloud-Implementierungen geht.

Die Integration von Bridges, Gateways und Brokers in eine Cloud-basierte Produktionsbereitstellung ist jedoch nicht ganz unproblematisch. Erstens muss sich auf dem Markt erst noch herauskristallisieren, was die verschiedenen Produktkategorien eigentlich für eine Aufgabe haben und wie man sie nennen soll. Zweitens geht es darum, an welche Stelle der Infrastruktur sie passen und - vielleicht am wichtigsten - wer der Eigentümer dieser Technologien und damit letztendlich für deren erfolgreiche Funktionsweise verantwortlich ist. Wenn man dieses Thema jedoch frühzeitig angeht und die richtigen Lösungen für diese Komponenten entwickelt, könnten Bridges, Gateways und Broker die Wolke in einem Maß aufwerten, das wir uns jetzt noch gar nicht vorstellen können.

Cloud-Bridges

Cloud-Bridges sind von entscheidender Bedeutung, wenn es um die Anbindung von Clouds an ein Rechenzentrum geht. Cloud-Bridges haben ihren Namen von herkömmlichen Netzwerklösungen, mit denen heterogene Netzwerke “überbrückt” werden, um eine transparente Konnektivität zwischen Endpunkten zu erreichen, obwohl diese durch mehrere Netzwerke, Switches oder sogar den physischen Standort voneinander getrennt sind. Das Bridging von Intra-Rechenzentren wird über Netzwerkelemente wie zum Beispiel Switches bewerkstelligt, während das Bridging von Intra-Umgebungen über das Routing erfolgt, häufig über einen sicheren Tunnel wie zum Beispiel IPSec oder SSL.

Cloud-Bridges sorgen für eine gleichartige Konnektivität zwischen dem Rechenzentrum und einer Cloud-Umgebung und ermöglichen einen transparenten Netzwerkzugang zu Cloud-basierte Ressourcen, indem sie den Netzwerkzugang zwischen den beiden Umgebungen vereinheitlichen. Cloud-Bridges sind die Basis für eine übergeordnete Integration in Clouds und eine kritische Komponente für Operationen zur kontinuierlichen Steuerung von und dem Zugang zu entfernten Ressourcen.

Cloud Broker für Identitäts- und Zugangsmanagement

Im Bereich Architektur sind Cloud-Broker Lösungen, mit denen Prozesse auf der Anwendungsebene in eine vor Ort von der IT gesteuerte Infrastruktur integriert werden können. Mit Cloud-Brokern kann die IT Systeme innerhalb des Rechenzentrums hinsichtlich des Identitäts- und Zugangsmanagements sowie die Bereitstellung von Ressourcen in Cloud-Computing-Umgebungen außerhalb der eigenen Räumlichkeiten optimieren.

Cloud-Broker sind architekturspezifisch und basieren darauf., dass die im Rechenzentrum gehostete Infrastruktur Prozessabläufe über heterogene Umgebungen hinweg und für alle Cloud-Arten, beispielsweise IaaS, PaaS und SaaS, vermitteln kann.

Ein Beispiel: Ein Cloud-Identity-Broker würde sich mit einer SaaS-Cloud-Umgebung abstimmen, um einen Login-Prozess zu ermöglichen, der über ein System vermittelt wird, über das die IT die vollständige Kontrolle besitzt. Ein solches System ermöglicht die Überprüfung und Autorisierung des Berechtigungsnachweises für die entfernte Ressource - in diesem Fall die SaaS-Anwendung - und teilt mit der SaaS einige Möglichkeiten, mit denen festgestellt werden kann, ob ein Benutzer eine gültige Zugangsberechtigung zur Anwendung besitzt.

Erste Implementierungen nutzen SAML (Security Assertion Markup Language), außerdem werden auch Anwendungs-Token verwendet, um diese Funktionalität bei der Integration von kundenspezifischen, in IaaS-Umgebungen bereitgestellten Anwendungen zu erreichen.

Der Einsatz von Cloud-Brokern zur Vermittlung von Identitäts- und Zugangskontrollfunktionen ist die Antwort auf eine schwierige, durch die getrennte physische Bereitstellung von Anwendungen aufgeworfene Frage, bei der es vor allem darum geht, wie die Anwendung vorhandene Identitätsspeicher nutzen kann. Die Alternative zu einem Cloud-Broker, der diese Integration übernimmt, ist - soweit möglich - die Replizierung unternehmenseigener Identitätsspeicher in den Cloud-Umgebungen, in denen die Anwendungen bereitgestellt werden.

Für das Management von SaaS-Anwendungen ist das natürlich keine Option, obwohl es wünschenswert ist, bei sämtlichen Unternehmensanwendungen die Kontrolle über Authentifizierung und Autorisierung zu haben. Mit Cloud-Brokern ist diese Kontrolle möglich, ohne ein potenzielles Sicherheitsrisiko dadurch zu schaffen, dass Identitätsspeicher repliziert oder die von den SaaS-Anwendungen verwendeten Identity-Management-Systeme als Status quo akzeptiert werden.

Andere Formen von Cloud-Brokern, beispielsweise Cloud-Bursting, unterstützen die Bereitstellung von Anwendungsressourcen während Skalierungsereignissen.

Der Broker wird in den Räumlichkeiten des Unternehmens, also im Rechenzentrum selbst, bereitgestellt und übernimmt die Anpassung von Anforderungen hinsichtlich Performance, Sicherheit und Kostenaufwand einer Anwendung an die entsprechende Umgebung. Die richtige Anpassung von Anforderungen an Umgebungen ist entscheidend für die erfolgreiche Implementierung einer mehr an Self-Services orientierten IT, da Benutzer in Unternehmen und Entwicklung nicht immer wissen, welche Konsequenzen die für den Standort einer Ressource geltenden Bestimmungen und Compliance-Anforderungen haben.

Die Integration eines Cloud-Brokers in den Bereitstellungsprozess ermöglicht Unternehmen Self-Services in der IT, ohne dabei Kompromisse bei den Anforderungen an Sicherheit und Performance eingehen zu müssen, die für den unternehmerischen und operativen Erfolg von entscheidender Bedeutung sind.

Cloud-Gateways: Übergangspunkt zwischen zwei Umgebungen

Cloud-Gateways sind die komplexesten Lösungen zur Cloud-Integration. Diese Lösungen basieren häufig auf Cloud-Bridging-Funktionalität und bieten viele der Funktionen für Gruppenarbeit, die man von Cloud-Brokern kennt, lassen sich via API-Vermittlung aber nahtloser in IaaS-Umgebungen integrieren.

Wie die meisten traditionellen Gateway-Lösungen für Netzwerke fungieren Cloud-Gateways als Übergangspunkt zwischen zwei Umgebungen. Bei einer Cloud ist dies in der Regel das Rechenzentrum und eine Cloud-Computing-Umgebung außerhalb der eigenen Räumlichkeiten. Das Gateway vereinheitlicht Bereitstellung und Steuerung von Cloud-basierten Ressourcen und nutzt dazu das entsprechende API oder Framework des Providers.

Auf diese Art können Richtlinien für die Zugangskontrolle und Ressourcen-Bereitstellung an einem zentralen Steuerungspunkt im Rechenzentrum angewandt werden, beispielsweise am Cloud-Gateway, was einheitliche Unternehmensrichtlinien gewährleistet, die wiederum notwendig sind, um Anforderungen hinsichtlich Performance, Sicherheit und Verfügbarkeit zu erfüllen.

In einem Hybrid-Cloud-Modell zum Beispiel, das keine Integration von Netzwerk oder direkter Ressource (über eine Cloud-Bridge) vorsieht, würde ein Cloud-Gateway mittels Provisioning und De-Provisioning von Ressourcen über die entsprechende integrierte Cloud-API für „Elastizität“ (Cloud-Bursting) sorgen. Mit einem Cloud-Gateway ist jedoch mehr als die einfache Steuerung von Computerressourcen möglich, es können zum Beispiel Provisioning-Richtlinien verwendet werden, um sicherzustellen, dass sich die jeweiligen Netzwerk- und Speicherressourcen der Nachfrage entsprechend anpassen, wofür dieselbe integrierte API genutzt wird.

Darüber hinaus integriert sich ein Cloud-Gateway noch stärker in das Rechenzentrum, indem es eine eigene API zur Verfügung stellt, über die Systeme zur Orchestrierung des Rechenzentrums und kundenspezifische Self-Service-IT-Anwendungen Ressourcen und Anwendungen verwalten können, die in entfernten Cloud-Umgebungen bereitgestellt werden.

Schlussfolgerung

Ralf Sydekum, Manager Field Systems Engineering bei F5 Networks
Ralf Sydekum, Manager Field Systems Engineering bei F5 Networks
(Bild: F5 Networks)
Die Zukunft ist unbestreitbar hybrid, egal, ob zwischen Rechenzentrum und Cloud oder zwischen öffentlichen Clouds in einem „föderierten“ Integrationsmodell. Aber selbst wenn alle Anwendungen und Services in einem Hyper-Hybrid-Modell gehostet werden, müssen diese Ressourcen vom Rechenzentrum aus zugänglich und steuerbar sein. Ein vollständig dezentralisiertes Betriebsmodell, bei dem die Endbenutzer die direkte Kontrolle über die Ressourcen haben, ist schließlich unvereinbar mit Compliance und Sicherheit.

Daher wird vor Ort irgendeine Form der Infrastruktur vorhanden sein müssen, über die entfernte Anwendungen, Ressourcen und Services verwaltet und gesteuert werden können. Diese Infrastruktur muss integriert werden, was mit Bridges, Brokern und Gateways in einer Cloud-Umgebung erreicht werden wird.

Artikelfiles und Artikellinks

(ID:42553789)