Nach der Cloud greifen Einblicke in die Cloud-Infrastruktur von Google
Anbieter zum Thema
Datacenter, Datensicherheit, Unterseekabel – Begriffe, die oft abstrakt wirken. Wie lassen sich Daten sicher von unterschiedlichen Unternehmensstandorten aus zentral verwalten und welche Infrastruktur stellt Google dafür zur Verfügung? Welche Ansprüche müssen Rechenzentren und Kabel erfüllen, welche Redundanzen und Verfügbarkeiten dürfen Kunden erwarten?

Computer und mobile Geräte stellen heute gewaltige Rechenleistung zur Verfügung – obwohl die in vielen Situationen gar nicht benötigt wird: Wenn wir Videos streamen, Apps öffnen oder in „Google Maps“ Routen planen, rufen die Endgeräte meist nur eine Leistung ab, die ganz woanders erbracht wird – das ist das Prinzip von Cloud Computing, ein Begriff, der für viele noch immer schwer zu fassen ist. Denn in der Regel nimmt der Anwender die Technologie, die all das ermöglicht, gar nicht wahr. Schon bei kurzer Reflektion wird allerdings klar, dass die ständige Verfügbarkeit von gewaltiger Rechenleistung nur mit Hilfe von hochwertiger Hard- und Software sowie einer entsprechenden Infrastruktur möglich ist.
Von der Cloud profitieren nicht nur Endanwender Tag für Tag (und meist unbemerkt) – etwa beim Streamen von Musik oder wenn Mails über den Internet-Browser bearbeitet werden. Auch für Unternehmen wird die ständig und überall verfügbare Rechenleistung immer wichtiger.
Im IT-Bereich stehen bei vielen Unternehmen aktuell die Modernisierung von Infrastrukturen und der Zugang zur Cloud ganz oben auf der Prioritätenliste. Doch nicht nur für die Endanwender - auch auf manche Entscheider wirkt die Cloud noch immer wie ein schwer greifbares Konstrukt. Während man Server und Hardware im Unternehmen selbst anfassen und konfigurieren kann, fehlt eine klare Vorstellung vom physischen Teil des Cloud-Netzwerks: Wie werden die Daten über weltweite Verbindungen von A nach B bewegt, wo werden sie in der Cloud gespeichert? Welche Ansprüche muss man an Datenzentren, Kabel, Redundanzen und Verfügbarkeiten stellen?
Rechenzentren
Herkömmlich wurden wichtige Daten auf Servern im Unternehmen gespeichert. Mit dem Weg in die Cloud wandern Daten und Anwendungen nach und nach in die Datacenter entsprechender Anbieter. Heute sind diese in der Regel als softwaredefinierte Rechenzentren ausgelegt – der englische Begriff lautet „Software Defined Data Center”, abgekürzt SDDC. Hier werden alle Abläufe durch Software definiert und automatisiert. Ändern sich die Ansprüche an eine Anwendung, lassen sich neue Funktionen auf allen Infrastrukturebenen mit nur wenigen Befehlen veranlassen und umsetzen. Der Automatisierungsgrad wird dabei – basierend auf definierten Regeln, die jeweils den Aufgaben angepasst sind – immer weiter gesteigert.
Zunehmende Integration der Hardware und Automatisierung durch Software ermöglichen in modernen SDDCs einen ereignisgesteuerten Betrieb des Rechenzentrums. Microservices, wie zum Beispiel Messaging-Dienste, können – je nach Bedarf – gezielt aufgerufen und auch wieder abgestellt werden.
Sicherheit
Natürlich sind die Rechenzentren namhafter Anbieter hervorragend gegen Hacker-Angriffe abgesichert. Zum einen muss gewährleistet sein, dass Kunden ihre Daten jederzeit genauso zuverlässig abrufen können, als wären sie im eigenen Netzwerk gespeichert. Zum anderen müssen unbefugte Zugriffe auf die Daten ausgeschlossen werden. Nur wenn die Kunden darauf absolut vertrauen können, werden sie die vielen Vorteile des Cloud Computing in vollem Umfang nutzen.
Datenverlust und Datendiebstahl müssen aber auch hardwareseitig mit allen erdenklichen Mitteln verhindert werden. Server und Speichermedien dürfen niemals – im eigentlichen Wortsinn – in falsche Hände geraten. Die Anbieter moderner Clouds sorgen deshalb in allen relevanten Bereichen für eine äußerst sichere physische Infrastruktur – sowohl in den Rechenzentren als auch bei der Hardware.
Das beginnt bei der Absicherung des Zugangs: In Cloud-Rechenzentren kommen mehrschichtige Sicherheitssysteme zum Einsatz. Fälschungssichere und mehrfach überprüfte elektronische Zugangskarten, abgesicherte Umzäunungen, biometrische Verfahren der Mitarbeiterverifizierung, Laserstrahlen gegen nicht autorisiertes Eindringen – und eine engmaschige Video-Überwachung.
Um höchste Sicherheitsstandards zu gewährleisten, und auch gegen neu entwickelte Bedrohungen und Gefahren gewappnet zu sein, arbeiten viele Cloud-Anbieter eng und kontinuierlich mit renommierten Sicherheitsforschern zusammen. Diese können Entwicklungs- und Implementierungsprobleme frühzeitig identifizieren und melden, falls sie ein Risiko für Kundendaten darstellen könnten. Mögliche Schwachstellen werden so erkannt und beseitigt, noch bevor sie zur Gefahr werden. Angebote und Services können auf dem neuesten Stand gehalten werden, ohne dass bei Updates Risiken entstehen.
Setzt ein Anbieter, wie Google das tut, bei Cloud-Servern auf eigene Hard- und Software, sorgt das für zusätzliche Sicherheit gegenüber Angriffen. Im Gegensatz zu kommerziell erhältlichen Komponenten kommen hier keine unnötigen Zusätze zum Einsatz, die Sicherheitslücken mitbringen könnten. Speziell entwickelte, proprietäre Betriebssysteme und Server sind ausschließlich auf die hauseigene Software ausgelegt und Serverressourcen lassen sich dynamisch zuteilen. So kann auf jede Auffälligkeit effizient und schnell reagiert werden.
Sichere Hardware erlaubt es, die virtuelle Sicherheit der Cloud zu maximieren. Die Anbieter kennzeichnen die eingesetzten Geräte und verfolgen sie detailliert über den gesamten Lebenszyklus. Am Ende der Nutzungsdauer werden alle Daten zunächst mit einem sicheren Verfahren gelöscht. Danach werden die Geräte in einem mehrstufigen Prozess physisch zerstört – so viel Datensicherheit können nur wenige IT-Abteilungen von Unternehmen leisten.
Kabel
Der Vorteil moderner und hochsicherer Clouds ist eine weltweit hohe Verfügbarkeit bei niedriger Latenz des IP-Datennetzwerks. Diese wird durch einen Mix aus eigenen und öffentlichen Glasfaserkabeln sowie Unterseekabeln garantiert. Das sorgt für mehr Sicherheit, denn bei gängigen Cloud-Technologien legen Kundendaten während der Übertragung im öffentlichen Internet mehrere Etappen – so genannte Hops – zwischen den Geräten zurück.
Die Anzahl der Hops hängt dabei unter anderem von der Entfernung zwischen dem Internet Service Provider (ISP) und dem Kunden ab. Jeder einzelne Hop birgt dabei das Risiko, dass Daten abgegriffen oder verändert werden. Um das zu verhindern, werden beim Cloud Computing gleich mehrere Technologien eingesetzt. So sorgen etwa mehrschichtige Sicherheitsebenen für einen erweiterten Schutz.
Auf dem Weg über das Internet werden die Daten selbstverständlich verschlüsselt übertragen. Mehrere Schutzebenen verhindern dabei Distributed-Denial-of-Service-Angriffe. Auch die Speicherung im Datacenter erfolgt – bei Inaktivität – verschlüsselt. Identitäten, Nutzer und Dienste werden beim Zugriff über starke Authentifizierung mit mehreren Faktoren überprüft. Sensible Daten werden zudem durch fortschrittliche Tools wie Phishing-resistente Sicherheitsschlüssel geschützt.
Selbst bei großräumigen Stromausfällen sorgen redundante Energieversorgungssysteme und Komponenten zur Notstromversorgung für eine reibungslose Funktionalität – und dafür, dass die Kunden jederzeit auf ihre Daten zugreifen können. Immer mehr Menschen greifen auf das Internet zu – und sie nutzen dabei immer öfter so genannten Rich Content: Spiele, Musik, Videos und Fotos. Dadurch wächst die Menge an übertragenen Daten gewaltig. Damit das keine Störungen zur Folge hat, werden ständig fortschrittlichere Technologien benötigt.
Google reagiert auf diese Entwicklung unter anderem mit Investitionen in innovative Hardware. Als erster privater Investor finanziert das Unternehmen derzeit die Verlegung des transatlantischen Unterseekabels „Dunant“, das nach dem Gründer des Roten Kreuzes und ersten Friedensnobelpreisträger Henry Dunant benannt wurde. Wenn es 2020 in den Einsatz geht, wird es dank modernster Untersee-Kabeltechnologie dafür sorgen, dass noch mehr Nutzer noch schneller und von vielen Orten auf Online-Inhalte zugreifen können.
Dank Cloud Computing können Privatanwender wie Unternehmen jederzeit und bequem über das Datennetzwerk auf einen unermesslichen Pool von konfigurierbaren Computerressourcen – Netzwerke, Server, Speicher, Apps und Dienste – zugreifen. Diese Ressourcen werden mit minimalem Verwaltungsaufwand und ohne spürbare Interaktion mit den Dienstanbietern schnell bereitgestellt oder freigegeben.
Die Autorin: Annette Maier, Managing Director Google Cloud DACH, schreibt über Unterseekabel, Datenzentren und die “physische Cloud” und erläutert, was zu einer sicheren Infrastruktur auf Cloud Provider-Seite gehört.
Artikelfiles und Artikellinks
(ID:46401242)