Cloud Computing 2020

Die Patchwork-Cloud - edge, hybrid, multi, serveless und Open Source

| Autor / Redakteur: Stephan Fabel* / Ulrike Ostler

Es gibt nicht "die eine Cloud". Vielmehr setzt sich Cloud-Computing aus public, private, hybrid und Edge Clouds zusammen, vereint durch eine Datacenter-IT, die Anwendungen, Plattformen und Infrastruktur als Service bietet, oftmals unter Nutzung derselben Tools und Open-Source-basierend.
Es gibt nicht "die eine Cloud". Vielmehr setzt sich Cloud-Computing aus public, private, hybrid und Edge Clouds zusammen, vereint durch eine Datacenter-IT, die Anwendungen, Plattformen und Infrastruktur als Service bietet, oftmals unter Nutzung derselben Tools und Open-Source-basierend. (Bild: © Philipimage - stock.adobe.com)

In der Zukunft, wenn wir mit unseren selbstfahrenden Autos die Autobahnen entlang rauschen, werden Historiker die 2010er Jahre als die `Dekade der Cloud´ bezeichnen. Welche Trends aber beherrschen die derzeitige Weiterentwicklung und warum?

Einige werden argumentieren, dass die Grundlagen des Cloud Computing bereits in den 1960ern gelegt wurden, als der für die US-Regierung arbeitende Wissenschaftler J.C.R. Licklider ein `intergalaktisches Computernetzwerk´ plante. Doch dann im Jahr 2006 erlebten wir ein zukunftsweisendes Ereignis, den Start von „Amazons Elastic Compute Cloud“ (EC2).

Die Cloud-Technologie verlor allerdings ihre transformative Funktion für diese Generation in den 2010er Jahren. Die Mehrheit führender Unternehmen nahm die Cloud begeistert an und selbst die Central Intelligence Agency (CIA) in den Vereinigten Staaten vollzog diesen Schritt im Jahr 2013. Einige der größten digitalen Unternehmen der Welt, Facebook, Netflix, Amazon, arbeiteten nicht nur Cloud-nativ, sondern erzielten mit diesem Modell auch große Erfolge.

2010 brachten Amazon Web Services, Microsoft und Google - drei Vorreiter der Cloud - ihre Cloud-Angebote auf den Markt. Auch OpenStack, die führende Open Source Plattform für die Cloud, startete in diesem Jahr. Laut Statista lagen die weltweiten Ausgaben für die Cloud 2010 bei 77 Milliarden Dollar, für das Ende des Jahrzehnts wurden 441 Milliarden Dollar prognostiziert, eine Steigerung um das Fünffache - eine Entwicklung mit bemerkenswerter Geschwindigkeit, insbesondere wenn man bedenkt, dass die Cloud noch in ihren Kinderschuhen steckt.

In den kommenden Jahren: Raus aus den Kinderschuhen!

In den kommenden Jahren werden wir die Entstehung neuer Cloud-Technologien erleben und Anwendungen für Unternehmen und Verbraucher werden sich weg von Cloud-fähig hin zu ´cloud native` entwickeln. Selbst die Definition der Cloud wandelt sich mit den neu hinzukommenden Edge- und Hybrid-Umgebungen. Die Welt bewegt sich zu schnell, um konsistente Vorhersagen für die Zukunft treffen zu können, aber wir sehen eindrucksvolle Trends, die die Cloud ab 2020 formen werden.

Trotz des Hypes rund um die Cloud hat noch nicht jedes Unternehmen diesen Schritt gewagt. Laut Forrester-Analysten verhält sich das wie folgt: „Die Auswirkungen der Cloud betreffen die ganze Welt. Dennoch nutzen weniger als die Hälfte aller Unternehmen eine Public Cloud Plattform.“ Allerdings liegt die Adaptionsrate nicht in jeder Branche gleich hoch.

Ergänzendes zum Thema
 
Veranstaltungshinweis: KubeCon + CloudNativeCon Europe

Unternehmen schließen den Übergang in die Public Cloud ab

Eine Untersuchung von 451 Research hat ergeben, dass die Finanzdienstleistungsindustrie bei der Anwendung neuer Cloud-Technologien führend ist. Angesichts wachsenden Wettbewerbs, auch durch wendige, cloud-native-Unternehmen, die ganze Märkte umwälzen, sagten 60 Prozent der für die Untersuchung befragten Finanzdienstleistungsunternehmen, dass sie für die Zukunft erwarten, diverse Cloud-Plattformen in verschiedenen Kombinationen zu nutzen. Der Wert liegt leicht höher als bei anderen Unternehmen (58 Prozent).

In der Tat stellte auch eine McKinsey-Studie fest, dass selbst Unternehmen, die bereits die Cloud nutzen, weit entfernt davon sind, ausschließlich dort zu arbeiten: „Während nahezu alle antwortenden Unternehmen weiter an der Entwicklung ausgefeilter Cloud-Programme arbeiten, gibt es eine deutliche Lücke zwischen den Anführern, die bereits mehr als 50 Prozent ihrer Workloads migriert haben, und den Nachzüglern, die bislang weniger als 5 Prozent in der Cloud bearbeiten.

Sicherheit ist der entscheidende Faktor

Oftmals setzen Unternehmen keine Cloud-Computing-Strategie um, weil sie Sicherheitsbedenken hegen. In einer Studie von Logicmonitor geben zwei Drittel der IT-Experten an, dass Sicherheit ihre größte Sorge in dieser Hinsicht darstellt. Entsprechend wird die Industrie zum Ende des Jahrzehnts versuchen, die Sicherheit in der Cloud zu erhöhen.

Somit werden Lösungen, die Compliance und die Kontrolle der Daten ermöglichen, die Akzeptanz bei den Unternehmen steigern, die sich momentan noch zurückhalten. Tatsächlich werden nicht Lösungen rund um höhere Rechenleistungen, sondern jene, die einen sicheren Umgang mit Daten gewährleisten, darüber entscheiden, welche Angebote Unternehmen am meisten überzeugen.

Edge Computing dirigiert bestimmte Rechenprozesse weg von zentralisierten Rechenzentren zu Punkten, die näher bei Anwendern, Geräten und Sensoren liegen.
Edge Computing dirigiert bestimmte Rechenprozesse weg von zentralisierten Rechenzentren zu Punkten, die näher bei Anwendern, Geräten und Sensoren liegen. (Bild: gemeinfrei: AnnaER/Pixabay)

Die Verantwortung für Sicherheit liegt dennoch aber auch in Zukunft vor allem beim Kunden. Laut den Analysten werden immer mehr Anwender Visualisierungs- und Kontrollwerkzeuge installieren, um Sicherheitsrisiken zu minimieren und Ausfälle zu vermeiden. Fortschritte beim Machine Learning, prädiktiven Analysen und künstlicher Intelligenz werden die Zahl umfangreicher, hoch verteilter Installationen erhöhen, die zudem immer praktikabler und sicherer zu managen sein werden.

Narrensichere Sicherheit gibt es in keiner Computerumgebung. Dennoch werden sich immer mehr Unternehmen bei ihrer Arbeit in der Cloud sicher fühlen. Anwendungsdaten im Jahr 2020 werden das zeigen und den Weg hin zu einer nahezu vollständigen Akzeptanz im kommenden Jahrzehnt weisen.

Die Neuerfindung der Cloud durch Edge Computing

Denken wir an Cloud Computing, fallen uns zunächst die typischen, zentralisierten Rechenzentren ein, in denen Tausende physischer Server betrieben werden. Diese Vorstellung lässt jedoch eine der großartigsten Möglichkeiten der Cloud außer Acht - verteilte Cloud-Infrastrukturen. Unternehmen, die immer schneller auf Ihre Daten zugreifen und sie verarbeiten müssen, bis hin zur quasi Echtzeit-Datenverarbeitung, um ihre Kunden zu bedienen, setzen mehr und mehr auf Edge Computing.

Edge Computing dirigiert bestimmte Rechenprozesse weg von zentralisierten Rechenzentren zu Punkten, die näher bei Anwendern, Geräten und Sensoren liegen. IDC beschreibt das als ein “engmaschiges Netzwerk von Mikro-Rechenzentren mit einer Grundfläche von weniger als zehn Quadratmetern, die kritische Daten lokal verarbeiten oder speichern und alle empfangenen Daten in ein zentrales Rechenzentrum oder ein Cloud-Speicherverzeichnis verschieben”.

Solche Umgebungen sind höchst wertvoll für das Internet of Things (IoT) mit seinen Anforderungen, große Datenmengen in annähernd Echtzeit und mit minimaler Latenz zu sammeln und zu verarbeiten. Sie können Verbindungskosten senken, indem sie nur die wichtigsten Informationen transferieren, im Gegensatz zu unbearbeiteten, von Sensoren erzeugten Datenströmen. So lassen sich beispielsweise Daten, die von Sensoren an Anlagen außerhalb zentraler Infrastruktur gesammelt werden, analysieren und filtern, bevor sie versandt werden und Kosten für Netzwerk und Rechenleistung anfallen.

Edge bedeutet nicht das Ende des Cloud Computing, sondern vielmehr eine natürliche Entwicklung, die Telekommunikations-, produzierende und andere Unternehmen zu Beginn des neuen Jahrzehnts nutzen werden.

Die Containerisierung schreitet fort

Container, die es Entwicklern ermöglichen, Software Code einfach zu managen und zu migrieren, sind mittlerweile weit verbreitet. Das wird sich im Lauf der kommenden Dekade nicht ändern. Forrester schätzt, dass ein Drittel aller Unternehmen Container für einen produktiven Einsatz testet, während 451 Research ein jährliches Wachstum des Marktes für Application Container von 40 Prozent auf 2,7 Milliarden Dollar im Jahr 2020 prognostiziert. Und laut eines Cloud-Foundry-Reports nutzen oder prüfen 53 Prozent aller Unternehmen Container in der Entwicklung oder der Produktion.

Die Mehrzahl aller Unternehmen nutzen Container, um Portabilität zwischen Cloud Services von AWS, Microsoft Azure und Google Cloud zu erreichen, während sie ihre DevOps Strategien für schnellere Softwareproduktion optimieren.

Kubernetes sorgt für Aufsehen in der Containerinstallation, indem es Virtualisierung auf Betriebssystemebene statt Hardware-Virtualisierung nutzt. Anbieter, die pragmatische Antworten liefern können, ohne sich im Hype zu verlieren, werden beträchtliche Marktanteile erringen. Bis zum Beginn des neuen Jahrzehnts wird sich dieser Hype rund um Containerisierung in weitverbreitete Akzeptanz verwandeln.

Serverless Computing gewinnt Popularität

Die Entwicklung von Anwendungen und deren Installation auf Servern ist bereits seit längerer Zeit zur Routine für viele Unternehmen geworden. Mit Serverless Computing steuert jetzt jedoch ein Provider die Ausführung des Codes, führt ihn nur aus, wenn er benötigt wird und berechnet nur dann entsprechende Kosten. Mit diesem Modell müssen sich Unternehmen nicht länger um das Provisioning und den Betrieb von Servern kümmern, wenn sie Code in die Produktion geben. („Serverless” ist ein teilweise missverständlicher Begriff, da Anwendungen noch immer auf Servern laufen.)

Serverless Computing entstand im Jahr 2014 bei der „AWS Reinvent Conference“, als Amazon Web Services „Lambda“ ankündigte, und hat jüngst mit dem Open-Source-Projekt „Firecracker“ mehr Fahrt aufgenommen. Serverless Computing ist eine Entwicklung mit möglicherweise enormem Potenzial und einer Einschränkung: Nicht alle Unternehmen werden dafür bereit sein.

Wie Function as a Service (FaaS) sein könnte

Berkeley zu Serverless Computing, Teil 2:Perspektiven

Wie Function as a Service (FaaS) sein könnte

01.04.19 - Serverless hat Stärken, aber als junge Technologie auch noch erhebliche Schwächen. Wie lassen sich diese beseitigen, um Serverless leistungsfähiger zu machen? lesen

Serverless hinkt bei Datenbanken

Berkeley zu Serverless Computing, Teil 1: Die Grenzen

Serverless hinkt bei Datenbanken

18.03.19 - Serverless könnte einer der wichtigsten Trends im Rechenzentrum werden. Denn die Technologie befreit Anwender von noch mehr lästigen Management-Aufgaben. Doch, so in diesem Teil 1 eines Serverless-Zweiteilers, das Modell funktioniert nicht für jeden Algorithmus gleich gut. lesen

Die Einführung von Serverless Computing erfordert eine gründliche Überprüfung traditioneller Entwicklungs- und Produktionsparadigmen. Tatsächlich bedeutet es das Outsourcing ganzer Infrastrukturteile - eigentlich der gesamten Infrastruktur außer der Anwendung selbst.

Daher wird Serverless Computing nicht über Nacht einschlagen, sondern sich Schritt für Schritt hin zu immer weiterer Verbreitung entwickeln. Während existente Lösungen Kunden meist an einen spezifischen Cloud Provider binden, wird das Auftreten von Open Source in diesem Bereich immer mehr und schnellere Implementierungen von Serverless Computing in der ganzen Branche bewirken.

Open Source erhält seine führende Position

Niemals war Open-Source-Unternehmenssoftware populärer wie heute. Eine wachsende Zahl von Unternehmen führen Open Source Software in ihre Prozesse ein, oder entwickeln ganze Geschäftsmodelle rund um sie herum. In einer Studie von Black Duck Software aus dem Jahr 2017 gaben 60 Prozent der befragten Führungskräfte und IT-Experten an, dass ihre Unternehmen ihren Einsatz von Open Source während des vergangenen Jahres ausgeweitet haben.

Zwei Drittel der untersuchten Unternehmen beteiligten sich an Open Source Projekten. Die Cloud stellte den Erfolg des Open Source Ökosystems sicher, das auf eine breite Palette von Open Source DevOps Tools, aggressiven Einsatz von Build-Automatisierung und Infrastrukturplattformen wie OpenStack und Kubernetes zurückgreift und es damit möglich macht, Anwendungen in der Cloud auszuliefern.

In dem Maße, wie die Akzeptanz der Cloud wächst, werden Open Source Technologien Innovationen in den restlichen 2010er Jahren und darüber hinaus weiter fördern. Die Cloud als wegweisende Technologie umfasst diese Dekade wie eine Klammer, und einige, spannende Trends, die sie prägen, zeigen, dass uns die beste Zeit des Cloud Computing noch bevorsteht.

Stephan Fabel, Director of Product bei Canonical - das Unternehmen hinter Ubuntu - hat diesen Artikel über die Trends im Cloud Computing verfasst.
Stephan Fabel, Director of Product bei Canonical - das Unternehmen hinter Ubuntu - hat diesen Artikel über die Trends im Cloud Computing verfasst. (Bild: Canonical)

*Über den Autor:

Stephan Fabel verfügt über zehn Jahre praktischer Erfahrung in Cloud-Architektur und Produkt-Management. Beginnend mit dem Betrieb eines der ersten produktiven OpenStack Rechenzentren, hat Fabel globale Cloud-Implementierungen für große Kunden wie Apple, AT&T, Verizon, SAP und andere konzipiert, entworfen und geleitet. Er leitete außerdem den Produkt-Management-Prozess für hybride, auf den Anforderungen der größten Cloud-Kunden basierende Monitoring Tools. Derzeit führt er das Product Strategy Team bei Canonical, dem Unternehmen hinter „Ubuntu“.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45928493 / Virtualisierung)