Der Anwender gewinnt

Kubernetes und Cloud Foundry - Konkurrenz oder zwei Asse im Ärmel?

| Autor / Redakteur: Michael Jores* / Ulrike Ostler

Mit Cloud Foundry und Kubernetes auf der Hand kann fast nicht mehr schief gehen, schreibt Michael Jores, Regional Director Central Europe für Suse in Deutschland, Österreich und der Schweiz.
Mit Cloud Foundry und Kubernetes auf der Hand kann fast nicht mehr schief gehen, schreibt Michael Jores, Regional Director Central Europe für Suse in Deutschland, Österreich und der Schweiz. (Bild: gemeinfrei / CC0)

Sie sind die aktuell stärksten Container-Projekte am Markt – doch sind sie deshalb gute Partner oder nicht doch Gegenspieler? Michael Jores von Suse zeigt: Mit der Containerisierung von Cloud Foundry kann Kubernetes die Verwaltung übernehmen und aus zwei Kräften entsteht ein belastbares Team.

Cloud-Spezialisten orakelten schon lange, was im Jahr 2018 eintreten könnte. Der wachsende Einsatz von Anwendungscontainern war dabei oben auf der Liste der Voraussagen. Und tatsächlich: Container-IT überzeugt immer mehr Unternehmen – nach einer Erhebung des Analysehauses 451 Research wird der Markt von 762 Millionen Dollar im Jahr 2016 auf 2,7 Milliarden Dollar im Jahr 2020 wachsen.

In diesem expandierenden Markt tummeln sich unter anderen die zwei großen Namen Kubernetes und Cloud Foundry, von manchen IT-Experten als konkurrierende Projekte eingeschätzt. In der Tat gibt es einige funktionale Überschneidungen zwischen den Technologien: Allerdings dienen beide komplementären Zwecken, die auf das gleiche Ziel hinarbeiten. Und beide verfolgen Ansätze, die Unternehmen die Verwaltung ihrer gesamten Cloud-Umgebung erleichtern.

Dennoch sind Kubernetes und Cloud Foundry im gemeinsamen Einsatz ein fast unschlagbares Team. Drei Gründe sprechen für dafür.

Nummer 1: Containerisierung ist die neue Virtualisierung

Container bieten neue Möglichkeiten zur Virtualisierung von Rechenleistungen. Sie sind schneller und effizienter als herkömmliche virtuelle Maschinen. Sie sind dank Tools wie Docker einfacher zu bauen und produktiv zu setzen.

Mit dem rasanten technischen Fortschritt und der Marktakzeptanz von Kubernetes steuert die IT nun auf einen neuen Standard mit containerzentrierten Infrastrukturplattformen zu. Kubernetes hat sich dabei durchgesetzt. Schon bald werden IT-Organisationen mit Kubernetes als allgegenwärtige Schicht in jeder Systeminfrastruktur arbeiten.

Für Anwender von Cloud Foundry ist Kubernetes eine spannende Entwicklung – denn die zunehmende Verfügbarkeit hochwertiger, containerbasierter Infrastruktur erleichtert ihnen die Arbeit. Cloud Foundry beschäftigt sich seit langem mit der Anwendungsbereitstellung über Container, auch wenn es selbst in einer traditionellen VM-Umgebung verwaltet wird.

Ein beliebter Anwendungsfall von Containern, vor allem in der Form von Container-as-a-Service-Angeboten, ist die Automatisierung von Entwicklungsprozessen im DevOps-Modell. Hier setzen immer mehr Unternehmen auf Container, um ihre eigene Entwicklung mit einer Build Pipeline zu automatisieren – das heißt, dass ihre Anwendungen automatisch von einer Plattform bereitgestellt werden, und zwar bereits containerisiert.

Herzensangelegenheit und Trumpf: Für viele Cloud-Experten ist das Kubernets.
Herzensangelegenheit und Trumpf: Für viele Cloud-Experten ist das Kubernets. (Bild: gemeinfrei - Clker-Free-Vektor-Images/Pixabay / CC0)

Meist handelt es sich dabei um Web-Anwendungen. Dabei können neben klassischen Server-Applikationen auch andere Bereiche wie Big Data bis hin zu Machine Learning von der beschleunigten Bereitstellung durch Container branchenübegreifend profitieren.

Daraus folgt, dass eine wachsende Zahl an Unternehmen, Behörden, Institutionen und unabhängige Software-Anbieter die Vorteile dieser neuen Infrastruktur nutzen und ihre Anwendungen in Container verpacken. So ist es nur konsequent, dass Cloud Foundry diesem Beispiel folgt.

Jüngste Initiativen zur Containerisierung wie das Open-Source-Projekt „Fissile“ und die „Suse Cloud Application Platform“ setzen diese Idee heute um. So kann Cloud Foundry einfach und überall eingesetzt werden und benötigt nur einen Bruchteil der Ressourcen VM-basierter Implementierungen.

In seiner containerisierten Form wird Cloud Foundry durch Kubernetes bereitgestellt, was die Wiederherstellung und Skalierung der Cloud Foundry Plattform erst ermöglicht. Und da immer mehr Menschen Kubernetes-Know-how erwerben, lassen sich ihre Fähigkeiten nutzen, um die Kosten des Cloud Foundry-Managements zu senken. Das sind enorme Vorteile, die keinesfalls unterschätzt werden sollten.

Nummer 2: Anwendungen sind keine Container

So mächtig die Containerisierung und so großartig Kubernetes auch sind, bestehen weiterhin Probleme auf Containerebene: Wo und wann sollte ich einen neuen Container in Betrieb nehmen? Wie funktionieren meine Container?

Das Arbeiten mit Anwendungen ist völlig anders gelagert. Das liegt daran, dass Anwendungen ein übergeordnetes Konstrukt sind, das aus mehreren und oft zahlreichen über ein Netzwerk verteilten Containern bestehen. Um eine Anwendung bereitzustellen, müssen Entwickler all diese Container in einer koordinierten Weise erstellen und verwalten. Und wenn sie Anwendungen in großem Maßstab bereitstellen möchten, benötigen sie Werkzeuge, um diesen Aufwand zu automatisieren.

Genau das unterstützt die Cloud Foundry. Sie bietet Abstraktionen auf höherer Ebene zur Vereinfachung und Automatisierung der Anwendungsbereitstellung. Durch die Arbeit mit diesen Abstraktionen und das unsichtbare Erstellen und Verwalten der zugrundeliegenden Container erzielen Anwender und Betreiber enorme Produktivitätsvorteile.

Nummer 3: Kubernetes kann Cloud Foundry verwalten

Für Kubernetes-Anwender sollte Cloud Foundry das Mittel der Wahl sein, wenn es um das Hinzufügen von Anwendungs-Management-Funktionen geht. Bis vor kurzem war die Kombination dieser Technologien jedoch etwas umständlich, da sich die beiden Plattformen völlig unabhängig voneinander entwickelt hatten.

Die gute Nachricht ist, dass sich das nun ändert. Da die Cloud Foundry containerisiert wurde und von Kubernetes eingesetzt und verwaltet werden kann, ist es relativ einfach, die Leistungsfähigkeit der Cloud Foundry einer bestehenden Kubernetes-Umgebung hinzuzufügen. Dies ist eine sehr angenehme Neuigkeit für Anwender, für die es bisher keine anspruchsvollen und ausgereiften Tools für das Anwendungs-Management gab.

Cloud Foundry wurde containerisiert und kann nun von Kubernetes eingesetzt und verwaltet werden.
Cloud Foundry wurde containerisiert und kann nun von Kubernetes eingesetzt und verwaltet werden. (Bild: gemeinfrei - Clker-Free-vector-Images/Pixabay / CC0)

Was heißt das nun konkret? Kubernetes als Orchestrierer bietet die Grundlage der Arbeit mit Containern. Cloud Foundry kann als All-in-One-Plattform genutzt werden, etwa in Form der Suse Cloud Application Platform, die als Cloud Foundry Distribution Entwicklern ein Gesamtpaket bietet.

Die Plattform nimmt vom Entwickler den Quellcode entgegen und entdeckt anhand von Build Packs, welche Sprache und welche Arten von Container verwendet werden sollen. Die Anwendung wird automatisch kompiliert, gebaut und containerisiert bereitgestellt. Die Plattform sorgt sogar für die gewünschte Skalierung.

Kubernetes bietet ebenfalls alle diese Möglichkeiten – doch in Produkten wie der Suse-Plattform sind die Automatisierungsschritte bereits eingebaut. So können Entwickler deutlich Zeit und Aufwand sparen.

Zwei sind mächtiger als einer

Es gibt noch einen weiteren sehr pragmatischen Grund, Kubernetes und Cloud Foundry gemeinsam einzusetzen. Denn wenn Entwickler container- und anwendungszentrierte Code-Management-Modelle kombinieren, nutzen sie im Rahmen einer einzigen Anwendung das Beste aus beiden Welten. Cloud Foundry unterstützt einen anwendungsorientierten Ansatz für das Code-Management und basiert auf einer definierten Reihe von Anwendungsarchitekturen und Bereitstellungsmustern.

Wenn Entwickler nun vor allem cloud-basierte Anwendungen mit diesen Mustern bereitstellen wollen, liefert Cloud Foundry eine deutliche Produktivitätssteigerung. Allerdings passt nicht jeder Code zu diesen Mustern. Deshalb brauchen Entwickler auch ein flexibleres, containerzentriertes Managementmodell, wie es von Kubernetes unterstützt wird, um die Codeverwaltungslücke zu schließen.

In diesen Fällen bietet es sich an, einen Teil der Produktivität der Cloud Foundry zu opfern, um von der höheren Flexibilität von Kubernetes zu profitieren. So können Entwickler eine neue Cloud-native Webanwendung erstellen, die aus mehreren Microservices einschließlich eines persistenten Datenspeichers im Backend besteht.

Wahrscheinlich können die meisten Microservices direkt und vollständig von Cloud Foundry verwaltet werden, so dass sie diese Komponenten für eine Produktivitätsmaximierung bereitstellen möchten. Der Datenspeicher kann jedoch eine benutzerdefinierte Implementierung erfordern und sollte dann auch als eigenständiger Container über Kubernetes bereitgestellt werden. Zurück in der Cloud-Foundry-Welt können die Entwickler dann den Datenspeicher über Service Broker in die Web-Anwendung integrieren und so die beiden Managementsysteme effektiv überbrücken.

Der Autor, Michael Jores, ist Diplom-Mathematiker mit Schwerpunkt Betriebswirtschaftslehre der Technischen Universität Darmstadt.
Der Autor, Michael Jores, ist Diplom-Mathematiker mit Schwerpunkt Betriebswirtschaftslehre der Technischen Universität Darmstadt. (Bild: Suse Linux GmbH)

Auf diese Weise ist die komplette Anwendung aus Cloud Foundry heraus zu verfolgen. Es entsteht ein unschlagbares Team, mit dem Unternehmen das Beste aus Microservices, Containern und Open Source bietet. Am Ende sparen Unternehmen nicht nur Zeit und Aufwand mit einer dynamischen Bereitstellung und automatisierten Skalierung, sondern sie können mit Kubernetes und modernen Cloud-Foundry-basierten Plattformen auch den Footprint ihrer IT verkleinern. So gelingt der Start in die moderne Welt von DevOps und Machine Learning schneller, leichter und mit weniger Aufwand.

* Michael Jores verantwortet seit April 2011 als Regional Director Central Europe die Geschäfte von Suse in Deutschland, Österreich und der Schweiz. Zuvor war er unter anderem als Sales Director für den Vertrieb des Enterprise Linux und Data Center Portfolios bei Novell in DACH zuständig und baute als Business Development Manager den Linux-Vertrieb von Novell in EMEA auf.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45470047 / Virtualisierung)