Suchen

Software Defined trifft auf große Hardware - LzLabs auf IBM Wie modernisiert man Mainframe-Applikationen?

| Autor / Redakteur: Thilo Rockmann* / Ulrike Ostler

Wie geht das? Ist eine Mainframe-Modernisierung ohne zu viele Reibungspunkte überhaupt möglich oder sinnvoll? Thilo Rockmann, Chairman und COO von LzLabs, erläutert, warum der „Software Defined Mainframe“ der Stein der Weisen ist, hier, im Artikel und demnächst diskutiert LzLabs-CEO Mark Cresswell das Thema direkt mit Mark Anzani von IBM auf dem Podium.

Firmen zum Thema

LzLabs möchte Mainframe-Anwendungen in Clouds packen.
LzLabs möchte Mainframe-Anwendungen in Clouds packen.
(Bild: IBM/ FelixMittermeier auf Pixabay)

IT-Systeme und Applikationen sehen sich immer einem gewissen Modernisierungsdruck ausgesetzt. Je älter die Anwendung und je länger diese sich im Einsatz beziehungsweise in der Wartung befinden, desto komplexer die Abhängigkeiten, Verbindungen und Strukturen. Gleichzeitig nimmt das Know-how über die Applikation mit zunehmender Betriebszeit ab. Dies ist völlig plattformunabhängig.

Bei Mainframe-Anwendungen ist der Druck nur um einiges grösser, da die Entwicklung von Applikationen mittlerweile überwiegend außerhalb der Mainframe-Plattform auf Basis anderer, modernerer Abläufe stattfindet. Aufgrund der immer schneller voranschreitenden Veränderungen der Märkte ist eine Modernisierung ohne zu viele Reibungspunkte erforderlich.

Die Alternativen

Hier gibt es im Kern zwei Möglichkeiten, die Modernisierung der Applikationen voran zu treiben. Zum einen kann man natürlich auf dem Mainframe versuchen, die Applikationen zu modernisieren. Dies stellt allerdings angesichts der Unterschiede in der Entwicklungsmethodik, den Technologien, dem schwindenden Know-how über diese Plattform und natürlich des Preises eine Herausforderung dar.

Zum anderen kann man die Applikation auf eine neue, modernere Plattform bringen und damit selbst in die modernen Umgebungen integrieren. Hier empfiehlt sich ein Vorgehen in kleinen Schritten unter Wahrung der Interoperabilität, um das Risiko zu minimieren, die Machbarkeit zu erhöhen und dennoch Innovationen voranzutreiben.

Für diesen Ansatz, zuerst zu rehosten und erst dann zu optimieren, spricht, dass er der einzige ist, bei die beweglichen Komponenten im Zuge der Modernisierung minimiert werden können. Eine ganz wesentliche Voraussetzung ist es dabei allerdings, dass bei der Optimierung stets die Interoperabilität mit noch nicht modernisierten Komponenten gewahrt bleibt.

Vielfältige Verstrickungen

Der Prozess der Modernisierung von Mainframe-Altanwendungen muss die massiven, über Jahrzehnte aufgebauten Abhängigkeiten innerhalb und außerhalb der Anwendung berücksichtigen. Sollte die Änderung eines Aspekts der Applikation eine Vielzahl unbeabsichtigter Änderungen und Konsequenzen auslösen, wird das Vorhaben aus Risiko- und Kostensicht impraktikabel.

Bei Bestandsanwendungen, wie sie oft noch auf dem Mainframe zu finden sind und die über Jahrzehnte dort mit heute veralteten Methoden entwickelt wurden, ist dies allerdings häufig der Fall. Daher müssen die Anwendungen auch nach der Modernisierung dazu in der Lage sein, mit den alten, noch nicht modernisierten Komponenten zu interagieren, ohne dass Änderungen an diesem Legacy-Code notwendig werden.

Der Autor ist Thilo Rockmann, Chairman und COO von LzLabs
Der Autor ist Thilo Rockmann, Chairman und COO von LzLabs
(Bild: mekipics)

Darüber hinaus bieten die heute weitläufig verfügbaren Open-Source- und Cloud-Lösungen eine große Chance, die Kontrolle zurück zu gewinnen und effizient zu modernisieren, ohne alles selbst zu schreiben oder allzu abhängig von einzelnen Lieferanten zu werden. Ein Ansatz, bei dem die Bestandsapplikationen gekapselt, eventuell sogar in kleinere Komponenten zerlegt und bei dem möglichst umfangreich Open Source Komponenten genutzt werden können, erscheint hier ideal.

DevOps und Tools

Ein weiteres Argument für die Modernisierung nach einer Migration, ist, dass auf dem Mainframe die heute genutzten DevOps-Toolchain-Werkzeuge nicht zur Verfügung stehen beziehungsweise sich nicht einfach integrieren lassen. Da diese für einen Großteil der Agilität in der modernen Anwendungsentwicklung verantwortlich sind, drohen hier Reibungsverluste im Rahmen eines Modernisierungsprojekts.

Die laufende Entwicklung von Anwendungen, wenn sie in einer Legacy-Mainframe-Umgebung ausgeführt wird, vollzieht sich im Vergleich zu verteilten Alternativen in einem anderen Tempo. Folglich wird jedes Modernisierungsprojekt wesentlich schneller vorankommen und einfacher umzusetzen sein, sobald die Anwendungen auf einer konsistenten Plattform laufen.

Auch wenn Public-Cloud-Implementierungen für modernisierte Legacy-Anwendungen im Moment vielleicht nicht ganz oben auf der Prioritätenliste stehen, sollte dies wegen der genannten Gründe für eine zukünftige Ausgestaltung der Unternehmens-IT nicht unbeachtet bleiben. Daher ist es sinnvoll, eine Plattform zu wählen, die langfristig geeigneter für eine spätere Cloud-Bereitstellung ist.

Der Kostenfaktor

Nicht zuletzt gibt es auch noch einen Faktor, der eine Innovation auf dem Mainframe erschwert: Die Preismodelle im Mainframe-Bereich. Diese sind oft eine signifikante Hürde und somit eine Hauptmotivation zunächst eine Migration der Applikation hin zu offenen Umgebungen vorzunehmen und erst danach eine Modernisierung zu beginnen.

Diese Preisgestaltung hat einen erheblichen Einfluss auf die Verfügbarkeit von Test- und Entwicklungsumgebungen, die möglicherweise erst zusätzlich aufgebaut werden müssen. Auf x86-Linux-Umgebungen gibt es derartigen Einschränkungen für Tests und Entwicklung weitaus seltener, was die Plattform für die Modernisierung kostengünstiger macht.

Mit den heutigen Technologien und dem Erscheinen von Software Defined Mainframes werden sowohl Aufwand als auch Risiko einer solchen Umstellung stark reduziert. Software Defined Mainframes können hier zu einem entscheidenden Faktor werden, um die Wettbewerbsfähigkeit eines Unternehmens sicherzustellen. Denn sie ermöglichen moderne Softwareentwicklung und eine umfangreiche Nutzung von Open Source, ohne dabei die Interoperabilität mit den Legacy-Anwendungen, in die im Verlauf der Zeit besonders viel investiert wurde, zu verlieren. Sie ermöglichen ein effektives Nebeneinander moderner Technologie und monolithischer Systeme, die es erlaubt, die Modernisierung schrittweise und schonend durchzuführen.

Mark Cresswell, CEO von LzLabs, und Mark Anzani von IBM USA stehen das erste Mal gemeinsam auf der Bühne und diskutieren.
Mark Cresswell, CEO von LzLabs, und Mark Anzani von IBM USA stehen das erste Mal gemeinsam auf der Bühne und diskutieren.
(Bild: ECC2020)

Veranstaltungshinweis: LzLabs und IBM auf der ECC-2020-Bühne

Am 12. und 13 März findet in Köln die diesjährige „Enterprise Computing Conference“ (ECC 2020) statt. Das Motto lautet: „Transformation im Enterprise Umfeld“.

Es tut sich ein Spannungsfeld gewachsener Enterprise-Umgebungen auf, das sich unter anderem durch zwei Trends massiv verstärkt:

  • 1. Der unaufhaltsame Generationswechsel
    Bisherige Know-how-Träger verabschieden sich in den wohlverdienten Ruhestand und zwingen die Unternehmen zum Handeln. Sie stehen vor der Entscheidung, die so genannten „Legacy-Systeme“ abzulösen oder sich um die Ausbildung von Nachwuchs zu kümmern.
  • 2. Die digitale Transformation
    Dieser zwingt die Entwicklungsabteilungen dazu, klassische und historisch ge- und verwachsene Anwendungen mit offenen Schnittstellen zu versorgen und im Sinne einer flexiblen Anwendungsarchitektur zur Verfügung zu stellen.

Somit sei es „offensichtlich und unumgänglich, dass vor allem die Mainframe-Anwender zum Handeln gezwungen sind", heißt es in der Einladung von IBM, einer der Sponsoren der Veranstaltung. Also:

  • Wie entscheide ich richtig zwischen Ablösung, Modernisierung und Migration, oder ist möglicherweise auch ein Mix aus diesen Alternativen sinnvoll?
  • Welches Verfahren adressiert diese aktuellen Herausforderungen, ohne in eine personelle, technologische oder finanzielle Sackgase zu führen?
  • Welche Erfahrungen bei anderen Unternehmen sind heute verfügbar und was lässt sich ggf. auf die eigene Umgebung ableiten?

Neben den Kunden Datev, T-Systems, Deutsche Bundesbank und Hessische Landesbank, die dort Ihre aktuelle Strategie vorstellen und Einblick in ihre Überlegungen und bisherigen Erfahrungen geben, sieht die Agenda am 12. März auch eine so genannte „Shared Keynote“ mit anschließender Podiumsdiskussion vor. Sowohl IBM als auch LzLabs stellen ihre Positionen dar und Professor Philipp Brune von der Hochschule Neu-Ulm fügt eine akademische Stellungnahme hinzu.

* Thilo Rockmann ist Chairman und COO von LzLabs.

Artikelfiles und Artikellinks

(ID:46390451)