Aus Cobol und PL1 sollen Microservices werden Future IT Transformation bietet T-Systems nun auch für Großrechnerdaten und -programme an

Autor: Ulrike Ostler

Auf der hauseigenen Veranstaltung „Accelerate Digital Now“ in der vergangenen Woche hat T-Systems erstmalig den „FITT“ vorgestellt. Das Kürzel steht für „Future IT Transformation“ und bietet eine Suite an Services, mit denen sich Legacy-Systeme in Richtung Cloud-nativ modernisieren und damit flexibilisieren lassen. Eingeschlossen sind selbst Mainframe-Daten und -Programme.

Firmen zum Thema

Viele Anwender schätzen den Mainframe als höchstzuverlässige Plattform. Doch ihre darauf laufenden Anwendungen sind oftmals so unflexibel und cloud-native-ungeeignet wie sie zugleich für die Unternehmen wichtig sind.
Viele Anwender schätzen den Mainframe als höchstzuverlässige Plattform. Doch ihre darauf laufenden Anwendungen sind oftmals so unflexibel und cloud-native-ungeeignet wie sie zugleich für die Unternehmen wichtig sind.
(Bild: IBM)

Nicht jedes Legacy-Programm ist monolitisch und starr und nicht alle unflexiblen Applikationen und ihre Umgebungen laufen auf einem IBM-Großrechner. Doch oft sei im Mainframe-Umfeld die „technische Schuld“ unverhältnismäßig groß, erläutert Gundula Folkerts, Co-Founder des „zFuture-Mainframe“-Innovationsprogramms.

Denn viele Entscheider in den Großrechner-nutzenden Unternehmen hätten die Modernisierung über einen langen Zeitraum schleifen lassen. Typischer Denkfehler: Sie sind davon ausgegangen, dass die Plattform längst ausgemustert sei.

Gundula Folkerts, Co-Founder des „zFuture“-Mainframe-Innovationsprogramms: „Viel Mainframe-Anwenderunternehmen haben unter der Annahmen, die Plattform wäre bald abgelöst, lange Zeit nicht mehr in ihre Anwendungen, die darauf laufen, investiert. Die technischen Schulden sind in diesem Bereich besonders hoch.“
Gundula Folkerts, Co-Founder des „zFuture“-Mainframe-Innovationsprogramms: „Viel Mainframe-Anwenderunternehmen haben unter der Annahmen, die Plattform wäre bald abgelöst, lange Zeit nicht mehr in ihre Anwendungen, die darauf laufen, investiert. Die technischen Schulden sind in diesem Bereich besonders hoch.“
(Bild: T-Systems)

Tatsächlich aber leben die Anwendungen und die dazugehörigen Datenstrukturen noch. Auch der Grund dafür ist typisch: Es handelt sich zumeist um Kernapplikationen eines Unternehmens und damit um Jahrzehnte gewachsenes Know-how, das letztlich die entscheidenden Unterschiede zum Geschäft der Wettbewerber ausmacht. Und weil das so ist, sind die Anwendungen mit zahlreichen anderen verbunden; „200 Schnittstellen eines Programms kommen vor“, so Folkerts.

Die zentralen Daten

Noch komplizierter sind die Datengeflechte, die sich etwa in der hierarchischen Datenbank „IMS“ oder in der relationalen Datenbank DB2 sehr eng an Mainframe-Infrastruktur anschmiegen – zumindest entspricht das den Aussagen von Beratern, die sich auf Veranstaltungen tummeln, auf denen LzLabs für eine Ablösung der Plattform durch den „Software Defined Mainframe“ (SDM) wirbt. LzLabs und T-Systems sind im vergangenen Jahr eine Kooperation eingegangen. Doch auch Folkerts bestätigt diesen Umstand.

Das aber macht Migrationen nicht nur aufwändig und teuer, sondern auch sehr risikobehaftet. Diese Unantastbarkeit aber verlängert wiederum das Leben der Großrechner-Infrastrukturen.

Sie und andere beteuern jedoch, eine Mainframe-Umgebung ist nicht per se verkrustet, auch IBM tue einiges dafür, dass die Systeme offen sein können, für moderne Tool-Chains, für hybride Cloud-Modelle, für DevOps, für die Abwehr von Gefahren aus dem Cyberspace …. nur können geschrumpfte Mainframe-Teams mit den Entwicklungen rund um Container, Kubernetes, Open Source, Microservices inkrementelles Testen und den andauernden Strom von Funktionsänderungen in kürzesten Update-Zyklen nicht mithalten.

Die typischen Probleme mit Legacy lassen sich nach Darstellung von T-Systems auf diese sechs Felder aufteilen.
Die typischen Probleme mit Legacy lassen sich nach Darstellung von T-Systems auf diese sechs Felder aufteilen.
(Bild: T-Systems)

Der Dornröschenschlaf hat mancherorts einfach zu lange gedauert. Die Folge:

  • Locked- in Data: kritische Daten sind in Altsystemen gefangen?
  • End of Lifecycle: Kritische Systeme haben das Ende ihres Lebenszyklus erreicht und Legacy-Spezialisten verlassen das Unternehmen
  • Technology-Gap: Technologien wie KI sind zwar prinzipiell nutz- und anschließbar, aber die Bereitstellung dauert zu lange: Anschluss verpasst. Administratoren von Legacy-IT berichten häufig darüber, dass sie „ Stunden über Stunden “ für die Implementierung benötigen, bevor sich ein System (oder ein Upgrade) überhaupt nutzen lässt“.

Kein Wunder also, dass nach Evaluierungen des Analystenhauses Vanson Bourne 89 Prozent der Unternehmen zwar ihre Legacy IT pflegen, anstatt sie zu ersetzen. Über ein Drittel von ihnen würde sich lieber auf die digitale Transformation als auf die Wartung ihrer Altsysteme konzentrieren.

Ich wünsche mir neues Werkzeug

Doch auch den Wunsch nach Werkzeugen, die up to date sind, die sich off und on premises nutzen lassen, die Microservices, Multicloud und Legacy beherrschen, „kann ich verstehen“, sagt Folkerts. Denn zurzeit gingen die Preise für die proprietären Tools in einem „beträchtlichem Maße“ nach oben.

Zugleich aber bedeute die Nutzung moderner Werkzeuge einen fast kulturellen Umbruch. Die DevOps-Teams lösten ihre Probleme über ihre Communities: Es gebe ja fast kein Problem mehr, dass sich nicht in Google finden lasse, beziehungsweise Menschen, die sich damit befassten, so Folkerts. Da haben klassische Mainframer einen ganz anderen Hintergrund.

Andreas Greis, Leiter Digital Solutions bei T-Systems, fasst die Situation wie folgt zusammen: „Großrechner und Cobol wurden vor über 60 Jahren entwickelt, aber auch vermeintlich neuere Systeme aus dem Jahr 2000 sind nicht mehr zukunftsfähig.“

Monolitische Anwendungen und verknotete Datenströme aufzuweichen oder gar abzulösen dauert – lange. Zudem ist das Risiko nicht zu unterschätzen. Immerhin haben nach Angaben des IEEE seit 2010 Unternehmen und die Öffentliche Hand weltweit 720 Milliarden Dollar für den fehlgeschlagenen Austausch ihrer Legacy-IT ausgegeben.

Das T-Systems-Angebot zur Modernisierung von Legacy, insbesondere von Mainframe-Legacy, orientiert sich an dem '6-R'-Modell von Gartner.
Das T-Systems-Angebot zur Modernisierung von Legacy, insbesondere von Mainframe-Legacy, orientiert sich an dem '6-R'-Modell von Gartner.
(Bild: T-Systems)

Von einem Big Bang rät Folkerts ohnehin ab. Das T-Systems-Angebot vermeidet einen solchen, sieht stattdessen eine schrittweise Transformation vor, aber mit Quick Wins. So besteht FITT aus sechs Modulen, mit denen etwa unflexible Cobol-Programme geschmeidig werden, Informationen aus alten Datenbanken gerettet und Bestandssysteme in die Cloud gebracht werden sollen.

zWebConnector“ ermöglicht es, Daten aus Großrechnern plattformübergreifend mit anderer Infrastruktur im Unternehmen zu teilen.

  • Damit können andere Systeme aus dem Unternehmen auf geschäftskritische Daten zugreifen und sie nutzen.
  • Mainframe-Technologien lassen sich mit modernen Systemen verbinden.
  • Die Datenübertragung wird sicher und effektiv.

zFCI“ könne den Mainframe so flexibel werden lassen wie eine Cloud. Hier werden Cloud-Management-Funktionen und Mainframe-Containerisierung verbunden. Das bedeutet nach T-Systems-Angaben:

  • eine hochgradig standardisierte Container Umgebung,
  • ein Schnelles Ramp-up der kompletten Umgebung und dass
  • DevOps and Microservices genutzt werden können.

zFuture Rehosting“ erlaubt Applikationen vom Großrechner in eine Cloud-Umgebung zu migrieren – auch direkt in eine Public Cloud. Der Service dient

  • der Migration von teurer und ineffizient genutzter Mainframe-Last in die Cloud,
  • reibungslosen und erfolgreichen Implementierungsprozessen,
  • als Fundament für nachhaltige Transformationspfade auf Applikationsebene

Data Excavator“ ist das Angebot, veraltete Data Warehouses in Data Lakes zu überführen. Das bedeutet nach T-Systems-Angaben:

  • geringer Aufwand für die Vorbereitung,
  • Transparenz des Migrationsprozesses,
  • vollständige Dokumentation zur Unterstützung der Migration und
  • einen hohen Grad an Automation und Standardisierung.

Monolith 2 Microservices“ ist dafür gedacht, starre Java-Programme in viele Microservices aufzuteilen. Das macht das Programmpaket damit insgesamt flexibler. Dazu gehört:

  • eine Priorisierung der fachlichen Domänen im Monolithen,
  • eine Tool-basierte Analyse und das Design der Microservice-Architektur mit „vFunction“ und
  • das Produktivsetzen der Microservices ohne Codeanpassungen mit dem „Lambda Agent“.

zFuture Mainframe App Modernization“ hilft dabei Cobol- und PL1-Programme in Cloud-fähige Microservices zu zerlegen. Der Service umfasst:

  • ein Tool-basiertes Mapping von technischen und fachlichen Strukturen mit „Explain“,
  • das Refactoring oder eine Codetransformation von Cobol und/oder PL1 nach Java auf Linux sowie
  • eine schrittweise Modernisierung mit API-Layer.

Diese Module sind voneinander unabhängig und bauen nicht zwangsweise aufeinander auf. So wollten viele Kunden den Mainframe als Hardwareplattform behalten. Allerdings, betont Fachfrau Folkerts, sei der Nutzen bei Anwendung aller Komponenten am größten. Das Vorgehen wäre wie folgt:

Über ein „Application Landscape Assessment“ wird in einem ersten Schritt die Strategie für die Transformation ermittelt – sei es Cloud first oder die Modernisierung auf bestehender Infrastruktur. Die Tools Data Excavator und zWebConnector helfen bei der Datenintegration . Mit zFCI und zFuture Rehosting gelangt die jeweilige Mainframe Applikationen auf eine neue Plattform. Es ist aber auch möglich, die gesamte Architektur mit Microservices abzubilden, die individuell einsetzbar ist – „minimal invasiv“, wie es bei T-Systems heißt.

Vermieden werden nach Anbieterangaben einzelne, risikoreiche Deployments, endlose Zeitpläne für Updates und Changes. Greis sagt: „Kunden brauchen heute IT-Landschaften, die ihr Geschäft flexibler, schneller und effizienter machen. Deshalb haben wir einige unserer Standardlösungen zu FITT zusammengefasst. Damit modernisieren wir Plattformen, Datenbanken und Programme – in kleinen Schritten oder in großen, ganz wie es für die Situation passt.“

(ID:47143356)

Über den Autor

 Ulrike Ostler

Ulrike Ostler

Chefredakteurin Datacenter-Insider, Vogel IT-Medien GmbH/ DataCenter-Insider