T-Systems kümmert sich um die Verjüngung von Großrechneranwendungen Der moderne Mainframe

Autor / Redakteur: Bianca Graf und Andre Schreiber* / Ulrike Ostler

Mainframes sind nicht altes Eisen. Doch ihre Integration mit IT-Plattformen jüngerer Geschichte und Cloud-Umgebungen birgt große Herausforderungen. Hinzu kommen die im Vergleich zu DevOps-Zyklen deutlich längeren Bereitstellungszeiten. Es braucht geeignete Werkzeuge. Dann kann ohne Weiteres ein ERP-Dashboard auf einem Smartphone Daten des Großrechners abfragen.

Firmen zum Thema

Mainframe-Anwendungen sollen ihre zu eng und starr gewordene Legacy-Haut einfach abstreifen - mithilfe von Tools und Tatkraft der T-Systems.
Mainframe-Anwendungen sollen ihre zu eng und starr gewordene Legacy-Haut einfach abstreifen - mithilfe von Tools und Tatkraft der T-Systems.
(Bild: sandid auf Pixabay)

An der Cloud kommt niemand vorbei, das heißt auch: Die Entwicklung Cloud-nativer Software schreitet voran. Parallel gilt es, moderne Systeme und Anwendungen mit Technologien wie Künstlicher Intelligenz (KI) in die bestehende Applikationslandschaft zu integrieren. Beispielsweise befinden sich Legacy-Systeme und ihre entsprechenden Daten oft in Mainframe-Umgebungen, die üblicherweise in Programmiersprachen der 3. Generation, wie dem 60 Jahre alten Cobol, entwickelt wurden.

So nutzen etwa Handel, Banken und Versicherungen die soliden und zuverlässigen Großrechnersysteme dazu, geschäftskritische Transaktionen in hoher Zahl abzuwickeln. Für den bargeldlosen Zahlungsverkehr sind fast immer Mainframes im Einsatz – die einiges zu tun haben: Laut Capgemini wurden 2018 weltweit mehr als 600 Milliarden bargeldlose Transaktionen abgewickelt. 2022 sollen es bereits mehr als eine Billion sein.

Die Grenzen der Legacy-Systeme überwinden

Unternehmen stehen dadurch oft vor einer grundsätzlichen Entscheidung, wie in Zukunft mit den vorhandenen Mainframe-System umzugehen ist. Für viele Unternehmen ist der Mainframe strategisch – er wird mittel- und langfristig das stabile Backbone für die zentralen und geschäftskritischen Applikationen bleiben. Andere Unternehmen entscheiden sich für eine Ablösung des Mainframe.

In beiden Fällen werden die Mainframe-Umgebungen für einige oder auch viele weitere Jahre integraler Bestandteil einer hybriden Systemarchitektur sein. Damit wächst der Druck, die Systeme in moderne, digitalisierte Geschäftsprozesse und DevOps-konforme Softwareproduktionsprozesse zu integrieren.

Konkret: Mainframe-Systeme müssen sich mit anderen Systemen der eigenen Applikationslandschaft wie ERP/SAP, aber auch mit Cloud-Architekturen austauschen können. Zudem gilt es, die langen Release-Zyklen von Großrechnerapplikationen zu verkürzen, um schneller neue Business-Funktionen produktiv setzen zu können.

Zu den Autoren dieses Fachartikel zählt Bianca Graf, IT-Consultant für Legacy-Modernisierung bei T-Systems.
Zu den Autoren dieses Fachartikel zählt Bianca Graf, IT-Consultant für Legacy-Modernisierung bei T-Systems.
(Bild: T-Systems)

Microservices, DevOps, Continuous Delivery, Cloud on Demand und Open-Source-Software sind hier nur einige der Stichworte. Besonders die schnelle Bereitstellung von Mainframe-Ressourcen und die plattformübergreifende Datenintegration stellen hier besondere Herausforderungen dar.

Die Cloud-Welt mit dem Mainframe vereinen: zFCI

Um diese Anforderungen abzudecken und „z/OS“-Mainframes einfacher und schneller in Multicloud-Umgebungen zu integrieren, hat T-Systems ihr zentrales Cloud-Offering um den spezifischen „Mainframe Service zFuture Cloud Infrastructure“ erweitert. zFCI ist einer von sechs Services der Suite „Future IT Transformation“ (FITT). Diese unterstützt Unternehmen darin, ihre Legacy-Anwendungen zu modernisieren. Mit zFCI lassen sich Mainframe-Plattformen sicher und flexibel in eine gemanagte Private-Multicloud-Umgebung integrieren.

Über ein Self-Service-Portal wie „Servicenow“ bestellen Unternehmen die benötigten Dienste bei T-Systems und stoßen mit ihrer Buchung einen automatisierten Prozess im Backend an. Die georderten Subsystemkomponenten wie etwa für Datenbanken- und Middleware-Systeme lassen sich dann binnen weniger Tage auf dem Mainframe bereitstellen. Gleiches gilt für Java-basierte Applikationsserver wie „Websphere Application Server“ oder auch „Websphere Liberty Server“. Früher benötigten diese Bereitstellungsprozesse oft Wochen oder sogar Monate.

Schnelle Bereitstellung einer Vielzahl von Subsystemen

Diese Provisionierung erforderte früher einen erheblichen manuellen Aufwand und die Expertise ausgewiesener Mainframe-Experten. Durch den automatisierten Provisionierungsprozess von zFCI lassen sich Subsystemkomponenten und Dienste nun mit einer ähnlich hohen Geschwindigkeit liefern und bereitstellen wie es in Cloud-Umgebungen üblich ist. Für die stetige Weiterentwicklung der Prozesslandschaft ist weiterhin eine tiefgreifende Mainframe-Expertise auf Seiten des Providers notwendig, um die schnell wachsenden Anforderungen der Kunden umsetzen zu können.

Grundsätzlich ist diese Provisionierung für jedes Subsystem möglich. Zu den Subsystemen zählt jede Software, die im Mainframe als Träger von Applikations-Workloads fungiert. So ist beispielsweise das gängige Db2-Datenbanksystem ein Subsystem auf dem logischen Betriebssystem z/OS. Unter der Vielzahl an existierenden Subsystemen kann zFCI die am häufigsten von Kunden angefragten Komponenten – wie etwa „Db2“, „CICS“- und „Websphere“-Server – abbilden und bereitstellen.

Die Middleware-Komponente CICS (Customer Information Control System) ist ein Multi-Language-Applicationsserver. Dieser kann nicht nur verschiedene klassische Programmiersprachen wie Assembler, Cobol und PL1, sondern auch moderne Programmiersprachen wie Java und Node.js interpretieren. Dementsprechend ist CICS in der Lage, geschäftskritische Workloads in diesen Sprachen zu verarbeiten und Interaktionen zwischen heterogenen Anwendungen zu unterstützen.

Anwendungsbeispiel Kernbankensystem

Um den Prozess der Bereitstellung via zFCI zu illustrieren, eignet sich ein typisches Anwendungsszenario aus dem Bankenumfeld, in dem Mainframes weit verbreitet sind: Eine neue gesetzliche Anforderung, etwa durch die Bafin (Bundesanstalt für Finanzdienstleistungsaufsicht), macht die Entwicklung einer neuen Funktion für das Kernbankensystem erforderlich. Gleichzeitig gilt es, hierfür einen weiteren Zahlungsdienstleister anzubinden – beispielsweise über eine Restful-API-Schnittstelle.

Die Bank bestellt innerhalb ihres Self-Service-Portals die benötigten Subsystemkomponenten, wie etwa einen Websphere Liberty Application Server. Dieser wird dann, ebenso wie alle anderen erforderlichen Komponenten, über das bei T-Systems laufende Prozess-Framework zFCI zur Verfügung gestellt.

Im Websphere Liberty Application Server implementiert die Bank die von ihr selbst entwickelte Applikationslogik, welche nun die neue gesetzlich Anforderung abbildet und damit in der Lage ist, eine neue Schnittstelle für den Zahlungsdienstleister anzubieten. Dieser kann sich darüber nun an den Mainframe anbinden und auf die neue Kernbankenfunktionalität zugreifen.

Einsatz für zFCI

Das Anwendungsbeispiel ist beliebig übertragbar auf andere Branchen. So müssen etwa auch im Bereich Automotive häufiger neue gesetzliche Vorschriften in den IT-Systemen abgebildet werden. Diese können auch Zulieferer betreffen, die sich analog zum obigen Bankenbeispiel über eine Restful-API-Schnittstelle anbinden lassen.

Das Einsatzfeld von zFCI umfasst den gesamten Mainframe-Bereich. So können Unternehmen durch zFCI neue Dienste für den Mainframe schneller bereitstellen und nutzen: Datenbanken, Middleware, Container und Software „as a service“. Die Kombination von Automatisierung und Standardisierung führt zu einer Time-to-Market-Optimierung, die der heute üblichen Geschwindigkeit im Cloud-Markt entspricht.

Mainframe in Applikationslandschaft integrieren – mit zWebconnector

Der Mainframe benötigt nicht nur Anschluss an die Cloud-Welt. Auch bestehende Applikationen im Unternehmen benötigen Zugang zu den wertvollen Daten und Anwendungen der Großrechner. Dazu gehören etwa ERP/SAP, Product Lifecycle Management (PLM), Application Lifecycle Management (ALM) und weitere Enterprise-Anwendungen sowie mobile Applikationen. Um diese Systeme mit dem Mainframe zu verbinden und die Lücken in der Datenübertragung zu schließen, hat T-Systems das Werkzeug „zWebconnector“ entwickelt.

Das Tool „zWebconnector“ spielt in der Überführung von Mainframe-Anwendungen in Cloud-fähige Umgebungen eine entscheidende Rolle.
Das Tool „zWebconnector“ spielt in der Überführung von Mainframe-Anwendungen in Cloud-fähige Umgebungen eine entscheidende Rolle.
(Bild: T-Systems)

zWebconnector besteht aus zwei Komponenten: Das z/OS Interface ist ein leichtgewichtiges Mainframe-Interface, das keine zusätzliche Hardware benötigt und auf dem Mainframe läuft. Dieses Interface kommuniziert mit Hilfe moderner Kommunikationsprotokolle mit der zweiten Komponente, dem „z/CM“. Diese Komponente wiederum ist Bestandteil der bestehenden Enterprise-Integrationsplattform „PDM Webconnector“, die ursprünglich für die Integration von Product Data Management (PDM) entwickelt wurde.

Mithilfe von „PDM Connector“ und zWebconnector orchestrieren Unternehmen nun die Einbindung des Mainframes in ihre unternehmensweite Datendrehscheibe. So ermöglichen sie einen multidirektionalen Datenaustausch innerhalb ihrer Applikationslandschaft und synchronisieren ihre Systeme – einschließlich der Mainframe-Applikationen.

Datenaustausch zwischen Systemen

PDM Connector beruht auf einer modularen, servicebasierten Architektur und nutzt bestehende Konnektivität, vordefinierte Synchronisationsprozesse und Mappings. zWebconnector erweitert diese Konnektivität auf Mainframe-Anwendungen. Auch hoch individuelle Mainframe-Anwendungen in Unternehmen lassen sich mithilfe des konfigurierbaren Tools und von REST-basierten Schnittstellen in die Applikationslandschaft einbinden. Damit beispielsweise Mainframe-Dateien, deren Struktur durch Cobol Copybooks definiert wird, für andere Unternehmensapplikationen lesbar sind, wandelt eine automatisierte Copybook/JSON-Conversion sie in die passenden Formate um.

Ein vereinfachtes Anwendungsszenario verdeutlicht, wie zWebconnector vorgeht: Um eine Materialkalkulation im Mainframe durchführen zu lassen, gibt ein Mitarbeiter die entsprechende Materialnummer im PDM-System ein und löst eine Kalkulation aus. PDM Webconnector holt sich die zugehörigen Materialdaten aus dem ERP-System – in diesem Fall „SAP Material Master“ – und sendet die Kalkulationsanfrage an zWebconnector.

Dieser wandelt die Daten um (JSON to Cobol, Unicode to EBCDIC) und übergibt sie an die entsprechende Mainframe-Applikation in einer für diese verständlichen Form. Nachdem die Kalkulation im Mainframe durchgeführt worden ist, wird sie in der Datenbank gespeichert und in eine Ergebnisdatei geschrieben.

Darstellung des Anwendungsfalls
Darstellung des Anwendungsfalls
(Bild: T-Systems)

Nun ist wieder zWebconnector an der Reihe, liest die Ergebnisdatei aus und wandelt sie von der Cobol-Datenstruktur wieder in JSON um, beziehungsweise von EBCDIC in Unicode. Über PDM Webconnector und SAP Material Master erhält der Mitarbeiter die gewünschte Kalkulation und überprüft das Resultat. Der gesamte Prozess lässt sich genauso über ein mobiles Endgerät anstoßen – auch das Smartphone kann nun mit dem Mainframe kommunizieren.

Der Erhalt von Wertvollem

So ermöglicht es zWebconnector, Services und Daten des Mainframe für die neue Applikationswelt bereitzustellen – und umgekehrt. Bestehende IT-Investitionen gehen nicht verloren. Unternehmen können ihre wertvollen Datenschätze aus den Mainframe-Umgebungen auch in der Gegenwart weiter nutzbar machen und einem erweiterten Nutzerkreis zur Verfügung stellen. zWebconnector unterstützt zudem eine schrittweise Migration zu anderen Plattformen und ermöglicht ein langfristige Koexistenz von alten und neuen Systemen.

Autor Andre Schreiber ist Chief Technology Officer für Global Mainframe Services bei T-Systems.
Autor Andre Schreiber ist Chief Technology Officer für Global Mainframe Services bei T-Systems.
(Bild: T-Sytems)

Derzeit steht zWebconnector auch als Starter Package zur Verfügung, um das Tool drei Monate zu testen. Ein einführendes Training und Support sind im „Starter Package“ enthalten.

Neu und alt in einer IT-Transformation zusammenzubringen kann eine große Herausforderung sein. Mit zWebconnector und zFuture Cloud Infrastructure erhalten Unternehmen geeignete Werkzeuge, um die Integration von Mainframe-Technologie erfolgreich umzusetzen – sicher, schrittweise und ohne einen mit Risiken behafteten „Big Bang“.

* Bianca Graf ist IT-Consultant für Legacy-Modernisierung bei T-Systems und Andre Schreiber arbeitet als Chief Technology Officer für Global Mainframe Services bei T-Systems.

Artikelfiles und Artikellinks

(ID:47332095)