Suchen

Zurück in die Zukunft Bei Fujitsu nachgefragt: Mainframes im 21. Jahrhundert

| Autor / Redakteur: Dipl. Betriebswirt Otto Geißler / Ulrike Ostler

Wie oft wurde schon das Ende der Mainframes vorausgesagt? Dagegen scheinen sie in der Tat eines der ganz wenigen Systeme zu sein, die sogar den kunstvollen Spagat zwischen der traditionellen IT und einer neuen, offenen Welt mit Bravour vorzuführen.

Firmen zum Thema

Mainframe-Lösungen sind eine wichtige Säule für den Betrieb vieler geschäftskritischer Anwendungen. Meist sind sie in diesen Bereichen das Rückgrat einer gesamten IT-Infrastruktur und erweisen sich flexibler als je vermutet.
Mainframe-Lösungen sind eine wichtige Säule für den Betrieb vieler geschäftskritischer Anwendungen. Meist sind sie in diesen Bereichen das Rückgrat einer gesamten IT-Infrastruktur und erweisen sich flexibler als je vermutet.
(Bild: gemeinfrei: JudiCBell / pixabay / CC0 )

Der IT-Saurier aus den 1960er Jahren wurde ursprünglich zur Unterstützung aller Bereiche des Business als auch geschäftskritischer Anwendungen entworfen. Diesem Konzept ist er auch im 21. Jahrhundert durch drei wesentliche Hauptmerkmale treu geblieben:

  • hohe Betriebsgeschwindigkeit, Zuverlässigkeit und Sicherheit,
  • keine Downtimes erforderlich, sondern 100 Prozent Uptime,
  • alle Daten sind zu jeder Zeit bei voller Rechenkraft verfügbar und
  • hochgradig in andere Technologie-Plattformen integrationsfähig.

„Daher haben die Mainframes nach wie vor ihre volle Berechtigung“, erklärt Dieter Kasper, CTO Enterprise Platform Services bei Fujitsu. „Der Kunde muss sich bei einer Entscheidung für oder gegen einen Mainframe fragen, welche Prozesse sind für ihn tatsächlich geschäftskritisch und wie viel Downtime kann er aushalten.“

Fragliche Notwendigkeit

Besteht dann vor diesem Hintergrund überhaupt die Notwendigkeit einer Abkehr vom Mainframe? Denn mit Mainframe-basierter Technik lassen sich auch heute noch Probleme lösen, die mit modernerer Hardware beziehungsweise in einer offenen Welt nur schwer zu lösen wären.

Das bestätigen immer wieder zahlreiche Studien. Darin geben rund 90 Prozent der jeweiligen Umfrageteilnehmer an, dass die Nutzung von Mainframes sogar weiter zunehmen wird. „Mainframes bleiben trotz moderner Technologien wie zum Beispiel Cloud-Lösungen eine relevante IT-Hauptplattform“, so Kasper. „Sie bilden daher auch weiterhin in zahlreichen Unternehmen das Rückgrat der digitalen Transformation.“

Obgleich man auch in der offenen Welt Eigenschaftsmodule wie Sicherheit, Bedienbarkeit, Verfügbarkeit und Zuverlässigkeit antrifft, kann es dort nur sehr schwer gewährleistet werden, dass alle Komponenten komplett aus einem Guss sind und unter bestimmten Belastungen Probleme oder Störfälle vergleichbar gut verhindern können.

So wie unlängst in der Produktion der Porsche-Werke. Da plötzlich rund 200 der x86-Server komplett ausfielen, stand in einem Werk für viele Stunden die Arbeit still. Ein Mainframe hätte das höchstwahrscheinlich verhindern können.

Lohnen sich Ablöseprojekte?

Trotzdem denken manche IT-Verantwortliche über die Ablösung der Mainframes und Möglichkeiten „modernerer“ IT-Landschaften nach. Als einer der Hauptgründe für Mainframe-Ablöseprojekte werden hohe Hardware- und Softwarekosten genannt. Insbesondere für größere Unternehmen dürften die Gesamtkosten der Plattform in den häufigsten Fällen jedoch geringer ausfallen als die von ähnlich performanten und ausfallsicheren Systemen auf Basis von x86-basierten Servern.

Dies resultiert unter anderem daraus, dass anstelle weniger Mainframes schnell Hunderte oder gar Tausende von Servern erforderlich sind, um auf den gleichen Transaktionsdurchsatz zu kommen. Man beachte, dass dies nicht nur mehr Strom und Raum im Datacenter benötigt, sondern auch eine größere Administrationsleistung für die Verwaltung dieser und der unzähligen virtuellen Server.

Ferner sollten die Kosten für Software und Support nicht unterschätzt werden. Denn unter Linux, Unix und Windows ist nicht alles gleich Open Source und das kann zu höheren Kosten als auf Mainframes führen.

Unterschätzte Probleme und Problemchen

Die Abhängigkeit von einzelnen Anbietern ist meist ähnlich hoch als auf dem Großrechner. Das ist vor allem bei einer teuer eingekauften Spezialsoftware zu berücksichtigen.

Hinzu kommt, dass häufig die Komplexität der Mainframe-Ablöseprojekte unterschätzt wird. Es gibt genug Unternehmen, die sich daran seit vielen Jahren erfolglos versuchten. Der Grund liegt unter anderem in den komplexen und über Jahrzehnte gewachsenen Anwendungslandschaften sowie einer Vielzahl von Anwendungen die auf alten Programmiersprachen wie Assembler, PL/I oder COBOL basieren.

Dabei handelt es sich um Sprachen, die den heutigen IT-Experten weidlich unbekannt sind und nur noch wenige Fachleute beherrschen. Eine Ablösung solcher Altanwendungen gilt wegen des meist fehlenden Know-how nicht nur als sehr riskant, sondern es laufen in der Regel auch noch enorme Kosten auf. Gleichzeitig müssen die vergangenen Investitionen in teilweise jahrzehntelang zuverlässig laufende Mainframe-Software abgeschrieben werden.

Optimierung durch Modernisierung

Auf der anderen Seite zeigten Umfragen, dass viele Mainframes noch nicht vollkommen optimiert sind. Daraus stellt sich die Frage: Welche neuen Technologien sollten im Rahmen einer Modernisierung in einen Mainframe integriert werden? „Wir haben uns bei Fujitsu für einen Weg entschieden, wo wir im Wesentlichen Interfaces schaffen, wodurch die offenen Welten, auch die modernen Applikationen, mit dem Mainframe verbunden werden können“, unterstreicht Kasper.

Mit „BS2000“ sind bei Fujitsu Produkte am Start, die es ermöglichen, den Mainframe mit Micro-Services, SAP-Anwendungen, KI-Lösungen oder der Blockchain kommunizieren zu lassen. Dies ist unabhängig davon möglich, ob sie in der Cloud oder in anderen Teilen des Datacenter liegen. Das heißt: Diese modernen Anwendungen können auf den Systemen verbleiben, wo sie heute auch standardmäßig eingesetzt werden.

„Da unsere Kunden nach einem stabileren Stack in der offenen Welt nachfragen, entwickeln wir aktuell bei Fujitsu ein hybrides System bestehend aus Standard Linux- beziehungsweise Windows x86-Servern sowie verschiedenen Hypervisoren“, sagt Kasper. „Unser Ziel ist es, das System möglichst ‚mainframe-like‘ zu machen.“

Warum kein Outsourcing?

Das Thema IT-Outsourcing gewinnt gerade im Bereich Mainframe zunehmend an Bedeutung. Das heißt, Unternehmen suchen sich strategische Partner, um ihre IT unter Einbeziehung ihrer Mainframe-basierten Altanwendungen zukunftsfähiger auszurichten.

Eine große Herausforderung ist dabei die Anbindung der Anwendungen und Anwendungsentwicklungen. Hierfür ist eine ausgeklügelte Schnittstellen-Architektur gefordert, die ein professioneller IT-Dienstleister auf Grund seiner Expertise zur Verfügung stellen kann. Weitere wichtige Aspekte einer solchen Kooperation sind ein großes Maß an Transparenz sowie eine kontinuierliche Kommunikation zwischen beiden Partnern.

Ausblicke

Zusammenfassend lässt sich konstatieren: Der Mainframe ist längst nicht tot, obwohl er seit Jahrzehnten für tot erklärt wird. Aber wie wird sich das Marktsegment Mainframe gerade im Hinblick auf die Veränderungen durch Touch-Oberflächen, Cloud Computing, Big Data, künstliche Intelligenz (KI), fortschreitende Virtualisierung usw. in den nächsten Jahren entwickeln?

Grundsätzlich kommen Mainframes eher in den Bereichen Finanzdienstleistungen, Verwaltung, öffentlicher Sektor, Logistik sowie Industrie zum Einsatz und überall dort, wo sichergestellt sein muss, dass die Prozesse problemlos ineinandergreifen. „Ganz bestimmt werden wir Trends hin zu Edge-Computing und IoT-Devices sehen“, versichert Kasper. „Auch dafür ist es wichtig, API zu schaffen und so notwendigen Verbindungen zu ermöglichen.“

Zum Beispiel können für Kaspar im Bereich der Operational Technology (OT) an der Edge die wichtigsten Daten mit einer schnellen Reaktionszeit und einer gewissen Vorfilterung analysiert werden, und dann für genaueren Auswertungen in einer zweiten Phase auf einem Mainframe laufen.

„Insbesondere bei Modernisierungen oder beim Wunsch nach mehr Flexibilität spielen die Datenbanken eine ganz zentrale Rolle“, so Kasper. „Das heißt, sie sollen zwar in eine offene Welt überführt werden, aber ihre ‚mainframe-like‘ Performance, Sicherheit und Zuverlässigkeit behalten.“

(ID:46302771)

Über den Autor