Großrechner bei Fujitsu und IBM sind nicht nur IT-Geschichte

Der fitte Senior in der IT – der Mainframe und was man von ihm lernen kann

| Autor / Redakteur: Kriemhilde Klippstätter* / Ulrike Ostler

So wird man die großen Mainframe-Systeme von IBM (System z) und Fujitsu (BS2000) wohl nie nebeneinander sehen.
So wird man die großen Mainframe-Systeme von IBM (System z) und Fujitsu (BS2000) wohl nie nebeneinander sehen. ( Bild/IBM und Fujitsu)

Genau lässt sich die Geburtsstunde des Mainframes nicht mehr zurückverfolgen, denn es gab viele Vorläufer und Wegbereiter. IBM jedenfalls verkaufte ab dem Jahr 1952 die Modelle der „700/7000 Serie“ und begründete mit ihnen die moderne IT.

Damit sind die Grundzüge des Computing in der Mainframe-Architektur angelegt, auch wenn IBM seine Rechner anfangs ohne Betriebssystem auslieferte. Auch wurden nicht von Beginn an Transistoren zum Rechnen verwendet, die Serie 700 arbeitete mit Röhren. Mit den Transistor-basierenden 7000er Modellen begann dann aber die moderne Datenverarbeitung oder wie man damals sagte, das „electronic data processing“ (EDP).

„In den 60er Jahren war der Mainframe das einzige ernst zu nehmende IT-Gerät“, beschreibt Rolf Strotmann, Vice President Enterprise Server, Software & Solution Services bei Fujitsu, die Anfänge der kommerziellen Datenverarbeitung. Damals gab es aber weder die Methoden, wie mit den Maschinen umzugehen war, noch das Zubehör. „Es musste erst einmal Pionierarbeit geleistet und ein Ökosystem aufgebaut werden. Compiler, Hochsprachen und dergleichen haben sich dann Zug um Zug entwickelt“, erläutert Strotmann.

Gute 100 Kunden zählt Fujitsu-Mamager Rolf Strotman zu seiner Mainframe-Klientel.
Gute 100 Kunden zählt Fujitsu-Mamager Rolf Strotman zu seiner Mainframe-Klientel. (Bild: Fujitsu)

Ebenso stellte sich bald die Frage, wie man mit kleinem Personalbestand ein Rechenzentrum betreiben kann. „Deshalb wurden in den Mainframe viele Dinge eingebaut, die vor allem dem Rechenzentrums-Betrieb dienten. Dazu zählen Automatisierung, Abrechnungsverfahren oder Verfügbarkeitsszenarien“, erläutert der Fujitsu-Manager.

Steinalt und quicklebendig

Das sind Funktionen, mit denen der Mainframe auch heute noch punkten kann. Eine Forrester-Studie, die allerdings von IBM beauftragt wurde, untersuchte, welche Vorteile Unternehmen erreichen können, wenn sie von ihren verteilten Systemen auf einen Mainframe umsteigen. Einer der Vorzüge ist die Tatsache, dass man im Vergleich zu verteilten Systemen weniger Personal für die Verwaltung benötigt und dafür auch weniger Kosten anfallen. Mainframes laufen also automatisierter und stabiler.

Gerade in puncto Sicherheit und Hochverfügbarkeit hat der Großrechner eine Menge zu bieten, was auch verteilten Systemen Nutzen bringen kann. „Jedes Teil im Mainframe ist mindestens zweimal vorhanden und muss im laufenden Betrieb reparierbar sein“, berichtet Roland Trauner, Brand Manager für IBM Mainframes in Deutschland.

Das bedeutet, dass die Systeme – auch bei einer Änderung des Microcodes – niemals neu gebootet werden müssen. Das relative Alter der Plattform wirkt sich hier positiv aus: Mit Kinderkrankheiten muss man nicht mehr rechnen.

Der Maßstab für Qualität und Verfügbarkeit

Zudem gibt es einen Qualitätsanspruch seitens der Hersteller, weiß der IBM-Manager: „Es gibt eine Technik, die funktioniert – das ist der Mainframe – und eine Technik, die müsste funktionieren – das ist alles andere.“ Deshalb stammen all die Sicherheitsfunktionen, die man mittlerweile auch von verteilten Systemen her kennt, etwa Error Correction Codes (ECC) oder Parity zur Fehlererkennung und –Korrektur aus dem Großrechnerumfeld.

IBM-Manager Roland Trauner: "Ein Mainframe funktioniert - ."
IBM-Manager Roland Trauner: "Ein Mainframe funktioniert - ." (Bild: Ostler)

Darüber hinaus genießt der Mainframe traditionell eine gewisse Fürsorge, man „kümmert“ sich um ihn: Man untersucht genau, wie installiert wird, man kennt die Prozesse und weiß, wo man hinlangen muss.

„Der Mainframe ist eine wichtige Ressource in vielen großen Unternehmen – mindestens so wichtig wie das iPhone für die heutige Kommunikation“, positioniert Fujitsu-Manager Strotmann die Wertigkeit der Großsysteme. Das und die Tatsache, dass sich moderne Hacker nicht mit dem Mainframe-Betriebssystem auskennen, sind verantwortlich dafür, dass über Virusattacken auf die Rechenboliden kaum etwas bekannt ist.

PR/SM – Urvater aller Hypervisoren

Eine andere Technik, die aus der frühen Mainframe-Entwicklung stammt, ist die Virtualisierung. Beim Mainframe kam sie etwa seit 1987 zum Einsatz, als das Betriebssystem VM optimiert wurde. „Früher wurde direkt auf der Hardware aufgesetzt, dann aber umgestellt auf Hypervisor-Technik – und zwar komplett“, erinnert sich IBM-Manager Trauner.

Das bedeutet, dass man sich immer auf einer logischen Partition gegenüber der Hardware bewegt. Auch wenn nur eine Partition gefahren wird, liegt der Hypervisor mit dem Namen PR/SM (Processor Resource/System Manager) zugrunde. PR/SM virtualisiert alle internen Ressourcen und ist integraler Bestandteile von IBMs „z Series“.

„Da fangen die Unterschiede im Vergleich zu den verteilten Systemen an: Der Virtualisierer ist vollständig in der Hardware integriert, läuft also nicht als aufgesetzte Softwarelösung wie etwa bei VMware“, erklärt Trauner einen der Unterschiede. Außerdem erlaubt es PR/SM, dass alle I/O-Einheiten für alle Partitionen erreichbar sind.

Die Virtualisierung geht weiter

Verfügt beispielsweise ein System über vier Netzadapter mit je zwei Ports, dann stehen diese acht Ports jeder Betriebssystem-Instanz voll zur Verfügung. „Jedes Betriebssystem glaubt, diese acht Ports gehören ihm alleine. Der Hypervisor sorgt dann dafür, dass jeder das bekommt, was er braucht“, beschreibt Trauner ein Beispiel. Der Hypervisor regelt also den Verkehr und die Gewichtung zwischen den logischen Partitionen.

Innerhalb der logischen Partitionen kann bei IBM nochmal ein anderer Hypervisor benutzt werden, der eigentlich auch ein Betriebssystem ist: VM. Damit können in der logischen Partition wieder mehrere Betriebssysteme gefahren werden. „Manche Mainframe-Anwender nutzen nur Linux auf dem Großrechner und nutzen VM als Hypervisor“, berichtet Trauner aus der Praxis.

Das hat sich in solch einer Konstellation bestens bewährt, da Linux großen Speicherbedarf hat und VM mehr Memory vorgaukelt, als tatsächlich vorhanden ist, eine Technik, die sich „Memory Overcomitment“ nennt. „PR/SM ist also der Hardware-Hypervisor und VM kann als Software-Hypervisor bezeichnet werden“, fasst Trauner zusammen.

Cluster und Emulation

Hardware-Partitionierung findet man seit langem in verteilten Systemen und auch die Unterteilung der Ressourcen über Software hat dort – etwa bei Suns-Container-Technik – Einzug gehalten. „Jetzt geht es bei den verteilten Systemen darum, wie sauber die Partitionen isoliert sind und ob Mandantenfähigkeit erreicht wird“, beschreibt Fujitsu-Manager Strotmann das Szenario. Er glaubt, dass der Mainframe in puncto Virtualisierung schon noch Vorteile bietet allerdings sei in dieser Technik so viel Momentum enthalten, „dass vielleicht einiges auch zurück zum Mainframe kommt“.

Fujitsu-Manager Strotmann: "Jetzt geht es bei den verteilten Systemen darum, wie sauber die Partitionen isoliert sind und ob Mandantenfähigkeit erreicht wird.“
Fujitsu-Manager Strotmann: "Jetzt geht es bei den verteilten Systemen darum, wie sauber die Partitionen isoliert sind und ob Mandantenfähigkeit erreicht wird.“ (Bild: Fujitsu)

Baut man Cluster aus PCs auf, dann steht meist Rechner neben Rechner. Jeder hat seine Festplatte und man teilt die Ressourcen normalerweise nicht. Dieses Prinzip des „shared nothing“ steht beim Mainframe-Verbund das Gegenteil, „shared everything“, gegenüber. Besonders die Plattenbereiche werden gerne gemeinsam genutzt.

Das hat dann etwa den Vorteil, dass eine Datenbank auf mehr als einer Maschine betrieben werden kann, wie IBM-Manager Trauner beschreibt: „Die Mainframes sind dann über „Parallel Sysplex“ gekoppelt und die Datenbank ist auf allen Systemen gleichzeitig aktiv, das heißt: „Auf allen Maschinen kann gleichzeitig gelesen und geschrieben werden.“

Synchronisierung und Konsistenz

Für die Datenkonsistenz trägt die Coupling Facility Rechnung. Der Ausfall eines Systems hat praktisch keine Bedeutung für den laufenden Betrieb.

Ein Beispiel dafür, dass Mainframes Cluster-Techniken von verteilten Systemen nutzen, ist die Programmiertechnik „Transactional Memory“, die IBM bei seinem Unix-System „BlueGene“ eingesetzt hat. Ziel dabei ist es, die Synchronisierung im Rechnerverbund sicherzustellen, das Tempo aber zu erhöhen.

Früher schlossen Locking-Mechanismen aus, dass bei einer Änderung im Memory andere Rechner auf diesen Bereich zugreifen konnten, das war zwar sicher aber umständlich. Mit dem neuen Verfahren entfällt die Blockade, weil es statistisch gesehen, sehr unwahrscheinlich ist, dass genau das zu verändernde Feld nochmal aufgerufen wird.

Übertragung in die verteilten Systeme

Statt es zu blockieren, „merkt“ sich das System die alten Inhalte und führt vor dem Refresh einen Vergleich durch, ob der Inhalt sich geändert hat. „Java-Anwendungen profitieren um bis zu 30 Prozent von der neuen Technik aus der Unix-Welt“, freut sich Mainframe-Spezialist Trauner. Intel hat für die „Haswel“-Plattform ein entsprechendes Design angekündigt.

IBM-Manager Trauner: "Die Steigerung der Prozessorleistung um 20 bis 30 Prozent je CPU-Generation bewirkt, dass man alle zwei bis drei Generationen eine Verdoppelung erreicht."
IBM-Manager Trauner: "Die Steigerung der Prozessorleistung um 20 bis 30 Prozent je CPU-Generation bewirkt, dass man alle zwei bis drei Generationen eine Verdoppelung erreicht." (Bild: Ostler)

Hört man den Begriff „Emulation“ im Zusammenhang mit Großrechnern, dann denkt man automatisch daran, andere Betriebssysteme als das Mainframe-OS auf der Hardware ablaufen zu lassen. Es gibt aber auch einen Emulator für das zOS, das auf einem PC abläuft. Es nennt sich Personal Development Tool (PDT) und wird eigentlich nur für Schulungszwecke eingesetzt.

„Im Produktivbetrieb ist der Zugriff auf Speicher und dergleichen nicht wirklich gut, weil dem PC natürlich die Mainframe-Fähigkeiten fehlen“, beschreibt Trauner den Exoten. Anders bei Fujitsu, wo vor 18 Jahren die Ablaufumgebung des BS2000-Großrechners auf Standard-Hardware emuliert wurde(also seit 1996). „Der Grund dafür war, dass die zugrunde liegende Hardware-Plattform eigentlich keine Rolle mehr spielen sollte“, erklärt Fujitsus Rolf Strotmann den Aufwand.

Das macht sich bezahlt

Das Normale ist also, dass auf dem Mainframe andere Betriebssysteme per Emulation gefahren werden. „Zwar kann das bis zu acht Prozent der Systemleistung kosten, aber dank der leistungsfähigen Prozessoren kann man sich das schon leisten“, wirbt IBM-Manager Trauner. Und die Steigerung der Prozessorleistung um 20 bis 30 Prozent je CPU-Generation bewirkt, dass man alle zwei bis drei Generationen eine Verdoppelung erreicht.

Die macht sich natürlich bezahlt (siehe auch: Bildergalerie). Dank Emulationstechnik spart sich der Anwender andere Systeme und er kann die Rechenpower wirtschaftlich nutzen. Emulationstechniken auf verteilten Systemen kommen praktisch nicht vor.

Dank seiner „frühen Geburt“ legte der Mainframe die Grundzüge der modernen Datenverarbeitung fest. Es gibt aber auch Techniken, an denen er nicht beteiligt war und er sich anpassen musste. Dazu zählen insbesondere das Internet, Standard-Kommunikations- und Netztechnik, wo der Großrechner seine - proprietären – Mechanismen aufgeben oder sich zumindest für Neues öffnen musste. Heute kann man sagen, es herrscht ein gesundes Geben und Nehmen was den Techniktransfer vom und zum Mainframe angeht.

* Kriemhilde Klippstätter ist Coach und freie Autorin in München.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42527661 / Mainframes)