Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Sternförmige Ordnung Was ist Client-Server-Computing?

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Mit dem Siegeszug leistungsfähiger Standard-PCs entwickelten sich in den 80ern als Alternative zum Mainframe Computing Client-Server-Comuting. Die Idee dahinter: Nicht jeder Arbeitsplatz muss alles selbst bereithalten.

Anbieter zum Thema

Client-Server-Architekturen dominierten in den Neunzigern des vergangenen Jahrhunderts die Unternehmens-IT
Client-Server-Architekturen dominierten in den Neunzigern des vergangenen Jahrhunderts die Unternehmens-IT
(Bild: © djama - stock.adob.com)

Client-Server-Infrastrukturen oder -Architekturen, kurz C/S, werden heute als die zweite Generation der Architekturmodelle für IT-Infrastrukturen betrachtet: Alles begann mit dem Mainframe und den mit ihm verbundenen und komplett von ihm abhängigen „dummen“ Terminals.

Dann, in den Achtzigern, setzten sich mehr und mehr Arbeitsplatzcomputer mit eigener, meist auf Intel-Prozessoren basierender Intelligenz und Festplatten als Massenspeicher durch. Sie waren nicht mehr komplett auf Intelligenz vom Mainframe beziehungsweise Großrechner angewiesen, sondern konnten ihre Aufgaben wie die Verarbeitung von Texten oder Tabellen oder die Handhabung anderer Anwendungsprogramme sehr gut selbst wahrnehmen.

Der Wildwuchs muss weg

Allerdings entstand dadurch ein aus Sicht der IT-Abteilung schwer handhabbarer Wildwuchs mit erheblichem Arbeitsaufwand. Etwas mehr zentrale Kontrolle wünschte man sich da schon zurück, weil das, so die Hoffnung, sehr viel weniger Arbeit und sicherer wäre.

Also wurden, da es inzwischen sehr leistungsfähige Prozessoren gab, im Hintergrund Server implementiert, die mit den Arbeitsplatz-PCs durch Netzwerke verbunden waren und deren Software diverse Dienste, etwa zentrale Drucker, Datenbanken oder auch die zentrale Authentisierungs- und E-Mail-Lösung für alle Arbeitsplätze bereitstellten.

In der Regel gab es unterschiedliche Server für die unterschiedlichen Dienste. Viele Anwendungen wie gängige Office-Programme liefen aber nach wie vor mehr oder weniger vollständig auf den Arbeitsplatzrechnern. Anders als in Mainframe- oder den späteren Virtual Desktop Infrastructures (VDI) behielt also der Arbeitsplatzrechner auch in C/S-Infrastrukturen eine gewisse Autonomie.

Zentrale Funktionen wandern in Serverbetriebssysteme

Die Betriebssysteme, die auf den Servern laufen, erhielten leistungsfähigere Funktionen, beispielsweise für die Sicherheit. Daher rührt die Aufspaltung von „Microsoft Windows“ in eine Arbeitsplatz- und eine Server-Produktlinie. Linux/Unix etablierte sich als alternatives Server-Betriebssystem.

Auf die Server durfte nur autorisiertes Personal, also das IT-Team oder spezielle Server-Administratoren zugreifen. Ein anderer Teil des IT-Teams wurde zum 'Fußvolk' und kümmerte sich um die Geräte der Endanwender - man sprach auch von einer Turnschuhadministration“.

Viele Applikationen - viele Server

Server wurden mit der Zeit immer leistungsfähiger und vielfältiger in der Ausstattung, weil auch die Ansprüche an die Leistungen der IT wuchsen: Datenbanken wurden größer und komplexer, neben dem Druck kam das Scannen hinzu. Die Telefonanlage in den Unternehmen wurde ergänzt durch universelle digitale Kommunikationslösungen – mit einem eigenen Server. Und auch der Backup bekam einen. Auf diese Weise wurde es erneut unübersichtlich.

Die Struktur von Client-Server-Infrastrukturen ist sternförmig mit dem Server in der Mitte
Die Struktur von Client-Server-Infrastrukturen ist sternförmig mit dem Server in der Mitte
(Bild: Mauro Bieg/Wikipedia)

Manche Lösungen, etwa das Entwickeln von Produkten und Designs mit CAD-Produkten, waren allerdings so komplex, dass sie das Leistungsvermögen der Client-Server-Infrastruktur sprengten und dazu zwangen, sie wiederum auf speziellen, sehr leistungsfähigen Rechnern zu implementieren, den so genannten Workstations.

Unausgelastete dedizierte Server

Aber im Großen und Ganzen entwickelte sich Client-Server-Computing für eine längere Periode zur Leitinfrastruktur der IT in wohl den meisten Unternehmen. C/S-Computing führte aber dazu, dass die Server in der Regel extrem wenig ausgelastet waren, oft nur zwischen 10 und 20 Prozent.

Das war der Ausgangspunkt für die Virtualisierung. Einer der Hauptakteure im Markt war und ist VMware, mit dem Hypervisor, dem Kern der Hardware-Abstraktion, und den dazugehörigen Management-Tools nach wie vor in Konkurrenz zu Microsoft und Open-Source-Software wie KVM. Per Servervirtualisierung lassen sich mehrere Dienste auf einem Rechner unterbringen. Entsprechende Anbieter deklarierten in einem solchen Umfeld den gelegentlich noch vorhandenen, mittlerweile meist Unix-fähigen Mainframe nun als einen größeren Server.

Die Cloud löst Client-Server-Infrastrukturen ab

Dann kam die Cloud, eine voll 'durchvirtualisierte' Infrastruktur, bei der alle Ressourcen als steuerbarer Pool funktionieren. Durch sie vollzieht sich der langsame Abschied vom Client-Server-Paradigma.

Heute übernehmen 'cloudifizierte' interne oder externe Rechenzentren und die von ihnen angebotenen Infrastruktur-, Plattform- oder Software-Dienste immer mehr die Rolle, die früher die physikalischen Server in der Client-Server-Landschaft oder der Mainframe gespielt haben.

Der Server wird in der Cloud virtuell und flexibel

Natürlich arbeiten auch in Cloud-Infrastrukturen Server. In der Regel sind sie in virtuelle Maschinen (VM) verpackt, der Provider man mehr oder weniger beliebig innerhalb der Hardwareressourcen verschieben kann. Dedizierte Maschinen sind möglich, aber sehr viel teurer.

Und wo es noch Mainframes gibt, beeilen sich die Hersteller, sie mit Softwarebrücken in die virtualisierte Cloud-Welt auszurüsten. Wenig überraschend, beteuern sie, eigentlich seien die Boliden doch nichts anderes als ein großes Cloud-Rechenzentrum.

(ID:47079686)