Zu Gast beim Host

Was ist ein Host?

| Autor / Redakteur: Ariane Rüdiger / Ulrike Ostler

Der Begriff Host hat mehrere sich überlagernde Bedeutungsebenen
Der Begriff Host hat mehrere sich überlagernde Bedeutungsebenen (Bild: © djama - stock.adob.com)

Der Begriff Host ist in der IT an vielen Stellen gegenwärtig. Er stammt bereits aus den Sechzigern, wo er zum ersten Mal als Synonym für Großrechner/Mainframes auftauchte. Heute ist er vor allem bei der Virtualisierung wichtig.

Ein Host kann in der IT im Grunde jede Ressource sein, die eine andere Ressource „als Gast“ bei sich aufnehmen beziehungsweise die mit ihr verbundenen Clients mit bestimmten IT-Diensten versorgen kann.

Der Begriff tauchte zuerst im Zusammenhang mit Großrechnern auf: Hosts sind in diesem Zusammenhang eine zentrale intelligente Hardwarekomponente des Mainframes, die allen Clients, die auf dem System arbeiteten, zur Verfügung steht. Als die PCs den Markt eroberten, befand sich auf jedem Schreibtisch ein intelligentes Gerät. Die zentrale Mainframe-Intelligenz wurde also zur Handhabung von Programmen nicht mehr unbedingt benötigt; das Konzept Master-Slave / Host-Terminal wurde durch Client-Server ersetzt.

In der Regel wurden und werden die PCs in Unternehmen vernetzt. Auch in den daraufhin entstehenden Client-Server-Infrastrukturen gab es aber einen zentralen Rechner, der übers Netz Dienste wie den Druck oder Kommunikation zur Verfügung stellte und mithin eigentlich der Host derartiger Anwendungen war. Dieser zentrale Rechner wurde aber in Abgrenzung zur Großrechnerwelt nicht mehr Host, sondern Server genannt.

Man wollte schließlich auch in Bezug auf die Namensgebung demonstrieren, dass man anders und natürlich viel fortschrittlicher war. Daran hat sich im Gegensatz zur Technologie wenig geändert.

Der Host im Zeitalter der Virtualisierung

Dann kam das Virtualisierungszeitalter, und mit ihm trennte sich der Host-Begriff endgültig von seinem untrennbaren Zusammenhang mit einem spezifischen Gerät, auf dem dann die Programme liefen. Die dieser Rechner also als Host hostete.

Denn die Virtualisierung trennte den Rechner beziehungsweise die Hardware, die früher der einzig denkbare Host für Anwendungsprogramme war (und bei dedizierten Servern heute noch ist), von der Software. Sie legte zwischen das auf dem Host-Rechner laufende Betriebssystem und darüber liegende Softwareschichten eine neue, spezielle Softwareschicht, den so genannten Hypervisor.

Auch die darüber liegende Software ändert sich: Sie besteht in virtualisierten Umgebungen nicht mehr aus Anwendungen, sondern aus virtuellen Maschinen (VMs). Sie verhalten sich, und das ist der Clou an dieser Idee, nun mehr oder weniger wie ein Host oder Server: Man kann auf ihnen alle möglichen Programme laufen lassen, die eine solche VM dann hostet wie früher ganz selbstverständlich der Hardware-Rechner.

Gleichzeitig spricht man aber auch noch immer davon, dass der Rechner, also die Hardware, das Betriebssystem und der darauf laufende Hypervisor, die VMs hosten. Im Prinzip lässt sich dieses Prinzip beliebig fortsetzen, da auch auf den virtuellen Maschinen wiederum ein Betriebssystem mit Hypervisor installiert werden könnte.

Verschachtelte Strukturen

Es ist wie mit den ineinander verschachtelten russischen Holzpuppen. Auch die werden bekanntlich immer kleiner, je mehr man sich nach innen vorarbeitet:

Alle virtuellen Maschinen, die sich auf einer Hardware befinden, teilen sich diese Hardware. Und je mehr virtuelle Maschinen auf einem Rechner laufen, der also ihr Host ist, desto weniger Ressourcen stehen der jeweiligen virtuellen Maschine zur Verfügung. Zwar kann man einer virtuellen Maschine konkret Speicher zuweisen, aber der Speicherbus wird deswegen nicht breiter.

Deshalb ist es eine Kunst, die richtige Zahl VMs auf einem Host zu platzieren, den Host dafür passend zu dimensionieren (also einen entsprechend starken Rechner auszuwählen) und die richtigen Anwendungen in jede VM zu packen. Denn ist die Mischung unglücklich, weil die Applikationen in den VMs ständig mit gleicher (hoher) Intensität auf dieselben Ressourcen zugreifen, beispielsweise die Speicherbusse, verlangsamen sie sich gegenseitig.

Dediziert, aber ohne Hardware

Das Gleiche gilt natürlich auch für jede virtuelle Maschine: Auch dort lassen sich im Prinzip mehrere Applikationen installieren - allerdings wird das eher selten getan. Der Sinn der virtuellen Maschine als Host für Applikationen ist ja gerade, zwar eine eigene Umgebung für eine Anwendung zu haben, dafür aber nicht jeweils in eine vollständige Hardware investieren zu müssen, die in nicht virtualisierten Umgebungen oft genug nur schlecht ausgenutzt wird.

Ebenfalls wichtig: Man kann auf den virtuellen Maschinen nicht nur das auf der Host-Hardware laufende Betriebssystem installieren, sondern alles, was irgendwie mit der Hardware zusammenarbeiten kann. Auf einem Host (hier: einem Rechner) können also VMs gehostet werden, auf denen beispielsweise teilweise „Microsoft Windows“ und teilweise ein Unix-Derivat als Betriebssystem installiert wurden.

Virtuelle Maschinen als Hosts - heute selbstverständlich

Das Aufsetzen virtueller Maschinen und damit ihren Einsatz als Host von Anwendungen erlauben heute mehr oder weniger alle im professionellen Bereich verbreiteten Rechnerhardware und Betriebssysteme. Technologischer Vorreiter und Marktführer bei virtualisierten Infrastrukturen auf Basis von Hypervisoren war und ist VMware, wobei inzwischen Produkte wie „Microsoft Hyper-V“ und die Open-Source-technik „KVM“ nachgezogen haben.

Inzwischen hat der Markt schon die nächste Ausweitung des Host-Begriffs vollzogen: Im Cloud-Business bezeichnet Hosting ein Geschäftsmodell.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45883364 / Definitionen)