Suchen

Planung und Strukturierung der Hardware-Beschaffung Der Weg zum passenden Server

Autor / Redakteur: Tobias Tinat und Michael Haderer* / Ulrike Ostler

Steht die Anschaffung neuer Server-Hardware an, ist mehr zu bedenken als möglichst viel Power für möglichst wenig Euro. Fehlentscheidungen bei der Beschaffung ziehen entweder Folgekosten nach sich, oder es wird -- bei Üperprovisionierung -- Kapital in ungenutzter Hardware gebunden. Beides trägt selten zur Beliebtheit der IT-Abteilung bei Controlling und Unternehmensleitung bei. Außerdem entsteht erheblicher Aufwand, sollte sich im Nachhinein herausstellen, dass Anwendungen und Dienste mit dem neuen Server nicht zurechtkommen und erneut migriert werden müssen.

Firma zum Thema

Eine Entscheidung aus dem Bauch heraus sollte die nächste Hardware-Anschaffung nicht sein. Die Autoren,Tobias Tinat und Michael Haderer von der Thomas-Krenn AG, haben eine kleine Systematik aufgestellt, die die Server-Wahl erleichtern kann.
Eine Entscheidung aus dem Bauch heraus sollte die nächste Hardware-Anschaffung nicht sein. Die Autoren,Tobias Tinat und Michael Haderer von der Thomas-Krenn AG, haben eine kleine Systematik aufgestellt, die die Server-Wahl erleichtern kann.
(Bild: Fuzzy Mannerz auf Pixabay)

Der Hardware-Beschaffungsprozess sollte zwar zügig und ohne überbordende Bürokratie, aber doch mit so viel Struktur wie nötig angegangen werden. Dabei ist der Blick über den Tellerrand der IT wichtig. Rahmenbedingungen wie Entwicklung von Mitarbeiterzahlen, Standort-Entwicklung, allgemeine IT-Trends, Abschreibungs- und Finanzierungsregeln müssen genauso in die Entscheidung einfließen wie technische Anforderungen. Um dem Ganzen etwas Struktur zu verleihen, hat sich die „MULCAF“-Regel aus sechs Punkten bewährt:

  • Motivition
  • Use Case
  • Life Span
  • Components
  • Additional Services
  • Finance

Dabei legen die ersten drei Punkte die Rahmenbedingungen fest, die nächsten zwei führen direkt zur Auswahl der passenden Systeme und damit verbundener Service- und Support-Pakete, der letzte beschreibt, wie die Anschaffung finanziert wird und in der Bilanz des Unternehmens auftaucht. Es ist also klar, dass die Punkte nur eingeschränkt Top-Down abgearbeitet werden können, sondern im Zusammenhang gesehen werden müssen.

Motivation

Die Motivation, also die Begründung, warum neue Server her müssen, passt so gut wie immer in zwei Gruppen:

Erstens: Vorhandene Dienste und Anwendungen brauchen eine neue Hardware-Basis. Entweder weil die alte den Anforderungen aus technischer Sicht nicht mehr genügt (etwa zu viele Nutzer oder Daten, gestiegene Performance-Anforderungen neuer Versionen vorhandener Software), weil abgeschriebene Systeme ersetzt werden sollen oder weil die Hardware nicht oder nur noch eingeschränkt supported wird.

Bei geschäftskritischen Anforderungen ist dies riskant, denn irgendwann sind Komponenten dafür nicht mehr verfügbar und können, wenn überhaupt, nur noch auf dem Graumarkt oder refurbished besorgt werden. Der Anwender ist dann selbst dafür verantwortlich, sie zu beschaffen und einzubauen. Der Aufwand dafür ist hoch und der Erfolg nicht immer garantiert. Besonders unangenehm tun sich hier proprietäre Storage-Systeme hervor, für die es irgendwann keine Medien mehr gibt. Aber auch bei Off-the-Shelf-Hardware kommt das Ende oft früher als gedacht. Zum Beispiel stellt Mischbestückung mit RAM-Riegeln unterschiedlicher Hersteller und Spezifikation, weil die Originale nicht mehr verfügbar sind, eine häufige Problemquelle dar.

Zweitens: Neue Dienste und Applikationen brauchen auch neue Server, aber nicht immer auch neue Hardware. Vor allem wer sich rechtzeitig um eine flexible virtualisierte Infrastruktur gekümmert hat, benötigt unter Umständen nur ein paar virtuelle Maschinen mehr und hat die erforderlichen Kapazitäten frei.

Bei größeren Projekten, etwa einer ERP-Einführung oder Systemwechsel, BI- oder KI-Implementierungen, wird das meist nicht der Fall sein. Hier macht aber die Hardware meist nur einen geringen Anteil am Gesamtbudget aus.

Das ist Fluch und Segen zugleich. Einerseits entgeht man eher dem spitzen Bleistift des Controlling. Andererseits streut nonchalante Ansatz „Dann nehmen wir eben später mehr Blech“ unter Umständen Sand ins Projektgetriebe, wenn die Hardware nicht permanent mitgedacht und einbezogen wird.

Sonderfall Rückmigration aus der Cloud

Einen Sonderfall bildet die Rückmigration von Diensten aus der Cloud in den eigenen Serverraum. Solche Fälle treten aus Kosten- oder Compliance-Gründen in den letzten Monaten wieder häufiger auf.

Dabei legen die Software-Hersteller die Hürden für für den On-Premise-Betrieb oft hoch, auch hardwareseitig. Ein Beispiel ist „Microsofts Exchange-Server“, der in der 2019er Version stolze 128 Gigabyte (GB) RAM verlangt.

Hinzu kommt, dass sich je nach genutztem Cloud-Service-Modell nur beschränkt verwertbare Erkenntnisse für den On-Premise-Betrieb gewinnen lassen. Hier ist im Zweifelsfall eher etwas mehr Luft nach oben gefragt.

Der Use Case

Zum Use Case gehört alles, was mittelbar oder unmittelbar mit dem Zweck der Anschaffung zu tun hat -- außer den geplanten Diensten und Applikationen auch der Kontext: Standortbedingungen und vorhandene Infrastruktur, Verfügbarkeits-Anforderungen, Business-Continuity, Virtualisierungsgrad und Virtualisierungsplattform, Betriebssystem. Hier empfiehlt es sich, in dieser Reihenfolge, also ´von außen nach innen` vorzugehen und dann erst die Anforderungen der Applikation selbst zu betrachten.

Standort und Infrastruktur

Standortbedingungen können die Auswahl der in Frage kommenden Server von vornherein einschränken. Das gilt vor allem, wenn sie in einer eher unüblichen Umgebung eingesetzt werden müssen und beispielsweise nach Staub- und Wasserschutz verlangen oder gar nach IP-Schutzklassen zertifiziert sein müssen.

Die günstigste Möglichkeit sind dann passiv kleine, gekühlte, komplett geschlossene Systeme, die aber hinsichtlich Rechenleistung, Speicherausbau und Storage-Kapazitäten längst nicht an Rack-Server herankommen. Geschützte Industrie-Server im 19-Zoll-Chassis bilden eine weitere Alternative. In kleinen Unternehmen oder Filialen muss der Server oft im Büro platziert sein, dann spielt Geräuschentwicklung eine Rolle. Bei geringen Ansprüchen an die Verfügbarkeit ist eine Silent-Lösung mit leisen Lüftern und Netzteilen möglich, redundante Netzteile in Tower-Servern aber sind ohne einen gewissen Schallpegel nicht zu haben.

Wird das neue System artgerecht im Serverraum gehalten, ist neben dem Platz im Rack auch zu prüfen, ob Unterbrechungsfreie Stromversorgungen (USVs) sowie Klimatisierung ausreichen, Netzwerk-Connectivity und Bandbreite vorhanden sind. Dies sind natürlich nur Beispiele. Ratsam ist es, eine individuelle Checkliste für Standort- und Infrastruktur-Parameter anzulegen.

Verfügbarkeit und Business Continuity

Ausfallsicherheit und Hochverfügbarkeit (HA) ist immer eines der wichtigsten Ziele der IT, kollidiert aber mit anderen Ansprüchen wie dem Wunsch nach möglichst geringer Komplexität und niedrigen Kosten. Dabei besteht einerseits die Möglichkeit, durch hochwertige und redundante Komponenten innerhalb eines Server dessen Zuverlässigkeit zu erhöhen, oder aber mehrere Server in einem HA-Cluster zu bündeln, heute in der Regel verbunden mit Server- und Storage-Virtualisierung.

Je nach eingesetzter Software-Lösung sind dafür mindestens zwei, meist aber drei physische Server einzuplanen. Für kleinere Unternehmen kann beispielsweise ein Zwei-Node-Cluster mit „Windows Server 2019“ mit „Storage Spaces Direct“ ohne zusätzliche Software bereits ausreichen. Generell sollte man auf etablierte oder von Hardware-Anbieter explizit unterstützte Software-Plattformen zurückgreifen, etwa „VMware HA“ oder bei ausreichend Linux-Knowhow auch die Open-Source-Plattform „Proxmox“ mit ihrer eingebauten HA-Lösung.

Bei nicht business-kritischen Anwendungen lassen sich eventuell durch ein Planspiel die Folgen eines Ausfalls abschätzen. Wer das Risiko kennt und bewusst in Kauf nimmt, spart nicht nur Kosten für die Hardware, sondern braucht auch weniger Geld für Software-Lizenzen. Entscheidend ist aber immer -- und das gilt auch für HA-Szenarien -- eine ausreichende Backup-Kapazität und ein erprobtes Backup-System, das im Ernstfall ein schnelles und zuverlässiges Restore erlaubt.

Die Virtualisierung

Virtualisierte Server sind heute eher die Regel als die Ausnahme. Die gewonnene Flexibilität, die ein Hypervisor mitbringt, wiegt die zusätzliche Komplexität so gut wie immer auf. Als Hypervisor sind derzeit nur noch „VMware vSphere“, „Hyper-V“ von Microsoft und der Linux-eigene Hypervisor „KVM“ und darauf aufbauende Plattformen wie Proxmox relevant.

Beim Einsatz gilt es auf zertifizierte Hardware, beispielsweise für VMware vSphere zu achten, und zwar bis hinunter auf die Komponenten-Ebene wie etwa Netzwerkkarten oder RAID-Controller. Wird ein Windows-Server-Betriebssystem mit Hyper-V eingesetzt, muss die Hardware lediglich den Anforderungen von Windows Server genügen. Für KVM existiert naturgemäß keine Hardware-Zertifizierung, Anwender liegen aber auf der sicheren Seite, wenn sie die von manchen Server-Herstellern angebotenen für Proxmox oder zumindest Debian-Linux getesteten Systeme verwenden.

Das Betriebssystem

Bei Microsoft-Server-Systemen ist nicht nur die Hardware-Kompatibilität entscheidend, sondern vor allem die optimale Abstimmung der CPU(s) mit den Lizenzanforderungen. Beim aktuellen Core-basierten Lizenzmodell spart man beispielsweise erheblich, wenn man CPUs mit nur acht Kernen oder weniger einsetzt. Die Anforderungen der Anwendung, das Lizenzmodell und die CPUs aufeinander in dieser Hinsicht aufeinander abzustimmen, kann eine komplizierte Angelegenheit sein, die sich am besten zusammen mit Vertriebsberatern des Hardware-Herstellers erledigen lässt.

Life Span

Auch die geplante Nutzungsdauer des Servers wirkt sich auf Beschaffungsentscheidungen aus. Typischerweise wird entweder beim Ende der Abschreibungsdauer oder beim Support-Ende über eine Neuanschaffung nachgedacht.

Abbildung 1: Die Lebenszyklen un die Lebensdauer eines Server sollte schon bei der Beschaffung geplant werden.
Abbildung 1: Die Lebenszyklen un die Lebensdauer eines Server sollte schon bei der Beschaffung geplant werden.
(Bild: Thomas-Krenn AG)

Bis dahin muss das System wartbar bleiben und sich an neue Anforderungen anpassen lassen. Bestimmt werden diese auch durch Faktoren innerhalb und auch außerhalb der IT, beispielsweise Änderungen im der Netzwerk-Infrastruktur oder geplantes Mitarbeiterwachstum, speziell bei der Storage-Planung. Abbildung 1 zeigt ein Beispiel-Szenario.

Die Komponentenauswahl

In die eigentliche Komponentenauswahl fließen alle vorher gewonnenen Faktoren ein. Abbildung 2 demonstriert dabei die typischen Planungspunkte.

Abbildung 2: Die typischen Planungspunkte bei der Komponentenauswahl
Abbildung 2: Die typischen Planungspunkte bei der Komponentenauswahl
(Bild: Thomas-Krenn AG)

Auch wenn Web-basierte Server-Konfiguratoren dabei helfen, empfiehlt sich immer spätestens an diesem Punkt ein persönliches Gespräch mit Consultants oder Vertriebsmitarbeitern des Herstellers, um Fehler auszuschließen und Alternativen zu diskutieren. Der Vertriebsberater kann auch als ´Sparring Partner` dienen, um eventuell vergessene Faktoren abzuklopfen.

Wenn die Anforderungen es zulassen, empfiehlt es sich, ein Servermodell zu wählen, das beim Hersteller zu den Bestsellern zählt. Dort ist meist der Zertifizierungsgrad für Softwarehersteller am größten, die Ausfallrate am geringsten und es liegen umfangreiche Erfahrungen im Support vor.

Additional Services

Zusatzleistungen, die Hersteller oft für kleines Geld anbieten, können bei der Inbetriebnahme viel Zeit und Nerven sparen. Dazu gehören zum Beispiel RAID-Initialisierung, Vorinstallation von Hypervisor, Betriebssystem oder gegebenenfalls sogar Anwendungssoftware.

Die Finanzierung

Bei Finanzierung und kaufmännischer Abwicklung sind neben dem Kauf auf Rechnung oder Vorkasse immer auch verschiedene Leasing-Arten möglich, um die Liquidität des Unternehmens zu schonen. Es kann prinzipiell über die eigene Hausbank erfolgen (Eigenleasing) oder über einen Leasing-Partner des Hardware-Anbieters. Letzteres hat den Vorteil, dass der Kreditrahmen bei der Hausbank nicht reduziert wird, was Auswirkungen auf die Kreditbeurteilungen nach den Basel-III-Richtlinien haben kann.

* Tobias Tinat ist Pre-Sales Consultant bei der Thomas-Krenn AG und Michael Haderer arbeitet bei der Thomas-Krenn AG als Key Account Manager.

(ID:46389906)