Was tun zur Vermeidung von Server-Lasten?

Eine Handvoll Faktoren, die Server-Workloads beeinträchtigen

| Autor / Redakteur: Crucial / Ulrike Ostler

Die 353 von Spiceworks ausgewählten Befragten mussten über Einfluss auf den Beschaffungsprozess in ihrer Organisation verfügen. Die Befragten waren so gut wie gleichmäßig über vier Länder verteilt (USA, UK, Frankreich und Deutschland), mussten über mindestens 30 physikalische Server verfügen und Virtualisierungssoftware verwenden. Insgesamt waren 23 Industriezweige vertreten (von Technologie über Energie bis zur Fertigung) und 74 Prozent der Befragten betrieben mindestens 100 Server, wobei 41 Prozent für mehr als 200 Server verantwortlich waren.
Die 353 von Spiceworks ausgewählten Befragten mussten über Einfluss auf den Beschaffungsprozess in ihrer Organisation verfügen. Die Befragten waren so gut wie gleichmäßig über vier Länder verteilt (USA, UK, Frankreich und Deutschland), mussten über mindestens 30 physikalische Server verfügen und Virtualisierungssoftware verwenden. Insgesamt waren 23 Industriezweige vertreten (von Technologie über Energie bis zur Fertigung) und 74 Prozent der Befragten betrieben mindestens 100 Server, wobei 41 Prozent für mehr als 200 Server verantwortlich waren. (Bild: Crucial)

Cloud ist in - von Beta-Test-Applikationen bis hin zum Hosting von kritischen Datenpaketen. Laut Studien (siehe: Link) sollen 83 Prozent des Datenverkehrs in drei Jahren cloud-basiert sein, 65 Prozent sind es bereits jetzt. Mit der zunehmenden Beliebtheit der Cloud-Speicherung wächst jedoch auch die Anforderung an die Arbeitslast der genutzten Server.

Da ist es keine Überraschung, dass 47 Prozent der IT-Profis planen, ihre Server durch mehr Speicherleistung aufzustocken, obwohl die Hälfte ihrer Server ohnehin schon mit dem Maximum an Speicher betrieben wird, besagt eine Umfrage, die im Auftrag von Crucial von Spiceworks im März 2016 durchgeführt wurde.

Der Server-Speicher ist eine Komponente, die ihren Dienst entweder ausreichend oder nicht ausreichend erfüllt. Wer über ausreichend Arbeitsspeicher für seine Workloads verfügen, denkt wahrscheinlich gar nicht mehr an RAM und konzentriert seine Energien auf andere Problemlösungen. Im Gegensatz hierzu bedeutet unzureichender Arbeitsspeicher, dass Server und Produktivität des Unternehmens im Schneckentempo arbeiten, da die CPUs über DRAM versorgt werden.

Die fünf größten Einschränkungen

Dies ist auch der Grund, warum in einer aktuellen Spiceworks-Umfrage bei mehr als 350 IT-Entscheidern 47 Prozent erwähnten, dass sie im kommenden Jahr den Arbeitsspeicher für Server erhöhen möchten, obwohl die Hälfte ihrer Server schon mit einer maximalen Arbeitsspeicher-Kapazität arbeitet. Dies überrascht nicht, da Arbeitsspeicher helfen, die fünf wichtigsten Einschränkungen der Arbeitslast zu kompensieren.

In der Spiceworks-Umfrage (siehe: Grafik) konnten die IT-Profis und Datencenter-Verantwortlichen bis zu drei Faktoren auswählen, die ihrer Meinung die größten Herausforderungen hinsichtlich ihre IT-Arbeitsleistung darstellen und diese möglicherweise negativ beeinflussen.

1. Begrenztes Budget bei rund der Hälfte

Wenn man das Beste aus einem schwindenden Budget machen möchte, geschieht dies oft über den Vergleich von Beschaffungskosten mit den Gesamtbetriebskosten. Wenn die Server-Effizienz erhöht wird, verringern sich die Gesamtbetriebskosten, da eine Leistungssteigerung über den gleichen Zeitraum erzielt wird. Da Arbeitsspeicher die Prozessorkerne versorgen, sind sie die effektivere Lösung bei der Erhöhung der Leistung und Produktivität einer CPU, denn sie haben Einfluss auf die Arbeitslast, ohne dass neue Server angeschafft werde müssen.

Anders ausgedrückt: Ein größerer Arbeitsspeicher ist eine effektivere Systemressource beim Datentransfer zur CPU. Je schneller Daten bei der CPU ankommen, desto geringer ist deren Leerlauf, bei dem zwar Energie verbraucht, aber keine oder kaum Leistung erbracht wird.

Da sich der Speicher außerdem näher an der CPU befindet, ist die Dauer des Datentransfers von DRAM an CPU geringer als vom Speicher zur CPU. Beispielsweise braucht der Datentransfer von einer Festplatte zur CPU in der Regel Millisekunden, im Unterschied zu SSDs, bei denen Daten die CPU in Mikrosekunden erreichen.

Wie lange dauert die Datenübertragung zur CPU?
Wie lange dauert die Datenübertragung zur CPU? (Bild: Crucial)

Dies ist auf jeden Fall eine elementare Verbesserung, jedoch bei einer höheren Latenzzeit als beim DRAM, bei dem Daten in Nanosekunden zur CPU gelangen (bei der Latenzzeit führt natürlich geringerer Wert zu einem besseren Ergebnis). Berücksichtigt man die Millionen Befehle, die täglich zum Prozessor gelangen, bedeutet ein Datentransfer vom Arbeitsspeicher zur CPU einen signifikanten Leistungsunterschied.

2. Unerwartete Anforderungen bei 32 Prozent

Bei virtualisierten Arbeitslasten handelt es sich um die Erhaltung einer konsistenten Servicequalität (QoS) und die Eliminierung einer einmal „ja“-/einmal „nein“-Abweichung. Insgesamt hilft mehr RAM, Service-Abweichungen zu verhindern, da dadurch virtuellen Anwendungen zusätzliche Ressourcen für aktive Daten und deren Nutzung bereitgestellt werden (die im Arbeitsspeicher beheimatet sind).

Da Spitzen von unvorhersehbaren Arbeitslasten schnell zum Verbrauch von Arbeitsspeicher führen, versucht das System, freie Ressourcen zu finden und es entstehen Leistungsabfälle und typischerweise auch Datenträgerabfall. Durch die Vergrößerung des Arbeitsspeichers wird dieses Problem gelöst, indem Anwendungen mit steigenden und fallenden und potenziellen Spitzen-Arbeitslasten flexibler umgangen werden können.

3. Eingeschränkter Platz bei 25 Prozent

Platzbedarf ist ein Problem, das konstruktiv gelöst werden will: Wie hoch ist das Minimum der Server, die man braucht, um die Arbeitslast zu bewältigen?

Wenn das Platzangebot eingeschränkt ist, kann man wirklich nur eines tun: vertikal skalieren.
Wenn das Platzangebot eingeschränkt ist, kann man wirklich nur eines tun: vertikal skalieren. (Bild: Crucial)

Diese Denkweise hilft, den Platzbedarf im Unternehmen zu optimieren, da für jeden nicht vollständig ausgelasteten Server unnötig Geld ausgegeben wird. Wenn also zum Beispiel fünf Server mit maximalem Arbeitsspeicher ausgestattet sind, um die Arbeitslast von zehn halbausgelasteten Servern zu bewerkstelligen, dann wird Energie, Kühlung und die Gebühren für Softwarelizenzen gespart – dem größten Geldfresser.

Wenn das Platzangebot eingeschränkt ist, kann man wirklich nur eines tun: vertikal skalieren. Bei der vertikalen Skalierung wird fast ausnahmslos der vorhandene Arbeitsspeicher eines Servers erhöht, damit die Leistung optimiert und so viele virtuelle Computer (VMs) wie möglich versorgt werden.

Wie stark die Benutzerzahlen und die Menge an Daten steigt, weiß so ziemlich jeder in der IT-Branche. Doch die Konsequenzen für das eigene Unternehmen sind oft nur schwer einschätzbar.
Wie stark die Benutzerzahlen und die Menge an Daten steigt, weiß so ziemlich jeder in der IT-Branche. Doch die Konsequenzen für das eigene Unternehmen sind oft nur schwer einschätzbar. (Bild: Crucial)

4. Schneller Anstieg der Benutzerzahlen macht 25 Prozent der Restriktionen aus

Das Hosting von mehr Benutzern erfordert mehr Arbeitsspeicher, um die gleiche Servicequalität zu bewahren. Hier verhält es sich ähnlich wie bei dem Problem der unerwarteten Anforderungen. Wenn das System über mehr RAM verfügt, kann eine höhere Flexibilität gewonnen und dessen Fähigkeit erhöht werden, mit unvorhersehbaren Arbeitslastsanforderungen umzugehen, die durch einen plötzlichen Anstieg der Benutzeranzahl entstehen.

5. Hohe Energie- und Kühlkosten bei 23 Prozent

Obwohl die vollständige Bestückung eines Servers mit Arbeitsspeicher auch einen Anstieg beim Gesamtstromverbrauch bewirkt, beträgt die gesamte verbrauchte Energie oft weniger als die von mehreren nicht vollständig bestückten Servern, bei einer vergleichbaren Leistungsstufe. Mit mehr DRAM können Server - unter dem Gesichtspunkt der Arbeitslast - mit ihrem Energiebedarf effizienter umgehen (Versorgung und Betrieb der CPU). Hinzu kommt, dass durch eine Verminderung der physikalischen Server die Gesamtkosten für Energie und Kühlung eher sinken werden.

Das Vermindern der physikalischen Server bewirkt in der Regel ein Sinken der Gesamtkosten für Energie und Kühlung.
Das Vermindern der physikalischen Server bewirkt in der Regel ein Sinken der Gesamtkosten für Energie und Kühlung. (Bild: Crucial)

Workload-Probleme lassen sich durch zusätzlichen Arbeitsspeicher, nicht unbedingt durch zusätzliche Server lösen

Ein Arbeitsspeicher ist wie Brennstoff für die CPUs – solange genug davon vorhanden sind, erledigen sie reibungslos ihre Aufgaben. Es besteht jedoch ein signifikanter Unterschied zwischen dem Vorhandensein von genügend RAM und einer echten Steigerung der Effektivität einer Arbeitslast. Mit gerade genug RAM können natürlich Anwendungen ausgeführt werden, aber mit einer maximal ausgelasteten Arbeitsspeicherkapazität müssen in der Regel weniger Server eingesetzt werden und sind dennoch produktiver – und das bei geringeren Gesamtbetriebskosten.

Michael Moreland, Produktmarketing-Manager für Server-DRAM bei Crucial, sagt: „Lassen Sie Ihre CPUs nicht verhungern. Seien Sie sich über Ihre Arbeitslast im Klaren und wenn diese mit der CPU oder dem Arbeitsspeicher zusammenhängt, verbessern Sie die Effizienz kostengünstig durch mehr RAM und nicht durch mehr Server“, sagt „Konzentrieren Sie sich auf Qualität und nicht auf Quantität, wenn es um Ihre Serverbereitstellungen geht und reduzieren Sie Ihre Kosten für Strom, Kühlung und Softwarelizenzen.“

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44573473 / Komponenten)