RAM in virtualisierten Anwendungen Mehr als die Hälfte spart zu viel RAM beim Virtualisieren

Autor / Redakteur: Crucial* / Ulrike Ostler |

In einer aktuellen Studie zur Virtualisierung befragte das Unternehmen Crucial über 350 IT-Manager zur Verwendung von Speicher pro virtualisierte Anwendung. Das Ergebnis: Mehr Random Access Memory (RAM) wäre gut.

Anbieter zum Thema

Im übertragenen Sinn lassen sich in den meisten virtuellen Umgebungen die RAM-Speicher mit der Lupe suchen.
Im übertragenen Sinn lassen sich in den meisten virtuellen Umgebungen die RAM-Speicher mit der Lupe suchen.
(Bild: @2016 Igor Stevanovic, [**] Bits And Splits/Fotolia.com)

Die von Crucial befragten IT-Profis berichteten zwar über eindeutige Vorteile von mehr Speicher – mehr VMs pro physischem Server - bessere Servicequalität, reduzierte Festplattenüberlastung und bessere Reaktionsmöglichkeiten auf unvorhersehbare Arbeitslastanforderungen - gleichzeitig gaben aber nur 46 Prozent an, dass die auf ihren Servern installierte Speichermenge ausreichend war, um die Anforderungen zu erfüllen. Dieses Muster traf auf fast alle befragten Branchen und Länder zu, bei Unternehmen unterschiedlicher Größen mit 30 bis über 200 physischen Servern. In Deutschland stammte mehr als ein Drittel aus IT-Service-Unternehmen und Herstellung. Hier einige Ergebnisse der Umfrage:

Im Durchschnitt führen IT-Profis in Deutschland rund 29 virtuelle Maschinen (VMs) pro physischem Server aus. Doch welche Applikationen werden virtualisiert? Die Mehrheit nutzt die Virtualisierung für speicherintensive Anwendungen wie Datenbank, Datenaustausch und E-Mail-Verkehr:

Anwendung Prozent
Datenbank 74
Datenaustausch 51
E-Mail 62
Webhosting 49
Big Data/Analytic 52
Active Directory 45
Content Hosting 36
Content Creation 31
VDI/RDP 20
Andere 1
Welche Anwendungen werden virtualisiert?

Befragt nach der Wichtigkeit des Speichers für den optimalen Ablauf bei der Virtualisierung sahen 100 Prozent aller Befragten den größten Stellenwert von Speicher in den Bereichen Webhosting, Big Data und Content Hosting.

Die große Mehrheit der befragten IT-Manager in Deutschland verwenden mehr als 64 Gigabyte pro VM für die Ausführung anspruchsvoller Anwendungen. Hier einen Übersicht:

Anwendung Zwischen 65 und128 GB 129 GB und mehr
Datenbank 24 Prozent
39 Prozent
Datenaustausch 21 Prozent 45 Prozent
E-Mail 30 Prozent 30 Prozent
Webhosting 18 Prozent 41 Prozent
Big Data/Analytik 35 Prozent 48 Prozent
Active Directory 28 Prozent 44 Prozent
Content Hosting 39 Prozent 22 Prozent
Content Kreation 28 Prozent 39 Prozent
VDI/RDP 42 Prozent 17 Prozent
Andere 0 Prozent 100 Prozent
Wie viel Bytes verwenden Sie pro virtualisierter Anwendung?

Fast ein Drittel (32 Prozent) der befragten IT-Profis gab an, dass unerwartete oder unvorhersehbare Arbeitslastanforderungen eine Herausforderung sind, der sich ihr Unternehmen derzeit stellen muss. Mehr Speicher war deutlich das Mittel der Wahl, um besser auf unvorhersehbare Arbeitslastanforderungen reagieren zu können.

Lediglich 46 Prozent aller IT-Profis sagten, dass sie die von ihnen installierte Speichermenge ausreichend für ihre aktuellen Arbeitslastanforderungen halten. In Deutschland sehen jedoch 49 Prozent angesichts eines limitierten IT-Budgets eine Herausforderung darin, die Einschränkungen in der Server-Auslastung zu überwinden.

Ein Upgrade durch Speichererweiterung ist für gut die Hälfte daher die Lösung, um kostensparend eine Systemverbesserung zu erzielen. Nahezu die Hälfte aller IT-Manager (47 Prozent) plant ein RAM-Upgrade für das nächste Jahr.

Vorbereitung für zukünftige Server-Arbeitslasten

Ohne Zweifel werden virtuelle Arbeitslasten ansteigen. Die Frage ist: „Um wie viel? Und auf welche Art und Weise?“ Unternehmen brauchen höchstwahrscheinlich mehr, als sie heute verwenden, denn für die größeren Arbeitslasten von morgen wird mehr Speicherleistung erforderlich sein.

Michael Moreland, Produktmarketing- Manager für Server-DRAM bei Crucial, sagt: „Es ist nicht immer praktikabel oder möglich, den Speicher eines physischen Servers voll auszuschöpfen. Aber für virtualisierte Anwendungen gibt es fast keine Nachteile einer Installation von 32-GB-Modulen in jedem Slot, insbesondere bei anspruchsvollen Anwendungen.“

Module mit hoher Dichte seien wichtig; denn sie seien normalerweise nicht nur kosteneffizienter, sondern machten die Skalierbarkeit auch zukunftsfähig – denn sie gäben die Möglichkeit, die Speicherleistung in der Zukunft zu steigern, wenn die Arbeitslasten zunähmen.

„Server-Speicher sind eine langfristige Investition, bei der es nie nur um die aktuelle Arbeitslast geht. Es geht auch um die Arbeitslasten der absehbaren Zukunft, denn Speicher ist oft der limitierende Faktor“, so Moreland.

Am schonendsten für das IT-Budgetsei Folgendes: Unternehmenswichtige Anwendungen mit hohem Wachstumspotential ermitteln und dann zukunftsfähige 32-GB-Module RAM-Module installieren. So seien optimale Servicequalität und Skalierbarkeit garantiert, zu einem normalerweise niedrigeren Preis im Vergleich zu mehreren Modulen mit niedrigerer Dichte.

* Alle Ergebnisse aus der Umfrage vom März 2016 mit 353 IT-Entscheidern in den USA, in Großbritannien, Deutschland und Frankreich (gleichmäßige Aufteilung der Befragten nach Regionen). Um für die Umfrage infrage zu kommen, mussten IT-Profis Einfluss auf den Beschaffungsprozess haben, Virtualisierungssoftware verwenden und mindestens 30 physische Server haben. Die Umfrage wurde von Spiceworks durchgeführt.

Artikelfiles und Artikellinks

(ID:44288332)