Nicht Produkte sondern Lösungen für Big Data, Virtualisierung und Ausfallsicherheit

Durchgeplant: Ein neues IT-Design im Rechenzentrum

| Autor / Redakteur: Stefan Fehr / Ulrike Ostler

Stefan Fehr schildert in einem umfangreichen Artikel, wie die verschiedenen Anforderungen und technischen Lösungen ineinander spielen, wenn die Rechenzentreums-IT neu aufgesetzt werden soll.
Stefan Fehr schildert in einem umfangreichen Artikel, wie die verschiedenen Anforderungen und technischen Lösungen ineinander spielen, wenn die Rechenzentreums-IT neu aufgesetzt werden soll. (Bild: Fotolia/ Andreas Härtle)

Gesucht werden geeignete Lösungen für Big Data, Virtualisierung und Ausfallsicherheit. Doch welche gibt es? Und warum entscheiden sich immer mehr Unternehmen für ein komplettes Re-Design ihres Datacenter? Wie wäre es mit Cisco, VMware, EMC und, oder VCE?

IT für Unternehmen nimmt einen immer höheren Stellenwert ein. Dafür gibt es verschiedene Gründe. Einer ist die elektronische Abbildung von operativen Geschäftsprozessen in geeigneten Systemen. Ein anderer der uneingeschränkte Zugriff auf Daten von jedem Ort zu jeder Zeit. Steht die Abbildung von Geschäftsprozessen eher im Fokus des Unternehmens, so ist der permanente Datenzugriff auch ein von Anwendern getriebenes Thema.

Mit dem Aufweichen bekannter Arbeitszeitmodelle sowie dem Einsatz unterschiedlicher mobiler Endgeräte, werden an Daten und IT erweiterte Anforderungen gestellt. Wurde in den letzten Jahren an einer performanten Bereitstellung der Daten über LAN und WAN gearbeitet, sind heute die Herausforderungen eines schier unendlichen Kapazitätsbedarfs sowie einer permanenten rund um die Uhr Verfügbarkeit zu lösen.

Bausteine jedes Rechenzentrums

Die Ebenen eines Datacenters (siehe: Abbildung 1), gleich welcher Größe, werden immer durch die Grundbausteine Storage, Netzwerk, Server und Backup gebildet. Üblicherweise werden Server und Speichersystem für den benötigten Block-Zugriff über dedizierte Fiberchannel-Strecken verbunden.

Eine Bereitstellung von unstrukturierten Daten auf einem NAS-Device erfolgt durch separate Anbindungen über Ethernet und zusätzlichem Speicher- und Netzwerkequipment. Eine Absicherung der Daten erfolgt üblicherweise auf einem Backup-System in einem vom produktiven Datacenter abgetrennten Brandabschnitt.

Doppelt ausgelegte Netzteile in den physikalischen Hosts, redundante Pfade zwischen Storage und Host, virtuelle Port Channel auf dem Ethernet und redundante Bauteile in dem Storagesystem geben ein hohes Maß an Sicherheit und Verfügbarkeit. Bei einem geeigneten Sicherungsmodell lässt sich so das RTO, also die Zeit die nach einem Ausfall benötigt wird bis die Geschäftsprozesse wieder lauffähig sind, massiv reduzieren. Neue Dienste werden durch Hinzufügen von Servern und Anbindung an die entsprechenden Speichersysteme bereitgestellt.

Ergänzendes zum Thema
 
Ohne Abstraktionsschichten in der RZ-IT geht gar nichts

Wo bleibt die Elastizität?

Diese dem Design geschuldete Vorgehensweise bietet jedoch nicht die nötige Flexibilität, welche an heutige Rechenzentren gestellt wird und bewegt die IT Abteilungen und Betreiber ebensolcher zu einem Umdenken. Skalierbarkeit, Elastizität sind heute genauso wichtig wie Performance und Kapazität. Beim stumpfen Stapeln von Servern für jede neue Anforderung ist nicht nur die Zeit der limitierende Faktor.

Begrenzte Datacenter-Fläche und eine nicht mehr zu erbringende energetische Versorgung sind viele Unternehmen durch die Virtualisierung ihres Datacenter begegnet. Oft wird hier stumpfes Stapeln von Servern durch stumpfes Virtualisieren auf vorhandener Physik ersetzt.

Eine konsequente, aufeinander aufbauende Nord-Süd-Abstraktion für die Erhöhung der Verfügbarkeit und der Möglichkeit einer zentralen und dynamischen Provisionierung wird meist erst im zweiten und dritten Schritt eines Datacenter Re-Designs betrachtet. Eine ganzheitliche Betrachtung ist jedoch immer wichtig, auch dann, wenn nur dedizierte Layer eines Datacenter getauscht oder erneuert werden sollen.

Die Virtualisierung ändert alles

Mit dem Einsatz einer Server-Virtualisierungs-Schicht hält ein bis dahin nicht dagewesenes Maß an Skalierbarkeit und Elastizität Einzug in die x86-Welt der IT Abteilungen (siehe: Abbildung 2). Richtig Schwung bekommt man aber erst, wenn innerhalb eines Redesign die einzelnen Datacenter-Ebenen miteinander verzahnt werden.

Mit einem Unified Storage werden nicht nur die Grenzen zwischen Block und File gelockert, vielmehr trägt ein solches System durch Plug-Ins in der virtuellen Umgebung, wie das von EMC verfügbare VSI-Plugin, zu einer optimalen Integration und Automatisierung im Datacenter bei. Damit werden die Administratoren in die Lage versetzt, eine Provisionierung des Storage aus dem vCenter heraus durchzuführen ohne das Speichersystem direkt zu verwenden.

Konvergierte Netzwerkstrukturen tragen maßgeblich zu einer weiterführenden Konsolidierung im Rechenzentrum bei. Optisches Merkmal ist eine massiv reduzierte Verkabelung (siehe: Abbildung 3).

Was meinen Sie zu diesem Thema?
Die Technologie bietet sehr viele Vorteile jedoch sollten die SFP+ (10GB) auf Basis von Twinax...  lesen
posted am 01.10.2012 um 15:06 von PStavirz


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 35856290 / Services)