Suchen

Welcome Software! Bye.bye Hardware.

Wie Hardware in Rechenzentren der Software weichen muss

Seite: 2/2

Firma zum Thema

Skalierung ist Trumph

Dies liegt in erster Linie daran, dass Unternehmen und auch Endanwender die tatsächliche Effizienz und Steigerung der Wertschöpfung durch die Software erhalten. Firmen wünschen sich elastische IT-Strukturen, die sich dem Bedarf anpassen – ähnlich dem Cloud Computing-Prinzip, nur eben im eigenen Rechenzentrum und umgesetzt mit günstiger, aber skalierbarer Hardware. Dafür braucht es flexible, intelligente Software auf allen Ebenen, ob für Server, Netzwerk und Storage.

Den Weg geben Startups vor.
Den Weg geben Startups vor.
(Bild: gustavofrazao/ Fotolia.com)

Dabei wird intelligente Software der Hardware vorgeschaltet. Diese benötigt nicht mehr Hardware als in zwei Höheneinheiten – auch als 2U bekannt – eines Racks passt. Bei Bedarf lässt sich einfach eine weitere 2U-Box dazustellen.

Die Software skaliert entsprechend mit – ist sie in dieser Art unflexibel, wird sie entweder nicht überleben oder angepasst. Denn in dem Maße, wie Hardware abstrahiert wird, wird sie auch austauschbar, denn technisch gesehen, lässt sich jede Hardware einsetzen. Insgesamt lassen sich so deutliche Einsparungen bei den IT- und Prozesskosten erreichen.

Interessanterweise sind es nicht die bekannten Global Player, die neuen Schwung in diesen Markt bringen, sondern Startups wie Simplivity. Sie haben die Leistungsstärke von Software erkannt und nutzen das Potenzial. Die großen Hersteller beobachten die findigen Jungunternehmen genau – und übernehmen sie kurzerhand, wenn sie sich sinnvoll verstärken können. Beispielsweise kaufte VMware für 1,26 Milliarden Dollar den Netzwerkspezialisten Nicira und integrierte dessen Lösungen in sein eigenes Produktportfolio.

Software Defined Computing verteilen Ressourcen flexibel

Heute verteilt die Software die Hardware-Kapazitäten, nicht umgekehrt – im Fachjargon heißt das Distributed, Software Defined oder Hyperconverged Computing. Ursprünglich kamen diese Verfahren bei Projekten zum Einsatz, die sehr viel Rechenleistung erforderten, etwa bei der Pharmaforschung. Inzwischen sind die Konzepte im Massenmarkt angekommen, brechen die früheren Silo-Strukturen für Bereiche wie Storage oder Server auf und verteilen die Rechner-Ressourcen intelligent nach Bedarf. Die Leistungsstärke der Hardware wird dabei vorausgesetzt, sie ist selbstverständlich geworden, selbst bei anspruchsvollen Vorhaben wie Business Analytics.

Eine Sache ist nicht mehr von der Hand zu weisen: Die Bedeutung der Software nimmt in dem Maße zu, wie die der Hardware abnimmt. Dadurch entstehen neue Betriebskonzepte und -prozesse, die das IT-Management effizienter gestalten.

Der Autor, Maik Hähnel, ist Executive Enterprise Architect Data Center Services bei Fritz & Macziol.
Der Autor, Maik Hähnel, ist Executive Enterprise Architect Data Center Services bei Fritz & Macziol.
(Bild: Fritz & Macziol)

Unsere Erfahrung bei Fritz & Macziol zeigt, dass Unternehmen im täglichen Betrieb beispielsweise allein beim IT-Management mit der richtigen Software im Bereich Storage bis zu 80 Prozent der Kosten einsparen können. Denn: Heterogene IT-Landschaften können durch den Einsatz intelligenter Software effizienter und einheitlicher genutzt werden. Hier gilt es die eigene IT-Infrastruktur kritisch zu prüfen, um neue Chancen nicht ungenutzt zu lassen und die Weichen für eine Software-geprägte Zukunft zu stellen.

*Zum Autor:

Maik Hähnel ist Executive Enterprise Architect Data Center Services bei Fritz & Macziol, wo er in dieser Funktion Kunden auf die internen und externen Herausforderungen der IT strategisch berät, sowie hocheffiziente IT-Strukturen designt und deren Umsetzung und Transformation begleitet. Bei Fritz & Macziol ist er bereits seit 2005 in verschiedenen Consulting-Bereichen für Cisco, IBM, VMware, Citrix und Microsoft tätig. Zuvor war er ab 1999 Consultant Technical PreSales Support for IBM pSeries bei der IBM Deutschland GmbH.

(ID:43606589)