Klüngel, statt gut überlegtem IT-Einkauf

Professor Lindenstruth bescheinigt der IT-Beschaffung ein Mangelhaft

| Autor / Redakteur: Ariane Rüdiger / Ulrike Ostler

„TCO-Betrachtung einführen, Cloud-Gedanken konsequent umsetzen“, Professor Dr. Volker Lindenstruth, Lehrstuhl für Architektur von Hochleistungsrechnern am Institut für Informatik des Frankfurt Institute for Advanced Studies.
„TCO-Betrachtung einführen, Cloud-Gedanken konsequent umsetzen“, Professor Dr. Volker Lindenstruth, Lehrstuhl für Architektur von Hochleistungsrechnern am Institut für Informatik des Frankfurt Institute for Advanced Studies. (Bild: Privat)

Die IT-Infrastruktur in Unternehmensrechenzentren ist oft überdimensioniert und kostet demzufolge zu viel Geld. Wie sich das verhindert lässt, darüber sprach Ariane Rüdiger für DataCenter Insider mit Professor Volker Lindenstruth vom Lehrstuhl für Architektur von Hochleistungsrechnern der Goethe-Universität.

Wie kommt es, dass häufig falsch dimensionierte IT in Unternehmens-Rechenzentren steht?

Volker Lindenstruth: Das Problem ist, dass im Vorfeld nicht gut geplant und überlegt wird, was wirklich nötig ist. Wer sich einfach nur eine große Maschine bestellt, an der nichts mehr zu tun ist, der wird ganz sicher von den Herstellern gern damit beliefert – allerdings kommt dann auch die dazu passende Rechnung. Das Verfahren geht nur selten zu Lasten des Herstellers wie in einem Fall im Frankfurter Raum, den man als große Ausnahme sehen kann.

Hier war eine Maschine in der gekauften Größe noch nicht verfügbar. Man brauchte am Ende mehr Komponenten, um die gewünschte volle Redundanz herzustellen, was die Platzkapazitäten des Rechenzentrums überschritt. Also musste der Hersteller des Systems einen Container, gewissermaßen ein zweites Rechenzentrum, danebenstellen und über die vorgesehene Nutzungsdauer bezahlen – mit allem Drum und Dran: Zuleitungen, Strom, Netzanbindungen und natürlich die IT-Hardware.

Das war für ihn ganz sicher kein Geschäft. Diese Risiken werden üblicher Weise mit entsprechenden Aufschlägen beim Preis abgefangen.

Wie würden Sie in einem Unternehmen einer Organisation vorgehen?

Volker Lindenstruth: Erstens glaube ich, dass man firmenintern ein gewisses Technologieverständnis entwickeln muss. Millionen zu viel für Hardware auszugeben muss nicht sein, wenn das Unternehmen einige qualifizierte Mitarbeiter beschäftigt. Allerdings sind die rar und teuer. Deshalb kann sich die öffentliche Hand im IT-Bereich eigentlich nur Idealisten leisten.

Zweitens ist es ein Irrglauben anzunehmen, Sicherheit ließe sich durch die physische Präsenz des Rechners im eigenen Firmengebäude herstellen.

Ergänzendes zum Thema
 
DataCenter Day 2017: Treffen mit Professor Lindenstruth

Drittens ist die Auslastung von firmeninternen Servern geradezu unglaublich schlecht – selbst der durchschnittliche Hochleistungsrechner schöpft seine Kapazitäten nur zu zehn Prozent seiner Spitzenleistung aus, und in den Unternehmen sieht es schlechter aus. Deshalb spart Cloud-Abwicklung oft auf einen Schlag zwei Drittel der Kosten – denken Sie nur daran, dass Firmenserver in der Nacht zwar meist laufen, aber nichts tun. In der Cloud lässt sich das durch Verschiebung der virtuellen Maschinen besser regeln.

Aber die Firmen virtualisieren doch auch?

Volker Lindenstruth: Eben nicht. Die Virtualisierungsgrade sind nur theoretisch hoch. Fast alle Unternehmen haben irgendwo einige virtualisierte Anwendungen, aber das Konzept wird viel zu inkonsequent umgesetzt. Oft laufen Virtualisierungsprojekte auch in die Sackgasse.

Für die Frankfurt Cloud beispielsweise, an der eine Deutsche Großbank maßgeblich beteiligt war, wurde ein großangelegtes Virtualisierungskonzept entwickelt und bewertet – für 50.000 Server. Dann kam ein Vorstandswechsel, und nun geschieht nichts mehr. Es gibt selbst bei einem Helmholtz Zentrum in der Region mehr als zwei Computer pro Kopf, die rund um die Uhr laufen, automatische Abschaltmechanismen werden nicht genutzt. Auch Thin Clients und zentrale Services aus einer Private oder Public Cloud gibt es in der Realität häufig nicht, zumeist aus Datenschutzgründen.

Und deswegen bleiben Überkapazitäten stehen oder es entstehen sogar neue?

Volker Lindenstruth: Richtig: Für die vorhandene IT wird in Hinblick auf den Worst Case geplant, also steht da Überkapazität, damit alles auch bei großen Lastspitzen oder Teilausfällen weiterläuft. Eine vernünftige Planung, die Risiko und Kosten sauber gegeneinander balanciert, könnte da helfen.

Oder man müsste die überschüssigen Kapazitäten weiterverkaufen. Allerdings stößt das an Grenzen, beispielsweise an rechtliche: Unsere Universitätsrechner sind relativ gut geplant, und wir könnten technisch ohne Weiteres Ressourcen für entgeltliche externe Nutzung anbieten. Aber wir dürfen das entsprechend dem geltenden Recht des öffentlichen Diensts nicht, weil wir damit in Konkurrenz zum privaten Sektor treten würden. Das wird sehr streng gehandhabt.

Zurück zu den Unternehmen: Sie hätten also die Chance, weniger und deswegen billigere IT zu nutzen, tun es aber nicht. Warum?

Volker Lindenstruth: In vielen dieser Firmen stehen bereits teure Systeme der großen Hersteller. Seinen Hersteller kennt man lange, idealerweise vertraut man ihn nach einer bereits langjährigen Zusammenarbeit, es gibt enge persönliche Beziehungen. Das Risiko umzusteigen, ist da oft nicht sonderlich attraktiv.

Die Hersteller haben ja selbstverständlich ebenfalls kein Interesse daran, ihre Kunden zu verlieren. Sie organisieren viele sehr attraktive Veranstaltungen, während derer ihre Kontakte bei den Kunden zu Informationszwecken in teure Hotels an attraktiven Lokationen einladen und in jeder Hinsicht verwöhnt werden. Das trägt nicht gerade zur Innovationsmotivation bei. Effizienz als Ziel gerät da schnell unter den Tisch.

„Bauherren müssen mehr Eigenverantwortung übernehmen“

DataCenter Day 2017: Kritik an Datacenter-Planern und Co-Locator

„Bauherren müssen mehr Eigenverantwortung übernehmen“

06.07.17 - Oft werden Rechenzentren auch heute überdimensioniert gebaut oder nicht optimal ausgerüstet, Kostenüberschreitungen sind keine Seltenheit. Woran das liegt, darüber sprach Ariane Rüdiger für DataCenter-Insider mit Professor Volker Lindenstruth vom Lehrstuhl für Architektur von Hochleistungsrechnern am Institut für Informatik des Frankfurt Institute for Advanced Studies. lesen

Was also tun?

Volker Lindenstruth: Es wäre sinnvoll, seitens der Geschäftsführung grundsätzlich eine TCO-Betrachtung einzuführen. Sie nimmt den ganzen Lebenszyklus, also auch den verbrauchten Strom, in den Blick.

Wir schreiben beispielsweise einen Strompreis in unsere Ausschreibungen. Die Anbieter müssen dann eine Strommenge nennen, und das Gesamtvolumen aus Hardware und Verbrauchskosten entscheidet über die Auftragsvergabe.

Würde man es so machen, dann würden beispielsweise die berühmten Pizzaboxen, Server mit einer Höheneinheit, schnell aus den Rechenzentren verschwinden. Denn ihre Höhe reicht nur für sehr kleine Lüfter, die sich dafür aber umso schneller drehen müssen. Die Effizienz der Lüfter sinkt mit dem Quadrat ihrer Drehzahl. Blades sind da viel besser, weil sie zwei oder mehr Höheneinheiten groß sind und deshalb auch größere Lüfter verwenden können.

Wie sieht es mit Co-Location als Lösung aus?

Volker Lindenstruth: Co-Location ist sehr teuer pro Quadratmeter, zusätzlich berechnen die Anbieter einen sehr hohen Strompreis, auf den sie dann noch einen Faktor für die Infrastruktur aufschlagen.

Was ist von den neuen hyperkonvergenten und konvergenten Infrastrukturen zu halten?

Volker Lindenstruth: Da gibt es sehr gute, effiziente Konzepte, allerdings sind die Kosten ziemlich hoch, auch wenn man eine TCO-Betrachtung anlegt. Die Hersteller verdienen prächtig, aber da Mittelständlern das Personal fehlt, ist das für sie vielleicht doch eine Alternative, zumal die kleineren Installationen hier eher effektiver sind.

Was bringt der Austausch von Festplatten durch SSDs?

Volker Lindenstruth: SSDs können die Leistung eines Systems gegenüber Festplatten schnell verdreifachen, aber ihre Kosten pro Bit sind noch zu hoch. Die Festplatten verbrauchen zwar viel Strom, aber sie sind so viel billiger, dass sie die SSD im Massenspeicherbereich finanziell noch immer um Längen aus dem Feld schlagen. Ich würde mir wünschen, dass die SSD sich durchsetzt – auch, weil sie verlässlicher ist.

Es klingt nicht so, als hätten Unternehmen sehr viele Möglichkeiten, endlich an eine optimal dimensionierte IT zu kommen.

Volker Lindenstruth: Am besten baut man eine Verbindung zu seriösen Herstellern auf, die nicht so viel Geld für teure Werbemaßnahmen ausgeben, dafür aber gute Preise machen. Es gibt auch kleine Integratoren, die sich mit einer kleineren Marge als die großen Hersteller zufriedengeben. Sie sollten Verantwortung nicht nur für ihre Rechner, sondern für die Gesamtfunktion des Systems übernehmen.

Ansonsten wäre es ein guter Weg, den Cloud-Gedanken konsequent umzusetzen, weil er Druck in Richtung der kompletten Standardisierung der Hardware entfaltet, was letztlich ihre Austauschbarkeit und damit wieder mehr Wettbewerb und mehr Preisdruck bewirkt. Nur Virtualisierung hilft, die vorhandenen Ressourcen wirklich auszulasten, und die gibt es am konsequenteste in der Cloud.

* Ariane Rüdiger ist freie Journalsitin und lebt in München.

Was meinen Sie zu diesem Thema?
Interessanter Beitrag, jedoch gibt es zumindest zum Statement am Ende meines Erachtens eine...  lesen
posted am 17.10.2017 um 07:22 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44943896 / Server)