Janusköpfige Informationstechnik Die IT als Fortschrittsmotor und Ressourcenvernichter

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Ist alles, was die IT uns bringt, echter Fortschritt? Oder ist vieles, was oberflächlich als Fortschritt erscheint, einem kurzatmigen Denken entlang momentaner Effizienzbedürfnisse geschuldet? In seinem Vortrag während des vergangenen virtuellen „Datacenter Day 2021“ hat Gunnar Schomaker der Branche humorvoll die Leviten gelesen.

Firmen zum Thema

Die IT versucht bis heute, entlang der Anwenderbedürfnisse Engpässe durch mehr Leistung zu erschlagen - das lässt sich durchaus hinterfragen.
Die IT versucht bis heute, entlang der Anwenderbedürfnisse Engpässe durch mehr Leistung zu erschlagen - das lässt sich durchaus hinterfragen.
(Bild: gemeinfrei / Pixabay )

„Wir als IT-Spezialisten haben im Diskurs über Digitalisierung und Cloud noch einiges an Hausaufgaben in Sachen Nachhaltigkeit zu machen“, leitet Gunnar Schomaker, stellvertretender Direktor des Software Innovation Campus Paderborn (SICP), einer Einrichtung der dortigen Universität, seinen Vortrag anlässlich des Datacenter Dayein.

Die IT habe sich in den vergangenen Jahrzehnten kontinuierlich verändert. Meist seien diese Veränderungen geschehen, um aufgrund von Leistungssteigerungen bei anderen IT-Komponenten oder Mehrverbrauch auftretende Bottlenecks zu beseitigen. Ganzheitlich über sinnvolle Gestaltung auch im Sinne einer nachhaltigen IT sei bislang eher weniger nachgedacht worden, meint Schomaker.

Herz, Motor und Lagerhalle

Der Wissenschaftler nutzte interessante Allegorien, um seine These zu untermauern: Die Software-Architekturen „das komplexe digitale Herz, das Daten verarbeitet“, die Hardware der „physische Motor, der vor allem Strom in Wärme verwandelt“, das Gebäude könne man auch als „Lager“ für IT und Daten betrachten. Die Vernetzung schließlich versorge uns mit der Möglichkeit, mit jedem in kürzester Zeit Informationen auszutauschen. Alle diese Bereiche seien in der Vergangenheit evolutioniert.

Was die räumliche Unterbringung angeht, schwanke die IT von jeher zwischen zentralen und dezentralen Konzepten, wobei die Leitlinie jeweils die größtmögliche Effizienz sei. Inzwischen besäßen Rechenzentren eine extrem optimierte Prozesslandschaft. Die Versorgung der IT orientiere sich dabei an Kundenbedürfnissen.

Software: Abschied vom Monolithen

Bei der Software, dem „Herz“, gehe es vom Monolithen aus in Richtung einer immer stärkeren Modularisierung, die sich aus den Bedürfnissen oder Bedarfen von Zielgruppen speise. Motor sei dabei die bessere Auslastung der Systeme gewesen und bleibe es noch heute.

Software verändert sich vom komplexen Generalisten zu immer kleineren, spezialisierten Modulen (Services), die interagieren und für jede Aufgabe individuell kombiniert werden.
Software verändert sich vom komplexen Generalisten zu immer kleineren, spezialisierten Modulen (Services), die interagieren und für jede Aufgabe individuell kombiniert werden.
(Bild: Schomaker/SICP)

Die Cloud sei gewissermaßen die nach außen verlagerte, konsequenteste Form der Virtualisierung. Sie ist verbunden mit der Auslagerung von Prozessen, um die dafür benötigten Ressourcen besser auszunutzen.

Schomaker: „Aber was ist, wenn alle gleichzeitig auf eine Ressource zugreifen? Dann entstehen wieder Bedarfsspitzen, mit denen man irgendwie umgehen muss. Das erfordert Planung und Geduld.“

Genau diese Tugenden habe einem die Just-in-Time-Mentalität in der IT aber abgewöhnt. „Keiner hat mehr Lust zu warten.“ Deshalb setze man im Zweifel auf Überkapazitäten und Mehrfachredundanzen.

Moore's Law - Amdahls Law

Ähnliche Mechanismen zeigten sich auch beim „Motor“, der Hardware. Hier sei neben Moores Law (alle zwei Jahre verdoppelt sich die Prozessorleistung) auch Amdahls Law zu berücksichtigen: Demnach hat die Parallelisierung von Rechenschritten eine Grenze, bei deren Überschreitung es zu Overhead kommt.

Gleichzeitig würden Rechner immer intelligenter – heute könne man das Gehirn einer Maus nachbilden, wahrscheinlich schon bald das Gehirn eines Menschen. Schomaker: „Hilft das? Was machen wir, wenn die Rechenleistung mal nicht da ist?“

Die Kommuniikationsillusion

Schließlich die Kommunikation. „Die größte Illusion ist, dass sie stattfindet“, sagte Schomaker und meinte das Denken und Arbeiten der IT-Spezialisten in undurchdringlichen Silos. Sie trennen einerseits die diversen Sparten im Rechenzentrum, andererseits Datacenter-IT-Personal und Anwender und schließlich Rechenzentren von außerbetriebliche Umgebung.

Das zeige sich prototypisch an den Problemen rund um die hierzulande eher seltene Datacenter-Abwärmenutzung. „Das liegt am Selbstverständnis der einzelnen Gruppen“, behauptet Schomaker.

Vom Datenjäger zum Datenentsorger

Die technischen Kommunikationsmöglichkeiten suggerierten allerdings eine „garantierte Allgegenwart von Daten“. Früher sei ein „Jäger-Sammler-Verhalten“ (Schomaker) hinsichtlich der Daten typisch gewesen.

Mit immer mehr Leistung soll längerfristige Planung umgangen und das Warten vollkommen überflüssig gemacht werden - eine aus der Nachhaltigkeitsperspektive fragwürdige Strategie.
Mit immer mehr Leistung soll längerfristige Planung umgangen und das Warten vollkommen überflüssig gemacht werden - eine aus der Nachhaltigkeitsperspektive fragwürdige Strategie.
(Bild: Schomaker/SICP)

Als man noch mit dem Modem schmalbandige Verbindungen nutzte, sei es vor allem darum gegangen, wenn die Leitung einmal stand, möglichst viele der benötigten Daten auf den eigenen Rechner herunterzuladen und dort vorzuhalten. Heute, im Zeitalter ubiquitärer Daten-Verfügbarkeit, ja, einer Daten-Überfülle, stelle sich eher die Frage, wie man Daten loswerden könne.

Roundtripzeit Null bleibt unmöglich

Das Ideal bestehe heute darin, mobile Verbindungen mit mehr oder weniger den gleichen Eigenschaften wie Kabel möglichst überall verfügbar zu haben. Die Roundtrip-Zeit solle möglichst gegen Null sinken.

Doch das gehe nun einmal nicht. Dem Echtzeit-Nutzungsgefühl, das selbst noch Verzögerungen im einstelligen Nanosekundenbereich registriere, stelle sich immer wieder die Realität entgegen.

Übertragung dauert einfach. Schomaker: „Nullzeit gibt es auch beim Quantenrechnen nur bis zum Übertragungsmedium. Ab da ist die Grenze wieder die Lichtgeschwindigkeit.“

Anteil der Internet-Nutzer, der die genannten Dienste mindestens einmal pro Monat verwendet.
Anteil der Internet-Nutzer, der die genannten Dienste mindestens einmal pro Monat verwendet.
(Bild: Globalwebindex/Schomaker/SICP)

Daher zwingen Echtzeitanforderungen und die massenweise Datenerzeugung sowie -abfrage am Netzwerkrand, dort eine weitere Schicht an Rechenzentren aufzubauen. So führten die unendlichen Beschleunigungsansprüche jeder individuellen Anwendung und jedes Anwenders letztlich zu immer neuen Verarbeitungsanforderungen, die wiederum neue Ressourcen brauchen.

Nachhaltigkeit ist Teamwork

„Letztlich tut jeder so, als müsse er das Spiel allein gewinnen“, monierte Schomaker. Dabei sei Nachhaltigkeit nur gemeinsam realisierbar – auch in der Verständigung darüber, was wirklich nötig und, global betrachtet, sinnvoll sei. Denn jeder Digitalisierungsschritt und jede neue Technologie habe eine aus der Perspektive der Nachhaltigkeit hässliche Kehrseite.

„Wir haben zwar alles miniaturisiert, dafür sind aber digitale Komponenten jetzt wirklich dank IoT überall. Das führt zu über-ausgereiften Produkten, Müll und erhöhtem Wartungsaufwand“, erläutert Schomaker.

Digitalisierung und ihre Kehrseite

In seine Ausführungen nimmt Schomaker auch die Freie Kühlung auf. Einerseits ermögliche zwar die Nutzung ausschließlich erneuerbarer Energien. Gleichzeitig werde aber wertvolle Abwärme entsorgt, weil sie bei freier Kühlung nicht warm genug für weitere Einsatzzwecke ist. Selbst die stromsparende Virtualisierung zeigt einen Pferdefuß. Denn sie führt dazu, dass Services überall verfügbar seien, auch aus Cloud-Rechenzentren in Osteuropa, die sich oft mit sehr CO2-belastetem Kohlestrom versorgen.

Mit dem Zugang zum Internet tragen wir überall abfragbares Wissen mit uns herum. Das ist toll und Google haben eine der besten Suchmaschinen der Welt. Doch sei das App-Verhalten aus energetischer Sicht eine Katastrophe. „Jede Anfrage geht in jedes Rechenzentrum, am Ende brauchen wir aber nur eine Antwort.“ Dasselbe gelte für Multimedia-Streaming, wo Content-Distribution-Netze die nötigen Daten mehrfach anwendernah vorhalten.

Neusprech in der IT

Die IT habe sich eine Art 'Neusprech' zugelegt, so Schomaker, die die wahren Verhältnisse verschleiert. Zur Erklärung: Neusprech ist ein Begriff aus Orwells Roman 1984, wo sie dazu diente, die Bewohner eines totalitären Staates einzulullen. Neusprech-Ausdrücke bedeuten meist das Gegenteil dessen, was dieselben Begriffe im üblichen Alltagsverständnis ausdrücken.

Zumindest aber werden Relationen und Bezüge so verunklart, dass ein falscher Eindruck entsteht. Ein Beispiel aus der IT ist, wenn absoluter Strom-Mehrverbrauch eines neuen Prozessors als Effizienzsteigerung verkauft wird, sobald der Prozessor mehr Verarbeitungsschritte pro Watt durchführen kann.

Wirkliche Nachhaltigkeit ließe sich aber in der IT nicht durch Sprachkosmetik, sondern nur durch Teamarbeit aller Beteiligten erreichen, mahnt Schomaker. Notwendig sei dagegen ein ganzheitliches Denken, das sich von kurzfristigen Effizienzzielen und Bottleneck-Chirurgie verabschiedet.

(ID:47431134)

Über den Autor

lic.rer.publ. Ariane Rüdiger

lic.rer.publ. Ariane Rüdiger

Freie Journalistin, Redaktionsbüro Rüdiger