Low Latency Networks im Überblick, Teil 2

Aufbau und Betrieb von Netzen mit geringer Latenz – konzeptionelle Grundlagen

16.12.2010 | Autor / Redakteur: Dr. Franz-Joachim Kauffels / Andreas Donner

Spezielle ASICs verleihen einem Switch Performance – hier der 10-G-Aggregationsswitch mit FM 4224 von Fulcrum
Spezielle ASICs verleihen einem Switch Performance – hier der 10-G-Aggregationsswitch mit FM 4224 von Fulcrum

Die Konstruktion latenzarmer Netze gleicht prinzipiell der eines Rennsportwagens. Es reicht nicht, hier und da Detailverbesserungen durchzuführen, sondern entlang eines Masterplans muss zunächst eine geeignete Grundstrukturierung gewählt und dann alle Komponenten sorgfältig und harmonisch eingepasst werden. Die neuen Strukturierungsansätze kann man jedoch besser verstehen, wenn man die Komponenten kennt, also beginnen wir mit diesen.

Anwendungs- oder systemorientierte Lasten, die auf einer verteilten Systemarchitektur bewältigt werden sollen, sind grundsätzlich empfindlich gegenüber zu hoher Latenz. Jede Transaktion einer solchen Workload spannt eine große Anzahl von Interaktionen zwischen den Stellen auf, an denen die Leistung erbracht wird. Im Extremfall können das Hunderte von VMs und Speicherkomponenten sein. Einige Beispiele:

  • Beim elektronischen Börsenhandel übernehmen Maschinen Marktdaten von anderen Maschinen, treffen aufgrund ihrer Algorithmen Kauf- oder Verkaufsentscheidungen und lassen diese von wieder anderen Maschinen ausführen. Selbst etwas vergleichsweise Langsames, wie der Goldpreis schafft es, innerhalb einer Sekunde um mehr als 10 US-$ pro Feinunze zu springen. Beim Einkauf einer Tonne können Bruchteile dieser Sekunde den Gegenwert eines Einfamilienhauses bedeuten.
  • In HPC Systemen werden Tausende Server geclustert, um komplexe Berechnungen und Simulationen durchführen zu können.
  • In Web-basierten Cloud Anwendungen (oder sogar bei schlichten Suchvorgängen) können Workloads auf Tausenden dynamischer geclusterter Server laufen und mehrstufige Verarbeitungsmechanismen implementieren, die sich durch PetaBytes von Daten wühlen.

Manche werden jetzt sagen, dass sie das nicht interessiert, weil im eigenen Unternehmen keine Anwendungen seien, auf die das zutrifft. Gut, für ein holzverarbeitendes Unternehmen mit Schwerpunkt Katzenkratzbäume mag das so sein, aber viele Unternehmen sind heute schon Bestandteil solcher Szenarien.

Wenn Sie Online-Brokerage machen, arbeitet das System Ihrer Bank oder Sparkasse direkt mit einem elektronischen Börsenhandelssystem zusammen. Moderne Unternehmen sind vielfach mit dem Web und Dienstleistungen dort verwoben. Es ist ganz schlecht für den Netzwerker, wenn man ihm nachweisen kann, dass unerträgliche Antwortzeiten genau in dem durch ihn zu verantwortenden Netz entstehen.

Um die systemweite Antwortzeit zu verbessern, müssen Berechnungszeit und Netzlatenz minimiert werden. Bei üblichen Servern sind die Einflussmöglichkeiten aber eher gering. Hat man einen Server mit dichter und schneller Multicore-Architektur, dazu passenden Speichern und Caches sowie entsprechende periphere Kommunikationsmöglichkeiten, unterstützt er eben eine bestimmte Anzahl von VMs und Transaktionen bis zu einer gewissen Grenze. War er von Anfang an optimal konfiguriert, kann man diese Grenze nur unwesentlich beeinflussen und neue Hardware muss her. Der diskrete Charme der Virtualisierung ist aber, dass man die Leistung der – nennen wir es einmal – lokalen Cloud durch Hinzufügung neuer Hardware (Server und Speicher) praktisch beliebig steigern kann. Also liegt der „schwarze Peter“ wieder beim Netz.

„Fabric-weite“ Latenzminimierung

Um eine „Fabric-weite“ Latenzminimierung durchzuführen, muss die Latenz im Grunde genommen entlang folgender vier Achsen minimiert werden:

  • Reduktion der Latenz jedes einzelnen Knotens im Netz
  • Reduktion der Anzahl von Knoten, die zwischen Quelle und Ziel durchlaufen werden müssen
  • Eliminierung von Congestion
  • Reduktion der Latenz von Transportprotokollen

Diese vier Achsen dienen uns jetzt zur weiteren systematischen Vertiefung.

weiter mit: Reduktion der Latenz jedes einzelnen Knotens im Netz

 

ComConsult Netzwerk-Redesign Forum 2011

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2048916 / Server)