Definition Was ist Latenz im Netzwerk?

Von Walter Schadhauser

Viele denken über die Nutzung der Cloud nach, und nicht wenige wollen ihre Anwendungen mit Halbleiterspeichern am liebsten auf Echtzeit beschleunigen. Beide Nutzergruppen beschäftigt ein großes Thema: die Antwortzeit. Während die eine Fraktion weltumspannende Geschäftsprozesse im Sinn hat, plagt die andere Fraktion der Zeitbedarf ihrer Systeme und Anwendungen im Mikrosekundenbereich.

Anbieter zum Thema

Die Latenz in verschiedenen Bereichen.
Die Latenz in verschiedenen Bereichen.
( envfx - Fotolia.com)

In einem Speichersystem beschreibt die Latenz allgemein die für die Übertragung eines Datenpakets zwischen zwei Punkten benötigte Zeit. Hinzuzurechnen sind Verarbeitungszeiten wie zum Beispiel die Übersetzung eines optischen Signals in ein elektrisches und damit verbunden eine kurzzeitige Reduktion der Reisegeschwindigkeit des Datenpakets um etwa 50 Prozent.

In manchen Szenarien wird die Latenz gemessen, indem man ein Paket sendet, das an den Absender zurückgeschickt wird, wobei die Gesamtzeit als Latenz bezeichnet wird. Auf WAN-Verbindungen spricht man auch von Round-Trip-Time (RTT). Selbst bei guten Verbindungsstrecken benötigt ein Datenpaket für das Hin-und-Zurück eine Zeitspanne im zweistelligen Millisekunden-Bereich.

Auffällig ist heutzutage, dass inzwischen Zeiten im Nanosekundenbereich ins Gewicht fallen, wie sie beim Laden wie auch Entladen eines Floating Gates mit Elektronen passieren, um ein stabiles Signal zu erzeugen.

Letztlich wird sich die Debatte um Latenzzeiten allerdings auf das Netzwerk konzentrieren, da durch längere Übertragungsstrecken die Laufzeit des Datenpakets auf dem Kabel, die Verarbeitungszeit innerhalb eines Rechensystems mit mehr oder weniger integriertem Flash-Speicher um Größenordnungen dominiert..

Das Ideal der Latenz

Das Ideal der Latenz ist, dass alle Daten sofort (das heißt ohne jegliche Verzögerung) zwischen zwei Punkten übertragen werden sollten. Die Realität sieht naturgemäß anders aus wie aktuelle Vergleiche des Datenzugriffs bei Festplatten und Flash-Medien zeigen. Und selbst wenn eine Information mit Lichtgeschwindigkeit unterwegs wäre, dann bräuchte es für eine Erdumrundung 130 Millisekunden. Oder anders ausgedrückt: In einer Nanosekunde legt das Licht 30 Zentimeter zurück.

Während für einen Menschen eine Zeit von 10 Millisekunden nicht unterscheidbar ist von 20 Millisekunden, so zeigt sich aus der Sicht eines Prozessors, dass sich in dieser Zeitspanne von nur 10 Millisekunden eine Million CPU-Operationen von je einer Nanosekunde durchführen lassen könnten. Noch sind das nur rechnerische Gedankenspiele. Aber eines ist damit schon mal klar: Höchste Rechenleistung ist nur möglich, wenn Prozessor und Speicher physisch sehr eng beieinander stehen.

Die Faktoren der Latenz eines Datenpakets im Netzwerk sind unter anderem:

  • Die Propagierung: Einfach ausgedrückt, handelt es sich hierbei um die Zeit, die ein Paket benötigt, um mit Lichtgeschwindigkeit zwischen zwei Punkten zu reisen.
  • Übertragung: Das Medium selbst (ob Lichtwellenleiter, drahtlos oder sonstig) verursacht eine gewisse Verzögerung. Die Paketgröße führt zu einer Verzögerung in der Übertragung und Rückübertragung, weil es länger dauert, ein größeres Paket zu empfangen und zurückzusenden.
  • Verarbeitung durch Router und andere Geräte: Jeder Gateway-Knoten braucht eine gewisse Zeit, um den Paket-Header zu untersuchen und gegebenenfalls zu ändern (beispielsweise, indem es den Hop-Zähler im Time-to-Live-Feld anpasst).
  • Sonstige von Computern und Speichergeräten verursachten Verzögerungen: Innerhalb vom Netzwerk auf jeder Seite der Übertragung kann ein Paket von Verzögerungen betroffen sein, die durch die Speicherung bzw. den Festplattenzugriff an bestimmten Punkten der Übertragungsstrecke betroffen sind, wie bei Switches und Bridges.

(ID:43812538)