Der Schlüsselfaktor für die digitale User Experience DE-CIX-CTO Thomas King: „Latenz ist die neue Währung“
Anbieter zum Thema
Ruckelnde Videokonferenzen oder Online Games und langsame Apps können Auswirkungen von Latenz-Problemen sein. Diese sind ärgerlich für Nutzer und können Unternehmen bares Geld kosten. Für Zukunftsszenarien wie autonomes Fahren ist eine äußerst geringe Latenz sogar sicherheitskritisch.

In allen Bereichen des Geschäfts- und Privatlebens haben aktuell digitale Applikationen Hochkonjunktur. Diese haben sich in den letzten Monaten bewährt und ihren Platz in unserem beruflichen und privaten Leben gefunden. Aber auch jenseits des virtuellen Desktops und des Video-Streaming machen einzelne Branchen mit digitalen Anwendungen und Diensten große Sprünge nach vorne, von E-Health über anspruchsvolle Logistik- und Mobilitätsanwendungen bis hin zum Finanzsektor.
Diese Transformation wurde zwar nicht durch die Covid-19-Pandemie verursacht, aber sie wurde dadurch beschleunigt. Das beschleunigte Tempo der Digitalisierung von Unternehmen wird zu einem der Schlüsselfaktoren für das zukünftige Wirtschaftswachstum werden.
Latenz nervt Nutzer und kostet Unternehmen Geld
Bei der Verlagerung wirtschaftlicher Aktivitäten von der analogen in die digitale Sphäre spielt eine gute Nutzererfahrung die entscheidende Rolle für Erfolg oder Misserfolg. Essentiell dafür sind geringe Reaktionszeiten, die wiederum von der so genannten Latenz abhängen. Latenz beschreibt dabei den Zeitraum, den ein Datenpaket von einem vernetzten Endgerät zu einem Server im Internet und zum Gerät zurück benötigt.
Je kürzer die Latenz, desto besser fällt die User Experience (UX) von digitalen Anwendungen aus. Zu hohe Latenz ist – vereinfacht ausgedrückt – auch die Ursache für Verzögerungen, die wir bei Videokonferenzen über lange Distanzen sehen können. Latenz ist zudem wichtig für schnelle Transaktionen beim Online Shopping, für eine gute User Experience (UX) bei Cloud-Anwendungen oder für ein flüssiges Spielerlebnis bei Online Games.
Aus der Nutzerperspektive sind die Auswirkungen hoher Latenz unangenehm – für Unternehmen können sie sogar finanzielle Einbußen bedeuten. Die Produktivität in Bezug auf virtuelle Desktops, Konferenz- und Videoanrufe und alles, was mit Homeoffice verbunden ist, ist von leistungsstarken Verbindungen mit niedriger Latenz abhängig.
:quality(80)/images.vogel.de/vogelonline/bdb/1721700/1721745/original.jpg)
Die digitale Welt während und nach Covid-19
Niedrige Latenzen: Es geht um Millisekunden
Aber auch Industrie-Anwendungen wie Remote-Robotik, KI-gestützte Forschung und Entwicklung sowie vernetzte Autos wären ohne die Leistung, Sicherheit und Resilienz, die mit einer möglichst geringen Latenz einhergeht, nicht denkbar. Dazu kommt noch, dass schlechte UX zu einem finanziellen Problem für Unternehmen werden kann – nämlich dann, wenn Kunden wegen wiederholter schlechter Erfahrungen zur Konkurrenz abwandern.
Die Grenzen der Geschwindigkeit
Auf der „Datenautobahn“ gibt es ein Tempolimit. Dabei handelt es sich um eine der fundamentalen Naturkonstanten, die Lichtgeschwindigkeit. Nichts im Universum kann sich schneller bewegen, auch keine Informationen.
Auch wenn 300.000 Kilometer pro Sekunde(!) unvorstellbar schnell ist, ist es doch ein endlicher Wert. So genannte „Echtzeit“-Übertragung beinhaltetet also immer eine gewisse Verzögerung. In vielen Fällen ist diese völlig vernachlässigbar, aber durch die hohen Latenzanforderungen moderner Anwendungen können sich Probleme ergeben.
Die Latenz, die heute als Maximum für annehmbare User Experience gilt, liegt bei etwa 65 Millisekunden. Die maximale Distanz zwischen Sender und Empfänger sollte demnach nicht mehr als 5.500 Kilometer betragen. Zum Vergleich: die direkte Luftlinie von New York nach Lissabon beträgt ziemlich genau 5.500 Kilometer – somit können Inhalte und Datenpakete weitestgehend ruckelfrei über Kontinente, und in diesem Fall den Atlantik, hinweg übertragen werden.
Kurze Wege für optimale Ergebnisse
In diesem Beispiel war wohlgemerkt nur die Rede von akzeptabler Nutzererfahrung. Für wirklich gute Ergebnisse sollte die Latenz 15 Millisekunden nicht überschreiten. In der Praxis bedeutet das, dass Anwendungen wie interaktive Online-Spiele und Live-Streaming in HD/4K weniger als 1.200 Kilometer vom Nutzer entfernt gehostet werden müssen.
In Zukunft werden kritische Anwendungen noch geringere Latenzen erfordern, die dann im einstelligen Millisekundenbereich liegen werden. Das ergäbe dann beispielsweise für das autonome Fahren Distanzen von unter achtzig Kilometern – jeder Autobahnrasthof und jedes Autobahnkreuz werden zukünftig auch ein eigenes Rechenzentrum haben. Denn bedingt durch die physikalischen Limits, ist dies der einzige Weg, um die Latenzanforderungen zu bewältigen: Mehr verteilte Rechenzentren in die Fläche bringen.
Wenn die Geschwindigkeit begrenzt und die Zeitvorgaben eng sind, sollten Umwege natürlich vermieden werden. Leider sind Infrastrukturen im Internet traditionell nicht immer für direkte Wege ausgelegt.
Interconnection statt MPLS
Ein Beispiel dafür sind vernetzte Autos: Der Ansatz für Automobilhersteller war in der Vergangenheit MPLS-basierte Lösungen und IP-Transit (Upstream), ohne Ende-zu-Ende-Kontrolle der Verkehrsflüsse zwischen dem Auto und den Netzwerken, die Daten an das Auto liefern oder vom Auto empfangen wollen. Dies führt zu Leistungsproblemen, denn je mehr Zwischenstationen zwischen den beiden Teilnehmern liegen, desto höher ist die Latenz.
Dadurch entsteht auch eine höhere Anfälligkeit für Sicherheitsprobleme, wie DDoS-Angriffe und IP-Hijacking, sowie Compliance-Probleme: Hersteller, die den Weg der Daten nicht genau kennen, können auch die Compliance nicht garantieren.
Die Probleme lassen sich mit direkter Interconnection umgehen. Dabei kommt unter anderen das one to many/ many to one Prinzip zum Tragen, das Traffic aggregiert, anstatt auf mehrere eins-zu-eins Verbindungen zu setzen. So wird es möglich, ein Auto mit allen Netzwerken zu verbinden, die Daten an das Fahrzeug senden wollen oder von dort empfangen möchten, und dies in einer einzigen, sicheren Umgebung. Dadurch wird die Komplexität in der Übertragung erheblich reduziert und somit auch die Latenz.
Unternehmen haben die Kontrolle
Bei einem Internet-Knoten wie dem DE-CIX können Unternehmen eigene geschlossene Benutzergruppen einrichten und die Richtlinien vorgeben, die Teilnehmer in Bezug auf Leistung, Sicherheit oder Compliance erfüllen müssen. Innerhalb dieser Umgebung ist alles geschützt und gleichzeitig sehr effizient miteinander verbunden – unter Nutzung der Vorteile bestehender Ökosysteme, wie zum Beispiel der Nähe von Netzwerken und damit reduzierter Latenz.
Diese Lösung bietet eine Antwort auf die Frage, wie ein Unternehmensnetzwerk in einer geschlossenen Umgebung mit anderen Netzwerken verbunden werden kann, um die Komplexität zu reduzieren, die Sicherheit zu erhöhen, die Leistung zu verbessern und die Compliance im Blick zu behalten.
* Dr. Thomas King ist Chief technology Officer (CTO) bei der DE-CIX Management GmbH.
Artikelfiles und Artikellinks
(ID:47161914)