Suchen

Die digitale Welt während und nach Covid-19 Niedrige Latenzen: Es geht um Millisekunden

Autor / Redakteur: Thomas King* / Dipl.-Ing. (FH) Andreas Donner

Der Internet-Austauschknoten DE-CIX in Frankfurt stellt in einer Umfrage unter den eigenen Kunden fest, dass 81 Prozent der Teilnehmer die Latenz als wichtigstes Kriterium beim Abschluss neuer Interconnection-Verträge sehen. Doch was sind die Treiber hinter dieser starken Nachfrage nach Latenz?

Firmen zum Thema

In Zeiten der beschleunigten Digitalisierung sind geringe Latenzzeiten essenziell.
In Zeiten der beschleunigten Digitalisierung sind geringe Latenzzeiten essenziell.
(Bild: © – Hepta – stock.adobe.com)

Die Welt hat in den vergangenen Monaten große Veränderungen erlebt. Der Ausbruch und die rasante Verbreitung von Covid-19 hat die Menschen spüren lassen, dass solche unvorhersehbaren Ereignisse unseren Alltag beeinflussen, ob privat oder beruflich. Aufgrund dieser Situation muss und wird der digitale Wandel stark vorangetrieben; unter normalen Umständen wäre das nicht so schnell erfolgt.

Bei allen Herausforderungen und Einschränkungen ist es beruhigend, dass das Internet in seiner Struktur zuverlässig funktioniert und sowohl das private als auch das berufliche Leben in großen Teilen – wenn auch auf Distanz – unterstützt. Einerseits können die Menschen privat mit Freunden und Familie über Video-Calls und andere digitale Kommunikationsmittel in Verbindung bleiben. Gaming und das Streamen von Video-Content helfen, sich zu unterhalten.

Andererseits spielt das Internet in der Arbeitswelt und Geschäftsprozessen eine essenzielle Rolle, wie das Wasser aus der Leitung oder der Strom aus der Steckdose: Millionen Arbeitnehmer*innen und -geber*innen nutzten mittlerweile die Möglichkeit des Homeoffice, unterstützt durch digitale Colaboration-Tools. Auch hier sind beispielsweise Video-Calls über „Skype“, „Zoom“ oder „Teams“ unverzichtbar.

Ergänzendes zum Thema
Dr. Thoams King beim DataCenter Day 2020

So oder so – vor Ort im Vogel Convention Center (VCC) Würzburg oder virtuell – in jedem Fall findet auch 2020 ein DataCenter Day statt: am 6. Oktober.

So stehen auch schon die Keynote-Sprecher fest. Mit dabei Dr. Thomas King, CTO beim weltweit größten Internet-Austauschknoten DE-CIX. Der Artikel ist lediglich ein „Magentratzerl“, wie ein Amuse Gueule auf Bayerisch heißt.

Wer Thomas King treffen will, muss sich anmelden: Hier können Interessenten ihre Teilnahme sichern.

Stabile VPN-Verbindungen garantieren den Zugriff auf die digitalen Arbeitsmaterialien, die auf den File-Servern im Firmennetz abgelegt sind. Internet-Austauschknoten, wie der DE-CIX (Deutscher Commercial Internet Exchange) in Frankfurt, nehmen dabei die neutrale Rolle eines „Datenvermittlers“ ein; angeschlossene Netzwerke werden sicher und zuverlässig über eine Direktverbindung zusammengeschlossen. Dieser Vorgang nennt sich Zusammenschaltung oder auch Interconnection.

In der DE-CIX-Umfrage „A Survey on the Current Internet Interconnection Practices“ unter eigenen Kunden geben 81 Prozent der Teilnehmer an, dass Latenz das wichtigste Kriterium beim Abschluss neuer Interconnection-Verträge ist. Im besonderen Fall gilt das für drei Technologiebereiche:

1. Klassisch: Web-Applikationen

Alle Inhalte, die im Web-Browser oder per App aufgerufen werden, sollen möglichst direkt und ohne Verzögerung erscheinen – das ist der gängige Anspruch heutzutage. Kommt es zu einer deutlichen Verzögerung zwischen Benutzerinteraktion und Darstellung der Inhalte, also ist die Latenz spürbar vorhanden, so äußert sich das in Unverständnis und die User Experience wird als schlecht wahrgenommen.

Eine Studie von Akamai zeigte bereits lange vor Covid-19, dass schon eine zweisekündige Verzögerung in der Ladezeit einer Website ausreicht, um die Bounce-Rate (Absprungrate von Besuchern auf einer Website) um über 100 Prozent zu erhöhen, Tendenz steigend. Außerdem würde eine Verzögerung von 100 Millisekunden (0,1 s) bei der Ladezeit von Websites die Conversion-Rate (das Erreichen von vordefinierten Zielen auf einer Website, zum Beispiel das Anklicken eines Videos nach dem Lesen des Teaser-Textes) um sieben Prozent beeinträchtigen. Das zeigt, dass die Latenz aus Sicht der User Experience eine entscheidende Rolle spielt.

2. Cloud Gaming

Eine spezifische Anwendung von Web-Applikationen ist Cloud Gaming, die in diesem Kontext gesondert aufgeführt werden muss. Im letzten Herbst ging Google „Stadia“ an den Start und läutete damit Cloud Gaming in größerem Umfang ein. Zwar herrschen bei Computerspielen immer noch Festplatteninstallationen vor, aber vor dem Hintergrund des allgemeinen Trends zu Clouds und „As-a-Service“-Anwendungen kann man aber davon ausgehen, dass auch die Gaming-Sparte vor ähnlichen Umbrüchen steht.

Bisher halten sich die Datenmengen, die beim Gaming übertragen werden, in Grenzen. Rechenoperationen, die nötig sind um die virtuellen Welten zu erschaffen, finden auf dem lokalen System statt. Bei Cloud Gaming wird das Computerspiel nun auf einem Server in einem Rechenzentrum ausgeführt und die Bildschirminhalte werden über das Internet auf den Monitor (beispielsweise Tablet oder auch Laptop) des Benutzers gestreamt.

Dadurch steigen die Anforderungen an die Internet-Verbindung des Benutzers enorm. Neben der zusätzlichen Bandbreite erhöhen sich auch die Anforderungen an die Latenzen drastisch, um einen ruckelfreien Spielspaß zu garantieren.

3. Virtual Reality

Eine der kritischsten Anwendungen, wenn es um Latenzzeiten geht, ist Virtual Reality. Zwischen Aktionen des Nutzers und den Reaktionen der virtuellen Umgebung muss möglichst wenig Zeit liegen, um ein flüssiges Erlebnis zu bieten. Ansonsten wird die virtuelle Realität schnell als störend wahrgenommen. Die Latenzanforderungen in diesem Bereich liegen bei etwa 20 Millisekunden, ein Blinzeln dauert dagegen 150 Millisekunden.

Dazu ein kleines Beispiel: Die Lichtgeschwindigkeit und maximale Geschwindigkeit, mit der Datenpakete über Glasfaserleitungen geleitet werden können, liegt bei etwa 300.000.000 Metern pro Sekunde. Multipliziert man diesen Wert mit den 20 Millisekunden oder 0,02 Sekunden, ergibt sich eine maximale Entfernung von 6.000.000 Metern oder 6.000 Kilometern. Die Entfernung von New York nach Frankfurt in Luftlinie liegt etwa bei 6.200 Kilometern. Das bedeutet, eine in New York gehostete Virtual-Reality-Anwendung ließe sich in der Mainmetropole nicht flüssig wiedergeben.

Und das ist nur eine reduzierte, rein theoretische Berechnung. Zusätzlich spielen weitere Faktoren eine große Rolle, die eine Verzögerung der Übertragung verursachen, wie die Verarbeitungszeit der Server im Rechenzentrum – diese dauert schnell mal 15 oder sogar 20 Millisekunden. Dadurch können die Nutzer letztendlich nur wenige Kilometer (<100 Kilometer) von der gehosteten Virtual-Reality-Anwendung entfernt sein, um innerhalb des Toleranzbereichs der Latenzanforderung zu sein.

Latenzen und die Technologien der Zukunft

Die Lösung für diesen Umstand ist einerseits Edge Computing: die dezentrale Datenverarbeitung in unmittelbarer Nähe des Nutzers, also am Rand (Edge) des Netzwerks. Dies könnte in Form eines Minirechenzentrums oder Knotenpunktes innerhalb des <100-Kilometer-Latenzradius der Nutzer geschehen. Zusätzlich dazu ist Cloud-Computing unabdingbar: Die Datenverarbeitung findet in der Cloud statt und die Daten sind direkt online verfügbar. Durch diese Ansätze wird die Latenz so gering wie möglich gehalten.

Neben den drei benannten Beispielen gibt es noch viele weitere Anwendungen und Technologiebereiche, bei denen die Latenz eine wichtige oder sogar entscheidende Rolle spielt. In Zukunft wird autonomes Fahren ein fester Bestandteil unseres Lebens sein. Autos werden teils lebenswichtige „Entscheidungen“ auf einer Datenbasis treffen, deshalb muss sichergestellt sein, dass diese Datenverarbeitung direkt und unmittelbar erfolgt. Die theoretische Latenzanforderung liegt dabei im Ernstfall bei null Millisekunden.

Dr. Thomas King.
Dr. Thomas King.
(Bild: DE-CIX)

Auch Industrieroboter, Stichpunkt: Industrie 4.0, müssen schnelle, datenbasierte Entscheidungen treffen. Die Latenzanforderungen liegen partiell bei Werten von einer bis zehn Millisekunden.

All diese Beispiele zeigen, wie wichtig und notwendig die Entwicklung von latenzsparenden Internet-Anwendungen ist. In diesem Bereich können wir in Zukunft spannende Ansätze erwarten. Es muss künftig gewährleistet werden, dass Daten möglichst nah am Kunden verarbeitet und sicher in der Cloud gehostet werden.

Ergänzendes zum Thema
Über den DE-CIX

DE-CIX ist ein weltweit führender Betreiber von Internet-Austauschknoten. 1995 in Betrieb genommen, ist der DE-CIX in Frankfurt am Main mit mehr als 9 Terabit pro Sekunde (Tbps) der Internet Exchange (IX) mit dem weltweit höchsten Datendurchsatz in Spitzenzeiten. Seine technische Infrastruktur hat eine Gesamtkapazität von 59 Terabit.

Insgesamt bedient DE-CIX an seinen Standorten in Europa, Nord-Amerika, dem Nahen und Mittleren Osten, Indien und Asien über 1900 Netzbetreiber, Internet Service Provider (ISP) und Content-Anbieter aus mehr als 100 Ländern mit Peering und Interconnection Services.

* Dr. Thomas King ist Chief Technology Officer (CTO) beim DE-CIX.

(ID:46678395)