Was ist Latenz? | Wie sich die Latenz verbessern lässt

Internet-Latenz ist die Verzögerung, die auftritt, wenn Benutzer Web-Ressourcen anfordern. Niedrige Latenz ist ein wichtiger Aspekt für eine gute Nutzererfahrung, während hohe Latenz Benutzer vertreiben kann.

Lernziele

Nach Lektüre dieses Artikels können Sie Folgendes:

  • Verstehen, was Latenz ist und wodurch sie verursacht wird
  • Die Unterschiede zwischen Latenz, Bandbreite und Durchsatz eines Netzwerks erklären
  • Verstehen, wie Latenz reduziert wird

Link zum Artikel kopieren

Was ist Latenz?

Latenz ist die Zeit, die zwischen einer Benutzeraktion und der Antwort darauf vergeht. Netzwerklatenz bezieht sich speziell auf Verzögerungen, die innerhalb eines Netzwerks oder im Internet auftreten. Praktisch ausgedrückt ist Latenz die Zeit zwischen einer Benutzeraktion und der Reaktion einer Website oder Anwendung auf diese Aktion – zum Beispiel die Verzögerung zwischen dem Zeitpunkt, an dem ein Benutzer einen Link zu einer Webseite anklickt, und dem Zeitpunkt, an dem der Browser diese Webseite darstellt.

Was ist Latenz?

Obwohl sich Daten im Internet mit Lichtgeschwindigkeit bewegen, lässt sich Latenz aufgrund der Auswirkungen von Entfernungen und Verzögerungen, die durch die für die Internet-Infrastruktur verwendeten Geräte verursacht werden, nie ganz ausschließen. Sie kann und sollte jedoch minimiert werden. Hohe Latenz führt zu schlechter Website-Performance, wirkt sich negativ auf die SEO aus und kann Benutzer dazu veranlassen, die Website oder Anwendung ganz zu verlassen.

Wodurch wird Latenz verursacht?

Eine der Hauptursachen für Netzwerklatenz ist Entfernung, insbesondere die Entfernung zwischen Client-Geräten, die Anfragen stellen, und den Servern, die auf diese Anfragen antworten. Wenn eine Website in einem Rechenzentrum in Columbus, Ohio, gehostet wird, wird sie ziemlich schnell auf Anfragen von Benutzern in Cincinnati (etwa 160 km entfernt) reagieren, wahrscheinlich innerhalb von 10–15 Millisekunden. Benutzer in Los Angeles (ca. 3.500 km entfernt) werden dagegen mit längeren Verzögerungen konfrontiert, die näher bei 50 Millisekunden liegen.

Eine Zunahme von ein paar Millisekunden mag nicht viel erscheinen, aber durch das mehrfache Hin und Her für den Verbindungsaufbau zwischen Client und Server, die Gesamtgröße und Ladezeit der Seite sowie eventuelle Probleme mit der Netzwerkausrüstung, die die Daten auf ihrem Weg durchlaufen, sammelt sich immer mehr Verzögerung an. Die Zeitspanne, die eine Antwort nach einer Client-Anfrage benötigt, um das Client-Gerät zu erreichen, wird als Round-Trip-Time (RTT) bezeichnet.

Daten, die im Internet unterwegs sind, müssen in der Regel nicht nur ein, sondern mehrere Netzwerke durchqueren. Je mehr Netzwerke eine HTTP-Antwort durchlaufen muss, desto mehr Gelegenheiten für Verzögerungen gibt es. Beim Übergang der Datenpakete von einem Netzwerk zum anderen durchlaufen sie beispielsweise Internet Exchange Points (IXPs). Dort müssen Router die Datenpakete verarbeiten und weiterleiten, und manchmal müssen die Router sie in kleinere Pakete aufteilen, was alles ein paar Millisekunden mehr RTT bedeutet.

Darüber hinaus kann die Art des Webseitenaufbaus zu schlechterer Performance führen. Webseiten, die viele umfangreiche Inhalte aufweisen oder Inhalte von mehreren Drittanbietern laden, können träge wirken, weil die Browser große Dateien herunterladen müssen, um sie darzustellen. Ein Benutzer könnte sich direkt neben dem Rechenzentrum befinden, in dem die aufgerufene Website gehostet wird, aber wenn die Website z. B. mehrere hochauflösende Bilder enthält, kann es beim Laden der Bilder trotzdem zu einer gewissen Latenz kommen.

Latenz, Durchsatz und Bandbreite von Netzwerken

Latenz, Bandbreite und Durchsatz hängen zusammen, bezeichnen aber unterschiedliche Dinge. Die Bandbreite ist die maximale Datenmenge, die zu einem bestimmten Zeitpunkt durch das Netzwerk fließen kann. Der Durchsatz ist die durchschnittliche Datenmenge, die über einen bestimmten Zeitraum tatsächlich fließt. Durchsatz ist nicht unbedingt gleichbedeutend mit Bandbreite, da er durch Latenz beeinträchtigt wird. Die Latenz ist ein Maß der Zeit und nicht ein Maß für die Menge der Daten, die mit der Zeit heruntergeladen werden.

Wie kann Latenz reduziert werden?

Die Verwendung eines CDN (Content Delivery Network) ist ein wichtiger Schritt zur Verringerung der Latenz. In einem CDN werden statische Inhalte zwischengespeichert, um die RTT erheblich zu reduzieren. (Mit dem Cloudflare-CDN ist es möglich, auch dynamische Inhalte mit Cloudflare Workers zwischenzuspeichern). CDN-Server sind an mehreren Standorten verteilt, so dass die Inhalte näher an den Endbenutzern gespeichert werden und nicht so weit reisen müssen, um sie zu erreichen. Das bedeutet, dass das Laden einer Webseite weniger Zeit in Anspruch nimmt, wodurch Geschwindigkeit und Performance der Website verbessert werden.

Webentwickler können auch die Anzahl der Ressourcen minimieren, die das Rendering blockieren (z. B. dadurch, dass JavaScript zuletzt geladen wird), Bilder für schnelleres Laden optimieren und die Dateigrößen nach Möglichkeit reduzieren. Code-Minifikation ist eine Möglichkeit, die Größe von JavaScript- und CSS-Dateien zu reduzieren.

Es ist möglich, die gefühlte Latenz zu verringern, indem man zunächst bestimmte Assets strategisch lädt. Eine Webseite kann so konfiguriert werden, dass zuerst der Bereich „above the fold“ geladen wird, damit Benutzer schon mit der Seite interagieren können, bevor sie fertig geladen ist („above the fold“ bezieht sich auf den Bereich in einem Browserfenster, der sichtbar ist, bevor der Benutzer herunterscrollt; vergleichbar mit „über dem Falz“ bei einer Zeitung). Webseiten können auch so vorgehen, dass Assets nur dann geladen werden, wenn sie benötigt werden. Dazu gibt es eine Technik, die als „Lazy Loading“ bekannt ist. Diese Ansätze verbessern die Netzwerklatenz nicht wirklich, sie verbessern aber die Wahrnehmung der Seitengeschwindigkeit durch den Benutzer.

Wie kann die Latenz benutzerseitig verbessert werden?

Manchmal wird Netzwerklatenz durch Probleme auf der Benutzerseite verursacht, nicht auf der Serverseite. Als Verbraucher hat man immer die Möglichkeit, mehr Bandbreite zu kaufen, wenn Latenz ein ständiges Problem darstellt. Bandbreite allein ist aber keine Garantie für die Performance einer Website. Der Wechsel zu Ethernet anstelle von WLAN führt zu einer beständigeren Internetverbindung und verbessert in der Regel die Internetgeschwindigkeit. Benutzer sollten auch sicherstellen, dass ihre Internet-Ausrüstung auf dem neuesten Stand ist, indem sie regelmäßig Firmware-Updates installieren und die Ausrüstung bei Bedarf ganz austauschen.