Home

Latenzzeit

Latenzzeit bezeichnet die Verzögerung zwischen einem auslösenden Ereignis oder einer Anfrage und dem Zeitpunkt, an dem deren Folge sichtbar oder messbar wird. Im Kontext der Informationstechnik beschreibt sie vor allem die Zeit, die benötigt wird, um eine Nachricht oder ein Signal von der Quelle zum Ziel zu übertragen und zu verarbeiten.

In Netzwerken wird zwischen einseitiger Latenz und der Round-Trip-Latenz (RTT) unterschieden. Die einseitige Latenz umfasst die

Die Latenz setzt sich aus mehreren Komponenten zusammen: Propagation Delay (physikalische Ausbreitung der Signale), Transmission Delay

Maßnahmen zur Verringerung der Latenz umfassen: bessere physische Verbindungen oder kürzere Wegstrecken, optimierte Routingpfade, Caching und

Siehe auch: Bandbreite, Jitter, Round-Trip-Time.

Zeit
vom
Senden
bis
zum
Empfang
am
Ziel,
während
RTT
die
Gesamtdauer
für
Hin-
und
Rückweg
misst.
Typische
Latenzwerte
liegen
je
nach
Verbindung
und
Distanz
im
Bereich
von
wenigen
Millisekunden
bis
zu
mehreren
Hundertmillisekunden.
Geringe
Latenz
ist
besonders
wichtig
für
interaktive
Anwendungen
wie
Online-Gaming,
VoIP
oder
Echtzeitsteuerung.
(Übertragung
der
Bits
auf
der
Verbindung),
Processing
Delay
(Verarbeitung
in
Endgeräten
und
Zwischenstationen)
sowie
Queuing
Delay
(Warteschlangen
in
Routern
oder
Switches).
Zusätzlich
kann
Jitter
auftreten,
also
Schwankungen
der
Latenz
über
die
Zeit,
was
bei
zeitkritischen
Anwendungen
stört.
Content
Delivery
Networks
(CDNs),
Edge
Computing,
Protokolloptimierungen,
schnellere
Hardware
und
Anpassungen
an
Pufferstrategien.
Die
Balance
zwischen
Latenz
und
Zuverlässigkeit
muss
oft
abgewogen
werden,
da
zu
aggressive
Pufferung
ebenfalls
zu
wahrgenommenen
Verzögerungen
führen
kann.