Home

Latenzanforderungen

Latenzanforderungen bezeichnen die zeitliche Grenze, innerhalb derer eine Reaktion oder eine Datenübertragung erfolgen muss, damit ein System wie vorgesehen funktioniert. Sie beziehen sich oft auf End-to-End-Latenz, also die Gesamtzeit vom Ursprung einer Information bis zu ihrem Ziel, inklusive Verarbeitungszeit, Protokoll-Overheads und Netzverzögerungen. Latenz kann deterministisch (eine festgelegte Obergrenze) oder nicht deterministisch (mit Schwankungen, jitter) auftreten.

Messung und Kennwerte erfolgen in Millisekunden. Typische Messgrößen sind Round-Trip Time (RTT), One-Way-Latenz, End-to-End-Latenz und der

Faktoren, die Latenz beeinflussen, umfassen Netzwerklatenz, Verarbeitungszeit in Endsystemen, Protokoll-Overheads, Queuing, Puffern, Routing und geografische Distanz.

Umsetzungsmaßnahmen umfassen QoS-Mechanismen, Traffic Shaping, Priorisierung kritischer Datenströme, dedizierte Verbindungen, Edge-Computing und Time-Sensitive Networking (TSN) für

Anwendungsbeispiele reichen von Industrie- und Flugverkehrssteuerung über Echtzeitsteuerung in der Fertigung bis zu Online-Gaming, Video-Konferenzen und

Jitter,
also
die
Varianz
der
Latenz
über
die
Zeit.
Die
Anforderungen
variieren
stark
je
nach
Anwendungsfall:
Harte
Latenzanforderungen
verlangen
eine
nahezu
garantierte,
konstante
Reaktionszeit,
während
weiche
Anforderungen
toleranter
sein
können,
solange
Auslastung
und
Qualität
stabil
bleiben.
Auch
Systemarchitektur,
Software-Stack
und
Lastzustand
spielen
eine
Rolle.
Unterschiede
zwischen
deterministischer
Latenz
(z.
B.
bei
Echtzeitsystemen)
und
variabler
Latenz
sind
entscheidend
für
Designentscheidungen.
deterministische
Netzwerke.
SLA-Vorgaben,
Monitoring
und
Kapazitätsplanung
helfen,
Latenzanforderungen
zuverlässig
zu
erfüllen.
Cloud-Anwendungen,
wobei
jeweils
unterschiedliche
Toleranzen
und
Konzepte
für
Latenz
und
Jitter
gelten.