Home

Zugriffslatenz

Zugriffslatenz ist in der Informatik die Zeitspanne, die vergeht, bis eine Anforderung an eine Speicher- oder Datenressource beantwortet wird und die ersten nutzbaren Daten bereitstehen. Sie ist ein zentrales Maß für die Reaktionszeit eines Systems und wird in vielen Bereichen von Speichern, Dateisystemen, Netzwerkspeichern und CPU-Cache-Verhalten verwendet. Die Latenz setzt sich aus mehreren Teilen zusammen, darunter die Zeit für das Auffinden der Daten (z. B. Such- oder Adressierungszeiten), Wartezeiten durch andere Vorgänge (Queueing), Protokoll-Overheads und die Zeit zum Beginn der Datenübertragung.

Die Größenordnungen der Zugriffslatenz variieren stark je nach Medium und Anwendung. Bei CPU-Daten-Caches liegen Latenzen typischerweise

Zugriffslatenz ist nicht mit der maximalen Datenrate zu verwechseln; sie beschreibt die Zeit bis zum ersten

im
Bereich
weniger
Nanosekunden.
Der
Hauptspeicher
(DRAM)
wartet
in
der
Regel
im
Bereich
von
einigen
Dutzend
bis
zu
einigen
Hundert
Nanosekunden.
Solid-State-Drives
(SSDs),
insbesondere
NVMe-Modelle,
weisen
zufällige
Latenzen
meist
im
Bereich
von
etwa
20
bis
100
Mikrosekunden
auf.
Festplattenlaufwerke
(HDDs)
arbeiten
in
der
Regel
mit
mehreren
Millisekunden
Latenz,
oft
rund
10
bis
15
ms
im
Durchschnitt,
da
sie
Seek-
und
Rotationsverzögerungen
berücksichtigen
müssen.
Netzwerkspeicher
können
je
nach
Protokoll
und
Distanz
ähnliche
oder
höhere
Werte
zeigen.
Byte
der
transferierten
Daten.
Optimierungsstrategien
zielen
auf
Reduktion
der
Latenz
durch
Caching,
Vorabruf
(Prefetching),
parallele
Abwicklung
mehrerer
I/O-Anfragen,
Erhöhung
der
Queue-Depth
sowie
den
Einsatz
schnellerer
Speichermedien
und
effizienterer
Speicherprotokolle.