Home

Zwischenspeicherung

Zwischenspeicherung (Caching) bezeichnet das temporäre Speichern von Kopien häufig genutzter Daten in schneller zugänglichen Speichern, um Zugriffe auf teurere oder weiter entfernte Ressourcen zu vermeiden oder zu beschleunigen. Ziel ist es, Latenz zu verringern, Durchsatz zu erhöhen und Netz- oder Speicherlast zu senken. Bei einem Cache werden Lese- und Schreibzugriffe möglichst aus dem Cache bedient; bei einem Cache-Miss müssen Daten aus dem Ursprungsspeicher oder Backend nachgeladen und in den Cache eingefügt werden.

Caches existieren auf verschiedenen Ebenen: CPU-Caches (L1, L2, L3), die Hauptspeicherzugriffe beschleunigen; Festplatten- oder Speichercaches; Web-Caches

Die Konsistenz ist ein zentrales Problem: Cache-Inhalte können veraltet sein, wenn Backend-Daten geändert wurden. Typische Strategien

Wichtige Kennzahlen sind Cache-Hit-Rate, Miss-Rate, Latenz und Durchsatz. Cache-Entwicklung umfasst Pre-Fetching, Cache-Warming und Monitoring.

Anwendungsbeispiele finden sich in Webbrowsern und Webservern, Datenbank- bzw. Anwendungs-Caches, Betriebssystem- und Rechensystemen. Vorteile sind geringere

---

und
Content
Delivery
Networks
zur
Beschleunigung
von
Webseiten
und
Mediendaten;
Anwendungs-
oder
Datenbankcaches
(z.
B.
Redis,
Memcached)
zur
Beschleunigung
häufiger
Abfragen.
sind
zeitbasierte
Abläufe
(Time-to-Live),
Invalidation
bei
Änderungen
oder
Write-Through/Write-Back-Verfahren.
Eviction-Politiken
wie
LRU,
LFU
oder
FIFO
entscheiden,
welche
Einträge
entfernt
werden,
wenn
der
Cache
voll
ist.
Latenz
und
bessere
Skalierbarkeit;
Risiken
umfassen
veraltete
Daten,
erhöhter
Speicherbedarf
und
Komplexität
bei
der
Konsistenz.