Zwischenspeicherung
Zwischenspeicherung (Caching) bezeichnet das temporäre Speichern von Kopien häufig genutzter Daten in schneller zugänglichen Speichern, um Zugriffe auf teurere oder weiter entfernte Ressourcen zu vermeiden oder zu beschleunigen. Ziel ist es, Latenz zu verringern, Durchsatz zu erhöhen und Netz- oder Speicherlast zu senken. Bei einem Cache werden Lese- und Schreibzugriffe möglichst aus dem Cache bedient; bei einem Cache-Miss müssen Daten aus dem Ursprungsspeicher oder Backend nachgeladen und in den Cache eingefügt werden.
Caches existieren auf verschiedenen Ebenen: CPU-Caches (L1, L2, L3), die Hauptspeicherzugriffe beschleunigen; Festplatten- oder Speichercaches; Web-Caches
Die Konsistenz ist ein zentrales Problem: Cache-Inhalte können veraltet sein, wenn Backend-Daten geändert wurden. Typische Strategien
Wichtige Kennzahlen sind Cache-Hit-Rate, Miss-Rate, Latenz und Durchsatz. Cache-Entwicklung umfasst Pre-Fetching, Cache-Warming und Monitoring.
Anwendungsbeispiele finden sich in Webbrowsern und Webservern, Datenbank- bzw. Anwendungs-Caches, Betriebssystem- und Rechensystemen. Vorteile sind geringere
---