DatenbankCaching
DatenbankCaching bezeichnet das Speichern von häufig abgefragten Daten einer Datenbank in einem schnelleren Zwischenspeicher, um Latenzzeiten zu reduzieren und den Durchsatz zu erhöhen. Typischerweise werden wiederkehrende Lesezugriffe damit beschleunigt, während Schreiboperationen eine zusätzliche Konsistenzlogik erfordern.
Caches können auf verschiedenen Ebenen implementiert werden: im Anwendungsprozess (In-Process-Cache), in verteilten Cache-Systemen wie Redis oder
Konsistenz und Invalidation: Caching führt zu potenziellen Inkonsistenzen, daher sind Invalidation, Time-to-Live (TTL) und Eviction-Strategien wichtige
Eviction-Politiken wie LRU, LFU oder FIFO bestimmen, welche Einträge entfernt werden. Refresh-Ahead oder Cache-Warming können genutzt
Vorteile davon sind geringere Latenz, entlastete Datenbank und bessere Skalierbarkeit bei Lese-last. Nachteile umfassen erhöhte Komplexität,
Typische Anwendungsfälle sind Dashboards, Berichte, Produktkataloge, Nutzerprofile oder Konfigurationseinstellungen, bei denen Tabellen oder Dokumente häufig gelesen,