Home

Speicheranordnung

Speicheranordnung bezeichnet in der Informationstechnik die Art und Weise, wie Speichereinheiten in einem System angeordnet, verbunden und verwaltet werden. Sie umfasst die Struktur der Speichermedien, deren Adressierung und die Wege, über die der Prozessor oder der Speichermanager auf die Daten zugreift. Ziel ist eine effiziente Nutzung des Speichers in Bezug auf Geschwindigkeit, Kapazität und Zuverlässigkeit.

Grundlegend unterscheidet man flüchtigen Speicher, wie Hauptspeicher (RAM) und Cache, von nichtflüchtigen Speichern, wie Festplatten, SSDs

Moderne Systeme verwenden typischerweise eine mehrschichtige Struktur mit Hauptspeicher, Cache-Ebenen und Systembus. Der Hauptspeicher wird oft

Wichtige Konzepte der Speicheranordnung sind Adressmapping, Bankauswahl, Interleaving, Speicherbusbreite und Fehlerunterstützung. Die Wahl der Speicheranordnung beeinflusst

oder
Flash-Speichern.
Die
Speicheranordnung
legt
fest,
wie
Daten
in
Blöcken,
Seiten
oder
Zellen
organisiert
sind
und
wie
Adressen
darauf
abgebildet
werden.
Sie
beschreibt
auch
die
logische
und
physische
Struktur
der
Speicherkomponenten
im
System.
in
Bänken,
Rängen
und
Kanälen
organisiert,
was
durch
Techniken
wie
Interleaving
Leistungsverbesserungen
ermöglichen
kann.
Ein
Speichercontroller
koordiniert
Adresszuweisung,
Zugriffstermine,
Timing
und
Fehlererkennung
bzw.
-korrektur
(ECC).
Latenz,
Durchsatz,
Energieverbrauch
und
Skalierbarkeit
des
Systems.
Sie
spielt
daher
eine
zentrale
Rolle
bei
der
Systemgestaltung,
bei
Server-
und
HPC-Architekturen
sowie
bei
Embedded-
und
Mobilgeräten.