Home

Granularität

Granularität bezeichnet in der Informatik und den angrenzenden Feldern das Maß an Detail oder die Größe der unteilbaren Einheiten, die in einem System verwendet oder erzeugt werden. Der Begriff leitet sich vom lateinischen granum für Körnchen ab und wird allgemein auf Daten, Prozesse und Strukturen angewendet, um die Feinheit oder Grobheit der Unterteilung zu beschreiben.

In der Informationstechnik bedeuten Granularität und Feingranularität, wie detailliert Daten gespeichert, abgerufen oder protokolliert werden; wie

Im Data-Warehousing und in der Datenanalyse bestimmt die Granularität der Daten die mögliche Aggregation: Eine hohe

Außerhalb der Informatik wird Granularität auch im Messwesen, in der Geographie oder in der Erfassung von Ereignisdaten

Verwandte Konzepte sind Auflösung, Detaillierungsgrad und Grob- bzw. Feinkörnigkeit. Granularität ist primär eine Design- und Architekturentscheidung,

fein
Sperren
in
der
Parallelverarbeitung
greifen;
und
wie
granular
Berechtigungen
gestaltet
sind.
Fein
granulierte
Modelle
liefern
mehr
Kontext,
verursachen
jedoch
mehr
Overhead
und
Komplexität;
grob
granulierte
Modelle
sind
einfacher,
aber
weniger
flexibel.
Granularität
bedeutet
viele
Zeilen,
Attribute
oder
feine
Zeitstempel;
eine
niedrige
Granularität
bedeutet
aggregierte
Kennzahlen
auf
Tages-
oder
Monatsbasis.
Die
Wahl
der
Granularität
hängt
von
Anforderungen
wie
Genauigkeit,
Leistungsfähigkeit,
Speicherbedarf
und
Datenschutz
ab.
verwendet.
Typische
Beispiele
sind
Zeitintervallauflösung
(Sekunde,
Minute,
Stunde)
oder
geografische
Auflösung
(Stadt,
Region).
die
Zielkonflikte
zwischen
Präzision,
Skalierbarkeit
und
Komplexität
adressiert.