Home

Datenintegritätsprüfungen

Datenintegritätsprüfungen beschreiben Verfahren, mit denen die Korrektheit, Konsistenz und Verlässlichkeit von Daten über ihren Lebenszyklus hinweg sichergestellt werden. Ziel ist es, ungeplante Änderungen, Fehler oder Manipulationen frühzeitig zu erkennen und zu verhindern.

Zu den gängigen Techniken gehören Prüfsummen und Hash-Funktionen (beispielsweise SHA-256) zur Feststellung von Änderungen an Dateien

In Datenbanken und Anwendungen zur Datenverwaltung sorgen Integritätsmechanismen für konsistente Zustände. Dazu gehören Datenbank-Constraints wie Primary

Anwendungsbereiche liegen in Finanzdienstleistungen, Gesundheitswesen, wissenschaftlicher Datenerhebung und der langfristigen Archivierung. Hier spielen neben technischen Mechanismen

Herausforderungen bestehen in Skalierung, Leistungsaufwand, verteilten Architekturen und dem Umgang mit verschlüsselten Daten. Fehlerraten, false positives/negatives

Standardisierung erfolgt im Rahmen von Informationssicherheits- und Data-Governance-Standards. Beispiele sind ISO/IEC 27001, COBIT, NIST SP 800-53

oder
Datenpaketen,
sowie
CRC
oder
Paritätsprüfungen
in
Übertragungswegen.
Digitale
Signaturen
und
Message
Authentication
Codes
(MAC)
dienen
der
Echtheit
und
Integrität
von
Daten.
In
modernen
Speichersystemen
unterstützen
Prüfsummen
End-to-End-Integrität
(z.
B.
in
Dateisystemen
wie
ZFS
oder
RAID-Konfigurationen),
während
der
Datentransport
durch
Protokolle
wie
TLS
oder
HMAC
geschützt
wird.
Keys,
Foreign
Keys,
Unique
Constraints
sowie
Transaktionen,
ACID-Eigenschaften
und
Replikationsprüfungen.
Zusätzlich
werden
Nachverfolgbarkeit
und
Revisions-Logging
genutzt,
um
Veränderungen
nachvollziehbar
zu
machen.
auch
Governance-Aspekte
eine
Rolle,
etwa
Audit-Trails,
Versionierung,
Zugriffskontrollen
und
Compliance-Anforderungen.
sowie
der
Schutz
vor
Insider-Bedrohungen
müssen
berücksichtigt
werden.
Typische
Praxis
schließt
regelmäßige,
automatisierte
Prüfungen,
sichere
Schlüsselverwaltung,
sowie
klare
Verantwortlichkeiten
und
Dokumentationen
ein.
sowie
entsprechende
Frameworks
für
Data
Quality
Management.
Die
Implementierung
hängt
vom
Anwendungskontext,
von
Datenarten
und
vom
erforderlichen
Risikoniveau
ab.