Home

Kodierungsschemata

Kodierungsschemata bezeichnen systematische Verfahren zur Übersetzung von Informationen von einer Darstellungsform in eine andere. Sie legen die Regeln fest, nach denen Daten kodiert und wieder decodiert werden, einschließlich der verwendeten Symbole, Bitfolgen, Kompressions- oder Fehlererkennungsmechanismen. Ziel ist eine interoperable, effiziente und verlässliche Speicherung, Übertragung und Verarbeitung von Informationen.

Zeichencodierung gehört zu den wichtigsten Formen der Kodierung. Sie ordnet Zeichen numerischen Codes zu und macht

Daten- und Medienkodierung umfasst Kompression sowie Formate für Audio, Video und Bilder. Verlustfreie Kodierung reduziert Redundanz

Fehlererkennung und -korrektur ergänzen Kodierungsschemata, um Übertragungs- oder Speicherkfehler zu erkennen bzw. zu korrigieren. Beispiele sind

Anwendungen erstrecken sich über Dateisysteme, Netzwerke, Rundfunk, Multimedia und Speichertechnologien. Standardisierung erfolgt durch ISO/IEC, IEEE, IETF,

Schriftzeichen
weltweit
nutzbar.
Beispiele
sind
ASCII,
ISO/IEC
8859-1
und
die
Unicode-Familie
UTF-8,
UTF-16.
Wesentliche
Aspekte
sind
Byte-Reihenfolge,
Zeichensatzunterstützung
und
Standardisierung
durch
Organisationen
wie
ISO/IEC
bzw.
Unicode-Konsortien,
um
Kompatibilität
sicherzustellen.
ohne
Informationsverlust
(z.
B.
ZIP,
PNG),
während
verlustbehaftete
Modi
(JPEG,
MP3)
gezielt
Informationsanteile
entfernen,
um
Effizienz
zu
steigern.
In
der
Praxis
spielen
außerdem
Entropie-Codierung
und
Modellierung
eine
Rolle,
um
die
Bitraten
zu
optimieren.
CRC
(Fehlererkennung),
Reed-Solomon-Codes,
LDPC-
oder
Turbo-Codes
(Fehlerkorrektur).
ITU,
wodurch
Kompatibilität
und
Interoperabilität
gewährleistet
werden.