Informationsteori
Informationstheorie ist das mathematische Fachgebiet, das die Quantifizierung, Speicherung und Übertragung von Informationen behandelt. Es modelliert Quellen, Kanäle und Empfänger und untersucht, wie Information effizient und zuverlässig verarbeitet werden kann.
Zentrale Größen sind die Entropie H(X), der durchschnittliche Informationsgehalt einer Zufallsquelle, die in Bits gemessen wird,
Das Quellenkodierungsprinzip besagt, dass die minimale durchschnittliche Kodierungslänge pro Symbol durch H(X) beschränkt ist, und es
Im Kontinuierlichen führen Konzepte wie die differential entropy und Modelle wie der gaußsche Kanal zu entsprechenden
Anwendungen finden sich in der Datenkompression, der Fehlerkorrektur, der digitalen Kommunikation, Datenspeicherung und Netzwerken.
Historisch begründete Claude E. Shannon 1948 in A Mathematical Theory of Communication die moderne Informationstheorie; weitere