Home

Informationsfunktionen

Informationsfunktionen bezeichnen in der Informationstheorie, Statistik und verwandten Disziplinen Funktionen, die Information quantifizieren, beschreiben oder optimieren. Sie dienen der Beschreibung, dem Vergleich und der Nutzung von Information in Nachrichten, Messungen, Daten oder Entscheidungsprozessen.

In der Informationstheorie sind zentrale Beispiele Entropie H(X) und bedingte Entropie H(X|Y), die den Informationsgehalt von

In der Statistik spielt die Fisher-Informationsfunktion eine zentrale Rolle: Sie quantifiziert die Empfindlichkeit einer Verteilung gegenüber

Anwendungsbereiche reichen von der Optimierung von Messreihen, der Bewertung von Informationsgehalten in Quellen über maschinelles Lernen

Die konkrete Ausprägung einer Informationsfunktion ist modell- und kontextabhängig; unterschiedliche Definitionen können unterschiedliche Interpretationen von Information

Zufallsvariablen
bzw.
von
Messungen
festlegen.
Die
gegenseitige
Information
I(X;Y)
misst,
wie
viel
Information
eine
Beobachtung
Y
über
X
liefert.
Weitere
Funktionen
beziehen
sich
auf
Informationsgewinne
bei
Lern-
oder
Entscheidungsprozessen
sowie
auf
Kanal-
und
Kodierungstheorie,
etwa
die
Kanal-Kapazität
C
=
max
I(X;Y).
Solche
Funktionen
ermöglichen
die
Analyse
von
Kompression,
Kommunikation
und
Informationsfluss
in
Systemen.
unbekannten
Parametern
und
dient
dem
Design
von
Experimenten
sowie
der
Beurteilung
von
Schätzern
(Fisher-Information,
Cramér-Rao-Untergrenze).
und
Mustererkennung
bis
hin
zu
Bioinformatik.
Informationsfunktionen
liefern
formale
Grundgrößen,
um
Information
zu
beschreiben,
zu
vergleichen
und
gezielt
zu
nutzen.
bedeuten.