Informationsgehalts
Informationsgehalt, auch Selbstinformation genannt, ist eine Maßeinheit dafür, wie viel Information die Beobachtung eines bestimmten Ergebnisses einer Zufallsvariablen X liefert. Für ein diskretes Ereignis x mit Wahrscheinlichkeit p(x) wird der Informationsgehalt definiert als I(x) = -log2 p(x) Bit. Seltenere Ereignisse liefern einen höheren Informationsgehalt und wirken somit informativer.
Der durchschnittliche Informationsgehalt über alle möglichen Ergebnisse wird als Shannon-Entropie H(X) bezeichnet: H(X) = E[I(X)] = -∑ p(x) log2
In Praxis findet der Informationsgehalt Anwendung in Codierung, Kommunikation und Statistik. Er bildet die Grundlage für
Beispiele: Bei p(x) = 0,5 beträgt I(x) 1 Bit; bei p(x) = 0,25 beträgt I(x) 2 Bit. Der Begriff