informasjonsmengden
Informasjonsmengden er et sentralt begrep i informasjonsteori og beskriver mengden informasjon som et bestemt utfall av en stokastisk kilde gir. For et utfall x med sannsynlighet P(x) defineres informasjonsmengden som I(x) = -log2 P(x) bits. Kort sagt blir sjeldne eller overraskende hendelser tildelt mer informasjon enn vanlige hendelser. For en tilfeldig variabel X med verdier x, er den forventede informasjonsmengden, eller entropien, H(X) = E[I(X)] = -sum P(x) log2 P(x) bits. Enhetene er bits når logaritmen benyttes i base 2; man kan også bruke naturlige enheter kalt nats ved log_e.
Informasjonsmengden har flere viktige egenskaper: for uavhengige hendelser er informasjonsmengden additiv, I(x,y) = I(x) + I(y). Begrepet skiller
Eksempel: en rettferdig myntkasting gir hver utfall I = -log2(1/2) = 1 bit, mens et sjeldent utfall med
Relasjoner til andre konsepter: informasjonsmengden er ikke det samme som Kolmogorov-kompleksitet, som måler lengden på den
---