informationsmængder
Informationsmængder refererer til målinger af information i en besked eller i en tilfældig variabel, og er centrale i informations- og kommunikationsteori. For et afkast x med sandsynlighed p(x) er informationsindholdet i udfaldet i(x) ofte defineret som -log2 p(x) i bits. Den gennemsnitlige mængde information i et udfald er Shannon-entropien H(X) = E[i(X)] = -∑ p(x) log2 p(x) (for diskrete variabler). Ved kontinuerte variable anvendes differentialentropi h(X) = ∫ f(x) log f(x) dx (opmærksomhed på måleenheder).
Informastioner kan også beskrives sammenhængende: Den fælles information i et par (X,Y) gives ved i(X,Y) = -log
Anvendelserne af informationsmængder spænder fra kodingsteori og data-kompression til kommunikation og maskinlæring. Enheden er typisk bit