informatiehoeveelheid
Informatiehoeveelheid is een relatiebegrip uit de informatieleer dat aangeeft hoeveel informatie een bericht of gebeurtenis bevat. Het concept gaat uit van de onvoorspelbaarheid van de gebeurtenis: hoe onvoorspelbaarder, hoe groter de informatiehoeveelheid. In de praktijk wordt de hoeveelheid informatie meestal uitgedrukt in bits. Het begrip is fundamenteel voor communicatie, dataopslag en datareductie.
De informatieinhoud van een specifieke uitkomst wordt vaak uitgedrukt met de zelfinformatie I(p) = -log2(p) bits, waarbij
De verwachte hoeveelheid informatie over een bron wordt gegeven door de entropie H(X) = -∑ p(x) log2 p(x)
Toepassingen van informatiehoeveelheid omvatten datastructurering, codering en communicatiekanalen. De concepten entropie en zelfinformatie vormen kernbegrippen bij