differentiaalientropia
De differentiële entropie, ook wel differential entropy genoemd, is een maat voor de onzekerheid van een continue kansverdeling. Voor een continue variabele X met dichtheidsfunctie f(x) en ondersteuning op het gehele R wordt de differentiële entropie gedefinieerd als h(X) = -∫ f(x) log f(x) dx, waarbij de logaritme kan worden genomen in verschillende basissen (nats bij natuurlijke log, bits bij log2).
Eigenschappen en interpretatie: differentiële entropie kan negatief zijn en is niet invariant onder coördinaattransformaties. Bij een
Verband met discrete entropie en grenzen: de differentiële entropie is de continue tegenhanger van Shannon-entropie. Voor
Voorbeelden: een uniforme verdeling op [0,1] heeft h(X) = log(1) = 0 (nats). Een standaardnormale verdeling N(0,1) heeft
Toepassingen: differentiële entropie wordt toegepast in informatie-theorie, signaalverwerking en statistiek, onder andere bij schattingen van informatie,