Home

entropiegebaseerde

Entropiegebaseerde verwijst naar benaderingen en methoden die entropie als kernmaat gebruiken om onzekerheid, ongestructureerde informatie of inefficiëntie te kwantificeren en te sturen. Het begrip entropie komt oorspronkelijk uit de informatie-theorie van Claude Shannon en uit de thermodynamica, maar wordt in veel vakgebieden toegepast. In data-analyse en machine learning dient entropie vaak als maat voor onvoorspelbaarheid: hoe groter de entropie van een variabele, hoe minder voorspelbaar deze is. In veel toepassingen ondersteunt entropiegebaseerde benadering het nemen van beslissingen onder onzekerheid, bijvoorbeeld bij modellen die maximale entropie nastreven of bij regularisatie op basis van onzekerheid.

Kernbegrippen en berekening worden vaak weergegeven via discrete en continue vormen. De discrete entropie H(X) = - sum

Toepassingen variëren van feature selectie via informatiewinst tot entropie-regularisatie in machine learning, en van entropie-gestuurde reconstructie

p(x)
log
p(x)
neemt
toe
naarmate
de
verdeling
minder
deterministisch
is,
terwijl
continue
entropie
h(X)
=
-
∫
f(x)
log
f(x)
dx
geldt
voor
verdelingen
over
een
continu
domein.
Logaritmebasis
bepaalt
de
eenheid
(bits
bij
basis
2,
nats
bij
basis
e).
Mutual
information
en
voorwaardelijke
entropie
spelen
een
rol
bij
het
meten
van
relaties
tussen
variabelen.
Het
maximum-entropyprincipe
(Jaynes)
stelt
dat
men
onder
gegeven
constraints
de
kansverdeling
kiest
met
maximale
entropie,
wat
een
objectieve
aannamestructuur
biedt
wanneer
informatie
beperkt
is.
tot
entropie-ondersteunde
sampling
in
simulaties
en
statistische
modellering.
Doel
is
steeds
om
onzekerheid
expliciet
te
modelleren
en
processen
of
data
effectief
te
beschrijven
met
zo
weinig
aannames
als
mogelijk.