Home

Bayessche

Bayessche verwijst naar het bayesiaanse kader in de kansrekening en statistiek, waarin waarschijnlijkheden worden geïnterpreteerd als graden van geloof in hypothesen of gebeurtenissen. Het doel is om naarmate er meer data beschikbaar komen het geloof in verschillende modellen of parameterwaarden te actualiseren. Dit staat in contrast met sommige frequentistische benaderingen die onzekerheid vooral via lange-ketenlimieten en herhaalde steekproeven uitdrukken. De bayesiaanse aanpak koppelt subjectieve aannames (priors) aan data (likelihood) en geeft daarmee een volledige proefballon voor onzekerheid (posterior).

De kern van hetBayessche denken is Bayes’ regel: P(H|D) = P(D|H) P(H) / P(D). Hier is H een

Toepassingen komen voor in geneeskunde, finance, machine learning en besluitvorming. Praktisch worden analytische oplossingen beperkt door

hypothese
of
parameterwaarde
en
D
data.
P(H)
is
de
prior,
die
voorafgaande
kennis
of
geloof
uitdrukt;
P(D|H)
heet
de
likelihood,
de
kans
op
de
waargenomen
data
gegeven
H;
P(H|D)
is
de
posterior,
de
bijgewerkte
kans
na
observatie;
P(D)
dient
als
normalisatie.
Het
resultaat
is
een
voorspelmodel
waarin
men
zowel
parameters
als
toekomstige
observaties
probabilistisch
kan
beschrijven.
Vaak
wordt
ook
gesproken
over
de
posterior
predictive
distribution,
waarmee
toekomstige
data
rechtstreeks
uit
de
posterior
kunnen
worden
afgeleid.
Conjugate
priors
vereenvoudigen
berekeningen
doordat
de
posterior
dezelfde
familie
aannneemt
als
de
prior.
complexiteit;
daarom
worden
computermethoden
zoals
Markov-keten
Monte
Carlo
en
variational
Bayes
gebruikt
om
posterior
distributions
te
schatten.
Historisch
ontstond
de
benadering
uit
werk
van
Thomas
Bayes
en
werd
verder
ontwikkeld
door
Pierre-Simon
Laplace;
de
methode
biedt
een
coherente,
onzekerheidsgerichte
manier
van
statistische
redenering.