Home

likelihoodestimering

Likelihood estimering, eller likelihoodestimering, er en metode i statistikk for å estimere parametrene i en sannsynlighetsmodell basert på observerte data. Grunnideen er å bygge en sannsynlighetsfunksjon, likelihood L(θ) = P(data | θ), som avhenger av modellparametrene θ, og deretter finne de parameterverdiene som gir størst sannsynlighet for å observere dataene. Metoden brukes i en rekke fagfelt, fra biostatistikk til økonometrikk og maskinlæring.

Den mest kjente tilnærmingen er maksimum sannsynlighet-estimering (MLE). MLE søker å maksimere likelihood eller, ofte mer

Inference bygges på likelihood-rammeverket og omfatter konfidensgrenser via profil-likelihood eller Wilks-teoremet, samt hypotesetest basert på likelihood-ratio

Kort sagt gir likelihood estimering et rammeverk for å gjøre kvantitative påstander om parametere basert på

praktisk,
log-likelihood
log
L(θ).
Under
visse
regularitetsbetingelser
har
MLE-verdiene
egenskapene
konsistens
og
asintotisk
normalitet,
og
their
varians
approksimeres
av
den
inverse
Fisher-informasjonen.
Estimasjonen
kan
være
lukket-form
eller
kreve
numeriske
optimaliseringsmetoder,
som
Newton-Raphson
eller
gradientbaserte
algoritmer.
For
modeller
med
uobserverte
variabler
eller
manglende
data
brukes
ofte
EM-algoritmen
(Expectation-Maximization).
tester.
Modellseleksjon
kan
baseres
på
informasjonskriterier
som
AIC
eller
BIC,
som
kobler
sammen
maksimerte
likelihood
med
modellkompleksitet.
Praktisk
bruk
av
likelihood
estimering
inkluderer
vurdering
av
identifikasjones,
robusthet
mot
modellmisspecifikasjon
og
usikkerhetsskattning
gjennom
bootstrap
eller
bayesiansk
tilnærming
hvis
man
ønsker
full
fordeling
av
parametrene.
observerte
data
ved
å
konsistent
maksimere
sannsynligheten
for
det
som
observeres.