Home

informationskriterier

Informationskriterier är statistiska mått som används för att jämföra olika modeller och välja den som bäst balanserar god anpassning till data med förhållandevis låg komplexitet. De kombinerar modellens sannolikhet (log-sannolikhet) med ett straff för antalet parametrar, vilket gör att överanpassning motverkas. Vanligen används de för att rangordna kandidatmodeller baserade på samma dataset.

Vanliga informationskriterier är AIC, BIC, AICc, HQIC och DIC. AIC beräknas som AIC = -2 log-sannolikhet + 2k,

Användningen består i att beräkna kriteriet för varje kandidatmodell och välja modellen med lägst värde. Det

Historiskt utvecklades AIC av Akaike 1973 och BIC av Schwarz 1978; DIC introducerades i Bayesianska sammanhang

där
k
är
antalet
parametrar.
BIC
beräknas
som
BIC
=
-2
log-sannolikhet
+
k
log
n,
där
n
är
antalet
observationer.
AICc
är
en
småsamplesjustering
av
AIC:
AICc
=
AIC
+
(2k(k+1))/(n
-
k
-
1).
HQIC
följer
-2
log-sannolikhet
+
2k
log
log
n.
DIC
används
i
Bayesianska
modeller
och
bygger
på
deviance
och
effektivt
antal
parametrar.
är
viktigt
att
komma
ihåg
att
kriterierna
är
relativa
och
att
de
kan
ge
olika
rekommendationer
beroende
på
dataset
och
modellklass.
De
bör
ofta
kompletteras
med
andra
bedömningsmetoder,
som
prognosprestation
eller
korsvalidering.
av
Spiegelhalter
et
al.
2002.